Parece que a Amazon está investindo grandes somas de dinheiro na formação de um ambicioso modelo de linguagem grande (LLM) que pode competir com OpenAI e Alfabeto. A notícia, revelada por dois informantes Reuters destaca que o modelo teria “Olimpo” como um codinome e com o qual você pode contar 2.000 bilhões de parâmetros diferentes: portanto, pode vir a ser um dos maiores modelos em fase de formação. Nesse sentido, fazendo uma comparação rápida, o modelo GPT-4 da OpenAI é baseado em um trilhão de parâmetros.

Especificamente, a equipe seria liderada por Rohit Prasad, ex-chefe da Alexa, que terá que reportar novidades e desenvolvimentos do projeto diretamente ao CEO Andy Jassy. Como cientista-chefe de inteligência artificial geral (AGI) da Amazon, Prasad envolveria pesquisadores que trabalharam no Alexa AI e a equipe científica da Amazon para trabalhar em modelos de treinamento, unindo assim os esforços de toda a empresa na área de inteligência artificial (podendo contar também com recursos dedicados).

No passado, a Amazon já treinou modelos menores, como Titã. Além disso, tem colaborado com startups da área como Laboratórios Antrópico e AI21, com a finalidade de oferecer serviços adicionais aos usuários de Amazon Web Services (AWS). Segundo a Reuters, porém, a empresa foi convencida a desenvolver modelos internos porque estava convencida de que isso poderia tornar suas ofertas na AWS mais atrativas. Quanto ao lançamento da Olympus, determinados horários ainda não foram comunicados.