A OpenAI supostamente tem um próximo grande modelo de linguagem para ser lançado em breve, mas o salto geracional pode não ser tão grande. Segundo fontes do site The Information, o modelo Orion, sucessor do GPT-4, não tem demonstrado tantos avanços assim e abriu um sinal de alerta.
A reportagem do veículo ouviu de funcionários ligados ao desenvolvimento do Orion que esse modelo mostra “aprimoramentos moderados” em relação ao seu antecessor. A expectativa é que a LLM tenha um salto geracional menor do que a transição entre o GPT-3 e o GPT-4, especialmente em tarefas com ênfase em codificação.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Há poucos detalhes concretos a respeito da chegada do Orion, mas uma das previsões iniciais era de que essa tecnologia seria lançada para empresas parceiras em dezembro. Contudo, o CEO da OpenAI, Sam Altman, chamou prontamente os rumores de fake news e negou o lançamento do recurso.
Batendo no teto?
Como aponta a publicação original, o possível baixo desempenho do modelo Orion liga um sinal de alerta no mundo da inteligência artificial generativa. Após o estouro da tecnologia em 2022, a indústria dá passos que mostram uma certa desaceleração no setor, como se a criação imediata de tecnologias estivesse começando a encostar em um teto.
Esse teto pode ser entendido como a dificuldade da OpenAI e outras companhias de continuar criando modelos cada vez mais rápidos e potentes, que precisam de ainda mais dados para serem treinados e consomem muita energia. Pesquisas da agência Epoch AI feitas em junho sugerem que até 2028 a indústria pode consumir todo o conteúdo textual da internet para o treinamento de IAs.
O fator computacional também entra nessa equação, uma vez que o treinamento e desenvolvimento de modelos de linguagem dessa escala necessita de máquinas exponencialmente potentes para aguentar todos os cálculos e execuções.
Fontes
Categorias