Tecnologia será capaz de detectar emoções dos usuários, interagir com textos, voz e documentos
A OpenAI anunciou nesta segunda-feira (13) seu mais recente modelo de linguagem artificial de grande porte, que, segundo eles, será mais fácil e intuitivo de usar. Chamado GPT-4o, é uma atualização do modelo anterior da empresa, o GPT-4, que foi lançado há pouco mais de um ano. O modelo estará disponível para clientes não pagantes, o que significa que qualquer pessoa terá acesso à tecnologia mais avançada da OpenAI através do ChatGPT.
O GPT-4o permitirá interações usando texto, voz e a “visão”, o que significa que ele pode visualizar capturas de tela, fotos, documentos ou gráficos enviados pelos usuários e conversar sobre eles. De acordo com as últimas informações noticiadas pela CNN, a Diretora de Tecnologia da OpenAI, Mira Murati, disse que o ChatGPT agora também terá capacidades de memória, o que significa que ele pode aprender com conversas anteriores com os usuários e pode fazer tradução em tempo real.
“Esta é a primeira vez que realmente estamos dando um grande passo adiante se tratando de facilidade de uso”, disse Murati durante uma demonstração ao vivo na sede da empresa em São Francisco. “Esta interação se torna muito mais natural e muito, muito mais fácil.”
O novo lançamento ocorre enquanto a OpenAI busca manter-se à frente da crescente concorrência na corrida armamentista de IA. Rivais como Google e Meta têm trabalhado para construir modelos de linguagem de grande porte cada vez mais poderosos que podem ser usados para trazer ferramentas de IA para seus diversos produtos.
Enquanto isso, o mais recente lançamento do GPT pode ser uma vantagem para a Microsoft, que investiu bilhões de dólares na OpenAI para incorporar sua tecnologia de IA nos próprios produtos da empresa.
Executivos da OpenAI demonstraram uma conversa falada com o ChatGPT para obter instruções em tempo real para resolver um problema de matemática, contar uma história de dormir e obter conselhos de programação. A ferramenta foi capaz de falar com uma voz natural, semelhante à humana, bem como uma voz de robô — e até cantou parte de uma resposta. O chatbot também foi capaz de olhar para uma imagem de um gráfico e discuti-la.
Eles também mostraram o modelo detectando as emoções dos usuários: em uma instância, ele ouviu a respiração do executivo e o encorajou a se acalmar. E foi capaz de ter uma conversa em vários idiomas, traduzindo e respondendo automaticamente.
Murati disse que a OpenAI lançará um aplicativo desktop do ChatGPT com as capacidades do GPT-4o, dando aos usuários outra plataforma para interagir com a tecnologia da empresa.
As tecnologias e recursos atualizados estão programados para serem lançados para o ChatGPT nos próximos meses.
Por: Clare Duffy