Você sabe o que é a ‘alucinação’ do ChatGPT? Entenda mais sobre esse fenômeno

Num novo estudo sobre o comportamento dos robôs de inteligência artificial generativa, os pesquisadores classificaram os equívocos dos bots como “alucinações”. Essas investigações foram conduzidas pela Vectra, uma startup formada por ex-funcionários do Google.

Essas “alucinações” referem-se a respostas que não guardam conexão com as perguntas feitas, culminando em resultados sem sentido. Em outras palavras, são falhas que vão além de simples informações falsas fornecidas pelo chatbot ou que não têm origem em fontes confiáveis.

A “alucinação” dos chatbots

De acordo com Helbert Costa, executivo de tecnologia e autor do livro “ChatGPT Explicado”, as inteligências artificiais generativas disponíveis atualmente não foram projetadas com o intuito de serem estritamente factuais. Ele afirma que essas IAs são treinadas para oferecer interações mais humanizadas e criativas.

Simon Hughes, pesquisador da Vectra, acrescenta que as “alucinações” não representam um problema para aqueles que utilizam essas plataformas para entretenimento. No entanto, ele alerta que seu uso em contextos relacionados a informações médicas, dados e informações judiciais pode ser prejudicial.

A imagem mostra um celular em diálogo com a IA e ao fundo a logo da OpenAI/ChatGPT.
Imagem: Ascannio / shutterstock.com

Taxas entre as empresas

Além de identificar as “alucinações”, as pesquisas, pela primeira vez, compilaram dados para avaliar a frequência com que esse fenômeno ocorre nas plataformas. Segundo a Vectra, as alucinações ocorrem com uma frequência que varia de 3% a 7%.

Veja também: Descubra como funciona o pênis biônico

No ranking, a OpenAI (ChatGPT) apresentou a menor taxa de alucinação, situando-se em torno de 3%. Por outro lado, as tecnologias da Meta (Facebook e Instagram) exibiram uma taxa mais elevada, aproximadamente 5%, enquanto as do sistema Claude 2 seguiram com mais de 8%. A taxa mais alta foi registrada no Palm Chat, do Google, atingindo 27%.

Qual a solução para esses problemas? 

André Aizim Kelmanson, sócio da Grana Capital, responsável pelo aplicativo Grana IA, destaca que a prevenção desse problema demanda esforços constantes. Ele enfatiza a importância de educar a máquina para que compreenda a necessidade de não ser criativa quando a resposta requerida não está disponível.

Adicionalmente, é crucial que os usuários desenvolvam um senso crítico e busquem informações em outras fontes, conforme aponta Bruno Diniz, sócio-fundador da consultoria de inovação Spiralem. Ele ressalta a falta de discernimento dos usuários diante das informações apresentadas pelas plataformas de IA como outro desafio a ser enfrentado.

Imagem: SuPatMaN / shutterstock.com

Relacionadas