Por que a IA alucina, segundo pesquisadores da OpenAI (e o que isso tem a ver com SEO)

Alucinações são erros da IA, que parecem respostas genuínas. Eles acontecem até nos modelos mais bem treinados, seja por falta de contexto, por dificuldade em entender prompts ou por vieses durante o treinamento dos modelos de linguagem.

Provavelmente já aconteceu com você: fez uma pergunta, o ChatGPT respondeu algo suspeito, você perguntou se era verdade… E ele disse que, na verdade, não tinha como confirmar aquela informação.

Pesquisadores da OpenAI e do Instituto de Tecnologia da Geórgia publicaram um estudo explicando por que as alucinações acontecem e por que elas são praticamente inevitáveis.

O que são as alucinações?

As alucinações podem ser descritas como respostas erradas, mas que parecem verídicas e são ditas com muita confiança. Isso as torna particularmente perigosas, porque se você não conhece a fundo o tema que está pesquisando, pode nem perceber a mentira.

E a IA, logicamente, não vai explicar que é uma informação errada. Ela também não é instruída a dizer “eu não sei”, menos ainda a instruir quem está usando a buscar outra fonte de informações.

Por isso os principais modelos exibem uma mensagem pedindo para que você não confie cegamente nas respostas. 

Existem diferentes tipos de alucinações, que podem ser classificadas em dois grupos:

  • Intrínsecas, que contradizem o prompt do usuário, como aquele clássico de contar errado as letras de uma palavra;
  • Extrínsecas, que contradizem os dados de treinamento, como responder que a capital da Austrália é Sydney em vez de Camberra.

As alucinações são um problema geral dos modelos de linguagem. Ou seja, podem acontecer em todos (embora o ChatGPT e as AI Overviews do Google tenham ficado conhecidos por falhas). 

Afinal, por que a IA alucina?

Segundo o artigo escrito pelos pesquisadores da OpenAI, as alucinações podem acontecer porque:

  • Existem limitações nas técnicas de treinamento das IAs;
  • Há perguntas cuja resposta é aleatória, com apenas uma resposta certa e milhares de respostas erradas. Assim, fica estatisticamente mais difícil de a IA acertar sempre;
  • Certos modelos têm contexto limitado, o que prejudica o processamento de certas informações;
  • Há situações onde é muito difícil (ou impossível) encontrar padrões em bases de dados;
  • Certas perguntas exigem simplesmente muito processamento para serem respondidas, o que aumentam as chances de erros;
  • Prompts que exigem dados diferentes daqueles usados no treinamento do modelo podem resultar em respostas incorretas;
  • Uma base de dados que contenha dados factualmente errados logicamente gera respostas erradas;
  • Durante o treinamento, os modelos são estimulados a sempre oferecer uma resposta, mesmo quando não têm certeza sobre ela.

Um exemplo bem fácil de entender, que ilustra quase todos os pontos acima, é a pergunta “qual é a data de aniversário do Fulano?”.

Essa pergunta tem uma resposta certa e 364 erradas. Logo, é mais provável um modelo se enrolar pra responder isso, do que “qual é a capital da França?”, que tem uma resposta só.

Se o modelo nunca tiver visto esta pergunta, fica ainda mais difícil. Se não houver dados específicos sobre o aniversário do fulano na base de dados usada para treinar a IA, ainda mais. E se o modelo não souber claramente quem é o Fulano, pior.

Mas, mesmo quando a IA tem os dados corretos, as alucinações ainda podem acontecer. 

Isso porque os modelos funcionam com base em probabilidades e padrões, tentando prever as palavras que fazem mais sentido com base no que já viram. Logo, detalhes que aparecem pouco nos dados de treinamento ou abordam questões abertas podem levar a IA a “chutar” uma resposta.

Para entender os detalhes (e como esse comportamento é de certa forma reforçado), é necessário observar no detalhe como os modelos são treinados. O artigo da OpenAI foca em duas etapas, o pré e o pós-treinamento.

Erros durante o pré-treinamento

Como o nome sugere, o pré-treinamento é a etapa em que a IA começa a aprender “lendo” um grande volume de dados e aprendendo quais palavras vêm a seguir.

Aqui, os autores argumentam que já surge o primeiro problema: é mais fácil julgar se uma frase faz sentido do que de fato produzir uma resposta correta. Assim, certos tipos de perguntas, com apenas uma resposta certa, é estatisticamente mais provável errar do que acertar.

Por isso, mesmo com dados de qualidade e muita calibração nos testes, ainda podem surgir respostas que parecem plausíveis, mas estão erradas.

Erros no pós-treinamento

O pós-treinamento é a etapa em que os modelos são refinados. Isso inclui ajuste fino, feedback humano e aplicação de técnicas para aumentar a precisão.

Ainda assim, as alucinações podem acontecer. Isso acontece porque novas tarefas e mudanças de contexto podem dificultar o aprendizado das IAs. Ou seja, mesmo com ajustes, situações “imprevistas” podem abrir margem para erros.

Outro problema é que o feedback humano pode reforçar as alucinações. Quando as respostas estão sendo avaliadas no pós-treinamento, são atribuídas notas para respostas “certas” ou “erradas”, mas não há pontuação para “não sei”.

Logo, as IAs são incentivadas a sempre responder algo, mesmo quando não têm confiança. Segundo os pesquisadores, diversos modelos seguem esse comportamento, que valoriza os “chutes”.

Como sugestão, os autores da OpenAI consideram implementar uma pontuação de confiança nas respostas. Seria incluir uma instrução do tipo “responda se você tiver 0,75 ou mais de certeza na resposta, do contrário, diga que você não sabe”. 

Limitações no estudo

O artigo analisa as causas das alucinações na IA, mas tem algumas limitações. Elas são pontuadas pelos próprios pesquisadores, como é comum em publicações acadêmicas.

Os pesquisadores lembram que a pesquisa:

  • Tem foco em textos plausíveis, ignorando as frases sem sentido (que são raras nos modelos de ponta);
  • Tratam de perguntas com respostas únicas, e que textos longos podem envolver múltiplas alucinações e tipos de erros diferentes, que não foram explorados;
  • Assume que toda informação necessária está no prompt, o que nem sempre acontece no “mundo real” e adiciona uma camada extra de complexidade na geração de respostas;
  • Define categorias simplistas de respostas, como “certo”, “errado” e “não sei”, o que não dá margem para nuances.

A relação entre buscadores, IAs e alucinações

Os mecanismos de busca tradicionais podem fazer parte das técnicas para reduzir alucinações. Este processo se chama grounding e tem como objetivo ancorar as respostas da IA a uma base de dados confiáveis.

Quando a IA não sabe algo ou entende que seus dados internos não permitem oferecer uma resposta satisfatória, ela consulta essas fontes.

No caso dos chatbots de IA, as bases de dados externas são os índices dos buscadores. O Gemini logicamente usa o índice do Google, enquanto o ChatGPT usa o Bing, por exemplo.

É assim que eles conseguem falar sobre as notícias do dia, contar a previsão do tempo ou mostrar o placar do último jogo do seu time.

Os modelos de linguagem não armazenam listas de URLs como os buscadores. Em vez disso, pesquisam as informações em tempo real.

Embora seja uma boa solução, ainda não é perfeita. A IA pode consultar informações desatualizadas, sites pouco confiáveis, ou se deparar com questões abertas muito complexas. 

O artigo também explica que técnicas como grounding e RAG (geração aumentada de recuperação) são incapazes de lidar com alucinações intrínsecas. Portanto, elas melhoram o desempenho, mas não eliminam completamente os erros da IA. 

As implicações para SEO

A pesquisa não fala nada sobre SEO, mas é possível fazer algumas associações importantes com a nossa área de atuação. 

Revisar as respostas da IA é fundamental

Nunca terceirize o seu trabalho para a IA. Mesmo que os resultados pareçam ótimos e o texto aparente estar muito bem escrito, você precisa no mínimo revisar para garantir que está tudo certo.

Isso vale para qualquer tipo de tarefa, da análise de dados até a redação de textos e revisão gramatical. Mesmo nas tarefas mais simples pode haver alguma situação inusitada, que não estava bem representada nos dados de treinamento do modelo.

IA e buscadores se complementam

Em segundo lugar, buscadores são ótimos para validar o que a IA diz. Ou seja, as pessoas usam IA e o buscador, não um ou outro. Logo, também não faz sentido a sua marca escolher otimizar para um ou outro tipo de interface.

Isso também significa que a IA não substitui os buscadores tradicionais. Na verdade, processos básicos de recuperação de informação, como rastreamento, indexação e ranqueamento, melhoram o desempenho desses sistemas.

O que os modelos de linguagem têm de diferente é a apresentação das informações. Em vez de listas de links, eles raciocinam, resumem informações e sintetizam múltiplas fontes em uma única resposta, o que tem diversos benefícios para quem usa a IA.

Grounding é uma excelente oportunidade de tráfego

E, por último, você pode estar presente no processo de grounding. Se o seu site estiver otimizado, pode receber uma citação no momento em que a IA precisar de apoio externo para responder uma pergunta. 

Aqui no site da SHH, publicamos um artigo explicando em detalhes por que o grounding torna SEO ainda mais relevante. Mas, em resumo, ser citado é a principal (se não a única) oportunidade de gerar tráfego e potencialmente leads a partir das IAs.

Seja citado pelas IAs

Para estar presente nas respostas da IA, você precisará de uma combinação de técnicas tradicionais de SEO, uma estratégia de conteúdo relevante e instruções sobre quando e como a IA realmente pesquisa na web

O time da SEO Happy Hour pode te apoiar na otimização do seu site. Entre em contato com a SHH para entender como estamos ajudando empresas a obter mais destaque nos mecanismos de busca e nas IAs.

  • Elyson Gums

    Elyson Gums

    Elyson Gums é redator na SEO Happy Hour. Trabalha com redação e produção de conteúdo para projetos de SEO e inbound marketing desde 2014, em segmentos B2C e B2B. É bacharel em Jornalismo (Univali/SC) e mestre em Comunicação Social (UFPR).

Comentários

0 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *