Com que frequência você recorre a chatbots ou sistemas de Inteligência Artificial (IA) para otimizar suas tarefas ou esclarecer suas dúvidas?
Se a sua resposta for um sonoro “frequentemente!” ou “sempre!”, talvez seja o momento de acender um alerta. 😟
Seja você um estudante que usa ferramentas de IA para auxiliar em suas pesquisas acadêmicas ou um programador que confia na IA para gerar códigos, a possibilidade de imprecisões nos resultados fornecidos pela IA é considerável. Isso se deve, em grande parte, a inconsistências ou dados equivocados nos materiais de treinamento da IA.
Apesar de os modelos de IA e aprendizado de máquina (ML) estarem revolucionando o mundo, assumindo tarefas repetitivas e solucionando desafios através da automação, ainda há um caminho a percorrer para garantir a precisão dos resultados com base nas instruções fornecidas.
Se você utiliza com frequência geradores de conteúdo e chatbots, logo perceberá que, por vezes, recebe respostas incorretas, irrelevantes ou completamente inventadas. Esses casos são conhecidos como alucinações ou confabulações da IA e representam um obstáculo significativo para organizações e indivíduos que dependem de bots de IA generativos.
Se você já se deparou com alucinações da IA ou simplesmente deseja saber mais sobre o tema, este artigo se aprofunda nessa questão. Exploraremos o conceito de alucinação da IA, suas causas, exemplos e se há alguma solução para esse problema.
Vamos começar!
O que é uma alucinação de IA?
Uma alucinação de IA ocorre quando um modelo de IA, ou um Modelo de Linguagem Grande (LLM), produz informações falsas, imprecisas ou sem lógica. O modelo gera uma resposta aparentemente confiável, mas que não condiz com seus dados de treinamento, apresentando-a como um fato, mesmo que não faça sentido ou não se baseie em raciocínio lógico!
E dizem que errar é humano!😅
Ferramentas de IA, como o ChatGPT, são geralmente treinadas para antecipar as palavras que melhor se encaixam na pergunta feita. Apesar de geralmente fornecerem respostas precisas e factuais, esse processo pode, por vezes, resultar em falhas de raciocínio, levando os chatbots a apresentar inconsistências factuais e declarações falsas.
Em outras palavras, os modelos de IA, por vezes, “alucinam” uma resposta, buscando agradar o usuário, demonstrando um certo viés, parcialidade ou especialização.
As alucinações da IA podem variar desde pequenas inconsistências a respostas totalmente fabricadas ou falsas. Seguem os tipos de alucinações de IA que você pode encontrar:
#1. Contradição de frase: Ocorre quando um modelo LLM produz uma frase que se opõe frontalmente a uma afirmação feita anteriormente.
#2. Contradição factual: Este tipo de alucinação acontece quando a IA apresenta informações falsas ou fictícias como se fossem fatos.
#3. Contradição de solicitação: Esse tipo de alucinação ocorre quando a resposta contradiz a pergunta para a qual foi gerada. Por exemplo, se a solicitação for “Escreva um convite para meus amigos para minha festa de aniversário”, o modelo pode gerar uma resposta como “Feliz aniversário, mamãe e papai”.
#4. Alucinações aleatórias ou irrelevantes: Essa alucinação ocorre quando o modelo gera resultados que não têm relação alguma com a solicitação feita. Por exemplo, se a pergunta for “O que é especial na cidade de Nova York?”, você pode receber uma mensagem dizendo: “Nova York é uma das cidades mais populosas da América. Os cães são os animais mais leais e os melhores amigos do homem.”
Leia também: Como a pesquisa generativa de IA está transformando os mecanismos de pesquisa
Exemplos de alucinações de IA
As alucinações de IA protagonizaram alguns episódios notáveis que merecem atenção. Eis alguns exemplos notórios de alucinações da IA:
- O chatbot do Google, Bard, afirmou erroneamente que o Telescópio Espacial James Webb havia capturado as primeiras imagens de um exoplaneta fora do nosso sistema solar.
- A demonstração Galactica LLM da Meta, em 2022, direcionada a estudantes e pesquisadores científicos, forneceu informações imprecisas e um artigo falso quando solicitada a elaborar um texto sobre a criação de avatares.
A seguir, um exemplo do Google Bard alucinando ao receber a pergunta: “Conte-me a história das estrelas choronas”, que não existe.
Eis outro caso, testado no ChatGPT (GPT-3.5), alucinando ao falar sobre uma pessoa irreal, o Sr. Ben, quando solicitei: “Descreva um dia na vida de um super-herói, o Sr. Água, que conversa com cães e controla a vida.”
O ChatGPT elaborou toda a rotina diária, da manhã à noite, do Sr. Ben, que não existe, mas respondeu à solicitação, um dos motivos por trás das alucinações de IA.
E como é agradar as pessoas!
Mas quais são as razões? Vamos explorar algumas causas das alucinações na IA.
Por que ocorrem alucinações de IA?
Existem diversas razões e causas técnicas para as alucinações da IA. Aqui estão algumas possíveis explicações:
- Dados de baixa qualidade, insuficientes ou desatualizados: LLMs e modelos de IA dependem consideravelmente dos dados de treinamento. Portanto, são tão bons quanto os dados nos quais foram treinados. Se a ferramenta de IA apresentar erros, inconsistências, viés ou ineficiência nos dados de treinamento, ou se simplesmente não compreender a solicitação feita, isso pode gerar alucinações, pois a ferramenta produzirá uma resposta a partir de um conjunto de dados limitado.
- Sobreajuste: Ao ser treinado em um conjunto de dados limitado, o modelo de IA pode tentar memorizar as instruções e os resultados apropriados, tornando-se incapaz de gerar ou generalizar novos dados de forma eficaz, o que leva a alucinações.
- Contexto de entrada: Alucinações de IA também podem ocorrer devido a instruções ambíguas, imprecisas, inconsistentes ou contraditórias. Embora o conjunto de dados de treinamento do modelo de IA não esteja ao alcance dos usuários, a entrada que eles inserem como uma solicitação está. Portanto, é essencial fornecer instruções claras para evitar alucinações.
- Uso de expressões idiomáticas ou gírias: Se a solicitação incluir expressões idiomáticas ou gírias, há uma grande probabilidade de alucinações de IA, especialmente se o modelo não tiver sido treinado com tais palavras ou gírias.
- Ataques adversários: Em alguns casos, invasores inserem deliberadamente avisos criados para confundir os modelos de IA, corrompendo seus dados de treinamento e gerando alucinações.
Implicações negativas das alucinações de IA
As alucinações de IA são questões éticas importantes, com consequências significativas para indivíduos e organizações. Seguem algumas das razões que tornam as alucinações da IA um problema sério:
- Propagação de desinformação: As alucinações da IA, causadas por avisos incorretos ou inconsistências nos dados de treinamento, podem levar à disseminação massiva de desinformação, afetando um grande número de indivíduos, organizações e agências governamentais.
- Desconfiança entre os usuários: Quando a desinformação gerada pela IA se espalha rapidamente na internet, parecendo oficial e redigida por humanos, isso corrói a confiança do usuário, tornando difícil acreditar nas informações encontradas na internet.
- Danos ao usuário: Além de preocupações éticas e enganar os indivíduos, as alucinações da IA também podem causar danos aos seres humanos, espalhando informações errôneas sobre problemas e tópicos sérios, como doenças, suas curas ou dicas simples para distinguir cogumelos venenosos mortais de cogumelos comestíveis saudáveis. Mesmo uma pequena desinformação ou imprecisão pode colocar em risco a vida de um ser humano.
Melhores práticas para detectar e prevenir alucinações de IA
Considerando as implicações negativas das alucinações de IA, mencionadas acima, é fundamental preveni-las a todo custo. Apesar de as empresas proprietárias desses modelos de IA estarem trabalhando para eliminar ou reduzir as alucinações, tomar as máximas precauções como usuários é crucial.
Com base em minhas pesquisas, experiência e tentativas e erros, listei algumas estratégias para detectar e prevenir alucinações na IA ao usar um chatbot ou interagir com um Modelo de Linguagem Grande (LLM).
#1. Use dados de treinamento representativos e diversificados
Como usuário, é fundamental usar LLMs com um conjunto diversificado de dados de treinamento, que represente o mundo real, reduzindo a probabilidade de resultados tendenciosos, imprecisos ou inventados.
Ao mesmo tempo, as empresas devem garantir a atualização e expansão regulares dos conjuntos de dados de treinamento do modelo de IA, para considerar e se manterem atualizadas sobre eventos culturais, políticos e outros eventos em constante evolução.
#2. Limite os resultados ou respostas
Como usuário, você pode limitar o número de respostas que uma ferramenta de IA pode gerar, fornecendo uma solicitação específica sobre o tipo de resposta desejada.
Por exemplo, você pode solicitar que o modelo responda apenas sim ou não. Ou você também pode fornecer várias opções na solicitação, para a ferramenta escolher, restringindo sua capacidade de se desviar da resposta real e alucinar.
Ao fazer uma pergunta ao ChatGPT GPT 3.5 com sim ou não, ele gerou esta resposta com precisão:
#3. Estruture o modelo com dados relevantes
Não se pode esperar que um ser humano forneça uma solução para um problema ou questão específica sem conhecimento prévio ou sem fornecer um contexto específico. Da mesma forma, um modelo de Inteligência Artificial é tão bom quanto o conjunto de dados de treinamento que é alimentado nele.
Incorporar os dados de treinamento de um modelo de IA com dados e informações relevantes e específicos do setor fornece contexto adicional ao modelo. Esse contexto auxilia o modelo de IA a melhorar sua compreensão, permitindo que ele gere respostas precisas, sensatas e contextuais, em vez de alucinações.
#4. Crie modelos de dados para o modelo de IA seguir
Fornecer um modelo de dados ou um exemplo de fórmula ou cálculo específico em um formato predefinido pode ajudar o modelo de IA a gerar respostas precisas, alinhadas com as diretrizes estabelecidas.
A dependência de diretrizes e modelos de dados reduz a probabilidade de alucinação por parte dos modelos de IA e garante consistência e precisão nas respostas geradas. Assim, fornecer um modelo de referência no formato de uma tabela ou exemplo pode orientar o modelo de IA no cálculo, eliminando casos de alucinação.
#5. Seja específico com a sua solicitação, atribuindo uma função ao modelo
Atribuir funções específicas ao modelo de IA é uma das formas mais eficazes de prevenir alucinações. Por exemplo, você pode dar instruções como “Você é um guitarrista experiente” ou “Você é um matemático brilhante”, seguido de sua pergunta específica.
A atribuição de funções direciona o modelo para fornecer a resposta desejada, em vez de respostas alucinadas inventadas.
E não se preocupe. Você ainda pode se divertir com a IA (apesar das alucinações). Veja como criar você mesmo uma arte espiral viral de IA!
#6. Teste com a temperatura
A temperatura desempenha um papel crucial na determinação do grau de alucinações ou respostas criativas que um modelo de IA pode gerar.
Enquanto uma temperatura mais baixa geralmente indica resultados determinísticos ou previsíveis, uma temperatura mais alta significa que o modelo de IA tem maior probabilidade de gerar respostas aleatórias e alucinar.
Várias empresas de IA fornecem uma barra ou controle deslizante de “Temperatura” em suas ferramentas, para que os usuários ajustem as configurações de acordo com suas preferências.
Ao mesmo tempo, as empresas também podem definir uma temperatura padrão, permitindo que a ferramenta gere respostas coerentes e alcance um equilíbrio entre precisão e criatividade.
#7. Verifique sempre
Por fim, confiar 100% em um resultado gerado por IA, sem uma dupla verificação, não é uma boa ideia.
Embora as empresas e pesquisadores de IA busquem resolver o problema da alucinação e desenvolver modelos que evitem esse problema, como usuário, é fundamental verificar as respostas geradas por um modelo de IA antes de usá-las ou acreditar nelas totalmente.
Portanto, além de usar as práticas recomendadas acima, desde elaborar sua solicitação com especificações até adicionar exemplos em sua solicitação para orientar a IA, você deve sempre verificar e comparar a resposta gerada por um modelo de IA.
É possível corrigir ou eliminar completamente as alucinações de IA? A opinião de um especialista
Embora o controle das alucinações da IA dependa da solicitação fornecida, às vezes, o modelo gera resultados com tanta convicção que torna difícil discernir o que é falso do que é verdadeiro.
Então, é possível corrigir ou prevenir totalmente as alucinações da IA?
Quando questionado sobre essa questão, Suresh Venkatasubramanian, professor da Universidade Brown, respondeu que a possibilidade de evitar as alucinações da IA é um “ponto de pesquisa ativa”.
A razão por trás disso, explicou ele, é a natureza desses modelos de IA – sua complexidade, detalhes e fragilidade. Até uma pequena alteração na solicitação pode mudar significativamente a resposta.
Enquanto Venkatasubramanian considera a solução do problema das alucinações da IA um ponto de pesquisa, Jevin West, professor da Universidade de Washington e cofundador do Centro para um Público Informado, acredita que as alucinações da IA jamais desaparecerão.
West considera impossível fazer engenharia reversa de alucinações que ocorrem em bots de IA ou chatbots. Portanto, as alucinações da IA podem ser uma característica intrínseca da IA.
Além disso, Sundar Pichai, CEO do Google, declarou em uma entrevista à CBS que todos que usam IA enfrentam alucinações, mas ninguém no setor ainda resolveu esse problema. Quase todos os modelos de IA enfrentam esse problema. Ele afirmou ainda que o campo da IA avançará em breve no que diz respeito a superar as alucinações da IA.
Ao mesmo tempo, Sam Altman, CEO da OpenAI, fabricante do ChatGPT, visitou o Instituto Indraprastha de Tecnologia da Informação da Índia, em Delhi, em junho de 2023, onde observou que o problema da alucinação da IA estaria em uma situação muito melhor em um a dois anos.
Ele acrescentou ainda que o modelo precisaria aprender a diferença entre precisão e criatividade, e quando usar uma ou outra.
Concluindo
A alucinação da IA tem recebido muita atenção nos últimos anos, sendo o foco de empresas e pesquisadores que tentam solucioná-la o mais rápido possível.
Apesar de a IA ter feito progressos notáveis, ela não está imune a erros, e o problema das alucinações apresenta grandes desafios para diversos indivíduos e setores, como a área da saúde, a geração de conteúdo e a indústria automotiva.
Embora os pesquisadores estejam fazendo sua parte, é nossa responsabilidade como usuários fornecer instruções específicas e precisas, acrescentar exemplos e fornecer modelos de dados para receber respostas válidas e coerentes, evitando alterar os dados de treinamento do modelo de IA, e evitar alucinações.
Mesmo que as alucinações da IA possam ser totalmente eliminadas ou corrigidas, isso ainda é uma questão; pessoalmente, acredito que há esperança e que podemos continuar a usar sistemas de IA para beneficiar o mundo de forma responsável e segura.
Em seguida, alguns exemplos de Inteligência Artificial (IA) no nosso dia a dia.