Ir para o conteúdo principal

O que é uma alucinação de IA?

Vários prompts do ChatGPT exibidos na tela.

Uma alucinação de IA é uma situação em que uma ferramenta de inteligência artificial fornece uma saída imprecisa, enganosa ou incoerente, devido a seus algoritmos encontrarem padrões em dados que não existem ou interpretarem esses padrões incorretamente.

À medida que os recursos e a popularidade da inteligência artificial se expandiram nos últimos dois anos, algumas de suas falhas e vulnerabilidades foram descobertas.

Uma das maiores perguntas que as pessoas têm é se a IA é precisa. Em muitos casos, provou ser uma ferramenta incrivelmente útil para a verificação de fatos e a pesquisa de informações, mas em alguns outros, os resultados fornecidos foram incorretos ou enganosos.

Dada a variedade de casos de uso aos quais a IA está sendo aplicada no mundo moderno, as consequências dessas imprecisões podem ser extremamente graves. Neste artigo, veremos por que uma alucinação de IA pode acontecer, as ramificações do ponto de vista tecnológico e social e o que você pode fazer para minimizar o risco de alucinações de IA em seu próprio uso.

Como uma alucinação de IA acontece?

Existem várias razões diferentes pelas quais uma alucinação de IA acontece e, em muitos casos, tudo se resume a uma combinação de várias delas ao mesmo tempo. Estes podem incluir (e não estão necessariamente limitados a):

  • Não ter dados de treinamento suficientes para orientar resultados abrangentes e precisos do modelo de IA.
  • Ter muitos dados de treinamento, o que leva a que muito 'ruído de dados' irrelevante seja confundido com as informações que são relevantes e importantes.
  • Tendências nos dados que são refletidas nos resultados gerados.
  • O modelo de IA simplesmente faz suposições e conclusões erradas a partir das informações que foram alimentadas.
  • A falta de contexto do mundo real dentro do modelo de IA, como propriedades físicas de objetos ou informações mais amplas que são relevantes para os resultados sendo gerados.

Como é uma alucinação de IA?

Não há um conjunto único de sintomas para alucinações de IA porque depende das falhas no modelo e do processo envolvido. Normalmente, no entanto, uma alucinação de IA pode se manifestar em uma destas cinco maneiras:

  • Previsões imprecisas : os modelos de IA podem acabar prevendo que algo acontecerá no futuro, o que tem pouca chance realista de ocorrer ou provavelmente nenhuma chance.
  • Resumos com informações ausentes : às vezes, os modelos de IA podem perder o contexto vital ou as informações necessárias para criar resultados precisos e abrangentes. Isso pode ocorrer devido à falta de dados inseridos no modelo ou à incapacidade do modelo de procurar o contexto correto de outras fontes.
  • Resumos com informações fabricadas : semelhante ao ponto anterior, alguns modelos de IA podem acabar compensando a falta de informações precisas inventando as coisas completamente. Isso geralmente pode acontecer quando os dados e o contexto nos quais o modelo está confiando são imprecisos em primeiro lugar.
  • Falsos positivos e negativos : a IA é frequentemente usada para detectar riscos e ameaças potenciais, sejam sintomas de doença em um ambiente de saúde ou casos de atividade fraudulenta em bancos e finanças. Os modelos de IA às vezes podem identificar uma ameaça que não existe ou, no outro extremo da escala, não conseguem identificar uma ameaça que existe.
  • Resultados incoerentes : se você viu imagens geradas por IA de pessoas com o número errado de braços e pernas ou carros com muitas rodas, saberá que a IA ainda pode gerar resultados que não fazem nenhum sentido para os humanos.

Por que é importante evitar a alucinação da IA?

Você pode pensar que uma alucinação de IA não é grande coisa e que simplesmente executar os dados através do modelo novamente pode resolver o problema gerando os resultados corretos.

Mas as coisas não são tão simples assim, e quaisquer alucinações de IA aplicadas a casos de uso práticos ou liberadas para o domínio público podem ter algumas consequências muito graves para um grande número de pessoas:

Uso antiético da IA

O uso da IA, em geral, está sob os holofotes no momento, e espera-se que as organizações que usam a tecnologia usem cada vez mais a IA de maneira responsável e ética , que não prejudique as pessoas ou as coloque em risco. Permitir que uma alucinação de IA passe sem controle - consciente ou inconscientemente - não atenderia a essas expectativas éticas.

Confiança do público e do consumidor

Relacionado ao ponto anterior, muitas pessoas ainda estão preocupadas com o uso da IA, desde como seus dados pessoais são usados até se os recursos crescentes da IA podem tornar seus empregos obsoletos. Casos contínuos de exemplos de alucinações de IA no domínio público podem corroer a confiança lentamente construída entre o público e levar a um sucesso limitado para casos de uso de IA e negócios a longo prazo.

Tomada de decisão mal informada

As empresas e as pessoas precisam ser capazes de tomar as melhores e mais informadas decisões possíveis e estão cada vez mais se apoiando em dados, análises e modelos de IA para remover as suposições e a incerteza dessas decisões. Se eles forem enganados por resultados imprecisos de modelos de IA, as decisões erradas que tomarem poderão ter resultados catastróficos, desde ameaçar a lucratividade de um negócio até diagnosticar erroneamente um paciente médico.

Riscos legais e financeiros da desinformação da IA

Como o processo judicial mencionado acima demonstra habilmente, informações imprecisas geradas pela IA podem causar grandes danos do ponto de vista jurídico e financeiro. Por exemplo, o conteúdo criado usando IA pode ser difamatório para determinadas pessoas ou empresas, pode violar determinados regulamentos legais ou, em alguns casos extremos, até sugerir ou incitar as pessoas a realizar atividades ilegais.

Evitando o viés

Vivemos em um mundo onde as pessoas estão trabalhando incansavelmente para garantir que todos sejam tratados igualmente e sem preconceitos em relação a um tipo de pessoa em detrimento de outro. No entanto, dados tendenciosos de IA podem levar ao reforço de muitos desses preconceitos, muitas vezes sem querer. Um bom exemplo disso é o uso da IA na contratação e recrutamento: as alucinações da IA podem levar a resultados tendenciosos que podem afetar os esforços de diversidade, igualdade e inclusão da organização.

Quais são alguns exemplos típicos de alucinações de IA?

Evitar alucinações de IA está provando ser uma tarefa desafiadora para todos no setor. E isso não acontece apenas com operações menores que não têm a experiência e os recursos. Estes três exemplos de alucinações de IA provam que estão acontecendo com alguns dos maiores players de tecnologia do mundo:

Meta AI e a tentativa de assassinato de Donald Trump

Após a tentativa de assassinato contra o então candidato presidencial Donald Trump em julho de 2024, a IA de Meta O chatbot inicialmente se recusou a responder a quaisquer perguntas sobre o incidente e depois alegou que o incidente nunca aconteceu. O problema levou a Meta a ajustar os algoritmos de sua ferramenta de IA, mas levou a alegações públicas de parcialidade e à censura de pontos de vista conservadores.

A alucinação do ChatGPT e a falsa pesquisa legal

Em 2023, um homem na Colômbia apresentou uma reivindicação de ferimento pessoal contra uma companhia aérea. Seus advogados usaram a principal ferramenta de IA ChatGPT pela primeira vez para compilar seu caso e preparar submissões legais. No entanto, apesar das garantias do ChatGPT de que os seis casos de precedentes legais encontrados eram reais, nenhum deles existia.

Sydney da Microsoft se apaixonando por usuários

Sydney, o chatbot da Microsoft com inteligência artificial, teria dito a um colunista de tecnologia do New York Times que o amava e que ele deveria deixar sua esposa para ficar com ele. Ao longo de duas horas, Kevin Roose disse que Sydney compartilhou com ele algumas “fantasias sombrias” sobre espalhar desinformação da IA e se tornar humano.

O que pode ser feito para minimizar o risco de alucinação de IA?

Dada a importância de evitar o risco de uma alucinação de IA, cabe às pessoas que usam modelos de IA tomar todas as medidas práticas possíveis para mitigar qualquer uma das circunstâncias que podem levar a problemas. Recomendamos o seguinte:

Assegure-se de que há um propósito claro para o modelo de IA

Como o uso de IA se expandiu nos últimos anos, um erro comum é que as organizações usem modelos de IA apenas para usá-los, sem qualquer consideração da saída que eles estão gerando procurando. Definir claramente o objetivo geral de usar um modelo de IA pode garantir que os resultados sejam focados e evitar o risco de uma alucinação de IA por meio de uma abordagem e dados muito gerais.

Melhore a qualidade dos dados de treinamento

Quanto melhor a qualidade dos dados que entram em um modelo de IA, melhor a qualidade dos resultados que sairão dele. Um bom modelo de IA será baseado em dados relevantes, livres de viés, bem estruturados e que tiveram qualquer 'ruído de dados' estranho filtrado. Isso é essencial para garantir que os resultados gerados sejam precisos, no contexto correto e não introduzirão mais problemas.

Criar e usar modelos de dados

Uma boa maneira de garantir que os resultados de um modelo de IA estejam estreitamente alinhados com a finalidade pretendida é usar modelos para os dados inseridos neles. Isso garante que cada vez que um modelo de IA for usado, ele se acostume com os dados sendo fornecidos da mesma maneira consistente e possa fornecer resultados consistentes e precisos no contexto certo.

Limite a gama de respostas e resultados

Colocar mais restrições em um modelo de IA pode ajudar a reduzir os resultados potenciais para aqueles que são necessários. É aqui que as ferramentas de filtragem e os limites entram em ação, dando aos modelos de IA alguns limites muito necessários para manter sua análise e geração consistentemente no caminho certo.

Teste e aprimore continuamente o modelo

Assim como a melhoria contínua é vital para um bom desenvolvimento de software em um mundo em constante mudança, o mesmo vale para um bom modelo de IA. Portanto, todos os modelos de IA devem ser testados e refinados regularmente para que possam ser recalibrados de acordo com a evolução dos dados, requisitos e informações contextuais disponíveis.

Coloque freios e contrapesos humanos no lugar

A IA ainda não é infalível a ponto de poder ser confiável para operar de forma completamente autônoma, portanto, é essencial garantir que haja pelo menos alguma supervisão humana. Fazer com que uma pessoa verifique a saída de IA pode identificar quaisquer alucinações de IA que ocorreram e garantir que a saída seja precisa e adequada para seus requisitos declarados.

Fortaleça sua provisão de segurança cibernética

Se uma alucinação de IA estiver em risco de introduzir vulnerabilidades de segurança cibernética, esse é um bom motivo para garantir que a melhor solução de segurança cibernética possível esteja em vigor. O Kaspersky Plus Internet Security inclui a verificação antivírus em tempo real como padrão para que quaisquer ameaças à segurança introduzidas devido a alucinações de IA sejam abordadas e eliminadas antes que possam ter efeitos adversos.

Artigos relacionados:

O que é uma alucinação de IA?

As alucinações da IA podem levar a informações falsas ou enganosas, apresentando sérios riscos. Saiba como identificá-los e preveni-los.
Kaspersky logo

Artigos relacionados