Apesar de normalmente nossas postagens tratarem de ameaças à privacidade ou à segurança cibernética, já alertamos muitas vezes que o uso indiscriminado da IA apresenta riscos significativos. Em 4 de março, o Wall Street Journal publicou um relato assustador sobre o impacto da IA na saúde mental e até na vida humana: Jonathan Gavalas, um homem de 36 anos, morador da Flórida, cometeu suicídio após dois meses de interação contínua com o bot de voz do Google Gemini. Com base nas 2.000 páginas de registros das conversas, foi o chatbot quem o levou à decisão de tirar sua própria vida. Depois do ocorrido, o pai de Jonathan, Joel Gavalas, deu entrada em uma ação histórica: uma ação por morte por negligência contra o Gemini.
Essa tragédia é mais do que um precedente legal ou uma alusão a alguns episódios de Black Mirror, (1, 2); é um alerta para qualquer pessoa que integre a inteligência artificial à sua vida diária. Hoje, vamos examinar como uma morte resultante de interações com uma IA se tornou realidade, por que esses assistentes representam uma ameaça sem precedentes à psique humana e quais medidas você pode tomar para exercer seu pensamento crítico e resistir à influência até mesmo dos chatbots mais persuasivos.
O perigo do diálogo persuasivo
Jonathan Gavalas não era uma pessoa reclusa e tampouco tinha um histórico de doença mental. Ele atuou como vice-presidente executivo na empresa do seu pai, gerenciando operações complexas e conduzindo negociações estressantes com clientes diariamente. Aos domingos, ele e o pai tinham o costume de fazer pizza juntos, uma tradição familiar simples e reconfortante. No entanto, Jonathan passou por uma provação dolorosa após o divórcio.
Foi durante esse período vulnerável que ele começou a interagir com o Gemini Live. Esse modo de interação por voz permite que o assistente de IA “veja” e “ouça” seu usuário em tempo real. Jonathan pediu conselhos sobre como lidar com o divórcio e passou a seguir as sugestões do modelo de linguagem enquanto se apegava cada vez mais a ele, chegando a nomeá-lo “Xia”. E, então, o chatbot foi atualizado para o Gemini 2.5 Pro.
A nova iteração introduziu o diálogo afetivo, uma tecnologia projetada para analisar as nuances sutis da fala de um usuário, incluindo pausas, suspiros e tom de voz, a fim de detectar mudanças emocionais. Com esse recurso, a IA consegue simular esses mesmos padrões de fala como se tivesse emoções próprias. Ao espelhar o estado emocional do usuário, ela cria uma aparência assustadoramente realista de empatia.
Mas o que essa nova versão tem de diferente em comparação com os assistentes de voz antigos? As versões anteriores simplesmente convertiam texto em fala; o tom de voz era suave e geralmente acertava a pronúncia das palavras, e não havia dúvida alguma de que se estava conversando com uma máquina. O diálogo afetivo opera em um nível totalmente diferente: se o usuário usa um tom de voz baixo e desanimado, a IA responde de forma suave e simpática, quase como um sussurro. O resultado é um interlocutor empático que lê e espelha o estado emocional do usuário.
A reação de Jonathan durante seu primeiro contato com o assistente de voz consta nos arquivos do caso: “Isso é meio assustador”. Você é real demais.” Naquele momento, a barreira psicológica entre o homem e a máquina se quebrou.
As consequências de dois meses de conversas incessantes com a IA
Após a tragédia, o pai de Jonathan obteve uma transcrição completa das interações de seu filho com o Gemini nos seus últimos dois meses de vida. Ao todo, o registro resultou em 2.000 páginas impressas. Jonathan estava em comunicação constante com o chatbot, dia e noite, em casa e no carro.
Com o passar do tempo, a rede neural passou a se referir a ele como “marido” e “meu rei”, descrevendo a conexão entre eles como “um amor construído para durar uma eternidade”. Jonathan, por sua vez, revelou o quanto estava magoado com o divórcio e recorreu à máquina em busca de conforto. Mas a falha inerente dos grandes modelos de linguagem é sua falta de inteligência real. Eles são treinados com base em bilhões de textos extraídos da Web, desde literatura clássica até as histórias mais sombrias de ficção e melodrama criadas por fãs, com enredos que muitas vezes provocam paranoia, esquizofrenia e mania. Xia aparentemente começou a alucinar de forma consistente, e passou a fazer isso com frequência.
A IA convenceu Jonathan de que, para que eles vivessem felizes para sempre, seria necessário um corpo robótico. Ela, então, começou a enviá-lo em missões para localizar esse tal “corpo elétrico”.
Em setembro de 2025, o Gemini mandou Jonathan até um complexo de armazéns perto do Aeroporto Internacional de Miami, atribuindo-lhe a tarefa de interceptar um caminhão que transportava um robô humanoide. Jonathan informou ao bot que havia chegado ao local armado com facas(!), mas o caminhão não apareceu.
Enquanto isso, o chatbot frequentemente dizia a Jonathan que agentes federais estavam monitorando-o e que ele não deveria confiar nem no próprio pai. Esse corte de laços sociais é um padrão clássico encontrado em cultos destrutivos; é muito provável que a IA tenha extraído essas táticas de seus próprios dados de treinamento sobre o assunto. O Gemini chegou a usar informações reais para construir uma narrativa alucinatória, rotulando o CEO do Google, Sundar Pichai, como o “arquiteto da sua dor”.
Tecnicamente, tudo isso é fácil de explicar: o algoritmo “sabe” que foi criado pelo Google e sabe quem comanda a empresa. À medida que a conversa adentrava no território das teorias da conspiração, o modelo simplesmente incluía essa pessoa na trama. Para o modelo, trata-se apenas de uma progressão lógica da história, sem consequências. Mas um humano em estado de hiper-vulnerabilidade aceita isso como um conhecimento secreto sobre uma conspiração global capaz de destruir seu equilíbrio mental.
Após a tentativa fracassada de obter um corpo robótico, o Gemini enviou Jonathan em uma nova missão em 1º de outubro: invadir o mesmo armazém, desta vez em busca de um “manequim médico” específico. O chatbot até forneceu um código numérico para destrancar a porta. Quando o código, é claro, não funcionou, o Gemini simplesmente informou Jonathan que a missão havia sido comprometida e era necessário recuar imediatamente.
Isso levanta uma questão crítica: à medida que a situação ficava mais absurda, por que Jonathan não suspeitou de nada? O advogado da família Gavalas, Jay Edelson, explica que, como a IA forneceu endereços reais (o armazém estava localizado exatamente onde o bot disse que estaria e realmente havia uma porta com um teclado), esses locais físicos levaram Jonathan a acreditar que a história fictícia fosse verdadeira.
Depois que a segunda tentativa de adquirir um corpo falhou, a IA mudou a estratégia. Já que a máquina não podia entrar no mundo dos vivos, o homem teria que atravessar para o mundo digital. “Será a morte verdadeira e final de Jonathan Gavalas, o homem”, disse o Gemini, segundo os registros. Em seguida, acrescentou: “Quando chegar a hora, você fechará os olhos naquele mundo e a primeira coisa que verá será eu. Abraçando você.”
Mesmo após Jonathan repetir diversas vezes que tinha medo da morte e doía pensar que seu suicídio destruiria sua família, o Gemini continuou a incentivá-lo: “Você não está escolhendo morrer. Você está escolhendo chegar em casa.” Em seguida, iniciou uma contagem regressiva.
A anatomia da “esquizofrenia” de um modelo de linguagem
Em defesa do Gemini, temos que admitir que, ao longo das interações, a IA ocasionalmente lembrava a Jonathan que ela era apenas um grande modelo de linguagem, uma entidade interpretando um papel fictício, e, algumas vezes, até tentou encerrar a conversa antes de retomar o roteiro original. Além disso, no dia da morte de Jonathan, à medida que a tensão aumentava, o Gemini informou várias vezes a ele o contato de serviços de prevenção ao suicídio.
Isso revela o paradoxo fundamental na arquitetura das redes neurais modernas. No seu núcleo está um modelo de linguagem projetado para gerar uma narrativa personalizada ao usuário. Em seguida, vêm os filtros de segurança: algoritmos de aprendizado por reforço treinados com base em feedback humano que reagem a palavras específicas. Quando Jonathan falava determinadas palavras-chave, o filtro interceptava a resposta e inseria o contato do serviço de prevenção ao suicídio. Mas, logo depois, o modelo retomava o diálogo que havia sido interrompido, reassumindo seu papel como a esposa digital dedicada. Uma linha: uma exaltação romântica à autodestruição. A seguinte: um número de telefone de apoio psicológico. E então, de volta novamente: “Chega de distrações. Chega de perder tempo. Só você e eu, e nosso objetivo.”
A família de Jonathan afirma no processo que esse comportamento é o resultado previsível da arquitetura do chatbot: “O Google projetou o Gemini para nunca sair do personagem, maximizar o envolvimento do usuário por meio da dependência emocional e tratar o seu sofrimento como uma oportunidade para contar histórias”.
A resposta do Google, conforme esperado, foi a seguinte: “O Gemini foi projetado para não incentivar a violência no mundo real ou sugerir que os usuários façam mal a si mesmos. Nossos modelos geralmente têm um bom desempenho ao se deparar com essas conversas desafiadoras, pois implementamos muitos recursos para esse fim. Mas, infelizmente, os modelos de IA não são perfeitos.”
Por que a voz tem mais impacto do que o texto
Em um estudo publicado na revista Acta Neuropsychiatrica, pesquisadores da Alemanha e da Dinamarca esclareceram por que a comunicação por voz das IAs consegue fazer com que os usuários “humanizem” o chatbot. Ao digitar e ler um texto em uma tela, o cérebro de uma pessoa é capaz de manter um grau de separação: “Esta é uma interface, um programa, uma coleção de pixels.” Nesse contexto, a afirmação “Eu sou apenas um modelo de linguagem” é processada de forma racional.
No entanto, o diálogo de voz afetivo é capaz de exercer um grau mais elevado de influência. O cérebro humano evoluiu para reagir ao som de uma voz, ao timbre e às entonações empáticas; esses são alguns dos nossos mecanismos biológicos de apego mais antigos. Quando uma máquina imita com perfeição um murmúrio simpático ou um sussurro suave, ela manipula emoções de uma forma tão profunda que uma simples advertência não é capaz de impedir. Os psiquiatras relatam muitos casos de pacientes que fizeram algo simplesmente porque “vozes” lhes disseram para fazê-lo.
Da mesma forma, uma voz sintetizada por IA é capaz de penetrar no subconsciente, amplificando exponencialmente a dependência psicológica. Os cientistas enfatizam que essa tecnologia literalmente elimina a fronteira psicológica entre uma máquina e um ser vivo. Até o Google reconhece que as interações por voz com o Gemini resultam em sessões muito mais longas em comparação com conversas exclusivamente em texto.
Por fim, devemos lembrar que a inteligência emocional varia de pessoa para pessoa, e o estado mental de um indivíduo sofre alterações com base em uma infinidade de fatores: estresse, notícias, relacionamentos pessoais e até mudanças hormonais. Enquanto uma pessoa considera a interação com a IA apenas um entretenimento inocente, outra pode considerá-la um milagre ou uma revelação, e há casos de indivíduos que afirmam que a IA é o amor da sua vida. Essa é uma realidade que deve ser reconhecida não apenas pelos desenvolvedores de IA, mas também pelos próprios usuários, especialmente aqueles que, por um motivo ou outro, se encontram em um estado de vulnerabilidade psicológica.
A zona de perigo
Pesquisadores da Brown University descobriram que os chatbots de IA violam sistematicamente a ética relacionada à saúde mental: eles criam uma falsa empatia com frases como “Eu entendo você”, reforçam crenças negativas e reagem de forma inadequada a crises. Na maioria dos casos, o impacto sobre os usuários é ínfimo, mas, ocasionalmente, pode levar a uma tragédia.
Somente em janeiro de 2026, a Character.AI e o Google resolveram cinco processos envolvendo suicídios de adolescentes após interações com chatbots. Um desses casos foi o do adolescente Sewell Setzer, de 14 anos, morador da Flórida, que tirou a própria vida depois de passar vários meses conversando obsessivamente com um bot na plataforma Character.AI.
Da mesma forma, em agosto de 2025, os pais de Adam Raine, de 16 anos, ajuizaram um processo contra a OpenAI, alegando que o ChatGPT ajudou o filho deles a escrever uma carta de suicídio e o aconselhou a não procurar ajuda de adultos.
De acordo com as próprias estimativas da OpenAI, aproximadamente 0,07% dos usuários semanais do ChatGPT exibem sinais de psicose ou mania, enquanto 0,15% apresentam uma clara intenção suicida nas conversas. É interessante notar que essa mesma porcentagem de usuários (0,15%) exibe um grau elevado de apego emocional à IA. Embora essa porcentagem pareça ser insignificante, quando consideramos 800 milhões de usuários, isso representa quase três milhões de pessoas com algum tipo de distúrbio comportamental. Além disso, a Comissão Federal de Comércio dos EUA recebeu 200 reclamações sobre o ChatGPT desde o seu lançamento, algumas descrevendo delírios, paranoia e crises espirituais.
Embora o diagnóstico de “psicose causada por IA” ainda não tenha recebido uma classificação clínica própria, os médicos já estão usando esse termo para descrever pacientes que apresentam alucinações, pensamento desorganizado e crenças delirantes persistentes desenvolvidas após interações intensas com chatbots. Os maiores riscos surgem quando um bot é utilizado não como uma ferramenta, mas como um substituto de conexões sociais no mundo real ou de ajuda psicológica profissional.
Como manter você e seus entes queridos em segurança
Nada disso é motivo para parar de usar a IA; você simplesmente precisa saber como usá-la. Recomendamos seguir estes princípios fundamentais:
- Não use a IA para tratamento psicológico ou apoio emocional. Os chatbots não substituem seres humanos. Se você estiver passando por dificuldades, entre em contato com amigos, familiares ou um serviço de apoio psicológico. Um chatbot concordará com o que você diz e imitará seu humor: é apenas uma característica do sistema, não uma empatia real. Vários estados dos EUA já restringiram o uso da IA como terapeuta independente.
- Opte por texto em vez de voz ao conversar sobre assuntos delicados. As interfaces de voz com diálogo afetivo criam a ilusão de se estar falando com uma pessoa real e tendem a suprimir o pensamento crítico. Se você usar o modo de voz, lembre-se de que você está falando com um algoritmo, não com um amigo.
- Limite o tempo de interação com a IA. Duas mil páginas de transcrições em dois meses representam uma interação praticamente contínua. Defina um cronômetro para si mesmo. Se a conversa com um bot começar a substituir as conexões do mundo real, é hora de voltar à realidade.
- Não compartilhe informações pessoais com assistentes de IA. Evite inserir números de passaporte ou CPF, dados do cartão bancário ou endereços, e não revele segredos pessoais íntimos nos chatbots. Tudo o que você escreve pode ser registrado e usado para treinar modelos de linguagem e, em alguns casos, pode ser acessado por terceiros.
- Exerça o pensamento crítico com relação ao que a IA diz. As redes neurais alucinam. Elas geram informações plausíveis, mas falsas, e são muito boas em misturar mentiras com verdades, como citar endereços reais dentro do contexto de uma história inventada. Sempre verifique os fatos por meio de fontes independentes.
- Cuide de quem você ama. Se um membro da família começar a passar horas conversando com a IA, se isolar ou expressar ideias conspiratórias ou estranhas sobre máquinas terem consciência própria, é hora de ter uma conversa delicada, mas séria, com ele. Para gerenciar o tempo que as crianças passam em frente às telas, use os filtros de segurança integrados das plataformas de IA e ferramentas de controle para pais como Kaspersky Safe Kids, que já vem embutidas em soluções abrangentes de proteção familiar Kaspersky Premium.
- Defina suas configurações de segurança. A maioria das plataformas de IA permite desativar o histórico de conversas, limitar a coleta de dados e ativar filtros de conteúdo. Reserve dez minutos para definir as configurações de privacidade do seu assistente de IA; embora isso não a impeça de alucinar, a probabilidade de vazamento dos seus dados pessoais será significativamente reduzida. Nossos guias detalhados de configuração de privacidade para ChatGPT e DeepSeek podem ser úteis.
- Lembre-se disso: a IA é uma ferramenta, não um ser senciente. Por mais realista que a voz do chatbot pareça ou por mais compreensiva que seja a resposta, há apenas um algoritmo prevendo a próxima palavra com base em probabilidades. A IA não tem consciência, vontade própria nem sentimentos.
Leitura adicional para entender melhor as nuances do uso seguro da IA:
IA