
Parece coisa de ficção científica, mas a tecnologia já é uma realidade – muitos golpes de voz agora utilizam inteligência artificial para copiar vozes reais e se passar por pessoas que você confia. Isso leva a um cenário assustador em que uma voz familiar não é mais a prova de que uma ligação é legítima.
Os golpes de falsificação de voz da IA não dependem de hackear dispositivos ou quebra de sistemas de segurança. Os golpistas usam a urgência e a pressão para levar as pessoas a agir antes que tenham tempo de questionar o que estão ouvindo. As chamadas podem parecer calmas ou podem ser muito emotivas e insistentes.
A resposta mais segura é simples. Encerre a ligação e verifique a solicitação de forma independente por um canal confiável. Com alguns hábitos e ferramentas básicas, é possível reduzir o risco de cair nesses golpes sem precisar de conhecimento técnico.
O que você precisa saber:
- os golpes de voz com IA usam vozes clonadas ou deepfake para se passar por pessoas em quem você confia, portanto, uma voz familiar não é mais uma prova de que uma chamada é real.
- Esses golpes dependem da urgência e da pressão emocional, não de ataques técnicos, para impedir que você verifique as solicitações.
- Emergências familiares e falsas autoridades (chefes e funcionários da empresa) são os cenários mais comuns do mundo real.
- A resposta mais segura é encerrar a chamada e verificar de forma independente usando detalhes de contato confiáveis.
- Hábitos simples, como a verificação e o uso de ferramentas de filtragem de chamadas, podem reduzir significativamente o risco.
O que é um golpe de voz com IA?
Um golpe de voz com IA é uma fraude em que os invasores usam inteligência artificial para gerar ou clonar a voz de uma pessoa e usá-la durante chamadas telefônicas ou mensagens de voz para induzir alguém a fazer algo.
Esses golpes pertencem à categoria mais ampla de phishing, muitas vezes referida como phishing de voz ou vishing. Em vez de e-mails ou mensagens falsas, os golpistas contam com vozes realistas para criar confiança e pressionar as pessoas a agirem rapidamente.
Esse tipo de crime já está causando um grande impacto em certos setores, especialmente em áreas onde solicitações, aprovações ou interações de suporte por telefone são comuns.
Os golpistas podem se passar por um membro da família pedindo ajuda urgente ou dinheiro. Eles podem fingir ser um gerente solicitando pagamento ou um agente de suporte alegando que há um problema com uma conta. A voz soa real porque é habilmente construída a partir de gravações de uma pessoa real.
Os golpes de voz com IA são direcionados e interativos. Quem telefona pode responder naturalmente e ajustar o tom durante a chamada. Isso pode fazer com que a situação pareça real e pessoal, em vez de automatizada como um antigo ligações automáticas.
O que é uma voz deepfake e como ela é usada em golpes?
Uma voz deepfake é uma cópia gerada por IA da voz de uma pessoa real que pode ser usada como um golpe convincente. Essa tecnologia é usada para se passar por alguém que a vítima já conhece ou em quem confia.
Muitos de nós agora usam assistentes de IA que mostram como as vozes sintetizadas podem ser eficazes. As coisas estão ficando cada vez mais convincentes de uma forma que pode borrar as linhas do que é real.
As vozes Deepfake são uma ferramenta dentro dos golpes de voz da IA. Essas vozes são frequentemente combinadas com detalhes pessoais roubados para tornar as chamadas críveis e urgentes. É por isso que a solicitação pode parecer razoável ou realista.
Muitas pessoas associam deepfakes a vídeos falsos on-line em vez de chamadas de voz. Essa lacuna de expectativa é o que os golpistas exploram. As pessoas podem não estar alertas para os riscos. Quando uma voz soa familiar, é mais provável que as pessoas ajam rapidamente sem parar para verificar.
Como os golpistas clonam a voz de alguém?
Os golpistas clonam vozes coletando pequenas amostras de áudio e usando ferramentas de IA para recriar como uma pessoa soa. Eles podem precisar de apenas alguns segundos de fala clara para obter alguma aproximação da voz e da entonação de alguém.
Às vezes, as amostras de voz podem ser fáceis de encontrar. Vídeos públicos em mídias sociais e até mesmo conversas telefônicas curtas podem fornecer material suficiente. O áudio é alimentado em ferramentas de clonagem de voz que aprendem o tom e a pronúncia de alguém. Pense se você possui clipes de áudio nas mídias sociais que alguém poderia pegar e usar.
A clonagem de voz moderna é rápida e escalável. O que antes precisaria de habilidades altamente especializadas agora pode ser feito rapidamente usando ferramentas amplamente disponíveis. Isso é uma preocupação, pois permite que os golpistas criem vozes convincentes e as reutilizem em muitas chamadas ou alvos.
Por que os golpes de voz com IA são tão convincentes?
Os golpes de voz com IA são convincentes porque ouvir uma voz familiar instantaneamente dá um alto nível de confiança. Em situações emocionais ou urgentes, as pessoas não esperam engano.
Os golpistas geralmente criam pressão alegando emergências ou problemas urgentes, como ficar preso em uma cidade ou mesmo no exterior sem os meios para voltar. Sentimentos de pânico e urgência reduzem a chance de alguém fazer uma pausa e questionar o que está ouvindo, mesmo que o pedido pareça incomum ou fora do personagem.
Por isso, até pessoas muito conscientes de segurança podem ser enganadas. O golpe não se baseia em fraquezas técnicas. Ele explora as reações humanas normais ao estresse e à emoção.
Proteja-se contra golpes de voz com IA
Proteja seus dispositivos com o Kaspersky Premium. Evite o acesso não autorizado, proteja seus dados e mantenha seu sistema seguro.
Experimente o Premium gratuitamenteQuais são os cenários de fraude de voz com IA mais comuns?
A maioria dos golpes de voz com IA segue situações familiares em que as pessoas esperam chamadas urgentes e sentem a pressão para responder rapidamente. Isso torna a verificação difícil ou até mesmo desnecessária no momento.
Golpes de voz sobre emergência familiar
Os golpes de emergência familiar usam vozes clonadas para criar problemas falsos envolvendo parentes e pessoas de quem você mais gosta.
As vítimas muitas vezes relatam ligações alegando que alguém foi preso ou ferido e precisa urgentemente de dinheiro. O interlocutor pode implorar por ajuda ou parecer angustiado. Eles provavelmente pedirão ao ouvinte para não desligar ou entrar em contato com qualquer outra pessoa, pois essa pressão emocional é projetada para interromper a verificação e manter a situação privada.
O golpista pode pressionar pelo pagamento imediato ou dar instruções para permanecer na linha e explicações sobre por que os métodos de contato normais supostamente não estão funcionando. O objetivo é a velocidade e o engano, em vez de longas conversas.
Golpes de falsos chefes e autoridades
Nesse caso, golpistas se passam por executivos ou pessoas em funções oficiais e locais de trabalho usando vozes calmas e confiantes que soam familiares ou profissionais.
Às vezes, um nível percebido de autoridade pode aumentar as chances de as pessoas serem enganadas. Quando uma solicitação parece vir de um chefe ou de uma instituição confiável, é mais provável que as pessoas sigam as instruções sem questioná-las. As chamadas podem envolver pagamentos urgentes ou tarefas confidenciais (ambas devem ser tratadas como sinais de alerta).
Esses golpes afetam telefones pessoais e de trabalho porque os invasores têm como alvo onde já existe confiança. Uma ligação pode ser direcionada para um dispositivo de trabalho durante o horário comercial ou para um telefone pessoal após o expediente.
Que sinais de alerta devem levantar suspeitas imediatamente?
Uma ligação deve levantar suspeitas se criar urgência ou pressão que impeça você de verificar a solicitação da maneira que preferir. Se o golpista que está ligando pedir sigilo ou ligar de um número que você não reconhece, o alerta deve disparar.
A pessoa que está tentando enganá-lo pode insistir que você mantenha a ligação em segredo ou dizer que outras pessoas não podem ser contatadas. Esse isolamento é intencional e destina-se a interromper a verificação ou a realização do que realmente está acontecendo na chamada.
Seja especialmente cauteloso com solicitações que envolvam métodos de pagamento incomuns ou irreversíveis, como cartões-presente ou criptomoedas. Essas solicitações são projetadas para movimentar dinheiro rapidamente e dificultar a recuperação. Solicitar cartões-presente é um sinal claro de golpe.
O que você deve fazer se receber uma ligação suspeita?
A ação mais segura é encerrar a ligação e se afastar da pressão. Qualquer indício suspeito deve fazer com que você interrompa a interação.
Desligue imediatamente. Isso quebra o bloqueio emocional e lhe dá tempo para pensar com clareza. Não fique na linha para descobrir ou fazer perguntas de acompanhamento, pois os golpistas usam a conversa para adaptar sua história e encontrar outras maneiras de tornar sua história mais convincente.
Verifique a solicitação de forma independente usando detalhes de contato confiáveis. Insista em discutir os assuntos por meio de um número de telefone salvo ou de um endereço de e-mail conhecido. Evite continuar a conversa ou ligar de volta no mesmo número. Os chamadores legítimos entenderão a verificação. Os golpistas tentarão impedi-lo.
Como se proteger de golpes de voz com IA a longo prazo?
A proteção a longo prazo significa reduzir a frequência com que você é alvo e dificultar o sucesso dos golpistas.
Os golpes de voz com IA dependem da confiança e da urgência. Hábitos simples e proteções realistas ajudam a reduzir o risco sem alterar a forma como você usa o telefone no dia a dia.
Hábitos pessoais que reduzem seu risco
Pequenos hábitos podem fazer uma grande diferença. Algumas famílias e contatos próximos agora usam palavras-código para emergências reais. Isso significa que uma chamada genuína pode ser verificada rapidamente (apenas não revele a palavra-código).
Esteja atento às gravações de voz públicas. Vídeos, notas de voz e saudações de correio de voz podem ser usados como material de origem para a clonagem. Você não precisa evitar completamente o compartilhamento, mas limitar gravações longas ou nítidas reduz a exposição.
Trate a verificação como normal e não rude. Desligar para ligar de volta ou verificar com outra pessoa deve ser normal. Usar um método de contato confiável é uma resposta razoável e qualquer pessoa legítima entenderá. Os golpistas tentarão impedir a verificação e mantê-lo na ligação para sustentar a fraude.
Softwares de proteção ajudam a bloquear golpes de voz com IA?
Só até certo ponto. As ferramentas de filtragem de chamadas e detecção de spam funcionam analisando padrões de chamada e comportamento incomum para bloquear ou sinalizar chamadas suspeitas antes de você atender. Também podem verificar se há números de spam suspeitos ou conhecidos.
As proteções no nível do telefone podem reduzir a exposição, interrompendo campanhas de golpes conhecidas e avisando sobre possíveis fraudes. Elas não conseguem bloquear todas as chamadas. Existem muitos golpes altamente direcionados que usam novos números.
É por isso que o software deve ser visto como uma camada de suporte e não um substituto para seu melhor julgamento. A tecnologia pode diminuir a frequência com que os golpes chegam até você, mas a verificação humana ainda é a defesa mais forte quando uma chamada parece real.
O que você deve fazer se já compartilhou dinheiro ou informações?
Entre em contato com seu banco ou provedor de pagamento imediatamente se algum dinheiro tiver sido transferido ou se os detalhes da conta forem fornecidos. Altere as senhas e ative a autenticação multifator (MFA) imediatamente. Se as informações pessoais foram compartilhadas, monitore as contas de perto quanto a atividades incomuns.
Agir rapidamente depois de compartilhar dinheiro ou vazar informações pode limitar mais danos e aumentar as chances de recuperação.
Documente o que aconteceu enquanto os fatos ainda estão recentes. Salve detalhes da chamada, como números e horários, para que você os tenha como evidência. Você também pode anotar todas as instruções que recebeu. Esse registro ajuda os provedores e as autoridades a responder mais rapidamente e pode impedir que o mesmo golpe afete outras pessoas.
Por que os golpes de voz com IA devem aumentar e como se proteger?
Os golpes de voz com IA provavelmente aumentarão porque a voz fornece uma maneira de os golpistas se passarem por alguém de forma convincente. É mais fácil para os fraudadores explorarem essa confiança em grande escala e isso está melhorando.
A familiaridade por si só não pode mais ser usada como prova. Isso não significa que as pessoas são impotentes. A verificação ainda funciona, mesmo quando os golpes se tornam mais convincentes. Desligar e verificar a identidade são ferramentas poderosas que podem impedir um golpe em seu caminho.
Tratar a verificação como normal e esperado coloca o controle de volta em suas mãos. Desenvolver bons hábitos ainda pode ter um enorme impacto e ajudar as pessoas a evitar caírem em golpes. A consciência também significa saber que nem tudo pode ser o que parece quando as pessoas ligam para você.
Artigos relacionados:
- O que você precisa saber sobre golpes de phishing
- Como evitar ser vítima de golpes on-line
- O que é o Vishing?
- Como se manter protegido contra hackers de IA?
Produtos relacionados:
Perguntas Frequentes
Os golpistas podem clonar sua voz sem você saber?
Sim. Vídeos públicos ou gravações curtas podem ser suficientes para clonar uma voz sem contato direto.
Quem é mais visado por golpes de voz com IA?
Qualquer pessoa pode ser alvo, mas os golpistas geralmente se concentram em pessoas cujas vozes ou detalhes pessoais são fáceis de encontrar on-line.
Os golpes de voz com IA são ilegais?
A fraude, incluindo o uso de vozes clonadas para enganar, é ilegal em muitos países, mesmo que a tecnologia em si seja legal.
