content/pt-br/images/repository/isc/2020/how-to-protect-yourself-against-deepfake.jpg

O novo universo do deepfake

Deepfake é uma palavra inglesa composta, que liga o termo "deep" (aprofundado), originalmente da expressão "deep learning" (aprendizagem aprofundada) ao adjetivo "fake" (falso). Deep learning é um método de aprendizagem avançada baseado em Inteligência Artificial (IA) que usa várias camadas de algoritmos obtidos de aprendizado de máquina para extrair recursos de alto nível de dados brutos, progressivamente. O método consegue promover a aprendizagem com base em dados não estruturados, como o rosto humano. Por exemplo, a IA consegue coletar dados de movimentos físicos faciais.

Esses dados são processados para criar vídeos de deepfake por meio da Rede Adversária Generativa (GAN). Esse é outro tipo de sistema especializado em aprendizado de máquina. Duas redes neurais são usadas para competirem entre si na aprendizagem das características de um conjunto de dados de treinamento (como fotografias e rostos, por exemplo). Em seguida, elas geram novos dados, com base nas características aprendidas (novas "fotografias").

Como essa rede continua testando as imagens criadas diante do conjunto de dados de treinamento, as imagens falsas tornam-se cada vez mais convincentes. Tudo isso faz com que o deepfake se torne uma ameaça ainda mais potente. Além disso, as GANs podem falsificar outros dados,  não apenas fotografias e vídeos. De fato, as mesmas técnicas de aprendizado de máquina e de sintetização são usadas para falsificar vozes.

Exemplos de deepfake

Exemplos de deepfake de alto nível estão por toda parte. Um deles é o vídeo publicado pelo ator americano Jordan Peele. Ele usou uma gravação real do ex-presidente americano Barack Obama mixada com sua própria paródia de Obama para divulgar um alerta contra vídeos deepfake. Em seguida, ele mostrou como eram de fato as duas metades originais do vídeo usadas na mixagem. O conselho de Jordan Peele foi o seguinte: precisamos questionar tudo o que vemos.

Mark Zuckerberg, CEO do Facebook, apareceu em outro vídeo para falar sobre como o Facebook controla o futuro através de dados roubados de usuários, principalmente no Instagram. O vídeo original apresenta um discurso real de Zuckerberg sobre a interferência russa nas eleições. Foram necessários apenas 21 segundos do discurso original para sintetizar o novo vídeo falso. No entanto, a veracidade caiu por terra porque a imitação de voz não ficou tão boa quanto a do vídeo de Jordan Peele parodiando Obama.

Mas, até mesmo vídeos falsos menos sofisticados podem causar um impacto extraordinário. Um vídeo da congressista americana Nancy Pelosi supostamente "bêbada" teve milhões de visualizações no YouTube, mas era falso, com a velocidade diminuída artificialmente, o que gerou um efeito de "fala arrastada". Muitas mulheres consideradas celebridades passaram a "estrelar" vídeos pornográficos falsos, devido à colagem de seus rostos em filmes e imagens pornográficas.

Ameaças de deepfake – Fraude e chantagens

Vídeos de deepfake são usados para fins políticos ou de vingança passional. Porém, eles são cada vez mais usados em tentativas de chantagem e fraudes.

O CEO de uma empresa britânica de energia teve um prejuízo de 243 mil dólares por causa de um áudio de deepfake com a voz fraudada de um colega diretor da empresa, solicitando uma transferência de fundos emergencial. O áudio falso era tão convincente que o CEO nem pensou em verificar a veracidade. A transferência foi destinada à conta bancária do estelionatário e não à conta do diretor da empresa. O CEO passou a suspeitar da fraude apenas quando seu suposto "colega" solicitou outra transferência. Dessa vez, o sinal de alerta ficou claro, mas já era tarde demais para recuperar os fundos transferidos.

Na França, um recente caso de fraude não usou a tecnologia de deepfake, mas a falsidade ideológica, além da cópia meticulosa da decoração e da mobília do escritório do Ministro das Relações Exteriores Jean-Yves le Drian, resultando em um golpe de milhões de euros aplicado em executivos seniores. O fraudador Gilbert Chikli está sendo acusado de ter se disfarçado de ministro para pedir dinheiro de resgate a indivíduos ricos e executivos de empresas para libertar reféns franceses na Síria. No momento, ele aguarda julgamento.

Perigos e ameaças do deepfake

Também é possível que autores de deepfake  chantageiem presidentes das empresas, ameaçando publicar vídeos falsos prejudiciais, a menos que sejam pagos. Intrusos também podem invadir redes ao sintetizar uma chamada de vídeo do CIO, enganando os funcionários para que eles forneçam senhas e privilégios, permitindo assim que os hackers acessem todos os bancos de dados sigilosos.

Vídeos pornográficos de deepfake já foram usados para chantagear mulheres repórteres e jornalistas, como Rana Ayyub na Índia, que expõe casos de abusos de poder. Como a tecnologia está ficando mais acessível, a expectativa é que o uso de deepfake em chantagens e fraudes seja cada vez mais comum.

Como se proteger do deepfake

Em alguns países, a legislação já está começando a abordar as ameaças dos vídeos de deepfake. Por exemplo, no estado da Califórnia, dois projetos de lei aprovados no ano passado tornaram ilegais aspectos do deepfake. A lei AB-602 proibiu o uso da síntese de imagens humanas para gerar pornografia sem o consentimento das pessoas retratadas, enquanto a lei AB-730 proibiu a manipulação de imagens de candidatos políticos no período de 60 dias antes de uma eleição.

Será que isso é basta? Felizmente, as empresas de segurança virtual estão sempre criando cada vez mais e melhores algoritmos de detecção. Essas soluções analisam a imagem de vídeo e detectam as pequenas distorções geradas no processo de falsificação. Por exemplo, os sintetizadores de deepfake atuais modelam um rosto em 2D e, em seguida, distorcem-no para ajustá-lo à perspectiva 3D do vídeo. Uma pista importante é ver para qual lado o nariz está apontando.

Os vídeos de deepfake ainda estão em uma fase em que você mesmo pode ser capaz de  detectar sinais. Ao suspeitar de um vídeo de deepfake, procure pelas seguintes características:

  • movimento brusco
  • iluminação instável, mudando de um quadro para o outro
  • mudanças no tom da pele
  • modo de piscar os olhos estranho ou nenhum piscar
  • lábios mal sincronizados com a fala
  • elementos digitais na imagem

À medida que os deepfakes são aprimorados, o olho humano será cada vez menos eficaz, precisando ser substituído por bons programas de segurança virtual.

Tecnologia de ponta contra vídeos falsos

Novas tecnologias estão ajudando os produtores de vídeo a autenticar suas criações. Um algoritmo criptográfico pode ser usado para inserir hashes em intervalos definidos durante o vídeo. Se o vídeo for alterado, os hashes serão alterados. IA e blockchain podem registrar uma impressão digital à prova de adulteração para vídeos. Essa técnica é semelhante aos documentos de marca d’água. A dificuldade com o vídeo é que os hashes precisam se manter, caso o vídeo seja comprimido para uso com codecs diferentes.

Outra forma de combater as tentativas de deepfake é usar um programa que insere "elementos" digitais especialmente projetados em vídeos para ocultar os padrões de pixels que o software de detecção de rosto usa. Eles retardam os algoritmos de deepfake e geram resultados de má qualidade, reduzindo as chances de sucesso dos vídeos de deepfake.

Bons procedimentos de segurança são a melhor proteção

Porém, a tecnologia não é a única maneira de se proteger contra vídeos deepfake. Bons procedimentos básicos de segurança são notavelmente eficientes no combate ao deepfake.

Por exemplo, a inclusão de verificações automáticas em qualquer processo de retirada de fundos poderia impedir muitas fraudes e deepfakes semelhantes. Também é possível:

  • Garantir que funcionários e familiares saibam como funciona a tecnologia de deepfake e os desafios que isso representa.
  • Informar-se e ensinar as outras pessoas como detectar um deepfake.
  • Adquirir conhecimentos sobre mídias e utilizar fontes de notícias de boa qualidade.
  • Seguir bons protocolos básicos, como "confiar, mas sempre verificar". Uma atitude cética em relação a mensagens de voz e vídeos não garante que nunca seremos enganados, mas pode nos ajudar a evitar muitas armadilhas.

Lembre-se de que, se o deepfake começar a ser implementado por hackers nas tentativas de invadir redes domésticas e corporativas, as melhores práticas básicas de segurança virtual poderão desempenhar um papel fundamental quando se trata da minimização de riscos:

  • Backups realizados com regularidade protegem os dados contra ransomware e oferecem a capacidade de restaurar dados danificados.
  • Usar senhas diferentes e fortes para contas diferentes só porque uma rede ou serviço foi invadida não significa que nenhuma outra conta tenha sido comprometida. Se alguém invadir uma conta do Facebook, ninguém vai querer que essa pessoa entre nas outras contas também.
  • Use um bom pacote de segurança, como o Total Security da Kaspersky, para proteger redes domésticas, laptops e smartphones contra ameaças virtuais. Esse pacote fornece software antivírus, rede VPN para impedir que as conexões Wi-Fi sejam invadidas e também protege as webcams.

Qual é o futuro do deepfake

O deepfake continua a evoluir. Há dois anos, era muito fácil identificar vídeos de deepfake pela baixa qualidade dos movimentos e pelo fato de que a pessoa representada parecia nunca piscar os olhos. Mas a geração mais recente de vídeos falsos evoluiu e adaptou-se.

Estima-se que existam mais de 15.000 vídeos de deepfake circulando neste momento. Alguns são feitos apenas para diversão, enquanto outros tentam manipular as opiniões. Como agora leva apenas um ou dois dias para fazer um novo deepfake, esse número pode aumentar com muita rapidez.

 

Links relacionados

Celebridades hackeadas e como isso afeta você

Hackers de webcam: A sua webcam pode estar espionando você?

O que a ascensão do deepfake significa para o futuro da segurança virtual?

Vídeos falsos e deepfake – Como os usuários podem se proteger

Há algum tempo os hackers demonstraram que se aprimoraram no uso do Photoshop e não se limitam mais apenas a colar o rosto de um político no corpo de uma estrela pornográfica. Agora, eles usam uma tecnologia semelhante àquela dos filmes de Hollywood. Os vídeos deepfake sincronizam diálogos na boca das vítimas e são usados para prejudicar a reputação das pessoas ou até mesmo para chantageá-las.
Kaspersky Logo