{"id":22495,"date":"2024-04-15T15:25:24","date_gmt":"2024-04-15T18:25:24","guid":{"rendered":"https:\/\/www.kaspersky.com.br\/blog\/?p=22495"},"modified":"2024-04-15T15:25:24","modified_gmt":"2024-04-15T18:25:24","slug":"real-or-fake-image-analysis-and-provenance","status":"publish","type":"post","link":"https:\/\/www.kaspersky.com.br\/blog\/real-or-fake-image-analysis-and-provenance\/22495\/","title":{"rendered":"Olha o passarinho (verificado) ou as novas maneiras de reconhecer falsifica\u00e7\u00f5es"},"content":{"rendered":"<p>Nos \u00faltimos 18 meses, parece que perdemos a capacidade de confiar em nossos pr\u00f3prios olhos. As falsifica\u00e7\u00f5es do Photoshop n\u00e3o s\u00e3o nenhuma novidade, \u00e9 claro, mas o advento da intelig\u00eancia artificial generativa (IA) levou a falsifica\u00e7\u00e3o para um n\u00edvel sem precedentes. Talvez a primeira falsifica\u00e7\u00e3o viral de IA tenha sido a imagem do Papa em uma jaqueta branca, em 2023, e desde ent\u00e3o, o n\u00famero de golpes com manipula\u00e7\u00e3o de imagens de alta qualidade disparou. Conforme a IA se desenvolve, podemos esperar v\u00eddeos falsos cada vez mais convincentes em um futuro muito pr\u00f3ximo.<\/p>\n<div id=\"attachment_22496\" style=\"width: 416px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151716\/real-or-fake-image-analysis-and-provenance-01.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22496\" class=\"wp-image-22496 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151716\/real-or-fake-image-analysis-and-provenance-01.jpg\" alt=\"Um dos primeiros deepfakes a se tornar viral em todo o mundo: o Papa vestindo uma jaqueta branca da moda\" width=\"406\" height=\"500\"><\/a><p id=\"caption-attachment-22496\" class=\"wp-caption-text\">Um dos primeiros deepfakes a se tornar viral em todo o mundo: o Papa vestindo uma jaqueta branca da moda<\/p><\/div>\n<p>Isso agravar\u00e1 ainda mais o j\u00e1 complicado problema das not\u00edcias falsas e das imagens que as acompanham. Elas podem mostrar uma foto de um evento e alegar que \u00e9 de outro, colocar pessoas que nunca se conheceram na mesma foto e assim por diante.<\/p>\n<p>A falsifica\u00e7\u00e3o de imagens e v\u00eddeos tem rela\u00e7\u00e3o direta com a seguran\u00e7a cibern\u00e9tica. Os golpistas usam imagens e v\u00eddeos falsos para enganar as v\u00edtimas e roubar seu dinheiro h\u00e1 anos. Eles podem enviar uma foto de um cachorrinho triste para alegar que o animalzinho precisa de ajuda, uma imagem de uma celebridade promovendo <a href=\"https:\/\/www.kaspersky.com.br\/blog\/online-investment-dangerous-apps\/22155\/\" target=\"_blank\" rel=\"noopener\">esquemas obscuros<\/a>, ou at\u00e9 uma foto de um cart\u00e3o de cr\u00e9dito que dizem pertencer a algum conhecido. Os fraudadores tamb\u00e9m usam <a href=\"https:\/\/www.kaspersky.com.br\/blog\/pig-butchering-crypto-investment-scam\/22327\/\" target=\"_blank\" rel=\"noopener\">imagens geradas por IA para criar perfis voltados para a pr\u00e1tica de catfishing<\/a> em sites de namoro e m\u00eddias sociais.<\/p>\n<p>Os golpes mais sofisticados usam <a href=\"https:\/\/www.kaspersky.com.br\/blog\/how-to-spot-and-prevent-boss-scams\/22356\/\" target=\"_blank\" rel=\"noopener\">v\u00eddeos e \u00e1udios deepfake do chefe da v\u00edtima<\/a> ou de um parente, para que caiam na conversa dos golpistas. Recentemente, um funcion\u00e1rio de uma institui\u00e7\u00e3o financeira foi enganado e <a href=\"https:\/\/edition.cnn.com\/2024\/02\/04\/asia\/deepfake-cfo-scam-hong-kong-intl-hnk\/index.html\" target=\"_blank\" rel=\"noopener nofollow\">transferiu USD 25 milh\u00f5es<\/a> para os cibercriminosos! Eles fizeram uma videochamada com o \u201cdiretor financeiro\u201d e \u201ccolegas\u201d da v\u00edtima, todos deepfakes.<\/p>\n<p>Ent\u00e3o, o que pode ser feito para lidar com deepfakes ou falsifica\u00e7\u00f5es simples? Como \u00e9 poss\u00edvel detect\u00e1-los? Esse \u00e9 um problema extremamente complexo, mas que pode ser mitigado passo a passo, ao rastrear a <strong>proced\u00eancia<\/strong> da imagem.<\/p>\n<h2>Espere\u2026 eu n\u00e3o vi isso antes?<\/h2>\n<p>Como mencionado acima, existem diferentes tipos de \u201cfalsidade\u201d. \u00c0s vezes, a imagem em si n\u00e3o \u00e9 falsa, entretanto ela \u00e9 usada de forma enganosa. Talvez uma foto real de uma zona de guerra seja manipulada para que transmita a apar\u00eancia de ser outro conflito, ou uma cena de um filme \u00e9 apresentada como um document\u00e1rio. Nesses casos, procurar anomalias na imagem em si n\u00e3o ajudar\u00e1 muito, mas \u00e9 poss\u00edvel tentar procurar c\u00f3pias da imagem on-line. Felizmente, temos ferramentas como <a href=\"https:\/\/support.google.com\/websearch\/answer\/1325808?hl=pt-BR&amp;sjid=11799196324277800924-EU\" target=\"_blank\" rel=\"noopener nofollow\">Google Reverse Image Search<\/a> e <a href=\"https:\/\/tineye.com\/\" target=\"_blank\" rel=\"noopener nofollow\">TinEye<\/a>, que podem ser \u00fateis para fazer essa busca.<\/p>\n<p>Se voc\u00ea tiver alguma d\u00favida em rela\u00e7\u00e3o a uma imagem, basta envi\u00e1-la para uma dessas ferramentas e ver os resultados. \u00c9 poss\u00edvel descobrir se a mesma foto de uma fam\u00edlia desabrigada por um inc\u00eandio, um grupo de c\u00e3es de abrigo ou v\u00edtimas de alguma outra trag\u00e9dia est\u00e1 circulando na Internet h\u00e1 anos. Quando se trata de falsa arrecada\u00e7\u00e3o de fundos, existem alguns outros <a href=\"https:\/\/www.kaspersky.com.br\/blog\/fake-charity-scam\/12310\/\" target=\"_blank\" rel=\"noopener\">indicadores de seguran\u00e7a<\/a> que devem ser observados al\u00e9m das imagens.<\/p>\n<div id=\"attachment_22497\" style=\"width: 1506px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151758\/real-or-fake-image-analysis-and-provenance-02.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22497\" class=\"wp-image-22497 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151758\/real-or-fake-image-analysis-and-provenance-02.jpg\" alt=\"C\u00e3o de um abrigo? N\u00e3o, de um banco de imagens\" width=\"1496\" height=\"903\"><\/a><p id=\"caption-attachment-22497\" class=\"wp-caption-text\">C\u00e3o de um abrigo? N\u00e3o, de um banco de imagens<\/p><\/div>\n<h2>Manipula\u00e7\u00e3o por Photoshop? Em breve saberemos.<\/h2>\n<p>Como a manipula\u00e7\u00e3o por Photoshop existe h\u00e1 algum tempo, matem\u00e1ticos, engenheiros e especialistas em imagens est\u00e3o trabalhando j\u00e1 faz muito tempo nas maneiras de detectar imagens alteradas automaticamente. Alguns m\u00e9todos populares incluem an\u00e1lise de metadados de imagem e <a href=\"https:\/\/en.wikipedia.org\/wiki\/Error_level_analysis\" target=\"_blank\" rel=\"noopener nofollow\">an\u00e1lise de n\u00edvel de erro (ELA)<\/a>, que verifica artefatos de compacta\u00e7\u00e3o JPEG para identificar as partes modificadas de uma imagem. Muitas ferramentas populares de an\u00e1lise de imagens, como o <a href=\"https:\/\/www.fakeimagedetector.com\/\" target=\"_blank\" rel=\"noopener nofollow\">Fake Image Detector<\/a>, aplicam essas t\u00e9cnicas.<\/p>\n<div id=\"attachment_22498\" style=\"width: 619px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151843\/real-or-fake-image-analysis-and-provenance-03.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22498\" class=\"wp-image-22498 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151843\/real-or-fake-image-analysis-and-provenance-03.jpg\" alt=\"Detector de imagem falsa avisa que o Papa provavelmente n\u00e3o vestiu isso no domingo de P\u00e1scoa... Nem em nenhuma outra ocasi\u00e3o\" width=\"609\" height=\"810\"><\/a><p id=\"caption-attachment-22498\" class=\"wp-caption-text\">Detector de imagem falsa avisa que o Papa provavelmente n\u00e3o vestiu isso no domingo de P\u00e1scoa\u2026 Nem em nenhuma outra ocasi\u00e3o<\/p><\/div>\n<p>Com o surgimento da IA generativa, tamb\u00e9m apareceram novos m\u00e9todos baseados em IA para detectar o conte\u00fado gerado, mas nenhum deles \u00e9 perfeito. Aqui est\u00e3o alguns dos aprimoramentos mais relevantes: detec\u00e7\u00e3o de <a href=\"https:\/\/www.hhi.fraunhofer.de\/en\/departments\/vit\/research-groups\/computer-vision-graphics\/research-topics\/detection-of-face-morphing-attacks.html\" target=\"_blank\" rel=\"noopener nofollow\">transforma\u00e7\u00e3o de face<\/a>; detec\u00e7\u00e3o de imagens geradas por IA e <a href=\"https:\/\/www.aiornot.com\/#pricing\" target=\"_blank\" rel=\"noopener nofollow\">determina\u00e7\u00e3o do modelo de IA usado para ger\u00e1-las<\/a>; e um <a href=\"https:\/\/huggingface.co\/Organika\/sdxl-detector\" target=\"_blank\" rel=\"noopener nofollow\">modelo aberto de IA<\/a> para os mesmos prop\u00f3sitos.<\/p>\n<p>Com todas essas abordagens, o principal problema \u00e9 que nenhuma delas garante 100% de certeza sobre a proced\u00eancia da imagem, que ela est\u00e1 livre de modifica\u00e7\u00f5es, ou torna poss\u00edvel a verifica\u00e7\u00e3o dessas modifica\u00e7\u00f5es.<\/p>\n<h2>WWW para o reconhecimento: verifica\u00e7\u00e3o da proced\u00eancia do conte\u00fado<\/h2>\n<p>N\u00e3o seria \u00f3timo se houvesse uma maneira mais f\u00e1cil para os usu\u00e1rios comuns verificarem se uma imagem \u00e9 real? Imagine clicar em uma foto e ver algo como: \u201cJo\u00e3o tirou esta foto com um iPhone em 20 de mar\u00e7o\u201d, \u201cAna cortou as bordas e aumentou o brilho em 22 de mar\u00e7o\u201d, \u201cPedro salvou novamente esta imagem com alta compacta\u00e7\u00e3o em 23 de mar\u00e7o\u201d ou \u201cnenhuma altera\u00e7\u00e3o foi feita\u201d, com todos esses dados sendo imposs\u00edveis de falsificar. Parece um sonho, certo? Bem, \u00e9 exatamente isso que a Coaliz\u00e3o para <a href=\"https:\/\/c2pa.org\/\" target=\"_blank\" rel=\"noopener nofollow\">Proveni\u00eancia e Autenticidade de Conte\u00fado (C2PA)<\/a> busca fazer. A C2PA inclui alguns dos principais agentes dos setores de inform\u00e1tica, fotografia e m\u00eddia: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press, e cerca de uma centena de outros membros. S\u00e3o as empresas que poderiam estar individualmente envolvidas em qualquer etapa da vida de uma imagem, desde a cria\u00e7\u00e3o at\u00e9 a publica\u00e7\u00e3o on-line.<\/p>\n<p>O <a href=\"https:\/\/c2pa.org\/specifications\/specifications\/1.3\/index.html\" target=\"_blank\" rel=\"noopener nofollow\">padr\u00e3o C2PA<\/a> desenvolvido pela coaliz\u00e3o j\u00e1 est\u00e1 dispon\u00edvel e j\u00e1 chegou \u00e0 vers\u00e3o 1.3. Agora, estamos come\u00e7ando a ver as pe\u00e7as do quebra-cabe\u00e7a industrial necess\u00e1rias para us\u00e1-lo se encaixarem. A Nikon <a href=\"https:\/\/www.nikon.com\/company\/news\/2024\/0109_imaging_02.html\" target=\"_blank\" rel=\"noopener nofollow\">planeja<\/a> fabricar c\u00e2meras compat\u00edveis com C2PA, e a BBC j\u00e1 <a href=\"https:\/\/www.bbc.co.uk\/rd\/blog\/2024-03-c2pa-verification-news-journalism-credentials\" target=\"_blank\" rel=\"noopener nofollow\">publicou<\/a> seus primeiros artigos com imagens verificadas.<\/p>\n<div id=\"attachment_22499\" style=\"width: 1258px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151934\/real-or-fake-image-analysis-and-provenance-04.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22499\" class=\"wp-image-22499 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15151934\/real-or-fake-image-analysis-and-provenance-04.jpg\" alt=\"BBC explica como as imagens e v\u00eddeos em seus artigos s\u00e3o verificados\" width=\"1248\" height=\"702\"><\/a><p id=\"caption-attachment-22499\" class=\"wp-caption-text\">BBC explica como as imagens e v\u00eddeos em seus artigos s\u00e3o verificados<\/p><\/div>\n<p>A ideia \u00e9 que, quando os meios de comunica\u00e7\u00e3o respons\u00e1veis e as grandes empresas passarem a publicar imagens verificadas, ser\u00e1 poss\u00edvel confirmar a proced\u00eancia de qualquer imagem diretamente no navegador. Um pequeno selo de \u201cimagem verificada\u201d poder\u00e1 ser visualizado, e ao clicar nele, uma janela maior \u00e9 exibida mostrando quais imagens serviram como fonte, quais edi\u00e7\u00f5es foram feitas em cada est\u00e1gio antes que a imagem aparecesse no navegador, por quem e quando. Ser\u00e1 poss\u00edvel at\u00e9 visualizar as vers\u00f5es intermedi\u00e1rias da imagem.<\/p>\n<div id=\"attachment_22500\" style=\"width: 2090px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152016\/real-or-fake-image-analysis-and-provenance-05.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22500\" class=\"wp-image-22500 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152016\/real-or-fake-image-analysis-and-provenance-05.jpg\" alt=\"Hist\u00f3rico de cria\u00e7\u00e3o e edi\u00e7\u00e3o de imagens\" width=\"2080\" height=\"756\"><\/a><p id=\"caption-attachment-22500\" class=\"wp-caption-text\">Hist\u00f3rico de cria\u00e7\u00e3o e edi\u00e7\u00e3o de imagens<\/p><\/div>\n<p>Essa abordagem n\u00e3o ser\u00e1 voltada apenas para c\u00e2meras; ela tamb\u00e9m poder\u00e1 funcionar em outras formas de cria\u00e7\u00e3o de imagens. Servi\u00e7os como Dall-E e Midjourney tamb\u00e9m podem aplicar o selo em suas cria\u00e7\u00f5es.<\/p>\n<div id=\"attachment_22501\" style=\"width: 1174px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152057\/real-or-fake-image-analysis-and-provenance-06.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22501\" class=\"wp-image-22501 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152057\/real-or-fake-image-analysis-and-provenance-06.jpg\" alt=\"Fica claro que isso foi criado no Adobe Photoshop\" width=\"1164\" height=\"977\"><\/a><p id=\"caption-attachment-22501\" class=\"wp-caption-text\">Fica claro que isso foi criado no Adobe Photoshop<\/p><\/div>\n<p>O processo de verifica\u00e7\u00e3o \u00e9 baseado em criptografia de chave p\u00fablica semelhante \u00e0 prote\u00e7\u00e3o usada em certificados de servidores Web para estabelecer uma conex\u00e3o HTTPS segura. A ideia \u00e9 que todo criador de imagem, seja Jo\u00e3o da Silva com um tipo espec\u00edfico de c\u00e2mera ou Maria da Silva com uma licen\u00e7a do Photoshop, precisar\u00e1 obter um certificado X.509 de uma autoridade de certifica\u00e7\u00e3o confi\u00e1vel. O certificado pode ser integrado diretamente na c\u00e2mera na f\u00e1brica, ou emitido ap\u00f3s a ativa\u00e7\u00e3o, no caso de produtos de software. Ao processar imagens com rastreamento de proced\u00eancia, cada nova vers\u00e3o do arquivo conter\u00e1 uma grande quantidade de informa\u00e7\u00f5es extras: data, hora e local das edi\u00e7\u00f5es, miniaturas das vers\u00f5es original e editada, e assim por diante. Todas essas informa\u00e7\u00f5es ser\u00e3o assinadas digitalmente pelo autor ou editor da imagem. Dessa forma, um arquivo de imagem verificado ter\u00e1 uma cadeia com todas as vers\u00f5es anteriores, e cada uma delas ser\u00e1 assinada pela pessoa que o editou.<\/p>\n<div id=\"attachment_22502\" style=\"width: 742px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152146\/real-or-fake-image-analysis-and-provenance-07.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22502\" class=\"wp-image-22502 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152146\/real-or-fake-image-analysis-and-provenance-07.jpg\" alt=\"Este v\u00eddeo cont\u00e9m conte\u00fado gerado por IA\" width=\"732\" height=\"412\"><\/a><p id=\"caption-attachment-22502\" class=\"wp-caption-text\">Este v\u00eddeo cont\u00e9m conte\u00fado gerado por IA<\/p><\/div>\n<p>Os autores da especifica\u00e7\u00e3o tamb\u00e9m estavam preocupados com os recursos de privacidade. \u00c0s vezes, os jornalistas n\u00e3o podem revelar suas fontes. Para situa\u00e7\u00f5es como essa, h\u00e1 um tipo especial de edi\u00e7\u00e3o chamado \u201creda\u00e7\u00e3o\u201d. Isso permitir\u00e1 que algu\u00e9m substitua algumas das informa\u00e7\u00f5es sobre o criador da imagem por zeros e, em seguida, assine a altera\u00e7\u00e3o com o seu pr\u00f3prio certificado.<\/p>\n<p>Para demonstrar os recursos do C2PA, uma cole\u00e7\u00e3o de <a href=\"https:\/\/github.com\/c2pa-org\/public-testfiles?tab=readme-ov-file\" target=\"_blank\" rel=\"noopener nofollow\">imagens e v\u00eddeos de teste<\/a> foi criada. \u00c9 poss\u00edvel conferir o <a href=\"https:\/\/contentcredentials.org\/verify\" target=\"_blank\" rel=\"noopener nofollow\">site de credenciais de conte\u00fado<\/a> para verificar as credenciais, o hist\u00f3rico de cria\u00e7\u00e3o e o hist\u00f3rico de edi\u00e7\u00e3o dessas imagens.<\/p>\n<div id=\"attachment_22503\" style=\"width: 1910px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152227\/real-or-fake-image-analysis-and-provenance-08.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-22503\" class=\"wp-image-22503 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2024\/04\/15152227\/real-or-fake-image-analysis-and-provenance-08.jpg\" alt=\"O site de credenciais de conte\u00fado revela todo o hist\u00f3rico das imagens C2PA\" width=\"1900\" height=\"1286\"><\/a><p id=\"caption-attachment-22503\" class=\"wp-caption-text\">O site de credenciais de conte\u00fado revela todo o hist\u00f3rico das imagens C2PA<\/p><\/div>\n<h2>Limita\u00e7\u00f5es naturais<\/h2>\n<p>Infelizmente, as assinaturas digitais para imagens n\u00e3o resolver\u00e3o o problema das falsifica\u00e7\u00f5es da noite para o dia. Afinal, j\u00e1 existem bilh\u00f5es de imagens on-line que n\u00e3o foram assinadas por ningu\u00e9m, e elas n\u00e3o v\u00e3o desaparecer. No entanto, conforme as fontes de informa\u00e7\u00f5es respeit\u00e1veis passarem a publicar apenas imagens assinadas, qualquer foto sem assinatura digital ser\u00e1 vista com suspeita. Fotos e v\u00eddeos reais com data, hora e dados de localiza\u00e7\u00e3o ser\u00e3o praticamente imposs\u00edveis de serem falsificados, e o conte\u00fado gerado por IA ser\u00e1 mais f\u00e1cil de detectar.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\"><input type=\"hidden\" class=\"placeholder_for_banner\" data-cat_id=\"premium-generic\" value=\"19875\">\n","protected":false},"excerpt":{"rendered":"<p>Como diferenciar uma foto ou v\u00eddeo real de uma falsifica\u00e7\u00e3o e rastrear sua proced\u00eancia.<\/p>\n","protected":false},"author":2722,"featured_media":22504,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[12],"tags":[2882,830,3238,313,1342,2309,766,221,77],"class_list":{"0":"post-22495","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-deepfake","9":"tag-tips","10":"tag-falsificacoes","11":"tag-golpes","12":"tag-ia","13":"tag-imagens","14":"tag-inteligencia-artificial","15":"tag-phishing","16":"tag-tecnologia"},"hreflang":[{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/real-or-fake-image-analysis-and-provenance\/22495\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/real-or-fake-image-analysis-and-provenance\/27312\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/22606\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/11577\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/29968\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/real-or-fake-image-analysis-and-provenance\/27469\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/27262\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/real-or-fake-image-analysis-and-provenance\/29956\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/real-or-fake-image-analysis-and-provenance\/28683\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/real-or-fake-image-analysis-and-provenance\/37264\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/real-or-fake-image-analysis-and-provenance\/12254\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/50932\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/real-or-fake-image-analysis-and-provenance\/21787\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/real-or-fake-image-analysis-and-provenance\/31189\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/real-or-fake-image-analysis-and-provenance\/36220\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/real-or-fake-image-analysis-and-provenance\/27628\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/real-or-fake-image-analysis-and-provenance\/33473\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/real-or-fake-image-analysis-and-provenance\/33100\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.com.br\/blog\/tag\/imagens\/","name":"imagens"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/22495","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/comments?post=22495"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/22495\/revisions"}],"predecessor-version":[{"id":22506,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/22495\/revisions\/22506"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media\/22504"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media?parent=22495"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/categories?post=22495"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/tags?post=22495"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}