{"id":18025,"date":"2021-09-03T18:04:51","date_gmt":"2021-09-03T21:04:51","guid":{"rendered":"https:\/\/www.kaspersky.com.br\/blog\/?p=18025"},"modified":"2021-09-30T12:57:48","modified_gmt":"2021-09-30T15:57:48","slug":"what-is-apple-csam-detection","status":"publish","type":"post","link":"https:\/\/www.kaspersky.com.br\/blog\/what-is-apple-csam-detection\/18025\/","title":{"rendered":"Como a Apple planeja monitorar os usu\u00e1rios"},"content":{"rendered":"<p>No in\u00edcio de agosto de 2021, a Apple <a href=\"https:\/\/www.theverge.com\/2021\/8\/5\/22611721\/apple-csam-child-abuse-scanning-hash-system-ncmec\" target=\"_blank\" rel=\"noopener nofollow\">revelou<\/a> seu novo sistema para identificar fotos contendo imagens de abuso infantil. Embora os motivos da Apple \u2013 combater a dissemina\u00e7\u00e3o de pornografia infantil \u2013 pare\u00e7am indiscutivelmente bem-intencionados, o an\u00fancio foi imediatamente criticado.<\/p>\n<p>A Apple h\u00e1 muito cultiva uma imagem de si mesma como fabricante de dispositivos que se preocupa com a privacidade do usu\u00e1rio. Os novos recursos previstos para iOS 15 e iPadOS 15 j\u00e1 afetaram seriamente essa reputa\u00e7\u00e3o, mas a empresa n\u00e3o est\u00e1 recuando. Veja o que aconteceu e como isso afetar\u00e1 os usu\u00e1rios m\u00e9dios de iPhones e iPads.<\/p>\n<h2>O que \u00e9 o CSAM Detection?<\/h2>\n<p>Os planos da Apple s\u00e3o descritos no <a href=\"https:\/\/www.apple.com\/child-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">site da empresa<\/a>. A empresa desenvolveu um sistema chamado CSAM Detection, que pesquisa os dispositivos dos usu\u00e1rios em busca de \u201cmaterial de abuso sexual infantil\u201d, tamb\u00e9m conhecido como CSAM (sigla em ingl\u00eas).<\/p>\n<p>Embora \u201cpornografia infantil\u201d seja sin\u00f4nimo de CSAM, o Centro Nacional para Crian\u00e7as Desaparecidas e Exploradas (<a href=\"https:\/\/www.missingkids.org\/HOME\" target=\"_blank\" rel=\"noopener nofollow\">NCMEC<\/a>, sigla em ingl\u00eas), que ajuda a encontrar e resgatar crian\u00e7as desaparecidas e exploradas nos Estados Unidos, considera \u201cCSAM\u201d o termo mais apropriado. O NCMEC fornece \u00e0 Apple e a outras empresas de tecnologia informa\u00e7\u00f5es sobre imagens CSAM conhecidas.<\/p>\n<p>A Apple introduziu o CSAM Detection junto com v\u00e1rios outros recursos que expandem os controles dos pais nos dispositivos m\u00f3veis da Apple. Por exemplo, os pais receber\u00e3o uma notifica\u00e7\u00e3o se algu\u00e9m enviar a seus filhos uma foto sexualmente expl\u00edcita no aplicativo de iMessage da Apple.<\/p>\n<p>A revela\u00e7\u00e3o simult\u00e2nea de v\u00e1rias tecnologias resultou em alguma confus\u00e3o, e muitas pessoas tiveram a sensa\u00e7\u00e3o que a Apple iria monitorar todos os usu\u00e1rios o tempo todo. Esse n\u00e3o \u00e9 o caso.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial-generic\">\n<h2>Cronograma de implementa\u00e7\u00e3o do CSAM Detection<\/h2>\n<p>O CSAM Detection far\u00e1 parte dos sistemas operacionais m\u00f3veis iOS 15 e iPadOS 15, que estar\u00e3o dispon\u00edveis para usu\u00e1rios de todos os iPhones e iPads atuais (iPhone 6S, iPad de quinta gera\u00e7\u00e3o e posterior) neste outono. Embora a fun\u00e7\u00e3o esteja teoricamente dispon\u00edvel em dispositivos m\u00f3veis da Apple em todo o mundo, por enquanto o sistema funcionar\u00e1 por completo apenas nos Estados Unidos.<\/p>\n<h2>Como o CSAM Detection funcionar\u00e1<\/h2>\n<p>O CSAM Detection funciona apenas em conjunto com o iCloud Photos, que faz parte do servi\u00e7o iCloud que carrega fotos de um smartphone ou tablet para servidores Apple. Tamb\u00e9m os torna acess\u00edveis em outros dispositivos do usu\u00e1rio.<\/p>\n<p>Se um usu\u00e1rio desativa a sincroniza\u00e7\u00e3o de fotos nas configura\u00e7\u00f5es, o CSAM Detection para de funcionar. Isso significa que as fotos s\u00e3o comparadas com as de bancos de dados criminais apenas na nuvem? N\u00e3o exatamente. O sistema \u00e9 deliberadamente complexo; A Apple est\u00e1 tentando garantir o n\u00edvel necess\u00e1rio de privacidade.<\/p>\n<p>Como <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">explica<\/a> a Apple, o CSAM Detection funciona escaneando fotos em um dispositivo para determinar se elas correspondem \u00e0s fotos nos bancos de dados do NCMEC ou de outras organiza\u00e7\u00f5es semelhantes.<\/p>\n<div id=\"attachment_18031\" style=\"width: 1270px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-18031\" class=\"wp-image-18031 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2021\/09\/03175650\/what-is-apple-csam-detection-1.png\" alt=\"Diagrama simplificado de como o CSAM Detection funciona fonte\" width=\"1260\" height=\"640\"><p id=\"caption-attachment-18031\" class=\"wp-caption-text\">Diagrama simplificado de como o CSAM Detection funciona<\/p><\/div>\n<p>O m\u00e9todo de detec\u00e7\u00e3o usa a tecnologia NeuralHash, que basicamente cria identificadores digitais, ou hashes, para fotos com base em seu conte\u00fado. Se um hash corresponder a um no banco de dados de imagens de explora\u00e7\u00e3o infantil conhecidas, a imagem e seu hash ser\u00e3o carregados nos servidores da Apple. A Apple realiza outra verifica\u00e7\u00e3o antes de registrar oficialmente a imagem.<\/p>\n<p>Outro componente do sistema, a tecnologia criptogr\u00e1fica chamada <em> interse\u00e7\u00e3o de conjuntos privados <\/em>, criptografa os resultados da varredura do CSAM Detection de forma que a Apple possa descriptograf\u00e1-los apenas se uma s\u00e9rie de crit\u00e9rios forem atendidos. Em teoria, isso deve evitar que o sistema seja usado indevidamente \u2013 ou seja, deve impedir que um funcion\u00e1rio da empresa abuse do sistema ou entregue imagens a pedido de ag\u00eancias governamentais.<\/p>\n<p>Em uma entrevista de 13 de agosto para o <em> Wall Street Journal <\/em>, Craig Federighi, vice-presidente s\u00eanior de engenharia de software da Apple, articulou que a principal prote\u00e7\u00e3o para o protocolo de interse\u00e7\u00e3o de conjuntos privados: para alertar a Apple, 30 fotos precisam corresponder \u00e0s imagens no banco de dados NCMEC. Como mostra o diagrama abaixo, o sistema de interse\u00e7\u00e3o do conjunto privado n\u00e3o permitir\u00e1 que o conjunto de dados \u2013 informa\u00e7\u00f5es sobre a opera\u00e7\u00e3o do CSAM Detection e as fotos \u2013 seja descriptografado at\u00e9 que esse limite seja atingido. De acordo com a Apple, como o limite para sinalizar uma imagem \u00e9 t\u00e3o alto, uma correspond\u00eancia falsa \u00e9 muito improv\u00e1vel \u2013 uma \u201cchance em um trilh\u00e3o\u201d.<\/p>\n<div id=\"attachment_18032\" style=\"width: 1150px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-18032\" class=\"wp-image-18032 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2021\/09\/03175826\/what-is-apple-csam-detection-2.png\" alt=\"Um recurso importante do sistema CSAM Detection: para descriptografar dados, um grande n\u00famero de fotos precisa corresponder fonte]\" width=\"1140\" height=\"700\"><p id=\"caption-attachment-18032\" class=\"wp-caption-text\">Um recurso importante do sistema CSAM Detection: para descriptografar dados, um grande n\u00famero de fotos precisa corresponder<\/p><\/div>\n<p>O que acontece quando o sistema \u00e9 alertado? Um funcion\u00e1rio da Apple verifica os dados manualmente, confirma a presen\u00e7a de pornografia infantil e notifica as autoridades. Por enquanto o sistema funcionar\u00e1 integralmente apenas nos Estados Unidos, ent\u00e3o a notifica\u00e7\u00e3o ir\u00e1 para o NCMEC, que \u00e9 patrocinado pelo Departamento de Justi\u00e7a dos EUA.<\/p>\n<h2>Problemas com o CSAM Detection<\/h2>\n<p>As cr\u00edticas potenciais \u00e0s a\u00e7\u00f5es da Apple se enquadram em duas categorias: questionar a abordagem da empresa e examinar as vulnerabilidades do protocolo. No momento, h\u00e1 poucas evid\u00eancias concretas de que a Apple cometeu um erro t\u00e9cnico (um problema que discutiremos em mais detalhes abaixo), embora n\u00e3o tenham faltado reclama\u00e7\u00f5es gerais.<\/p>\n<p>Por exemplo, a Electronic Frontier Foundation <a href=\"https:\/\/www.eff.org\/deeplinks\/2021\/08\/if-you-build-it-they-will-come-apple-has-opened-backdoor-increased-surveillance\" target=\"_blank\" rel=\"noopener nofollow\">descreveu<\/a> esses problemas detalhadamente. De acordo com a EFF, ao adicionar o escaneamento de imagens ao usu\u00e1rio, a Apple est\u00e1 essencialmente embutindo uma \u201cporta dos fundos\u201d nos dispositivos dos usu\u00e1rios. A EFF <a href=\"https:\/\/www.eff.org\/deeplinks\/2019\/11\/why-adding-client-side-scanning-breaks-end-end-encryption\" target=\"_blank\" rel=\"noopener nofollow\">critica<\/a> o conceito desde 2019.<\/p>\n<p>Por que isso \u00e9 ruim? Bem, considere ter um dispositivo no qual os dados s\u00e3o completamente criptografados (como afirma a Apple) que ent\u00e3o come\u00e7a a relatar a terceiros sobre esse conte\u00fado. No momento, o alvo \u00e9 a pornografia infantil, levando a um refr\u00e3o comum: \u201cSe voc\u00ea n\u00e3o est\u00e1 fazendo nada de errado, n\u00e3o tem com o que se preocupar\u201d, mas enquanto esse mecanismo existir, n\u00e3o podemos saber se ele n\u00e3o funcionar\u00e1 ser aplicado a outro conte\u00fado.<\/p>\n<p>Ultimamente, essa cr\u00edtica \u00e9 mais pol\u00edtica do que tecnol\u00f3gica. O problema reside na aus\u00eancia de um contrato social que equilibre seguran\u00e7a e privacidade. Todos n\u00f3s, de burocratas, fabricantes de dispositivos e desenvolvedores de software a ativistas de direitos humanos e usu\u00e1rios comuns \u2013 estamos tentando definir esse equil\u00edbrio agor<\/p>\n<p>As ag\u00eancias de aplica\u00e7\u00e3o da lei reclamam que a criptografia generalizada complica a coleta de evid\u00eancias e a captura de criminosos, e isso \u00e9 compreens\u00edvel. As preocupa\u00e7\u00f5es com a vigil\u00e2ncia digital em massa tamb\u00e9m s\u00e3o \u00f3bvias. Opini\u00f5es, incluindo opini\u00f5es sobre as pol\u00edticas e a\u00e7\u00f5es da Apple, s\u00e3o um gr\u00e3o de areia no universo.<\/p>\n<h2>Problemas em potencial com a implementa\u00e7\u00e3o do CSAM Detection<\/h2>\n<p>Assim que ultrapassarmos as preocupa\u00e7\u00f5es \u00e9ticas, chegaremos a alguns caminhos tecnol\u00f3gicos acidentados. Qualquer c\u00f3digo de programa produz novas vulnerabilidades. N\u00e3o importa o que os governos possam fazer; e se um cibercriminoso se aproveitasse das vulnerabilidades do CSAM Detection? Quando se trata de criptografia de dados, a preocupa\u00e7\u00e3o \u00e9 natural e v\u00e1lida: se voc\u00ea enfraquecer a prote\u00e7\u00e3o das informa\u00e7\u00f5es, mesmo que seja apenas com boas inten\u00e7\u00f5es, qualquer pessoa pode explorar a fraqueza para outros fins.<\/p>\n<p>Uma auditoria independente do c\u00f3digo do CSAM Detection acabou de come\u00e7ar e pode levar muito tempo. No entanto, j\u00e1 aprendemos algumas coisas.<\/p>\n<p>Primeiro, o c\u00f3digo que torna poss\u00edvel comparar fotos com um \u201cmodelo\u201d <a href=\"https:\/\/www.macobserver.com\/news\/neural-hash-extracted\/\" target=\"_blank\" rel=\"noopener nofollow\">existe<\/a> no iOS (e macOS) desde a vers\u00e3o 14.3. \u00c9 perfeitamente poss\u00edvel que o c\u00f3digo fa\u00e7a parte da detec\u00e7\u00e3o de CSAM. <a href=\"https:\/\/github.com\/AsuharietYgvar\/AppleNeuralHash2ONNX\" target=\"_blank\" rel=\"noopener nofollow\">Utilit\u00e1rios<\/a> para experimentar um algoritmo de busca para imagens correspondentes j\u00e1 encontraram algumas <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">colis\u00f5es<\/a>. Por exemplo, de acordo com o algoritmo NeuralHash da Apple, as duas imagens abaixo t\u00eam o mesmo hash:<\/p>\n<div id=\"attachment_18033\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-18033\" class=\"wp-image-18033 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2021\/09\/03180115\/what-is-apple-csam-detection-3.png\" alt=\"De acordo com o algoritmo NeuralHash da Apple, essas duas fotos s\u00e3o correspondentes\" width=\"740\" height=\"360\"><p id=\"caption-attachment-18033\" class=\"wp-caption-text\">De acordo com o algoritmo NeuralHash da Apple, essas duas fotos s\u00e3o correspondentes<\/p><\/div>\n<p>Se for poss\u00edvel retirar o banco de dados de hashes de fotos ilegais, \u00e9 poss\u00edvel criar imagens \u201cinocentes\u201d que acionam um alerta, o que significa que a Apple poderia receber alertas falsos suficientes para tornar o CSAM Detection insustent\u00e1vel. \u00c9 provavelmente por isso que a Apple separou a detec\u00e7\u00e3o, com parte do algoritmo funcionando apenas na sa\u00edda do servidor.<\/p>\n<p>H\u00e1 tamb\u00e9m esta <a href=\"https:\/\/pseudorandom.resistant.tech\/obfuscated_apples.html\" target=\"_blank\" rel=\"noopener nofollow\">an\u00e1lise<\/a> do protocolo de <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/Apple_PSI_System_Security_Protocol_and_Analysis.pdf\" target=\"_blank\" rel=\"noopener nofollow\"><em> intersec\u00e7\u00e3o de conjuntos privados <\/em><\/a> da Apple. A reclama\u00e7\u00e3o \u00e9 essencialmente que mesmo antes de atingir o limite de alerta, o sistema PSI (sigla em ingl\u00eas) transfere um pouco de informa\u00e7\u00e3o para os servidores da Apple. O artigo descreve um cen\u00e1rio no qual as ag\u00eancias de aplica\u00e7\u00e3o da lei solicitam os dados da Apple e sugere que mesmo alertas falsos podem levar a uma visita da pol\u00edcia.<\/p>\n<p>Por enquanto, os itens acima s\u00e3o apenas os testes iniciais de uma revis\u00e3o externa do CSAM Detection. Seu sucesso depender\u00e1 em grande parte da famosa empresa secreta que fornece transpar\u00eancia sobre o funcionamento do CSAM Detection \u2013 e, em particular, seu c\u00f3digo-fonte.<\/p>\n<h2>O que significa a implementa\u00e7\u00e3o do CSAM Detection para o usu\u00e1rio comum<\/h2>\n<p>Os dispositivos modernos s\u00e3o t\u00e3o complexos que n\u00e3o \u00e9 f\u00e1cil determinar o qu\u00e3o seguros eles realmente s\u00e3o \u2013 isto \u00e9, at\u00e9 que ponto eles cumprem as promessas do fabricante. Tudo o que a maioria de n\u00f3s pode fazer \u00e9 confiar \u2013 ou desconfiar \u2013 da empresa com base em sua reputa\u00e7\u00e3o.<\/p>\n<p>No entanto, \u00e9 importante lembrar este ponto-chave: o CSAM Detection funciona apenas se os usu\u00e1rios fizerem upload de fotos para o iCloud. A decis\u00e3o da Apple foi deliberada e antecipou algumas das obje\u00e7\u00f5es \u00e0 tecnologia. Se voc\u00ea n\u00e3o enviar fotos para a nuvem, nada ser\u00e1 enviado para qualquer lugar.<\/p>\n<p>Voc\u00ea deve se lembrar do conflito not\u00f3rio entre a <a href=\"https:\/\/en.wikipedia.org\/wiki\/2015_San_Bernardino_attack\" target=\"_blank\" rel=\"noopener nofollow\">Apple e o FBI em 2016<\/a>, quando o FBI pediu ajuda \u00e0 Apple para desbloquear um iPhone 5C que pertencia a um atirador em massa em San Bernardino, Calif\u00f3rnia. O FBI queria que a Apple escrevesse um software que permitisse ao FBI burlar a prote\u00e7\u00e3o por senha do telefone.<\/p>\n<p>A empresa, reconhecendo que obedecer poderia resultar no desbloqueio n\u00e3o s\u00f3 do telefone do atirador, mas tamb\u00e9m do telefone de qualquer pessoa, recusou. O FBI recuou e acabou hackeando o dispositivo com ajuda externa, explorando as <a href=\"https:\/\/www.washingtonpost.com\/technology\/2021\/04\/14\/azimuth-san-bernardino-apple-iphone-fbi\/\" target=\"_blank\" rel=\"noopener nofollow\">vulnerabilidades do software<\/a>, e a Apple manteve sua reputa\u00e7\u00e3o de empresa que luta pelos direitos de seus clientes.<\/p>\n<p>No entanto, a hist\u00f3ria n\u00e3o \u00e9 t\u00e3o simples. A Apple entregou uma c\u00f3pia dos dados do iCloud. Na verdade, a empresa <a href=\"https:\/\/www.reuters.com\/article\/us-apple-fbi-icloud-exclusive-idUSKBN1ZK1CT\" target=\"_blank\" rel=\"noopener nofollow\">tem acesso<\/a> a praticamente todos os dados do usu\u00e1rio carregados para a nuvem. Algumas, como senhas de chaves e informa\u00e7\u00f5es de pagamento, s\u00e3o armazenadas usando criptografia de ponta a ponta, mas a maioria das informa\u00e7\u00f5es \u00e9 criptografada apenas para prote\u00e7\u00e3o contra acesso <em> n\u00e3o autorizado <\/em> \u2013 ou seja, de um hack dos servidores da empresa. Isso significa que a empresa pode descriptografar os dados.<\/p>\n<p>As implica\u00e7\u00f5es s\u00e3o, talvez, a reviravolta mais interessante na hist\u00f3ria da detec\u00e7\u00e3o de CSAM. A empresa poderia, por exemplo, simplesmente digitalizar todas as imagens no iCloud Photos (como fazem o Facebook, Google e muitos outros provedores de servi\u00e7os em nuvem). A Apple criou um mecanismo mais elegante que ajudaria a repelir acusa\u00e7\u00f5es de vigil\u00e2ncia em massa de usu\u00e1rios, mas, em vez disso, atraiu ainda mais cr\u00edticas \u2013 para escanear os dispositivos dos usu\u00e1rios.<\/p>\n<p>Em \u00faltima an\u00e1lise, o alvoro\u00e7o dificilmente muda alguma coisa para o usu\u00e1rio m\u00e9dio. Se voc\u00ea est\u00e1 preocupado em proteger seus dados, deve examinar <em> qualquer <\/em> servi\u00e7o em nuvem com um olhar cr\u00edtico. Os dados que voc\u00ea armazena apenas no seu dispositivo ainda est\u00e3o seguros. As a\u00e7\u00f5es recentes da Apple semearam d\u00favidas bem fundamentadas. Se a empresa vai continuar nessa linha, permanece uma quest\u00e3o em aberto.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Apple planeja usar seu novo sistema, o CSAM Detection (Material de Abuso Sexual Infantil) para monitorar usu\u00e1rios e identificar aqueles que armazenam pornografia infantil em seus dispositivos.<\/p>\n","protected":false},"author":665,"featured_media":18030,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1028,1029],"tags":[20,96,118,61,1141,53,77],"class_list":{"0":"post-18025","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-privacy","8":"category-technology","9":"tag-apple","10":"tag-ios","11":"tag-ipad","12":"tag-iphone","13":"tag-monitoramento","14":"tag-privacidade","15":"tag-tecnologia"},"hreflang":[{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/what-is-apple-csam-detection\/18025\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/what-is-apple-csam-detection\/23225\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/what-is-apple-csam-detection\/18712\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/what-is-apple-csam-detection\/9359\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/what-is-apple-csam-detection\/25274\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/what-is-apple-csam-detection\/23344\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/what-is-apple-csam-detection\/22723\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/what-is-apple-csam-detection\/25890\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/what-is-apple-csam-detection\/25409\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/what-is-apple-csam-detection\/31362\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/what-is-apple-csam-detection\/9971\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/what-is-apple-csam-detection\/41502\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/what-is-apple-csam-detection\/17541\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/what-is-apple-csam-detection\/15203\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/what-is-apple-csam-detection\/27253\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/what-is-apple-csam-detection\/31527\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/what-is-apple-csam-detection\/27462\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/what-is-apple-csam-detection\/24270\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/what-is-apple-csam-detection\/29599\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/what-is-apple-csam-detection\/29404\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.com.br\/blog\/tag\/ios\/","name":"iOS"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/18025","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/users\/665"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/comments?post=18025"}],"version-history":[{"count":4,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/18025\/revisions"}],"predecessor-version":[{"id":18203,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/18025\/revisions\/18203"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media\/18030"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media?parent=18025"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/categories?post=18025"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/tags?post=18025"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}