{"id":21311,"date":"2023-05-26T16:05:02","date_gmt":"2023-05-26T19:05:02","guid":{"rendered":"https:\/\/www.kaspersky.com.br\/blog\/?p=21311"},"modified":"2023-05-26T16:05:02","modified_gmt":"2023-05-26T19:05:02","slug":"ai-government-regulation","status":"publish","type":"post","link":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/","title":{"rendered":"Uma abordagem poss\u00edvel para regulamenta\u00e7\u00e3o da intelig\u00eancia artificial"},"content":{"rendered":"<p>Confesso que estou um pouco cansado de todas as not\u00edcias sobre IA, mas acho que vou ter que aguentar um pouco mais, pois com certeza continuar\u00e1 ser um assunto relevante, por pelo menos mais um ou dois anos. N\u00e3o que a IA pare de se desenvolver, \u00e9 claro; \u00e9 s\u00f3 que jornalistas, blogueiros, TikTokers, tweeters e outros comentaristas acabar\u00e3o se cansando do assunto. Mas, por enquanto, o entusiasmo deles \u00e9 alimentado n\u00e3o apenas pelos gigantes da tecnologia, como tamb\u00e9m pelos governos: o plano do Reino Unido em introduzir uma <a href=\"https:\/\/www.reuters.com\/world\/uk\/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28\/\" target=\"_blank\" rel=\"noopener nofollow\">regulamenta\u00e7\u00e3o de IA em tr\u00eas frentes<\/a>; a China, por sua vez, colocou o projeto de lei de IA <a href=\"https:\/\/www.reuters.com\/technology\/china-releases-draft-measures-managing-generative-artificial-intelligence-2023-04-11\/\" target=\"_blank\" rel=\"noopener nofollow\">em debate p\u00fablico<\/a>; os EUA est\u00e3o pedindo \u201c<a href=\"https:\/\/www.reuters.com\/technology\/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11\/\" target=\"_blank\" rel=\"noopener nofollow\">responsabilidade algor\u00edtmica<\/a>\u201c; a Uni\u00e3o Europeia <a href=\"https:\/\/www.reuters.com\/technology\/ai-booms-eu-lawmakers-wrangle-over-new-rules-2023-03-22\/\" target=\"_blank\" rel=\"noopener nofollow\">est\u00e1 discutindo, mas ainda n\u00e3o aprovando projetos de lei<\/a> sobre IA, e assim por diante. Muitos planos para o futuro, mas, at\u00e9 o momento, a cria\u00e7\u00e3o e o uso de sistemas de IA n\u00e3o foram limitados de forma alguma. No entanto, parece que isso vai mudar em breve.<\/p>\n<p>Uma quest\u00e3o bastante discut\u00edvel, \u00e9 claro, \u00e9 a seguinte: precisamos de regulamenta\u00e7\u00e3o governamental da IA? Se a fizermos: por que e como ela deve ser?<\/p>\n<h2>O que regular<\/h2>\n<p>O que \u00e9 intelig\u00eancia artificial? (N\u00e3o) gra\u00e7as aos departamentos de marketing, o termo tem sido usado para muitas coisas \u2013 desde os modelos generativos de ponta, como <a href=\"https:\/\/pt.wikipedia.org\/wiki\/GPT-4\" target=\"_blank\" rel=\"noopener nofollow\">GPT-4<\/a>, at\u00e9 os sistemas de aprendizado de m\u00e1quina mais simples, incluindo alguns que existem h\u00e1 d\u00e9cadas. Voc\u00ea se lembra do <a href=\"https:\/\/pt.wikipedia.org\/wiki\/T9_(texto_previs%C3%ADvel)\" target=\"_blank\" rel=\"noopener nofollow\">\u04229<\/a> em telefones celulares com bot\u00e3o de press\u00e3o? J\u00e1 ouviu falar <a href=\"https:\/\/www.kaspersky.com\/blog\/humachine-intelligence-antispam\/6638\/\" target=\"_blank\" rel=\"noopener nofollow\">sobre spam autom\u00e1tico e classifica\u00e7\u00e3o de arquivos maliciosos<\/a>? Voc\u00ea confere recomenda\u00e7\u00f5es de filmes na Netflix? Todas essas tecnologias familiares s\u00e3o baseadas em algoritmos de aprendizado de m\u00e1quina (na sigla ML do ingl\u00eas <em>machine learning<\/em>), tamb\u00e9m conhecidos como \u201cIA\u201d.<\/p>\n<p>Aqui na Kaspersky, temos usado essas tecnologias em nossos produtos por quase 20 anos, sempre preferindo, modestamente, nos referir a elas como \u201caprendizado de m\u00e1quina\u201d \u2014 at\u00e9 porque a \u201cintelig\u00eancia artificial\u201d parece trazer \u00e0 mente de quase todo mundo coisas como <a href=\"https:\/\/pt.wikipedia.org\/wiki\/HAL_9000\" target=\"_blank\" rel=\"noopener nofollow\">supercomputadores que falam<\/a>, instalados em <a href=\"https:\/\/pt.wikipedia.org\/wiki\/2001:_A_Space_Odyssey\" target=\"_blank\" rel=\"noopener nofollow\">naves espaciais<\/a> e outras <a href=\"https:\/\/pt.wikipedia.org\/wiki\/R2-D2\" target=\"_blank\" rel=\"noopener nofollow\">coisas<\/a> sa\u00eddas diretamente da <a href=\"https:\/\/pt.wikipedia.org\/wiki\/C-3PO\" target=\"_blank\" rel=\"noopener nofollow\">fic\u00e7\u00e3o cient\u00edfica<\/a>. No entanto, esses computadores e droides que pensam e falam precisam ser totalmente capazes de pensar como humanos \u2013 para comandar a <a href=\"https:\/\/pt.wikipedia.org\/wiki\/Intelig%C3%AAncia_artificial_geral\" target=\"_blank\" rel=\"noopener nofollow\">intelig\u00eancia artificial geral<\/a> (AGI) ou a <a href=\"https:\/\/pt.wikipedia.org\/wiki\/Superintelig%C3%AAncia\" target=\"_blank\" rel=\"noopener nofollow\">superintelig\u00eancia artificial<\/a> (ASI), mas nem AGI nem ASI foram inventados ainda e dificilmente o ser\u00e3o em um futuro previs\u00edvel.<\/p>\n<p>De qualquer forma, se todos os tipos de IA forem medidos com o mesmo crit\u00e9rio e totalmente regulamentados, toda a ind\u00fastria de TI e muitas outras relacionadas n\u00e3o v\u00e3o se dar bem. Por exemplo, se n\u00f3s (Kaspersky) formos obrigados a obter o consentimento de todos os nossos \u201cautores\u201d do conjunto de treinamento, n\u00f3s, como uma empresa de seguran\u00e7a da informa\u00e7\u00e3o, estaremos pressionados contra a parede. Aprendemos com malwares e spams e alimentamos o conhecimento adquirido em nosso aprendizado de m\u00e1quina, enquanto seus autores tendem a preferir reter seus dados de contato (quem diria?!). Al\u00e9m disso, considerando que os dados foram coletados e nossos algoritmos foram treinados por quase 20 anos, quanto tempo no passado n\u00f3s dever\u00edamos considerar?<\/p>\n<p>Portanto, \u00e9 essencial que os legisladores ou\u00e7am n\u00e3o apenas as equipes de marketing, mas os especialistas do setor de aprendizado de m\u00e1quina\/IA e discutam a poss\u00edvel regulamenta\u00e7\u00e3o de maneira espec\u00edfica e focada. Por exemplo, possivelmente usando sistemas multifuncionais, treinados com grandes volumes de dados abertos, ou sistemas de tomada de decis\u00e3o de alto n\u00edvel de responsabilidade e risco.<\/p>\n<p>E novos aplicativos de IA exigir\u00e3o revis\u00f5es frequentes nos normativos \u00e0 medida que novos modelos surgirem.<\/p>\n<h2>Por que regular?<\/h2>\n<p>Para ser honesto, n\u00e3o acredito em um ju\u00edzo final assistido por superintelig\u00eancia nos pr\u00f3ximos cem anos. Mas eu acredito em um monte de dores de cabe\u00e7a pelo uso impensado das m\u00faltiplas possibilidade que o computador pode oferecer.<\/p>\n<p>Como um lembrete para aqueles que n\u00e3o leram nossos <a href=\"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-nine-challenges\/11324\/\" target=\"_blank\" rel=\"noopener\">artigos sobre o esplendor e a mis\u00e9ria do aprendizado de m\u00e1quina<\/a>, h\u00e1 tr\u00eas quest\u00f5es principais em rela\u00e7\u00e3o a qualquer IA:<\/p>\n<ul>\n<li>N\u00e3o est\u00e1 claro o quanto eram\/s\u00e3o bons os dados usados em treinamentos.<\/li>\n<li>N\u00e3o \u00e9 um consenso sobre o que a IA conseguiu \u201ccompreender\u201d desse estoque de dados ou <a href=\"https:\/\/arxiv.org\/abs\/2004.07780\" target=\"_blank\" rel=\"noopener nofollow\">como ela toma suas decis\u00f5es<\/a>.<\/li>\n<li>E o mais importante \u2014 o algoritmo pode ser mal utilizado por seus desenvolvedores e usu\u00e1rios.<\/li>\n<\/ul>\n<p>Assim, qualquer coisa pode acontecer: desde o uso indevido e malicioso da IA \u200b\u200bat\u00e9 impactos impensados devido decis\u00f5es da IA. <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-fails\/18318\/\" target=\"_blank\" rel=\"noopener nofollow\">Exemplos<\/a> gr\u00e1ficos da vida real: erros fatais do <a href=\"https:\/\/www.ntsb.gov\/investigations\/AccidentReports\/Reports\/HAR1903.pdf\" target=\"_blank\" rel=\"noopener nofollow\">piloto autom\u00e1tico<\/a>, deepfakes (<a href=\"https:\/\/www.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/34006\/\" target=\"_blank\" rel=\"noopener nofollow\">1<\/a>, <a href=\"https:\/\/www.kaspersky.com.br\/blog\/deepfake-darknet-market\/21257\/\" target=\"_blank\" rel=\"noopener\">2<\/a>, <a href=\"https:\/\/www.kaspersky.com\/blog\/getting-ready-for-deep-fake-threats\/48193\/\" target=\"_blank\" rel=\"noopener nofollow\">3<\/a>) que agora j\u00e1 est\u00e3o habituais nos memes e at\u00e9 nas not\u00edcias, um erro bobo na <a href=\"https:\/\/algorithmwatch.org\/en\/algorithm-school-system-italy\/\" target=\"_blank\" rel=\"noopener nofollow\">contrata\u00e7\u00e3o de professores<\/a>, a pol\u00edcia prendendo <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\" target=\"_blank\" rel=\"noopener nofollow\">um ladr\u00e3o errado<\/a>, e uma IA mis\u00f3gina <a href=\"https:\/\/www.reuters.com\/article\/amazon-com-jobs-automation\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH?edition-redirect=in\" target=\"_blank\" rel=\"noopener nofollow\">usada como ferramenta de recrutamento<\/a>. Al\u00e9m disso, qualquer IA pode ser atacada com a ajuda de amostras de dados hostis feitas sob medida: <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-fails\/18318\/\" target=\"_blank\" rel=\"noopener nofollow\">ve\u00edculos podem ser enganados usando adesivos<\/a>, podem ser extra\u00eddas do GPT-3 e <a href=\"https:\/\/securelist.com\/how-to-confuse-antimalware-neural-networks-adversarial-attacks-and-protection\/102949\/\" target=\"_blank\" rel=\"noopener\">antiv\u00edrus ou EDR tamb\u00e9m podem ser enganados<\/a>. E, a prop\u00f3sito, <a href=\"https:\/\/en.wikipedia.org\/wiki\/Pineapple_Water_for_the_Fair_Lady%23The_Anti-Aircraft_Codes_of_Al_Efesbi\" target=\"_blank\" rel=\"noopener nofollow\">os ataques \u00e0 IA de drones de combate<\/a> descritos na fic\u00e7\u00e3o cient\u00edfica n\u00e3o parecem mais t\u00e3o rebuscados.<\/p>\n<p>Em poucas palavras, o uso da IA \u200b\u200bainda n\u00e3o deu origem a nenhum problema verdadeiramente grande, mas h\u00e1 claramente muito potencial para eles. Portanto, as prioridades da regula\u00e7\u00e3o devem ser bem estabelecidas:<\/p>\n<ol>\n<li>Preven\u00e7\u00e3o de incidentes de infraestrutura cr\u00edtica (f\u00e1bricas\/navios\/linhas de transmiss\u00e3o de energia\/usinas nucleares).<\/li>\n<li>Minimizar amea\u00e7as f\u00edsicas (ve\u00edculos sem motorista, diagn\u00f3stico incorreto de doen\u00e7as).<\/li>\n<li>Mitigar danos pessoais e riscos de neg\u00f3cios (pris\u00f5es ou contrata\u00e7\u00f5es com base em medi\u00e7\u00f5es de cr\u00e2nio, erro de c\u00e1lculo de demanda\/aquisi\u00e7\u00f5es e assim por diante).<\/li>\n<\/ol>\n<p>O objetivo da regulamenta\u00e7\u00e3o deve ser obrigar os usu\u00e1rios e fornecedores de IA a tomarem cuidado para n\u00e3o aumentar os riscos de ocorr\u00eancia das coisas negativas mencionadas. E quanto mais s\u00e9rio o risco, mais ativamente ele deve ser compelido.<\/p>\n<p>H\u00e1 outra preocupa\u00e7\u00e3o frequente em rela\u00e7\u00e3o \u00e0 IA: a necessidade de observ\u00e2ncia de normas morais e \u00e9ticas e de atender ao conforto psicol\u00f3gico, por assim dizer. Para tanto, vemos avisos dados para que as pessoas saibam que est\u00e3o vendo um objeto inexistente (desenhado por IA) ou se comunicando com um rob\u00f4 e n\u00e3o um humano, e tamb\u00e9m alertas informando que <a href=\"https:\/\/www.kaspersky.com\/blog\/neural-networks-data-leaks\/47992\/\" target=\"_blank\" rel=\"noopener nofollow\">os direitos autorais foram respeitados durante o treinamento de IA<\/a> e por a\u00ed vai. E por que isso? Para que legisladores e fornecedores de IA n\u00e3o sejam alvo de multid\u00f5es enfurecidas! E esta \u00e9 uma preocupa\u00e7\u00e3o muito real em algumas partes do mundo (lembre-se dos <a href=\"https:\/\/www.theguardian.com\/world\/2016\/jan\/26\/french-taxi-drivers-block-paris-roads-in-uber-protest\" target=\"_blank\" rel=\"noopener nofollow\">protestos contra a Uber<\/a>, por exemplo).<\/p>\n<h2>Como regular<\/h2>\n<p>A maneira mais simples de regular a IA seria proibir tudo, mas parece que essa abordagem ainda n\u00e3o est\u00e1 na mesa. De qualquer forma, n\u00e3o \u00e9 muito mais f\u00e1cil proibir a IA do que os computadores. Portanto, todas as tentativas razo\u00e1veis \u200b\u200bde regulamenta\u00e7\u00e3o devem seguir o princ\u00edpio de \u201cquanto maior o risco, mais rigorosos os requisitos\u201d.<\/p>\n<p>Os modelos de aprendizado de m\u00e1quina usados \u200b\u200bpara algo bastante trivial \u2013 como recomenda\u00e7\u00f5es de compras de varejo \u2013 podem n\u00e3o ser regulamentados, mas quanto mais sofisticado o modelo \u2013 ou mais sens\u00edvel a \u00e1rea de aplica\u00e7\u00e3o \u2013 mais complexos e estabelecidos podem ser os requisitos para fornecedores e usu\u00e1rios de sistemas. Por exemplo:<\/p>\n<ul>\n<li>Submeter o c\u00f3digo de um modelo ou conjunto de dados de treinamento para inspe\u00e7\u00e3o a reguladores ou especialistas.<\/li>\n<li>Comprovar a robustez de um conjunto de dados de treinamento, inclusive em termos de vi\u00e9s, direitos autorais e assim por diante.<\/li>\n<li>Comprovar a razoabilidade do \u201coutput\u201d da IA; por exemplo, estar <a href=\"https:\/\/fortune.com\/2023\/04\/17\/google-ceo-sundar-pichai-artificial-intelligence-bard-hallucinations-unsolved\/\" target=\"_blank\" rel=\"noopener nofollow\">livre de alucina\u00e7\u00f5es<\/a>.<\/li>\n<li>Rotular opera\u00e7\u00f5es e resultados de IA.<\/li>\n<li>Atualizar um modelo e conjunto de dados de treinamento; por exemplo, filtrar pessoas de uma determinada cor de pele dos dados de origem ou suprimir f\u00f3rmulas qu\u00edmicas para explosivos na sa\u00edda do modelo.<\/li>\n<li>Testar IA em busca de \u201cdados hostis\u201d e atualizar seu comportamento conforme necess\u00e1rio.<\/li>\n<li>Controlar quem est\u00e1 usando IA espec\u00edfica e por qu\u00ea. E negar tipos espec\u00edficos de uso.<\/li>\n<li>Treinar IA de grande porte, ou que se aplique a determinada \u00e1rea, somente com autoriza\u00e7\u00e3o do regulador.<\/li>\n<li>Provar que \u00e9 seguro usar IA para resolver um problema espec\u00edfico. Essa abordagem \u00e9 muito ex\u00f3tica para TI, mas mais do que familiar, por exemplo, para empresas farmac\u00eauticas, fabricantes de aeronaves e muitas outras ind\u00fastrias em que a seguran\u00e7a \u00e9 fundamental. Primeiro viriam cinco anos de testes minuciosos, depois a permiss\u00e3o do regulador e s\u00f3 ent\u00e3o um produto poderia ser liberado para uso geral.<\/li>\n<\/ul>\n<p>A \u00faltima medida parece excessivamente rigorosa, mas apenas at\u00e9 voc\u00ea aprender sobre incidentes nos quais <a href=\"https:\/\/www.nature.com\/articles\/538311a#\/b9\" target=\"_blank\" rel=\"noopener nofollow\">a IA bagun\u00e7ou as prioridades de tratamento<\/a> para pacientes com asma aguda e pneumonia e tentou mand\u00e1-los para casa em vez de para uma unidade de terapia intensiva.<\/p>\n<p>As medidas de execu\u00e7\u00e3o podem variar de multas por viola\u00e7\u00f5es das regras da IA \u200b\u200b(na linha das penalidades europeias para viola\u00e7\u00f5es do RGPD) ao licenciamento de atividades relacionadas \u00e0 IA e san\u00e7\u00f5es criminais por viola\u00e7\u00f5es da legisla\u00e7\u00e3o (conforme proposto na China).<\/p>\n<h2>Mas qual \u00e9 o jeito certo?<\/h2>\n<p>Abaixo, represento minhas pr\u00f3prias opini\u00f5es pessoais \u2013 mas elas s\u00e3o baseadas em 30 anos de busca ativa de desenvolvimento tecnol\u00f3gico avan\u00e7ado no setor de ciberseguran\u00e7a: de aprendizado de m\u00e1quina a sistemas \u201csecure-by-design\u201d.<\/p>\n<p>Primeiro, precisamos de regulamenta\u00e7\u00e3o. Sem ela, a IA acabar\u00e1 se assemelhando a rodovias sem regras de tr\u00e2nsito. Ou, mais relevante, semelhante \u00e0 situa\u00e7\u00e3o de coleta de dados pessoais online no final dos anos 2000, quando quase todo mundo coletava tudo o que podia. Acima de tudo, a regulamenta\u00e7\u00e3o promove a autodisciplina dos agentes do mercado.<\/p>\n<p>Em segundo lugar, precisamos maximizar a harmoniza\u00e7\u00e3o internacional e a coopera\u00e7\u00e3o na regulamenta\u00e7\u00e3o \u2013 da mesma forma que com os padr\u00f5es t\u00e9cnicos em comunica\u00e7\u00f5es m\u00f3veis, internet e assim por diante. Soa ut\u00f3pico dada a realidade geopol\u00edtica atual, mas isso n\u00e3o torna essa a\u00e7\u00e3o menos desej\u00e1vel.<\/p>\n<p>Em terceiro lugar, a regulamenta\u00e7\u00e3o n\u00e3o precisa ser muito rigorosa: seria m\u00edope estrangular uma ind\u00fastria jovem e din\u00e2mica como esta com regulamenta\u00e7\u00e3o excessiva. Dito isto, precisamos de um mecanismo para revis\u00f5es frequentes das regras para ficar a par da evolu\u00e7\u00e3o da tecnologia e do mercado.<\/p>\n<p>Em quarto lugar, as regras, n\u00edveis de risco e n\u00edveis de medidas de prote\u00e7\u00e3o devem ser definidos em consulta com um grande n\u00famero de especialistas com experi\u00eancia relevante.<\/p>\n<p>Quinto, n\u00e3o precisamos esperar dez anos. Tenho falado sobre os s\u00e9rios riscos inerentes \u00e0 Internet das Coisas e sobre as vulnerabilidades em equipamentos industriais h\u00e1 mais de uma d\u00e9cada, enquanto documentos como a <a href=\"https:\/\/digital-strategy.ec.europa.eu\/pt\/library\/cyber-resilience-act\" target=\"_blank\" rel=\"noopener nofollow\">Lei de Resili\u00eancia Cibern\u00e9tica da UE<\/a> apareceram pela primeira vez (como rascunho!) apenas no ano passado.<\/p>\n<p>Mas por enquanto \u00e9 s\u00f3 pessoal! E parab\u00e9ns para aqueles que leram isso at\u00e9 o fim \u2013 obrigado a todos! E um brinde a um futuro interessante \u2013 seguro \u2013 aprimorado por IA!\u2026<\/p>\n","protected":false},"excerpt":{"rendered":"<p>J\u00e1 \u00e9 \u00f3bvio que a IA precisa ser regulamentada, mas como? Aqui Eugene Kaspersky nos conta sua vis\u00e3o sobre isso.<\/p>\n","protected":false},"author":13,"featured_media":21312,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1029],"tags":[218,1382,1342,3151,3160,690],"class_list":{"0":"post-21311","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-ameacas","9":"tag-aprendizado-de-maquina","10":"tag-ia","11":"tag-redes-neurais","12":"tag-regulamentacao-governamental","13":"tag-tecnologias"},"hreflang":[{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-government-regulation\/25686\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-government-regulation\/21105\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-government-regulation\/10626\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ai-government-regulation\/28341\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-government-regulation\/25985\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-government-regulation\/28846\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-government-regulation\/35317\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-government-regulation\/11457\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-government-regulation\/48220\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ai-government-regulation\/33892\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-government-regulation\/26294\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-government-regulation\/31993\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-government-regulation\/31681\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.com.br\/blog\/tag\/ia\/","name":"IA"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/21311","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/users\/13"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/comments?post=21311"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/21311\/revisions"}],"predecessor-version":[{"id":21315,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/21311\/revisions\/21315"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media\/21312"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media?parent=21311"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/categories?post=21311"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/tags?post=21311"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}