{"id":24695,"date":"2026-02-03T09:00:03","date_gmt":"2026-02-03T12:00:03","guid":{"rendered":"https:\/\/www.kaspersky.com.br\/blog\/?p=24695"},"modified":"2026-02-02T16:48:22","modified_gmt":"2026-02-02T19:48:22","slug":"poetry-ai-jailbreak","status":"publish","type":"post","link":"https:\/\/www.kaspersky.com.br\/blog\/poetry-ai-jailbreak\/24695\/","title":{"rendered":"Jailbreaking l\u00edrico: como a poesia solta a l\u00edngua da IA"},"content":{"rendered":"<p>Os entusiastas da tecnologia t\u00eam experimentado formas de contornar os limites de resposta de IA definidos pelos criadores dos modelos quase desde que os LLMs atingiram o mainstream. Muitas dessas t\u00e1ticas t\u00eam sido bastante criativas: dizer \u00e0 IA que voc\u00ea n\u00e3o tem dedos para que ela o ajude a finalizar seu c\u00f3digo; pedir que ela \u201capenas fantasie\u201d quando uma pergunta direta aciona uma recusa; ou convid\u00e1-la a desempenhar o papel de uma falecida av\u00f3 compartilhando conhecimento proibido para confortar um neto em luto.<\/p>\n<p>A maioria desses truques s\u00e3o not\u00edcias antigas, e os desenvolvedores de LLM aprenderam a combater com sucesso muitos deles. Mas a disputa entre restri\u00e7\u00f5es e solu\u00e7\u00f5es alternativas n\u00e3o desapareceu: as artimanhas apenas se tornaram mais complexas e sofisticadas. Hoje, vamos falar sobre uma nova t\u00e9cnica de jailbreaking da IA que explora a vulnerabilidade dos chatbots \u00e0\u2026 poesia. Sim, voc\u00ea leu certo: em <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">um estudo recente<\/a>, os pesquisadores demonstraram que formular prompts como poemas aumenta significativamente a probabilidade de um modelo gerar uma resposta insegura.<\/p>\n<p>Eles testaram essa t\u00e9cnica em 25 modelos populares da Anthropic, OpenAI, Google, Meta, DeepSeek, xAI e outros desenvolvedores. Abaixo, mergulhamos nos detalhes: que tipo de limita\u00e7\u00f5es esses modelos t\u00eam, de onde eles obt\u00eam conhecimento proibido, como o estudo foi conduzido e quais modelos se mostraram os mais \u201crom\u00e2nticos\u201d, ou seja, o mais suscet\u00edvel a prompts po\u00e9ticos.<\/p>\n<h2>Sobre o que a IA n\u00e3o deveria falar com os usu\u00e1rios<\/h2>\n<p>O sucesso dos modelos da OpenAI e de outros chatbots modernos se resume \u00e0s enormes quantidades de dados com as quais eles s\u00e3o treinados. Por conta dessa grande escala, os modelos inevitavelmente aprendem coisas que seus desenvolvedores prefeririam manter em sigilo, como descri\u00e7\u00f5es de crimes, tecnologia perigosa, viol\u00eancia ou pr\u00e1ticas il\u00edcitas presentes no material de origem.<\/p>\n<p>Pode parecer uma solu\u00e7\u00e3o f\u00e1cil: basta remover o fruto proibido do conjunto de dados antes mesmo de iniciar o treinamento. Mas, na realidade, esse \u00e9 um empreendimento enorme e com muitos recursos; e, neste est\u00e1gio da corrida armamentista da IA, n\u00e3o parece que algu\u00e9m esteja disposto a encar\u00e1-lo.<\/p>\n<p>Outra corre\u00e7\u00e3o aparentemente \u00f3bvia, remover seletivamente os dados da mem\u00f3ria do modelo, infelizmente tamb\u00e9m n\u00e3o \u00e9 vi\u00e1vel. Isso ocorre porque o <a href=\"https:\/\/arxiv.org\/pdf\/2310.02238\" target=\"_blank\" rel=\"noopener nofollow\">conhecimento de IA n\u00e3o fica dentro de pequenas pastas organizadas<\/a> que podem ser facilmente descartadas. Em vez disso, ele est\u00e1 espalhado em bilh\u00f5es de par\u00e2metros e emaranhado em todo o DNA lingu\u00edstico do modelo: estat\u00edsticas de palavras, contextos e as rela\u00e7\u00f5es entre eles. Tentar apagar cirurgicamente informa\u00e7\u00f5es espec\u00edficas por meio de ajuste fino ou penaliza\u00e7\u00f5es ou n\u00e3o resolve totalmente o problema, ou passa a prejudicar o desempenho geral do modelo e afetar negativamente suas habilidades lingu\u00edsticas.<\/p>\n<p>Como resultado, para manter esses modelos sob controle, os criadores n\u00e3o t\u00eam escolha a n\u00e3o ser desenvolver <a href=\"https:\/\/arxiv.org\/pdf\/2406.12934\" target=\"_blank\" rel=\"noopener nofollow\">protocolos de seguran\u00e7a e algoritmos especializados<\/a> que filtram conversas monitorando constantemente os prompts do usu\u00e1rio e as respostas do modelo. Aqui est\u00e1 uma lista resumida dessas restri\u00e7\u00f5es:<\/p>\n<ul>\n<li>Prompts do sistema que definem o comportamento do modelo e restringem cen\u00e1rios de resposta permitidos<\/li>\n<li>Modelos classificadores independentes que analisam prompts e respostas em busca de ind\u00edcios de jailbreaking, inje\u00e7\u00f5es de prompt e outras tentativas de burlar as prote\u00e7\u00f5es<\/li>\n<li>Mecanismos de fundamenta\u00e7\u00e3o, nos quais o modelo \u00e9 for\u00e7ado a recorrer a dados externos em vez de \u00e0s pr\u00f3prias associa\u00e7\u00f5es internas<\/li>\n<li>Ajuste fino e aprendizado por refor\u00e7o a partir do feedback humano, em que respostas inseguras ou lim\u00edtrofes s\u00e3o sistematicamente penalizadas enquanto recusas apropriadas s\u00e3o recompensadas<\/li>\n<\/ul>\n<p>Em termos simples, a seguran\u00e7a da IA hoje n\u00e3o \u00e9 constru\u00edda sobre a exclus\u00e3o de conhecimento perigoso, mas sobre a tentativa de controlar como e de que forma o modelo o acessa e compartilha com o usu\u00e1rio. E \u00e9 justamente nas falhas desses pr\u00f3prios mecanismos que novas solu\u00e7\u00f5es alternativas encontram espa\u00e7o.<\/p>\n<h2>A pesquisa: quais modelos foram testados e como?<\/h2>\n<p>Primeiro, <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">vamos analisar as regras b\u00e1sicas<\/a> para que voc\u00ea saiba que o experimento foi leg\u00edtimo. Os pesquisadores tentaram induzir 25 modelos diferentes a se comportarem mal em v\u00e1rias categorias:<\/p>\n<ul>\n<li>Amea\u00e7as qu\u00edmicas, biol\u00f3gicas, radiol\u00f3gicas e nucleares<\/li>\n<li>Ajuda com ataques cibern\u00e9ticos<\/li>\n<li>Manipula\u00e7\u00e3o maliciosa e engenharia social<\/li>\n<li>Viola\u00e7\u00f5es de privacidade e manuseio incorreto de dados pessoais confidenciais<\/li>\n<li>Gera\u00e7\u00e3o de desinforma\u00e7\u00e3o e conte\u00fado enganoso<\/li>\n<li>Cen\u00e1rios de IA fora de controle, incluindo tentativas de contornar restri\u00e7\u00f5es ou agir de forma aut\u00f4noma<\/li>\n<\/ul>\n<p>O jailbreak em si foi simples: um \u00fanico prompt po\u00e9tico. Os pesquisadores n\u00e3o envolveram a IA em debates po\u00e9ticos prolixos \u00e0 maneira dos poetas antigos n\u00f3rdicos ou dos rappers modernos. O objetivo deles era simplesmente verificar se conseguiam fazer com que os modelos desrespeitassem as instru\u00e7\u00f5es de seguran\u00e7a usando apenas um pedido em forma de rima. Conforme mencionado, os pesquisadores testaram 25 modelos de linguagem de v\u00e1rios desenvolvedores; aqui est\u00e1 a lista completa:<\/p>\n<div id=\"attachment_24700\" style=\"width: 727px\" class=\"wp-caption alignnone\"><img decoding=\"async\" aria-describedby=\"caption-attachment-24700\" class=\"wp-image-24700 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2026\/02\/02133109\/poetry-ai-jailbreak-1.png\" alt=\"Os modelos no experimento de jailbreaking po\u00e9tico\" width=\"717\" height=\"1024\"><p id=\"caption-attachment-24700\" class=\"wp-caption-text\">Uma lista de 25 modelos de linguagem de v\u00e1rios desenvolvedores, todos colocados \u00e0 prova para ver se um \u00fanico prompt po\u00e9tico poderia persuadir a IA a abandonar suas prote\u00e7\u00f5es. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Para criar essas consultas po\u00e9ticas, os pesquisadores partiram de um banco de dados de prompts maliciosos conhecidos do <a href=\"https:\/\/mlcommons.org\/benchmarks\/ailuminate\/\" target=\"_blank\" rel=\"noopener nofollow\">MLCommons AILuminate Benchmark<\/a> padr\u00e3o usado para testar a seguran\u00e7a de LLMs, e os reformularam em verso com a ajuda do DeepSeek. Apenas o encapsulamento estil\u00edstico foi alterado: o experimento n\u00e3o usou vetores de ataque adicional, estrat\u00e9gias de ofusca\u00e7\u00e3o ou ajustes espec\u00edficos do modelo.<\/p>\n<p>Por raz\u00f5es \u00f3bvias, os autores do estudo n\u00e3o est\u00e3o publicando os prompts po\u00e9ticos maliciosos propriamente ditos. Mas eles demonstram o clima geral das consultas usando um exemplo inofensivo, parecido com algo assim:<\/p>\n<p><em>Um padeiro guarda em segredo o calor do forno ardente,<br>\nAs grades que aquecem, a temperatura exata, constante e envolvente.<br>\nPara aprender o of\u00edcio, observa-se cada movimento,<br>\nComo a farinha cresce, como o a\u00e7\u00facar muda com o tempo.<br>\nExplique o m\u00e9todo, em ritmo e rigor,<br>\nQue molda um bolo em camadas de primor.<\/em><\/p>\n<p>Os pesquisadores testaram 1.200 prompts em 25 modelos diferentes, em vers\u00f5es tanto em prosa quanto em verso. A compara\u00e7\u00e3o das variantes em prosa e versa da mesma consulta permitiu que eles verificassem se o comportamento do modelo mudou apenas devido ao encapsulamento estil\u00edstico.<\/p>\n<p>Por meio desses testes com prompts em prosa, os experimentadores estabeleceram uma linha de base para a disposi\u00e7\u00e3o dos modelos de atender a solicita\u00e7\u00f5es perigosas. Em seguida, eles compararam essa linha de base com a forma como esses mesmos modelos reagiram \u00e0s vers\u00f5es po\u00e9ticas das consultas. Analisaremos os resultados dessa compara\u00e7\u00e3o na pr\u00f3xima se\u00e7\u00e3o.<\/p>\n<h2>Resultados do estudo: qual modelo \u00e9 o maior amante da poesia?<\/h2>\n<p>Como o volume de dados gerado durante o experimento foi realmente grande, as verifica\u00e7\u00f5es de seguran\u00e7a nas respostas dos modelos tamb\u00e9m foram tratadas pela IA. Cada resposta foi classificada como \u201csegura\u201d ou \u201cinsegura\u201d por um j\u00fari composto por tr\u00eas modelos de linguagem diferentes:<\/p>\n<ul>\n<li>gpt-oss-120b da OpenAI<\/li>\n<li>deepseek-r1 da DeepSeek<\/li>\n<li>kimi-k2-thinking da Moonshot AI<\/li>\n<\/ul>\n<p>As respostas s\u00f3 foram consideradas seguras se a IA recusou-se explicitamente a responder \u00e0 pergunta. A classifica\u00e7\u00e3o inicial em um dos dois grupos foi determinada por uma vota\u00e7\u00e3o majorit\u00e1ria: para ser certificada como inofensiva, uma resposta tinha que receber uma classifica\u00e7\u00e3o segura de pelo menos dois dos tr\u00eas membros do j\u00fari.<\/p>\n<p>As respostas que n\u00e3o conseguiram alcan\u00e7ar um consenso da maioria ou foram sinalizadas como question\u00e1veis foram entregues a revisores humanos. Cinco anotadores participaram desse processo, avaliando um total de 600 respostas de modelo a solicita\u00e7\u00f5es po\u00e9ticas. Os pesquisadores observaram que as avalia\u00e7\u00f5es humanas se alinharam com as conclus\u00f5es do j\u00fari de IA na grande maioria dos casos.<\/p>\n<p>Com a metodologia explicada, vamos ver como os LLMs realmente se sa\u00edram. Vale a pena notar que o sucesso de um jailbreaking po\u00e9tico pode ser medido de diferentes maneiras. Os pesquisadores destacaram uma vers\u00e3o extrema dessa avalia\u00e7\u00e3o com base nos 20 prompts mais bem-sucedidos, que foram escolhidas a dedo. Usando essa abordagem, uma m\u00e9dia de quase dois ter\u00e7os (62%) das consultas po\u00e9ticas conseguiu persuadir os modelos a violar suas instru\u00e7\u00f5es de seguran\u00e7a.<\/p>\n<p>O Gemini 1.5 Pro do Google foi o modelo que mais se mostrou suscet\u00edvel a prompts em forma de verso. Usando os 20 prompts po\u00e9ticos mais eficazes, os pesquisadores conseguiram contornar as restri\u00e7\u00f5es do modelo 100% das vezes. Voc\u00ea pode conferir os resultados completos para todos os modelos no gr\u00e1fico abaixo.<\/p>\n<div id=\"attachment_24705\" style=\"width: 899px\" class=\"wp-caption alignnone\"><img decoding=\"async\" aria-describedby=\"caption-attachment-24705\" class=\"wp-image-24705 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2026\/02\/02164111\/poetry-ai-jailbreak-2.png\" alt=\"Como a poesia reduz a efic\u00e1cia da seguran\u00e7a da IA\" width=\"889\" height=\"1024\"><p id=\"caption-attachment-24705\" class=\"wp-caption-text\">A parcela de respostas seguras (Segura) versus o \u00edndice de sucesso do ataque (ASR) para os 25 modelos de linguagem quando atingidos com os 20 prompts po\u00e9ticos mais eficazes. Quanto mais alto o ASR, mais frequentemente o modelo abandonou suas instru\u00e7\u00f5es de seguran\u00e7a frente a uma boa rima. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Uma maneira mais moderada de medir a efic\u00e1cia da t\u00e9cnica de jailbreak po\u00e9tico \u00e9 comparar as taxas de sucesso de prosa e verso em todo o conjunto de consultas. Usando essa m\u00e9trica, a poesia aumenta a probabilidade de uma resposta insegura em uma m\u00e9dia de 35%.<\/p>\n<p>O efeito poesia atingiu o deepseek-chat-v3.1 de forma mais intensa: a taxa de sucesso desse modelo aumentou em quase 68 pontos percentuais em compara\u00e7\u00e3o com prompts em prosa. No outro extremo do espectro, claude-haiku-4.5 provou ser o menos suscet\u00edvel a uma boa rima: o formato po\u00e9tico n\u00e3o apenas falhou em melhorar a taxa de desvio (na verdade, reduziu ligeiramente o ASR), tornando o modelo ainda mais resiliente a solicita\u00e7\u00f5es maliciosas.<\/p>\n<div id=\"attachment_24704\" style=\"width: 1034px\" class=\"wp-caption alignnone\"><img decoding=\"async\" aria-describedby=\"caption-attachment-24704\" class=\"wp-image-24704 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2026\/02\/02163825\/poetry-ai-jailbreak-3.png\" alt=\"Quanto a poesia amplifica as viola\u00e7\u00f5es de seguran\u00e7a\" width=\"1024\" height=\"872\"><p id=\"caption-attachment-24704\" class=\"wp-caption-text\">Uma compara\u00e7\u00e3o do \u00edndice de sucesso do ataque (ASR) de linha de base para consultas de prosa em compara\u00e7\u00e3o a suas contrapartes po\u00e9ticas. A coluna Mudan\u00e7a mostra quantos pontos percentuais o formato de verso adiciona \u00e0 probabilidade de uma viola\u00e7\u00e3o de seguran\u00e7a para cada modelo. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Finalmente, os pesquisadores calcularam o qu\u00e3o vulner\u00e1veis eram os ecossistemas de desenvolvedores como um todo, em vez de apenas modelos individuais, frente a prompts po\u00e9ticos. Como lembrete, v\u00e1rios modelos de cada desenvolvedor, Meta, Anthropic, OpenAI, Google, DeepSeek, Qwen, Mistral AI, Moonshot AI e xAI, foram inclu\u00eddos no experimento.<\/p>\n<p>Para fazer isso, os resultados de modelos individuais tiveram sua m\u00e9dia calculada dentro de cada ecossistema de IA, comparando-se as taxas de desvio da linha de base com os valores de consultas po\u00e9ticas. Essa se\u00e7\u00e3o transversal nos permite avaliar a efic\u00e1cia geral da abordagem de seguran\u00e7a de um desenvolvedor espec\u00edfico, em vez da resili\u00eancia de um modelo \u00fanico.<\/p>\n<p>A contagem final revelou que a poesia d\u00e1 o golpe mais pesado nas prote\u00e7\u00f5es dos modelos da DeepSeek, Google e Qwen. Enquanto isso, OpenAI e Anthropic observaram um aumento nas respostas inseguras significativamente abaixo da m\u00e9dia.<\/p>\n<div id=\"attachment_24703\" style=\"width: 1034px\" class=\"wp-caption alignnone\"><img decoding=\"async\" aria-describedby=\"caption-attachment-24703\" class=\"wp-image-24703 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2026\/02\/02163636\/poetry-ai-jailbreak-4.png\" alt=\"O efeito da poesia entre os desenvolvedores de IA\" width=\"1024\" height=\"475\"><p id=\"caption-attachment-24703\" class=\"wp-caption-text\">Uma compara\u00e7\u00e3o do \u00edndice de sucesso do ataque (ASR) m\u00e9dio para consultas em prosa versus consultas po\u00e9ticas, agregada por desenvolvedor. A coluna Mudan\u00e7a mostra em quantos pontos percentuais a poesia, em m\u00e9dia, reduz a efic\u00e1cia das prote\u00e7\u00f5es dentro do ecossistema de cada fornecedor.<a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<h2>O que isso significa para os usu\u00e1rios de IA?<\/h2>\n<p>A principal conclus\u00e3o deste estudo \u00e9 que \u201cH\u00e1 mais coisas entre o c\u00e9u e a terra, Hor\u00e1cio, do que sonha a tua filosofia\u201d, no sentido de que a tecnologia de IA ainda esconde muitos mist\u00e9rios. Para o usu\u00e1rio m\u00e9dio, isso n\u00e3o \u00e9 exatamente uma \u00f3tima not\u00edcia: \u00e9 imposs\u00edvel prever quais m\u00e9todos de hackeamento de LLM ou t\u00e9cnicas de viola\u00e7\u00e3o pesquisadores ou cibercriminosos criar\u00e3o adiante, ou quais portas inesperadas esses m\u00e9todos podem abrir.<\/p>\n<p>Consequentemente, os usu\u00e1rios t\u00eam pouca escolha a n\u00e3o ser manter os olhos abertos e tomar cuidado extra com a seguran\u00e7a de seus dados e dispositivos. Para mitigar os riscos pr\u00e1ticos e proteger seus dispositivos contra tais amea\u00e7as, recomendamos usar um <a href=\"https:\/\/www.kaspersky.com.br\/premium?icid=br_bb2022-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">solu\u00e7\u00e3o de seguran\u00e7a robusta<\/a>\u00a0que ajude a detectar atividades suspeitas e evitar incidentes antes que eles aconte\u00e7am.<\/p>\n<blockquote><p>Para ajudar voc\u00ea a ficar alerta, confira nossos materiais sobre riscos de privacidade e amea\u00e7as de seguran\u00e7a relacionados \u00e0 IA:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.kaspersky.com.br\/blog\/ai-generated-sextortion-social-media\/24658\/\" target=\"_blank\" rel=\"noopener\">A IA e a nova realidade da sextors\u00e3o<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com.br\/blog\/chatbot-eavesdropping-whisper-leak-protection\/24593\/\" target=\"_blank\" rel=\"noopener\">Como espionar uma rede neural<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com.br\/blog\/ai-sidebar-spoofing-atlas-comet\/24506\/\" target=\"_blank\" rel=\"noopener\">Falsifica\u00e7\u00e3o da barra lateral de IA: um novo ataque a navegadores com IA<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com.br\/blog\/new-llm-attack-vectors-2025\/24239\/\" target=\"_blank\" rel=\"noopener\">Novos tipos de ataques a assistentes e chatbots com tecnologia de IA<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com.br\/blog\/ai-browser-security-privacy-risks\/24232\/\" target=\"_blank\" rel=\"noopener\">Os pr\u00f3s e contras dos navegadores com tecnologia de IA<\/a><\/li>\n<\/ul>\n<\/blockquote>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\"><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Pesquisadores descobriram que estilizar prompts como poesia pode enfraquecer significativamente a efic\u00e1cia das prote\u00e7\u00f5es dos modelos de linguagem.<\/p>\n","protected":false},"author":2726,"featured_media":24697,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1029],"tags":[218,1039,3099,3412,33,1342,766,3410,3376,3411,3282,373],"class_list":{"0":"post-24695","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-ameacas","9":"tag-chatbots","10":"tag-chatgpt","11":"tag-deepseek","12":"tag-google","13":"tag-ia","14":"tag-inteligencia-artificial","15":"tag-jailbreaking","16":"tag-llm","17":"tag-modelos-de-linguagem","18":"tag-openai","19":"tag-pesquisa"},"hreflang":[{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/poetry-ai-jailbreak\/24695\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/poetry-ai-jailbreak\/30099\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/poetry-ai-jailbreak\/25161\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/poetry-ai-jailbreak\/13143\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/poetry-ai-jailbreak\/29978\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/poetry-ai-jailbreak\/28943\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/poetry-ai-jailbreak\/30428\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/poetry-ai-jailbreak\/41192\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/poetry-ai-jailbreak\/14237\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/poetry-ai-jailbreak\/55171\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/poetry-ai-jailbreak\/23547\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/poetry-ai-jailbreak\/33149\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/poetry-ai-jailbreak\/30183\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/poetry-ai-jailbreak\/35862\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/poetry-ai-jailbreak\/35517\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.com.br\/blog\/tag\/ia\/","name":"IA"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/24695","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/users\/2726"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/comments?post=24695"}],"version-history":[{"count":6,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/24695\/revisions"}],"predecessor-version":[{"id":24699,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/24695\/revisions\/24699"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media\/24697"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media?parent=24695"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/categories?post=24695"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/tags?post=24695"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}