Jailbreaking lírico: como a poesia solta a língua da IA
Pesquisadores descobriram que estilizar prompts como poesia pode enfraquecer significativamente a eficácia das proteções dos modelos de linguagem.
3 Artigos
Pesquisadores descobriram que estilizar prompts como poesia pode enfraquecer significativamente a eficácia das proteções dos modelos de linguagem.
O ataque Whisper Leak permite que um invasor deduza o tema da conversa com um assistente de IA sem precisar descriptografar o tráfego. Estudamos como isso ocorre e o que você pode fazer para proteger seus bate-papos com IA.
Como os hackers exploram os recursos do chatbot para restaurar chats criptografados do ChatGPT da OpenAI, do Microsoft Copilot e da maioria dos outros chatbots de IA.