Um relatório recente do MIT, The GenAI Divide: State of AI in Business 2025, provocou uma forte queda nas ações de empresas de tecnologia. Embora o relatório ofereça observações interessantes sobre a economia e a organização da implementação de IA nos negócios, ele também traz insights valiosos para as equipes de segurança cibernética. Os autores não se preocuparam com questões de segurança: os termos “segurança”, “segurança cibernética” ou “proteção” nem sequer aparecem no relatório. No entanto, suas conclusões podem e devem ser consideradas ao planejar novas políticas corporativas de segurança em IA.
A observação principal é que, embora apenas 40% das organizações pesquisadas tenham adquirido uma assinatura de LLM, 90% dos funcionários usam regularmente ferramentas pessoais de IA para suas funções. E essa “economia de Shadow AI” (o termo usado no relatório) é considerada mais eficaz do que a oficial. Apenas 5% das empresas percebem benefício econômico com suas implementações de IA, enquanto os funcionários estão aprimorando com sucesso sua produtividade pessoal.
A abordagem de cima para baixo na implementação de IA costuma ser malsucedida. Portanto, os autores recomendam “aprender com o uso de Shadow AI e analisar quais ferramentas pessoais trazem benefícios antes de adquirir alternativas corporativas”. Então, como esse conselho se alinha às normas de segurança cibernética?
Uma proibição total da Shadow AI
Uma política preferida por muitos CISOs é testar e implementar ou, melhor ainda, criar suas próprias ferramentas de IA e, em seguida, simplesmente proibir todas as demais. Essa abordagem pode ser economicamente ineficiente, fazendo com que a empresa perca competitividade frente aos concorrentes. Também é difícil de implementar, já que garantir a conformidade pode ser tanto desafiador quanto caro. No entanto, para setores altamente regulamentados ou para unidades de negócio que lidam com informações confidenciais, uma política restritiva pode ser a única alternativa viável. Os seguintes métodos podem ser utilizados para implementá-la:
- Bloquear o acesso a todas as principais ferramentas de IA na rede usando uma ferramenta de filtragem.
- Configurar um sistema DLP para monitorar e bloquear a transferência de dados para serviços e aplicações de IA; isso inclui impedir copiar e colar grandes blocos de texto usando a área de transferência.
- Adotar uma política de lista de permissões de aplicativos em dispositivos corporativos para impedir que os funcionários executem aplicativos de terceiros que possam ser usados para acessar IA diretamente ou contornar outras medidas de segurança.
- Proibir o uso de dispositivos pessoais para tarefas relacionadas ao trabalho.
- Utilizar ferramentas adicionais, como análise de vídeo, para detectar e limitar a capacidade dos funcionários de fotografar as telas dos computadores com smartphones pessoais.
- Estabelecer uma política corporativa que proíba o uso de qualquer ferramenta de IA, exceto aquelas aprovadas pela gestão e implantadas pelas equipes de segurança da empresa. Essa política deve ser formalmente documentada, e os funcionários devem receber o treinamento adequado.
Uso irrestrito de IA
Se a empresa considerar os riscos do uso de ferramentas de IA insignificantes, ou tiver departamentos que não lidam com dados pessoais ou informações confidenciais, o uso de IA por essas equipes pode ser totalmente liberado. Ao definir uma lista breve de boas práticas e restrições, a empresa pode observar os hábitos de uso de LLM, identificar os serviços mais utilizados e usar esses dados para planejar ações futuras e aprimorar suas medidas de segurança. Mesmo com essa abordagem democrática, ainda é necessário:
- Treinar os funcionários nos princípios básicos do uso responsável de IA com o auxílio de um módulo de segurança cibernética. Uma forma inicial de atuação: nossas recomendações ou a inclusão de um curso especializado na plataforma de conscientização sobre segurança da empresa.
- Configurar o registro detalhado do tráfego de aplicativos para analisar o ritmo de uso de IA e os tipos de serviços utilizados.
- Certificar-se de que todos os funcionários tenham um agente EPP/EDR instalado em seus dispositivos de trabalho e uma solução de segurança robusta em seus dispositivos pessoais. (O aplicativo “ChatGPT” foi a isca preferida dos golpistas entre 2024 e 2025 para a propagação de malwares de roubo de dados.)
- Realizar pesquisas regulares para identificar com que frequência a IA está sendo usada e para quais tarefas. Com base em dados de telemetria e pesquisas, avalie o impacto e os riscos de seu uso para ajustar suas políticas.
Restrições moderadas ao uso de IA
No uso de IA em toda a empresa, nenhum extremo (proibição total ou liberdade total) provavelmente se adequa. Mais flexível seria uma política que permita diferentes níveis de acesso à IA, de acordo com o tipo de dados utilizados. A implementação integral de tal política requer:
- Um proxy de IA especializado que, simultaneamente, limpa consultas em tempo real removendo tipos específicos de dados confidenciais (como nomes ou IDs de clientes) e utiliza controle de acesso baseado em funções para bloquear casos de uso inadequados.
- Um portal de TI de autoatendimento para que os colaboradores informem o uso de ferramentas de IA: desde modelos e serviços básicos até aplicativos especializados e extensões de navegador.
- Uma solução (NGFW, CASB, DLP ou outra) para monitoramento e controle detalhados do uso de IA no nível de solicitações específicas de cada serviço.
- Apenas para empresas que desenvolvem software: pipelines CI/CD modificados e ferramentas SAST/DAST para identificar automaticamente código gerado por IA e sinalizá-lo para etapas adicionais de verificação.
- Como no cenário sem restrição, treinamento regular de colaboradores, pesquisas e segurança robusta para dispositivos de trabalho e pessoais.
Com os requisitos listados, é necessário desenvolver uma política que abranja diferentes departamentos e diversos tipos de informação. Um exemplo seria o seguinte:
| Tipo de dados | IA voltada para o público (de dispositivos pessoais e contas) | Serviço de IA externo (por meio de proxy corporativo de IA) | Ferramentas de IA locais ou em nuvem confiável |
| Dados públicos (como textos de anúncios) | Permitidos (informados por meio do portal da empresa) | Permitidos (registrados) | Permitidos (registrados) |
| Dados internos gerais (como conteúdo de e-mails) | Não recomendados, mas não bloqueados. Exigem registro/informação via portal da empresa. | Permitidos (registrados) | Permitidos (registrados) |
| Dados confidenciais (como código-fonte de aplicativos, comunicações jurídicas ou de RH) | Bloqueados por DLP, CASB ou NGFW | Aprovados para cenários específicos pelo gerente (dados pessoais excluídos; código verificado automaticamente e manualmente) | Permitidos (registrados, com os dados pessoais removidos conforme necessário) |
| Dados regulamentados importantes (financeiros, médicos etc.) | Proibidos | Proibidos | Permitidos com aprovação do diretor de Segurança da Informação (CISO), sujeito aos requisitos regulamentares de armazenamento |
| Dados altamente importantes e classificados | Proibidos | Proibidos | Proibidos (exceções somente mediante aprovação do Conselho de Administração) |
Para aplicar a política, é necessário um enfoque organizacional em diversas camadas, além de ferramentas técnicas. Antes de tudo, os colaboradores precisam ser treinados sobre os riscos associados à IA: desde vazamentos de dados e respostas falsas da IA até ataques via prompt. É obrigatório que todos os colaboradores da organização realizem este treinamento.
Após o treinamento inicial, é essencial desenvolver políticas mais detalhadas e fornecer treinamento avançado para os líderes de departamento. Isso os capacitará a tomar decisões informadas sobre aprovar ou negar solicitações de uso de dados específicos com ferramentas de IA públicas.
As políticas, critérios e medidas iniciais são apenas o ponto de partida; devem ser atualizados regularmente. Isso envolve analisar dados, aprimorar casos de uso reais de IA e monitorar as ferramentas de IA mais utilizadas. É necessário um portal de TI de autoatendimento, como um ambiente sem complicações, onde os colaboradores possam informar quais ferramentas de IA estão utilizando e para quais finalidades. Esse feedback valioso enriquece suas análises, ajuda a construir uma justificativa de negócio para a adoção de IA e fornece um modelo baseado em funções para aplicar as políticas de segurança adequadas.
Por fim, é indispensável um sistema em múltiplos níveis para responder a violações. Etapas possíveis:
- Um alerta automatizado e um microtreinamento obrigatório relacionado à violação.
- Uma reunião privada entre o colaborador, o líder do seu departamento e um profissional de segurança da informação.
- Uma suspensão temporária do uso de ferramentas com IA.
- Intervenção disciplinar rigorosa realizada pelo RH.
Uma abordagem abrangente para a segurança de IA
As políticas discutidas aqui abrangem uma gama relativamente restrita de riscos associados ao uso de soluções SaaS para IA generativa. Para criar uma política completa que aborde todo o espectro de riscos relevantes, consulte nossas diretrizes para a implementação segura de sistemas de IA, desenvolvidas pela Kaspersky em colaboração com outros especialistas de confiança.
IA