Imagen aleatoria

Cibersegurança e Inteligência Artificial: Entelgy Security América, habilitando a segurança enquanto se gerencia o risco

Assim como muitas tecnologias disruptivas que a precederam, o entusiasmo e a promessa da IA são contrabalançados por apreensão legítima e risco concreto.

Reduza o ruído para evitar arrependimentos

Como qualquer recurso de alto valor e alta demanda, a IA nem sempre corresponde ao que é propagado. Há uma proliferação crescente de soluções denominadas “agentes de IA”, e os fornecedores frequentemente rotulam qualquer nova funcionalidade de automação com essa denominação. Embora alguns agentes genuinamente utilizem IA generativa para planejar e executar ações autônomas, muitos apenas ampliam a confusão para os líderes de cibersegurança.

Quanto maior o grau de conhecimento sobre o tema, maior a capacidade de distinguir valor real de ruído e de extrair retorno efetivo sobre o investimento. Para obter resultados mais rápidos e consistentes, recorre-se a ferramentas especializadas de análise de casos de uso — como catálogos estruturados de casos comprovados de IA adaptados ao setor — para explorar, avaliar e priorizar iniciativas com base em evidências

Grandes riscos trazem grandes recompensas — e regulação

A regulação da IA chegou à América Latina — e está avançando mais rápido do que muitas organizações percebem.

O Brasil lidera o movimento regional: o Marco Legal da IA (PL 2.338/2023), aprovado pelo Senado em dezembro de 2024 e atualmente em análise na Câmara dos Deputados, adota um modelo de gestão por níveis de risco, impõe obrigações de transparência, exige avaliações de impacto para sistemas de alto risco e atribui à ANPD a coordenação do Sistema Nacional de Regulação e Governança de IA. Paralelamente, o Plano Brasileiro de Inteligência Artificial (PBIA) prevê investimentos de até R$ 23 bilhões até 2028, reforçando o caráter estratégico da governança de IA no país.

No Peru, a Lei 31814, em vigor desde julho de 2023 — e regulamentada pelo Decreto Supremo 115-2025-PCM — já estabelece um marco para o uso ético, seguro e transparente da IA, com a Secretaria de Governo e Transformação Digital como autoridade coordenadora nacional.

A Colômbia apresentou em julho de 2025 um projeto de lei unificado (PL 043/2025), com aprovação ministerial e mensagem de urgência, que propõe classificação de risco inspirada no modelo europeu, criação de uma autoridade nacional de supervisão sob o MinCiencias e zonas regulatórias experimentais (sandboxes).

O Chile avança com o Projeto de Lei Nº 16821-19 (2024), apresentado pelo Executivo, que classifica os sistemas de IA em quatro categorias de risco, proíbe aplicações consideradas inaceitáveis e prevê a criação de uma Comissão Nacional de Inteligência Artificial para certificar e autorizar sistemas.

A Argentina, por sua vez, conta com o Projeto de Lei 2505-D-2023, que introduz classificação de risco — de inaceptável a insignificante — com avaliações de impacto obrigatórias, além do Projeto 3900-D-2024, que propõe a criação de um Observatório Federal de IA.

O denominador comum entre todos esses marcos regulatórios é a exigência de que as organizações saibam exatamente quais sistemas de IA estão em operação — e quais riscos eles representam. Líderes de cibersegurança que ainda não iniciaram o mapeamento e a catalogação de seus sistemas de IA estão operando em zona de risco regulatório crescente. O momento de agir é agora, antes que as avaliações obrigatórias tornem esse levantamento urgente e reativo.

Não espere por uma solução miraculosa de IA

O entusiasmo inicial em torno da IA generativa levou muitas organizações a adotá-la rapidamente, sem planejamento adequado. Essa falta de preparo é intrinsecamente arriscada: salvo raras exceções, os resultados raramente correspondem às expectativas geradas. O que frequentemente se segue são meses de tentativa e erro, avaliação retroativa, baixas contábeis e, em alguns casos, a saída de executivos responsáveis pela iniciativa. O impacto mais significativo tende a surgir posteriormente, na forma de oportunidades perdidas em decorrência do atraso na implantação de capacidades generativas com valor real.

O entusiasmo em torno da IA generativa tende a gerar desilusões no curto prazo, à medida que a pressão externa por ganhos de produtividade nas operações de segurança colide com recursos ainda imaturos e fluxos de trabalho fragmentados. Os sintomas característicos de uma integração mal planejada incluem:

  • Ausência de métricas para mensurar os benefícios da IA generativa, combinada com custos elevados para acesso a funcionalidades adicionais
  • Dificuldade de integrar assistentes de IA aos fluxos colaborativos das equipes de segurança ou de provedores de serviços gerenciados
  • “Fadiga de interfaces”: excesso de ferramentas oferecendo interfaces interativas para consulta de ameaças e gestão de incidentes

Para mitigar distorções causadas por expectativas infladas, é fundamental conduzir um planejamento estruturado de roadmap. Isso implica equilibrar as realidades operacionais da cibersegurança com as possibilidades concretas da IA generativa:

  • Adotar uma perspectiva plurianual, começando por segurança de aplicações e operações de segurança, integrando progressivamente ofertas de IA generativa onde agregarem valor a fluxos existentes
  • Avaliar ganhos de eficiência em paralelo com os custos reais de implantação
  • Ajustar métricas de detecção e produtividade para refletir as novas capacidades habilitadas por IA generativa
  • Priorizar a ampliação das capacidades da força de trabalho — e não apenas a automação de tarefas
  • Planejar as mudanças de competência necessárias no médio e longo prazo
  • Considerar os desafios de privacidade e equilibrar os benefícios esperados com os riscos associados

Enfrente os riscos com sua melhor estratégia de defesa

A IA generativa é apenas a mais recente de uma série de tecnologias que prometeram ganhos expressivos de produtividade por meio da automação. Tentativas anteriores de automatizar integralmente atividades complexas de segurança raramente foram bem-sucedidas e podem representar distrações onerosas. Embora existam benefícios concretos no uso de modelos de IA generativa e grandes modelos de linguagem (LLMs) de terceiros, há também riscos específicos que exigem novas práticas de segurança. Esses riscos se organizam em três categorias:

  1. Detecção de anomalias de conteúdo
  • Uso inaceitável ou malicioso da ferramenta
  • Transmissão não gerenciada de conteúdo corporativo via interfaces de consulta, comprometendo dados confidenciais
  • Geração de respostas imprecisas, ilegais, que violem direitos de propriedade intelectual ou causem danos à reputação da organização

2. Proteção de dados

  • Vazamento de dados, comprometimento de integridade e confidencialidade em ambientes hospedados por fornecedores externos
  • Incapacidade de aplicar políticas de privacidade em infraestruturas fora do controle direto da organização
  • Dificuldade de conduzir avaliações de impacto à privacidade em razão da natureza opaca de modelos de terceiros

3. Segurança de aplicações de IA

  • Ataques por manipulação adversarial de entradas, incluindo abusos de lógica de negócio e injeções diretas e indiretas via interface de consulta
  • Ataques direcionados a bases de dados vetoriais
  • Acesso indevido a estados internos e parâmetros de modelos

4. Identidade sintética da IA

À medida que os agentes de IA se integram aos fluxos empresariais, adquirem uma identidade funcional própria: realizam consultas, solicitam acessos e atuam em nome da organização por meio de mecanismos de autenticação. Essa identidade sintética gera uma nova superfície de ataque:

  • Usurpar ou abusar das credenciais de autenticação associadas ao agente de IA para acessar sistemas e dados sensíveis.
  • Elevar privilégios a partir de permissões excessivas concedidas ao agente durante sua configuração.
  • Explorar a falta de monitoramento diferenciado para identidades não humanas nos sistemas de IAM (Identity and Access Management).
  • Dificuldade de atribuir ações maliciosas quando a cadeia de ação mistura comportamentos humanos e autônomos.

5. Riscos na cadeia de fornecimento de IA

Os sistemas de IA dependem de componentes externos — modelos base, datasets, bibliotecas, plugins e integrações de terceiros — cada um dos quais representa um vetor potencial de comprometimento:

  • Modelos pré-treinados ou ajustados com dados maliciosos que introduzem backdoors ou vieses deliberados.
  • Dependências e bibliotecas comprometidas em pipelines de MLOps ou ambientes de implantação.
  • Integrações via API com provedores de modelos que podem modificar comportamentos sem aviso prévio.
  • Ausência de SBOM (Software Bill of Materials) específico para componentes de IA, dificultando a rastreabilidade de vulnerabilidades.

6. Shadow IA

A adoção não gerenciada de ferramentas de IA por colaboradores — à margem das políticas corporativas — representa um dos riscos mais difíceis de detectar e controlar em ambientes empresariais:

  • Envio de informações confidenciais, propriedade intelectual ou dados de clientes a plataformas de IA externas não avaliadas nem aprovadas.
  • Impossibilidade de auditar quais dados foram processados, como foram armazenados ou se foram utilizados para o treinamento de modelos.
  • Proliferação de automações e agentes construídos sem revisão de segurança, integrando sistemas críticos sem controles adequados.
  • Descumprimento regulatório decorrente do uso de ferramentas de IA que não atendem às exigências dos marcos legais vigentes na região.
  • Recomendação: as organizações devem implementar políticas de uso aceitável de IA, combinadas com controles técnicos de visibilidade (CASB, DLP, monitoramento de tráfego) para detectar e gerenciar o uso não autorizado antes que se torne um incidente de segurança ou de compliance.

Os modelos de IA generativa hospedados externamente ampliam esses riscos, pois as organizações não controlam diretamente os processos de tratamento e armazenamento de dados. Entretanto, modelos implantados internamente também apresentam vulnerabilidades quando os controles de segurança são insuficientes. As três categorias descritas impactam os usuários durante a execução de aplicações e modelos de IA.

⚠️ Nota de conformidade: Os quadros regulatórios descritos refletem a situação verificada em fevereiro de 2026. Os projetos de lei em tramitação podem ter sofrido alterações.

Noticias relacionadas

Rolar para cima
¿Quieres ser el primero en conocer todas nuestras noticias?
¡Suscribete y ponte al día!
I agree with the Terms and conditions and the Privacy policy

“Los datos personales que nos facilite serán tratados por Entelgy con la finalidad de gestionar tu suscripción a nuestra Newsletter. Puedes ejercer tus derechos en materia de protección de datos dataprotection@entelgy.com. datos mediante comunicación dirigida a nuestro Delegado de Protección de Datos en dataprotection@entelgy.com.”