{"id":80165,"date":"2026-04-13T08:00:00","date_gmt":"2026-04-13T06:00:00","guid":{"rendered":"https:\/\/entelgy.com\/sem-categoria\/ciberseguranca-e-inteligencia-artificial-habilitando-a-seguranca-enquanto-se-gerencia-o-risco\/"},"modified":"2026-04-13T08:48:51","modified_gmt":"2026-04-13T06:48:51","slug":"ciberseguranca-e-inteligencia-artificial-entelgy-security-america-habilitando-a-seguranca-enquanto-se-gerencia-o-risco","status":"publish","type":"post","link":"https:\/\/entelgy.com\/pt-br\/actualidad-es-pt-br\/ciberseguranca-e-inteligencia-artificial-entelgy-security-america-habilitando-a-seguranca-enquanto-se-gerencia-o-risco\/","title":{"rendered":"Ciberseguran\u00e7a e Intelig\u00eancia Artificial: Entelgy Security Am\u00e9rica, habilitando a seguran\u00e7a enquanto se gerencia o risco"},"content":{"rendered":"\n<h4 class=\"wp-block-heading\">Assim como muitas tecnologias disruptivas que a precederam, o entusiasmo e a promessa da IA s\u00e3o contrabalan\u00e7ados por apreens\u00e3o leg\u00edtima e risco concreto.<\/h4>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Reduza o ru\u00eddo para evitar arrependimentos<\/strong> <\/h4>\n\n\n\n<p>Como qualquer recurso de alto valor e alta demanda, a IA nem sempre corresponde ao que \u00e9 propagado. H\u00e1 uma prolifera\u00e7\u00e3o crescente de solu\u00e7\u00f5es denominadas &#8220;agentes de IA&#8221;, e os fornecedores frequentemente rotulam qualquer nova funcionalidade de automa\u00e7\u00e3o com essa denomina\u00e7\u00e3o. Embora alguns agentes genuinamente utilizem IA generativa para planejar e executar a\u00e7\u00f5es aut\u00f4nomas, muitos apenas ampliam a confus\u00e3o para os l\u00edderes de ciberseguran\u00e7a.   <\/p>\n\n\n\n<p>Quanto maior o grau de conhecimento sobre o tema, maior a capacidade de distinguir valor real de ru\u00eddo e de extrair retorno efetivo sobre o investimento. Para obter resultados mais r\u00e1pidos e consistentes, recorre-se a ferramentas especializadas de an\u00e1lise de casos de uso \u2014 como cat\u00e1logos estruturados de casos comprovados de IA adaptados ao setor \u2014 para explorar, avaliar e priorizar iniciativas com base em evid\u00eancias <\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Grandes riscos trazem grandes recompensas \u2014 e regula\u00e7\u00e3o<\/strong> <\/h4>\n\n\n\n<p>A regula\u00e7\u00e3o da IA chegou \u00e0 Am\u00e9rica Latina \u2014 e est\u00e1 avan\u00e7ando mais r\u00e1pido do que muitas organiza\u00e7\u00f5es percebem.<\/p>\n\n\n\n<p>O <strong>Brasil<\/strong> lidera o movimento regional: o Marco Legal da IA (PL 2.338\/2023), aprovado pelo Senado em dezembro de 2024 e atualmente em an\u00e1lise na C\u00e2mara dos Deputados, adota um modelo de gest\u00e3o por n\u00edveis de risco, imp\u00f5e obriga\u00e7\u00f5es de transpar\u00eancia, exige avalia\u00e7\u00f5es de impacto para sistemas de alto risco e atribui \u00e0 ANPD a coordena\u00e7\u00e3o do Sistema Nacional de Regula\u00e7\u00e3o e Governan\u00e7a de IA. Paralelamente, o Plano Brasileiro de Intelig\u00eancia Artificial (PBIA) prev\u00ea investimentos de at\u00e9 R$ 23 bilh\u00f5es at\u00e9 2028, refor\u00e7ando o car\u00e1ter estrat\u00e9gico da governan\u00e7a de IA no pa\u00eds.  <\/p>\n\n\n\n<p>No <strong>Peru<\/strong>, a Lei 31814, em vigor desde julho de 2023 \u2014 e regulamentada pelo Decreto Supremo 115-2025-PCM \u2014 j\u00e1 estabelece um marco para o uso \u00e9tico, seguro e transparente da IA, com a Secretaria de Governo e Transforma\u00e7\u00e3o Digital como autoridade coordenadora nacional.<\/p>\n\n\n\n<p>A <strong>Col\u00f4mbia <\/strong>apresentou em julho de 2025 um projeto de lei unificado (PL 043\/2025), com aprova\u00e7\u00e3o ministerial e mensagem de urg\u00eancia, que prop\u00f5e classifica\u00e7\u00e3o de risco inspirada no modelo europeu, cria\u00e7\u00e3o de uma autoridade nacional de supervis\u00e3o sob o MinCiencias e zonas regulat\u00f3rias experimentais (sandboxes).<\/p>\n\n\n\n<p>O<strong> Chile<\/strong> avan\u00e7a com o Projeto de Lei N\u00ba 16821-19 (2024), apresentado pelo Executivo, que classifica os sistemas de IA em quatro categorias de risco, pro\u00edbe aplica\u00e7\u00f5es consideradas inaceit\u00e1veis e prev\u00ea a cria\u00e7\u00e3o de uma Comiss\u00e3o Nacional de Intelig\u00eancia Artificial para certificar e autorizar sistemas.<\/p>\n\n\n\n<p>A <strong>Argentina,<\/strong> por sua vez, conta com o Projeto de Lei 2505-D-2023, que introduz classifica\u00e7\u00e3o de risco \u2014 de inacept\u00e1vel a insignificante \u2014 com avalia\u00e7\u00f5es de impacto obrigat\u00f3rias, al\u00e9m do Projeto 3900-D-2024, que prop\u00f5e a cria\u00e7\u00e3o de um Observat\u00f3rio Federal de IA.<\/p>\n\n\n\n<p>O denominador comum entre todos esses marcos regulat\u00f3rios \u00e9 a exig\u00eancia de que as organiza\u00e7\u00f5es saibam exatamente quais sistemas de IA est\u00e3o em opera\u00e7\u00e3o \u2014 e quais riscos eles representam. L\u00edderes de ciberseguran\u00e7a que ainda n\u00e3o iniciaram o mapeamento e a cataloga\u00e7\u00e3o de seus sistemas de IA est\u00e3o operando em zona de risco regulat\u00f3rio crescente. O momento de agir \u00e9 agora, antes que as avalia\u00e7\u00f5es obrigat\u00f3rias tornem esse levantamento urgente e reativo.  <\/p>\n\n\n\n<p><strong>N\u00e3o espere por uma solu\u00e7\u00e3o miraculosa de IA<\/strong> <\/p>\n\n\n\n<p>O entusiasmo inicial em torno da IA generativa levou muitas organiza\u00e7\u00f5es a adot\u00e1-la rapidamente, sem planejamento adequado. Essa falta de preparo \u00e9 intrinsecamente arriscada: salvo raras exce\u00e7\u00f5es, os resultados raramente correspondem \u00e0s expectativas geradas. O que frequentemente se segue s\u00e3o meses de tentativa e erro, avalia\u00e7\u00e3o retroativa, baixas cont\u00e1beis e, em alguns casos, a sa\u00edda de executivos respons\u00e1veis pela iniciativa. O impacto mais significativo tende a surgir posteriormente, na forma de oportunidades perdidas em decorr\u00eancia do atraso na implanta\u00e7\u00e3o de capacidades generativas com valor real.   <\/p>\n\n\n\n<p>O entusiasmo em torno da IA generativa tende a gerar desilus\u00f5es no curto prazo, \u00e0 medida que a press\u00e3o externa por ganhos de produtividade nas opera\u00e7\u00f5es de seguran\u00e7a colide com recursos ainda imaturos e fluxos de trabalho fragmentados. Os sintomas caracter\u00edsticos de uma integra\u00e7\u00e3o mal planejada incluem: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Aus\u00eancia de m\u00e9tricas para mensurar os benef\u00edcios da IA generativa, combinada com custos elevados para acesso a funcionalidades adicionais <\/li>\n\n\n\n<li>Dificuldade de integrar assistentes de IA aos fluxos colaborativos das equipes de seguran\u00e7a ou de provedores de servi\u00e7os gerenciados <\/li>\n\n\n\n<li>&#8220;Fadiga de interfaces&#8221;: excesso de ferramentas oferecendo interfaces interativas para consulta de amea\u00e7as e gest\u00e3o de incidentes <\/li>\n<\/ul>\n\n\n\n<p>Para mitigar distor\u00e7\u00f5es causadas por expectativas infladas, \u00e9 fundamental conduzir um planejamento estruturado de roadmap. Isso implica equilibrar as realidades operacionais da ciberseguran\u00e7a com as possibilidades concretas da IA generativa:  <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Adotar uma perspectiva plurianual, come\u00e7ando por seguran\u00e7a de aplica\u00e7\u00f5es e opera\u00e7\u00f5es de seguran\u00e7a, integrando progressivamente ofertas de IA generativa onde agregarem valor a fluxos existentes <\/li>\n\n\n\n<li>Avaliar ganhos de efici\u00eancia em paralelo com os custos reais de implanta\u00e7\u00e3o <\/li>\n\n\n\n<li>Ajustar m\u00e9tricas de detec\u00e7\u00e3o e produtividade para refletir as novas capacidades habilitadas por IA generativa <\/li>\n\n\n\n<li>Priorizar a amplia\u00e7\u00e3o das capacidades da for\u00e7a de trabalho \u2014 e n\u00e3o apenas a automa\u00e7\u00e3o de tarefas <\/li>\n\n\n\n<li>Planejar as mudan\u00e7as de compet\u00eancia necess\u00e1rias no m\u00e9dio e longo prazo <\/li>\n\n\n\n<li>Considerar os desafios de privacidade e equilibrar os benef\u00edcios esperados com os riscos associados <\/li>\n<\/ul>\n\n\n\n<p><strong>Enfrente os riscos com sua melhor estrat\u00e9gia de defesa<\/strong> <\/p>\n\n\n\n<p>A IA generativa \u00e9 apenas a mais recente de uma s\u00e9rie de tecnologias que prometeram ganhos expressivos de produtividade por meio da automa\u00e7\u00e3o. Tentativas anteriores de automatizar integralmente atividades complexas de seguran\u00e7a raramente foram bem-sucedidas e podem representar distra\u00e7\u00f5es onerosas. Embora existam benef\u00edcios concretos no uso de modelos de IA generativa e grandes modelos de linguagem (LLMs) de terceiros, h\u00e1 tamb\u00e9m riscos espec\u00edficos que exigem novas pr\u00e1ticas de seguran\u00e7a. Esses riscos se organizam em tr\u00eas categorias:   <\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Detec\u00e7\u00e3o de anomalias de conte\u00fado<\/strong><\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Uso inaceit\u00e1vel ou malicioso da ferramenta <\/li>\n\n\n\n<li>Transmiss\u00e3o n\u00e3o gerenciada de conte\u00fado corporativo via interfaces de consulta, comprometendo dados confidenciais<\/li>\n\n\n\n<li> Gera\u00e7\u00e3o de respostas imprecisas, ilegais, que violem direitos de propriedade intelectual ou causem danos \u00e0 reputa\u00e7\u00e3o da organiza\u00e7\u00e3o<\/li>\n<\/ul>\n\n\n\n<p><strong>2. Prote\u00e7\u00e3o de dados<\/strong> <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Vazamento de dados, comprometimento de integridade e confidencialidade em ambientes hospedados por fornecedores externos <\/li>\n\n\n\n<li>Incapacidade de aplicar pol\u00edticas de privacidade em infraestruturas fora do controle direto da organiza\u00e7\u00e3o <\/li>\n\n\n\n<li>Dificuldade de conduzir avalia\u00e7\u00f5es de impacto \u00e0 privacidade em raz\u00e3o da natureza opaca de modelos de terceiros <\/li>\n<\/ul>\n\n\n\n<p><strong>3. Seguran\u00e7a de aplica\u00e7\u00f5es de IA<\/strong> <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Ataques por manipula\u00e7\u00e3o adversarial de entradas, incluindo abusos de l\u00f3gica de neg\u00f3cio e inje\u00e7\u00f5es diretas e indiretas via interface de consulta <\/li>\n\n\n\n<li>Ataques direcionados a bases de dados vetoriais <\/li>\n\n\n\n<li>Acesso indevido a estados internos e par\u00e2metros de modelos <\/li>\n<\/ul>\n\n\n\n<p><strong>4. Identidade sint\u00e9tica da IA<\/strong> <\/p>\n\n\n\n<p>\u00c0 medida que os agentes de IA se integram aos fluxos empresariais, adquirem uma identidade funcional pr\u00f3pria: realizam consultas, solicitam acessos e atuam em nome da organiza\u00e7\u00e3o por meio de mecanismos de autentica\u00e7\u00e3o. Essa identidade sint\u00e9tica gera uma nova superf\u00edcie de ataque: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Usurpar ou abusar das credenciais de autentica\u00e7\u00e3o associadas ao agente de IA para acessar sistemas e dados sens\u00edveis. <\/li>\n\n\n\n<li>Elevar privil\u00e9gios a partir de permiss\u00f5es excessivas concedidas ao agente durante sua configura\u00e7\u00e3o. <\/li>\n\n\n\n<li>Explorar a falta de monitoramento diferenciado para identidades n\u00e3o humanas nos sistemas de IAM (Identity and Access Management). <\/li>\n\n\n\n<li>Dificuldade de atribuir a\u00e7\u00f5es maliciosas quando a cadeia de a\u00e7\u00e3o mistura comportamentos humanos e aut\u00f4nomos. <\/li>\n<\/ul>\n\n\n\n<p><strong>5. Riscos na cadeia de fornecimento de IA <\/strong> <\/p>\n\n\n\n<p>Os sistemas de IA dependem de componentes externos \u2014 modelos base, datasets, bibliotecas, plugins e integra\u00e7\u00f5es de terceiros \u2014 cada um dos quais representa um vetor potencial de comprometimento:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Modelos pr\u00e9-treinados ou ajustados com dados maliciosos que introduzem backdoors ou vieses deliberados. <\/li>\n\n\n\n<li>Depend\u00eancias e bibliotecas comprometidas em pipelines de MLOps ou ambientes de implanta\u00e7\u00e3o. <\/li>\n\n\n\n<li>Integra\u00e7\u00f5es via API com provedores de modelos que podem modificar comportamentos sem aviso pr\u00e9vio. <\/li>\n\n\n\n<li>Aus\u00eancia de SBOM (Software Bill of Materials) espec\u00edfico para componentes de IA, dificultando a rastreabilidade de vulnerabilidades. <\/li>\n<\/ul>\n\n\n\n<p><strong>6. Shadow IA<\/strong> <\/p>\n\n\n\n<p>A ado\u00e7\u00e3o n\u00e3o gerenciada de ferramentas de IA por colaboradores \u2014 \u00e0 margem das pol\u00edticas corporativas \u2014 representa um dos riscos mais dif\u00edceis de detectar e controlar em ambientes empresariais:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Envio de informa\u00e7\u00f5es confidenciais, propriedade intelectual ou dados de clientes a plataformas de IA externas n\u00e3o avaliadas nem aprovadas. <\/li>\n\n\n\n<li>Impossibilidade de auditar quais dados foram processados, como foram armazenados ou se foram utilizados para o treinamento de modelos. <\/li>\n\n\n\n<li>Prolifera\u00e7\u00e3o de automa\u00e7\u00f5es e agentes constru\u00eddos sem revis\u00e3o de seguran\u00e7a, integrando sistemas cr\u00edticos sem controles adequados. <\/li>\n\n\n\n<li>Descumprimento regulat\u00f3rio decorrente do uso de ferramentas de IA que n\u00e3o atendem \u00e0s exig\u00eancias dos marcos legais vigentes na regi\u00e3o. <\/li>\n\n\n\n<li>Recomenda\u00e7\u00e3o: as organiza\u00e7\u00f5es devem implementar pol\u00edticas de uso aceit\u00e1vel de IA, combinadas com controles t\u00e9cnicos de visibilidade (CASB, DLP, monitoramento de tr\u00e1fego) para detectar e gerenciar o uso n\u00e3o autorizado antes que se torne um incidente de seguran\u00e7a ou de compliance. <\/li>\n<\/ul>\n\n\n\n<p>Os modelos de IA generativa hospedados externamente ampliam esses riscos, pois as organiza\u00e7\u00f5es n\u00e3o controlam diretamente os processos de tratamento e armazenamento de dados. Entretanto, modelos implantados internamente tamb\u00e9m apresentam vulnerabilidades quando os controles de seguran\u00e7a s\u00e3o insuficientes. As tr\u00eas categorias descritas impactam os usu\u00e1rios durante a execu\u00e7\u00e3o de aplica\u00e7\u00f5es e modelos de IA.  <\/p>\n\n\n\n<p>\u26a0\ufe0f <strong>Nota de conformidade:<\/strong> Os quadros regulat\u00f3rios descritos refletem a situa\u00e7\u00e3o verificada em fevereiro de 2026. Os projetos de lei em tramita\u00e7\u00e3o podem ter sofrido altera\u00e7\u00f5es. <\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Assim como muitas tecnologias disruptivas que a precederam, o entusiasmo e a promessa da IA s\u00e3o contrabalan\u00e7ados por apreens\u00e3o leg\u00edtima [&hellip;]<\/p>\n","protected":false},"author":10,"featured_media":80167,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_lock_modified_date":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[8675,8678],"tags":[8355,9017,8907,8909],"class_list":["post-80165","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualidad-es-pt-br","category-entelgy-security-america-pt-br","tag-ciberseguridad-2","tag-ciberseguridad-es-pt-br","tag-entelgy-en-brasil-es-pt-br","tag-entelgy-security-america-pt-br"],"acf":[],"_links":{"self":[{"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/posts\/80165","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/comments?post=80165"}],"version-history":[{"count":3,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/posts\/80165\/revisions"}],"predecessor-version":[{"id":80736,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/posts\/80165\/revisions\/80736"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/media\/80167"}],"wp:attachment":[{"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/media?parent=80165"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/categories?post=80165"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/entelgy.com\/pt-br\/wp-json\/wp\/v2\/tags?post=80165"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}