Imagen aleatoria

Ciberseguridad e Inteligencia Artificial: habilitando la seguridad mientras se gestiona el riesgo

Al igual que muchas tecnologías disruptivas que la precedieron, el entusiasmo y la promesa de la IA están contrarrestados por una aprehensión legítima y un riesgo concreto.

Reduzca el ruido para evitar arrepentimientos 

Como cualquier recurso de alto valor y alta demanda, la IA no siempre corresponde a lo que se propaga. Existe una proliferación creciente de soluciones denominadas “agentes de IA”, y los proveedores frecuentemente etiquetan cualquier nueva funcionalidad de automatización con esa denominación. Aunque algunos agentes genuinamente utilizan IA generativa para planificar y ejecutar acciones autónomas, muchos solo amplifican la confusión para los líderes de ciberseguridad.

Cuanto mayor sea el grado de conocimiento sobre el tema, mayor será la capacidad de distinguir valor real de ruido y de extraer un retorno efectivo sobre la inversión. Para obtener resultados más rápidos y consistentes, se recurre a herramientas especializadas de análisis de casos de uso — como catálogos estructurados de casos comprobados de IA adaptados al sector — para explorar, evaluar y priorizar iniciativas con base en evidencia.

Grandes riesgos traen grandes recompensas — y regulación 

La regulación de la IA llegó a América Latina — y avanza más rápido de lo que muchas organizaciones perciben.

Brasil lidera el movimiento regional: el Marco Legal de IA (PL 2.338/2023), aprobado por el Senado en diciembre de 2024 y actualmente en análisis en una Comisión Especial de la Cámara de Diputados, adopta un modelo de gestión por niveles de riesgo, impone obligaciones de transparencia, exige evaluaciones de impacto para sistemas de alto riesgo y prevé la creación del Sistema Nacional para el Desarrollo, Regulación y Gobernanza de la IA (SIA). Paralelamente, el Plan Brasileño de Inteligencia Artificial (PBIA) refuerza el carácter estratégico de la gobernanza de IA en el país. La votación final en la Cámara está prevista para los primeros meses de 2026.

En Perú, la Ley 31814, en vigor desde julio de 2023 y reglamentada por el Decreto Supremo 115-2025-PCM, ya establece un marco para el uso ético, seguro y transparente de la IA, con la Secretaría de Gobierno y Transformación Digital como autoridad coordinadora nacional

Colombia presentó en 2025 un proyecto de ley unificado (PL 043/2025), con aprobación ministerial y mensaje de urgencia, que propone clasificación de riesgo inspirada en el modelo europeo, creación de una autoridad nacional de supervisión y zonas regulatorias experimentales (sandboxes).

Chile avanza con el Proyecto de Ley N° 16821-19 (2024), presentado por el Ejecutivo, que clasifica los sistemas de IA en cuatro categorías de riesgo, prohíbe aplicaciones consideradas inaceptables y prevé la creación de una Comisión Nacional de Inteligencia Artificial.

Argentina, por su parte, cuenta con el Proyecto de Ley 2505-D-2023, que introduce clasificación de riesgo con evaluaciones de impacto obligatorias, y el Proyecto 3900-D-2024, que propone la creación de un Observatorio Federal de IA.

El denominador común entre todos estos marcos regulatorios es la exigencia de que las organizaciones sepan exactamente qué sistemas de IA están en operación — y qué riesgos representan. Los líderes de ciberseguridad que aún no iniciaron el mapeo y la catalogación de sus sistemas de IA están operando en una zona de riesgo regulatorio creciente. El momento de actuar es ahora, antes de que las evaluaciones obligatorias conviertan ese relevamiento en urgente y reactivo.

No espere una solución milagrosa de IA 

El entusiasmo inicial en torno a la IA generativa llevó a muchas organizaciones a adoptarla rápidamente, sin planificación adecuada. Esta falta de preparación es intrínsecamente riesgosa: salvo raras excepciones, los resultados raramente corresponden a las expectativas generadas. Lo que frecuentemente sigue son meses de ensayo y error, evaluación retroactiva, bajas contables y, en algunos casos, la salida de ejecutivos responsables de la iniciativa. El impacto más significativo tiende a surgir posteriormente, en forma de oportunidades perdidas como consecuencia del retraso en la implementación de capacidades generativas con valor real.

El entusiasmo en torno a la IA generativa tiende a generar desilusiones en el corto plazo, a medida que la presión externa por ganancias de productividad en las operaciones de seguridad choca con recursos aún inmaduros y flujos de trabajo fragmentados. Los síntomas característicos de una integración mal planificada incluyen:

  • Ausencia de métricas para medir los beneficios de la IA generativa, combinada con costos elevados para acceder a funcionalidades adicionales 
  • Dificultad para integrar asistentes de IA a los flujos colaborativos de los equipos de seguridad o de proveedores de servicios gestionados 
  • “Fatiga de interfaces”: exceso de herramientas que ofrecen interfaces interactivas para consulta de amenazas y gestión de incidentes 

Para mitigar las distorsiones causadas por expectativas infladas, es fundamental llevar adelante una planificación estructurada de roadmap. Esto implica equilibrar las realidades operativas de la ciberseguridad con las posibilidades concretas de la IA generativa: 

  • Adoptar una perspectiva plurianual, comenzando por seguridad de aplicaciones y operaciones de seguridad, integrando progresivamente ofertas de IA generativa donde aporten valor a los flujos existentes 
  • Evaluar las ganancias de eficiencia en paralelo con los costos reales de implementación 
  • Ajustar las métricas de detección y productividad para reflejar las nuevas capacidades habilitadas por IA generativa 
  • Priorizar la ampliación de las capacidades de la fuerza laboral — y no solo la automatización de tareas 
  • Planificar los cambios de competencias necesarios en el mediano y largo plazo 
  • Considerar los desafíos de privacidad y equilibrar los beneficios esperados con los riesgos asociados 

Enfrente los riesgos con su mejor estrategia de defensa 

La IA generativa es apenas la más reciente de una serie de tecnologías que prometieron ganancias expresivas de productividad mediante la automatización. Los intentos anteriores de automatizar integralmente actividades complejas de seguridad raramente fueron exitosos y pueden representar distracciones onerosas. Aunque existen beneficios concretos en el uso de modelos de IA generativa y grandes modelos de lenguaje (LLMs) de terceros, también hay riesgos específicos que exigen nuevas prácticas de seguridad. Estos riesgos se organizan en seis categorías:

  1. Detección de anomalías de contenido
  • Uso inaceptable o malicioso de la herramienta.
  • Transmisión no gestionada de contenido corporativo a través de interfaces de consulta, comprometiendo datos confidenciales.
  • Generación de respuestas imprecisas, ilegales, que violen derechos de propiedad intelectual o causen daños a la reputación de la organización

2. Protección de datos 

  • Filtración de datos, comprometimiento de integridad y confidencialidad en entornos hospedados por proveedores externos 
  • Incapacidad de aplicar políticas de privacidad en infraestructuras fuera del control directo de la organización 
  • Dificultad para realizar evaluaciones de impacto en la privacidad debido a la naturaleza opaca de los modelos de terceros 

3. Seguridad de aplicaciones de IA 

  • Ataques por manipulación adversarial de entradas, incluyendo abusos de lógica de negocio e inyecciones directas e indirectas a través de la interfaz de consulta 
  • Ataques dirigidos a bases de datos vectoriales 
  • Acceso indebido a estados internos y parámetros de modelos 

4. Identidad sintética de la IA 

A medida que los agentes de IA se integran en flujos empresariales, adquieren una identidad funcional propia: realizan consultas, solicitan accesos y actúan en nombre de la organización mediante mecanismos de autenticación. Esta identidad sintética genera una nueva superficie de ataque:

  • Suplantar o abusar de las credenciales de autenticación asociadas al agente de IA para acceder a sistemas y datos sensibles. 
  • Elevar privilegios a partir de permisos excesivos concedidos al agente durante su configuración. 
  • Explotar la falta de monitoreo diferenciado para identidades no humanas en los sistemas de IAM (Identity and Access Management). 
  • Dificultad para atribuir acciones maliciosas cuando la cadena de acción mezcla comportamientos humanos y autónomos. 

5. Riesgos en la cadena de suministro de IA  

Los sistemas de IA dependen de componentes externos — modelos base, datasets, librerías, plugins e integraciones de terceros — cada uno de los cuales representa un vector potencial de compromiso:

  • Modelos pre-entrenados o fine-tuneados con datos maliciosos que introducen backdoors o sesgos deliberados. 
  • Dependencias y librerías comprometidas en pipelines de MLOps o entornos de despliegue. 
  • Integraciones via API con proveedores de modelos que pueden modificar comportamientos sin previo aviso. 
  • Ausencia de SBOM (Software Bill of Materials) específico para componentes de IA, dificultando la trazabilidad de vulnerabilidades. 

6. Shadow IA 

La adopción no gestionada de herramientas de IA por parte de colaboradores — al margen de las políticas corporativas — representa uno de los riesgos más difíciles de detectar y controlar en entornos empresariales:

  • Envío de información confidencial, propiedad intelectual o datos de clientes a plataformas de IA externas no evaluadas ni aprobadas. 
  • Imposibilidad de auditar qué datos fueron procesados, cómo fueron almacenados o si fueron utilizados para el entrenamiento de modelos. 
  • Proliferación de automatizaciones y agentes construidos sin revisión de seguridad, integrando sistemas críticos sin controles adecuados. 
  • Incumplimiento regulatorio derivado del uso de herramientas de IA que no cumplen con las exigencias de los marcos legales vigentes en la región. 
  • Recomendación: las organizaciones deben implementar políticas de uso aceptable de IA, combinadas con controles técnicos de visibilidad (CASB, DLP, monitoreo de tráfico) para detectar y gestionar el uso no autorizado antes de que se convierta en un incidente de seguridad o compliance. 

Los modelos de IA generativa hospedados externamente amplían estos riesgos, dado que las organizaciones no controlan directamente los procesos de tratamiento y almacenamiento de datos. Sin embargo, los modelos implementados internamente también presentan vulnerabilidades cuando los controles de seguridad son insuficientes. Las tres categorías descritas impactan a los usuarios durante la ejecución de aplicaciones y modelos de IA.

⚠️ Nota de compliance: Los estados regulatorios descritos reflejan el escenario verificado en febrero de 2026. Proyectos de ley en tramitación pueden haber sufrido modificaciones.

Noticias relacionadas

Scroll to Top