De hecho, el 88,6% de los encuestados considera que las instituciones no transmiten la seguridad necesaria respecto al control y supervisión de la IA
El próximo 2 de agosto entrará en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA) con multas de hasta 35 millones de euros o el 7% de la facturación anual global de las empresas
Madrid, 1 de agosto de 2025 – El próximo 2 de agosto marca un hito en la regulación de la inteligencia artificial en España y en toda la Unión Europea. En esta fecha, entrará en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), lo que significa que cualquier incumplimiento de las normativas fijadas para el desarrollo, implementación y uso de sistemas de IA podrá ser objeto de importantes sanciones económicas y otras medidas restrictivas. Las multas asociadas podrán alcanzar hasta 35 millones de euros o el 7% de la facturación anual global de las empresas.
Sin embargo, esta nueva etapa normativa llega en un momento en el que la sociedad española muestra un claro escepticismo sobre la regulación existente y expresa una elevada preocupación por la privacidad de sus datos. Es más, según los últimos datos de la encuesta realizada sobre la percepción de la ciudadanía respecto a la IA de Entelgy, The Business Tech Consultancy, solo un 8,8% de los encuestados cree que existe actualmente una normativa lo suficientemente estricta para regular esta tecnología.
Pero esta sensación de desconfianza no se limita solo al ámbito normativo. Las autoridades encargadas de velar por la seguridad y el correcto desarrollo de la inteligencia artificial tampoco logran convencer a la ciudadanía. De hecho, el 88,6% de los encuestados considera que las instituciones no transmiten la seguridad necesaria respecto al control y supervisión de la IA, lo que refleja una brecha significativa entre las expectativas sociales y la acción institucional.
A ello se le suma un bajo nivel de conocimiento sobre la normativa vigente. Solo un 11,4% de los ciudadanos encuestados asegura estar al tanto de las regulaciones actuales en materia de inteligencia artificial. Este porcentaje es ligeramente mayor entre los jóvenes de 18 a 29 años, donde alcanza el 19,3%, aunque sigue siendo claramente insuficiente. Esta falta de información sobre el marco legal vigente evidencia la necesidad de impulsar campañas de sensibilización y educación que acerquen la normativa a la ciudadanía y refuercen la confianza en un desarrollo ético y seguro de la inteligencia artificial.
Además, a la falta de confianza se suma una preocupación generalizada por la privacidad. Ocho de cada diez ciudadanos aseguran estar inquietos ante la posibilidad de que un sistema de inteligencia artificial recopile información personal sin que existan suficientes garantías de protección. Esta inquietud es particularmente elevada entre las personas de entre 30 y 49 años (81,4%) y mayores de 50 años (81%).
Prácticas que serán sancionadas y cómo evitarlo
A partir del 2 de agosto, las prácticas que se sancionarán bajo el Reglamento Europeo de Inteligencia Artificial en España son aquellas consideradas de riesgo inaceptable para los derechos y libertades fundamentales de las personas tales como la manipulación subliminal o engañosa; la explotación de vulnerabilidades; social scoring; reconocimiento facial masivo; análisis de emociones en entornos laborales y educativos; categorización biométrica y la predicción delictiva.
Actualmente, si bien existen esfuerzos para cumplir con la transparencia, todavía hay bastante opacidad en torno a los datos con que se entrenan estos grandes modelos de IA. Para evitar sanciones, las empresas deberán asegurarse de que sus sistemas de inteligencia artificial cumplen con la normativa europea, garantizando la transparencia, la documentación técnica adecuada y la supervisión humana en los casos en que sea necesario. Además, tendrán que informar de manera clara a los usuarios cuando estén interactuando con una IA y colaborar activamente con la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). También será clave que revisen con rigor los modelos de propósito general que integren en sus servicios, incorporando salvaguardas para evitar riesgos legales.
“La entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial representa un paso fundamental para garantizar que el desarrollo y uso de la IA se realice de manera segura, ética y responsable. El bajo nivel de conocimiento que tienen los ciudadanos sobre la normativa vigente dificulta generar confianza en las instituciones para proteger sus derechos frente a estas tecnologías y demanda un esfuerzo adicional en transparencia y formación.” señalan desde Entelgy.
Sobre Entelgy
Entelgy,The BusinessTech Consultancy, se define como el nuevo Human driven technology, que tiene como propósito construir una realidad mejorada impulsada por la armonía entre personas y tecnología. Sus soluciones tienen como objetivo la mejora integral de la gestión del negocio basado en la Inteligencia Artificial y en la Gestión del Cambio y Adopción Digital, poniendo a las personas en el centro de todo.
Con el 100% de capital propio, la consultora tecnológica lleva más de 20 años ofreciendo soluciones a multinacionales en España, Latinoamérica y Estados Unidos. Todo ello con un equipo formado por 2.000 profesionales y con una de las tasas de fidelización más altas del sector.