La presidencia del Consejo de la UE y el Parlamento Europeo han sellado un acuerdo provisional para ajustar la Ley de Inteligencia Artificial (IA), introduciendo prohibiciones estrictas contra el uso malicioso de esta tecnología. El pacto pone el foco en la protección de la intimidad al vetar los sistemas destinados a generar imágenes sexuales o íntimas sin consentimiento, así como el material de abuso infantil creado artificialmente. Además, las empresas desarrolladoras de modelos de uso general estarán obligadas a implementar «medidas de seguridad razonables» para frenar la proliferación de estos contenidos.
A pesar de este endurecimiento en materia ética, las instituciones han decidido otorgar un respiro al sector tecnológico mediante el aplazamiento de varios plazos clave. Las obligaciones de transparencia, que exigen que los contenidos generados por IA (como vídeos o audios) sean identificables como tales, se han pospuesto hasta diciembre de este año. Del mismo modo, los sistemas de IA considerados de «alto riesgo» —aquellos aplicados en sanidad, educación o banca— no tendrán que cumplir con la normativa completa hasta diciembre de 2027, un retraso motivado por la falta de estándares técnicos actuales.
Este paquete de modificaciones se integra en la iniciativa Omnibus VII, con la que Bruselas pretende simplificar la burocracia digital, especialmente para las pequeñas y medianas empresas. Para aliviar la presión sobre el tejido empresarial, el acuerdo amplía las exenciones regulatorias a compañías de mediana capitalización y permite a los Estados miembros retrasar hasta agosto de 2027 la creación de entornos de pruebas o «sandboxes». El objetivo es facilitar una transición tecnológica que no asfixie la competitividad de las empresas europeas frente a otros mercados.
Un punto relevante del acuerdo es la eliminación de duplicidades normativas en productos que ya cuentan con legislación específica. Dispositivos médicos, juguetes, ascensores y maquinaria industrial no tendrán que cumplir requisitos redundantes de la Ley de IA si ya están sujetos a normas sectoriales equivalentes. No obstante, las autoridades han mantenido la obligatoriedad de que las empresas registren sus sistemas en la base de datos europea, incluso si consideran que están exentas de la categoría de alto riesgo, para garantizar una supervisión mínima.
Finalmente, el texto aclara las competencias de supervisión y la gestión de datos. Se ha restablecido el criterio de «estricta necesidad» para el uso de datos personales sensibles al corregir sesgos en los algoritmos, reforzando la protección de la privacidad. Respecto a la vigilancia, la Oficina Europea de IA supervisará los modelos de propósito general, aunque las autoridades nacionales mantendrán el control en áreas críticas y sensibles como el control fronterizo, la justicia y las fuerzas de seguridad, preservando así la soberanía estatal en funciones de orden público.