Temor a que Bruselas relaje la ley de inteligencia artificial en medio de la guerra comercial con EEUU

Temor a que Bruselas relaje la ley de inteligencia artificial en medio de la guerra comercial con EEUU

La Comisión Europea abre la puerta a revisar una de sus leyes estrella de la pasada legislatura, muy criticada por el equipo de Trump y las grandes tecnológicas de EEUU

La UE aprueba los primeros aranceles en respuesta a los de Trump con el voto en contra de Hungría

La vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen, ha presentado este miércoles el Plan de Acción del Continente de IA, la estrategia del nuevo colegio de comisarios liderado por Ursula von der Leyen para esta legislatura. El plan incluye el impulso de “gigafábricas de IA” con “una potencia de computación masiva” o medidas para facilitar el “acceso a grandes volúmenes de datos de alta calidad”. No obstante, es su último punto, relativo a la “simplificación regulatoria”, el que más ha llamado la atención de la propuesta.

La decisión de incluir este punto coincide con los avisos de expertos y eurodiputados de que Bruselas podría estar barajando relajar algunas de las normas de la Ley europea de Inteligencia Artificial aprobada el año pasado. Virkkunen ha evitado entrar en detalle sobre qué implicaciones tendría el proceso de “simplificación” de la normativa ante las preguntas de los periodistas. “No se trata solo de la inteligencia artificial. Estamos revisando toda la normativa para ver si podemos reducir la burocracia de nuestra industria o podemos reducir las obligaciones de notificación”, ha declarado.

El movimiento llega en medio de la guerra comercial con EEUU y después de que tanto su Gobierno como sus grandes multinacionales tecnológicas criticaran abiertamente el nuevo Reglamento. Este, pactado durante la presidencia española de la UE tras largas negociaciones, establece una escala de riesgos que clasifica los sistemas de IA en función de su impacto sobre los derechos fundamentales, desinformación y transparencia. En ella, los sistemas de alto riesgo deben cumplir con requisitos de trazabilidad, supervisión humana y documentación técnica, similares a los impuestos a los modelos más potentes, como ChatGPT y los asimilables a él que desarrollan empresas como Meta o Google.

Donald Trump y su vicepresidente, JD Vance, han sido abiertamente hostiles hacia estas normas. “Necesitamos regímenes regulatorios internacionales que fomenten la creación de tecnología de IA en lugar de asfixiarla, y necesitamos que nuestros amigos europeos, en particular, miren hacia este nuevo horizonte con optimismo en lugar de temor”, espetó Vance ante la plana mayor europea en la cumbre de París sobre IA.

EEUU se negó a firmar la declaración resultante de la cumbre, que aboga por “garantizar que la IA sea abierta, inclusiva, transparente, ética, segura y fiable, teniendo en cuenta los marcos internacionales para todos”, así como “hacer que la IA sea sostenible para las personas y el planeta”.

Algunas de sus grandes tecnológicas han sido aún más directas. Joel Kaplan, jefe de Asuntos Globales de Meta, ha dicho que el Reglamento impone “requisitos inviables e irrealizables desde el punto de vista técnico”. “Los reguladores europeos han medido su éxito basándose en la cantidad y el tamaño de las multas que han podido imponer a las empresas tecnológicas estadounidenses”, ha afirmado, señalando que las sanciones de Bruselas contra ellas “son casi como un arancel”. Mark Zuckerberg hizo la misma comparación a finales de 2024.

Cambiar el sentido de la ley a través del Código de Conducta

El foco de atención está ahora en un Código de Buenas Prácticas voluntario en materia de IA que la Comisión Europea encargó a un grupo de expertos, que incluye a personalidades como el ganador del Premio Turing y del Premio Princesa de Asturias Yoshua Bengio. Se está redactando en colaboración con la industria y su objetivo es definir un manual claro para que las empresas puedan poner en práctica la ley de IA. Sin embargo, ha surgido el temor de que el texto se use para suavizar dichas normas.

A finales de marzo, el grupo de eurodiputados encargados de la negociación del Reglamento, junto con Carme Artigas, ex secretaria de Estado de Digitalización e IA que representó la presidencia de España, enviaron una carta a la Comisión alertando del “peligro” que suponía que el Código terminara suponiendo una vía para relajar las nuevas normas. El motivo es que en el segundo borrador del texto, algunas de las reglas para los modelos como ChatGPT que en la ley aparecían como “obligatorias” pasaban a ser “voluntarias”.

“La evaluación y mitigación de diversos riesgos para los derechos fundamentales y la democracia ahora es repentinamente completamente voluntaria para los proveedores de modelos de IA de propósito general”, avisan en la misiva, a la que ha tenido acceso elDiario.es. “Esta nunca fue la intención del acuerdo”, enfatizaron: “Si los proveedores de los modelos de IA adoptaran posiciones políticas más extremas, implementaran políticas que socaven la fiabilidad del modelo, facilitaran la injerencia extranjera o la manipulación electoral, contribuyeran a la discriminación, restringieran la libertad de información o difundieran contenido ilegal, las consecuencias podrían perturbar profundamente la economía y la democracia de Europa”.

El borrador también ha sido criticado por una coalición de organizaciones de gestión de derechos de autor, que alegan que “no se alinea con los objetivos cuidadosamente diseñados de la Ley sobre Inteligencia Artificial, poniendo en peligro a los creadores culturales de Europa”. Por su parte, la Asociación de la Industria de la computación y la Asociación de la Industria Informática y de Comunicaciones, un think tank con sede en Washington al que pertenecen las grandes tecnológicas de EEUU, ha manifestado que el borrador “sigue sin proporcionar a las empresas la seguridad jurídica necesaria para impulsar la innovación en IA en Europa” y obliga a “costosas evaluaciones de riesgos”.

“Simplificación” en medio de la guerra comercial

Virkkunen ha reconocido que es “consciente de las críticas” que ha generado el borrador y recuerda que no será la versión definitiva que los expertos presenten a su equipo. En este sentido, Thomas Regnier, portavoz de la Comisión en materia de Soberanía Digital, ha explicado a elDiario.es que “la publicación de la cuarta y última versión del primer Código de Buenas Prácticas está prevista para mayo”. Tras ello, Bruselas evaluará el texto. “La Comisión se reserva su posición en esta fase a la espera del proyecto final”, ha indicado Regnier.

El proceso, que llega en medio de la guerra comercial abierta con EEUU, se solapa contra la decisión polémica por parte de la Comisión Europea que tiene que ver con la inteligencia artificial. Este 2025, Bruselas y el Parlamento Europeo estaban negociando una directiva para dirimir responsabilidades en caso de que esta tecnología cause daños y que debía complementar lo expuesto en el reglamento. Sin embargo, el equipo de Virkkunen retiró la propuesta justo después de las críticas de JD Vance al exceso de regulación.

“No he escuchado ningún argumento sustancial por parte de la Comisión Europea que explique por qué este expediente crucial debería ser retirado. La razón es simple: no hay argumento”, ha denunciado este miércoles el eurodiputado alemán Axel Voss (PP Europeo) tras una reunión con Virkkunen. “Quiero subrayar que todos los grupos políticos de la Comisión Jurídica, excepto uno, rechazan cualquier tipo de retirada”, ha aseverado.

Presión contra la regulación

La Comisión Europea ha evitado responder a las preguntas de este medio sobre si el resultado final del Código de Buenas Prácticas sobre IA está abierto a la negociación con EEUU en medio de la guerra comercial. Mientras, se reserva su posición sobre si la “simplificación” del Reglamento relajará algunas de las normas que las multinacionales estadounidenses ven “inviables e irrealizables”. Durante la rueda de prensa, Virkkunen ha enfatizado que su objetivo es evitar que la sobrerregulación afecte a la capacidad competitiva de las pymes europeas.

“El discurso de la no regulación y de hacer todo el lobby posible para que no existiera regulación europea lo hemos vivido durante cuatro años. Los que hemos estado en la negociación sabemos toda la presión que se ha ejercido para ello, desde dentro y desde fuera de Europa”, recuerda Carme Artigas, que ahora copreside el Órgano Consultivo de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas y es miembro del consejo asesor de Llorente y Cuenca. “Esto no es nuevo, esto vuelve a salir ahora y se pone en el mismo tablero”.

La ex secretaria de Estado llama la atención sobre el hecho de que “Europa está perdiendo la batalla de la narrativa” en esta área. “Nos estamos creyendo que lo estamos haciendo mal, que estamos perjudicando a las empresas. Es todo lo contrario: la regulación no mata la innovación, sino que está pensada para generar un espacio de confianza para adaptar de manera masiva la IA. No tenemos que dejarnos confundir. Tenemos mucho camino para mejorar y simplificar la burocracia en Europa, pero eso es compatible con hacer que el desarrollo tecnológico respete los valores europeos”.