Las instituciones de la Unión Europea negocian desde esta semana la regulación de la inteligencia artificial después de que el miércoles el Parlamento Europeo aprobó su posición al respecto, primer paso para llegar a una norma para toda la Unión Europea.
(Además: La función de Stonehenge, y la nueva teoría de la que tanto se habla).
Las negociaciones con la Comisión Europea (brazo ejecutivo del bloque) y con los gobiernos de los 27 Estados miembro arrancaron la misma noche del miércoles. Europa quiere ir rápido porque estima que su regulación puede convertirse en el estándar mundial debido a que el peso del mercado europeo fuerza a las empresas a adaptarse. Eso sumado a que el proyecto de ley a negociación crea obligaciones de transparencia y de control sobre esas tecnologías.
La posición aprobada por los eurodiputados es más estricta que la que defendieron en diciembre los gobiernos. El desafío ahora es alcanzar un texto común que sirva como la primera norma europea sobre inteligencia artificial.
(Puede leer: La enorme avalancha de rocas que se detuvo justo antes de impactar a un pueblo de Suiza).
Hay algunas diferencias claras, como que los eurodiputados no aceptan “los usos intrusivos y discriminatorios de la inteligencia artificial” (sistemas de identificación biométrica a distancia, categorización de personas en función de raza, género, etnia u otras) o vigilancia policial predictiva (evaluar el riesgo de que alguien cometa un delito a través de aplicaciones de inteligencia artificial).
La presidenta del Parlamento Europeo, la maltesa Roberta Metsola, dijo tras la votación que “la inteligencia artificial forma ya parte de manera significativa de nuestras vidas y ha provocado una serie de dudas en materia de ética, escrutinio, innovación y la necesidad de dar con el marco regulador correcto”. Y añadió que “si hay algo en lo que no podemos admitir compromisos es en el hecho de que cada vez que la tecnología avanza tiene que ir de la mano de nuestros derechos fundamentales y valores democráticos”.
(Siga leyendo: Trabajo para colombianos en Alemania: buscan enfermeros y esto es lo que pagarán)

Parlamento Europeo.
Stephanie Lecocq. EFE
Si bien la propuesta de la Comisión Europea lleva dos años, durante muchos meses se arrastró sin avanzar, en especial por la polémica política que generó la capacidad de la inteligencia artificial de crear textos o imágenes como si fueran reales. No obstante, en los últimos dos meses se aceleró y el miércoles el voto fue de masivo apoyo: 499 eurodiputados votaron a favor, 28 en contra y 93 se abstuvieron.
El comisario europeo de Mercado Interior, el francés Thierry Breton, consideró que el voto muestra que se puede compaginar “confianza e innovación”. La idea es que las negociaciones con los gobiernos estén terminadas antes de finales de año, dentro del semestre de la presidencia española del Consejo de la Unión Europea.
No obstante, y pese a que se cumplan con estos plazos, la norma no será de aplicación al menos hasta finales de 2025.
(Puede leer: Rusia anuncia que celebrará elecciones en septiembre: ¿de qué se trata y qué implica?)
Los temas de alto riesgo
El acuerdo aprobado por el Parlamento Europeo recoge casi todas las líneas que marcaba la propuesta original de la Comisión Europea, que ya tenía en cuenta las reglas existentes en materia de seguridad de productos relacionados con la inteligencia artificial y que impondrá controles a cargo de las empresas.
De aprobarse como salió de la Eurocámara, la norma tendrá una lista de imposiciones a todas las aplicaciones de inteligencia artificial que se consideren “de alto riesgo”: las que se usan en asuntos sensibles como infraestructuras, educación, recursos humanos, mantenimiento del orden, gestión de migraciones, sanidad y otras.
Entre esas obligaciones los eurodiputados quisieron dejar algunas muy claras, como que siempre debe haber un control humano sobre la aplicación de inteligencia artificial, que debe tener una documentación técnica y un sistema de gestión de riesgos.
(Le puede interesar: ¿Por qué Italia tiene un presidente y un primer ministro? Le contamos)
Para aplicaciones de generación de contenidos como ChatGPT se prepara un régimen específico de obligaciones y serán tratadas como “aplicaciones de alto riesgo”. Esa norma obligará a que la aplicación le comunique al usuario que está relacionándose con una máquina y no con un humano o, por ejemplo, que las aplicaciones que generan imágenes dejen claro que se crearon de forma artificial y que no son una imagen real. También pasará con los textos generados por aplicaciones como ChatGPT.

Las advertencias sobre los peligros de la inteligencia artificial, si es usada con fines espurios, se repiten y muchas llegan desde las personas que están involucradas en su gestación.
iStock
Disputa por frenos
La postura aprobada por el Parlamento Europeo también incluye prohibiciones de uso de esas tecnologías, pero serán pocas y claramente delimitadas.
De salir adelante la propuesta que votaron los eurodiputados, en Europa estará prohibido el uso de la inteligencia artificial para la vigilancia y control de masas, como se hace en China. También se prohibirá que se use para hacer reconocimiento facial de personas a distancia y por orden de las fuerzas de seguridad.
No obstante, esa última propuesta puede generar una buena disputa con los gobiernos porque algunos quieren dejar la puerta abierta para su uso en ciertas ocasiones, como manifestaciones masivas o grandes eventos públicos.
(Además: ¿Historias positivas en medio de una guerra? Columna de Médicos sin Fronteras)
El Center for AI Safety publicó en marzo una columna firmada por 350 personas relacionadas con la inteligencia artificial, entre ellas los máximos directivos de aplicaciones como ChatGPT, DeepMind o Anthropic, en la que aseguran que “la reducción del riesgo de extinción (de la humanidad) por la inteligencia artificial debe ser una prioridad mundial al mismo nivel que otros riesgos como las pandemias o la guerra nuclear”. Las advertencias sobre los peligros de la inteligencia artificial, si es usada con fines espurios, se repiten y muchas llegan desde las personas que están involucradas en su gestación y posterior crecimiento.
(Lea también: ChatGPT: ¿la inteligencia artificial le podría quitar su trabajo?)
La reducción del riesgo de extinción (de la humanidad) por la inteligencia artificial debe ser una prioridad mundial al mismo nivel que otros riesgos como las pandemias o la guerra nuclear.
¿Por qué hay prisa?
Las prisas europeas se deben también a la carrera desatada entre grandes potencias para regular el sector.
La Unión Europea va por delante, pero el Reino Unido no quiere perder el tren y Estados Unidos y China están preparando sus propias regulaciones. Todos ven un mundo de oportunidades y muchos riesgos.
El Reino Unido estima que tiene la capacidad de innovación suficiente para competir con la Unión Europea, pero sabe que no tiene su capacidad regulativa, así que buscará otro papel. El Gobierno británico organizará en octubre una cumbre mundial sobre seguridad en materia de inteligencia artificial y propone ser sede de un regulador mundial que copie, por ejemplo, a la Organización Europea sobre la Investigación Nuclear (CERN), pero la Unión Europea va por delante en la carrera de su regulación porque será el primer bloque que regule y establezca los estándares.
(Le recomendamos: Unión Europea aprueba regular el uso de la inteligencia artificial: ¿qué significa?)
Además de la propuesta aprobada por el Parlamento Europeo, la Comisión Europea propone a las empresas “un pacto sobre inteligencia artificial” y la comisaria europea de Competencia, la danesa Margrethe Vestager, prepara un código de conducta internacional sobre inteligencia artificial que la UE llevará al G7 y a potencias como India.
En tanto, europeos y estadounidenses usan su Consejo de Comercio y Tecnologías, foro transatlántico de discusión política, para acercar sus futuras regulaciones lo máximo posible. Aunque sus posiciones en este asunto están todavía alejadas.
Europa sabe que Washington prefiere responsabilizar a las empresas y que los textos que van saliendo de la administración Biden son por ahora guías, no normativas de obligado cumplimiento. La Casa Blanca confía en las empresas. Bruselas no. De ahí que la Comisión Europea prefiere legislar y sabe que el tamaño de su mercado (447 millones de personas y varios de los países más ricos del mundo) le permite hacerlo sin correr el riesgo de perder inversión y empresas, que a la larga tendrán que acomodarse a lo que legisle el bloque si no quiere arriesgarse a perder mercado tan suculento.
IDAFE MARTÍN PÉREZ
PARA EL TIEMPO
BRUSELAS
En Twitter: @IdafeMartin