👁Visitas: 4110002

ia-Rst4FxTPCVuYpUTmgZd9kSM-1200x840@diario_abc

Europa aprueba la primera ley de inteligencia artificial de la historia

La Unión Europea ya tiene, definitivamente, su Ley de Inteligencia Artificial (IA). Después de años de negociación y de cambios, el Parlamento europeo ha dado hoy, finalmente, luz verde a la normativa, con 523 votos a favor y solo 46 en contra, que entrará en funcionamiento en su totalidad a mediados de 2026. A estas alturas, lo único que queda es que los Estados miembro den su visto bueno al texto definitivo, algo que a estas alturas es poco más que un mero trámite, y que este aparezca publicado en el Diario Oficial de la UE; algo que ocurrirá, seguramente, antes de verano. Hecho esto, el reloj comenzará a correr para su plena aplicación en un plazo de dos años.

«Finalmente tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia. Gracias al Parlamento, se prohibirán en Europa prácticas inaceptables de IA y se protegerán los derechos de los trabajadores y los ciudadanos», ha afirmado el eurodiputado italiano Brando Benifei, coponente de la ley.

«La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora debemos centrarnos en la aplicación práctica de la legislación», ha destacado, por su parte, el otro ponente de la norma, el rumano Dragos Tudorache.

La Ley de IA no busca regular la tecnología como tal; sino garantizar que su empleo en el mercado europeo sea seguro y acorde a los derechos de los ciudadanos. Por eso mismo, los sistemas se clasifican en distintos grupos en función de su potencial peligrosidad. Y algunos quedan prohibidos. Ese es el caso de aquellos que están destinados a la puntuación social -que se aplica en países como China-, la categorización biométrica de los ciudadanos para diferir raza, credo o ideología o el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas.

Reconocimiento facial

El uso de IA para la actuación policial predictiva -que se aplica normalmente en lugares con poco bagaje democrático- y la identificación biométrica remota en tiempo real, en lugares de acceso público por parte de las fuerzas y cuerpos de seguridad, también quedan prohibidas. Aunque, en este segundo caso, con excepciones. La tecnología se podrá emplear para la investigación de dieciséis delitos concretos; entre ellos, la lucha contra el terrorismo, la trata de blancas o la localización de desaparecidos o víctimas de secuestros. Por norma general, su uso está sujeto a la autorización previa de una autoridad judicial o administrativa independiente.

El empleo de tecnología de reconocimiento facial en espacios públicos ha sido uno de los mayores puntos de disensión entre el Parlamento, que ya estaba bastante dividido en este punto, y el Consejo de la UE. El primero quería prohibir completamente su empleo, mientras que el segundo, finalmente, ha conseguido su aceptación bajo condiciones muy estrictas.

El uso de sistemas de inteligencia artificial para la identificación biométrica remota posterior (identificación de personas en material de vídeo recogido previamente) de personas investigadas también requerirá de autorización previa.

ChatGPT no se salva

La normativa también recoge obligaciones especiales para los sistemas de IA alto riesgo, que deberán contar con protocolos adecuados de evaluación y mitigación de posibles peligros. Aquí se engloba el empleo de inteligencia artificial en infraestructuras críticas, en herramientas que otorguen acceso a educación, empleo y ayudas públicas y privadas o a la gestión de la migración, el asilo y el control fronterizo.

La Ley de IA también afecta de lleno a herramientas movidas por inteligencia artificial, como ChatGPT, y a la tecnología que hay debajo de las mismas. De acuerdo con la normativa, estas herramientas deberán cumplir con obligaciones de transparencia.

Por ejemplo, el contenido generado -da igual si es texto, audio, imágenes o vídeo- deberá ser marcado por los desarrolladores como ‘creado con IA’. Las empresas también tendrán que cumplir con la normativa de derechos de autor para capacitar a sus herramientas. Estas también tendrán que compartir información con la UE sobre incidentes de seguridad y acerca del consumo de energía.

«El texto de la ley es correcto y, además, se ha flexibilizado con el tiempo. Lo que me preocupa es que todas estas condiciones terminen afectando a la innovación en Europa», explica a este periódico Sergio Carrasco Mayans, jurista especializado en asuntos tecnológicos. De acuerdo con el experto, el que las compañías tengan que cumplir con tantas obligaciones puede dificultar que nazca en suelo comunitario una alternativa real a OpenAI y su ChatGPT. Un puesto al que, entre otras, aspira la startup francesa Mistral, que en diciembre de recibió una ronda de financiación de 385 millones de euros.
Un largo camino

Con la aprobación de esta ley, que aspira a convertirse en una fuente de inspiración para otras regulaciones pensadas para controlar los usos y desarrollos de la IA, la Unión Europea se adelanta a países como Estados Unidos, que sigue estudiando cómo manejar la tecnología. La normativa fue presentada por primera vez ante el Parlamento en 2021 y, desde entonces, ha sufrido numerosos cambios y se ha visto enormemente afectada por la estruendosa llegada de ChatGPT y demás soluciones de inteligencia artificial generativa a la red.

El pasado diciembre, todavía bajo presidencia europea, el Consejo y el Parlamento alcanzaron un principio de acuerdo para la aprobación de la normativa; que en febrero fue respaldado por el Comité de Representantes Permanentes (COREPER) de los distintos estados que conforman la UE.

La ley no será efectiva en su plenitud hasta 2026. Sin embargo, algunas de las obligaciones que contiene llegarán antes. Seis meses después de su entrada en vigor, que tendrá lugar en el momento en el que se publique en el Diario Oficial de la UE, los estados tendrán que ir eliminando progresivamente los sistemas prohibidos. Al año, las herramientas como ChatGPT deberán comenzar a compartir más datos y a demostrar que respetan las leyes de derechos de autor.

La normativa fija multas por incumplimiento que pueden ascender hasta 35 millones de euros o el 7 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior.

Tomado de ABC

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *