Las primeras normas europeas sobre IA en el mundo obtienen la aprobación final de los legisladores. Esto es lo que sucede a continuación

LONDRES (AP) — Los legisladores de la Unión Europea dieron el miércoles su aprobación final a la ley de inteligencia artificial del bloque de 27 naciones, con lo que las normas líderes a nivel mundial están en camino de entrar en vigor a finales de este año.

 Los legisladores del Parlamento Europeo votaron abrumadoramente a favor de la Ley de Inteligencia Artificial, cinco años después de que se propusieron por primera vez las regulaciones.  Se espera que la Ley de IA actúe como una señal global para otros gobiernos que luchan por regular esta tecnología de rápido desarrollo.

 “La Ley de IA ha impulsado el futuro de la IA en una dirección centrada en el ser humano, en una dirección en la que los humanos tienen el control de la tecnología y donde ella (la tecnología) nos ayuda a aprovechar nuevos descubrimientos, el crecimiento económico, el progreso social y desbloquear el potencial humano. ”, dijo antes de la votación Dragos Tudorache, un legislador rumano que fue uno de los líderes de las negociaciones del Parlamento sobre el proyecto de ley.

 Las grandes empresas de tecnología en general han apoyado la necesidad de regular la IA y al mismo tiempo han presionado para garantizar que las reglas funcionen a su favor.  El director ejecutivo de OpenAI, Sam Altman, causó un pequeño revuelo el año pasado cuando sugirió que el fabricante de ChatGPT podría retirarse de Europa si no puede cumplir con la Ley de IA, antes de dar marcha atrás y decir que no había planes de irse.

 He aquí un vistazo al primer conjunto completo de reglas de IA del mundo:

 

¿CÓMO FUNCIONA LA IA?

Al igual que muchas regulaciones de la UE, la Ley de IA inicialmente tenía como objetivo actuar como legislación de seguridad del consumidor, adoptando un “enfoque basado en el riesgo” para los productos o servicios que utilizan inteligencia artificial.

 Cuanto más riesgosa es una aplicación de IA, más escrutinio enfrenta.  Se espera que la gran mayoría de los sistemas de IA sean de bajo riesgo, como los sistemas de recomendación de contenidos o los filtros de spam.  Las empresas pueden optar por seguir requisitos y códigos de conducta voluntarios.

 Los usos de alto riesgo de la IA, como en dispositivos médicos o infraestructuras críticas como redes de agua o eléctricas, enfrentan requisitos más estrictos, como el uso de datos de alta calidad y el suministro de información clara a los usuarios.

 Algunos usos de la IA están prohibidos porque se considera que plantean un riesgo inaceptable, como los sistemas de puntuación social que rigen el comportamiento de las personas, algunos tipos de vigilancia policial predictiva y sistemas de reconocimiento de emociones en las escuelas y los lugares de trabajo.

 Otros usos prohibidos incluyen el escaneo policial de rostros en público utilizando sistemas remotos de “identificación biométrica” impulsados ​​por inteligencia artificial, excepto en el caso de delitos graves como secuestro o terrorismo.


¿Y LA IA GENERATIVA?

Los primeros borradores de la ley se centraron en sistemas de inteligencia artificial que realizaban tareas muy limitadas, como escanear currículums y solicitudes de empleo.  El sorprendente aumento de los modelos de IA de propósito general, ejemplificado por ChatGPT de OpenAI, hizo que los responsables políticos de la UE se esforzaran por mantenerse al día.

 Agregaron disposiciones para los llamados modelos de IA generativa, la tecnología que sustenta los sistemas de chatbot de IA que pueden producir respuestas, imágenes y más únicas y aparentemente realistas.

 Los desarrolladores de modelos de inteligencia artificial de propósito general (desde nuevas empresas europeas hasta OpenAI y Google) deberán proporcionar un resumen detallado del texto, imágenes, videos y otros datos en Internet que se utilizan para entrenar los sistemas, así como cumplir con la ley de derechos de autor de la UE.

 Las imágenes, vídeos o audios deepfake generados por IA de personas, lugares o eventos existentes deben etiquetarse como manipulados artificialmente.

 Hay un escrutinio adicional para los modelos de IA más grandes y poderosos que plantean “riesgos sistémicos”, que incluyen GPT4 de OpenAI (su sistema más avanzado) y Gemini de Google.

 La UE dice que le preocupa que estos poderosos sistemas de inteligencia artificial puedan "causar accidentes graves o ser utilizados indebidamente para ataques cibernéticos de gran alcance".  También temen que la IA generativa pueda difundir “sesgos dañinos” en muchas aplicaciones, afectando a muchas personas.

 Las empresas que proporcionen estos sistemas tendrán que evaluar y mitigar los riesgos;  informar de cualquier incidente grave, como mal funcionamiento que cause la muerte a una persona o daños graves a la salud o la propiedad;  implementar medidas de ciberseguridad;  y revelar cuánta energía utilizan sus modelos.

 

¿INFLUYEN LAS NORMAS EUROPEAS EN EL RESTO DEL MUNDO?

Bruselas sugirió por primera vez regulaciones de IA en 2019, asumiendo un papel global familiar al intensificar el escrutinio de las industrias emergentes, mientras otros gobiernos luchan por mantenerse al día.

 En Estados Unidos, el presidente Joe Biden firmó en octubre una amplia orden ejecutiva sobre IA que se espera que esté respaldada por legislación y acuerdos globales.  Mientras tanto, los legisladores de al menos siete estados de EE. UU. están trabajando en su propia legislación sobre IA.

 El presidente chino, Xi Jinping, propuso su Iniciativa Global de Gobernanza de la IA para un uso justo y seguro de la IA, y las autoridades han emitido “medidas provisionales” para gestionar la IA generativa, que se aplica a textos, imágenes, audio, vídeo y otros contenidos generados para personas dentro de China. .

 Otros países, desde Brasil hasta Japón, así como agrupaciones globales como las Naciones Unidas y el Grupo de los Siete países industrializados, están tomando medidas para trazar barreras de seguridad para la IA.


QUE PASA A CONTINUACIÓN?

Se espera que la Ley de IA se convierta oficialmente en ley en mayo o junio, después de algunas formalidades finales, incluida la bendición de los países miembros de la UE.  Las disposiciones comenzarán a entrar en vigor por etapas y los países deberán prohibir los sistemas de IA prohibidos seis meses después de que las normas entren en los libros legales.

 Las reglas para los sistemas de inteligencia artificial de uso general, como los chatbots, comenzarán a aplicarse un año después de que la ley entre en vigor.  A mediados de 2026, estará en vigor el conjunto completo de regulaciones, incluidos los requisitos para sistemas de alto riesgo.

 En lo que respecta a la aplicación de la ley, cada país de la UE creará su propio organismo de control de la IA, donde los ciudadanos podrán presentar una queja si creen que han sido víctimas de una violación de las normas.  Mientras tanto, Bruselas creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para los sistemas de IA de uso general.

 Las violaciones de la Ley de IA podrían generar multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.

 Esta no es la última palabra de Bruselas sobre las normas de IA, dijo el legislador italiano Brando Benifei, codirector del trabajo del Parlamento sobre la ley.  Podría haber más legislación relacionada con la IA después de las elecciones de verano, incluso en áreas como la IA en el lugar de trabajo que la nueva ley cubre en parte, dijo.