La UE acuerda una ley sobre inteligencia artificial, un reglamento histórico para la inteligencia artificial

Los responsables políticos de la Unión Europea aprobaron el viernes una nueva y amplia ley para regular la inteligencia artificial, uno de los primeros intentos integrales del mundo para limitar el uso de una tecnología en rápida evolución que tiene amplias implicaciones sociales y económicas.

La ley, llamada Ley de IA, establece un nuevo punto de referencia global para los países que buscan aprovechar los beneficios potenciales de la tecnología, al mismo tiempo que intentan protegerse contra sus posibles riesgos, como la automatización del trabajo, la difusión de información falsa en línea y poner en peligro la seguridad nacional. La ley aún necesita pasar por algunos pasos finales antes de ser aprobada, pero el acuerdo político significa que sus líneas generales ya están establecidas.

Los formuladores de políticas europeas se han centrado en los usos más riesgosos de la IA por parte de empresas y gobiernos, incluidos aquellos para la aplicación de la ley y la operación de servicios cruciales como el agua y la energía. Los creadores de los sistemas de inteligencia artificial de uso general más grandes, como los que impulsan el chatbot ChatGPT, enfrentarían nuevos requisitos de transparencia. Los chatbots y el software que crean imágenes manipuladas como los «deepfakes» deberían dejar claro que lo que la gente ve fue generado por IA, según funcionarios de la UE y versiones anteriores de la ley.

El uso de software de reconocimiento facial por parte de la policía y los gobiernos estaría restringido fuera de ciertas exenciones de seguridad nacional y de seguridad. Las empresas que violen las regulaciones podrían enfrentar multas de hasta el 7% de sus ventas globales.

«Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como emisor de normas globales», dijo Thierry Breton, el comisario europeo que contribuyó a las negociaciones. el acuerdodijo en un comunicado.

Sin embargo, aunque la ley fue aclamada como un avance regulatorio, persistieron dudas sobre su efectividad. No se espera que muchos aspectos de esta política entren en vigor hasta dentro de 12 a 24 meses, un período de tiempo considerable para el desarrollo de la IA. Y hasta el último minuto de las negociaciones, los formuladores de políticas y los países pelearon sobre el texto y sobre cómo lograr un equilibrio entre la promoción de la innovación y la necesidad de protegerse contra posibles daños.

El acuerdo alcanzado en Bruselas requirió tres días de negociaciones, incluida una primera sesión de 22 horas que comenzó el miércoles por la tarde y se prolongó hasta el jueves. El acuerdo final no se hizo público de inmediato porque se espera que continúen las discusiones entre bastidores para ultimar los detalles técnicos, lo que podría retrasar la adopción final. Votos Debe llevarse a cabo en el Parlamento y en el Consejo Europeo, que incluye representantes de los 27 países de la Unión.

La regulación de la IA ha adquirido urgencia tras el lanzamiento del año pasado de ChatGPT, que se convirtió en una sensación mundial al demostrar las capacidades avanzadas de la IA. En Estados Unidos, la administración Biden emitió recientemente una orden ejecutiva centrada en parte en los efectos de la IA en la seguridad nacional. Gran Bretaña, Japón y otros países han adoptado un enfoque más no intervencionista, mientras que China ha impuesto algunas restricciones al uso de datos y algoritmos de recomendación.

El problema es miles de millones de dólares en valor estimado ya que se espera que la IA remodele la economía global. “La dominación tecnológica precede a la dominación económica y a la dominación política”, Jean-Noël Barrot, ministro francés de Digital, dicho esta semana.

Europa ha sido una de las regiones más avanzadas en la regulación de la IA, habiendo comenzado a trabajar en lo que se convertiría en una ley de IA en 2018. En los últimos años, los líderes de la UE intentaron llevar un nuevo nivel de supervisión a la tecnología, similar a la regulación sanitaria. sector sanitario o sector bancario. El bloque ya ha promulgado leyes de gran alcance relacionadas con la privacidad de datos, la competencia y la moderación de contenidos.

En 2021 se publicó una versión inicial de la ley de IA, pero los responsables de la formulación de políticas se vieron obligados a reescribir la ley a medida que surgían avances tecnológicos. El lanzamiento inicial no mencionó modelos de inteligencia artificial de uso general como los que impulsan ChatGPT.

Los formuladores de políticas acordaron lo que llamaron un “enfoque basado en el riesgo” para regular la IA, en el que un conjunto definido de aplicaciones están sujetas a la mayor supervisión y restricciones. Las empresas que fabrican herramientas de IA que pueden causar el mayor daño a las personas y a la sociedad, por ejemplo en la contratación y la educación, deberían proporcionar a los reguladores evidencia de evaluación de riesgos, un desglose de los datos utilizados para entrenar los sistemas y garantías de que el software lo ha hecho. no causar daños tales como perpetuar prejuicios raciales. También se requeriría supervisión humana durante la creación y el despliegue de los sistemas.

Ciertas prácticas, como la extracción ciega de imágenes de Internet para crear una base de datos de reconocimiento facial, se prohibirían por completo.

El debate sobre la Unión Europea ha sido polémico, una señal de cómo la IA ha confundido a los legisladores. Los funcionarios de la UE estaban divididos sobre cuánto regular los nuevos sistemas de inteligencia artificial, por temor a perjudicar a las nuevas empresas europeas que intentan alcanzar a las empresas estadounidenses como Google y OpenAI.

La ley agregó requisitos para que los fabricantes de los modelos de IA más grandes revelen información sobre el funcionamiento de sus sistemas y evalúen el “riesgo sistémico”, dijo Breton.

Las nuevas regulaciones serán monitoreadas de cerca a nivel mundial. No sólo afectarán a los grandes desarrolladores de IA como Google, Meta, Microsoft y OpenAI, sino también a otras empresas que se espera que utilicen la tecnología en áreas como la educación, la atención sanitaria y la banca. Los gobiernos también están recurriendo más a la IA en la justicia penal y la asignación de beneficios públicos.

La aplicación sigue sin estar clara. La ley de IA involucrará a reguladores de 27 países y requerirá la contratación de nuevos expertos en un momento en que los presupuestos gubernamentales son ajustados. Es probable que se presenten desafíos legales a medida que las empresas prueben las nuevas reglas en los tribunales. La legislación anterior de la UE, incluida la histórica ley de privacidad digital conocida como Reglamento General de Protección de Datos, ha sido criticada por su aplicación desigual.

«La destreza regulatoria de la UE está siendo cuestionada», dijo Kris Shrishak, miembro del Consejo Irlandés para las Libertades Civiles, que ha asesorado a los legisladores de la UE sobre la ley de IA. “Sin una aplicación estricta, este acuerdo no tendrá sentido. »

You may also like...