IA: Bruselas se globaliza

Risto Uuk



Qué pueden aprender países grandes como India y Estados Unidos del enfoque de la UE para regular la IA?


India presta atención a la Ley de IA: Shweta Bharti, socia gerente de Hammurabi & Solomon Partners, y Pranshu Singh, asociado de la firma, escribieron un artículo de opinión comparando el enfoque de la India con la Ley de la UE. Bharti y Singh afirman que la ley de la UE tiene implicaciones globales, incluso para India, que ya está trabajando en su propio marco de IA responsable. El "Efecto Bruselas" se ha referido durante mucho tiempo a la forma en que las regulaciones de la UE pueden influir en los estándares de naciones fuera de Europa, impactando la cooperación comercial y tecnológica, y la India no es una excepción. Las empresas indias que prestan servicios a clientes de la UE pueden enfrentar cargas de cumplimiento e impactos adicionales debido a la evaluación de riesgos de los modelos de IA. Aunque el impacto exacto sigue siendo incierto, la Ley plantea las siguientes posibilidades: 1) debido al vasto mercado de la UE, India podría considerar alinear algunas de sus políticas de IA para garantizar que el comercio no se vea obstaculizado; 2) esta alineación puede ser una oportunidad para la colaboración en el desarrollo y despliegue responsable de la IA; 3) puede facilitar el intercambio de datos y la colaboración en materia de IA; y 4) los aprendizajes políticos derivados de las implementaciones de la UE ofrecen vías para que la India navegue por una regulación eficaz de la IA.

¿Qué pasa con la IA de propósito general? Thanos Rammos y Richard Gläser, socio y asociado del bufete de abogados Taylor Wessing, respectivamente, resumieron las disposiciones de IA de propósito general (GPAI) de la Ley de IA . Estos modelos, capaces de realizar diversas tareas distintas, se clasificarán en estándar, de licencia abierta y aquellos con riesgos sistémicos. Los proveedores de GPAI, y probablemente también aquellos que modifican los modelos existentes, deben cumplir requisitos de documentación detallados, permitir que los usuarios intermedios comprendan las capacidades y limitaciones del modelo, y elaborar y poner a disposición del público un resumen sobre el contenido utilizado para la capacitación. Además, aquellos que plantean riesgos sistémicos deben implementar medidas de ciberseguridad, realizar evaluaciones de modelos, evaluar y mitigar riesgos y documentar e informar incidentes. La aplicación de la ley será supervisada por la nueva Oficina de IA, con multas por incumplimiento de hasta el 3% de la facturación mundial total. También existen otras leyes relevantes que se relacionan con GPAI, incluido el GDPR para la privacidad, las leyes de derechos de autor para las excepciones a la minería de datos y las leyes de propiedad intelectual para los conflictos con la capacitación y la generación de resultados. Las normas GPAI de la Ley entran en vigor 12 meses después de su adopción.

Lo que Estados Unidos puede aprender: En City Journal, el economista principal de la Fundación para la Innovación Estadounidense, Samuel Hammond, advirtió a Estados Unidos que no debe emular la Ley de IA de la UE, con el argumento de que su enfoque basado en el riesgo para el despliegue de la IA se centra excesivamente en cuestiones de equidad en lugar de catastróficas. Riesgos de la IA. Hammond señala que la Ley impone obligaciones estrictas a los sistemas de IA de alto riesgo, incluida la aprobación previa a la comercialización en algunos casos, y plantea un riesgo legal por incumplimiento. Elogia el escrutinio especial de los desarrolladores de IA de uso general como la disposición más razonable y mejor orientada de la Ley. Sin embargo, en su opinión, las exigencias poco realistas de la ley y las posibles multas pueden disuadir a los desarrolladores estadounidenses de lanzar los últimos modelos en la UE. El autor afirma que un enfoque más inteligente se centraría únicamente en riesgos verdaderamente catastróficos y supervisaría los laboratorios de IA avanzados, retrasando una regulación más amplia hasta que surja una comprensión más clara.

Lo que Estados Unidos puede aprender (continuación): María Villegas Bravo, becaria de derecho de EPIC, escribió un artículo evaluando las fortalezas y debilidades de la Ley de IA, clasificándolas en "Lo bueno, lo malo y lo feo". En la sección "Lo bueno", Bravo elogia la prohibición de la ley sobre diversas aplicaciones intrusivas de IA y su reconocimiento de los riesgos que plantean ciertos algoritmos para los derechos fundamentales. Mientras tanto, "The Bad" destaca los desafíos en la regulación de los modelos de IA de propósito general (GPAI) y el software de código abierto, lo que lleva a disposiciones comprometidas. Finalmente, "The Ugly" subraya fallas en el manejo de los sistemas de identificación biométrica, particularmente la autorización de excepciones para uso policial. A la luz de esto, Bravo sugiere que Estados Unidos debería adoptar un enfoque diferente, evitando una estructura basada en daños debido a su falta de un marco sólido de derechos humanos. En cambio, aboga por una legislación integral sobre privacidad que sustente una regulación efectiva de la IA, enfatizando la importancia de las leyes de privacidad como base para cualquier futura legislación estadounidense sobre IA.

Mejores prácticas para deepfakes y transparencia de chatbots: el investigador Thomas Gils de The Knowledge Center Data & Society escribiósobre un proyecto que ejecutaron para explorar los requisitos de transparencia de deepfakes y chatbots según la Ley de IA. La Ley reconoce la transparencia para generar confianza y responsabilidad y describe los requisitos para los sistemas de IA de alto riesgo, ciertos sistemas de IA y modelos de IA de uso general. Los investigadores probaron estos requisitos realizando un ejercicio simulado de cumplimiento con las partes interesadas y recopilando sus comentarios. Para los chatbots y los deepfakes, surgieron tres mejores prácticas generales: 1) hacer que las exenciones de responsabilidad sean accesibles a audiencias diversas, incluidas aquellas con discapacidades, mediante el uso de diversos modos de comunicación, como escrito, visual y oral; 2) proporcionar la cantidad adecuada de información, manteniendo la proporcionalidad y el equilibrio para evitar abrumar a los usuarios; 3) adaptar las exenciones de responsabilidad al público objetivo previsto y potencial para abordar las necesidades de accesibilidad e información de manera efectiva.

Reflexiones de varias partes interesadas: la reportera técnica Pascale Davies de Euronews informó sobre las perspectivas de los expertos en tecnología de diferentes sectores sobre la aprobación de la ley en el Parlamento Europeo. Max von Thun, del Open Markets Institute, elogia a Bruselas por su iniciativa, pero destaca las lagunas jurídicas y la débil regulación de los modelos de fundaciones más grandes, así como el fracaso de la ley a la hora de abordar el poder de las empresas tecnológicas dominantes. Por otra parte, Alex Combessie de Giskard acoge con satisfacción la ley y confía en su capacidad para hacer cumplir controles y equilibrios eficaces. Katharina Zügel, del Foro sobre Información y Democracia, aboga por normas más estrictas, en particular para los sistemas de inteligencia artificial en el ámbito de la información, para salvaguardar los derechos fundamentales. Julie Linn Teigland de EY enfatiza la importancia de la participación del sector privado para la competitividad de Europa, pero subraya la necesidad de que las empresas se preparen para el cumplimiento. Marianne Tordeux Bitker, de France Digitale, expresa su preocupación por las regulaciones excesivas que obstaculizan la competitividad europea de la IA. Finalmente, Risto Uuk (¡yo!), del Future of Life Institute, enfatiza la importancia de contar con recursos adecuados para la Oficina de IA y la participación de la sociedad civil en códigos de prácticas para la IA de uso general.



Fuente: Future of Life Institute. The EU AI Act Newsletter #49, EPIC.Org

Comentarios