Entra en vigor la nueva Ley Europea de la Inteligencia Artificial
Inteligencia Artificial
Por Risto Uuk
El 1 de agosto entró en vigor la Ley de Inteligencia Artificial de la UE, cuyo objetivo es promover el desarrollo y la implementación responsables de la IA en la UE.
El pasado 1 de agosto entró en vigor la Ley de IA de la UE , cuyo objetivo es promover el desarrollo y la implementación responsables de la IA en la UE. La Ley, propuesta inicialmente en abril de 2021 y aprobada por el Parlamento Europeo y el Consejo en diciembre de 2023, aborda los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Establece requisitos claros para los desarrolladores e implementadores de IA, al tiempo que minimiza las cargas administrativas y financieras para las empresas. La Ley introduce un marco uniforme en todos los países de la UE, empleando un enfoque basado en el riesgo:
1) Riesgo mínimo: los sistemas como los filtros de spam no tienen obligaciones pero pueden adoptar voluntariamente códigos de conducta;
2) Riesgo de transparencia específico: los sistemas como los chatbots deben informar a los usuarios de que están interactuando con máquinas, y el contenido generado por IA debe estar etiquetado;
3) Alto riesgo: por ejemplo, los sistemas en medicina y reclutamiento deben cumplir requisitos estrictos, incluyendo mitigación de riesgos y supervisión humana, entre otros;
4) Riesgo inaceptable: por ejemplo, los sistemas que permiten la “puntuación social” están prohibidos debido a amenazas a los derechos fundamentales.
Consulte también este cronograma de implementación que creamos en el sitio web de la Ley de IA de la UE para obtener una descripción general fácil de usar de los próximos hitos de implementación.
Consulta de la Oficina de IA sobre la IA de uso general: la Oficina Europea de IA ha puesto en marcha una consulta de múltiples partes interesadas del 30 de julio al 10 de septiembre sobre modelos fiables de IA de uso general (GPAI) en virtud de la Ley de IA. Esta consulta permite a las partes interesadas aportar sus opiniones sobre el primer Código de prácticas, que detalla las normas para los proveedores de modelos GPAI. También servirá de base para el trabajo de la Oficina de IA sobre una plantilla para resumir el contenido utilizado para entrenar estos modelos y las orientaciones que lo acompañan. La Oficina de IA fomenta la participación de una amplia gama de partes interesadas, entre ellas el mundo académico, expertos independientes, representantes de la industria, organizaciones de la sociedad civil, titulares de derechos y autoridades públicas. El cuestionario de la consulta se divide en tres secciones:
1) Disposiciones sobre transparencia y derechos de autor para los modelos GPAI;
2) Taxonomía, evaluación y mitigación de riesgos para modelos GPAI con riesgo sistémico y;
3) Revisar y monitorear los Códigos de Prácticas para los modelos GPAI.
Se elaborará un borrador inicial del Código de Prácticas basado en las presentaciones y la Oficina de AI publicará un resumen de los resultados agregados de la consulta.
Convocatoria de manifestaciones de interés: La Oficina de IA ha publicado una convocatoria de manifestaciones de interés para ayudar a redactar el primer Código de prácticas de IA de propósito general (GPAI). Entre los participantes elegibles se incluyen proveedores de modelos de IA, proveedores intermedios y otras organizaciones de la industria, la sociedad civil, titulares de derechos, el mundo académico y otros expertos independientes. El Código, que se redactará de forma iterativa para abril de 2025, tiene como objetivo garantizar la aplicación adecuada de las normas de la Ley de IA para los modelos GPAI y aquellos con riesgos sistémicos. El interés puede expresarse antes del 25 de agosto. El proceso de redacción, que comenzará con una sesión plenaria inicial en septiembre, incluirá tres reuniones virtuales y rondas de comentarios. Los participantes formarán parte de la sesión plenaria del Código de prácticas, que constará de cuatro grupos de trabajo. Los presidentes y vicepresidentes sintetizarán las presentaciones de la consulta y los participantes de la sesión plenaria. Se invitará a los proveedores de modelos GPAI a talleres con los presidentes y vicepresidentes para que contribuyan a cada ronda de redacción, además de su participación en la sesión plenaria. Tras su publicación, la Oficina de IA y el Consejo de IA evaluarán su adecuación y la Comisión podrá aprobarla o establecer normas comunes si las considera inadecuadas.
El Parlamento crea un grupo de trabajo: Según Eliza Gkritsi, de Euractiv, dos comisiones del Parlamento Europeo –la comisión de Mercado Interior y Protección del Consumidor (IMCO) y la comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE)– han creado un grupo de trabajo conjunto para supervisar la aplicación de la Ley de Inteligencia Artificial. Los eurodiputados ya han expresado su preocupación por la transparencia del proceso de dotación de personal de la Oficina de Inteligencia Artificial y la participación de la sociedad civil en el proceso de aplicación. Los detalles sobre el enfoque, la composición y la frecuencia de las reuniones del grupo de trabajo se determinarán después del verano.
Funciones de los institutos de seguridad de la IA: Alexandre Variengien,El cofundador y director de investigación del Centro para la Seguridad de la IA (CeSIA), y Charles Martinet, becario de verano del Centro para la Gobernanza de la IA e investigador afiliado de la Iniciativa de Gobernanza de la IA de Oxford Martin, escribieron en un artículo de la OCDE AI Wonk que, en respuesta al rápido desarrollo de la IA, Estados Unidos, el Reino Unido, Japón, Canadá y Singapur han establecido Institutos de Seguridad de la IA (AISIs, por sus siglas en inglés) para evaluar las capacidades y los riesgos de los sistemas de IA, realizar investigaciones sobre seguridad y facilitar el intercambio de información. La Oficina de IA de la UE, a través de su Unidad de Seguridad de la IA, emprenderá tareas similares junto con sus deberes regulatorios. Según los autores, estos institutos tienen como objetivo crear una estrategia global coordinada para una IA segura y beneficiosa. Los AISIs intentan abordar la imprevisibilidad de los modelos de IA, que plantean desafíos en materia de seguridad y confiabilidad. También buscan establecer estándares de evaluación y generar consenso para una mejor gobernanza de la IA. Además, los países varían en sus mandatos de AISI: el instituto del Reino Unido tiene como objetivo minimizar los avances rápidos e inesperados de la IA, mientras que otros, como la Oficina de IA de la UE, tienen poderes regulatorios. Por último, los AISI también contribuyen a la coordinación internacional, ayudando a los países a desarrollar marcos regulatorios, establecer umbrales basados en la ciencia y contribuir a la gobernanza y los estándares globales.
Introducción a la Ley de OpenAI: OpenAI publicó una descripciónpreliminar de la Ley de IA en la que afirma que se trata de un marco regulatorio importante para gestionar el desarrollo, la implementación y el uso de la IA en toda Europa, haciendo hincapié en la seguridad para garantizar una adopción de IA fiable al tiempo que se protege la salud, la seguridad y los derechos fundamentales. OpenAI afirma que está comprometida con el cumplimiento de la Ley no solo por su obligación legal, sino también porque se alinea con la misión de OpenAI de desarrollar e implementar una IA segura en beneficio de la humanidad. La empresa lleva a cabo diversos esfuerzos técnicos, incluidas las evaluaciones de modelos en el marco de su marco de preparación, la creación de equipos internos y externos, el seguimiento posterior a la implementación, los programas Bug Bounty y Cybersecurity Grant y las contribuciones a los estándares de autenticidad. OpenAI planea colaborar estrechamente con la Oficina de IA de la UE y otras autoridades a medida que se implementa la Ley, ofreciendo su experiencia para respaldar los objetivos de la Ley. La empresa preparará documentación técnica para los proveedores posteriores y mejorará la seguridad y protección de sus modelos en Europa y más allá.
Comentarios