En Bruselas ya hay un principio de acuerdo sobre la regulación de la IA en Europa
Luisondome
Imagen: Cointelegraph |
Según se anuncia en un breve boletín quincenal del Future of Life Institute, ya tenemos noticias de Bruselas de que hay un acuerdo sobre la regulación de la Inteligencia Artificial en Europa.
Risto Uuk, líder de investigación de la UE en el Future of Life Institute, nos cuenta que el Parlamento y el Consejo Europeos han llegado a un acuerdo provisional sobre la Ley de IA. La legislación abarca salvaguardias para la IA de uso general, limitaciones a los sistemas de identificación biométrica por parte de las fuerzas del orden, prohibiciones de puntuación social y de IA manipuladora, y el derecho de los consumidores a presentar quejas. Las multas por incumplimiento oscilan entre 7,5 millones o el 1,5% de la facturación global y 35 millones de euros o el 7% de la facturación global. Las aplicaciones específicamente prohibidas incluyen sistemas de categorización biométrica que utilizan características sensibles, raspado no dirigido de imágenes faciales, reconocimiento de emociones en lugares de trabajo e instituciones educativas, puntuación social basada en comportamiento social o características personales y sistemas de inteligencia artificial que manipulan el comportamiento humano o explotan vulnerabilidades. Las exenciones policiales para los sistemas de identificación biométrica están sujetas a autorización judicial y se limitan a búsquedas específicas de delitos o amenazas específicas. Los sistemas de IA de alto riesgo se enfrentan a evaluaciones obligatorias de impacto sobre los derechos fundamentales, aplicables también a sectores como los seguros y la banca. Los modelos y sistemas de IA de uso general (GPAI) deben cumplir con los requisitos de transparencia, incluida la documentación técnica y el cumplimiento de la ley de derechos de autor de la UE; Los modelos GPAI con riesgo sistémico también están obligados a realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas contradictorias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre eficiencia energética. La legislación apoya la innovación y las PYMES a través de entornos de pruebas regulatorios y pruebas en el mundo real. El acuerdo está pendiente de adopción formal tanto por el Parlamento como por el Consejo para convertirse en ley de la UE.
La presidenta de la Comisión Europea, Ursula von der Leyen, ha acogido con satisfacción el acuerdo político como un momento histórico. Von der Leyen dice que es el primer marco legal global integral sobre IA, que prioriza la seguridad, los derechos fundamentales y apoya el desarrollo y despliegue de IA responsable, transparente y centrado en el ser humano. La ley tiene como objetivo anticipar nuevas reglas y ha despertado el interés de alrededor de 100 empresas para unirse al Pacto voluntario de IA. Von der Leyen enfatiza el compromiso de la UE con la gobernanza global de la IA, destacando los esfuerzos en foros internacionales como el G7, la OCDE, el Consejo de Europa, el G20 y la ONU.
Adam Satariano, corresponsal de tecnología del New York Times, informó que el acuerdo político es uno de los primeros intentos del mundo de abordar los impactos sociales y económicos de esta tecnología en rápida evolución. Satariano afirma que la legislación tiene como objetivo establecer un punto de referencia global al equilibrar los beneficios de la IA con riesgos potenciales como la automatización del trabajo, la desinformación y las amenazas a la seguridad nacional. Advierte que, si bien la Ley es aclamada como un avance regulatorio, persisten las preocupaciones sobre su efectividad, y se espera que algunas disposiciones tarden entre 12 y 24 meses en promulgarse. El acuerdo, alcanzado después de tres días de negociaciones en Bruselas, espera la aprobación mediante votaciones en el Parlamento Europeo y el Consejo. La ley, que afecta a los principales desarrolladores de IA y a empresas de educación, atención médica y banca, será monitoreada de cerca en todo el mundo, lo que influirá en la trayectoria del desarrollo de la IA y sus implicaciones económicas. Se anticipan desafíos en materia de aplicación de la ley, incluida la coordinación regulatoria en 27 países y posibles disputas legales.
Si bien se ha alcanzado un acuerdo político sobre la Ley de IA, todavía quedan muchos detalles técnicos por resolver en los próximos meses. Investigadores de la Universidad de Stanford publicaron una propuesta detallada para la regulación del modelo de fundaciones antes de las reuniones del diálogo tripartito de la semana pasada. Entre los muchos detalles técnicos del artículo, aquí hay algunas conclusiones. Los autores proponen requisitos de divulgación proporcional para proveedores de modelos comerciales o entidades con buenos recursos, con exenciones para entidades de bajos recursos, como estudiantes, aficionados y grupos académicos no comerciales. Con respecto a la divulgación de información informática, argumentan que la cantidad de potencia informática debería informarse en FLOP, la cantidad de hardware debería informarse en unidades de hardware relevantes (por ejemplo, el número de GPU NVIDIA A100-80 GB) y deberían exigirse organismos que establezcan estándares. Establecer estándares sobre cómo medir el tiempo de formación. Con respecto a la información ambiental, afirman que medir la energía y las emisiones directamente probablemente requerirá información sobre el centro de datos específico o quién opera el hardware en qué ubicación. Esto debería permitir calcular estimaciones razonables de energía y emisiones.
Muchos grupos de interés han publicado declaraciones a la luz del acuerdo político sobre la Ley de IA. Por ejemplo, la organización de la sociedad civil Algorithm Watch dice que los legisladores de la UE han introducido salvaguardias clave en la Ley para proteger los derechos fundamentales, mejorando el borrador original de la Comisión Europea en 2021. Añaden que los esfuerzos de promoción de la sociedad civil llevaron a un impacto obligatorio en los derechos fundamentales. evaluaciones y deberes de transparencia pública para sistemas de IA de alto riesgo. Sin embargo, existen lagunas, como que los desarrolladores de IA determinen el estado de alto riesgo y excepciones para contextos de seguridad nacional, aplicación de la ley y migración. La asociación comercial DIGITAL EUROPE afirma que, aunque se ha llegado a un acuerdo sobre la ley, ahora surgen preocupaciones sobre la regulación de última hora de los modelos de fundaciones, lo que desvía la atención de un enfoque basado en el riesgo. Añaden que los nuevos requisitos, junto con leyes como la Ley de Datos, pueden desviar recursos hacia asuntos legales y de cumplimiento, obstaculizando a las PYME que no están familiarizadas con la legislación de productos. A pesar de las preocupaciones, se reconoce que la Ley de IA, si se implementa de manera efectiva, puede generar resultados positivos para la adopción y la innovación de la IA en Europa.
La Alianza Europea de PYME DIGITAL ha publicado una declaración apoyando la regulación escalonada de modelos básicos para apoyar la innovación de las PYME. El sector de las PYME digitales apoya la desregulación para las nuevas empresas y las medianas empresas de TIC que desarrollan modelos básicos, pero aboga por la regulación para los grandes proveedores dominantes. Afirman que estos actores importantes, a menudo grandes empresas tecnológicas, suministran a los desarrolladores más pequeños modelos base extensos y deberían estar sujetos a evaluaciones de conformidad de terceros para garantizar una distribución justa de la responsabilidad. Este enfoque tiene como objetivo evitar que los usuarios intermedios, especialmente las PYME, soporten costos de cumplimiento excesivos y reducir las barreras de entrada al mercado para las entidades más pequeñas. Para evitar una regulación excesiva de la economía digital, compuesta principalmente por PYME, se proponen criterios claros que definan "modelos básicos muy grandes", basados potencialmente en la potencia informática, el número de usuarios finales y los usuarios empresariales, garantizando un equilibrio entre seguridad e innovación.
Comentarios