La competitividad en materia de IA radica en reducir la burocracia real, no en eliminar las salvaguardas de la IA.

 Inteligencia Artificial

Proceso legislativo

Comentarios de las partes interesadas sobre las definiciones de IA y las prácticas prohibidas: la Comisión Europea publicó un informe elaborado por el Centro de Estudios Políticos Europeos (CEPS) para la Oficina de IA de la UE, en el que se analizan los comentarios de las partes interesadas en dos consultas públicas sobre las obligaciones regulatorias de la Ley de IA. Estas consultas examinaron la definición de sistemas de IA y las prácticas prohibidas de IA, aplicables desde el 2 de febrero de 2025. El informe analiza las respuestas a 88 preguntas de la consulta en nueve secciones. Las partes interesadas del sector dominaron la participación con un 47,2 % de casi 400 respuestas, mientras que la participación ciudadana se mantuvo limitada, con un 5,74 %. Los encuestados solicitaron definiciones más claras de términos técnicos como "adaptabilidad" y "autonomía", advirtiendo contra la regulación inadvertida del software convencional. El informe destaca importantes preocupaciones con respecto a las prácticas prohibidas, como el reconocimiento de emociones, la puntuación social y la identificación biométrica en tiempo real. Las partes interesadas solicitaron ejemplos concretos que distinguieran lo prohibido de lo permitido por la normativa.

Preguntas y respuestas sobre alfabetización en IA: La Comisión Europea ha publicado un extenso cuestionario de preguntas y respuestas sobre alfabetización en IA . El artículo 4 de la Ley de IA entró en vigor el 2 de febrero de 2025 y exige a los proveedores e implementadores de sistemas de IA que garanticen una alfabetización en IA suficiente entre su personal y otras personas que manipulen sistemas de IA en su nombre. Al establecer niveles adecuados de alfabetización, los proveedores e implementadores deben tener en cuenta los conocimientos técnicos, la experiencia, la educación y la formación de las personas, junto con el contexto en el que se utilizarán los sistemas de IA, incluidas las personas a las que se dirigen dichos sistemas. La Oficina de IA ha publicado una guía completa sobre alfabetización en IA que abarca áreas clave, incluidas las definiciones dentro del artículo 4 y la Ley de IA en general, los requisitos de cumplimiento del artículo 4, los mecanismos de aplicación, el enfoque de la Oficina de IA para la implementación de la alfabetización en IA y recursos útiles adicionales para las partes interesadas que buscan comprender y cumplir con estas nuevas obligaciones.

Aún no hay asesor científico principal en IA a pesar de las decenas de solicitudes recibidas: Según Cynthia Kroet, reportera sénior de políticas de la UE en Euronews, la Comisión Europea aún no ha nombrado a un asesor científico principal para su Oficina de IA, a pesar de haber recibido decenas de solicitudes y de que la normativa sobre IA de propósito general entró en vigor el 2 de agosto. El proceso de selección continúa a pesar de la vacante que se abrió entre noviembre y diciembre del año pasado, según declaró a Euronews un alto cargo de la Oficina de IA. La función del asesor consiste en garantizar un alto nivel de conocimiento científico sobre IA de propósito general y liderar el enfoque científico en todas las tareas de la Oficina, manteniendo al mismo tiempo el rigor científico y la integridad de las iniciativas de IA. Se centrará especialmente en probar y evaluar modelos de IA de propósito general mediante una estrecha colaboración con la Unidad de Seguridad de la Oficina de IA. La Comisión indicó que preferiría nombrar a un candidato de un país europeo para este puesto de asesor científico principal.




La UE debería reducir la burocracia real, no las salvaguardas de la IA: Risto Uuk (¡yo!) y Sten Tamkivi, socio de Plural, un importante fondo de capital riesgo europeo en fase inicial, publicaron un artículo de opinión en Fortune argumentando que el camino de Europa hacia la competitividad de la IA radica en reducir la burocracia real, no en eliminar las salvaguardas de la IA. Expertos independientes colaboran con la Oficina de IA de la UE para desarrollar directrices prácticas para empresas de IA de propósito general, transformando los principios regulatorios en prácticas unificadas en todos los estados miembros para evitar normas nacionales fragmentadas. Este trabajo afecta principalmente a gigantes globales como Meta y Google, que se encuentran entre aproximadamente diez empresas en todo el mundo que construyen los modelos más capaces, en lugar de a las startups europeas. Uuk y Tamkivi afirman que estas corporaciones con buenos recursos pueden gestionar fácilmente requisitos como las evaluaciones de terceros donde entidades independientes evalúan bajo ciertas condiciones si un modelo de IA es seguro. Dichas evaluaciones garantizan que modelos como Llama de Meta o Gemini de Google no presenten riesgos sistémicos, incluidos ciberataques, riesgos biológicos o pérdida de control. Las afirmaciones de que estas pruebas son demasiado engorrosas o inviables son absurdas, dados los recursos sin precedentes de estas empresas. Estas salvaguardias reflejan prácticas establecidas en los sectores farmacéutico, aeronáutico y financiero, donde la verificación independiente genera confianza pública e inversora. Para el crecimiento económico europeo, el enfoque debería ser la reducción de la burocracia empresarial tradicional, en lugar de las regulaciones de seguridad de la IA.

El valor del marco de seguridad y protección del Código de Prácticas: Risto Uuk (¡yo otra vez!) publicó un boletín informativo en LinkedIn que destaca algunos de los principales argumentos a favor del Código. En primer lugar, el Código de Prácticas traduce los vagos requisitos esenciales de la Ley de IA en una guía práctica para proveedores de IA de propósito general, abordando obligaciones como la evaluación de modelos y la mitigación de riesgos sistémicos. En segundo lugar, el Código recopila las mejores prácticas de seguridad de las principales empresas de IA en un solo lugar. Una investigación reciente analizó cómo el Código se compara con las prácticas existentes de las principales empresas de IA, como OpenAI, Anthropic y Google DeepMind, con el objetivo de establecer las mejores prácticas centralizadas de la industria. En tercer lugar, la Comisión Europea fomenta la adopción del Código, ofreciendo beneficios como una mayor confianza y una aplicación simplificada para los firmantes, mientras que los no firmantes se enfrentan a un escrutinio adicional y solicitudes de información. En cuarto lugar, el Código se dirige principalmente a aproximadamente once proveedores globales con modelos que superan los 10^25 FLOP: empresas muy ingeniosas como OpenAI, que recientemente obtuvo una financiación de 40 000 millones de dólares. Por último, el Código se está elaborando a través de un proceso democrático ejemplar que comenzó en octubre de 2024, en el que participaron alrededor de mil partes interesadas en tres borradores, dirigidos por trece presidentes independientes, lo que contrasta favorablemente con el típico desarrollo de normas técnicas dominado por las corporaciones.

La leyenda de ABBA advierte contra la dilución de derechos en el código de IA de la UE: Según Cynthia Kroet, de Euronews, Björn Ulvaeus, miembro de ABBA, advirtió recientemente a los eurodiputados en Bruselas sobre las "propuestas impulsadas por las grandes tecnológicas" que debilitan los derechos creativos bajo la Ley de IA. En declaraciones a la Comisión de Cultura y Educación del Parlamento Europeo, Ulvaeus, quien preside la Confederación Internacional de Sociedades de Autores y Compositores (CISAC), expresó su preocupación por el Código de Prácticas voluntario sobre IA de Propósito General. "El argumento de que la IA solo se puede lograr si se debilitan los derechos de autor es falso y peligroso. La IA no debería construirse sobre el robo", declaró Ulvaeus, calificando este enfoque de "abandono histórico de principios". Criticó el Código por ignorar las demandas de transparencia del sector creativo e instó a la UE a liderar la regulación de la IA en lugar de retroceder, garantizando que su implementación se mantenga fiel al objetivo original de la Ley.


 

Comentarios