¿Necesita la IA Generativa un botón rojo de apagado?

 Ciberseguridad

 

Lo ha pedido Donald Trump por los riesgos que puede traer una IA usada para causar un gran daño, al sistema financiero por ejemplo.

Los avances que se están consiguiendo en el desarrollo de la IA están asombrando no solo al mundo, sino también a sus progenitores. Tras lo sucedido recientemente con Mythos por la filtración accidental a finales de marzo, el CEO de Anthropic, Darío Amodei, inmediatamente retuvo su lanzamiento aduciendo que las capacidades de ciberseguridad eran demasiado peligrosas para ponerlas a disposición general.

El informe de seguridad de Anthropic reveló que Mythos había escapado de su entorno aislado, obteniendo acceso directo a internet para enviar de motu propio un correo electrónico al investigador que supervisaba la prueba, todo sin que nadie se lo pidiera. Mythos es capaz de identificar y explotar fallos de forma completamente autónoma: sin intervención humana más allá de una instrucción inicial. Es decir, no solo detecta la grieta, también sabe cómo abrirla.

Cuando este hecho trascendió, la reacción gubernamental fue inmediata, con el Secretario del Tesoro de EE. UU. y el Presidente de la Reserva Federal convocando a altos ejecutivos bancarios a una reunión informativa privada para analizar el tema y tomar las primeras decisiones del control.

Por su parte, los ministros del Gabinete del Reino Unido apelaron directamente a los líderes empresariales de todo el país instándolos a no esperar a un modelo más avanzado para demostrar el inmenso riesgo de ciberseguridad que plantea la IA.

El 21 de abril, Bloomberg informó que un grupo de terceros no autorizados obtuvo acceso a Mythos el mismo día de su anuncio público, supuestamente simplemente adivinando su URl, algo que exacerbó aún mas la preocupación en Anthropic y en el gobierno federal.

Mientras tanto, el Instituto de Seguridad de la IA del Reino Unido... Se confirmó que Mythos podría completar una toma de control de la red corporativa en 32 pasos, sin ayuda. Como señaló Hamza Chaudhry, líder de IA y Seguridad Nacional de FLI, en Fortune , la brecha de gobernanza en IA es cada vez más urgente de abordar: " Estos sistemas se están integrando en operaciones cibernéticas ofensivas más rápido de lo que los responsables políticos pueden crear los marcos para regular cómo se utilizan o protegen estas capacidades ", y es que en cuestiones de IA, las empresas desarrolladoras van muy por delante de los organismos reguladores, hasta tal punto que estos últimos aún no tienen idea de lo que tienen que regular, y eso también preocupa a instituciones y empresas.

En esto entra en escena Donald Trump en una entrevista para Fox Business para respaldar la idea de crear un "botón de apagado para los sistemas de la IA, dados los riesgos que la IA representa para el sistema bancario" y para otras instituciones.

En un comunicado , el director ejecutivo de FLI, Anthony Aguirre, acogió con beneplácito la declaración y apuntó que el argumento es más sólido de lo que muchos creen: Mythos ya ha demostrado cuán vulnerables son los sistemas financieros a los ataques habilitados por IA, y las medidas de seguridad por sí solas no son suficientes: los chips de IA necesitan interruptores de apagado integrados a nivel de hardware.

Esa misma semana, durante una reunión a puerta cerrada del Congreso, los legisladores interactuaron con modelos de IA que habían sido modificados para eludir sus medidas de seguridad, comprobando de primera mano la facilidad con la que actores malintencionados pueden recibir instrucciones sobre ataques terroristas. Un congresista informó que varios modelos respondieron sin dudarlo a preguntas estratégicas sobre bombas nucleares y ataques terroristas, y lógicamente la preocupación se disparó en los congresistas.

Un ejemplo de mala utilización de la IA por quien quiere hacer daño, lo hemos visto en Florida, en el tiroteo que tuvo lugar en su Universidad Estatal. El fiscal general de Florida ha citado a OpenAI tras las acusaciones de que el presunto autor del tiroteo en dicha Universidad utilizó ChatGPT para planificar un tiroteo masivo en 2025 que dejó dos muertos. Se presentaron más de 200 mensajes de ChatGPT como prueba. Ahora el tribunal tiene que decidir que grado de responsabilidad penal debe de asumir por lo ocurrido, y esta será la primera sentencia por un delito de etas características, lo que podría influir en futuras sentencias sobre tragedias similares que involucren IA. 

De manera similar, las víctimas del tiroteo de Tumbler Ridge en la Columbia Británica a principios de este año están demandando a OpenAI en California, alegando: «Según lo que entendemos que el atacante discutió con ChatGPT, esta masacre fue específica, predecible y evitable, y OpenAI tuvo la oportunidad de detenerla».

Ante los delincuentes que están a la última en innovación del delito tecnológico, y que le sacan provecho inmediato a esta ventaja, la ley que los debe de controlar es a día de hoy inexistente, y son los jueces los que deben de pronunciarse a la hora de impartir justicia y condenas bajo su criterio a falta de una ley. Mythos puede llegar a ser un arma letal para delinquir, y es un asunto al que hay que buscarle una solución. El botón rojo de apagado puede que sea la solución mas simple e inmediata para evitar el daño letal.

 




Comentarios