¿Se debe de regular la Inteligencia Artificial?

Luisondome

  • El G7 promete regular las IA generativas antes de que termine el 2023.
  • Los presidentes de Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido confirmaron que las IA son un punto fundamental en su agenda para la cooperación internacional.

La regulación de la IA está de moda. Desde el éxito del chatbot ChatGPT de OpenAI, la atención del público se ha dividido entre el asombro y la preocupación sobre lo que pueden hacer estas potentes herramientas de IA. La IA generativa se ha promocionado como un cambio potencial para las herramientas de productividad y los asistentes creativos. Aunque ya están mostrando las formas en que pueden ser perjudiciales. Los modelos generativos se han utilizado para generar información errónea, y podrían convertirse en armas de spam y estafa.

En las últimas semanas, desde CEOs de empresas tecnológicas hasta senadores estadounidenses y líderes del G7 han pedido una normativa internacional y límites más estrictos para la tecnología de IA. ¿Cuál es la buena noticia? Los responsables políticos no tienen que empezar de cero. 

El G7 adelantó que trabajará en el Proceso de IA de Hiroshima, un plan para regular la tecnología antes del 2023POOL/GETTY IMAGES

Se llama ‘Proceso de IA de Hiroshima', y refleja el acuerdo de los países del G7 para tener a final de año una regulación que ponga coto a la IA. Este bloque ha sido el último en posicionarse sobre la necesidad de establecer leyes que determinen cómo usar la inteligencia artificial. Antes lo hizo la UE, al aprobar el borrador de un reglamento que tendrá aplicación directa en los Veintisiete. Los políticos reaccionan sólo unas semanas después de que numerosos tecnólogos hayan dado la voz de alarma sobre los riesgos que entraña esta disrupción.

“Los líderes acordaron que los ministros a cargo discutirán la IA generativa como el ‘proceso de IA de Hiroshima’ y que informarán los resultados antes de finales de este año. Además, el primer ministro Kishida declaró que solicitaría la cooperación del G7 para el establecimiento temprano de un marco internacional basado en un acuerdo a nivel ministerial para materializar el flujo libre de datos con confianza”, menciona el comunicado oficial del G7.

Por otro lado, el Consejo de Europa (COE, por sus siglas en inglés), una organización de derechos humanos conformada por 46 países, está ultimando un tratado jurídicamente vinculante sobre inteligencia artificial. El tratado exige a los firmantes que tomen medidas para garantizar que la IA se diseña, desarrolla y aplica de forma que proteja los derechos humanos, la democracia y el Estado de derecho. El tratado podría incluir moratoriassobre tecnologías que supongan un riesgo para los derechos humanos, como el reconocimiento facial.

Si todo va según lo previsto, la institución terminaría de redactar el texto en noviembre, según Nathalie Smuha, jurista y filósofa de la Facultad de Derecho de la Universidad Católica de Leuven (Bélgica) y asesora del Consejo.

Parece ser que ha llegado la hora de poner orden y que los motivos para intervenir ganan en solemnidad. Así que hemos querido saber: ¿hay que regular ya la inteligencia artificial?, y por otro lado, ¿Cuánto hay que hacerlo? 

Estas preguntas se las ha hecho LinkedIn a sus usuarios, y a ella han respondido cientos de miembros de la comunidad de tecnología e innovación de LinkedIn y dos de las voces más influyentes del país en esta materia: Nuria Oliver, directora de la unidad de Alicante del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS) y asesora científica del Vodafone Institute, y Marc Vidal, conferenciante, divulgador tecnológico, inversor y Top Voice de LinkedIn. ¿Las respuestas? Mayoritariamente "sí", pero no siempre y con matices. Esto es Tech en breve y te contamos todos los detalles de uno de los grandes debates de nuestros días.

Más de 2.000 usuarios de LinkedIn han ayudado a ubicar un punto de partida a través de una encuesta que ofrece dos posibilidades de regulación de la inteligencia artificial, "al máximo, más que las redes" o "al mínimo, se regulará sola", el 74% de los participantes, 1.518 de ellos, se decantan por la primera opción, mientras que la segunda respuesta es la más adecuada para el 26% restante, postura que suma 526 votos. Una aplastante mayoría querría que las leyes de IA fueran más estrictas y que se anticiparan a los posibles efectos de su uso más de lo que lo hizo la respuesta legal a las redes sociales en su momento. Parece que esta vez la política ha sabido entender pronto la preocupación de los ciudadanos. 

¿Qué dice la gente al respecto? Desde LinkedIn han resumido los más de 200 comentarios que ha generado la encuesta -con la ayuda de un chatbot- y estas son las principales conclusiones de los participantes: 

  • Sí a la regulación. Una mayoría respalda que la pregunta no es si la IA debe ser regulada o no, sino cuánto o cómo debe hacerse. 
  • Conocimiento. Se debe legislar desde la comprensión de la tecnología y a la vez que se educa a la población sobre su naturaleza y posibilidades. 
  • Sin vaguedades. La regulación debe ser específica y tener en cuenta el impacto que podría tener en la sociedad y en la privacidad de los datos.
  • Riesgos. Existe preocupación por los peligros potenciales de la IA, como la pérdida de empleos y el control de la sociedad.
  • Equilibrio y responsabilidad. La ley debe localizar responsabilidades claras y encontrar un equilibrio que permita tanto el desarrollo de la tecnología como la seguridad y la privacidad de las personas. Debe ser regulada para evitar que se use de manera negativa, pero sin limitar su capacidad de evolución y aprendizaje. 
  • Ética humanista. La IA mejorará la vida, pero siempre y cuando se regule para que esté al servicio de los seres humanos y no al revés. Es importante proteger los derechos y valores humanos y establecer códigos éticos y de comportamiento.

Se añade un último punto: también se comenta con frecuencia que la hoja de ruta de una situación tan compleja como esta no debería pensarse con dos direcciones opuestas como regular al máximo o al mínimo, tal y como se plantea en la encuesta. 

Oliver y Vidal: el sí y el no a legislar la IA 

Por su respuesta, parece que Marc Vidal suspirara tras sus icónicas gafas azules antes de contestar: "Sé que hay expertos en IA y en ética de la tecnología que argumentan que es vital regularla para protegernos de su uso indebido (...), pero no, no se debe hacer nada para regular la IA". El comunicador es una de las voces que se posiciona claramente a favor de dejar que esta tecnología encuentre sola su camino a través de los cauces legales que ya existen. Continúa: "El ser humano siempre ha sido capaz de estructurar un modelo de control sobre la tecnología de un modo natural y a partir de la legalidad vigente. Cada vez que lo ha intentado (regular) ha matado la innovación".

Nuria Oliver forma parte de ese grupo de expertos que se muestra a favor de poner algunos límites. Pero insiste en la importancia de considerar esta tecnología como lo que es, una herramienta cuya peligrosidad depende únicamente del uso que se le dé. "Igual que un cuchillo", se sonríe en un audio compartido con Linkedin Noticias España. 

Precisamente, el uso es el eje central de la Ley de IA que ha comenzado a tramitar el Parlamento Europeo. Como explica la investigadora, "su foco es intentar mitigar las posibles consecuencias sociales negativas de la IA, de la misma manera que están regulados los medicamentos para evitar efectos secundarios no deseados". Ve acertado que "los casos de uso que conlleven más riesgo social" estén sometidos "a más regulación".

Vidal no quiere entrar a analizar si es buena idea controlar la IA en función de para qué se utilice. Fiscalizar los usos le recuerda al viejo discurso anti internet. "En los noventa se nos decía que en la red sólo había ‘porno y estafas’. Ahora nos dicen que los activos criptográficos sólo son para delinquir y nos impondrán monedas digitales emitidas por los bancos centrales con una legislación contra las criptos bajo el brazo. En breve, otra tecnología que permite trabajar más rápido, mejor, con acceso certero (cada vez más) a contenidos, que es capaz de hacer fotografías que no existen (una gran ventaja para fotógrafos paradójicamente), que es capaz de generar artículos, códigos o mantener conversaciones complejas como ChatGPT, se satanizará", zanja.

Los dos expertos hablan desde dos líneas de trabajo que son prácticamente dos planos temporales. Oliver habla desde el ahora, desde la investigación: entiende muy bien la tecnología y ve comprensible el temor de una sociedad que no la conoce como ella. Vidal habla desde el mañana, desde el análisis histórico: conoce muy bien a la sociedad y no entiende cómo sigue asustándose cada vez que el ser humano inventa una tecnología como la rueda, la imprenta o la máquina de vapor.

Por ello, cuando se les pregunta a ambos cuáles son los riesgos, cuáles son sus preocupaciones en el debate regulatorio de la IA, sus respuestas son tan distintas. La investigadora, una de las científicas más citadas en inteligencia artificial en español, quiere colaborar con ese legislador que desconfía de su criatura, indicándole dónde esta la clave para controlarla: "Lo importante para fomentar la transparencia es compartir qué datos y qué condiciones se han utilizado para entrenar estas grandes redes neuronales", contesta Oliver. Es decir, la amenaza decae si se vigila el material que consumen y el entorno en que se educa a estos sistemas inteligentes.

Vidal, por su lado, trata de convencer a esa autoridad recelosa de que su temor a una "conciencia artificial" que termine por someternos puede ser infundado. Puede que nunca llegue a existir, pero si alguna vez lo hace, asegura, tampoco será el fin: "Sé que iremos avanzando a una gestión de datos computacional exponencialmente muy superior al actual. Que nos costará diferenciar, o tal vez sea imposible, entre lo real y lo irreal. Pero eso no es malo. En serio. Si le pusiéramos una película en HD a un individuo del siglo II en la Roma clásica, enloquecería porque pensaría que eso que se ve en la pantalla es la vida real atrapada de algún modo. Nos adaptaremos. No debe preocuparnos. Crearemos conocimiento y sentidos para identificar o aceptar cosas que ahora nos suenan imposibles". 

Los testimonios de este artículo son una muestra pequeña de cómo transcurre este punto de inflexión en la historia de la inteligencia artificial, pero permiten resumir el debate con una especie de fábula: los ciudadanos muestran preocupación, los gobernantes cambian sus agendas, los científicos piden calma y los historiadores certifican que la historia, si no se repite, casi siempre rima.

 👉 ¿Qué opinas tú? ¿Eres del sí o del no a la regulación? ¿Cómo crees que habría que hacerlo? Súmate a la conversación con tus comentarios.


Comentarios