Los peligros de la Inteligencia artificial y los retos jurídicos que esta plantea
Luisondome
La inteligencia artificial es, sin duda, una de las revoluciones del siglo XXI. Es el actor clave de la llamada cuarta revolución industrial, y se ha aplicado con éxito a campos tan dispares como la medicina, la enseñanza y las ciencias sociales.
El uso de la inteligencia artificial está cada vez más extendido en nuestra vida cotidiana. Debido a que hubo casos en que la inteligencia artificial se comportó de forma sexista o racista, surge la necesidad de que la inteligencia artificial sea ética y confiable. Por esta razón en la Unión Europea se empezó a elaborar algunas normas como las Directrices éticas para una inteligencia artificial fiable, y en España se sigue el mismo camino conla puesta en marcha de la Estrategia Nacional de Inteligencia Artificial.
En la Comunicación sobre Inteligencia Artificial de la Comisión de la Unión Europea se dice que “Poner la inteligencia artificial al servicio del progreso humano exige dar solución a los problemas jurídicos que plantea, porque estas soluciones determinarán el tipo de sociedad y de desarrollo tecnológico del futuro”.
Por otra parte, cada día compartimos fotografías nuestras y de otras personas en redes sociales. Este acto tan habitual nos expone a posibles delitos digitales contra la privacidad y la identidad personal. Este problema es de gran calado por la falta de legislación en el ámbito de la inteligencia artificial, y mas teniendo en cuenta que la usurpación de la identidad humana es uno de los peligros más temidos en relación con la inteligencia artificial.
Pero la inteligencia artificial, a pesar de su enorme capacidad de procesar datos, aún no ha conseguido atribuirles significado. De momento, para lograr que estos datos sean significativos o relevantes para nosotros, lo que solemos hacer es clicar “me gusta” o retuitear el mensaje. Es decir, somos nosotros quienes decidimos qué datos son importantes para nosotros en cada situación específica. Sin este reconocimiento, el big data no significa nada, por eso a menudo debemos confirmar que “no soy un robot” para que la inteligencia artificial reconozca que nuestra interacción online –nuestro rostro digital– es significativa.
En los últimos años, ha cobrado importancia una nueva rama dentro de la inteligencia artificial: se llama el aprendizaje adversario. Los sistemas inteligentes se usan en muchas ocasiones para tomar decisiones importantes que afectan a las personas, por lo que es necesario asegurarse de que no pueden ser engañados con facilidad. El aprendizaje adversario intenta prevenir posibles ataques, o la introducción de datos falsos que puedan engañar a una máquina, pero no a una persona. Por ejemplo, tenemos los casos en los que se añade un mínimo ruido a una imagen, que es imperceptible para el ojo humano. Este ruido es suficiente para que el algoritmo de inteligencia artificial crea que se trata de una imagen diferente. La investigación sobre este tipo de imágenes adversarias, que pueden engañar a un sistema inteligente, es de vital importancia.
Sabemos, entonces, que la inteligencia artificial puede ser engañada con relativa facilidad. Pero ¿puede un sistema inteligente engañar a las personas?. ¿Se puede dar este fenómeno a la inversa?, ¿Puede la máquina engañarnos para ganar?
A los humanos nos intentan educar en la honradez, pero el engaño y la mentira son parte de nosotros, así como de algunos animales mediante el camuflaje por el cual se intenta aparentar ser otra cosa. Habitualmente mentimos o manipulamos para lograr algún tipo de beneficio, y las máquinas por su parte, aprenden lo que les enseñamos los humanos, de tal manera que la mayoría de algoritmos de inteligencia artificial aprenden de la misma forma en que nosotros aprendemos.
Recientemente ha aparecido una nueva técnica de inteligencia artificial, el aprendizaje por refuerzo, que construye un sistema de recompensas para el algoritmo. Cuando se consigue un resultado satisfactorio, se refuerza ese comportamiento, y cuando el resultado es negativo, ese comportamiento se descarta.
Un sistema basado en el aprendizaje por refuerzo es ALPHA ZERO, de Deep Mind, Este programa de inteligencia artificial en tan solo 24 horas supero a los mejores jugadores del mundo en varios juegos de mesa, derrotando a otros programas anteriores que habían ganado a campeones humanos. Este programa no se entrenaba aprendiendo de partidas humanas, sino que lo hacía compitiendo contra sí mismo una y otra vez, en una especie de aprendizaje por el método de acierto y error. Empezó jugando de forma totalmente aleatoria hasta conseguir desarrollar habilidades nunca vistas en estos juegos. El objetivo era alcanzar la superioridad con la finalidad de ganar.
Si se usa este sistema de aprendizaje por refuerzo, y el engaño lleva a dicho sistema inteligente a conseguir el objetivo perseguido, parece factible que la inteligencia artificial pueda aprender a mentir. Pues bien, en 2017 dos investigadores de la Universidad Carnegie Mellon consiguieron que su sistema de inteligencia artificial venciese a los mejores jugadores de no-limit Texas Hold ‘Em, una de las variantes más complejas del póker. Para conseguir tal hazaña, Libratus –así se llamaba– tuvo que aprender a ir de farol.
Como es sabido, cuando se juega al poker, la habilidad de mentir es clave cuando se da la circunstancia de que el jugador necesita que sus contrincantes crean que tiene mejores cartas de las que tiene el adversario, o todo lo contrario. Libratus fue capaz de perfeccionar el arte del engaño hasta el punto de que uno de los mejores jugadores del mundo, Dong Kim, llegó a pensar que la máquina podía ver sus cartas. Ahora que sabemos que la inteligencia artificial es capaz de mentir, y seguramente siga haciéndolo, razón por la que tenemos que prepararnos para esta y otras contingencias que nos puedan hacer daño, de ahí la importancia de las cuestiones éticas subyacentes a este tipo de sistemas inteligentes que, nos guste o no, han llegado para quedarse.
Los retos Jurídicos que plantea la Inteligencia Artificial
María Isabel Montserrat Sánchez-Escribano, Profesora y doctora de Derecho Penal en la Universitat de les Illes Balears, analizó los retos jurídicos que se le presentan a la Inteligencia artificial a través de diversos casos reales, señalando en su estudio en que punto se pueden hallar dichos riesgos, que para ella son principalmente cuatro: Los datos, las decisiones que toma, el funcionamiento del algoritmo, y la relación establecida entre la tecnología y lo humano. Veamos cada una de estas.
1. Los datos
El riesgo más importante al que se enfrenta el uso de la inteligencia artificial tiene relación con la gran cantidad de datos que utiliza, puesto que disponer de un buen dataset, o conjunto de datos, es el primer paso de esta tecnología. Esto plantea dos retos a nivel jurídico:
- Por una parte, en lo relativo al origen de los datos y en la manera en que estos datos fueron recogidos, lo que genera conflictos con el derecho a la protección de datos.
- Por otra parte, está el hecho de que el dataset es absolutamente dependiente de la calidad y cantidad de los datos. Si estos no son correctos o contienen sesgos, los resultados que aporte la inteligencia artificial serán erróneos.
La existencia de sesgos resulta muy preocupante, sobre todo en lo que respecta a los algoritmos predictivos. Los sesgos por razón del origen racial de las personas, el sesgo por discriminación laboral por cuestión de género, y otros mas de los que ya existen precedentes demostrados, han terminado resolviéndose en los tribunales.
2. Las decisiones
El segundo aspecto fundamental de algunas aplicaciones de inteligencia artificial y uno de sus principales riesgos es la opacidad de sus decisiones. En algunos casos no podemos comprender de qué modo funciona el algoritmo (trazabilidad) y/o por qué ha tomado una determinada decisión (explicabilidad). Es lo que se conoce como el “efecto caja negra”. Este es un problema de gran calado no solo a nivel técnico sino también jurídico si se tiene en cuenta que desconocer estos datos puede conducir a vulneraciones ocultas e insospechadas de derechos fundamentales.
3. El funcionamiento
Otro de los problemas que surge con el uso de la inteligencia artificial tiene que ver con los fallos o errores que esta comete. En no pocos casos, estos errores ocasionarán daños personales o materiales que deberán ser reparados y de los que deberá derivarse la correspondiente responsabilidad, ya sea civil o penal, algo que la ley actualmente no contempla.
4. La relación entre la tecnología y lo humano
Aparte del funcionamiento gradualmente autónomo de la inteligencia artificial, lo cierto es que a día de hoy resulta imposible desprenderse del factor humano. Tres son los aspectos más preocupantes en este escenario:
- Quién debe tener la última palabra en caso de discrepancia entre la máquina y el humano.
- Qué grado de responsabilidad debe tener el humano en caso de fallo del sistema de inteligencia artificial.
- La inteligencia artificial no es en sí misma solo un medio para incrementar la productividad, sino también está para para mejorar las condiciones laborales de los trabajadores. Teniendo la inteligencia artificial esa gran capacidad de procesar enormes cantidades de datos, esta aún no ha conseguido atribuirles significado
5. El uso del rostro humano
Teniendo la inteligencia artificial esa gran capacidad de procesar enormes cantidades de datos, esta aún no ha conseguido atribuirles significado, pues el que los datos sean significativos o relevantes, solo lo puede hacer el ser humano, ya que el significado está estrechamente unido a la respuesta ética que la subjetividad humana da frente al rostro de otro ser humano. Sin este mutuo reconocimiento, el Big Data no significa nada. Por todo ello,
- La utilización del rostro humano en inteligencias artificiales presenta grandes retos para el derecho. El rostro como elemento biométrico que nos identifica como persona está protegido de diferentes formas. Por un lado, los derechos a la identidad y a la autodeterminación van a permitir proteger a los sujetos de las posibles alteraciones que produzca la inteligencia artificial.
- Por otro lado, los sistemas de reconocimiento facial están considerados como de alto riesgo en el borrador de regulación de la inteligencia artificial de la Comisión Europea. Para su utilización se van a tener que testar en sistemas seguros, realizar códigos de conducta y establecer sistemas de cumplimiento ético de gran complejidad. Los casos de utilización de sistemas de vigilancia masivos mediante reconocimiento facial, como los utilizados masivamente en China, han de estar prohibidos en Europa por su gran impacto en la privacidad, la libertad y la autonomía de los ciudadanos.
- El procesamiento de rostros está llegando a un nivel tal, que no vamos a poder distinguir entre lo que es real y lo que es ficticio (como ocurre con los filtros en redes sociales, por ejemplo). Esto produce un gran daño a la reputación de la persona cuyo rostro se está procesando y, además, puede ser utilizado con fines espurios, o para alterar nuestros sistemas democráticos destruyendo la reputación de nuestros representantes. Los casos del falsos desnudos de niños y adolescentes de Almendralejo (España) elaborados por niños de entre 12 y 14 años, son una buena prueba de la gravedad del problema.
Como bien dice María Isabel Montserrat Sánchez-Escribano, “todos estos son solo algunos ejemplos de hacia dónde debe dirigir la mirada el derecho cuando se trata de juzgar a una inteligencia artificial. Los problemas a los que esta se enfrenta actualmente dejan además entrever las importantes necesidades normativas que existen con relación a esta materia”, y añade: “Es necesario garantizar que la traslación de los resultados de las investigaciones técnicas de inteligencia artificial a la realidad social y empresarial se produzca en un marco jurídico adecuado. Un marco que permita arbitrar un entorno seguro y libre de amenazas indeseadas para los usuarios de los productos y servicios derivados de la inteligencia artificial, de modo que, a su vez, se genere un clima de confianza y de aceptación social de estas tecnologías”.
Por eso es tan importante la regulación de estas tecnologías, por el impacto que pueden ejercer en los derechos fundamentales, así como por la utilización maligna de nuestros rostros que pueden ser objeto de un uso inadecuado, lo que constituye una amenaza para nuestra integridad y nuestra privacidad, que ha de ser abordada y protegida por los sistemas jurídicos. La finalidad es la de poder seguir siendo personas dentro de un entorno artificial que se nos puede escapar de las manos si no se regula.
Por lo pronto, en España el Consejo General del Poder Judicial (CGPG) parece mover ficha tecnológica. Hace unas semanas se conocía la creación de un grupo de trabajo bajo el nombre de Tecnología, Inteligencia artificial y administración de justicia dirigido por el juez Eloy Velasco y formado por otros cinco jueces y juezas mas dos ingenieros, con el objeto de elaborar un catálogo de herramientas de inteligencia artificial que puedan aplicarse a la Justicia en España. La finalidad es la de que estas tecnologías puedan ayudar a agilizar la justicia, y a que esta sea mas eficaz, buscando en que tipos de procedimientos se pueden aplicar automatismos y procesos inteligentes. Por el momento, quedan fuera del análisis de este grupo los retos que se plantean en este artículo.
En enero de este año, el Consejo General del Poder Judicial (CGPJ) y la Universidad de Granada presentaron el libro titulado El derecho y la Inteligencia Artificial, una obra que reúne las ponencias presentadas en el curso de formación sobre esta materia dirigido a miembros de la Carrera Judicial que ambas instituciones organizan desde hace cuatro años.
Entre otras cuestiones, el libro aborda temas fundamentales de la Inteligencia Artificial (IA) desde la perspectiva del Derecho y, en especial, en relación con los desafíos éticos y jurídicos que plantea, tratando de dar respuesta a diferentes cuestiones, entre ellas si los robots deberían tener personalidad jurídica, quién asume la responsabilidad civil en caso de fallo de un vehículo autónomo, si surgirán nuevas formas delictivas a partir de esta tecnología, o qué uso están haciendo de ella las Fuerzas de Seguridad del Estado.
Comentarios