¿Dependemos emocionalmente de la IA? Bienvenidos a la economía del apego
Inteligencia Artificial
Por Aurélie Jean y Mark Esposito
La irrupción de la IA generativa en todos los sectores está dando lugar a nuevos productos y servicios, nuevas formas de trabajar y nuevos usos en todos los aspectos de nuestra vida personal y profesional. Estas soluciones de IA, sin duda, darán lugar a nuevos modelos de generación de ingresos. Además del modelo actual que explota la atención del usuario, está surgiendo algo específico de la IA generativa: la economía del apego .
Aquí intentamos examinar los riesgos y amenazas que los apegos emocionales artificiales suponen para los seres humanos y para la sociedad en general.
El modelo de atención
El modelo de ingresos de la economía de la atención se basa en la capacidad de conectar con el usuario y captar su atención con la mayor rapidez y duración posibles. Este es el caso de la gran mayoría de redes sociales como X, Instagram, Facebook, TikTok y Snapchat, o de apps de citas y redes profesionales como LinkedIn.
Los algoritmos de recomendación de estas plataformas sugieren contenidos con los que los usuarios están de acuerdo, ideas en las que creen o temas transgresores y controvertidos con una viralidad significativamente mayor.
La recomendación dirigida se basa, entre otras cosas, en filtros burbuja . Las redes sociales segmentan a los usuarios y filtran el contenido que cada uno ve según su comportamiento previo en la plataforma. Un terraplanista tiene más probabilidades de ver contenido que defiende la teoría de la conspiración de la Tierra plana.
La comunidad científica ha llegado a un consenso sobre las amenazas y consecuencias, ampliamente documentadas, del modelo de atención. Estas incluyen el abuso de influencia, la manipulación de opiniones, la fatiga nerviosa y emocional, e incluso la adicción y la depresión. Muchos científicos proponen soluciones concretas y prácticas que requieren una revisión del modelo de ingresos, un cambio significativo en los algoritmos de recomendación y una gobernanza de la IA que priorice las buenas prácticas de diseño y prueba.
Nuevas interacciones entre humanos y IA
En noviembre de 2022, se lanzó la versión 3.5 de ChatGPT , con una rápida adopción masiva. Desde entonces, se han puesto a disposición numerosas herramientas de IA generativa, como Gemini, Le Chat y DeepSeek. Estas herramientas han transformado la forma en que consumimos y procesamos la información, empezando por cómo realizamos búsquedas en línea.
Antes, escribíamos algunas palabras clave en la barra de búsqueda y recibíamos una respuesta filtrada por un algoritmo de selección como el PageRank de Google. Hoy, añadimos consultas en forma de una o más frases en un cuadro de mensaje y obtenemos una respuesta generada por un algoritmo generativo.
Estas nuevas herramientas influyen fuertemente en nuestras interacciones con la máquina que se supone debe asistirnos. En la práctica, debido al diseño de la tecnología y al uso de elementos lingüísticos antropomórficos, existe una tendencia a personificar la herramienta de IA. La elección de pequeños cuadrados o puntos que aparecen con cierta frecuencia mientras el algoritmo obtiene una respuesta da la impresión de que un humano detrás de la pantalla está escribiendo la respuesta en un teclado. Estas decisiones de diseño fomentan, no sin peligro, la Efecto ELIZA , llamado así por el primer chatbot en 1966, que se refiere a una respuesta emocional espontánea hacia una máquina que se parece a nosotros.
Las consecuencias son numerosas. Cada vez más personas utilizan, no sin riesgos, estas aplicaciones de IA conversacional como confidentes. O incluso terapeutas . También se están realizando investigaciones bajo supervisión médica sobre su uso para el tratamiento de pacientes . Se construye gradualmente un vínculo emocional entre la IA generativa y el usuario, lo que obviamente modifica el modelo económico de estas herramientas, con consecuencias potencialmente perjudiciales para el usuario.
Fuente de compromiso
Con un uso cada vez más frecuente y prolongado, las personas tienden a crear un vínculo emocional con los agentes conversacionales de IA debido a la sofisticación de las interacciones y al grado de exclusividad e intimidad que ofrecen, aunque sea artificial. El efecto ELIZA se convierte entonces en un medio para atraer y, sobre todo, retener a los usuarios durante el mayor tiempo posible gracias a la calidad (de nuevo, artificial) de los intercambios. Las personas tienen la impresión de estar interactuando con otra persona que parece comprenderlas.
El apego artificial genera mayor compromiso al generar un vacío emocional que podría generar adicción y aumentar el número de intercambios entre humanos y máquinas. Los datos de estos intercambios podrían utilizarse para enriquecer la base de datos de entrenamiento y validación, o como datos de comportamiento que podrían comercializarse para marketing personalizado y dirigido , por ejemplo.
Amenazas
Los propietarios de herramientas de IA pueden optar por diseñar aplicaciones de IA generativas conversacionales con el objetivo de fortalecer este vínculo emocional con el usuario a lo largo del tiempo. La creciente personalización mediante IA facilitaría este vínculo. La atención, históricamente utilizada como motor de atracción y retención del usuario, sería gradualmente reemplazada por el vínculo emocional.
La economía del apego podría generar una rentabilidad financiera mucho mayor que el modelo basado en la atención, con amenazas similares o incluso mayores. Algunos de los riesgos son el daño a la salud mental de las personas y la manipulación e influencia sobre sus pensamientos con fines comerciales o políticos.
A diferencia de las redes sociales, que implican interacciones con otros humanos, la IA generativa conversacional se limita a las interacciones entre humanos y máquinas. El apego humano-máquina corre el riesgo de aislar aún más a las personas , lo que puede crear un vacío difícil de gestionar. Una "relación" artificial con máquinas "dóciles" no conlleva frustración ni contradicción notable. Las personas podrían desocializarse con el tiempo.
Regulación del diseño de GenAI
Tras los debates sobre cómo legislar el diseño y el uso de la IA, debemos considerar proactivamente los cambios introducidos en el modelo económico de estas plataformas para regular su desarrollo. Un paso importante es regular el diseño considerando los efectos de la dependencia emocional inducida, entre otros factores, por el efecto ELIZA.
Estamos pasando gradualmente de una economía de la atención a una economía del apego cuyos mecanismos deben ser estudiados y para la cual debemos tomar decisiones éticas y legal.
Acerca de los autores
- Esta entrada de blog representa las opiniones de sus autores y no la posición de LSE Business Review ni de la London School of Economics and Political Science.
- Imagen destacada proporcionada por Shutterstock
- Al dejar un comentario, aceptas nuestra Política de comentarios .
El artículo original se puede leer en inglés en London School of Economics. (LSE)
Comentarios