¿Y si Meta nos pagase por usar nuestras fotos y datos de Instagram y Facebook para entrenar a la IA?

Natee Meepian / Shutterstock
Francisco José Pradana, Universidad Europea y María Luisa Fanjul Fernández, Universidad Europea

Hace solo unos días Meta presentaba una nueva actualización de su modelo de lenguaje de gran tamaño llamado Meta Llama 3, el que sería la base de Meta IA, la inteligencia artificial que la empresa de Mark Zuckerberg quiere desplegar en Facebook, Instagram y WhatsApp a nivel global. Esta actuación tal y como la han planteado no es ilegal.

En la presentación, Meta resaltaba el trabajo que está realizando para entrenar su modelo con una gran variedad de datos que mejore la calidad de la respuesta e interacción de Meta IA. Uno de los objetivos es que la IA genere contenidos propios que lleguen a nuestras redes sociales, sean creíbles y adaptados a lo que más nos gusta.

Este asistente personal ya está disponible en Estados Unidos, Australia y Canadá y, además de IA conversacional, funciona como IA generativa para crear contenidos. El proceso es imparable.

Inmediatamente después, la empresa matriz de Facebook e Instagram comunicó que utilizará las fotografías y otros contenidos publicados por los usuarios en sus plataformas para entrenar su inteligencia artificial generativa.

La actualización de su política de privacidad entrará en vigor el 26 de junio de 2024. Esto permitirá a la compañía utilizar las publicaciones, fotos, vídeos y otros contenidos compartidos por los usuarios en sus plataformas para entrenar su inteligencia artificial.

Como era de esperar, la implementación de esta política ha generado una gran polémica y preocupación entre usuarios, especialmente entre artistas y creadores de contenido que temen por la privacidad y el uso no autorizado de sus obras.

La compañía ha proporcionado una opción para que los usuarios puedan rechazar el uso de sus datos a través de un formulario específico, aunque no sin críticas. El proceso ha sido tachado de complicado y poco accesible.

Otras redes y tecnológicas detrás de esta práctica

La controversia se intensifica en un momento en que la carrera por desarrollar la mejor inteligencia artificial está en pleno auge. Esto impacta significativamente a las empresas tecnológicas y a su cotización en bolsa.

La semana pasada, el fabricante de chips Nvidia, uno de los competidores de Meta, anunció un aumento en sus beneficios del primer trimestre fiscal gracias a la IA.

El año se abría con la denuncia de The New York Times a Microsoft y OpenIA por utilizar contenidos protegidos con derechos de autor del diario para entrenar sus algoritmos. Esto desencadenaba un largo debate sobre los datos que utilizan las IA para nutrir sus respuestas.

Esto ha llevado a que se firmasen acuerdos para el uso de obras, como el de OpenIA con los grupos editoriales Prisa en España, Le Monde en Francia y con la editorial académica alemana Axel Springer y recientemente con el grupo News Corp, propietario de The Wall Street Journal, por 230 millones de euros.

X ya lo ha hecho y TikTok también

Está a la orden del día que estas empresas utilicen datos que recolectan de internet, con poco control, para alimentar sus IA.

Recientemente saltó a la palestra el caso de X (antes Twitter), en el que se filtró que la empresa de Elon Musk había estado utilizando las publicaciones de usuarios para construir su inteligencia artificial: Grok, disponible para perfiles prémium.

De una u otra forma, todas las redes sociales utilizan algoritmos de inteligencia artificial para personalizar los contenidos que visualizamos. Por ejemplo, TikTok utiliza esta información para crear un “Para ti” único basado en vídeos similares a los que más consumes. Esto ha llevado a que, tras la entrada en vigor de la Ley de Servicios Digitales de la Unión Europea, la red social adopte nuevas medidas que permitan desactivar el uso de determinada información o funcionalidades relacionadas con los datos.

Qué pasa con nuestros datos y fotos

Si Meta o cualquier otra empresa quiere utilizar nuestros datos, debe ser transparente con ello en su política de privacidad. Esto permite al usuario tener un control sobre la información que utilizan, cómo y para qué.

Con la actualización de la política, desde el 26 de junio de 2024 la red social comenzará a utilizar fotografías, vídeos y textos que publiquen sus usuarios (descripciones, comentarios, etc.), y de aquellos contenidos ya publicados con anterioridad.

El usuario tendrá ahora dos opciones: borrar el contenido que no quiere “regalar” a la IA o ejercer el derecho de oposición a este uso en las aplicaciones de Meta. Para esta última opción se han inundado las redes con tutoriales y tips para hacerlo. Resumidamente, rellenar un formulario bastante oculto oponiéndose a ello.

¿Y si Meta pagara por nuestros datos?

La idea no es nada descabellada. Y quizás ayudaría a que, como usuarios, nos siente mejor, o al menos no tan mal.

Además de los acuerdos de empresas de IA con propietarias de contenidos (imágenes, textos, vídeos, audios, etc.), valorados en millones de euros, empresas como WorldCoin ya ofrecen criptomonedas por el contenido de los usuarios. Concretamente por escanear biométricamente nuestro iris y generar una ID virtual única.

Los datos son una moneda de cambio. Igual que ya está regulado el pago con datos personales para acceder a servicios “gratuitos” o freemium, incluso pagar una suscripción por no usar datos personales, como ocurre en X Premium, podría ser perfectamente válido un modelo en el que las empresas paguen por nuestros datos digitales. Posiblemente esto establecería un equilibrio entre privacidad y beneficio. Al menos, que el usuario reciba una parte de la tarta.The Conversation

Francisco José Pradana, Profesor de Comunicación y director de Postgrado, Universidad Europea y María Luisa Fanjul Fernández, Profesora, Universidad Europea

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Comentarios