Empresas tecnológicas gigantes planean leer tu mente y controlar tus emociones. ¿Pueden ser detenidos?

 Lynn Parramore


El autor y profesor de derecho Maurice Stucke explica por qué las prácticas de Google, Amazon, Facebook y Apple son tan peligrosas y qué es lo que se necesita realmente para controlarlas. Pista: Es poco probable que las propuestas actuales funcionen.

Google. Amazon. Facebook. Apple. Vivimos dentro de los mundos digitales que han creado, y cada vez hay menos posibilidades de escapar. Conocen nuestras personalidades. Registran si somos impulsivos o propensos a la ansiedad. Entienden cómo respondemos a historias tristes e imágenes violentas. Y usan este poder, que proviene de la extracción incesante de nuestros datos personales todo el día, todos los días, para manipularnos y convertirnos en adictos.

El profesor de derecho de la Universidad de Tennessee, Maurice Stucke, es parte de una vanguardia progresista y antimonopolio de expertos que analizan la privacidad, la competencia y la protección del consumidor en la economía digital. En su nuevo libro, Breaking Away: How to Regain Control Over Our Data, Privacy, and Autonomy, explica cómo estos gigantes tecnológicos han hecho metástasis en "opolios de datos", que son mucho más peligrosos que los monopolios de ayer. Su invasión de la privacidad no se parece a nada que el mundo haya visto antes, pero, como argumenta Stucke, su potencial para manipularnos es aún más aterrador.

Con el poder masivo y sin precedentes de estas cuatro empresas, ¿qué herramientas tenemos para desafiarlas de manera efectiva? Stucke explica por qué las propuestas actuales para dividirlos, regular sus actividades y alentar la competencia no alcanzan lo que se necesita para enfrentar la amenaza que representan no solo para nuestras billeteras y bienestar individuales, sino para toda la economía, y para la democracia misma.

Lynn Parramore: Las grandes empresas que recopilan y trafican con datos, "opolios de datos" las llamas, ¿por qué representan un peligro tan grande?

Maurice Stucke: La gente solía decir que las empresas dominantes como Google deben ser benignas porque sus productos y servicios son gratuitos (o de bajo precio, como Amazon) e invierten mucho en I+D y ayudan a promover la innovación. El erudito legal Robert Bork argumentó que Google no puede ser un monopolio porque los consumidores no pueden verse perjudicados cuando no tienen que pagar.

Escribí un artículo para Harvard Business Review revisando ese pensamiento y preguntando qué daños pueden causar los monopolios de datos. Se me ocurrió una taxonomía de cómo pueden invadir nuestra privacidad, obstaculizar la innovación, afectar nuestras billeteras indirectamente e incluso socavar la democracia. En 2018 hablé con la legislatura canadiense sobre estos daños potenciales y esperaba muchas reacciones negativas. Pero uno de los legisladores inmediatamente dijo: “Ok, entonces, ¿qué vamos a hacer al respecto?”.

En los últimos cinco o seis años, hemos tenido un cambio radical en la visión de los monopolios de datos. La gente solía argumentar que la privacidad y la competencia no estaban relacionadas. Ahora existe la preocupación de que estas empresas tecnológicas gigantes no solo representan un grave riesgo para nuestra democracia, sino que las herramientas actuales para lidiar con ellas también son insuficientes.

Investigué mucho y hablé ante muchas autoridades de competencia y escuché propuestas que estaban considerando. Me di cuenta de que no había una solución simple. Esto llevó al libro. Vi que incluso si se aprobaran todas las propuestas, todavía habrá algunas deficiencias.

LP: ¿Qué hace que los monopolios de datos sean incluso más dañinos que los monopolios tradicionales?

MS: Primero, tienen armas de las que carecían los monopolios anteriores. Un monopolio anterior no necesariamente podría identificar todas las amenazas competitivas nacientes. Pero los monopolios de datos tienen lo que llamamos un "radar de predicción inmediata". Esto significa que, a través del flujo de datos, pueden ver cómo los consumidores usan nuevos productos y cómo estos nuevos productos ganan escala y cómo se expanden. Por ejemplo, Facebook (FB) tenía, irónicamente, una aplicación de privacidad que uno de los ejecutivos llamó “el regalo que seguía dando”. A través de los datos recopilados a través de la aplicación, reconocieron que WhatsApp era una amenaza para FB como red social porque estaba comenzando a transformarse de un simple servicio de mensajería.

Otra ventaja es que a pesar de que los diversos monopolios de datos tienen modelos comerciales ligeramente diferentes y se ocupan de diferentes aspectos de la economía digital, todos se basan en el mismo conjunto de herramientas anticompetitivas: lo llamo "ACK: adquirir, copiar o matar". ” Tienen mayores mecanismos para identificar amenazas potenciales y adquirirlas o, si son rechazadas, copiarlas. Los viejos monopolios podían copiar los productos, pero los monopolios de datos pueden hacerlo de una manera que prive al rival de escala, lo cual es clave. Y tienen más armas para acabar con las amenazas competitivas nacientes.

La otra gran diferencia entre los monopolios de datos de hoy y los monopolios de antaño es el alcance de los efectos anticompetitivos. Un monopolio anterior (que no sea, digamos, una empresa de periódicos), podría traer menos innovación y precios ligeramente más altos. General Motors podría ofrecerle autos de peor calidad o menos innovación y podría pagar un precio más alto. En la industria del acero, puede obtener plantas menos eficientes, precios más altos, etc. (y recuerde, nosotros como sociedad pagamos por esos monopolios). Pero con los monopolios de datos, el daño no es solo para nuestras billeteras.

Puedes verlo con FB. No es solo que extraen más dinero de la publicidad conductual; es el efecto que sus algoritmos tienen en el discurso social, la democracia y toda nuestra economía (los "Archivos de Facebook" del Wall Street Journal realmente lo sacaron a la luz). Hay daños significativos a nuestro bienestar.

LP: ¿En qué se diferencia la publicidad conductual de la publicidad regular? Después de todo, un anuncio de una barra de chocolate quiere que cambie mi comportamiento para comprar más barras de chocolate. ¿Qué significa para una empresa como Facebook vender la capacidad de modificar el comportamiento de una adolescente?

MS: La publicidad conductual a menudo se presenta como una forma de ofrecernos anuncios más relevantes. Existe la opinión de que las personas tienen estas demandas y deseos preconcebidos y que la publicidad conductual solo les brinda anuncios que son más relevantes y receptivos. Pero el cambio con la publicidad conductual es que ya no solo predices el comportamiento, sino que lo manipulas.

Digamos que un adolescente va a la universidad y necesita una computadora portátil nueva. FB puede dirigirse a ella con computadoras portátiles relevantes que se ajusten a sus necesidades particulares, reduciendo sus costos de búsqueda y, como resultado, mejorando su situación. Eso estaría bien, pero no es ahí donde estamos. Las innovaciones se centran en comprender las emociones y manipularlas. Una adolescente puede ser objeto no solo de anuncios, sino también de contenido destinado a aumentar y mantener su atención. Comenzará a verse inundada de imágenes que tienden a aumentar su creencia en su inferioridad y la hacen sentir menos segura. Su bienestar se reduce. Cada vez es más probable que esté deprimida. Para algunos usuarios de Instagram, hay un aumento de pensamientos sobre el suicidio.

Y no se trata solo de los monopolios de datos. Las aplicaciones de juegos de azar están orientadas a identificar a las personas propensas a la adicción y manipularlas para que jueguen. Estas aplicaciones pueden predecir cuánto dinero pueden ganar con estas personas y cómo atraerlas, incluso cuando tienen dificultades financieras. Como dijo un abogado, estas aplicaciones de juego convierten la adicción en código.

Esto es muy preocupante, y va a empeorar aún más. Los monopolios de datos están pasando de abordar demandas preconcebidas a impulsar y crear demandas. Están preguntando, ¿qué te hará llorar? ¿Qué te pondrá triste? Microsoft tiene una innovación mediante la cual tiene una cámara que rastreará qué eventos particulares le causan emociones particulares, brindando una vista personalizada de los estímulos para individuos particulares. Es como si golpeo tu pierna aquí, puedo obtener este reflejo. Hay un dicho de marketing que dice: "Si haces que lloren, haces que compren". O, si usted es el tipo de persona que responde a las imágenes violentas, lo enviarán a un mercado dirigido a su psique para inducir el comportamiento de comprar, digamos, un arma.

Lo aterrador de esto es que estas herramientas no se están poniendo en cuarentena a la publicidad conductual; los partidos políticos están utilizando herramientas similares para impulsar el comportamiento de los votantes. Obtienes un poco de información sobre esto con Cambridge Analytica. No se trataba solo de dirigirse al individuo con un mensaje personalizado para que votara por un candidato en particular; se trataba de apuntar a otros ciudadanos que probablemente no votarían por su candidato para disuadirlos de votar. Ya hemos visto en los archivos de FB que los algoritmos creados por los monopolios de datos también están causando que los partidos políticos hagan que los mensajes sean más negativos porque eso es lo que se recompensa.

LP: ¿Hasta dónde crees que puede llegar la manipulación?

MS: La próxima frontera es leer los pensamientos de las personas. En un próximo libro con Arial Ezrachi, How Big Tech Barons Smash Innovation and How to Strike Back, hablamos sobre un experimento realizado por la Universidad de California, San Francisco, donde por primera vez pudieron decodificar los pensamientos de un individuo. Una persona que sufría de parálisis del habla intentaría decir una oración, y cuando el algoritmo descifró las señales del cerebro, los investigadores pudieron entender lo que la persona estaba tratando de decir. Cuando los investigadores le preguntaron a la persona: "¿Cómo estás?" el algoritmo podría descifrar su respuesta a partir de su actividad cerebral. El algoritmo podría decodificar unas 18 palabras por minuto con una precisión del 93 por ciento. Primero, la tecnología descifrará las palabras que intentamos decir e identificará a partir de nuestros sutiles patrones cerebrales un léxico de palabras y vocabulario. A medida que la IA mejore, decodificará nuestros pensamientos. Resulta que FB fue uno de los contribuyentes que financió la investigación, y nos preguntamos por qué. Bueno, eso es porque están preparando estos auriculares para el metaverso que probablemente no solo transmitirá toda la violencia y los conflictos de las redes sociales, sino que potencialmente puede decodificar los pensamientos de un individuo y determinar cómo le gustaría ser percibido y presentarse en el metaverso. Vas a tener un reino completamente diferente de personalización.

Realmente estamos en una carrera armamentista por lo que las empresas no pueden darse el lujo de desescalar unilateralmente porque entonces pierden una ventaja competitiva. Es una carrera para explotar mejor a los individuos. Como se ha dicho, se recopilan datos sobre nosotros, pero no para nosotros.

LP: Mucha gente piensa que una mayor competencia ayudará a reducir estas prácticas, pero su estudio es bastante escéptico de que una mayor competencia entre las grandes empresas de plataformas solucione muchos de los problemas. ¿Puedes explicar por qué adoptas este punto de vista? ¿Cómo es la competencia en sí tóxica en este caso?

MS: La suposición es que si simplemente controlamos los monopolios de datos y tal vez los dividamos o regulamos su comportamiento, estaremos mejor y nuestra privacidad mejorará. Hubo, hasta cierto punto, una mayor protección sobre nuestra privacidad mientras estos monopolios de datos aún estaban en sus etapas iniciales. Cuando MySpace todavía era un factor importante, FB no podía darse el lujo de ser tan voraz en su recopilación de datos como lo es ahora. Pero ahora tiene toda esta cadena de valor basada en la extracción de datos para manipular el comportamiento; entonces, incluso si esto se volviera más competitivo, no hay garantía de que nos vayamos a beneficiar como resultado. En lugar de tener Meta, podríamos tener FB separado de Instagram y WhatsApp. Bueno, todavía tendría empresas que dependen de los ingresos por publicidad conductual compitiendo entre sí para encontrar mejores formas de atraernos, volvernos adictos y luego manipular el comportamiento. Puedes ver cómo sucedió esto con TikTok. Agregar TikTok a la mezcla no mejoró nuestra privacidad.

LP: Entonces, ¿un jugador más solo agrega un ataque más a su privacidad y bienestar?

MS: Correcto. Ariel y yo escribimos un libro, Sobredosis de competencia, donde exploramos situaciones en las que la competencia podría ser tóxica. La gente tiende a suponer que si el comportamiento favorece la competencia, es bueno y si es anticompetitivo, es malo. Pero la competencia puede ser tóxica de varias maneras, como cuando se trata de una carrera hacia el abismo. A veces, las empresas no pueden desescalar unilateralmente, y simplemente agregando más empresas a la mezcla, tendrá una carrera más rápida hacia el fondo.

LP: Algunos analistas han sugerido que otorgar a las personas derechos de propiedad más amplios sobre sus datos ayudaría a controlar las grandes empresas de datos, pero usted es escéptico. ¿Puede explicar las fuentes de sus dudas?

MS: Un mercado que funcione correctamente requiere que se den ciertas condiciones. Cuando se trata de datos personales, muchas de esas condiciones están ausentes, como explora el libro.

Primero, está el desequilibrio del conocimiento. Los mercados funcionan bien cuando las partes contratantes están plenamente informadas. Cuando compras un tornillo en una ferretería, por ejemplo, sabes el precio antes de comprarlo. Pero no sabemos el precio que pagamos cuando entregamos nuestros datos, porque no sabemos todas las formas en que se usarán nuestros datos o el daño que nos puede ocasionar ese uso. Supongamos que descarga una aplicación aparentemente gratuita, pero recopila, entre otras cosas, su geolocalización. Ninguna lista de verificación dice que estos datos de geolocalización podrían ser utilizados por acosadores o por el gobierno o para manipular a sus hijos. Simplemente no lo sabemos. Entramos en estas transacciones a ciegas. Cuando compra una caja de tornillos, puede evaluar rápidamente su valor. Simplemente multiplicas el precio de un tornillo. Pero no puedes hacer eso con puntos de datos. Muchos puntos de datos pueden ser mucho más dañinos para su privacidad que solo la suma de cada punto de datos. Es como intentar valorar un cuadro de Georges Seurat valorando cada punto. Necesitas ver el panorama general; pero cuando se trata de datos personales, el único que tiene esa visión más amplia es la empresa que acumula esos datos, no solo en sus propios sitios web, sino también en la adquisición de datos de terceros.

Por lo tanto, ni siquiera conocemos el daño adicional que cada punto de datos adicional podría tener en nuestra privacidad. No podemos evaluar el valor de nuestros datos, y no sabemos el costo de renunciar a esos datos. Realmente no podemos decir, está bien, este es el beneficio que recibo: puedo usar FB y entiendo los costos para mí.

Otro problema es que normalmente un derecho de propiedad involucra algo que es excluible, definible y fácil de asignar, como tener un interés de propiedad en un terreno. Puede poner una valla alrededor y excluir a otros de su uso. Es fácil identificar lo que es tuyo. A continuación, puede asignarlo a otros. Pero con los datos, ese no es siempre el caso. Existe una idea llamada "privacidad en red" y la preocupación es que las elecciones que hacen otros en términos de los datos que venden o ceden pueden tener un efecto negativo en su privacidad. Por ejemplo, tal vez decidas no revelar tus datos de ADN a 23andMe. Bueno, si un pariente entrega su ADN, eso va a implicar su privacidad. La policía puede mirar una coincidencia de ADN y decir, está bien, probablemente sea alguien dentro de una familia en particular. La elección de uno puede afectar la privacidad de los demás. O tal vez alguien publique una foto de su hijo en FB que usted no quería que se publicara. O alguien le envía un mensaje personal con Gmail u otro servicio con pocas protecciones de privacidad. Entonces, incluso si tienes un derecho de propiedad sobre sus datos, las elecciones de otros pueden afectar negativamente su privacidad.

Si tenemos derechos de propiedad sobre sus datos, ¿cómo cambia eso las cosas? Cuando Mark Zuckerberg testificó ante el Congreso después del escándalo de Cambridge Analytica, se le preguntó constantemente quién es el propietario de los datos. Siguió diciendo que el usuario lo posee. Fue difícil de entender para los senadores porque los usuarios ciertamente no dieron su consentimiento para que sus datos se compartiesen con Cambridge Analytica para ayudar a impactar una elección presidencial. FB puede decirte que eres el propietario de los datos, pero para hablar con tus amigos, debes estar en la misma red que tus amigos, y FB puede decirte fácilmente: "Ok, es posible que seas el propietario de los datos, pero para usar FB Vas a tener que darnos un acceso sin igual a él”. ¿Qué elección tienes?

El ecosistema digital tiene múltiples efectos de red en los que lo grande se hace más grande y se vuelve más difícil cambiar. Si me dicen que soy dueño de mis datos, me será muy difícil evitar los monopolios de datos. Para hacer una búsqueda, seguiré usando Google, porque si voy a DuckDuckGo no obtendré un resultado tan bueno. Si quiero ver un video, voy a ir a YouTube. Si quiero ver fotos de la obra escolar, es probable que esté en FB. Entonces, cuando la desigualdad en el poder de negociación es tan profunda, poseer los datos no significa mucho.

Estos monopolios de datos generan miles de millones en ingresos a partir de nuestros datos. Incluso si otorga a los consumidores la propiedad de sus datos, estas poderosas empresas aún tendrán un fuerte incentivo para continuar obteniendo esos datos. Entonces, otra área de preocupación entre los formuladores de políticas hoy en día son los "patrones oscuros". Eso es básicamente usar la economía del comportamiento para mal. Las empresas manipulan el comportamiento en la forma en que enmarcan las opciones, estableciendo todo tipo de obstáculos de procedimiento que le impiden obtener información sobre cómo se utilizan sus datos. Pueden hacer que sea muy difícil optar por no participar en ciertos usos. Lo hacen para que el comportamiento deseado no tenga fricción y el comportamiento no deseado tenga mucha fricción. Te desgastan.

LP: Eres enfático acerca de las muchas cosas buenas que pueden surgir al compartir datos que no amenazan a las personas. Usted basa su caso en lo que los economistas llaman el carácter "no rival" de muchas formas de datos: que el uso de datos por parte de una persona no necesariamente resta valor a otros buenos usos de los datos por parte de otros. Sin embargo, observa cómo las empresas de big data a menudo se esfuerzan por mantener sus datos privados de manera que impidan que la sociedad los use para nuestro beneficio colectivo. ¿Puedes explicarnos tu argumento?

MS: Esto puede suceder en varios niveles diferentes. En un nivel, imagine todos los conocimientos en muchas disciplinas diferentes que podrían obtenerse de los datos de FB. Si los datos se compartiesen con varias universidades, los investigadores podrían obtener muchos conocimientos sobre la psicología humana, la filosofía política, la salud, etc. Del mismo modo, los datos de los dispositivos portátiles también podrían cambiar las reglas del juego en la salud, ya que nos brindan mejores predictores de enfermedades o mejores identificadores de cosas que debemos evitar. Imagine todos los avances médicos si los investigadores tuvieran acceso a estos datos.

En otro nivel, el gobierno puede reducir el tiempo y el costo para acceder a estos datos. Considere todos los datos que se extraen de los sitios web gubernamentales, como la Oficina de Estadísticas Laborales. Se remonta a la idea de John Stuart Mill de que una de las funciones del gobierno es recopilar datos de todas las fuentes diferentes, agregarlos y luego permitir su difusión. Lo que captó es la naturaleza no rival de los datos y cómo los datos pueden ayudar a informar la innovación, ayudar a informar la democracia y proporcionar otros conocimientos beneficiosos.

Entonces, cuando algunas empresas poderosas acumulan datos personales, capturan parte de su valor. Pero mucho valor potencial queda sin explotar. Esto es particularmente problemático cuando las innovaciones en el aprendizaje profundo para la IA requieren grandes conjuntos de datos. Para desarrollar esta tecnología de aprendizaje profundo, debe tener acceso a las materias primas. Pero los que poseen estos grandes conjuntos de datos se los dan selectivamente a las instituciones para los fines de investigación que desean. Conduce a la creación de "poseedores de datos" y "desposeídos". Un monopolio de datos también puede afectar el camino de la innovación.

Una vez que ve el acaparamiento de datos, ve que queda mucho valor para la sociedad sobre la mesa.

LP: Entonces, con los monopolios de datos, ¿las cosas socialmente útiles que podrían provenir de la recopilación de datos personales se bloquean mientras se persiguen las cosas socialmente dañinas?

MS: Sí. Pero el hecho de que los datos no sean rivales no significa necesariamente que debamos dar los datos a todos los que puedan extraer valor de ellos. Como se explica en el libro, muchos pueden obtener valor de sus datos de geolocalización, incluidos los acosadores y el gobierno al vigilar a su gente. El hecho de que obtengan valor no significa que la sociedad en general obtenga valor de ese uso. La Corte Suprema sostuvo en Carpenter contra Estados Unidos que el gobierno necesita obtener una orden de allanamiento respaldada por una causa probable antes de poder acceder a nuestros datos de geolocalización. Pero la administración Trump dijo, espera, ¿por qué necesitamos una orden judicial cuando podemos simplemente comprar datos de geolocalización a través de bases de datos comerciales que mapean todos los días nuestros movimientos a través de nuestros teléfonos celulares? Así que en realidad compraron datos de geolocalización para identificar y ubicar a aquellas personas que estaban ilegalmente en este país.

Una vez que el gobierno accede a nuestros datos de geolocalización a través de fuentes comerciales, puede darles diferentes usos. Piense en cómo se podrían usar estos datos en relación con las clínicas de aborto. Roe contra Wade se basó en la idea de que la Constitución protege la privacidad, que surgió de Griswald contra Connecticut, donde la Corte formuló un derecho a la privacidad para permitir que las parejas casadas usen métodos anticonceptivos. Ahora, algunos de los jueces creen que la Constitución realmente no dice nada sobre la privacidad y que no existe un derecho fundamental e inalienable a la misma. Si ese es el caso, las preocupaciones son grandes.

LP: Su libro aprecia críticamente las leyes recientes de California y Europa sobre privacidad de datos. ¿Qué crees que es bueno en ellos y qué crees que no es útil?

MS: La Ley de derecho a la privacidad de California de 2020 fue definitivamente un avance sobre el estatuto de 2018, pero aún no nos lleva hasta allí.

Un problema es que la ley permite a los clientes optar por no participar en lo que se denomina "publicidad conductual de contexto cruzado". Puede decir: "No quiero tener una cookie que luego me rastree mientras navego por los sitios web". Pero no impide que los monopolios de datos o cualquier plataforma recopilen y utilicen datos propios para publicidad conductual, a menos que se considere información personal confidencial. Entonces FB puede continuar recopilando información sobre nosotros cuando estamos en su red social.

Y en realidad va a inclinar el campo de juego aún más hacia los monopolios de datos porque ahora los jugadores más pequeños necesitan confiar en el seguimiento a través de múltiples sitios web y corredores de datos para recopilar información porque no tienen tantos datos propios ( datos que recopilan directamente).

Tomemos un ejemplo. The New York Times tendrá buenos datos sobre sus lectores cuando lean un artículo en línea. Pero sin rastreadores de terceros, no tendrán tanta información sobre lo que hacen los lectores después de leerlo. No saben a dónde fueron los lectores, qué video vieron, qué otros sitios web visitaron.

A medida que pasemos más tiempo dentro de los ecosistemas de los monopolios de datos, estas empresas tendrán más información sobre nuestro comportamiento. Paradójicamente, optar por no participar en la publicidad conductual de contexto cruzado beneficiará a los jugadores más poderosos que recopilan más datos propios, y no son solo datos propios, son los datos propios los que pueden ayudarlos a manipular mejor nuestro comportamiento. .

Entonces, el caso del libro es que si realmente queremos hacer las cosas bien, si queremos reajustarnos y recuperar nuestra privacidad, nuestra autonomía y nuestra democracia, entonces no podemos simplemente confiar en las herramientas de política de competencia existentes. No podemos confiar únicamente en muchas de las propuestas de Europa u otras jurisdicciones. Son necesarios pero no suficientes. Para enderezar el barco, tenemos que alinear las políticas de privacidad, competencia y protección al consumidor. Habrá momentos en que la privacidad y la competencia entren en conflicto. Es inevitable, pero podemos minimizar ese conflicto potencial armonizando primero las políticas. Una forma de hacerlo es asegurarnos de que la competencia que tengamos sea una forma saludable de competencia que nos beneficie en lugar de explotarnos. Para hacer eso, realmente se trata de ir tras la publicidad conductual. Si desea corregir este problema, debe abordarlo. Ninguna de las propuestas de políticas hasta la fecha ha abordado realmente la publicidad conductual y los incentivos perversos que crea.

Sobre la Autora:


El artículo original está publicado en inglés en Institute for New Economic Thinking (INET)

Artículo traducido por L. Domenech


Comentarios