Detrás del auge de TikTok: una legión de moderadores de contenido traumatizados que cobran $10 al día

 Niamh McIntyre, Rosie Bradbury y Billy Perrigo


Nota del Editor

Hoy transcribo íntegramente un artículo traducido por mi de una investigación de The Bureau of Investigative Journalism que trata sobre la moderación de contenidos por parte de los trabajadores colombianos que en Bogotá trabajan para la empresa francesa Teleperformance, que tiene su sede en París y 42.000 trabajadores contratados solo en Colombia. 

Los trabajadores en su jornada laboral se ven obligados a ver videos que contienen asesinatos, suicidios, casos de pederastia, contenido pornográfico, accidentes o canibalismo, entre otros, y esto lo tienen que hacer en largas jornadas sin descanso apenas, durante seis días a la semana en turnos diurnos y nocturnos, y a algunos les pagan tan solo 1,2 millones de pesos colombianos al mes (equivalentes a 235 libras esterlinas), en comparación con alrededor de 200 libras esterlinas al mes para los moderadores de contenido con sede en el Reino Unido. Su trabajo les produce un severo deterioro de su salud mental. Los daños mentales que les produce el trabajo de moderación de contenido están bien documentados, y los moderadores con los que habló la Oficina informaron de sufrir muchos síntomas causados o exacerbados por su trabajo, que incluyen depresión, ansiedad, soledad, temblores y falta de sueño.

Considero por tanto un deber el publicar íntegro este artículo, pues creo que todos deberían de conocer que es lo que hay tras esta red social, de la cual creo que lo mejor que se puede hacer para protegerse, es mantenerse lo mas alejado posible de ella.

Advertencia de contenido: 

Esta historia contiene una descripción de violencia extrema e inquietante, de suicidios, abuso infantil y crueldad hacia los animales.


The Journal of Investigative Journalism

Por Niamh McIntyre, Rosie Bradbury y Billy Perrigo

Advertencia de contenido: esta historia contiene una descripción de violencia extrema e inquietante, de suicidios, abuso infantil y crueldad hacia los animales.


Luis, un estudiante colombiano de 28 años, trabaja toda la noche moderando videos para TikTok. Durante el día, trata de dormir un poco, pero a veces los videos lo persiguen en sueños.


Recuerda un video tomado en una fiesta, con dos personas sosteniendo lo que inicialmente parecían trozos de carne. Cuando se dieron la vuelta, parecía que sostenían piel y cartílago que habían sido arrancados de rostros humanos. “Lo peor fue que los amigos estaban jugando y comenzaron a usar rostros humanos como máscaras”, dijo.


Luis hizo una lista del tipo de contenido que ve regularmente: incluyen “Asesinatos, suicidios, pedófilias, contenido pornográfico, accidentes, o canibalismo”.


Para Carlos, un exmoderador de TikTok, fue un video de abuso sexual infantil lo que le provocó pesadillas. El video mostraba a una niña de cinco o seis años, dijo. “Estaba bailando, como apuntando su espalda a la cámara, estaba tan cerca”.


Lo golpeó particularmente fuerte, dijo, porque él mismo es padre. Hizo una pausa, salió a fumarse un cigarrillo y unos minutos más tarde volvió a la cola de vídeos.


Videos horribles como estos son parte del trabajo diario de los moderadores de TikTok en Colombia. Le dijeron a la Oficina de Periodismo de Investigación sobre el trauma ocupacional generalizado y el apoyo psicológico inadecuado, objetivos de desempeño exigentes o imposibles, deducciones salariales punitivas y vigilancia extensa. Sus intentos de sindicarse para asegurar mejores condiciones  han oposición repetidamente por parte de la empresa.


‘Asesinato, suicidio, pederastia, contenido pornográfico, accidentes, canibalismo’


El rápido crecimiento de TikTok en América Latina (tiene un estimado de 100 millones de usuarios en la región) ha llevado a la contratación de cientos de moderadores en Colombia para librar una batalla interminable contra el contenido perturbador. Trabajan seis días a la semana en turnos diurnos y nocturnos, y a algunos les pagan tan solo 1,2 millones de pesos (235 libras esterlinas) al mes, en comparación con alrededor de 2000 libras esterlinas al mes para los moderadores de contenido con sede en el Reino Unido.


Los trabajadores entrevistados por la Oficina trabajaban en el contenido de TikTok, pero fueron contratados a través de Teleperformance, una empresa multinacional de tercerización de servicios que tiene más de 42.000 trabajadores en Colombia, lo que la convierte en uno de los empleadores privados más grandes del país. Los nueve moderadores solo podían hablar de forma anónima por temor a perder sus trabajos o socavar sus futuras perspectivas laborales.


Ni TikTok ni Teleperformance respondieron a las listas detalladas de acusaciones para esta historia. Ambos emitieron declaraciones diciendo que estaban comprometidos con el bienestar de sus empleados.


Mano de obra humana: 'más barata que la IA'


El algoritmo de recomendación de TikTok es ampliamente considerado como una de las aplicaciones de inteligencia artificial (IA) más efectivas del mundo. Con una precisión casi alarmante, aprende lo que un usuario individual encuentra divertido o atractivo, y les ofrece más contenido que es probable que disfruten.


Pero la experiencia en IA de TikTok solo llega hasta cierto punto. La empresa utiliza trabajadores humanos junto con IA para ayudar a mantener su plataforma libre de contenido dañino. Y cuando los moderadores de contenido en TikTok y otras plataformas marcan un contenido para eliminarlo, no solo lo eliminan. También están recopilando datos sobre las políticas específicas que viola, datos que se pueden usar para entrenar los sistemas de aprendizaje automático de la plataforma para identificar mejor dicho contenido en el futuro.


Algunas plataformas de redes sociales luchan incluso con tareas relativamente simples, como detectar copias de videos terroristas que ya se han eliminado. Pero su tarea se vuelve aún más difícil cuando se les pide que eliminen rápidamente contenido que nadie ha visto antes. “El cerebro humano es la herramienta más efectiva para identificar material tóxico”, dijo Roi Carthy, director de marketing de L1ght, una empresa de IA de moderación de contenido. Los humanos se vuelven especialmente útiles cuando se entrega contenido dañino en nuevos formatos y contextos que la IA puede no identificar.


“No hay nadie que sepa cómo resolver la moderación de contenido de manera integral, punto”, dijo Carthy. "No hay tal cosa."


La existencia de una fuerza laboral global insegura y mal pagada puede estar exacerbando el problema, dijo Carthy. Se requiere más poder de cómputo para analizar videos, que son más complejos que las fotos y el texto. Esto significa que crear IA para moderar videos es especialmente costoso.


“Si observa esto desde una perspectiva monetaria, entonces la IA de moderación de contenido no puede competir con $ 1.80 por hora”, dijo Carthy, refiriéndose a un salario típico para los moderadores de contenido con sede en el sur global. “Si esa es la única dimensión que está viendo, entonces ninguna compañía de IA de moderación de contenido puede competir con eso”.


Apoyo psicológico 'solo para mostrar'


Claudia, una moderadora actual de TikTok, le dijo a la Oficina que se sentía ansiosa y aterrorizada en el trabajo después de ver videos sucesivos de personas comiendo animales vivos. Estos videos populares eran imposibles de evitar y desencadenaron una fobia hacia ella. “Simplemente cubría mi pantalla y esperaba que pasaran 10 segundos”, dijo.


Claudia solicitó apoyo a través del esquema Teleperformance, el cual tenía que ser aprobado por un supervisor, pero no recibió ninguna ayuda durante dos meses. Cuando el personal de apoyo de salud mental de la compañía finalmente se puso en contacto, dijeron que no podían ayudarla y le dijeron que buscara apoyo a través del sistema de salud colombiano.


Los daños mentales del trabajo de moderación de contenido están bien documentados, y los moderadores con los que habló la Oficina informaron muchos síntomas causados o exacerbados por su trabajo, que incluyen depresión, ansiedad, soledad, temblores y falta de sueño.


Un ingenioso video de relaciones públicas producido por Teleperformance promueve el apoyo psicológico que ofrece. “Algunos los llaman ángeles”, dice la voz en off, describiendo a sus moderadores mientras suena música clásica vagamente melancólica de fondo. “Los conocemos como nuestros amigos, miembros de nuestra familia”.


Sin embargo, varios moderadores dijeron que el esquema de apoyo a la salud mental de la compañía era lamentablemente inadecuado.


Solo uno de los entrevistados, un ex moderador, sintió que Teleperformance se preocupaba por la salud mental de sus empleados. Daniela dijo que la compañía estaba particularmente preocupada por aquellos que, como ella, trabajaron en el equipo R1 lidiando con el contenido más extremo, aunque ella personalmente nunca sintió la necesidad de usar el apoyo.


Pero Luis, el hombre obsesionado por el video de rostros desollados, dijo que la oferta interna era "solo para mostrar". También trabaja en R1, pero terminó buscando apoyo psicológico fuera del trabajo, a través del sistema de salud colombiano.


Falta la métrica


El sistema de moderación de TikTok descrito por estos moderadores se basa en objetivos de rendimiento exigentes. Si los trabajadores no vieron una gran cantidad de videos, o si regresaron tarde de un descanso, podrían perder una bonificación mensual por valor de hasta una cuarta parte de su salario.


Es fácil perder el dinero extra que tanto se necesita. Álvaro, actual moderador de TikTok, tiene un objetivo de 900 videos por día, con alrededor de 15 segundos para ver cada video. Trabaja de 6 am a 3 pm, con dos horas de descanso, y su salario base es de 1,2 millones de pesos al mes, apenas un poco más que el salario mínimo de Colombia. Todos los moderadores entrevistados por la Oficina tenían su sede en la capital Bogotá cuando trabajaban para TikTok, donde el alquiler y los gastos de manutención están por encima del promedio nacional.


Para Álvaro, alcanzar sus objetivos de productividad, cronometraje y precisión podría valer 300.000 pesos adicionales (£60). Pero dijo que generalmente ganaba más cerca de su salario base de 1,2 millones de pesos.


Tienes que trabajar como una computadora. No digas nada, no te acuestes, no vayas al baño, no te hagas un café, nada’. Un solo desliz puede ser suficiente. Una vez recibió un aviso disciplinario conocido internamente como “formulario de acción” por solo lograr ver 700 videos en un turno, lo que se consideró “evitación del trabajo”. Una vez que un trabajador tiene un formulario de acción, dijo, no puede recibir un bono ese mes.


Álvaro teme que estas acciones disciplinarias afecten cualquier referencia futura y obstaculicen sus perspectivas laborales. “Si pongo este trabajo en mi experiencia laboral, dirán que estaba evitando el trabajo, que no entendía la métrica, que era un mal trabajador”.


Agregó: “Tienes que trabajar como una computadora. Tú eliges las políticas, no más. No digas nada, no te vayas a la cama, no vayas al baño, no hagas un café, nada”.


Otros moderadores que hablaron con la Oficina también tenían objetivos diarios de 900 a 1000 videos, mientras que otro que trabajó en videos más largos de hasta un minuto informó objetivos de 200 a 250 por turno.


Mientras que algunos dijeron que generalmente recibían su bono, otros dijeron que solo lo recibían algunas veces, y un moderador lo describió como imposible de obtener. Dos dijeron que sentían que se habían perdido injustamente a pesar de cumplir con sus objetivos o tener un desempeño superior en su departamento.


Mark Pfeiffer, portavoz de Teleperformance, dijo: “Teleperformance está comprometida con el bienestar de los empleados y la diversidad, equidad e inclusión del personal. El cuidado de las personas ha sido, es y seguirá siendo una prioridad global para nuestro negocio”.


Vigilancia del hogar


Teleperformance, con sede en París, se ha convertido en líder del mercado en servicios de moderación de contenidos, con más de 7.000 de este tipo de trabajadores en todo el mundo, según un análisis de Market Research Future. Ve a Colombia, donde los moderadores le dijeron a la Oficina que trabajó con Meta, Discord y Microsoft, así como con TikTok, como un centro clave para consolidar esta posición de dominio.


Durante la pandemia, el negocio estaba en auge. El año pasado, Teleperformance reportó ingresos récord de £6 mil millones y casi £500 millones en ganancias. El cambio generalizado a trabajar desde casa estuvo en parte detrás de este enorme aumento en las ganancias, ya que las empresas contrataron a Teleperformance para ayudarlas a administrar su nueva fuerza laboral remota, según Aarti Dhapte, analista senior de Market Research Future.


Al mismo tiempo, una gran parte del personal propio de Teleperformance pasó al trabajo remoto, lo que redujo el costo del mantenimiento de la oficina. Teleperformance dice que el 70% de su fuerza laboral global ahora es remota, al igual que la mayoría de los moderadores entrevistados por la Oficina.


‘Me sentí culpable diciéndole a mi familia: “Por favor, no pasen detrás de la cámara porque me pueden despedir”’

Para asegurar a los clientes que este cambio no conduciría a una caída en los estándares, Teleperformance implementó amplios sistemas de vigilancia, utilizando software propietario y de terceros para monitorear a sus empleados. Las noticias de NBC revelaron el año pasado que los trabajadores de Teleperformance en Colombia, incluidos los subcontratados por Apple y Uber, habían sido presionados para firmar contratos que otorgaban a la empresa el derecho de instalar cámaras en sus hogares.


Carolina, una exmoderadora de TikTok que trabajó de forma remota para Teleperformance entre junio y septiembre de 2020, dijo que los supervisores le pidieron que estuviera frente a la cámara continuamente durante su turno de noche. También se le advirtió que nadie más debería estar a la vista de la cámara y que su escritorio debería estar vacío, aparte de una bebida en un vaso transparente.


“Eso fue terrible, porque mi familia también vive en mi casa”, dijo Carolina. “Entonces me sentí muy culpable diciéndoles: ‘Por favor, no pasen detrás de la cámara porque me pueden despedir’. Teleperformance es especialmente paranoico con la gente que ve lo que hacemos”.


Los moderadores actuales no dijeron que tenían que trabajar frente a la cámara, pero sí tienen que marcar la entrada y la salida y registrar cualquier descanso en una aplicación llamada Timekeeper. Cuando Álvaro estaba unos minutos de regreso del descanso en su turno de la noche, su supervisor lo contactó y lo colocó en un formulario de acción.


Un portavoz de TikTok dijo: “Nos esforzamos por promover un ambiente de trabajo solidario para nuestros empleados y contratistas. Nuestro equipo de Confianza y Seguridad se asocia con firmas de terceros en el trabajo fundamental de ayudar a proteger la plataforma y la comunidad de TikTok, y continuamos ampliando una gama de servicios de bienestar para que los moderadores se sientan apoyados mental y emocionalmente”.


Destruir la union


Subcontratar la moderación a países del sur global como Colombia funciona para las empresas porque es barato y los trabajadores están mal protegidos. Carolina, quien dejó Teleperformance hace dos años, dijo: “Es muy importante que la gente sepa que esto es un abuso, y que son solo empresas que se están aprovechando de la pésima situación económica que tenemos para los jóvenes en América Latina. .”


Utraclaro, un sindicato colombiano que representa a los trabajadores de centros de llamadas y TI, ha estado tratando de organizar al personal de Teleperformance, incluidos los moderadores de TikTok, durante más de dos años. Ha sido un proceso lento y laborioso, con retroceso de la empresa en cada etapa.


Las demandas clave del sindicato son que la empresa debe permitir que los trabajadores formen un sindicato sin intimidación y que los representantes sindicales puedan acceder al lugar de trabajo para hablar con sus colegas. Teleperformance no hizo comentarios sobre denuncias específicas de represión sindical en Colombia.


Testigos oculares que pidieron permanecer en el anonimato dijeron que habían visto a organizadores sindicales hostigados varias veces por el personal de seguridad cuando intentaban hablar con los trabajadores de Teleperformance en un parque empresarial en Bogotá.


Cuando los organizadores repartieron volantes o intentaron hablar con los trabajadores que tomaban un descanso fuera de las oficinas de Teleperformance, los guardias de seguridad privados del parque los siguieron y les dijeron que se detuvieran. Una persona dijo que había visto a un trabajador de Teleperformance observar a los organizadores y luego hablar con los guardias de seguridad. Después de esto, más guardias de seguridad los estaban observando.


En otra ocasión, los guardias llamaron a la policía tras discutir con los organizadores sobre su derecho a estar allí.


“Incluso si estás en un área pública, no les importa, te acosarán, llamarán a la policía”, dijo otra fuente. “Y como es una gran empresa, la policía también estará a su favor”.


‘Te puedo decir que si dices sindicato, al día siguiente estarás fuera’. Después de que Utraclaro notificó oficialmente a Teleperformance de sus demandas en agosto de 2021, Teleperformance presentó una demanda legal en un juzgado laboral de Bogotá, alegando que Utraclaro no siguió los procesos adecuados al ratificar sus demandas de negociación.


La demanda fue un intento de intimidar a los trabajadores, dijo UNI Global Union, una federación sindical internacional que apoya a Utraclaro en su disputa. Los abogados de Teleperformance han solicitado la “suspensión, disolución, liquidación y cancelación del registro sindical”, según muestran los registros judiciales públicos.


El cambio, sin embargo, puede estar en el horizonte. Ha habido algunos avances en discusiones entre Utraclaro y Teleperformance en las últimas semanas. “El sindicato en Colombia todavía tiene una demanda frívola pendiente, pero al menos hay algunas discusiones en curso que podrían hacer avanzar las cosas”, dijo Christy Hoffman, secretaria de UNI Global Union.


Si Teleperformance llega a un acuerdo con el sindicato, sería un momento significativo para el sector de la subcontratación, que históricamente ha sido hostil a la sindicalización.


“He estado en este tipo de negocios desde 2013”, dijo un empleado de servicio al cliente de Teleperformance, “te puedo decir que si dices esa palabra [sindicato], estarás fuera al día siguiente. ¿Sindicato? No puedes decir eso”.


Claudia dijo que se había unido al sindicato para ganar un mejor salario y un mejor apoyo para la salud mental. Luis también esperaba que el personal obtuviera un aumento salarial y que se redujera la intensa presión sobre los moderadores. Álvaro, quien vive solo en Bogotá y trabajó seis días a la semana durante todo diciembre pasado luego de que le negaran una solicitud de vacaciones, dijo que solo quería pasar la Navidad con su familia este año.


Por ahora, sin embargo, los moderadores mal pagados de TikTok seguirán trabajando para lograr sus agotadores objetivos, analizando algunos de los contenidos más aterradores de Internet.


Se han cambiado todos los nombres de los moderadores con los que habló la Mesa.


Reporteros: Niamh McIntyre, Rosie Bradbury y Billy Perrigo

Editor técnico: Jasper Jackson

Editor global: James Ball

Editor de la oficina: Meirion Jones

Producción: Frankie Goodway y Emily Goddard

Verificador de datos: Alice Milliken

Ilustraciones: Anson Chan


Los informes sobre Big Tech están financiados por Open Society Foundations. Ninguno de los financiadores tiene influencia alguna sobre las decisiones editoriales o la producción de la Oficina.


Sobre los autores:


Niamh McIntyre: Niamh es reportera del equipo Big Tech de la Oficina e investiga poderosas empresas tecnológicas. Antes de unirse a la Oficina, Niamh pasó cuatro años como periodista de datos en The Guardian, donde cubrió publicidad política y dinero oscuro, el uso secreto de algoritmos por parte de los ayuntamientos e información errónea en línea. También ha trabajado para Radar AI, un equipo de noticias locales basado en datos dentro de la Asociación de la Prensa, y The Independent.


Rosie Bradbury


Billy Perrigo


El artículo ha sido traducido por L. Domenech


Comentarios