Los usuarios, no los ejecutivos de tecnología, deben decidir qué constituye la libertad de expresión en línea
AP FOTO / JOHN MINCHILLO |
Traducido por L. Domenech
El 7 de enero, tras los violentos disturbios de supremacistas blancos que violaron el Capitolio de los Estados Unidos, Twitter y Facebook suspendieron al presidente Donald Trump de sus plataformas. Al día siguiente, Twitter hizo que su suspensión fuera permanente. Muchos elogiaron la decisión de evitar que el presidente haga más daño en un momento en que sus seguidores están tomando señales de sus falsas afirmaciones de que la elección fue manipulada. Los republicanos lo criticaron como una violación de la libertad de expresión de Trump.
No lo fue. Así como Trump tiene el derecho de la Primera Enmienda a decir tonterías desquiciadas, las empresas de tecnología también tienen el derecho de la Primera Enmienda para eliminar ese contenido. Si bien algunos expertos han calificado la decisión de sin precedentes, o "un punto de inflexión para la batalla por el control del habla digital", como tuiteó Edward Snowden, no lo es en absoluto. Twitter y Facebook no solo eliminan regularmente todo tipo de expresión protegida, sino que el caso de Trump ni siquiera es la primera vez que las plataformas eliminan a una figura política importante.
Tras los informes de genocidio en Myanmar, Facebook prohibió a los principales generales del país y a otros líderes militares que usaban la plataforma para fomentar el odio. La compañía también prohíbe a Hezbollah del uso de su plataforma debido a su condición de organización terrorista extranjera designada por Estados Unidos, a pesar de que el partido tiene escaños en el parlamento libanés. Y prohíbe a los líderes de países sometidos a sanciones estadounidenses.
Al mismo tiempo, tanto Facebook como Twitter se han ceñido al principio de que el contenido publicado por funcionarios electos merece más protección que el material de personas comunes, lo que otorga al discurso de los políticos más poder que al de la gente. Esta posición está en desacuerdo con muchas pruebas de que el discurso de odio de figuras públicas tiene un mayor impacto que el discurso similar de los usuarios comunes.
Sin embargo, es evidente que estas políticas no se aplican de manera uniforme en todo el mundo. Después de todo, Trump está lejos de ser el único líder mundial que utiliza estas plataformas para fomentar el malestar. Basta mirar al BJP, el partido del primer ministro de India, Narendra Modi, para ver más ejemplos.
Aunque ciertamente hay beneficios a corto plazo —y mucha la satisfacción— que se pueden obtener al prohibir a Trump, la decisión (y las que vinieron antes) plantean preguntas fundamentales sobre el discurso. ¿Quién debería tener derecho a decidir lo que podemos y no podemos decir? ¿Qué significa cuando una corporación puede censurar a un funcionario del gobierno?
El personal de políticas de Facebook, y Mark Zuckerberg en particular, durante años han demostrado ser malos jueces de lo que es o no es una expresión apropiada. Desde la prohibición de la aparición de los senos en la plataforma hasta su tendencia a suspender a los usuarios por responder en contra del discurso de odio, o su total fracaso para eliminar los llamamientos a la violencia en Myanmar, India y otros lugares, simplemente no hay razón para confiar en Zuckerberg y otros líderes tecnológicos para pensar que van a tomar grandes decisiones que son correctas.
Derogar la Sección 230 no es la respuesta
Para remediar estas preocupaciones, algunos piden más regulación. En los últimos meses, han abundado las demandas de ambos lados del espectro político para derogar o enmendar la Sección 230, la ley que protege a las empresas de la responsabilidad por las decisiones que toman sobre el contenido que alojan, a pesar de algunas tergiversaciones graves de políticos que deberían saber mejor cómo funciona la ley realmente .
La cuestión es que la derogación de la Sección 230 probablemente no habría obligado a Facebook o a Twitter a eliminar los tweets de Trump, ni evitaría que las empresas eliminen el contenido que encuentran desagradable, ya sea que ese contenido sea pornografía, o los desvaríos desquiciados de Trump. Son los derechos de la Primera Enmienda de las empresas los que les permiten seleccionar sus plataformas como mejor les parezca.
En cambio, la derogación de la Sección 230 obstaculizaría a los competidores de Facebook y otros gigantes tecnológicos, y supondría un mayor riesgo de responsabilidad para las plataformas por lo que eligen alojar. Por ejemplo, sin la Sección 230, los abogados de Facebook podrían decidir que alojar contenido antifascista es demasiado peligroso a la luz de los ataques de la administración Trump a Antifa.
¿Qué significa cuando una corporación puede censurar a un funcionario del gobierno?
Este no es un escenario descabellado: las plataformas ya restringen la mayor parte del contenido que podría estar incluso débilmente relacionado con organizaciones terroristas extranjeras, por temor a que los estatutos de apoyo material puedan hacerlas responsables. Como resultado, se han eliminado las pruebas de crímenes de guerra en Siria y un contra-discurso vital contra organizaciones terroristas en el extranjero. De manera similar, las plataformas han sido criticadas por bloquear cualquier contenido aparentemente conectado a países bajo sanciones de EE. UU. En un ejemplo particularmente absurdo, Etsy prohibió una muñeca hecha a mano, fabricada en Estados Unidos, porque la etiqueta contenía la palabra "persa".
No es difícil ver cómo el aumento de la responsabilidad de la plataforma podría hacer que las corporaciones cuyo único interés no sea "conectar el mundo" sino sacar provecho de él eliminen un discurso aún más vital.
Las plataformas no necesitan ser neutrales, pero deben jugar limpio
A pesar de lo que sigue repitiendo el senador Ted Cruz, no hay nada que exija que estas plataformas sean neutrales, ni debería haberlas. Si Facebook quiere echar a Trump, o fotos de madres que amamantan, esa es la prerrogativa de la empresa. El problema no es que Facebook tenga el derecho de hacerlo, sino que, debido a sus adquisiciones y crecimiento sin obstáculos, sus usuarios prácticamente no tienen a dónde ir y están atrapados lidiando con reglas cada vez más problemáticas y con la moderación automatizada de contenido.
La respuesta no es derogar la Sección 230 (que, de nuevo, obstaculizaría la competencia) sino crear las condiciones para una mayor competencia. Aquí es donde la administración Biden debería centrar su atención en los próximos meses. Y esos esfuerzos deben incluir llegar a expertos en moderación de contenido de la defensa y la academia para comprender la gama de problemas que enfrentan los usuarios en todo el mundo, en lugar de simplemente centrarse en el debate dentro de los EE.
En cuanto a las plataformas, saben lo que deben hacer, porque la sociedad civil se lo ha dicho durante años. Deben ser más transparentes y garantizar que los usuarios tengan derecho a poner remedio cuando se tomen decisiones incorrectas. Los Principios de Santa Clara sobre transparencia y rendición de cuentas en la moderación de contenido, respaldados en 2019 por la mayoría de las plataformas principales, pero adheridos solo por una (Reddit), ofrecen estándares mínimos para las empresas sobre estas medidas. Las plataformas también deben ceñirse a sus compromisos existentes con la toma de decisiones responsable. Lo que es más importante, deben asegurarse de que las decisiones que tomen sobre el discurso estén en consonancia con los estándares mundiales de derechos humanos, en lugar de establecer las reglas sobre la marcha.
Las personas razonables pueden estar en desacuerdo sobre si el acto de prohibir a Trump en estas plataformas fue el correcto, pero si queremos asegurarnos de que las plataformas tomen mejores decisiones en el futuro, no debemos buscar soluciones rápidas.
Jillian C. York es autora del próximo libro Silicon Values: The Future of Free Speech Under Surveillance Capitalism y directora de libertad de expresión internacional en Electronic Frontier Foundation.
El artículo original se puede leer en inglés en MIT Technology Review
Comentarios