Los algoritmos publicitarios de Facebook siguen excluyendo a las mujeres de ver trabajos

MS Tech / Pexels

Su sistema de distribución de anuncios excluye a las mujeres de las oportunidades sin tener en cuenta sus calificaciones. Eso es ilegal según la legislación laboral de EE UU

Por Karen Hao / Abril 9, 2021

Traducido por L. Domenech

Facebook está reteniendo ciertos anuncios de trabajo de las mujeres debido a su género, según la última auditoría de su servicio publicitario.

La auditoría, realizada por investigadores independientes de la Universidad del Sur de California (USC), revela que el sistema de distribución de anuncios de Facebook muestra anuncios de trabajo diferentes para mujeres y hombres, aunque los trabajos requieren las mismas calificaciones. Esto se considera discriminación basada en el sexo según la ley de igualdad de oportunidades de empleo de EE. UU., Que prohíbe la orientación de anuncios basada en características protegidas. Los hallazgos se producen a pesar de años de defensa y juicios, y después de las promesas de Facebook de revisar la forma en que entrega los anuncios.

Los investigadores se registraron como anunciantes en Facebook y compraron pares de anuncios para trabajos con calificaciones idénticas pero diferente demografía del mundo real. Se anunciaron para dos trabajos de repartidor, por ejemplo: uno para Domino's (repartidor de pizzas) y otro para Instacart (reparto de comestibles). Actualmente, hay más hombres que mujeres que conducen para Domino's y viceversa para Instacart.

Aunque no se especificó una audiencia sobre la base de la información demográfica, una característica que Facebook deshabilitó para anuncios de vivienda, crédito y empleo en marzo de 2019 después de resolver varias demandas, los algoritmos aún mostraban los anuncios a grupos demográficos estadísticamente distintos. El anuncio de Domino's se mostró a más hombres que a mujeres y el anuncio de Instacart se mostró a más mujeres que hombres.

Los investigadores encontraron el mismo patrón con anuncios para otros dos pares de trabajos: ingenieros de software para Nvidia (hombre sesgado) y Netflix (mujer sesgada), y asociados de ventas de automóviles (hombre sesgado) y joyas (mujer sesgada).

Los hallazgos sugieren que los algoritmos de Facebook de alguna manera se están recuperando de la distribución demográfica actual de estos trabajos, que a menudo difieren por razones históricas. (Los investigadores no pudieron discernir por qué es así, porque Facebook no dirá cómo funciona su sistema de entrega de anuncios). "Facebook reproduce esos sesgos cuando publica anuncios, aunque no hay una justificación de calificación", dice Aleksandra Korolova, una profesora asistente en la USC, quien fue coautora del estudio con su colega John Heidemann y su asesor de doctorado Basileal Imana.

El estudio proporciona la evidencia más reciente de que Facebook no ha resuelto sus problemas de discriminación publicitaria desde que ProPublica sacó a la luz el problema por primera vez en octubre de 2016. En ese momento, ProPublica reveló que la plataforma permitía a los anunciantes de oportunidades laborales y de vivienda excluir a ciertas audiencias caracterizadas por rasgos. como género y raza. Dichos grupos reciben protección especial bajo la ley de los Estados Unidos, lo que hace que esta práctica sea ilegal. Tomó dos años y medio y varias escaramuzas legales para que Facebook finalmente eliminara esa función.

Pero unos meses más tarde, el Departamento de Vivienda y Desarrollo Urbano de EE. UU. (HUD) presentó una nueva demanda, alegando que los algoritmos de entrega de anuncios de Facebook seguían excluyendo audiencias para anuncios de viviendas sin que el anunciante especificara la exclusión. Un equipo de investigadores independientes, incluido Korolova, dirigido por Muhammad Ali y Piotr Sapieżyński de la Northeastern University, corroboró esas acusaciones una semana después. Descubrieron, por ejemplo, que las casas en venta se mostraban con más frecuencia a los usuarios blancos y las casas en alquiler se mostraban con más frecuencia a los usuarios minoritarios.

Korolova quería volver a examinar el tema con su última auditoría porque la carga de la prueba por discriminación en el trabajo es mayor que por la discriminación en la vivienda. Si bien cualquier sesgo en la visualización de anuncios basados ​​en características protegidas es ilegal en el caso de la vivienda, la legislación laboral de EE. UU. Lo considera justificable si el sesgo se debe a diferencias de calificación legítimas. La nueva metodología controla este factor.

“El diseño del experimento es muy limpio”, dice Sapieżyński, que no participó en el último estudio. Si bien algunos podrían argumentar que los asociados de ventas de automóviles y joyas tienen calificaciones diferentes, dice, las diferencias entre entregar pizza y entregar comestibles son insignificantes. “Estas diferencias de género no se pueden explicar por las diferencias de género en las calificaciones o la falta de calificaciones”, agrega. "Facebook ya no puede decir que [esto es] defendible por ley".

La publicación de esta auditoría se produce en medio de un mayor escrutinio del trabajo de sesgo de inteligencia artificial de Facebook. En marzo, MIT Technology Review publicó los resultados de una investigación de nueve meses sobre el equipo de IA responsable de la empresa, que descubrió que el equipo, formado por primera vez en 2018, se había olvidado de trabajar en cuestiones como la amplificación algorítmica de la desinformación y la polarización debido a su ceguera. centrarse en el sesgo de la IA. La compañía publicó una publicación de blog poco después, enfatizando la importancia de ese trabajo y diciendo en particular que Facebook busca “comprender mejor los errores potenciales que pueden afectar nuestro sistema de anuncios, como parte de nuestro trabajo continuo y más amplio para estudiar la equidad algorítmica en los anuncios. "

"Hemos tomado medidas significativas para abordar los problemas de discriminación en los anuncios y hoy tenemos equipos que trabajan en la equidad de los anuncios", dijo el portavoz de Facebook, Joe Osborn, en un comunicado. "Nuestro sistema tiene en cuenta muchas señales para tratar de mostrar a las personas los anuncios que más les interesarán, pero entendemos las preocupaciones planteadas en el informe ... Seguimos trabajando en estrecha colaboración con la comunidad de derechos civiles, los reguladores y los académicos. sobre estos importantes asuntos ".

Sin embargo, a pesar de estas afirmaciones, Korolova dice que no encontró ningún cambio notable entre la auditoría de 2019 y esta en la forma en que funcionan los algoritmos de entrega de anuncios de Facebook. "Desde esa perspectiva, es realmente decepcionante, porque les informamos de esto hace dos años", dice. También se ofreció a trabajar con Facebook para abordar estos problemas, dice. "No hemos recibido respuesta. Al menos para mí, no se han comunicado".

En entrevistas anteriores, la compañía dijo que no podía discutir los detalles de cómo estaba trabajando para mitigar la discriminación algorítmica en su servicio de publicidad debido a un litigio en curso. El equipo de anuncios dijo que su progreso se ha visto limitado por desafíos técnicos.

Sapieżyński, que ahora ha realizado tres auditorías de la plataforma, dice que esto no tiene nada que ver con el problema. “Facebook todavía tiene que reconocer que hay un problema”, dice. Mientras el equipo resuelve los problemas técnicos, agrega, también existe una solución provisional sencilla: podría desactivar la orientación algorítmica de anuncios específicamente para anuncios de vivienda, empleo y préstamos sin afectar el resto de su servicio. En realidad, es solo una cuestión de voluntad política, dice.

Christo Wilson, otro investigador de Northeastern que estudia el sesgo algorítmico pero que no participó en la investigación de Korolova o Sapieżyński, está de acuerdo: “¿Cuántas veces los investigadores y periodistas necesitan encontrar estos problemas antes de que simplemente aceptemos que todo el sistema de focalización de anuncios está en bancarrota? "

El artículo original se puede leer en inglés en MIT Technology Review

Comentarios