En una muestra analizada por Amnistía Internacional, uno de cada 10 tuits en los que se mencionaba a periodistas y políticas negras era ofensivo o problemático; así lo ha manifestado hoy la organización de derechos humanos al publicar un impactante informe sobre conductas abusivas contra mujeres en Twitter, realizado con Element AI, empresa global de desarrollo de programas de inteligencia artificial.
Más de 6.500 personas voluntarias de 150 países se inscribieron para participar en la Patrulla Antitroles, proyecto único de crowdsourcing (colaboración colectiva) para procesar datos en gran escala sobre conductas abusivas online. Estas personas clasificaron 228.000 tuits enviados a 778 mujeres de la política y el periodismo en Reino Unido y Estados Unidos en 2017.
A continuación, Amnistía Internacional y Element AI usaron avanzadas técnicas de aprendizaje automático y ciencia de datos para extrapolar datos sobre el alcance de las conductas abusivas contra las mujeres en Twitter. Element AI calculó que se habían enviado 1.100.000 tuits ofensivos o problemáticos a las mujeres del estudio en todo el año, o un promedio de uno cada 30 segundos.
“Con la ayuda de técnicos expertos y miles de voluntarios, hemos creado el mayor conjunto de datos en el mundo obtenido mediante colaboración colectiva sobre conductas abusivas online contra las mujeres. La Patrulla Antitroles nos ha facilitado los datos que respaldan lo que las mujeres vienen diciendo desde hace tiempo: que Twitter es un espacio donde se permite que el racismo, la misoginia y la homofobia prosperen prácticamente sin control”, ha afirmado Milena Marin, asesora general sobre investigación táctica de Amnistía Internacional.
“Descubrimos que, si bien las conductas abusivas se dirigían contra mujeres de todas las tendencias políticas, las de color tenían muchas más probabilidades de ser atacadas y, de manera desproporcionada, las mujeres negras. Al no atajar este problema, Twitter está contribuyendo a silenciar voces ya marginadas.”
Element AI utilizó los datos recopilados por la Patrulla Antitroles para desarrollar un modelo de aplicación basado en aprendizaje automático que intenta detectar los tuits abusivos. Element AI permite acceder el modelo aquí para probarlo durante tres semanas, y así descubrir las limitaciones actuales y potenciales de la tecnología de AI en este ámbito.
“Este estudio forma parte de una asociación a largo plazo entre Amnistía Internacional y Element AI. Con un enfoque serio sobre la inteligencia artificial, nuestra empresa establece compromisos a largo plazo, poniendo sus herramientas y expertos técnicos al servicio de los agentes del bien común para que hagan lo que mejor saben hacer”, ha afirmado Julien Cornebise, director de investigación de AI For Good y director de la oficina de Element AI en Londres.
La muestra incluía a políticas de todo el espectro político de Estados Unidos y Reino Unido. Las periodistas de la muestra trabajaban para publicaciones estadounidenses y británicas muy diversas, entre ellasDaily Mail, The New York Times, The Guardian, The Sun, gal-dem, PinkNews y Breitbart News.
Principales conclusiones
El número de ataques dirigidos contra mujeres negras era desproporcionado: ellas tenían el 84% más de probabilidades que las mujeres blancas de ser mencionadas en tuits ofensivos o problemáticos. Uno de cada 10 tuits en los que se mencionaba a mujeres negras era abusivo o problemático, frente a uno de cada 15 en el caso de las mujeres blancas.El 7,1% de los tuits enviados a las mujeres del estudio eran ofensivos o problemáticos. Eso supone 1.100.000 tuits en todo el año donde se menciona a 778 mujeres, o un tuit cada 30 segundos.Las mujeres de color (negras, asiáticas, latinas y de raza mixta) tenían el 34% más de probabilidades que las mujeres blancas de ser mencionadas en tuits ofensivos o problemáticos.Las conductas abusivas online contra las mujeres se dan en todo el espectro político. Observamos niveles semejantes de conducta abusiva online contra políticas y periodistas, y comprobamos que afectaba por igual a liberales y conservadoras, así como a organizaciones de medios de comunicación tanto de izquierdas como de derechas.
Amnistía Internacional ha pedido reiteradamente a Twitter que publique los datos relativos al alcance y la naturaleza de las conductas abusivas en su plataforma pero, de momento, la empresa no lo ha hecho. Así esconde la magnitud del problema y dificulta la búsqueda de soluciones eficaces.
El personal voluntario de Patrulla Antitroles dedicó de manera colectiva la cantidad increíble de 2.500 horas a analizar tuits, lo que equivale al trabajo de una persona a tiempo completo durante un año y medio.
“Gracias a la investigación realizada mediante colaboración colectiva hemos podido reunir datos fundamentales en mucho menos tiempo que un investigador o investigadora de Amnistía, sin perder el elemento de criterio humano, tan esencial para examinar un contexto de tuits”, ha dicho Milena Marin.
“La Patrulla Antitroles no consiste en actuar como policía de Twitter, ni en obligar a la empresa a eliminar contenidos. Pedimos que sea más transparente, y esperamos que los datos de la Patrulla Antitroles la impulsen a realizar ese cambio. Es fundamental que Twitter empiece a ser transparente en cuanto a su uso preciso de las técnicas de aprendizaje automático para detectar conductas abusivas, y asimismo que publique información técnica sobre los algoritmos en los que se basan.”