Ubica AI a Twitter como sitio tóxico para las mujeres

23 diciembre 2018.- Es bien conocido por todos que Twitter es una red social controversial, pero nadie sabía que en ella se ejercían enormes cantidades de odio hacia las mujeres.

De acuerdo con un estudio que realizó Amnistía Internacional junto a Element AI, la plataforma es un lugar tóxico para las mujeres, pues son el blanco de cientos de mensajes ofensivos, machistas y agresivos.

La manera en que se conoce esto es gracias a la prueba que realizaron con un grupo de 6,500 voluntarios en donde se examinaron 288,000 tuits que mencionaban a 778 mujeres involucradas en la política y el periodismo, con el software de aprendizaje automático de Element AI.

Con base en esto, se arrojó que 7.1% de los tuits enviados a dichas mujeres eran sumamente racistas y “problemáticos”, y que éstos eran recibidos cada 30 segundos.

De igual manera se encontró que de todas, el 34% de ellas es más propensa a sufrir este tipo de ofensas por su color, dando a entender que las mujeres de raza negra, asiática, latina o mestiza son las más agredidas en comparación con aquellas de piel blanca.

Pero eso no es todo, porque también se les ofende por su inclinación política, ya sea porque son liberales, conservadoras, de ultra izquierda o ultra derecha.

Con estos resultados se pretende que Twitter emprenda acciones para terminar con estos discursos de odio que cada día son más y más recurrentes.

Cerca del 7 por ciento de los tuits que reciben mujeres destacadas en puestos gubernamentales y el periodismo fueron considerados abusivos o problemáticos.

Las mujeres de color eran 34 por ciento más propensas a recibir ataques que las blancas. Más específicamente, las mujeres negras fueron 84 por ciento más propensas que las blancas a ser mencionadas en tuits problemáticos.

Después de un análisis que finalmente incluyó casi 15 millones de tuits, Amnistía Internacional publicó las conclusiones y, en su informe, describió a Twitter como un “lugar tóxico para las mujeres”.

La organización, quizás más conocida por sus iniciativas para liberar a los presos políticos internacionales, ha comenzado a prestar atención a las empresas de tecnología e instó a la red social a “poner a disposición datos significativos y completos sobre la magnitud y la naturaleza del abuso en su plataforma y sobre la manera en que lo está abordando”.

Junto con la startup de inteligencia artificial Element AI, con sede en Montreal, el proyecto denominado ‘Troll Patrol’ comenzó con los tuits dirigidos a casi 800 mujeres periodistas y políticas de Estados Unidos y Reino Unido.

Más de 6 mil 500 voluntarios analizaron 288 mil publicaciones y etiquetaron las que contenían lenguaje insultante o problemático (“contenido dañino u hostil” que no necesariamente supera el umbral de abuso).

Cada tuit fue analizado por tres personas, según Julien Cornebise, director de la oficina de Element en Londres, y expertos en violencia y insultos contra las mujeres también revisaron la calificación de los voluntarios.

El proyecto también apuntó a usar esos juicios humanos para crear y probar un algoritmo de aprendizaje automático que podría detectar los insultos; en teoría, el tipo de cosas que una red social como Twitter podría usar para proteger a sus usuarios.

El equipo de Cornebise utilizó el aprendizaje automático para extrapolar el análisis generado por personas a un conjunto completo de 14.5 millones de tuits que mencionan las mismas cifras.

También se aseguraron de que los tuits examinados por los voluntarios fueran representativos y que las conclusiones fueran precisas. Luego, su equipo utilizó los datos creados para entrenar un algoritmo de detección de insultos y comparó las conclusiones del algoritmo con las de los voluntarios y expertos.

“El abuso verbal en sí mismo es muy contextual y lo que se percibe como tal puede variar de una región a otra”, dijo Cornebise.

“Hay demasiada sutileza y el contexto y los algoritmos todavía no pueden resolver eso”. Tal vez las mujeres de Twitter podrían ayudarlos.

Fuente : Agencias