Crean algoritmo que detecta contenido misógino de usuarios de Twitter

0
909
algoritmo que detecta contenido misógino
Un equipo especializado de una universidad en Australia creó un sistema que identifica el contenido en Twitter que se vierte para atacar a las mujeres. Buscan que las redes sociales lo implementen y censuren esas publicaciones.

REDACCIÓN. Las redes sociales son un espacio para la libre expresión; cada quien deja ahí sus pensamientos sobre diferentes temas. Sin embargo, hay límites que no deberían cruzarse; algunos porque van en contra de la ley, y otros nada más por cuestión de respeto, convivencia y empatía.

En virtud de ello, un grupo de investigación de la Universidad Tecnológica de Queensland (QUT) en Australia, desarrolló un algoritmo que identifica el contenido misógino que se publica en la red social Twitter.

Si usted lo desconoce, es oportuno que sepa que misoginia es el término que define la aversión hacia las mujeres.

Lea también: Samsung crea aparato que carga tres dispositivos de forma simultánea

Primer paso

Los expertos tomaron, en primera instancia, un millón de tuits. Seguido, refinaron sus datos buscando entre las publicas tres palabras denominadas clave en relación al lenguaje misógino: puta, mujerzuela y violación.

En esa primera extracción, obtuvieron como resultado unos cinco mil mensajes que tenían esas palabras, aunque no se definía en primera instancia si era misóginos o no, dependiendo su contexto e intención.

Luego, adaptaron esos tuits etiquetados a un clasificador de aprendizaje automático; el mismo utilizó las muestras para crear su propio modelo de clasificación.

«Enseñando» el trasfondo

El sistema utiliza un algoritmo de aprendizaje para ajustar su conocimiento de la terminología. En ese sentido, los investigadores relataron que, mientras la Inteligencia Artificial (IA) construía el vocabulario, ellos se encargaban de monitorear el contexto y la intención del lenguaje.

El propósito era adecuar el algoritmo para que diferencia entre esas palabras siendo utilizadas en un sentido de abuso, sarcasmo, o un «uso amigable de terminología agresiva».

El profesor Richi Naya, uno de los autores del estudio, planteó un ejemplo de en qué casos fue necesario dilucidar el contexto para que la máquina virtual pudiera entender el trasfondo misógino.

«Tomemos la frase ‘volver a la cocina’ como ejemplo: sin un contexto de desigualdad estructural, la interpretación literal de una máquina podría perder el significado misógino. Pero, visto con la comprensión de lo que constituye un lenguaje abusivo o misógino, puede identificarse como un tweet con intención misógina», explicó.

Ahora, debido al trabajo realizado, los autores indican que el sistema es capaz de determinar los distintos contextos con sólo analizar el texto. «Nos alegramos mucho cuando nuestro algoritmo identificó ‘volver a la cocina’ como misógino; demostró que el aprendizaje del contexto funciona», añadió Naya.

En búsqueda del objetivo esencial

Aún así, todavía tienen trabajo por delante. Según se especificó, el modelo producido sólo puede identificar los tuits misóginos con una precisión de 75 %.

Por otra parte, expresaron que también podría ajustarse a otras formas de discriminación, como el racismo o el abuso de personas discapacitadas.

El fin último de la invención, según comentó Naya, es que las plataformas de redes sociales adapten el algoritmo para identificar el contenido y actúen en favor de la protección de las mujeres.


Suscríbete gratis a más información en nuestro WhatsApp haciendo clic en el enlace: https://bit.ly/tiempodigitalhn