Una de las redes sociales más utilizadas en la actualidad es Twitter, donde millones de usuarios expresan sus opiniones diariamente en 280 caracteres. Hay espacio para todo tipo de opiniones en este espectáculo social diverso, sin embargo, muchos aprovechan el anonimato que ofrece la plataforma para desinhibirse y difundir insultos y mensajes de odio.
Como en la vida real, este odio suele estar dirigido a los colectivos más vulnerables. Un ejemplo de ello es la situación que viven las mujeres en puestos de responsabilidad que además tienen perfiles públicos en Twitter, que son acosadas casi a diario. Por ello, muchos de ellos deciden borrar sus perfiles o hacerlos privados, dejando su voz silenciada y perdida.
La inteligencia artificial puede ayudarnos a analizar las verdaderas dimensiones del problema del abuso contra las mujeres en Twitter. Mediante el procesamiento del lenguaje natural, por ejemplo, podemos analizar desde un punto de vista sociológico qué palabras se repiten más sobre el tema de discusión, qué usuarios ofenden más, o incluso extraer el sentimiento expresado por un conjunto de tuits.
El primer paso para el análisis sería crear una cuenta de desarrollador en Twitter y con la ayuda de una biblioteca del lenguaje de programación Python (como Tweepy) buscar solo tweets que contengan las palabras relevantes para investigar. En nuestro caso, podemos buscar tuits que contengan “feminazi” y hayan sido enviados en fechas concretas (como el Día de la Mujer o tras renunciar a un alto cargo), o bien por parte del público para analizar la opinión mayoritaria. usuarios sobre ellos.
Una vez extraídas las muestras, podemos utilizar herramientas de análisis de datos para limpiar el texto y eliminar signos de puntuación o símbolos como “@” o “#”. El propósito de este proceso es mantener las palabras con más significado, como adjetivos y sustantivos en español. Podemos ir más allá y realizar una lematización, separando cada palabra según rasgos morfológicos como sufijos y raíces para su posterior análisis. También puede ser útil implementar un corrector ortográfico que “traduzca” la jerga de Internet a un lenguaje más estándar.
A continuación, implementamos algoritmos de aprendizaje automático utilizando Python, que tiene bibliotecas de fácil acceso que simplifican enormemente el proceso de análisis. Así, a través de una función podemos comparar usuarios hombres y mujeres gracias a su nombre de usuario y una comparación con un listado extraído del INE, donde aparecen nombres españoles vinculados al género.
Un siguiente paso es utilizar programas de inteligencia artificial para analizar los tuits y sacar conclusiones sobre lo que expresan. Podemos encontrar el modelo de análisis de sentimiento en la web Hugging Face basado en la tecnología de clasificación de texto desarrollada por Google. Utiliza una arquitectura de red neuronal y etiqueta las palabras según su contexto y su posición en la oración, comparándola con millones de textos; Para determinar si un tuit contiene más contenido que exprese, por ejemplo, alegría, tristeza o enfado.
Todas las herramientas citadas son útiles para diversos análisis de carácter sociológico. Precisamente, sirvieron para la realización por parte del autor del trabajo final del Máster en Letras Digitales Silenciados en el ciberespacio: una aproximación a la misoginia en línea, donde se analizaron las opiniones de los usuarios de Twitter sobre las mujeres Adriana Lastra y Macarena Olona en los respectivos días de sus renuncias en 2022. Tras el estudio, se descubrió que los tuits críticos eran tanto peligrosos para la salud como artificialmente clasificados en su mayoría como “ira”. modelo de inteligencia. Además, mediante un modelo que clasificaba el sentimiento en positivo o negativo, Lastra y Olona recibieron un 93% y un 63% de comentarios negativos sobre 50.000 tuits, frente a un 7% y un 37% de comentarios positivos, respectivamente. Finalmente, se concluyó que las medidas de prevención contra el acoso misógino de la plataforma son ineficaces, ya que comprobamos que las comunidades abiertamente misóginas como las llamadas personas lascivas no son suficientemente castigadas y sus publicaciones se han mantenido (y siguen siendo) legibles en Twitter.
Gran parte de la responsabilidad de poner fin a la discriminación recae en las propias instituciones, que deben garantizar una Internet igualitaria. Para ello, las anteriores herramientas de Inteligencia Artificial pueden ser utilizadas tanto por particulares como por empresas para analizar globalmente el fenómeno y contribuir a su extinción, adaptando las medidas a la naturaleza de los insultos y las características de los usuarios que los pronuncian. En el futuro, pueden ser las propias máquinas las que actúen como árbitros frente a la violencia en línea utilizando una versión mejorada de estos algoritmos.
Blanca Garrido Salmerón Es lingüista computacional y graduado del Máster en Letras Digitales de la Universidad Complutense de Madrid.
historia de lo abstracto Existe un espacio para la divulgación de la informática, coordinado por la sociedad académica SISTEDES (Sociedad de Ingeniería de Software y de Tecnologías de Desarrollo de Software). La abstracción es la parte no física de un sistema informático (es decir, software), y su historia y desarrollo se relacionan aquí. Los autores son profesores de universidades españolas, coordinados por Ricardo Peña Mari (Profesor de la Universidad Complutense de Madrid) y Macario Polo Usola (Profesor de la Universidad de Castilla-La Mancha).
puedes seguir tecnologia del pais En Facebook Y Gorjeo o regístrate aquí para recibir nuestros periodico semanal,