La Universidad española de Jaén creó un sistema generativo del lenguaje -al estilo ChatGPT- entrenado para responder los discursos de odio en redes sociales para desmontarlos, un modelo que se presentará ante la Comisión Europea como parte de un proyecto europeo liderado por el Gobierno español.

“Ningún humano sería capaz de hacerlo mejor”, asegura en una entrevista con la Agencia EFE la catedrática de Informática María Teresa Martín, una de las impulsoras de este sistema, el primero de estas características en español.

Este modelo es una de las ramas del proyecto Real-Up, dirigido por el Observatorio Español del Racismo y la Xenofobia (Oberaxe) del Ministerio de Inclusión, Seguridad Social y Migraciones, con la Oficina Nacional de Lucha Contra los Delitos de Odio y las universidades de Barcelona (UB) y de Valencia (UV), entre sus socios.

Su objetivo es mejorar la capacidad de las autoridades para identificar discursos de odio en línea y fortalecer las contranarrativas hacia estos mensajes motivados por el racismo, la xenofobia, la islamofobia, el antisemitismo y el antigitanismo.

La aportación del grupo de investigación Sistemas Inteligentes de Acceso a la Información (SINAI) de la Universidad de Jaén consiste en una herramienta de inteligencia artificial basada en sistemas de procesamiento del lenguaje natural.

Surgió desde la observación, desde el punto de vista sociológico, de que la práctica habitual de las plataformas de eliminar los mensajes de odio o colocar una etiqueta de ‘contenido inapropiado’ no resulta la más adecuada.

Te puede interesar: Educar para el futuro: cómo la IA está cambiando las reglas del aprendizaje

Conoce el ‘ChatGPT español’ que rebate el discurso de odio en redes: ‘Ningún humano lo haría mejor’

“Muchas veces las personas que están leyendo el hilo de Twitter (ahora denominado X), cuando ven que al ‘hater’ se le censura automáticamente, aunque ni siquiera esté de acuerdo con él, se pone de su parte”, explica Martín.

Ofrece mejores resultados crear otro mensaje de respuesta, en este caso “positivo, informativo y veraz”, que “contrarreste” ese discurso de odio.

Por ejemplo, ante la afirmación “los inmigrantes vienen a quitarnos el trabajo”, esta herramienta responde destacando el valor de la población extranjera en el mercado de trabajo del país, en muchas ocasiones asumiendo puestos que los ciudadanos locales rechazan, y resalta los aspectos positivos de la diversidad.

“Hemos comparado lo que hace un humano con esto y en el 80% de las ocasiones la contranarrativa generada por nuestro sistema tiene mejor calidad: son más informativas, más descriptivas y más específicas”, asegura Martín.

Esta herramienta la podrían incorporar las propias redes sociales, algo que Martín duda que pueda interesar a las empresas que las dirigen, y (más probablemente) autoridades o entidades sociales que buscan combatir el odio en redes, algo que hoy en día hacen de forma manual.

“Muchos voluntarios acaban con unos problemas mentales horrorosos de estar leyendo barbaridades y contestar una y otra vez las mismas cosas”, explica Martín, para quien esta herramienta resolvería parte del problema. 

Con información de EFE.

Síguenos en Google Noticias para mantenerte siempre informado

 

Siguientes artículos

Financial Times-IA-OpenAI
Acuerdo entre Financial Times y OpenAI: ChatGPT tendrá acceso a contenido del medio
Por

Ahora, ChatGPT tendrá acceso a los artículos de Financial Times con el objetivo de mejorar los contenidos que muestra el...