Aunque el tema de las Noticias falsas ya viene de largo cada vez es más preocupante en especial por su proliferación en tiempos de pandemia sad

Con el objetivo de ofrecer una mayor confianza al lector y dotar a los periodistas de nuevas herramientas permitiéndoles discernir entre diversas informaciones, los investigadores de las Universidades de Jaén y Alicante y como parte de su proyecto Living-Lang han publicado un artículo titulado ‘Exploiting discourse structure of traditional digital media to enhance automatic fake news detection‘ en el que presentan el prototipo de un detector de ‘fake news’ para webs.

Basado en técnicas de inteligencia artificial, el sistema testea la noticia en dos niveles detectando si existen incongruencias en el contenido y si la estructura coincide con la que cualquier publicación con rigor periodístico debe tener.

El sistema analiza la estructura de la noticia publicada atendiendo a las normas de periodismo clásicas: la regla de las 5W, conocida así por las siglas de las cuestiones en inglés, y la pirámide invertida. Estas guías se sustentan en que la noticia rigurosa debe contener información que responda a las seis preguntas básicas (¿qué?, ¿cuándo?, ¿dónde?, ¿quién?, ¿por qué? y ¿cómo?) y que se presente en gradación desde lo más importante hasta los detalles.

A partir del análisis del lenguaje natural, los expertos desarrollan un algoritmo que detecta las informaciones que no responden a esta estructura. Estos cálculos se basan en técnicas de aprendizaje automático de forma que el sistema va ‘aprendiendo’ a medida que va acumulando datos.

Los equipos ‘Sistemas Inteligentes de Acceso a la información’ (SINAI), de la Universidad de Jaén, y ‘Grupo de Procesamiento del Lenguaje Natural y Sistemas de Información’ (GPLSI), de la Universidad de, Alicante, realizaron las pruebas sobre un conjunto de datos en español con más de 200 artículos centrados en temas sanitarios, de especial relevancia en la actualidad debido a las numerosas noticias falsas que circulan sobre el COVID.

El sistema toma como base el aprendizaje profundo, con el que se crean modelos computacionales compuestos por varias capas de procesamiento de datos. Concretamente en este trabajo, los expertos definen dos capas. Por un lado, la estructura de la noticia y por otro el argumento. De esta manera, la máquina predice no sólo la credibilidad de la forma, sino también del contenido.

Además, los investigadores han aplicado un nuevo esquema en el tratamiento de los datos, conocido como anotación de grano fino, que consiste en establecer etiquetas a las noticias. Estas marcas se aplican a todas las posibilidades, aunque las diferencias sean pequeñas. De esta manera, se obtiene una descripción detallada en los dos niveles para cada texto.

Cada etiqueta tiene un conjunto de atributos que proporcionan información más allá de lo lingüístico incluyendo la verificación de hechos, relaciones semánticas entre componentes o características contextuales. Incluso, referencia aspectos relacionados con la carga emocional que pueda contener un escrito y que lo alejan de la objetividad que debe tener una noticia real.

El objetivo de los expertos es lograr una aplicación que marque automáticamente el texto de una noticia mientras se lee y que alerte mediante una señal de partes de la noticia que puedan ser falsas, indicando la referencia con otros textos similares en los que se pueda contrastar su veracidad.

469
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x