La inteligencia artificial mejora su precisión a la hora de detectar noticias falsas, aunque la sofisticación de este contenido dificulta su labor
Lo falso y lo veraz siguen unos patrones determinados. Algo así como un código unívoco. El problema es que son tan complejos, en particular en las fake news, que hasta puede confundirse lo falso con lo real. Cuesta cada vez más discernir entre ambos. Según un informe de la consultora Gartner, en 2022 consumiremos más bulos que información verdadera. Sin embargo, algunos algoritmos ya han conseguido rastrear esta especie de fórmula mágica y determinar ciertas características. Es el caso de una investigación realizada por la Universidad de Granada y el Imperial College de Londres, que ha conseguido que la inteligencia artificial entienda las emociones que desprende el lenguaje o el impacto sociológico que tiene un tuit.
Juan Gómez, integrante de la investigación y profesor de Ciencias de la Computación en la Universidad de Granada, reconoce que la complejidad de los mensajes dificulta hallar estas estructuras de veracidad y falsedad. “Hay recursos visuales simples y llamativos, como los emoticonos y las mayúsculas, que son pistas relevantes para identificar las fake news; pero su ingeniería también evoluciona. Es decir, los datos de entrenamiento que usamos en un determinado contexto ahora no pueden aplicarse”. Al igual que las capacidades de la inteligencia artificial evolucionan, la maquinaria de los bulos lo hace incluso más rápidamente.
Ante esta situación, Claire Wardle, directora de investigación de FirstDraft, huye de un único concepto de desinformación. En su opinión, por lo menos nos encontramos delante de siete escenarios diferentes, que van desde la noticia inventada o manipulada hasta la sátira —no tiene intención de dañar, pero cuenta con un potencial elevado de engaño—. “Si vamos a atajar realmente el problema en el que nos encontramos, debemos comprender su gravedad y debemos entender contra lo que estamos luchando”, asegura. Esta es la batalla interna que libran el aprendizaje automático y los programadores que los entrenan. Aportar información y variables más profundas para que lleguen a ese código universal de la mentira.
Metadatos, contenido, organización temática, contexto y coherencia son algunas de las señales que Ricardo Baeza-Yates, director de Ciencia de Datos en Northeastern University y catedrático de Informática de la Universitat Pompeu Fabra, ha incorporado a la algorítmica para prevenir la desinformación. Intenta que el machine learning aprenda si un texto respeta la congruencia semántica. Si existen los hechos mencionados. O si se da una relación lógica en su conjunto. No basta solo con rastrear bots y la autoría. Otra cuestión es su precisión. “Podemos permitirnos entre un 60% y 80%. Creo que es un porcentaje razonable. Si le preguntas a 20 personas diferentes qué noticias son más creíbles, ni entre ellos habrá unanimidad”, zanja.
Los investigadores insisten en la inconveniencia de depositar únicamente en la tecnología la responsabilidad de la verificación. Su ventaja principal es que cuentan con una mayor capacidad de detección. Baeza-Yates pone un ejemplo elemental: el código html. “Es una señal valiosa para identificar esas estructuras falsas y que no está precisamente al alcance de todas las personas”. Incluso el exceso de coherencia representa un marcador determinante; y estos algoritmos en seguida dan la voz de alarma. Como explica, el ruido y la incoherencia son características propias del ser humano.
Con la información de EL PAÌS