Por Gonzalo J. García
El periodismo de verificación se está constituyendo como una rama emergente dentro del área de la comunicación, y ya presenta una narrativa y un estilo muy particular.
La desinformación es una de las principales problemáticas en el campo de la comunicación en la actualidad, una situación que se ha visto profundizada por la irrupción de la inteligencia artificial. En este contexto, Cecilia Velázquez, especialista del equipo de chequeado.com, fue invitada por Marcela Rosales, docente de la cátedra Redacción I de la Licenciatura en Comunicación Social, para desarrollar una charla en la Facultad de Ciencia Política y Relaciones Internacionales de la Universidad Nacional de Rosario, abordando la relación entre desinformación e inteligencia artificial (IA).
Cecilia, Licenciada en Ciencias de la Educación, forma parte del equipo de educación del portal chequeado.com desde hace más de 8 años, una organización sin fines de lucro que desde 2010 trabaja para mejorar el debate público y luchar contra la desinformación.
El periodismo de verificación se está constituyendo como una rama emergente dentro del área de la comunicación, y ya presenta una narrativa y un estilo muy particular. Es que con la irrupción de las redes sociales en nuestras vidas cotidianas, nuestros consumos de información se volcaron a ellas, por lo que es el espacio perfecto también para que cuelen noticias o informaciones falsas.
A la hora de definir qué es la desinformación, la especialista explicó que “es un contenido en el que se inventan hechos que no sucedieron, o se publican fuera de contexto o se los tergiversa para cambiarles el sentido”. Este puede presentarse en distintos formatos, por ejemplo: audios, videos, imagen, texto, y circular en redes sociales, medios de comunicación, sistemas de mensajería, entre otros.
Vázquez resaltó que lo correcto es hablar de desinformación y no de fake news porque la desinformación muchas veces no es una noticia, sino directamente un contenido falso que se viraliza, y estos vienen en distintos formatos. "Ahí está el desafío, la desinformación siempre apela a las emociones, creencias y a algún dato de la realidad para que nosotros creamos en esa información falsa. Pueden ser incluso imágenes fuera de contexto que se viralizan, por ejemplo, fotos de marchas en otros países pero que se le atribuyen a un hecho que no tiene nada que ver. El desafío de los formatos es todo un tema, no es lo mismo chequear una imagen, un posteo de una red social o un audio".
En general las desinformaciones no son blanco o negro, sino que existen grises. A veces el dato es verdadero pero el contexto es falso o, al contrario, el contexto es verdadero pero el dato es falso. Las redes sociales se manejan con la lógica de la inmediatez por eso la información se fragmenta para poder llamar la atención del usuario. Eso implica muchas veces que, en el afán de explicar todo en un titular que sea corto, atractivo y llamativo, se termine desvirtuando la realidad. Se busca generar un clickbait para conseguir más visitas, pero no siempre la intencionalidad está puesta en la desinformación, sino que esta termina siendo una consecuencia de la implementación de una estrategia de comunicación.
De esta manera sentenció que es imposible chequear todo, pero que en Chequeados desarrollaron un método que los ayuda a identificar aquellos contenidos que sí pueden verificarse. "Tenemos criterios de selección, relacionados con la viralidad y el potencial daño que puede causar esta posible desinformación. Esta aumenta su circulación en épocas vulnerables, como periodos electorales o la pandemia. También cuando hay un tema que está anclado a nuestras creencias y sesgos. Se cree que el pensamiento se construye por aquello que se consume, pero en realidad uno va a buscar aquello que realmente cree para confirmar sus supuestos", indicó
A esto se le ha incorporado en los últimos años la inteligencia artificial, que representa un desafío muy grande a la hora de corroborar si un contenido es auténtico o fue modificado. En este sentido, la especialista explicó que si bien se pueden crear contenidos falsos con inteligencia artificial, que luego se viralizan principalmente por redes sociales, también existen herramientas que ayudan a detectarlos. "Existe en la actualidad una preocupación ética sobre quien hizo una nota o una ilustración, si es una persona o fue directamente una IA".
Velázquez describió que existen herramientas para chequear la veracidad de un contenido. “Existen programas para chequear si contenidos específicos están producidos con IA, en cualquier formato: texto, audio, imagen o video (a los que se suelen llamar deep fakes). Sin embargo, los audios son los más difíciles de identificar y generan una verdadera complicación”.
Existen online verificadores de texto, que pueden comprobar qué grado del mismo pudo haberse hecho con IA. En cuanto a las imágenes, si bien también existen aplicaciones de chequeo, hay ciertas claves que se pueden tener en cuenta a la hora de comprobar la esencia de la misma: los detalles, el contexto de la imagen, o la marca de agua. “Hay elementos que la IA aún no puede recrear a la perfección, como las manos o las texturas de la piel. Si bien son complejas y tienen un nivel de creación muy rápido, todavía están en desarrollo y tienen errores. Otra cosa a tener en cuenta es que toda imagen creada por IA tiene una marca de agua, aunque muchas veces sea tan pequeña que no podamos verla, está ahí. Eso también es un indicador”.
Por otro lado, la especialista también se refirió a los deep fakes que son mucho más complejos de crear. “Este tipo de contenido generados con IA son falsos pero muy realistas. Un ejemplo común son los videos en donde se realiza el intercambio de rostro. Sin embargo, hay que prestar atención a las inconsistencias en la imagen y el audio del video. Se suelen ver fallas en el doblaje, sombras aleatorias y desalineaciones en partes de la cara, como los ojos o la boca. Estos son signos claros de manipulación”.
La integrante de Chequeado resaltó que es muy importante desarrollar un pensamiento crítico propio y que antes de compartir algo de lo que no estamos seguros, hay que corroborar las fuentes. "Cuando dudemos de una información, hay que buscar en ese contenido algún dato que se pueda contrastar para verificar si es cierto o no. Muchas veces nos pasa que leemos un posteo en que tal especialista recomienda algo, y que en realidad esa persona o la institución a la que supuestamente pertenece no existe, por lo que desde el vamos estamos ante un contenido engañoso que luego ser totalmente falso. En el buscador de imágenes de Google podemos rastrear si una imagen ya se publicó y quien la hizo o si alguna vez se verificó ese contenido. Otra recomendación es, ante la duda, no compartir esa información porque puede generar mucha más viralización".
¿Pueden las IA intoxicarse con información falsa?
La inteligencia artificial se ha convertido en una herramienta poderosa y transformadora que ha llegado para revolucionar y reconfigurar nuestros modos de hacer, influenciando significativamente no solo nuestras prácticas cotidianas, sino también los procesos y enfoques en múltiples ámbitos del conocimiento y la producción.
Como todo nuevo instrumento, es adorada por algunas personas y demonizada por otras. Los argumentos a favor y en contra son variados, siendo uno de los debates actuales a nivel mundial. Para Cecilia Vázquéz la clave está en no pensarlo en una dualidad de blanco o negro, sino posicionarse en un punto medio. "Cuando apareció la web también había detractores, sin embargo ahora la mayoría tiene incorporado buscar algo en Google o Wikipedia. Lo importante es comprender que ya está entre nosotros y no por eso debe significar que está bueno usarla para todo ni irse al otro extremo de pensar que es mala”.
Para la profesional hay dos criterios claves en cuanto a la IA que son entender cómo utilizarla y de qué manera funciona. “Hay que poder comprender esto para ponerlos en práctica de una manera que nos sea útil y nos sume de una manera responsable".
Sin embargo, ni siquiera estos sistemas complejos son inmunes a verse influenciados por la desinformación. "Lamentablemente, ninguna inteligencia artificial tiene un sistema que evite que puedan alimentarse de contenidos falsos. La información falsa puede contaminar los datos que se extraen de Internet para entrenar los sistemas de IA que solemos utilizar, como el Chat GPT, Gemini, Copilot, etc. Esto es un tema que nos preocupa y se vincula con la posibilidad de generar más información falsa", certificó Vázquez y añadió: “No hay filtro y por eso es tan importante que podamos desarrollar nuestro propio pensamiento crítico. Tenemos el desafío de no quedarnos solamente con lo que nos dice una inteligencia artificial determinada y buscar múltiples fuentes, haciendo una investigación manual".