Escrito por: Ana María Saavedra, directora de Colombiacheck
La inteligencia artificial y las ‘deepfake’, fantasmas que rondaban el panorama de la desinformación mundial, hicieron sus primeras apariciones reales en 2023. En Colombiacheck cerramos el año con este balance del panorama de lo que verificamos.
Tras un 2022 con la invasión rusa a Ucrania y una campaña presidencial con una gran polarización y numerosas desinformaciones contra los candidatos, incluyendo al nuevo presidente, Gustavo Petro, el 2023 llegó con nuevos retos pero también con viejas formas de desinformar.
El año empezó con las expectativas de un país en reforma, ante las propuestas del mandatario. Esto generó marchas a favor y en contra del nuevo gobierno y sus políticas. Fue así como vimos un panorama de desinformaciones en las que se buscaba atacar o defender a la administración con datos e imágenes falsos o sacados de contexto.
Pero, quizá, el hecho de más connotación del 2023 y el que significa el mayor reto para los medios dedicados al ‘fact-checking’ en este nuevo año es la irrupción de la inteligencia artificial generativa, con Chat GPT u otros modelos de lenguaje escrito y las herramientas para realizar imágenes y audios.
Finalmente, el 29 de octubre, se efectuaron las elecciones regionales en las que vimos cómo, en diversas regiones del país, se difundieron desinformaciones para atacar o favorecer determinados candidatos a alcaldías y gobernaciones.
En Colombiacheck hicimos este balance de las cinco tendencias que vimos en 2023 en materia de desinformación.
1. La llegada de la IA
La inteligencia artificial (IA) se refiere a sistemas o máquinas que imitan la inteligencia humana para realizar tareas y que pueden mejorar a partir de la información que recopilan. Este año, con la aparición del ChatGPT y otras aplicaciones para generar textos, imágenes, videos y audios empezamos a ver varias desinformaciones que usaban esta tecnología en la producción de contenidos falsos.
Las imágenes
Ya en los primeros meses del 2023, en redes sociales empezaron a circular imágenes creadas por aplicaciones de IA como Dall- E 2 y Midjourney. En el mes de marzo analizamos varios ejemplos, como en la nota ‘Imagen de falso gato serpiente que circula en redes fue creada con inteligencia artificial’, donde aclaramos que no existía tal animal y que la foto había sido creada con esta tecnología.
A finales de ese mes, se viralizaron otras imágenes falsas creadas por IA: una supuesta foto del Papa Francisco con un abrigo de plumas blanco y largo, una secuencia de la falsa captura o arresto del expresidente estadounidense Donald Trump y una supuesta imagen del mandatario ruso, Vladimir Putin, arrodillado ante su homólogo chino, Xi Jinping.
Esta última imagen fue usada meses después con el rostro del nuevo presidente de Argentina, Javier Milei.
En esas notas explicamos que las imágenes verificadas mostraban algunos detalles imperfectos que permitían identificar que habían sido generadas a partir de un programa de IA. Uno de esos detalles eran las manos.
Pero la IA generativa evoluciona cada vez más y estas aplicaciones han ido perfeccionándose. Aparte de esto, las herramientas, también de inteligencia artificial, creadas para identificar estas imágenes, aún no son confiables en un 100%.
En una nota del medio español La Vanguardia explican que “existen herramientas en línea que pueden ayudarte a detectar si una imagen fue creada por IA. Por ejemplo, SynthID es una herramienta que creó Google que detecta imágenes generadas por IA. Otra opción sería AI or Not, una web que permite cargar una imagen y comprobar si se generó mediante IA. Sin embargo, sus resultados no son infalibles y es importante que se use en combinación con otros métodos”.
Es por esto que el panorama de 2024 con las imágenes creadas por IA es complejo, pero supone un reto en el que debemos no solo analizar los detalles de las imágenes sino el contexto de estas.
Los avatares
Empresas como Synthesia e IAEmpresas ofrecen avatares para presentaciones profesionales, de negocios, anuncios publicitarios, etc. Se le puede incluso colocar el idioma y acento con el que se desea que hable. Sin embargo, estos avatares han sido usados para desinformar.
En Colombiacheck identificamos publicaciones de Facebook e Instagram en las que crearon personajes para promocionar a un supuesto médico que cura la diabetes. Aunque el supuesto médico sí es una persona real, no hay registros de que haya estudiado medicina. Además, los supuestos pacientes que se curaron gracias a su tratamiento eran en realidad avatares.
Estos avatares también han sido usados para engaños políticos. En Venezuela, por ejemplo, usaron avatares de falsos periodistas para hacerle propaganda al gobierno de Nicolás Maduro y en Colombia, en noviembre pasado, usaron personajes ficticios, como un médico, un paciente crónico y un militar, para convocar a una marcha contra Petro y sus reformas.
2. Las desinformaciones en elecciones regionales
Para cubrir estas elecciones del 29 de octubre, en Colombiacheck tuvimos nuestro lente verificador regional con Redcheq. Esta red de corresponsales y alianzas con medios locales nos permitió conocer las dinámicas de desinformación en ciudades como Cali, Medellín, Envigado, Pasto, Neiva, Florencia, Sincelejo y Santa Marta.
En estas elecciones, como en años anteriores, verificamos fotos y videos reales pero viejos o sacados de contexto; montajes a medios de comunicación o de falsos trinos y encuestas falsas o gráficos engañosos.
Audios falsos
Pero en este cubrimiento también hizo su aparición la inteligencia artificial o la sospecha de audios creados con esta tecnología. Sin embargo, en los chequeos que publicamos en Colombiacheck y Redcheq sobre los falsos audios, aclaramos que no es posible determinar con certeza que hayan sido creados por IA.
Los audios creados con IA, también llamados ‘deepfakes’ de audio, se pueden generar a partir de grabaciones de voz de una persona con herramientas tanto gratuitas como pagas en internet. El problema (y lo alarmante a su vez para expertos y organizaciones) radica en que cada vez se vuelve más sencillo, rápido y accesible la creación de estas producciones. Y no solo se puede generar un discurso con la voz de la persona, sino también cambiarla y ponerla en otro idioma, con su propio tono y acento.
En las elecciones regionales aparecieron supuestos audios de voces atribuidas a los candidatos. Los entonces candidatos Alejandro Éder y Carlos Fernando Galán aseguraron que se trataba de audios creados con inteligencia artificial.
A esto se le sumó un montaje con otro audio (que despertó sospechas de ser generado por IA) de una supuesta noticia dada por la presentadora de Noticias Uno Mónica Rodríguez sobre un paro armado en Putumayo de los Comandos de Frontera, una disidencia de las antiguas FARC, “orientado a intimidar a la población civil para que voten por el candidato a la gobernación al que apoya dicho grupo armado”, en este caso, a Jhon Andrés Molina (1, 2).
En Colombiacheck publicamos un explicador sobre los audios en el que aclaramos que, hasta el momento, no hay herramientas confiables con las que se pueda determinar que estos fueron creados con IA. Y aunque hay algunos indicios que puedan llevar a sospechar de esto, es imposible determinarlo con certeza.
En otros casos, la página de Facebook El Inquisidor Opita informó acerca de unos “audios filtrados” del candidato a la alcaldía de Neiva Germán Casagua Bonilla. Uno de los audios sí era su voz, pero había sido sacada de una grabación real, la que fragmentaron y pegaron para cambiar el sentido de sus palabras. Los otros, en realidad, no se parecían a la voz del Casagua.
Lo mismo ocurrió con una falsa conversación entre Dilian Francisca Toro y Álex Char en la que este reconocía sus vínculos con el Cartel de Sinaloa.
Desinformación pautada
Algunas de estas últimas desinformaciones mencionadas, como las de los audios de los candidatos de Neiva, Cali y Bogotá, así como montajes de supuestas notas de medios de comunicación que verificamos en las elecciones regionales habían sido publicadas en páginas de Facebook e Instagram que, según la biblioteca de anuncios de Meta, pautaron estas publicaciones para aumentar su alcance.
Este tipo de desinformaciones pautadas las vimos en Cali, con páginas de Facebook que atacaron al ahora alcalde Eder como La Opinión del Pueblo, Actualidad Política de Valle (1, 2), Cali es Cali Noticias. Pero también en otras que iban en contra de su contendor Roberto Ortiz.
Las desinformaciones pautadas también se vieron en los audios falsos contra Germán Casagua, en Neiva, y en montajes de supuestas inhabilidades o renuncias de candidatos, como las publicadas en la página Sincelejo Informa contra Mario Fernández Alcocer.
Estas pautas usadas por páginas supuestamente de noticias, pero que en la mayoría de los casos eran para atacar candidatos y defender y posicionar a otros, buscaban ampliar el alcance de los ataques. Los pagos por publicación eran desde 250.000 hasta 2 millones de pesos.
Suplantan medios de comunicación
Desde hace varios años, los montajes de supuestas noticias de medios de comunicación reconocidos o de falsos tuits han sido usados para desinformar, pero en estas elecciones de 2023 detectamos que portales de medios de comunicación fueron suplantados.
Para realizar estas suplantaciones de medios como Red+, El Espectador y Llano 7 Días, crearon URL similares a la de las páginas originales de estos medios, replicaron el diseño y publicaron las falsas noticias. Para esto, compraron dominios parecidos. Por ejemplo, en el caso de El Espectador usaron https://ellespectador.com/, es decir, emplearon dos 'L', a diferencia de la página original que inicia de esta forma: https://www.elespectador.com/.
3. La guerra entre Israel y Palestina
Desde que el 7 de octubre el grupo islamista, calificado como terrorista, Hamás, lanzó un brutal ataque contra Israel, en el que, según cifras oficiales de este país, dejó 1.139 muertos y 240 rehenes, el gobierno israelí lanzó un ataque contra la Franja de Gaza que, según la organización humanos Euro-Med Monitor, ha dejado m®as de 29.000 palestinos muertos, la mayoría civiles.
En medio de esta escalada de violencia, las desinformaciones por el botín de la verdad han circulado en ambos bandos. Es así como en Colombiacheck hemos verificado desde videos y fotos que en realidad son de otros conflictos, como los de Siria e Irak, hasta falsas declaraciones del primer ministro de Israel, Benjamin Netanyahu, o del emir de Catar, Tamim bin Hamad Al Thani.
Y algunas de estas desinformaciones fueron retuiteadas o publicadas en X por políticos colombianos como el presidente Gustavo Petro y el representante Alirio Uribe, de la coalición gobiernista.
4. Narrativas negacionistas
En 2023, algunas de las decisiones de la Jurisdicción Especial para la Paz (JEP) desencadenaron unas oleadas de negacionistas sobre hechos del conflicto colombiano. Debido a esto, en Colombiacheck publicamos las investigaciones:
‘Falsos positivos: el horror que algunos quieren negar’, en conjunto con Vorágine y La Liga contra el Silencio. En una de las entregas de este especial, analizamos las narrativas negacionistas en X (Twitter) y revelamos que son difundidas principalmente por políticos vinculados al Centro Democrático como la senadora María Fernanda Cabal y el expresidente Álvaro Uribe Vélez.
‘Hornos crematorios confesados por Mancuso desataron otra narrativa negacionista en X’. En esta nota explicamos que en redes sociales se desataba una oleada de tuits que intentaban negar el testimonio del exjefe paramilitar Salvatore Mancuso y el posterior hallazgo de evidencias al respecto. Además, relacionaban al ente judicial con una supuesta cortina de humo del petrismo.
En algunas de las publicaciones, usaban fotos que no correspondían a los hallazgos. Además, entre los tuiteros que compartieron esta narrativa aparecieron integrantes de la ‘bodeguita uribista’ (revelada en una investigación de La Liga en 2020), como Argiro Castaño; otras cuentas de X como la de Renata Sokolov y Byviral24 o el exasesor del Ejército Fernando Vargas Quemba.
5. Un presidente tuitero
La agenda de 2023 estuvo marcada por el primer año del gobierno Petro, una figura que despierta odios y amores. Es así como, por un lado, sus contradictores y en algunos casos incluso medios de comunicación han publicado narrativas de desinformación contra el presidente y sus reformas.
Y por el lado del petrismo, tanto el mismo mandatario como miembros de sus gabinete o defensores se han defendido con diversas desinformaciones. En el caso de Petro, hemos publicado varias notas en las que explicamos cómo hace interpretaciones engañosas sobre diversos ranking para defender su gobierno o sus reformas, especialmente la de salud (1, 2, 3, 4, 5).
Además, en redes usaron imágenes de eventos viejos o de otros países para hablar de las manifestaciones convocadas por él para defender sus proyectos y políticas.
En cuanto a la oposición, hemos publicado desinformaciones publicadas por personalidades como María Fernanda Cabal, Álvaro Uribe, Miguel Polo Polo (1 2,3,4) o montajes publicados en páginas de Facebook o en X (1, 2) en las que se ataca al petrismo con datos falsos o engañosos.
Aparte de esto, identificamos una supuesta cuenta de noticias de X (Twitter), creada para atacar a Petro. Se trata de Byviral24, a la que le hemos verificado múltiples desinformaciones.
Conoce más de Colombiachek aquí