En resumen: La noche del 2 de enero, un video empezó a circular con la velocidad habitual de los contenidos diseñados para incomodar. En el video, Nicolás Maduro le daba su apoyo al candidato presidencial del Frente Amplio, Ariel Robles. El mensaje era explícito y provocador. También era falso y así terminó siendo denunciado por el propio Robles.
La imagen de Maduro parecía corresponder a un video real. El audio parecía reproducir también la voz del mandatario. Eso sí, voz y audio parecían ir cada uno por su lado. No se trató de un deepfake sofisticado, sino de una edición burda que combinaba imágenes con un audio aparentemente sintético para decir algo que nunca pasó. Bastó eso para que el contenido se propagara con miles de reacciones en Facebook.
Ese video sirve para entender cómo operan hoy los engaños audiovisuales en campaña electoral. Las guías de detección de videos trucados de organizaciones de verificación coinciden en que el problema no es solo técnico, pues no basta con mirar el video en busca de errores: a menudo importa más el contexto en el que aparece.
En el caso del video que vinculaba a Maduro con el candidato frenteamplista, el material comenzó a circular a menos de un mes de las elecciones nacionales en Costa Rica y con la noticia fresca de la captura de Maduro por parte de Estados Unidos. Este es un clima de alta polarización, donde los mensajes diseñados para provocar rechazo o adhesión extrema encuentran terreno fértil.
Por eso, cuestionarse quién difunde el video, cuándo aparece y a quién beneficia es tan relevante como revisar si el audio suena artificial o la imagen está mal editada.
Engaños que no necesitan de tecnología de punta
El video atribuido a Maduro no es un caso de sofisticación tecnológica; no hay una recreación digital precisa del rostro ni una simulación avanzada de movimientos faciales. El engaño se apoya en algo más simple y más común: la reutilización de un video aparentemente real con un audio manipulado.
Las organizaciones de verificación advierten que este tipo de montajes puede ser más frecuente que los llamados deepfakes, que son más complejos. Un deepfake es un video o audio manipulado con inteligencia artificial para hacer que una persona real parezca decir o hacer algo que nunca ocurrió. La organización argentina Chequeado lo explica en su guía sobre videos falsos: no todo engaño audiovisual implica inteligencia artificial de punta; muchas veces basta con editar un material existente para cambiar por completo su significado.
El sitio español Maldita.es coincide en esa evaluación. En su explicador sobre deepfakes y clonación de voz, subraya que la manipulación del audio puede acompañar un video convincente aún cuando la gestualidad de la persona no coincida con las palabras. Este tipo de videos se conoce como cheapfake, debido a que es una producción “barata”.
En otras palabras, no hace falta “inventar” un Nicolás Maduro digital para producir un mensaje falso: basta con ponerle en la boca palabras que nunca dijo y hacer algunos cortes abruptos en las tomas de video para camuflar las inconsistencias entre lo que se escucha y lo que se ve.
El video divulgado el 2 de enero también simulaba la presentación de un supuesto reporte televisivo para atribuirse legitimidad. El video comenzaba con una introducción fabricada en la que aparece el periodista mexicano Carlos Loret de Mola, como si el contenido proviniera de un noticiero profesional. Este recurso, frecuente en piezas de desinformación audiovisual, busca aprovechar la credibilidad asociada a formatos periodísticos reconocibles para reducir el escepticismo del público y acelerar la circulación del material, aun cuando el montaje resulte burdo y el “reporte” no corresponda a ninguna emisión real.
Paradójicamente, la producción del video en el que aparece Loret de Mola tiene mayor calidad que la del propio Maduro, y se acerca más a un deepfake.
Engaños distintos
Chequeado propone distinguir al menos tres categorías de videos desinformantes: 1) aquellos generados o alterados con inteligencia artificial; 2) videos reales manipulados mediante edición “manualmente”; 3) y videos reales sacados de contexto. Cada uno requiere una lectura distinta y plantea riesgos diferentes.
El caso que circuló en Costa Rica parece una mezcla de la primera y la segunda categorías. Por un lado, parece provenir de una imagen auténtica, pero el audio parece ser sintético. El engaño no está en el píxel, sino en el relato que se construye a partir de él.
La organización de verificación Africa Check ha documentado que este tipo de manipulación suele ser frecuente. La organización justamente recomienda buscar “saltos” en el video o transiciones torpes en las que algo haya sido añadido o eliminado.
Primero, verifiquemos señales obvias
La guía de verificación de Chequeado advierte que no existen métodos infalibles para detectar un deepfake, pero sí hay pistas técnicas que pueden ayudar a levantar sospechas y justificar una revisión más cuidadosa del contenido.
Entre los indicios más comunes se encuentran inconsistencias visuales:
- Observar con atención el rostro de la persona (si la piel parece demasiado suave o demasiado arrugada; si el envejecimiento de la piel es coherente con el del cabello y los ojos).
- Fijarse en los ojos y las cejas (si se ven naturales; si la persona parpadea demasiado o muy poco).
- Prestar atención a los anteojos, cuando los hay (si encajan de forma natural en el rostro; si la iluminación y los reflejos son coherentes).
- Analizar la iluminación del video (si las sombras están donde deberían estar; si la luz es consistente a lo largo de la grabación).
- Observar el vello facial, o la falta del mismo (si es coherente con el resto del rostro).
- Revisar los movimientos de los labios (si están sincronizados con la voz).
Señales visibles ayudan a dudar, pero no son definitivas
Las organizaciones de verificación advierten que no siempre habrá errores tan evidentes. Maldita.es recuerda que algunos videos auténticos pueden parecer “raros” por problemas técnicos, mientras que ciertos contenidos falsos pueden no mostrar fallas visibles. Por eso, las señales técnicas deben entenderse como alertas tempranas, y no como pruebas concluyentes.
Si el análisis técnico no alcanza, las guías coinciden en que hay que situar la publicación de un video en el tiempo y el sitio en que fue divulgado. El contexto suele decir más que la imagen.
Distintos medios de verificación encuentran de forma reiterada videos reales, antiguos o irrelevantes que reaparecen en momentos políticamente sensibles, acompañados de relatos diseñados para generar impacto inmediato.
En el caso del video en contra del Frente Amplio, el video apareció en un momento clave del calendario electoral, aparejado con un momento en que Nicolás Maduro también acaparaba las noticias por su detención por parte de los Estados Unidos. El video circuló desde una página sin trayectoria periodística clara, se difundió rápidamente en redes sociales y apuntó a una figura política concreta, asociándola con un régimen extranjero polarizante.
Por eso, ante un dato o un contenido que genera sospechas, conviene preguntarse quién es la fuente, qué pruebas presenta y qué dicen otros medios o fuentes independientes al respecto. Cuando se trata de informaciones que surgen en contextos políticamente polarizados, a esas preguntas se podrían sumar otras dos, de carácter contextual: por qué aparece ahora y a quién beneficia que esa información sea creída o difundida.
Responder esas preguntas no requiere conocimientos técnicos, pero sí se necesita prestar atención al entorno en el que circula el contenido.
Decir “no sé” es una conclusión válida
El video de Maduro fue finalmente desmentido por el propio Ariel Robles, pero no todos los casos se resuelven con la misma rapidez o claridad. No siempre es posible confirmar de inmediato si un video es real o falso, y reconocer esa incertidumbre es parte del rigor que debemos tener al consumir información.
La verificadora británica Full Fact explica que, en la práctica, las evaluaciones de contenido potencialmente fabricado deben formularse con cautela y matizarse. Por esa razón, los verificadores de Full Fact usan expresiones como que un contenido es “probablemente” o “casi con toda seguridad” generado con inteligencia artificial.
“Eso se debe a que, en muchos casos, no podemos demostrar de manera absoluta y más allá de toda duda posible que no se trate de imágenes reales o de una fotografía que haya sido editada o creada digitalmente de alguna otra forma”, indica el medio británico.
La desinformación con videos no es principalmente un problema de software: es un problema de circulación, de incentivos y de contexto. Por ello, la herramienta más efectiva sigue siendo detenerse antes de compartir. En un entorno donde los videos pueden mentir, no amplificar el engaño también es una forma de depurar el ecosistema informativo.



