
Noticieros Alterados con Deepfake: La Estrategia de Desinformación en la Campaña Electoral
Una estrategia de desinformación
El uso de la imagen y la voz de periodistas o presentadores de noticieros en videos manipulados no es una novedad. Sin embargo, con la inteligencia artificial, esta práctica ha alcanzado un nivel de sofisticación y escala preocupante. Los deepfakes permiten crear contenido tan realista que, a menudo, es casi imposible de distinguir de una pieza informativa genuina.
Los desinformadores se valen de la credibilidad de los medios para hacer que estos contenidos falsos sean más persuasivos y difíciles de identificar. Al suplantar la voz o imagen de figuras de confianza, logran que el público perciba la información manipulada como legítima. Esta práctica afecta la credibilidad de los medios de comunicación, distorsiona la percepción del público sobre los acontecimientos y, en un contexto electoral, condiciona la opinión de los votantes.
¿Qué es el deepfake?
El deepfake es una técnica basada en inteligencia artificial que genera imágenes y videos falsos con un realismo impactante. Modifica expresiones faciales, sustituye rostros, sincroniza labios e imita voces para crear contenido engañoso. Durante la campaña electoral, esta tecnología se ha utilizado para:
- Desinformar y hacer propaganda
@lupamedia 🔍#FactCheckElectoral | ❌ Video manipulado usa IA para suplantar a presentador de Teleamazonas En redes sociales circula un video manipulado con inteligencia artificial que clona la voz e imagen de Milton Pérez, presentador de Teleamazonas, para difundir información sobre una supuesta encuesta electoral que favorecería a la candidata presidencial Luisa González. #elecciones2025 #luisagonzalez #encuestas #viral #ecuador #noticias #fyp
♬ sonido original – Lupa Media
- Suplantar la identidad y aparentar autenticidad
@lupamedia 🔍 #FactCheckElectoral | Alteran con IA noticiero chileno para desinformar sobre la dolarización en Ecuador #elecciones #ecuador #noticias #dolarizacion #fyp #viral
♬ sonido original – Lupa Media
- Manipular entrevistas y debates
🔍#FactCheckExprés | ❌¿Luisa González afirmó en una entrevista con Teleamazonas que implementará un régimen como el de Venezuela si llega al poder?
— Lupa Media (@LupaMediaEC) April 1, 2025
¡Falso! González nunca dijo tal cosa.
🤔¿Cómo lo sabemos?
El video que circula en TikTok y Whatsapp ha sido manipulado mediante… pic.twitter.com/n51qpiYjB3
Contenido sincronizado
Tras el debate de la segunda vuelta electoral, Lupa Media registró siete piezas desinformativas que manipularon presentaciones de noticieros internacionales como France24 (Francia), Radio y Televisión Española (España), Noticias Caracol (Colombia), N+Foro (México), ADN40 (México) y Canal 24 (Chile). Todas aparecieron entre el 24 y el 29 de marzo, es decir en menos de una semana.
La inteligencia artificial se empleó para sincronizar los labios de presentadores y reporteros, alterar barras informativas, modificar imágenes y, en varias ocasiones, incluir gráficas robadas de Ecuavisa. Elementos visuales aparecían y desaparecían para hacer más convincente la falsificación.
@lupamedia 🔍#FactCheckElectoral | ❌ Un video falso que circula en redes afirma que el programa «Todo es Personal» de la cadena televisiva mexicana “adn40” habló sobre vínculos entre la familia Noboa y el narcotráfico. Verificamos el contenido y descubrimos que el programa original, emitido el 12 de marzo de 2025, trató temas como el Campo de Exterminio de Teuchitlán y la política arancelaria de Donald Trump, no lo que se muestra en el video manipulado. Revisa aquí toda la evidencia: lupa.com.ec ⚠️ Disclaimer: Esta verificación no hace afirmaciones ni negaciones sobre la existencia de delitos relacionados con la familia Noboa. El rol del fact-checking es esclarecer la información y corregir desinformaciones. En este caso, nuestro análisis se centra en señalar que el video viral es falso, ya que no refleja el contenido original del programa. #noticias #fyp #viral #ecuador #elecciones #danielnoboa #ia
♬ sonido original – Lupa Media
Desde el inicio de la campaña electoral, esta técnica se ha utilizado para desacreditar al candidato y presidente Daniel Noboa. Los videos desinformativos han superado las 100 mil visualizaciones en una sola cuenta.
Desinformación persistente
Una de las entrevistas de Teleamazonas manipuladas con deepfake circula desde el año 2023. Durante la campaña presidencial de 2025, reapareció en redes sociales en distintas fechas. Lupa Media ha desmentido esta pieza en al menos cuatro ocasiones.
@lupamedia 🔍 #FactCheckElectoral | 🚨 Un video manipulado con inteligencia artificial de una entrevista de Luisa González en Teleamazonas (2023) ha vuelto a circular como si fuera real. 🤨¿Lo dijo realmente? No. Luisa González nunca afirmó que se crearía una moneda paralela al dólar. Aquí te dejamos la evidencia y te explicamos todo sobre esta narrativa en nuestra verificación en lupa.com.ec (link en bio) #luisagonzalez #elecciones2025 #ecuador #dolarizacion #noticias #fyp #viral
♬ sonido original – Lupa Media
El monitoreo diario también ha detectado que esta técnica se usa para manipular la imagen y voz de la candidata presidencial Luisa González. Su impacto es significativo, ya que figuras públicas, periodistas y partidos han replicado estos contenidos falsos como si fueran reales.
Noticieros con avatares
Lupa Media también ha identificado falsos noticieros creados con avatares generados por inteligencia artificial, diseñados para simular la presentación de reportajes reales. Se han usurpado gráficas y logos del canal colombiano NTN 24.
@lupamedia 🔍#FactCheckLupa | 🔴 Un contenido viral utiliza fraudulentamente la identidad del medio colombiano NTN24 para difundir información falsa sobre la participación del presidente ecuatoriano en la ceremonia de investidura del presidente Donald Trump. Te contamos la evidencia #danielnoboa #eleccionesecuador2025 #fyp #viral
♬ sonido original – Lupa Media
Organizaciones de verificación como Cazadores de Fake News y Probox, la BBC y El País revelaron que el gobierno de Nicolás Maduro transmitió supuestos reportajes noticiosos falsos con deepfake para hacer creer que el mundo habla bien de Venezuela. Esta estrategia forma parte de una estructura especializada en producir narrativas falsas para propaganda gubernamental, reforzada por bots y «soldados digitales» en X que controlan la narrativa y disimulan críticas.
⚠️ #DesinformaciónVTV | anoche Mario Silva transmitió 4 videos (5 min 36 min) del canal de YouTube que usó avatares generados con IA.
— Cazadores de Fake News (@cazamosfakenews) February 26, 2023
Los presentó "noticias que saca una agencia que creo que es gringa, a favor de Venezuela" y procedió a atacar a @fsingerf de @el_pais 1/3🧵 pic.twitter.com/cIw4oKxNrr
Otra estrategia de desinformación, basada en un avatar y noticias falsas, se aplicó en España. En este caso, no se utilizó el perfil de un periodista, sino el de una «mujer». Maldita.es detectó dos vídeos, publicados en marzo de 2025 en dos perfiles de TikTok diferentes, que amplifican desinformación sobre supuestos casos de corrupción destapados en EEUU que afectarían a Sánchez y su Gobierno.

Una estrategia recurrente en la región
Adrián González, director de Cazadores de Fake News, explicó a Lupa Media que en una investigación continental realizada en 2023, titulada «Mercenarios Digitales» y liderada por el Centro Latinoamericano de Investigación Periodística, se identificó la creación de falsos noticieros como una de las técnicas de desinformación más comunes en campañas electorales.
Estos noticieros falsos operan a favor o en contra de candidatos y, en muchos casos, son administrados por una misma persona o empresa de comunicación política. Se han encontrado redes de estos noticieros replicadas en YouTube. Además, en Ecuador, Guatemala, Honduras y Venezuela, las cuentas que difunden estos contenidos utilizan identidades humanas falsas generadas con inteligencia artificial para dar credibilidad a cuentas recientemente creadas.
Según González, si bien esta estrategia no es nueva, lo novedoso es el uso de la inteligencia artificial para otorgar una sensación de legitimidad y credibilidad sin precedentes. Actualmente, existen innumerables herramientas de inteligencia generativa que primero difunden contenido mediante cuentas falsas, y una vez que este logra visibilidad, es replicado por militantes de partidos políticos.
¿Cuándo la desinformación se convierte en una estrategia?
Tips para identificar un noticiero alterado con inteligencia artificial
No es tarea fácil reconocer los noticieros manipulados con inteligencia artificial, pero existen algunas recomendaciones a seguir:
- Identificar errores visuales en las barras informativas, como el tipo de letra y los colores.
- Verificar en la web si la noticia se ha publicado en el medio de comunicación al que se le atribuye la información.
- Analizar el lenguaje: si se encuentran términos que un periodista no usaría o frases como «urgente» o «no quieren que sepas esto».
- Detectar imágenes generales o robadas de otros medios de comunicación.
- Si la información te genera miedo o enojo, es posible que esté intentando manipularte.
Fuentes:
Cazadores de Fakenews
Mercenarios Digitales
Entrevista Adrián González