Skip to main content

Etiqueta: deepfake

Video con IA falsifica reportaje de Teleamazonas contra secretaria de seguridad de Quito

¿Qué verificamos?

Un video publicado por la cuenta «EmergenciasEc» en X muestra un supuesto reportaje del periodista Fausto Yépez para Teleamazonas en el que se acusa a Carolina Andrade, secretaria de seguridad de Quito, de recibir doble sueldo como directora del Cuerpo de Agentes Metropolitanos y como secretaria de seguridad, además de exigir «coimas» durante operativos en clubes nocturnos de la capital.

¿Por qué es completamente falso?

El periodista Fausto Yépez confirmó que no es su voz ni contenido de Teleamazonas. El supuesto reportaje no existe en ninguna plataforma oficial del medio. Herramientas especializadas detectaron con 75-99% de certeza que los audios son generados con inteligencia artificial. El video ensambla imágenes reales de diferentes fechas con claquetas falsas que difieren en estilo y tipografía del formato original de Teleamazonas.

¿Qué dice la evidencia?

Confirmación directa de fuentes:

  • Fausto Yépez, periodista de Teleamazonas, confirmó a Lupa Media que no es su voz y que el medio no ha cubierto ese contenido. La consulta fue hecha la noche del 1 de octubre de 2025.
  • Lupa Media realizó búsquedas en los perfiles de redes sociales de Teleamazonas (X, Facebook, Instagram, YouTube), en su sitio web oficial y en el repositorio de reportajes del medio. No se encontró evidencia del supuesto reportaje sobre Carolina Andrade.
  • La Alcaldía de Quito descartó oficialmente la veracidad de la publicación.

Análisis técnico con herramientas de detección de IA:

  • La herramienta Hiya detectó entre un 98% y 99% de probabilidad de que el audio atribuido a Fausto Yépez y Carolina Andrade fueron generados con inteligencia artificial.
Análisis audio Fausto Yépez
Análisis audio Carolina Andrade
  • Hive Moderation determinó un 74,5% y 99% de probabilidad de que los audios fueron generados sintéticamente. Los resultados fueron consistentes.
  • Estas herramientas analizan patrones de voz, frecuencias y características acústicas que delatan la síntesis artificial de audio.

Análisis visual del contenido manipulado:

  • Una búsqueda inversa de imágenes con Google Lens reveló que el video desinformativo ensambla múltiples videos de diferentes fechas para dar coherencia al montaje.
  • Las claquetas que aparecen en el video falso mantienen los colores institucionales de Teleamazonas, pero difieren significativamente en el estilo y la tipografía utilizada por el medio oficial.
Video real de Teleamazonas
Video falso
  • La manipulación combina imágenes reales con elementos gráficos falsos para simular un reportaje legítimo.

Perfil de la cuenta difusora:

  • El video fue publicado por la cuenta «EmergenciasEc» en X e Instagram. La cuenta registra más de 500 mil seguidores en X y 120 mil en Instagram.
  • Según los metadatos de X, la cuenta fue creada en 2018.
  • La cuenta aparece domiciliada en Estados Unidos.

Contexto importante

Este video falso forma parte de una tendencia creciente de desinformación generada con inteligencia artificial en Ecuador. Los deepfakes de audio permiten crear contenidos falsos cada vez más convincentes que suplantan la identidad de periodistas y medios de comunicación para dar credibilidad a acusaciones inventadas contra funcionarios públicos. Durante las elecciones generales de 2025, Lupa Media registro que 5 de cada 10 contenidos virales verificados durante la campaña electoral fueron creados o manipulados con IA.

La manipulación de videos con IA se ha sofisticado al punto de ensamblar material visual de diferentes fuentes y fechas, combinándolo con audio sintético para crear narrativas falsas que aparentan ser reportajes periodísticos legítimos.

Conclusión

COMPLETAMENTE FALSO: El supuesto reportaje de Teleamazonas fue creado con inteligencia artificial. El periodista Fausto Yépez desmintió el contenido, el medio no tiene registro del reportaje, y herramientas especializadas confirmaron que los audios son sintéticos.

Cuenta falsa usurpa logo de Telemundo para difundir deepfakes de futbolistas

¿Qué verificamos?

Una cuenta de TikTok que utiliza el logo del medio Telemundo y ha acumulado 8.5 millones de «me gusta» difundiendo contenido sobre futbolistas con declaraciones controvertidas atribuidas principalmente a Lamine Yamal, Messi y Cristiano Ronaldo.

¿Por qué es completamente falso?

La cuenta no pertenece a Telemundo y manipula declaraciones reales de futbolistas mediante inteligencia artificial. Las supuestas confrontaciones entre Yamal, Messi y Cristiano Ronaldo son fabricadas, con inconsistencias temporales que demuestran la manipulación.

¿Qué dice la evidencia?

  • Lupa Media confirmó que la cuenta no aparece en los canales oficiales de Telemundo en ninguna plataforma digital.
  • El análisis cronológico de la cuenta revela que inició el 4 de junio de 2025 con contenido político generado por IA, antes de migrar al contenido deportivo el 12 de junio.
  • La cuenta ha publicado 81 videos manipulados de futbolistas, utilizando fragmentos de 4 a 10 segundos de entrevistas y ruedas de prensa reales.
  • Las figuras más utilizadas son Messi, Cristiano Ronaldo, Lamine Yamal, Ronaldinho, Mbappé, Dembélé y entrenadores como Pep Guardiola, Luis Enrique y Xavi Alonso.
  • Un video manipula la voz de Ronaldinho para hablar en contra de Lamine Yamal: “¿Balón de oro para Lamine? le queda grande”. La herramienta Hive Moderation detectó que el audio contiene un 97.8% generado con inteligencia artificial. El video original fue publicado por el medio español Marca, en el cual se refiere a la selección de Brasil.
  • Un ejemplo de manipulación temporal: El video falso publicado el 04 de agosto de 2025, muestra a Messi con una respuesta sobre el festejo de Yamal usando el número 10 en la camiseta del Barcelona (31 de julio de 2025), pero la entrevista original de Messi se publicó el 28 de febrero de 2025.
  • Las narrativas fabricadas incluyen supuestas declaraciones de Yamal en contra de futbolistas con mayor trayectoria como: «Me comparan con Messi y Cristiano, no entiendo como me pueden comparar con ese par que juegan en ligas de retirados». El video manipula una entrevista de Yamal donde se le consulta sobre el mejor jugador del año, su actualidad en selección y con su club.
  • La cuenta incluye un enlace que promete «monetizar las cuentas de TikTok con la polémica del fútbol» y el autor se identifica como «creador de IA».

Contexto importante

Los deepfakes son videos, imágenes o audios manipulados o generados artificialmente mediante técnicas de inteligencia artificial, con el propósito de hacer creer que son reales. Estos medios sintéticos pueden mostrar a personas reales o inventadas, y se han convertido en una forma moderna de engaño mediático. 

Los deepfakes de figuras públicas han aumentado en redes sociales, especialmente en el ámbito deportivo donde las rivalidades generan mayor engagement y viralidad en redes sociales. TikTok ha implementado políticas contra contenido sintético no etiquetado, pero la detección automatizada sigue siendo un desafío. Además, el uso comercial de estas manipulaciones para generar tráfico y monetización representa una nueva modalidad de desinformación con fines lucrativos.

La usurpación de logo e identidad gráfica es recurrente para generar desinformación. Lupa Media ya ha verificado cuentas que usurpan el logo de Telemundo en varias ocasiones.

Conclusión

COMPLETAMENTE FALSO: Las declaraciones atribuidas a Messi, Cristiano Ronaldo y Lamine Yamal son fabricadas mediante inteligencia artificial. La cuenta usurpa la identidad de Telemundo y crea confrontaciones inexistentes entre futbolistas con fines comerciales de monetización.