Skip to main content

Etiqueta: deepfake

Es falso el audio que atribuye a Daniel Noboa amenazas contra alias “Pipo”

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un audio viral en el que se escucha una voz atribuida al presidente Daniel Noboa insultar a alias “Pipo”, referirse al asesinato de Fernando Villavicencio y ordenar supuestas gestiones en España para silenciarlo antes de una extradición.

¿Por qué es completamente falso?

No existe evidencia documental, audiovisual ni testimonial que confirme que el presidente haya emitido esas declaraciones. El análisis técnico del archivo lo identifica como audio generado mediante inteligencia artificial.

¿Qué dice la evidencia?

Inconsistencias narrativas:

  • El audio menciona acercamiento con Mariano Rajoy para realizar gestiones vinculadas al caso. Rajoy dejó de ser presidente del Gobierno de España en 2018 y no ejerce funciones públicas desde entonces.
  • El audio menciona represalias contra Diario Expreso por la difusión de declaraciones de alias “Pipo”. Sin embargo, la publicación inicial de esas declaraciones fue realizada por la Agencia EFE.

El archivo fue clasificado como audio sintético:

  • DeepFake-o-meter lo clasificó como generado con inteligencia artificial con una probabilidad del 100%.
  • Resemble AI lo identificó como contenido sintético según su modelo de análisis.
  • Sensity lo marcó como “sospechoso” por patrones atípicos en la modulación y estructura vocal.
  • Estas herramientas no sustituyen un peritaje forense independiente, pero coinciden en identificar el archivo como contenido generado artificialmente.

Inconsistencias técnicas en el audio:
Una revisión del archivo identifica patrones que suelen observarse en contenidos generados mediante síntesis de voz:

  • Tonalidad uniforme: La voz mantiene una cadencia y un timbre prácticamente constantes durante todo el mensaje, sin variaciones emocionales marcadas.
  • Pausas abruptas: Se registran silencios breves entre frases que no siguen un ritmo natural de conversación continua.
  • Ausencia de respiraciones audibles: No se perciben inhalaciones o variaciones fisiológicas típicas del habla espontánea.
  • Interferencias constantes: El audio incluye un ruido de fondo similar a interferencia telefónica que se mantiene de forma homogénea, sin fluctuaciones propias de una llamada real.

No existe respaldo verificable

  • No hay registro documental, audiovisual ni institucional que confirme que el presidente haya emitido las declaraciones atribuidas.
  • No existen comunicados oficiales que respalden su autenticidad.
  • Ningún medio nacional o internacional con estándares editoriales ha publicado el audio como una declaración real.
  • No hay constancia de investigaciones o procesos judiciales derivados de esas supuestas amenazas.

Contexto importante

La circulación del audio ocurre después de que la Agencia EFE reportara que Wilmer Chavarría, alias “Pipo”, detenido en España y señalado como líder del grupo criminal Los Lobos, declaró ante la Fiscalía de Zaragoza que el presidente Daniel Noboa estaría detrás del asesinato de Fernando Villavicencio en 2023.

Según ese reporte, Chavarría negó su participación en el crimen y afirmó que una persona cercana al ministro del Interior le habría dicho que el asesinato fue ordenado por el presidente.

No se han presentado pruebas públicas que respalden esas acusaciones. El Gobierno ecuatoriano rechazó esas declaraciones y las calificó de infundadas.

Conclusión

COMPLETAMENTE FALSO: El audio atribuido al presidente Daniel Noboa presenta inconsistencias narrativas verificables, no cuenta con respaldo documental, institucional ni periodístico que confirme su autenticidad y fue clasificado por tres sistemas de detección como contenido sintético, además de mostrar patrones acústicos frecuentes en audios generados o manipulados digitalmente.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Video con IA falsifica reportaje de Teleamazonas contra secretaria de seguridad de Quito

¿Qué verificamos?

Un video publicado por la cuenta «EmergenciasEc» en X muestra un supuesto reportaje del periodista Fausto Yépez para Teleamazonas en el que se acusa a Carolina Andrade, secretaria de seguridad de Quito, de recibir doble sueldo como directora del Cuerpo de Agentes Metropolitanos y como secretaria de seguridad, además de exigir «coimas» durante operativos en clubes nocturnos de la capital.

¿Por qué es completamente falso?

El periodista Fausto Yépez confirmó que no es su voz ni contenido de Teleamazonas. El supuesto reportaje no existe en ninguna plataforma oficial del medio. Herramientas especializadas detectaron con 75-99% de certeza que los audios son generados con inteligencia artificial. El video ensambla imágenes reales de diferentes fechas con claquetas falsas que difieren en estilo y tipografía del formato original de Teleamazonas.

¿Qué dice la evidencia?

Confirmación directa de fuentes:

  • Fausto Yépez, periodista de Teleamazonas, confirmó a Lupa Media que no es su voz y que el medio no ha cubierto ese contenido. La consulta fue hecha la noche del 1 de octubre de 2025.
  • Lupa Media realizó búsquedas en los perfiles de redes sociales de Teleamazonas (X, Facebook, Instagram, YouTube), en su sitio web oficial y en el repositorio de reportajes del medio. No se encontró evidencia del supuesto reportaje sobre Carolina Andrade.
  • La Alcaldía de Quito descartó oficialmente la veracidad de la publicación.

Análisis técnico con herramientas de detección de IA:

  • La herramienta Hiya detectó entre un 98% y 99% de probabilidad de que el audio atribuido a Fausto Yépez y Carolina Andrade fueron generados con inteligencia artificial.
Análisis audio Fausto Yépez
Análisis audio Carolina Andrade
  • Hive Moderation determinó un 74,5% y 99% de probabilidad de que los audios fueron generados sintéticamente. Los resultados fueron consistentes.
  • Estas herramientas analizan patrones de voz, frecuencias y características acústicas que delatan la síntesis artificial de audio.

Análisis visual del contenido manipulado:

  • Una búsqueda inversa de imágenes con Google Lens reveló que el video desinformativo ensambla múltiples videos de diferentes fechas para dar coherencia al montaje.
  • Las claquetas que aparecen en el video falso mantienen los colores institucionales de Teleamazonas, pero difieren significativamente en el estilo y la tipografía utilizada por el medio oficial.
Video real de Teleamazonas
Video falso
  • La manipulación combina imágenes reales con elementos gráficos falsos para simular un reportaje legítimo.

Perfil de la cuenta difusora:

  • El video fue publicado por la cuenta «EmergenciasEc» en X e Instagram. La cuenta registra más de 500 mil seguidores en X y 120 mil en Instagram.
  • Según los metadatos de X, la cuenta fue creada en 2018.
  • La cuenta aparece domiciliada en Estados Unidos.

Contexto importante

Este video falso forma parte de una tendencia creciente de desinformación generada con inteligencia artificial en Ecuador. Los deepfakes de audio permiten crear contenidos falsos cada vez más convincentes que suplantan la identidad de periodistas y medios de comunicación para dar credibilidad a acusaciones inventadas contra funcionarios públicos. Durante las elecciones generales de 2025, Lupa Media registro que 5 de cada 10 contenidos virales verificados durante la campaña electoral fueron creados o manipulados con IA.

La manipulación de videos con IA se ha sofisticado al punto de ensamblar material visual de diferentes fuentes y fechas, combinándolo con audio sintético para crear narrativas falsas que aparentan ser reportajes periodísticos legítimos.

Conclusión

COMPLETAMENTE FALSO: El supuesto reportaje de Teleamazonas fue creado con inteligencia artificial. El periodista Fausto Yépez desmintió el contenido, el medio no tiene registro del reportaje, y herramientas especializadas confirmaron que los audios son sintéticos.

Cuenta falsa usurpa logo de Telemundo para difundir deepfakes de futbolistas

¿Qué verificamos?

Una cuenta de TikTok que utiliza el logo del medio Telemundo y ha acumulado 8.5 millones de «me gusta» difundiendo contenido sobre futbolistas con declaraciones controvertidas atribuidas principalmente a Lamine Yamal, Messi y Cristiano Ronaldo.

¿Por qué es completamente falso?

La cuenta no pertenece a Telemundo y manipula declaraciones reales de futbolistas mediante inteligencia artificial. Las supuestas confrontaciones entre Yamal, Messi y Cristiano Ronaldo son fabricadas, con inconsistencias temporales que demuestran la manipulación.

¿Qué dice la evidencia?

  • Lupa Media confirmó que la cuenta no aparece en los canales oficiales de Telemundo en ninguna plataforma digital.
  • El análisis cronológico de la cuenta revela que inició el 4 de junio de 2025 con contenido político generado por IA, antes de migrar al contenido deportivo el 12 de junio.
  • La cuenta ha publicado 81 videos manipulados de futbolistas, utilizando fragmentos de 4 a 10 segundos de entrevistas y ruedas de prensa reales.
  • Las figuras más utilizadas son Messi, Cristiano Ronaldo, Lamine Yamal, Ronaldinho, Mbappé, Dembélé y entrenadores como Pep Guardiola, Luis Enrique y Xavi Alonso.
  • Un video manipula la voz de Ronaldinho para hablar en contra de Lamine Yamal: “¿Balón de oro para Lamine? le queda grande”. La herramienta Hive Moderation detectó que el audio contiene un 97.8% generado con inteligencia artificial. El video original fue publicado por el medio español Marca, en el cual se refiere a la selección de Brasil.
  • Un ejemplo de manipulación temporal: El video falso publicado el 04 de agosto de 2025, muestra a Messi con una respuesta sobre el festejo de Yamal usando el número 10 en la camiseta del Barcelona (31 de julio de 2025), pero la entrevista original de Messi se publicó el 28 de febrero de 2025.
  • Las narrativas fabricadas incluyen supuestas declaraciones de Yamal en contra de futbolistas con mayor trayectoria como: «Me comparan con Messi y Cristiano, no entiendo como me pueden comparar con ese par que juegan en ligas de retirados». El video manipula una entrevista de Yamal donde se le consulta sobre el mejor jugador del año, su actualidad en selección y con su club.
  • La cuenta incluye un enlace que promete «monetizar las cuentas de TikTok con la polémica del fútbol» y el autor se identifica como «creador de IA».

Contexto importante

Los deepfakes son videos, imágenes o audios manipulados o generados artificialmente mediante técnicas de inteligencia artificial, con el propósito de hacer creer que son reales. Estos medios sintéticos pueden mostrar a personas reales o inventadas, y se han convertido en una forma moderna de engaño mediático. 

Los deepfakes de figuras públicas han aumentado en redes sociales, especialmente en el ámbito deportivo donde las rivalidades generan mayor engagement y viralidad en redes sociales. TikTok ha implementado políticas contra contenido sintético no etiquetado, pero la detección automatizada sigue siendo un desafío. Además, el uso comercial de estas manipulaciones para generar tráfico y monetización representa una nueva modalidad de desinformación con fines lucrativos.

La usurpación de logo e identidad gráfica es recurrente para generar desinformación. Lupa Media ya ha verificado cuentas que usurpan el logo de Telemundo en varias ocasiones.

Conclusión

COMPLETAMENTE FALSO: Las declaraciones atribuidas a Messi, Cristiano Ronaldo y Lamine Yamal son fabricadas mediante inteligencia artificial. La cuenta usurpa la identidad de Telemundo y crea confrontaciones inexistentes entre futbolistas con fines comerciales de monetización.