Skip to main content

Etiqueta: inteligencia artificial

Es falso el audio que atribuye a Daniel Noboa amenazas contra alias “Pipo”

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un audio viral en el que se escucha una voz atribuida al presidente Daniel Noboa insultar a alias “Pipo”, referirse al asesinato de Fernando Villavicencio y ordenar supuestas gestiones en España para silenciarlo antes de una extradición.

¿Por qué es completamente falso?

No existe evidencia documental, audiovisual ni testimonial que confirme que el presidente haya emitido esas declaraciones. El análisis técnico del archivo lo identifica como audio generado mediante inteligencia artificial.

¿Qué dice la evidencia?

Inconsistencias narrativas:

  • El audio menciona acercamiento con Mariano Rajoy para realizar gestiones vinculadas al caso. Rajoy dejó de ser presidente del Gobierno de España en 2018 y no ejerce funciones públicas desde entonces.
  • El audio menciona represalias contra Diario Expreso por la difusión de declaraciones de alias “Pipo”. Sin embargo, la publicación inicial de esas declaraciones fue realizada por la Agencia EFE.

El archivo fue clasificado como audio sintético:

  • DeepFake-o-meter lo clasificó como generado con inteligencia artificial con una probabilidad del 100%.
  • Resemble AI lo identificó como contenido sintético según su modelo de análisis.
  • Sensity lo marcó como “sospechoso” por patrones atípicos en la modulación y estructura vocal.
  • Estas herramientas no sustituyen un peritaje forense independiente, pero coinciden en identificar el archivo como contenido generado artificialmente.

Inconsistencias técnicas en el audio:
Una revisión del archivo identifica patrones que suelen observarse en contenidos generados mediante síntesis de voz:

  • Tonalidad uniforme: La voz mantiene una cadencia y un timbre prácticamente constantes durante todo el mensaje, sin variaciones emocionales marcadas.
  • Pausas abruptas: Se registran silencios breves entre frases que no siguen un ritmo natural de conversación continua.
  • Ausencia de respiraciones audibles: No se perciben inhalaciones o variaciones fisiológicas típicas del habla espontánea.
  • Interferencias constantes: El audio incluye un ruido de fondo similar a interferencia telefónica que se mantiene de forma homogénea, sin fluctuaciones propias de una llamada real.

No existe respaldo verificable

  • No hay registro documental, audiovisual ni institucional que confirme que el presidente haya emitido las declaraciones atribuidas.
  • No existen comunicados oficiales que respalden su autenticidad.
  • Ningún medio nacional o internacional con estándares editoriales ha publicado el audio como una declaración real.
  • No hay constancia de investigaciones o procesos judiciales derivados de esas supuestas amenazas.

Contexto importante

La circulación del audio ocurre después de que la Agencia EFE reportara que Wilmer Chavarría, alias “Pipo”, detenido en España y señalado como líder del grupo criminal Los Lobos, declaró ante la Fiscalía de Zaragoza que el presidente Daniel Noboa estaría detrás del asesinato de Fernando Villavicencio en 2023.

Según ese reporte, Chavarría negó su participación en el crimen y afirmó que una persona cercana al ministro del Interior le habría dicho que el asesinato fue ordenado por el presidente.

No se han presentado pruebas públicas que respalden esas acusaciones. El Gobierno ecuatoriano rechazó esas declaraciones y las calificó de infundadas.

Conclusión

COMPLETAMENTE FALSO: El audio atribuido al presidente Daniel Noboa presenta inconsistencias narrativas verificables, no cuenta con respaldo documental, institucional ni periodístico que confirme su autenticidad y fue clasificado por tres sistemas de detección como contenido sintético, además de mostrar patrones acústicos frecuentes en audios generados o manipulados digitalmente.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Video viral que muestra a un perro mordiendo a una joven “therian” fue generado con IA

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video que circula en TikTok y otras plataformas en el que se asegura que un perro agrede a una joven mientras interactúa con él.

¿Por qué es completamente falso?

No existe evidencia visual que muestre a un perro mordiendo a la joven. El reportaje original del que se extrajo el fragmento viral registra únicamente una interacción entre personas y un animal, sin ataques ni comportamientos agresivos. El clip difundido omite partes clave de la secuencia y presenta fallas gráficas incompatibles con un registro auténtico.

¿Qué dice la evidencia?

Origen del video

  • Mediante una búsqueda inversa con Google Lens, Lupa Media identificó que el clip viral proviene de un reportaje publicado por la cuenta argentina “Resumido” de Argentina.
  • El reportaje muestra entrevistas a varias personas que se autoidentifican como therians.
  • La joven que aparece en el video viral participa en ese material y se presenta como un pastor belga malinois.
  • En las imágenes originales interactúa con otras personas, un perro y un niño.
  • En ningún momento del reportaje se observa que el perro la muerda o la agreda.
Captura de video publicado por «Resumido» – 08/02/26

Inconsistencias visuales

  • El fragmento viral está recortado antes y después del momento clave, lo que elimina la continuidad de la escena.
  • No se observa contacto claro entre el hocico del perro y el cuerpo de la joven.
  • Durante la supuesta mordida, la máscara que lleva puesta desaparece y reaparece en la secuencia.
  • En el fondo del video, las piernas de algunas personas se superponen y una figura aparece triplicada.
  • La mano que sostiene la correa del perro se deforma durante el supuesto ataque.
  • Las orejas de la máscara se confunden con el cabello de la joven tras el momento en que se afirma que fue agredida.

Detector de IA

  • Una herramienta de detección de contenido generado con inteligencia artificial arrojó una probabilidad del 99,9 % de que el video haya sido creado con IA.

Declaración de la persona involucrada

Contexto importante

El término “therian” se ha popularizado en redes sociales, especialmente en TikTok, para describir a personas que expresan una identificación psicológica o simbólica con animales no humanos. El concepto proviene del término inglés therianthropy—del griego therion (animal) y ánthropos (humano).

Un estudio publicado en 2025 en Science Direct diferencia entre teriantropía no clínica —una forma de afinidad identitaria sin pérdida del contacto con la realidad— y teriantropía clínica, asociada a trastornos psiquiátricos. Especialistas señalan que no toda identidad therian implica un problema de salud mental y que la intervención profesional solo es pertinente si existen conductas de riesgo o deterioro significativo de la vida cotidiana.

Los videos editados o generados con inteligencia artificial suelen:

  • Recortan escenas para alterar el contexto original.
  • Introducen cortes abruptos para simular hechos inexistentes.
  • Incorporan distorsiones visuales que pasan desapercibidas a simple vista.
  • Acompañan el contenido con descripciones que no coinciden con lo que muestran las imágenes.

Conclusión

COMPLETAMENTE FALSO: No hay evidencia de que un perro haya mordido a una joven identificada como “therian”. El video viral fue recortado y presenta múltiples inconsistencias visuales compatibles con edición o generación mediante inteligencia artificial. El reportaje original no registra ninguna agresión.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

¿Subir datos médicos a ChatGPT o Grok? Expertos recomiendan NO compartir información sensible con chatbots de IA

Este artículo es una adaptación de un contenido publicado originalmente por Maldita.es, actualizado por Lupa Media en enero de 2026.

Cada vez más personas consultan su salud con IA —y eso implica riesgos

Algunos usuarios están recurriendo a herramientas como ChatGPT o Grok para obtener respuestas rápidas sobre temas médicos, incluso subiendo radiografías, resultados de laboratorio o diagnósticos clínicos.

En enero de 2026, OpenAI lanzó ChatGPT Health, una función experimental para consultas relacionadas con la salud. Además, Elon Musk ha promovido el uso de Grok para obtener diagnósticos médicos.

El problema es que los chatbots no sustituyen a un profesional de la salud y pueden generar respuestas inexactas o engañosas. La Agencia Española de Protección de Datos advierte que estos sistemas pueden producir desinformación o inducir al error, con posibles consecuencias para la salud física y emocional de las personas.

Los datos médicos son altamente sensibles (y compartirlos implica perder control)

Los datos sanitarios —como diagnósticos, historiales clínicos, pruebas médicas o imágenes— son considerados información especialmente protegida por el Reglamento General de Protección de Datos (RGPD).

Expertos en ciberseguridad y protección de datos advierten que:

  • Compartir documentos médicos con un chatbot implica perder control sobre esa información.
  • Las empresas pueden usar esos datos para entrenar o mejorar sus modelos.
  • Si ocurre un ciberataque o una filtración, la información podría quedar expuesta públicamente.
  • En compañías con sede fuera de la Unión Europea, las garantías legales pueden ser más limitadas.

“Cuando compartimos un documento con un chatbot de IA, perdemos automáticamente el control de esa información”, explica a Maldita.es Samuel Parra, abogado especializado en protección de datos.

¿Pueden las IAs usar estos datos para entrenarse?

Tanto ChatGPT como Grok indican en sus políticas que el contenido de los usuarios puede utilizarse para mejorar sus servicios.
Aunque OpenAI asegura que las conversaciones en ChatGPT Health no se usan para entrenar los modelos principales, no detalla completamente cómo se gestionan estos datos.

Otro riesgo es que no siempre está claro cuánto tiempo se almacenan los documentos ni con qué fines futuros pueden utilizarse.

No hay trucos infalibles: modo incógnito, chats temporales o anonimizar no garantizan protección

Algunas personas intentan reducir riesgos usando:

  • Navegación en incógnito
  • Chats temporales
  • Eliminación de conversaciones
  • Anonimización de documentos

Sin embargo, los expertos coinciden en que ninguna de estas medidas garantiza que los datos no se almacenen, reutilicen o reconstruyan.
Incluso la anonimización puede fallar, ya que una IA puede detectar patrones y reidentificar información indirectamente.

¿Es legal que una IA procese datos médicos?

La normativa europea obliga a los sistemas de inteligencia artificial a:

  • Limitar el uso de datos sensibles
  • Aplicar medidas estrictas de protección de la privacidad
  • Evitar la reutilización o transferencia indebida de información sanitaria

Además, la Ley Europea de Inteligencia Artificial prevé clasificar ciertos modelos como de alto riesgo, especialmente si pueden afectar la salud y la seguridad pública, lo que implicará obligaciones adicionales de protección.

¿Qué pasa si ya compartiste datos médicos con una IA?

Las opciones existen, pero son limitadas.

Las personas pueden ejercer su derecho a la supresión de datos (artículo 17 del RGPD) para solicitar la eliminación de su información sanitaria.
Sin embargo:

  • No siempre es posible comprobar si los datos fueron realmente eliminados.
  • En los sistemas de IA, la información puede quedar integrada en el entrenamiento del modelo, lo que dificulta su borrado total.

Recomendación clave

Lo más seguro es NO subir datos médicos ni información sensible a ningún chatbot de IA.

Si decides usar estas herramientas:

  • No compartas exámenes médicos ni diagnósticos
  • No subas documentos clínicos
  • No reveles información personal o de terceros
  • Usa la IA solo como referencia general, nunca como sustituto de atención médica profesional

¿Entonces?

La inteligencia artificial puede ser una herramienta útil, pero no debe reemplazar la atención médica ni poner en riesgo nuestra privacidad. Cuando se trata de salud, la información sensible merece el máximo nivel de protección, criterio y responsabilidad.

El video de gallinas “congeladas” en Francia fue generado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video en TikTok y X que muestra varias gallinas inmóviles y cubiertas de hielo dentro de un gallinero. El video sugiere que las aves se congelaron durante una ola de frío en Francia y que una granjera intenta “descongelarlas” golpeándolas con un martillo.

¿Por qué es sátira?

El video fue publicado por Pediavenir, un perfil francés de parodia que se define como un medio de “desinformación en tiempo real”. El propio creador aclaró en comentarios que el contenido fue generado con inteligencia artificial y que no muestra un hecho real. No existen reportes oficiales ni periodísticos que respalden un evento como el que aparece en el video.

¿Qué dice la evidencia?

  • Búsqueda inversa con Google Lens: identificó que el video original fue publicado por el perfil francés «Pediavenir», cuya biografía indica que es un perfil paródico que publica “desinformación en tiempo real”.
  • Aclaración del autor: en comentarios, el propio creador aclaró que el video fue generado con inteligencia artificial y que no corresponde a un hecho real. «Para quienes tengan alguna duda: es IA. En realidad, usamos agua caliente, no un martillo, para descongelar pollos». 
  • Análisis digital: Lupa Media analizó el contenido con Hive Moderation, herramienta de detección de IA, que arrojó una probabilidad del 99,5 % de que el video haya sido creado artificialmente.

Contexto importante

Las gallinas han muerto por olas de frío extremo principalmente en países de América del Sur como Paraguay y Argentina, donde heladas intensas han afectado granjas sin protección adecuada.

En Paraguay (Encarnación y Cerrito, 2025), las olas de frío dejaron gallinas congeladas y adheridas al suelo por hielo, con reportes de aves muertas en patios y pequeñas granjas. En Argentina y Chile (Patagonia y centro, julio 2025), temperaturas negativas causaron pérdidas en aves de corral expuestas, junto con daños en cultivos.

En Europa y EE.UU., muertes masivas de gallinas en 2025 se deben más a gripe aviar agravada por frío y migraciones, no directamente por hipotermia. En regiones preparadas, como granjas industriales en Canadá o Rusia, las pérdidas por frío puro son raras gracias a calefacción.

Conclusión

SÁTIRA: El video que muestra gallinas supuestamente congeladas en Francia y “descongeladas” con un martillo fue generado con inteligencia artificial. Fue publicado por un perfil paródico francés que confirmó explícitamente que el contenido es ficticio. No existen evidencias de que el hecho haya ocurrido en la realidad.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Lo que sabemos de los bombardeos en Venezuela y la imputación de Nicolás Maduro en Estados Unidos

Entre la 1:50 y las primeras horas de la madrugada del 3 de enero, residentes y medios reportaron al menos siete explosiones y movimiento de aeronaves en Caracas y zonas cercanas.

Las detonaciones se escucharon en sectores como La Carlota, Fuerte Tiuna, El Valle, La Vega, El Hatillo, Higuerote y Mamo. En algunos puntos de la capital se registraron cortes de electricidad.

El gobierno venezolano afirmó que los ataques afectaron infraestructura civil y militar en Caracas y en los estados Miranda, Aragua y La Guaira.

¿Qué dijo Estados Unidos?

A través de redes sociales, Trump aseguró que Estados Unidos ejecutó una operación militar y que Nicolás Maduro y su esposa fueron capturados y trasladados fuera de Venezuela.

Horas más tarde, la fiscal general de Estados Unidos, Pamela Bondi, informó que Maduro y Cilia Flores fueron imputados en el Distrito Sur de Nueva York.

Según el Departamento de Justicia, Maduro enfrenta cargos por:

  • Conspiración de narco-terrorismo
  • Conspiración para la importación de cocaína
  • Posesión y conspiración para poseer armas de guerra y dispositivos destructivos contra Estados Unidos

Las autoridades estadounidenses sostienen que ambos imputados enfrentarán la justicia en tribunales estadounidenses, aunque no han difundido evidencia pública que confirme su ubicación actual.

Cómo fue la operación militar, según Estados Unidos

De acuerdo con declaraciones oficiales del gobierno estadounidense:

  • La operación habría estado a cargo de la Delta Force, una unidad de élite del Ejército de Estados Unidos.
  • Fue denominada “Absolute Resolve” y se ejecutó, según el mando militar, a pedido del Departamento de Justicia.
  • El jefe del Estado Mayor Conjunto, el general Dan Caine, indicó que participaron alrededor de 150 aeronaves, entre aviones y helicópteros.
  • Aviones de combate habrían neutralizado las defensas aéreas venezolanas para permitir el ingreso de helicópteros a Caracas.
  • Uno de los helicópteros fue alcanzado por fuego antiaéreo, aunque logró mantenerse operativo.
  • La operación habría durado aproximadamente dos horas y 20 minutos.
  • Estados Unidos sostiene que se trató de una acción puntual, no de una campaña militar prolongada.

El secretario de Estado, Marco Rubio, afirmó que no están previstas nuevas acciones militares tras la detención de Maduro. Sin embargo, Trump declaró posteriormente que Estados Unidos permanecerá involucrado hasta que, según sus palabras, se produzca una transición ordenada, y advirtió que su país está preparado para una segunda operación si lo considera necesario.

¿Qué respondió el régimen venezolano?

El gobierno de Venezuela calificó los hechos como una agresión militar por parte de Estados Unidos y denunció una violación del derecho internacional.

El ministro de Defensa, Vladimir Padrino López, anunció la activación de planes de defensa nacional, mientras que la vicepresidenta Delcy Rodríguez afirmó desconocer el paradero de Maduro y exigió una prueba de vida.

¿Qué se sabe del proceso judicial contra Maduro?

El proceso judicial contra Nicolás Maduro en Estados Unidos no comienza en enero de 2026. Sus antecedentes se remontan a marzo de 2020, cuando fiscales del Distrito Sur de Nueva York lo acusaron de narcotráfico internacional, identificándolo como uno de los líderes del Cártel de los Soles, una red que, según la acusación, involucra a altos funcionarios del Estado venezolano.

De acuerdo con la Fiscalía estadounidense, Maduro habría participado en la coordinación y protección de envíos de cocaína a gran escala, utilizando estructuras estatales para facilitar el tráfico de drogas hacia Estados Unidos.

El anuncio del 3 de enero de 2026 amplía y agrava esas acusaciones, al incorporar cargos vinculados al narco-terrorismo y al uso de armamento militar, lo que eleva el nivel del caso y las posibles penas.

Sin embargo, hasta ahora:

  • No se ha informado públicamente de una audiencia inicial ni de una comparecencia ante un juez federal.
  • No se han difundido documentos judiciales accesibles que confirmen el inicio formal del proceso en sede judicial.
  • Toda la información disponible proviene de comunicados del Ejecutivo y del Departamento de Justicia de Estados Unidos.

En el sistema judicial estadounidense, una imputación puede existir aunque el acusado no haya sido presentado físicamente ante la corte, por lo que el caso puede estar abierto sin que haya comenzado aún el trámite procesal público.

Cómo queda el poder en Venezuela

El presidente de Estados Unidos, Donald Trump, aseguró que su país asumirá temporalmente el control de Venezuela mientras, según sus palabras, se organiza una “transición ordenada”.

Trump señaló que Estados Unidos “va a manejar el país”, sin precisar bajo qué marco legal, por cuánto tiempo ni quiénes ejercerían funciones de gobierno. Tampoco explicó si se trata de una ocupación formal, un gobierno provisional o algún otro mecanismo.

El mandatario vinculó esta etapa con la industria petrolera venezolana, al afirmar que empresas estadounidenses invertirían en la infraestructura energética y que esos recursos financiarían la recuperación del país.

Hasta ahora, no existe confirmación independiente de que Estados Unidos esté ejerciendo control efectivo sobre Venezuela ni de que se haya producido una transición de poder. El régimen venezolano niega la captura de Nicolás Maduro y mantiene el control institucional del Estado.

Desinformación

«Un vídeo muestra un bombardeo en Fuerte Tiuna, Venezuela».

No, este video no muestra un bombardeo en Fuerte Tiana, Venezuela. En realidad, muestra los ataques con misiles iraníes contra Israel durante la guerra de los 12 días, registrada en agosto de 2025.

«Está imagen muestra la captura de Nicolás Maduro con militares»

No hay evidencia de que la imagen que circula de Nicolás Maduro capturado sea real. Existen indicios claros de que fue generada con inteligencia artificial. La imagen presenta inconsistencias visuales —como rasgos faciales poco definidos y detalles que no coinciden con fotografías auténticas—, elementos comunes en contenidos creados con IA.

Además, según SynthID de Google, la imagen contiene una marca de agua digital que indica que fue editada o generada, en su mayor parte o en su totalidad, con la inteligencia artificial de Google. Por otro lado, otros medios de verificación, como nuestros colegas de Verificado (de México), ya han catalogado esta imagen como falsa.

«Este vídeo muestra el retiro de las pancartas de Nicolás Maduro»

Ese vídeo es real, pero no es actual, fue grabado en julio de 2024. Las imágenes originalmente se difundieron un día después de las elecciones presidenciales en Venezuela (28 de julio de 2024). El material no está vinculado a una detención, operativo especial de Estados Unidos, como se sugiere en algunas publicaciones actuales.

«Diosdado Cabello murió en los bombardeos»

No, es falso que Diosdado Cabello murió en los bombardeos. La desinformación circuló en redes sociales y algunos portales digitales durante las primeras horas de la escalada del conflicto en Venezuela. Sin embargo, Diosdado Cabello apareció horas después en una transmisión en vivo, donde desmintió los rumores sobre su supuesta muerte.

Las imágenes fueron difundidas por el canal estatal Venezolana de Televisión (VTV) y muestran a Cabello activo y acompañado de militares, dirigiéndose a la ciudadanía. No existe evidencia que confirme su fallecimiento. La información que afirmaba lo contrario es falsa.

«Este video es una operación militar de Estados Unidos en Venezuela»

Este video viral es una versión manipulada con IA de un video real de una operación militar de Estados Unidos en Venezuela.

Aunque el video original sí corresponde a un hecho auténtico registrado en la madrugada del 3 de enero de 2026, circula una versión fue alterada con IA para añadir explosiones y ataques que no ocurrieron en la grabación original.

«La jefa del Comando Sur de Estados Unidos «confesó» que su país está atacando Venezuela para controlar sus recursos naturales».

FALSO. El clip viral atribuido a Laura J. Richardson está sacado de contexto. Richardson no es actualmente la jefa del Comando Sur de Estados Unidos. Ocupó ese cargo entre 2021 y 2024.

Las declaraciones corresponden a una intervención de 2023, en la que habló de seguridad regional, competencia geopolítica con China y Rusia y de la importancia estratégica de los recursos naturales en América Latina. No afirmó que EE. UU. busque apoderarse del petróleo, el litio o el oro, ni que Venezuela esté siendo atacada por esa razón. El video usa recortes de un discurso real para construir una narrativa falsa.

«Helicópteros Black Hawk de Estados Unidos en Caracas»

El contenido original fue publicado el 27 de noviembre de 2025 por Jim Ferguson, quien se presenta como “Embajador Internacional” de Advance UK, una organización activista del Reino Unido. La publicación mezcla ese video con una afirmación sobre la llegada de aviones de guerra estadounidenses a Somalia, un hecho que se enmarca en el conflicto de larga data entre Estados Unidos y grupos armados vinculados al Estado Islámico y al Al Shabaab en ese país.

No existe evidencia que relacione ese material audiovisual con operaciones militares de Estados Unidos en Caracas.

«Esta es una imagen de la detención de Maduro»

Esta imagen no es real: es IA. En redes sociales circula una imagen que supuestamente muestra la detención de Nicolás Maduro por parte de fuerzas especiales de Estados Unidos, la DEA y el FBI. La imagen no es auténtica y presenta indicios de haber sido creada con inteligencia artificial.

Entre las inconsistencias se observan letras ilegibles en el uniforme de uno de los supuestos soldados y rasgos faciales irregulares, señales frecuentes en contenidos generados con IA.

Además, según informó la cadena estadounidense CBS, fuentes militares de Estados Unidos —que no fueron identificadas— señalaron que la detención habría sido ejecutada por la Fuerza Delta, una unidad élite antiterrorista del Ejército estadounidense, y no por la DEA ni el FBI, como se afirma en la imagen viral.

Asimismo, herramientas de detección de contenido generado con IA, como InVID y SynthID, indican una alta probabilidad de que la imagen haya sido creada con inteligencia artificial.

«Esta imagen es de la captura de Nicolás Maduro»

La imagen de Nicolás Maduro detenido a bordo de USS Iwo Jima es REAL. El contenido fue publicado en el perfil de Truth Social del presidente Donald Trump.

Noticia en desarrollo

Aumento de estafas que usan inteligencia artificial: qué está pasando y cómo prevenirlas

En este explicativo te contamos cómo funcionan estas estafasqué señales deben alertarte y qué recomiendan las autoridades y expertos para no caer.

No son estafas nuevas, pero sí más convincentes

Delitos como el phishing, la suplantación de identidad o la apropiación fraudulenta existen desde hace años. La diferencia es que hoy los estafadores usan inteligencia artificial. Entre las prácticas más frecuentes están:

  • Clonación de voz, a partir de audios publicados en redes sociales o mensajes de voz.
  • Videos falsos o deepfakes, donde una persona parece pedir dinero o recomendar inversiones.
  • Mensajes y llamadas automatizadas, que permiten contactar a muchas personas en poco tiempo.
  • Suplantación de identidad, que imitan la imagen, el lenguaje y el comportamiento de personas reales o instituciones.

En la mayoría de los casos, el objetivo es el mismo: provocar urgencia o miedo para que la víctima actúe sin verificar.

Cuando la voz o el rostro parecen reales

Uno de los mayores riesgos de estas estafas es que la comunicación puede parecer auténtica. Algunas personas han recibido llamadas de supuestos familiares pidiendo dinero por emergencias, accidentes o problemas legales. Solo después de hacer la transferencia descubren que la voz fue clonada.

Que una voz o un rostro se vean reales no garantiza que lo sean. Por eso, especialistas recomiendan no reaccionar de inmediato, incluso si el mensaje genera angustia o presión emocional.

Señales de alerta en audios y videos

Los contenidos generados o alterados con IA suelen dejar pistas. Lupa Media ha verificado en Ecuador videos falsos usados para promover inversiones o pedir transferencias. Algunas señales de alerta son:

  • Movimientos faciales poco naturales.
  • Desfase entre labios y audio.
  • Sonidos extraños o entonaciones forzadas.
  • Mensajes genéricos o mal contextualizados.
  • Llamados urgentes a enviar dinero o promesas de ganancias rápidas.

Si un contenido genera presión emocional, lo más seguro es no compartirlo ni responder sin verificar.

Verificar sigue siendo la mejor defensa

Ante cualquier llamada, audio, mensaje o video sospechoso, la recomendación es verificar por otros canales:

  • Cuelga y llama tú mismo al número que tienes guardado.
  • Escribe por otra aplicación o consulta con alguien de confianza.
  • Si dicen representar a un banco o institución pública, contacta directamente por sus canales oficiales.

Tomarse unos minutos para comprobar la información puede evitar pérdidas económicas.

Cuidado con lo que compartes en redes sociales

Para hacer creíbles estas estafas, los delincuentes necesitan información real. Audios, videos, fotos, rutinas o datos familiares publicados en redes pueden usarse para suplantaciones. Mientras más información pública haya, mayor es el riesgo. Las recomendaciones básicas incluyen:

  • Revisar la configuración de privacidad.
  • Limitar quién puede ver o descargar videos y audios.
  • Evitar publicar documentos, números personales o datos sensibles.
  • Desconfiar de aplicaciones que piden acceso a cámara, micrófono o contactos sin una justificación clara.

Nunca envíes dinero ni datos ante pedidos inesperados

Una señal clara de estafa es la solicitud de:

  • Transferencias inmediatas.
  • Pagos electrónicos urgentes.
  • Tarjetas regalo.
  • Criptomonedas.
  • Códigos de verificación o claves.

La Asociación de Bancos Privados del Ecuador (Asobanca) recuerda que los bancos no solicitan contraseñas ni códigos por teléfono, mensajes o redes sociales. Si ya realizaste un pago, contacta de inmediato a tu banco.

Un problema en crecimiento

La Fiscalía General del Estado no clasifica los delitos según el uso de inteligencia artificial. Sin embargo, las cifras muestran un aumento sostenido de estafas y delitos informáticos, muchos de los cuales ya incorporan audios, videos y perfiles falsos.

El jefe de la Unidad Nacional de Ciberdelitos, Gonzalo García señaló que en en lo que va del año se contabilizan aproximadamente 1.047 disposiciones fiscales para iniciar una investigación con respecto a este tipo de delitos. Entre los más comunes o con mayor impacto destaca:

  • Apropiación fraudulenta por medios electrónicos.
  • Acceso no consentido a un sistema informático, telemático o de telecomunicaciones.

Entre 2015 y 2025, la Fiscalía registró 28.995 denuncias por apropiación fraudulenta por medios electrónicos(phishing). Solo en 2025, la cifra llega a 4.732 casos, con Guayas y Pichincha entre las provincias con más denuncias.

La Policía Nacional ha advertido que este es uno de los ciberdelitos más comunes en el país y que muchas investigaciones ya incluyen el análisis de contenidos generados con herramientas digitales avanzadas.

Este noticiero español sobre conflicto SERCOP-Municipio de Guayaquil fue generado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral que circula en redes sociales muestra a dos presentadores de un supuesto noticiero español informando sobre la disputa política entre el Municipio de Guayaquil, el Gobierno de Daniel Noboa y el SERCOP por la suspensión de procesos de contratación pública. El video incluye un reportaje con un tercer periodista narrando detalles del conflicto. 

¿Por qué es completamente falso?

La búsqueda inversa también arrojó que el video fue publicado originalmente por un perfil de Instagram el 11 de diciembre de 2025. Este usuario se dedica a publicar reportajes FALSOS de diversa índole, muchos de los cuales ya han sido verificados y desmentidos previamente por Lupa Media. Dos herramientas especializadas en detección de contenido sintético—Sensity AI y Hive Moderation—arrojaron probabilidades superiores al 87% de manipulación digital. Además, no existe evidencia de que medios españoles hayan producido o emitido este contenido; la cobertura del conflicto SERCOP-Municipio de Guayaquil es exclusivamente local ecuatoriana y regional latinoamericana. ​

¿Qué dice la evidencia?

  • Búsqueda inversa de imágenes: Google Lens no identificó un noticiero exacto real ni a los presentadores originales del video viral, por lo que se trata de creaciones digitales. Sin embargo, se encontraron noticieros con formatos visuales similares (Castilla y León Televisión y FTV Bosnia), pero con diferencias en ubicación de gráficos, rasgos faciales de los presentadores y ausencia del formato de dos conductores simultáneos.
  • La búsqueda inversa también arrojó que el video fue publicado originalmente por un perfil de Instagram el 11 de diciembre de 2025. Este usuario se dedica a publicar reportajes FALSOS de diversa índole, muchos de los cuales ya han sido verificados y desmentidos previamente por Lupa Media.
  • Análisis técnico con herramientas de detección de IA: Sensity AI, plataforma especializada en detectar deepfakes y contenido generado artificialmente, identificó una probabilidad del 87,6% de que el video fue creado con IA.
  • Hive Moderation arrojó un promedio del 96,7% de probabilidad de generación artificial, tanto en el audio como en las imágenes de los presentadores.
  • Estas herramientas detectaron anomalías en sincronización labial, movimientos faciales no naturales y patrones de voz sintética.
  • Búsqueda en medios españoles: Lupa Media realizó búsquedas en portales de noticias españoles como El País, El Mundo, 20minutos, RTVE y otros medios de referencia. No se encontró ningún registro de este reportaje específico.
  • La cobertura del conflicto SERCOP-Municipio de Guayaquil proviene exclusivamente de medios ecuatorianos como Expreso, Primicias, El Universo y El Mercurio.
  • Ninguno de estos medios tiene registro de haber producido contenido sobre Ecuador o el conflicto SERCOP-Municipio de Guayaquil.

Contexto importante

Este video viral surge en el contexto de una pugna política y técnica entre el Municipio de Guayaquil, el Gobierno de Daniel Noboa y el SERCOP, que se manifiesta principalmente en la suspensión y observación de procesos de contratación pública de la entidad guayaquileña.

El Ejecutivo y el SERCOP afirman que aplican controles técnicos para garantizar legalidad y transparencia, mientras que el Municipio sostiene que existe un bloqueo político que afecta su autonomía. Según el SERCOP, decenas de procesos municipales fueron suspendidos por incumplimientos técnicos, subsanaciones pendientes o falta de oferentes, y otros fueron cancelados o declarados desiertos por el propio Municipio.

Guayaquil rechaza estos argumentos, asegura que las observaciones carecen de sustento técnico, declaró desiertos varios contratos “bajo protesta” y anunció que los volverá a publicar. Además, solicitó a la Contraloría General del Estado que revise la actuación del SERCOP.

Conclusión

COMPLETAMENTE FALSO: El video que simula un noticiero español sobre el conflicto entre el SERCOP y el Municipio de Guayaquil fue generado con inteligencia artificial. Herramientas especializadas detectaron entre 87,6% y 96,7% de probabilidad de contenido sintético. Lupa Media no encontró evidencia de que medios españoles hayan producido este reportaje; la cobertura del conflicto proviene exclusivamente de medios ecuatorianos.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Este noticiero sobre ataques en costas venezolanas fue generado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral presenta un supuesto noticiero que reporta ataques «de última hora» en las costas venezolanas. El contenido afirma que operativos aéreos y navales habrían golpeado instalaciones cerca de Falcón y La Guaira, «generando alarma» en Caracas. El video asegura que «autoridades» confirman múltiples incidentes.

¿Por qué es completamente falso?

El video fue generado con inteligencia artificial usando la herramienta Sora 2 de OpenAI, y un análisis técnico con Hive Moderation determinó con un 100% de certeza su origen artificial. No existe evidencia de ataques en las zonas mencionadas ni reportes oficiales sobre estos supuestos incidentes.

¿Qué dice la evidencia? 

  • Ausencia de reportes oficiales:
    • No hay comunicados del gobierno venezolano sobre ataques en Falcón o La Guaira.
    • Medios verificados y autoridades locales no han reportado incidentes.
    • No existe evidencia fotográfica ni testimonial de los supuestos ataques.
  • Origen del video viral: Una búsqueda inversa con Google Lens determinó que este video circula desde el 30 de noviembre de 2025 en TikTok e Instagram. Proviene de una cuenta en TikTok que publica videos de noticieros falsos creados con inteligencia artificial, específicamente con Sora 2, de OpenAI.
  • Análisis técnico confirma origen artificial: Hive Moderation arrojó un 100% de probabilidad de que el video del noticiero fue generado artificialmente.
  • Elementos visuales que confirman la manipulación:
    • Marca de agua visible: El sello «Sora 2» aparece en todo el video, indicando la herramienta utilizada.
    • Etiqueta de TikTok:La plataforma añadió automáticamente la etiqueta «contenido generado con IA».
    • Voz artificial: La presentadora tiene una voz robótica, sin pausas ni inflexiones humana.
    • Apariencia sintética: La piel de la presentadora es perfecta, sin imperfecciones naturales.
    • Texto incoherente: Los gráficos inferiores muestran letras distorsionadas en un idioma inexistente.
  • Búsqueda de la supuesta presentadora: El rostro de la presentadora, identificada como «Deriva», no coincide con periodistas reales ni hay registros de ella en medios venezolanos o internacionales.

Contexto importante

En 2025, las relaciones entre Estados Unidos y Venezuela atraviesan un momento de tensión. Washington ha aumentado su presencia militar en el Caribe bajo el argumento de combatir el narcotráfico, desplegando buques, aviones y miles de efectivos.

Desde septiembre de 2025, EE. UU. ha atacado más de 20 embarcaciones calificadas como “sospechosas de narcotráfico”, dejando 83 muertos según el CNN. Venezuela denuncia estas acciones como “asesinatos extrajudiciales” y ha pedido investigaciones de la ONU.

El Congreso estadounidense cuestiona la legalidad de estos ataques, pero las operaciones continúan, incluyendo acciones encubiertas dentro de Venezuela. A finales de noviembre, la tensión aumentó cuando Trump declaró el espacio aéreo venezolano “cerrado” y advirtió sobre operaciones terrestres, mientras Maduro movilizó fuerzas militares y denunció amenazas a la soberanía.

Ambos mandatarios sostuvieron una llamada telefónica en la que, según reportes, EE. UU. habría planteado un ultimátum a Maduro, llevando la relación bilateral a uno de sus momentos más críticos en años.

Conclusión

COMPLETAMENTE FALSO: El video viral que asegura ataques «de última hora» en la costa venezolana fue generado con inteligencia artificial, según Hive Moderation (100% de probabilidad). No hay evidencia de ataques reales en Falcón o La Guaira. Lo que sí se registra es un aumento en la militarización y preparación defensiva en Venezuela frente a amenazas externas, especialmente vinculadas a Estados Unidos.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Entre emociones y falsedades: la otra cara de la campaña del referéndum

Ecuador acudió por segunda vez en menos de un año a las urnas y, tanto en redes sociales como en el discurso político, la desinformación volvió a moverse con rapidez, apelando más al miedo, la indignación y la incertidumbre que a la evidencia. Entre el 1 y el 13 de noviembre, Lupa Media realizó 115 verificaciones —entre contenido viral, discurso público y respuestas ciudadanas enviadas a #VerificaciónALaCarta por WhatsApp— y los hallazgos confirman que, una vez más, la disputa no solo estuvo en las urnas, sino también en la narrativa: quién lograba instalar su versión, generar impacto y mover a la gente desde la emoción.

Frente a ese escenario, la verificación se convirtió en una herramienta imprescindible para recuperar claridad en medio del ruido y acompañar a una ciudadanía cada vez más consciente de la importancia de contrastar antes de decidir.

Narrativas que dominaron la campaña

Además de desinformación puntual, durante la campaña detectamos cuatro narrativas centrales: ideas repetidas desde distintos actores, plataformas y formatos, diseñadas para generar emociones intensas y moldear la percepción pública más que para informar. Estas narrativas se alimentaron tanto de afirmaciones falsas como de piezas generadas con IA y contenidos que mezclaban hechos con interpretaciones alarmistas.

1. “La Constitución privilegia a las personas privadas de libertad por encima del resto de la sociedad”

Narrativa basada en la exageración o invención de supuestos “beneficios” para personas privadas de libertad. Circuló en contenido viral y en discursos que presentaban servicios constitucionales —como salud o educación— como privilegios exclusivos. Su objetivo fue generar indignación moral y la idea de un Estado que “premia” a quienes cometen delitos.

2. “La Constitución protege más a los criminales que a la gente honesta”

Narrativa de corte securitario, centrada en presentar artículos constitucionales como obstáculos para el trabajo policial o como “beneficios” para criminales. Surgió de interpretaciones selectivas, frases sacadas de contexto y declaraciones públicas que simplificaban un debate técnico. Su objetivo principal fue activar miedo e inseguridad.

3. “Las bases militares extranjeras ya están pactadas”

Se impulsó la idea de que la decisión sobre las bases estaba tomada incluso antes del referéndum. Esta narrativa mezcló conspiración y pérdida de soberanía, y se alimentó de documentos descontextualizados, deepfakes de noticieros internacionales y publicaciones que insinuaban acuerdos ocultos. Funcionó para instalar desconfianza hacia el proceso oficial.

4. “Si gana la opción contraria, el país colapsa”

Narrativa catastrófica que anticipaba escenarios de caos institucional, aumento extremo de inseguridad de ganar el «NO» o pérdida de derechos de ganar el «Sí». Se difundió mediante videos editados, y piezas de IA que recreaban escenarios apocalípticos. Buscó movilizar el voto desde la ansiedad y la urgencia.

Cómo funcionaron estas narrativas

Estas cuatro narrativas compartieron un propósito común:

  • simplificar problemas complejos,
  • activar emociones intensas (miedo, indignación, sensación de injusticia), y
  • condicionar percepciones en torno al voto.

En un entorno saturado de falsedades y contenido emocional, estas narrativas se volvieron poderosas porque no apelan a datos, sino a intuiciones, temores y marcos morales que se replican con facilidad.

Desinformación viral

Analizamos 56 publicaciones virales que circularon masivamente durante la campaña. Los resultados muestran un predominio claro de la desinformación:


Es decir, el 91% de las piezas virales verificadas eran falsas. Muchas fueron creadas con el fin de alimentar temores, reforzar sesgos y movilizar emociones.

Los desinformadores repitieron estrategias vistas en procesos anteriores, como los deepfakes de noticieros internacionales para posicionar mensajes que supuestamente “los medios locales no muestran”, y la usurpación de identidad de medios ecuatorianos para difundir contenido falso con apariencia de legitimidad.

Declaraciones públicas: estrategia política

Realizamos un monitoreo diario de las declaraciones de autoridades del gobierno y organizaciones involucradas en la campaña. Un total de 11 afirmaciones fueron verificadas por su incidencia en el debate público y su viralidad en dos o más plataformas.

Las afirmaciones falsas se concentraron en temas técnicos —como la reforma constitucional o la seguridad— presentadas sin evidencia, con conclusiones que no se desprenden de los datos disponibles o con interpretaciones exageradas para reforzar posturas políticas.

Un ejemplo fue la afirmación repetida por el presidente y sus funcionarios sobre supuestos “privilegios” en la atención médica para las personas privadas de libertad, que no coincide con la normativa ni con la evidencia pública.

Este patrón revela que el discurso político, durante este proceso electoral, no solo estuvo polarizado, sino también marcado por afirmaciones incorrectas amplificadas en medios tradicionales y digitales.

IA generativa: menos falsedad, más manipulación emocional

Entre el 16 de octubre y el 12 de noviembre identificamos adicionalmente 125 contenidos generados o intervenidos con IA vinculados a la campaña. Aunque muchos no contenían falsedades explícitas, sí fueron diseñados para:

  • amplificar miedo o esperanza,
  • presentar versiones idealizadas de actores políticos,
  • exagerar logros o amenazas,
  • estetizar mensajes políticos para aumentar impacto,
  • usar imágenes “épicas” o moralizantes para condicionar percepción.

La IA se consolidó como una herramienta de manipulación emocional, incluso sin generar datos falsos. El objetivo no fue engañar, sino influir.

Otros riesgos informativos durante la campaña: las estafas digitales

Aunque no forman parte de la desinformación electoral, durante el periodo de campaña detectamos un aumento significativo de estafas digitales basadas en supuestos bonos, ayudas económicas o transferencias estatales. Estos contenidos circularon con fuerza en WhatsApp, Telegram y TikTok, muchas veces desde cuentas recién creadas o que suplantaban la identidad de instituciones públicas y del presidente Noboa.

Estas estafas no buscaban influir en el voto, pero sí aprovechar el aumento de tráfico, atención y vulnerabilidad digital que suele acompañar a los procesos electorales, y también el aumento de beneficios sociales por parte del gobierno. Funcionaban bajo lógicas muy similares a las piezas de desinformación:

  • sensación de urgencia,
  • apelación emocional,
  • autoridad falsa (logos del MIES, Presidencia, ministerios),
  • enlaces que capturaban datos personales y financieros,
  • estética “institucional” para generar confianza.

La circulación de estas estafas durante la campaña revela que, en contextos electorales, la ciudadanía enfrenta no solo desinformación política, sino también riesgos digitales colaterales que se potencian con el ruido informativo.

¿Qué nos deja la campaña?

Tres conclusiones destacan:

1. La “desinformación emocional” ganó terreno

La campaña se movió más por sensaciones que por información. El contenido falso, los discursos imprecisos y las piezas de IA crearon un clima donde la emoción superó al dato.

2. La verificación sigue siendo esencial

Las 111 verificaciones realizadas muestran la necesidad de contar con equipos capaces de contrastar información en tiempo real y aclarar el debate.

3. Urge fortalecer la alfabetización mediática

Las narrativas emocionales, amplificadas por la IA, requieren ciudadanía con herramientas para identificar manipulación, distinguir fuentes y tomar decisiones informadas.

¿Entonces?

En esta campaña, la disputa no se dio solo en las urnas, sino —y sobre todo— en el terreno de la información: un espacio saturado por emociones, falsedades y contenidos diseñados para influir más que para explicar.
Mientras el país se preparaba para decidir, la conversación pública fue moldeada por narrativas emotivas, discursos sin sustento y piezas generadas con IA que desplazaron al dato como eje del debate.

En ese ruido, la verificación volvió a demostrar su valor: ofrecer claridad, recuperar contexto y ayudar a que la ciudadanía tome decisiones informadas. Porque el voto se define un día, pero la percepción se moldea mucho antes.

Video manipulado con IA suplanta a Oromar TV para desinformar sobre planes de Noboa con el ISSFA e ISSPOL

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral atribuye a la presentadora  María José Pinargote de Oromar TV la presentación de un supuesto reportaje en la que afirma que Daniel Noboa confirmó que, tras la Consulta Popular del 16 de noviembre de 2025, los servicios de salud del ISSFA y ISSPOL pasarán al Ministerio de Salud Pública, eliminando estos seguros, igual que supuestamente ocurriría con el IESS.

¿Por qué es completamente falso?

El noticiero de Oromar TV corresponde al 5 de junio de 2024. En esa transmisión, la presentadora no menciona la entrevista de Daniel Noboa en Radio Sucre del 12 de noviembre de 2025, ni hace referencia a los seguros sociales de Fuerzas Armadas y Policía Nacional. Un análisis con la herramienta Sensity IA detectó un 89,8% de probabilidad de que el contenido viral haya sido creado con inteligencia artificial.

¿Qué dice la evidencia? 

  • Una búsqueda inversa con Google Lens identificó que el video original fue publicado el 5 de junio de 2024 en el canal de YouTube de Oromar TV, un canal de televisión de Manta.
  • En esa emisión, la presentadora narra las noticias del día sin mencionar la Consulta Popular, la entrevista de Noboa ni los seguros del ISSFA o ISSPOL.
  • El video viral presenta manipulación evidente:
    • Voz alterada: suena artificial y no corresponde a la voz real de la presentadora.
    • Claquetas modificadas: Los textos informativos en pantalla fueron reemplazados con información falsa.
    • Fondo alterado: el set fue modificado digitalmente.
    • Sincronización labial: los movimientos faciales no coinciden con el audio del video original.
  • La herramienta Sensity IA, especializada en detectar contenidos generados artificialmente, arrojó un 89,8% de probabilidad de que el video fue creado con inteligencia artificial.
  • Lupa Media revisó la entrevista completa de Noboa en Radio Sucre:
    • El plan propone unificar la administración de hospitales públicos, pero cada institución seguirá financiando la atención de sus afiliados.
    • Indicó que HealthBird reemplazará al call center para ordenar derivaciones, priorizar la red pública y detectar sobreprecios.
  • Los ministros John Reimberg y Gian Carlo Loffredo (del Interior y de Defensa respectivamente) recalcaron en sus cuentas oficiales de X que estos beneficios para las fuerzas del orden NO desaparecerán.

Contexto importante

La desinformación sobre la Consulta Popular del 16 de noviembre de 2025 ha recurrido a videos manipulados con IA que imitan noticieros reales. Estas piezas buscan otorgar verosimilitud a mensajes falsos mediante el uso de presentadores, logos y formatos televisivos.

Lupa Media ha documentado casos similares en los que se manipulan rostros, voces, gráficos y escenografías para simular noticieros legítimos, especialmente en períodos electorales.

Conclusión

COMPLETAMENTE FALSO:  Un video viral, manipulado con inteligencia artificial, suplanta a Oromar TV para afirmar que Daniel Noboa eliminará los servicios de salud del ISSFA e ISSPOL tras la Consulta Popular. El noticiero original es del 5 de junio de 2024 y no incluye ese reportaje. Sensity IA detectó 89,8% de probabilidad de manipulación. En la entrevista real de Radio Sucre, Noboa no anunció explícitamente la eliminación del IESS, ISSFA o ISSPOL, sino la unificación administrativa de hospitales públicos. Los ministros Reimberg y Loffredo también afirmaron en sus cuentas de X que este beneficio NO desaparecerá.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪