Skip to main content

Etiqueta: estados unidos

«Ha muerto en un bombardeo»: teorías sin pruebas sobre la muerte de Netanyahu y altos mandos de Israel

Texto basado en el artículo original de Maldita.es, puedes leerlo completa aquí

Desde el 1 de marzo de 2026 se han difundido publicaciones que aseguran que el primer ministro de Israel, Benjamín Netanyahu, “murió en un ataque aéreo iraní” o que fue asesinado “por misiles balísticos durante una reunión en Tel Aviv”.

Algunos de estos contenidos incluso afirman que la supuesta muerte habría sido “confirmada por Irán”. Sin embargo, ninguna de estas publicaciones muestra evidencia verificable sobre los hechos ni sobre las circunstancias en las que habrían ocurrido.

Organizaciones de verificación como Maldita.es han advertido que este tipo de narrativas comenzó a amplificarse en canales afines a discursos pro-régimen en medio del conflicto, lo que incrementa la circulación de afirmaciones no verificadas.

Contenidos que afirman que Benjamin Netanyahu murió.

Actividad pública y registros oficiales contradicen la narrativa

Mientras circulaban estas afirmaciones, tanto medios de comunicación como canales oficiales han difundido contenido reciente sobre Netanyahu:

  • El 10 de marzo, el Ministerio de Asuntos Exteriores de Israel informó sobre una visita del primer ministro al Centro de Comando Nacional de Salud realizada el día anterior.
  • Ese mismo día, la cuenta oficial de Netanyahu publicó imágenes de la visita.
  • Medios internacionales reportaron su participación en actividades oficiales.
  • El 12 de marzo, el Gobierno de Israel transmitió una comparecencia en directo en la que aparece Netanyahu hablando ante cámaras.

Estos registros contradicen las versiones que afirman su muerte.

Videos, teorías y desinformación: contenido manipulado o fuera de contexto

Algunos de los contenidos virales que sostienen esta narrativa utilizan material engañoso:

  • Un video de una casa en llamas se difundió como si fuera la residencia del primer ministro, pero en realidad corresponde a un incendio ocurrido en febrero de 2026 en Nueva Jersey (EE.UU.).
  • Otros mensajes cuestionan la autenticidad de videos recientes, señalando supuestas anomalías visuales, sin aportar evidencia técnica que lo respalde.

Este tipo de publicaciones mezcla afirmaciones sin sustento con contenido fuera de contexto, lo que puede reforzar la percepción de que se trata de información real.

Nuevas dudas sin pruebas: apariciones recientes también son cuestionadas

El 15 de marzo, Netanyahu publicó un video desde una cafetería, lo que generó nuevas especulaciones sobre su autenticidad.

Sin embargo:

  • El establecimiento identificado en el video publicó imágenes de la visita en sus propias redes sociales.
  • No hay evidencia verificable que demuestre manipulación o generación artificial del contenido.

Los rumores no se limitan a Netanyahu: otros líderes también han sido incluidos

Las narrativas sobre supuestas muertes no han afectado solo a Netanyahu. Entre el 9 y 11 de marzo también circularon contenidos que afirmaban que:

  • Su hermano menor, Iddo Netanyahu, habría muerto en el mismo ataque.
  • El director del Mossad, David Barnea, habría sido “asesinado” tras un ataque con misiles.
  • El ministro de Seguridad Nacional, Itamar Ben Gvir, habría muerto supuestamente en un ataque iraní (aunque otras versiones hablaban de un accidente).

En estos casos:

  • Las publicaciones no presentan pruebas verificables.
  • Algunas citan “fuentes” sin especificar.
  • Otras reutilizan imágenes o videos fuera de contexto.
  • No hay confirmación en fuentes oficiales ni en medios de comunicación fiables.

Además, en algunos casos existen publicaciones recientes en redes sociales o apariciones públicas que contradicen estas afirmaciones.

Contenidos que afirman que David Barnea está muerto.
Publicaciones que afirman que el ministro de Seguridad Nacional de Israel, Itamar Ben Gvir murió. 
Publicación de TikTok del ministro Itamar Ben-Gvir.

Expertos de la ONU alertan sobre seguridad en Ecuador: las claves del informe

El documento no es una resolución ni una condena, sino un pronunciamiento técnico en el que los relatores expresan preocupaciones y piden explicaciones sobre la compatibilidad de estas políticas con estándares internacionales de derechos humanos.

Una definición de «terrorismo» bajo cuestionamiento

Los expertos advierten que su definición en el Código Orgánico Integral Penal (COIP) es demasiado amplia. No exige daño concreto y puede incluir acciones como difusión de información falsa o daños a infraestructura, alejándose de estándares internacionales.

En la práctica, esto podría hacer que protestas o daños a la propiedad se traten como terrorismo, con riesgo de sanciones desproporcionadas. Recomiendan precisar el delito de financiamiento, incluir excepciones y evitar sancionar a personas sin vínculo directo.

Inteligencia y vigilancia: ¿Dónde están los límites?

El informe también analiza la Ley de Inteligencia aprobada en junio de 2025. Aunque reconoce que el Estado necesita herramientas para enfrentar amenazas, advierte que la norma usa conceptos vagos como “seguridad integral”, “amenazas” o “riesgos”, sin definiciones claras. Esto podría permitir la recopilación de datos personales y actividades de vigilancia sin controles suficientes:

  • Las operaciones encubiertas podrían realizarse sin autorización judicial.
  • La vigilancia electrónica no requeriría orden de un juez.
  • Entidades públicas y privadas podrían estar obligadas a entregar información (incluidos datos personales) sin límites claros.

Para los expertos, el problema no es la inteligencia en sí, sino la falta de límites claros, control judicial y rendición de cuentas.

Estados de excepción que se vuelven regla

Otro punto clave es el uso recurrente de estados de excepción desde enero de 2024. Los expertos recuerdan que estas medidas deben ser extraordinarias y temporales, pero su aplicación continua (con múltiples decretos y prórrogas hasta 2026) podría volverlas una práctica habitual.

El informe advierte que esta tendencia puede desnaturalizar el carácter excepcional de estas medidas y acercarse a una situación de “emergencia permanente”, lo que genera preocupaciones en materia de derechos humanos.

Terrorismo y crimen organizado no son lo mismo

El Gobierno ecuatoriano ha catalogado a organizaciones criminales como grupos terroristas, especialmente desde el Decreto 111 de enero de 2024. De estos conceptos, el primero suele tener motivaciones políticas o ideológicas y el segundo responde principalmente a fines económicos. Algunos problemas señalados:

  • No hay criterios claros para incluir a los grupos.
  • No existen mecanismos adecuados para impugnar la decisión.
  • Las decisiones dependen principalmente del Ejecutivo.

Confundir ambos conceptos puede justificar el uso de medidas más severas sin cumplir los estándares internacionales.

¿Existe un “conflicto armado interno”?

El Estado ecuatoriano ha sostenido la existencia de un “conflicto armado interno” desde enero de 2024. Sin embargo, los expertos cuestionan esta interpretación. Señalan que, según el derecho internacional, para que exista un conflicto armado interno deben cumplirse condiciones específicas, como:

  • Un alto nivel de organización de los grupos armados.
  • Una intensidad sostenida de la violencia.

El informe plantea dudas sobre si se cumplen estas condiciones en el caso ecuatoriano.

Uso de la fuerza y rol de las Fuerzas Armadas

El informe recuerda que el uso de la fuerza debe ser necesario y proporcional, y que la fuerza letal solo puede emplearse ante una amenaza inminente a la vida. Además, advierte sobre el riesgo de militarización de la seguridad y la necesidad de contar con mecanismos claros de rendición de cuentas para investigar posibles abusos.

¿Esto implica sanciones contra Ecuador?

No. El documento forma parte de los “Procedimientos Especiales” del Consejo de Derechos Humanos de la ONU, mecanismos independientes que analizan situaciones y emiten observaciones a los Estados. No es vinculante ni implica sanciones. Su objetivo es advertir riesgos, sugerir ajustes y promover el diálogo con los gobiernos.

La inyección que regenera el cartílago de la rodilla no ha sido probada en humanos

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Una publicación viral afirma que una nueva inyección regenera el cartílago de la rodilla y detiene la artritis. La imagen del contenido muestra una radiografía de piernas humanas, lo que sugiere que el tratamiento ya sería efectivo en personas.

¿Por qué es mayormente falso?

El estudio citado no demuestra que exista una inyección capaz de regenerar cartílago o detener la artritis en personas. Los experimentos se realizaron en ratones y en tejido humano analizado en laboratorio, no en pacientes.

¿Qué dice la evidencia?

Estudio original:

  • La información proviene de Stanford Medicine, publicada el 27 de noviembre de 2025.
  • El estudio analiza una estrategia para regenerar cartílago articular —especialmente en la rodilla— bloqueando la enzima 15-PGDH, relacionada con el envejecimiento del tejido.
  • Esta enzima aumenta con la edad y limita la capacidad del cuerpo para reparar tejidos, por lo que los investigadores evaluaron qué ocurre al inhibirla.

Qué hicieron los investigadores:

  • Realizaron experimentos en ratones, administrando un inhibidor de 15-PGDH (promueve la regeneración y reparación de algunos tejidos, como los músculos y los nervios, tras una lesión) por inyección o vía sistémica.
  • Usaron modelos de ratones envejecidos y lesiones de rodilla similares a roturas de ligamento cruzado.
  • Analizaron cómo reaccionan las células del cartílago (condrocitos).
  • También probaron el tratamiento en cartílago humano extraído de cirugías de reemplazo de rodilla, analizado en laboratorio.

Resultados:

  • En ratones: El cartílago que se había adelgazado volvió a crecer. Se formó cartílago hialino funcional, el mismo que recubre articulaciones sanas. Tras lesiones de rodilla, los ratones tratados desarrollaron menos osteoartritis.
  • En tejido humano: Las muestras de cartílago mostraron menos degradación del tejido, reducción de genes que destruyen cartílago y señales iniciales de regeneración.

Cómo funciona el tratamiento:

  • El estudio intenta activar las células del propio cartílago para que vuelvan a producir tejido, en lugar de usar células madre.
  • Estos resultados sugieren un posible camino hacia terapias regenerativas para la osteoartritis.
  • Sin embargo, aún no se ha demostrado que funcione como tratamiento en personas, por lo que sigue siendo una investigación preclínica.

Contexto importante

La osteoartritis es la forma más común de artritis y ocurre cuando el cartílago que protege las articulaciones se desgasta, causando dolor, rigidez y pérdida de movilidad. Este tejido se regenera muy poco de forma natural, porque no tiene vasos sanguíneos y sus células se multiplican lentamente.

Por eso, aunque investigaciones recientes —como un estudio de Stanford— exploran formas de estimular la regeneración del cartílago, la mayoría de estos avances aún están en etapas experimentales o preclínicas, y los tratamientos actuales se enfocan principalmente en aliviar los síntomas.

Conclusión

MAYORMENTE FALSO: La publicación presenta como un tratamiento efectivo en personas una investigación que aún se encuentra en fase experimental. La regeneración de cartílago se observó en ratones y en tejido humano analizado en laboratorio, pero no se ha probado el tratamiento en pacientes ni se ha demostrado que una inyección pueda detener la artritis en humanos.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Lo que sabemos del ataque a la escuela en Minab, Irán

¿Cuándo y dónde ocurrió el ataque?

El 28 de febrero de 2026, una escuela primaria en la ciudad de Minab, al sur de Irán, fue alcanzada durante una escalada militar entre Irán, Estados Unidos e Israel. El centro educativo identificado en imágenes y reportes es la escuela Shajareh Tayyebeh.

Las cifras de víctimas provienen de fuentes oficiales iraníes. Hasta el momento, no existe una verificación independiente completa del número exacto de fallecidos.

¿Qué hacían las niñas un sábado en la escuela?

En Irán, el calendario escolar establece que el sábado es un día lectivo habitual. Por ello, las estudiantes se encontraban en clases al momento del impacto.

Este punto ha sido utilizado en redes sociales para insinuar que el ataque sería falso o escenificado, pero no hay evidencia que respalde esa afirmación. El funcionamiento escolar en sábado es normal en el sistema educativo iraní.

¿Las imágenes corresponden realmente a Minab o son de Kabul 2021?

Sí. Las imágenes y videos que circularon fueron verificados mediante geolocalización y contraste con registros satelitales.

Medios y agencias internacionales como Reuters, EFE y BBC Persian analizaron el material visual y lo ubicaron en Minab, no en Kabul (Afganistán), como sostenían algunas publicaciones virales.

La Media Luna Roja Iraní informó el despliegue de equipos de emergencia tras el ataque.

¿Quién lanzó los misiles?

El Gobierno iraní responsabilizó directamente a Estados Unidos e Israel por el bombardeo.

Estados Unidos, a través del United States Central Command, indicó que estaba revisando reportes de posible daño civil y reiteró que no dirige ataques contra población civil. Israel señaló que no tenía conocimiento de operaciones en esa área en el momento del incidente.

Hasta ahora no existe verificación independiente concluyente que confirme la autoría específica del ataque.

¿Es cierto que Irán bombardeó su propia escuela por error?

Circulan publicaciones que sostienen que la Guardia Revolucionaria Islámica habría lanzado un misil de forma accidental. Sin embargo, no hay evidencia independiente que confirme esa versión.

Las autoridades iraníes no han admitido oficialmente que fuerzas propias hayan causado el impacto, y hasta el momento no existe confirmación verificable que respalde esa hipótesis.

¿Fue un objetivo directo o un daño colateral?

La escuela se ubica cerca de instalaciones del Cuerpo de la Guardia Revolucionaria Islámica.

Esa proximidad complica determinar si el centro educativo fue un blanco directo o si resultó afectado por ataques dirigidos a objetivos militares cercanos. Según declaraciones de un portavoz del ministerio de educación recogidas por la agencia de noticias IRNA, el centro educativo habría sido alcanzado en tres ocasiones anteriores. Hasta ahora no hay un informe independiente que confirme el número exacto de impactos, ni conclusiones independientes definitivas sobre este punto.

¿Puede considerarse un crimen de guerra?

El derecho internacional humanitario prohíbe ataques contra población civil e instituciones educativas.

No obstante, la calificación formal de crimen de guerra requiere una investigación independiente y un eventual proceso judicial internacional.

La UNESCO calificó el ataque como una “grave violación del derecho internacional humanitario”, mientras que UNICEF expresó preocupación por el impacto en la niñez.

Contenidos falsos sobre el conflicto Israel-Irán-EE.UU.: qué es real y qué no

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

Según la Media Luna Roja Iraní, los ataques registrados desde el 28 de febrero de 2026 han dejado al menos 201 personas fallecidas y 747 heridas en Irán, en un balance preliminar difundido tras los primeros bombardeos de Estados Unidos y Israel. La organización indicó que los impactos alcanzaron 24 de las 31 provincias del país y aclaró que las cifras pueden actualizarse a medida que continúan las labores de rescate y verificación.

La tensión se extendió al Estrecho de Ormuz, paso por donde transita cerca de una quinta parte del petróleo que se comercializa a nivel mundial. La Organización de las Naciones Unidas instó a las partes a proteger a la población civil y garantizar el acceso a instalaciones estratégicas bajo supervisión internacional.

En paralelo, circula desinformación que reutiliza videos antiguos, imágenes fuera de contexto y contenido generado con inteligencia artificial para presentarlos como hechos recientes. Estos son los principales casos verificados.

Desinformación

«Filtraron foto del cadáver del Ayatollah Khamenei».

La imagen es falsa. Se originó en un video generado con inteligencia artificial y publicado el 3 de enero de 2026, antes de los ataques bélicos en Irán, por lo que resulta cronológicamente imposible que documente esos hechos. Además, no existen fotografías oficiales ni registros públicos que respalden la autenticidad de la escena atribuida a ese contexto.

«Demostración de la Fuerza Aérea estadounidense esquivando misiles».

FALSO. El video pertenece al videojuego Arma 3, un simulador militar desarrollado por Bohemia Interactive. No es una grabación real. Este juego recrea combates con alto realismo gráfico y permite generar escenas que pueden parecer operaciones militares reales. Clips de Arma 3 llevan años reutilizándose en conflictos internacionales como si fueran grabaciones auténticas, especialmente en momentos de tensión geopolítica.

«Quentin Tarantino ha sido asesinado por un misil iraní en Tel Aviv».

FALSO. No existe ningún reporte oficial que confirme esa información. El rumor surgió por su residencia en Tel Aviv, pero no hay evidencia de que Tarantino o su familia hayan sido afectados por los ataques.

«Video de explosión en Teherán».

El material presenta señales de generación con IA, como distorsiones visuales, iluminación artificial inconsistente y daños estructurales improbables. No corresponde a un ataque confirmado. Además, este mismo video ya fue desmentido por Lupa Media en junio de 2025, cuando se verificó que se trataba de contenido fabricado digitalmente y no de un registro auténtico.

«El momento del bombardeo de los sitios vitales en Irán».

FALSO. El video que circula con ese mensaje no corresponde a los ataques iniciados el 28 de febrero de 2026. Se trata de un compilado que ya se difundía en diciembre de 2025, antes de la actual escalada. El material presenta patrones compatibles con generación mediante inteligencia artificial y no documenta un bombardeo real ni verificable. Este contenido ya fue desmentido por Lead Stories, Fact Crescendo, Euronews y France 24.

«Destruidas centrales nucleares israelíes».

FALSO. El video que se difunde como prueba de la destrucción de centrales nucleares israelíes fue publicado en YouTube en 2017, nueve años antes del conflicto actual. Se reutiliza fuera de contexto para sostener que Irán atacó el reactor de Dimona en marzo de 2026. No es evidencia reciente, sino material antiguo reciclado.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Fact Check: publicaciones virales falsas tras la muerte de “El Mencho” en México

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

La Secretaria de Defensa Nacional confirmó el 22 de febrero de 2025 que Nemesio Oseguera Cervantes, alias “El Mencho”, líder del Cártel Jalisco Nueva Generación (CJNG), fue abatido en un operativo militar en Tapalpa, Jalisco. De acuerdo al gobierno mexicano, hubo coordinación y cooperación bilateral con los Estados Unidos.

Durante el operativo murieron cuatro presuntos integrantes del CJNG y se incautaron vehículos blindados, lanzacohetes y drogas. Oseguera, de 59 años y uno de los narcotraficantes más buscados por México y EE.UU., falleció mientras era trasladado a Ciudad de México.

Tras su muerte, se registraron 252 bloqueos y hechos violentos en 20 estados, especialmente en Jalisco, lo que obligó al despliegue de fuerzas federales ante posibles represalias y disputas internas del grupo criminal.

Desinformación

“Fotografía de incendios en Puerto Vallarta, Jalisco”

FALSO. La imagen viral presenta el logo de Gemini (Google) en una esquina, lo que refuerza su origen artificial. Además, fue analizada por herramientas como Hive Moderation, que detectó un 99,9 % de probabilidad de que sea generada con IA.

“Video muestra que a «El Mencho» no lo abatieron, lo capturaron vivo”

FALSO. El video corresponde a un operativo realizado el 4 de febrero en Chiapas, relacionado con la detención de un integrante criminal alias “El Espíritu”. No guarda relación con el abatimiento del líder del CJNG.

“Fotografía de un avión quemándose en un aeropuerto”

FALSO. La imagen presenta inconsistencias propias de contenido generado con inteligencia artificial: texto ilegible en estructuras del aeropuerto, comportamientos ilógicos de personas cerca del fuego y detalles incoherentes en la aeronave.

“La Universidad Iberoamericana León está quemada”

La Universidad Iberoamericana León desmintió la imagen viral que mostraba supuestos daños en sus instalaciones. Aclaró que el campus está en orden normal y que no ocurrió ningún incidente. Algunas sedes de la Ibero (como Puebla y CDMX) suspendieron clases de forma preventiva por bloqueos y disturbios en el país. Sin embargo, no existen reportes de ataques o incendios contra estas universidades.

“Video muestra caos en las calles tras el asesinato de alias “El Mencho” a cargo de sus hombres».

FALSO. Este vídeo muestra las protestas en Nepal de septiembre de 2025, donde manifestantes de la generación Z incendiaron vehículos y edificios en medio de manifestaciones contra la corrupción y prohibiciones en las redes sociales. Las matrículas en escritura devanagari confirman el origen nepalí.

“Fotografía muestra un local de Playa del Carmen, CDMX en llamas».

FALSO. La imagen y los rumores no corresponden a un siniestro real y se atribuyeron al uso de IA para generar contenido falso. Las publicaciones afirmaban que el restaurante se estaba incendiando, lo que causó alarma entre usuarios. Tras llamadas al 911 y llegada de cuerpos de emergencia, no se encontró fuego ni daño alguno en el lugar. La Fonda Argentina continúa operando con normalidad en Playa del Carmen sin afectaciones.

“La presidenta de México huyó de la CDMX a un buque de la Armada Mexicana frente a la costa de Sonora.”

FALSO. Las imágenes son del 1 de febrero de 2026 durante un evento oficial en Sonora. El video fue descontextualizado y no corresponde a una huida. Sheinbaum publicó un vídeo en YouTube donde se puede ver el inicio de la secuencia que circula ahora descontextualizada.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Es un deepfake: Mbappé no habló de Estados Unidos en esa rueda de prensa

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral que circula principalmente en Instagram y TikTok sobre el jugador de fútbol del equipo español Real Madrid, Kylian Mbappé, afirmando que no jugará en un país donde tratan a las personas como animales. Esto, vinculándolo a tensiones migratorias y políticas del Gobierno de Donald Trump.

¿Por qué es completamente falso?

Las imágenes corresponden a una rueda de prensa que Kylian Mbappé ofreció el 7 de junio de 2025. Aquí habló en francés sobre el Balón de Oro y otros temas deportivos. No hizo ninguna referencia a Estados Unidos, política migratoria, ICE, Donald Trump ni a la situación social del país sede.

¿Qué dice la evidencia?

Conferencia real:

  • Las imágenes provienen de una rueda de prensa real de Mbappé en junio de 2025, antes de un partido de la UEFA Nations League con Francia.
  • En ella habló de la Liga de Campeones ganada por el PSG, pero no mencionó el Mundial 2026 ni criticó la situación migratoria en EE.UU.
  • No hay ninguna mención a Estados Unidos, ni a política migratoria, ni al ICE, ni a Donald Trump, ni a condiciones sociales del país sede.

Análisis del video falso: 

  • El video tiene indicios claros de manipulación digital (deepfake) como:
    • El audio sintético
    • La voz generada por IA (ya que en la conferencia original, el jugador habla en francés y no en español)
    • La sincronización labial no coincide con los labios de Mbappé (se mueven de forma irregular respecto al sonido).

Búsqueda en medios oficiales: 

  • No hay ninguna evidencia de tales declaraciones en medios oficiales como el sitio del Real Madrid o la Federación Francesa de Fútbol (FFF).
  • El sitio web oficial del Real Madrid (www.realmadrid.com), donde Mbappé juega actualmente, menciona al jugador en contextos positivos, como su premio al Jugador Cinco Estrellas Mahou en 2025, donde él mismo expresó entusiasmo por el Mundial de Clubes en EE.UU.: «Va a ser una gran competición en Estados Unidos».
  • La página de la FFF (www.fff.fr) no contiene ninguna declaración de Mbappé sobre EE.UU., derechos humanos o rechazo al Mundial 2026; solo noticias actuales sobre partidos y competiciones francesas.

Contexto importante

Varios jugadores de fútbol han sido víctimas de videos deepfake similares generados por IA, usados para estafas, promociones falsas o desinformación política. Estos casos virales suelen manipular entrevistas reales para atribuirles declaraciones inexistentes como:

  • Lionel Messi: Múltiples deepfakes lo muestran promocionando apps fraudulentas como «Wildcat Dive» o estafas piramidales, prometiendo ganancias millonarias en entrevistas manipuladas.
  • Cristiano Ronaldo: Su imagen se usa en campañas de desinformación para invertir en plataformas falsas, especialmente en Portugal.
  • James Rodríguez y Luis Díaz: Videos falsos los presentan creando «proyectos de apuestas» con retornos del 300%, basados en entrevistas reales editadas con IA.

Asimismo, en agosto de 2025, Lupa Media realizó una verificación a una cuenta falsa de TikTok que usaba el logo de Telemundo. Esta difundió decenas de videos manipulados con inteligencia artificial atribuyendo declaraciones falsas a futbolistas como Lionel Messi, Cristiano Ronaldo y Lamine Yamal.

Conclusión

COMPLETAMENTE FALSO: Las imágenes provienen de una rueda de prensa del 7 de junio de 2025, donde Mbappé habló en francés sobre temas deportivos. No mencionó a Estados Unidos ni asuntos políticos. Además, el video viral tiene claras señales de manipulación como voz sintética y sincronización labial del jugador.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

El politólogo estadounidense John Mearsheimer no habló sobre Ecuador

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video de YouTube muestra al politólogo estadounidense John Mearsheimer hablando en español sobre Ecuador, supuestas bases militares estadounidenses y una alianza con Irán.

¿Por qué es completamente falso?

El video no es una intervención real de John Mearsheimer. Es un contenido sintético generado con inteligencia artificial y difundido desde canales que suplantan su identidad. Una investigación de Maldita.es identificó una red de al menos 15 canales que han publicado más de 200 videos en español usando deepfakes del politólogo, sin atribución legítima.

¿Qué dice la evidencia?

  • Autoría: no hay registros de que John Mearsheimer haya publicado ese contenido. Sus entrevistas, conferencias y apariciones públicas disponibles están en inglés y no incluyen declaraciones en español sobre Ecuador.
  • Fuente: el canal que difunde el video no es oficial y suplanta la identidad del politólogo, presentándolo falsamente como autor del mensaje, según comprobó Lupa Media.
  • Patrón de desinformación: una investigación de Maldita.es identificó una red de al menos 15 canales que han publicado más de 200 videos en español con deepfakes de Mearsheimer, sin atribución legítima.
  • Verificamos los hechos que afirma el video:
    • Ecuador no ha cerrado bases militares de Estados Unidos ni ha anunciado una alianza con Irán; no hay evidencia en reportes oficiales en 2026 que respalden esas afirmaciones.
    • No hay bases estadounidenses activas en el país: la base de Manta cerró en 2009.
  • Sobre los vínculos de Ecuador con Irán
    • Los vínculos con Irán han sido limitados y no militares; no hay alianzas recientes.
    • En 2025, Ecuador designó como terroristas al IRGC, Hezbolá y Hamás, alineándose con EE. UU. y manteniendo lazos con Israel.

Análisis técnico:

  • Sometimos el video a análisis con herramientas que detectan inteligencia artificial y estas arrojaron que:
    • Hive Moderation: 99.9%
    • Sensity IA: 96.9% con manipulación de tipo síntesis facial. 
  • El video presenta irregularidades claras de haber sido creado con IA como:
    • Colores saturados. 
    • Voz robótica que no es la del politólogo original. 
    • Movimientos entrecortados. 
    • Falta de sincronización en su boca.

Contexto importante

John Mearsheimer es un politólogo estadounidense y profesor de relaciones internacionales en la Universidad de Chicago, reconocido como uno de los principales exponentes del realismo ofensivo. 

Formado en West Point y con doctorado en Harvard, ha asesorado gobiernos y escrito sobre temas como Israel, China y América Latina en términos generales. Es una figura influyente y polémica por sus críticas al liberalismo y a la expansión de la OTAN, y en 2026 continúa siendo una referencia central en los debates geopolíticos globales.

@john.mearsheimer2 Was the West Responsible? Shocking Take #johnmearshiemer #us #usa #unitedstates ♬ original sound – John Mearsheimer

Conclusión

COMPLETAMENTE FALSO: El video fue generado con IA (99,9% el más alto), suplanta la identidad de John Mearsheimer y forma parte de una red de canales que difunden deepfakes en español. No existe evidencia oficial de que Ecuador haya cerrado bases de EE. UU. ni de que haya anunciado una alianza con Irán. 

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Show de Bad Bunny en el Super Bowl 2026: datos y desinformación

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

El show de medio tiempo del Super Bowl 2026 se realizó en un contexto de debate público sobre políticas migratorias en Estados Unidos, tras reportes de redadas de ICE dirigidas a comunidades migrantes latinas. Antes del evento, Bad Bunny había criticado públicamente a ICE durante su discurso en los premios Grammy.

Donald Trump no asistió al Super Bowl 2026 y criticó la selección de Bad Bunny y Green Day como artistas del espectáculo, calificándolos como una “terrible elección”. Este contexto coincidió con la difusión de contenidos manipulados, afirmaciones sin evidencia y material generado con inteligencia artificial tras la presentación.

Desinformación

“Bad Bunny al final del show sacó un balón que dice fuck ice

NO. La imagen circulante fue generada con IA, incluso aparece la marca de agua de Gemini. En la transmisión real, el balón mostraba la frase “Together we are America” y no hubo mensajes contra ICE ni consignas políticas explícitas.

“Bad bunny salió con un vestido rosado diciendo ice out”

FALSO. El video es contenido generado con IA. Durante el espectáculo, el artista vistió atuendos en tonos crema. Herramientas de detección (como Hive Moderation) clasificaron el clip con alta probabilidad (99.7%) de contenido sintético.

“Bandera de Palestina durante el show”

FALSO. No se mostró ninguna bandera palestina. En el cierre se exhibieron banderas de países del continente americano, coherentes con el mensaje “Together we are America”. No existen registros visuales ni reportes periodísticos que indiquen lo contrario. El artista ha expresado posturas políticas fuera del espectáculo, pero no durante el show. Hubo confusión por los colores, pero la bandera es de Martinica, una isla del Caribe en América. No es un país independiente: es territorio de Francia, y su bandera oficial es la francesa. La que se vio es un símbolo regional. Todas las banderas representaron América; no hubo ninguna de Palestina.

“Bad Bunny borró su Instagram luego de su show de medio tiempo”

Sí. Tras el show, la cuenta fue eliminada o archivó sus publicaciones. No hay explicación oficial; medios y seguidores lo interpretan como parte de una estrategia creativa o anuncio de nueva etapa musical.

“El jugador de los Patriots, Mack Hollins llegó al Super Bowl descalzo y con esposas”

Sí, Mack Hollins llegó al estadio descalzo, con esposas en muñecas y tobillos, overol tipo prisionero y máscara. La puesta en escena generó interpretaciones simbólicas, pero no hay confirmación oficial de que el mensaje era contra el equipo rival Seahawks, contra ICE, ni contra la cárcel ADX Florence. Hollins ha adoptado rutinas poco convencionales desde 2018, incluyendo entrenar descalzo.

“La boda del show fue real”

CIERTO. Representantes del artista confirmaron a The Hollywood Reporter que la ceremonia fue legal, con oficiante autorizado y Bad Bunny como testigo en el certificado. No se han divulgado aún los nombres de los contrayentes.

Actualización: La revista People confirmó en un artículo que la pareja se trata de Thomas “Tommy” Wolter y Eleisa Elli Aparico, juntos desde 2023 y comprometidos desde octubre. Aparico compartió en Instagram un clip del momento y agradeció a Bad Bunny por destacar el amor, mientras Wolter calificó la experiencia como “inolvidable”. Ella lució el vestido Becoming Jane de Hayley Paige, cuya diseñadora celebró que uno de sus vestidos apareciera en el show de medio tiempo del Super Bowl, según declaró a Page Six.

“El show rompió récords de visualizaciones”

CIERTO. NBC reportó 135.4 millones de espectadores, superando el récord previo de Kendrick Lamar en 2025 (133.5 millones) y el histórico de Michael Jackson en 1993 (133.4 millones). Estimaciones ampliadas (incluyendo streaming y visualización fuera del hogar) sitúan la cifra hasta en 142,3 millones. Datos de The New York Times y Billboard lo sitúan entre los espectáculos más vistos del Super Bowl.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Este post no lo publicó la Casa Blanca ni Donald Trump

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Una publicación en X que atribuye a Trump un supuesto post en Truth Social sobre un “colapso del dólar”, difundida por una cuenta que simula ser de la Casa Blanca. 

¿Por qué es mayormente falso?

La cuenta viral no es una cuenta oficial ni afiliada a la Casa Blanca; es un perfil no verificado que suele difundir desinformación y contenido sensacionalista. No existe un post auténtico del primer mandatario estadounidense en Truth Social con ese mensaje. Las supuestas capturas de pantalla presentan inconsistencias como fecha y mala alineación del texto.

¿Qué dice la evidencia?

Verificación en el perfil de Trump en Truth Social: 

  • No existe ninguna publicación auténtica del presidente Donald Trump en la que afirme que “el colapso del dólar está ocurriendo ahora”. Los mensajes que circulan corresponden a contenidos fabricados o satíricos, frecuentes cuando hay cambios en el valor de la moneda.
  • Las supuestas capturas de pantalla presentan inconsistencias técnicas, como la ausencia de fecha y hora, así como métricas irreales o incompletas de “ReTruths”, elementos que sí aparecen en publicaciones genuinas de la plataforma.
  • En contraste, las publicaciones verificables de Trump en Truth Social y sus declaraciones públicas recientes respaldan la idea de un dólar débil como algo positivo, llegando a calificarlo como “genial”, sin advertir sobre un colapso inminente.

Análisis de la cuenta viral: 

  • La cuenta @WHPostNews no es la oficial de la Casa Blanca ni está afiliada al gobierno de Estados Unidos. Se trata de un perfil no verificado que con frecuencia difunde desinformación, contenido sensacionalista o publicaciones con fines de viralización.
  • La cuenta auténtica de la Casa Blanca es @WhiteHouse, que cuenta con verificación gubernamental oficial y más de 3 millones de seguidores en X. Desde ese perfil se publican los comunicados y anuncios oficiales del presidente Donald Trump y de su equipo.
  • Perfiles como @WHPostNews suelen imitar nombres y estilos institucionales para dar apariencia de legitimidad a publicaciones falsas. Además, esta cuenta está verificada con un visto gris porque se trata de la cuenta de una organización gubernamental o multilateral. Para información oficial, se recomienda contrastar siempre con @WhiteHouse o whitehouse.gov.

Baja del dólar:

  • El dólar estadounidense (USD) muestra una tendencia global baja, con su mayor caída anual desde 2017 y expectativas de debilidad en 2026. En Ecuador, al estar dolarizado, la economía no “cae” localmente, pero su menor valor frente a otras monedas impacta importaciones y competitividad.
  • El índice DXY (Índice del Dólar Estadounidense) ronda USD 98,82, con una caída acumulada de 8% en 2025, impulsada por políticas fiscales en EE. UU., aranceles y dudas sobre la Reserva Federal (o Fed). Para Ecuador, un dólar más débil podría mejorar las exportaciones, aunque las proyecciones apuntan a que la tendencia baja continúe.

Contexto importante

El presidente Donald Trump no ha descrito la situación del dólar como un “colapso”. Por el contrario, ha presentado su debilidad reciente como positiva para la economía de Estados Unidos. En enero de 2026, durante un evento en Iowa, Trump afirmó: “Creo que es genial. Miren el negocio que estamos haciendo. El dólar está muy bien”, en referencia a su caída a mínimos de cuatro años. También sostuvo que el dólar debería “buscar su propio nivel” y criticó a China y Japón por devaluar históricamente sus monedas.

Trump ha defendido de forma consistente un dólar más débil como herramienta para impulsar las exportaciones y reducir el déficit comercial.

Conclusión

MAYORMENTE FALSO: La cuenta que difundió esta información no es oficial ni está afiliada a la Casa Blanca. No existe evidencia de que Donald Trump haya publicado en Truth Social que “el dólar está colapsando”: los mensajes virales corresponden a contenidos falsos o satíricos. En contraste, en enero de 2026, el presidente estadounidense afirmó que el dólar está “muy bien” y no advirtió sobre ningún colapso.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪