Skip to main content

Etiqueta: desinformacion

La IA y la desinformación sobre el conflicto entre Irán e Israel-Estados Unidos

El conflicto entre Israel e Irán, escaló el 13 de junio y ha desatado una ola de desinformación con contenidos que manipulan la realidad. Tras el ingreso de Estados Unidos al conflicto, con el bombardeo a instalaciones nucleares en Irán el 22 de junio, las publicaciones sintéticas continúa propagándose sin límites. La inteligencia artificial gana terreno, y en Lupa Media verificamos algunos de ellos. Pero antes analicemos el contexto de la IA en este conflicto.

El uso de la IA en este conflicto bélico

Según Emmanuelle Saliba, directora de investigación del grupo de analistas Get Real, esta es “la primera vez que hemos visto que la IA generativa se usa a escala durante un conflicto”. En una entrevista con BBC Verify, la investigadora explicó que muchos de estos contenidos sintéticos están ambientados de noche, lo que dificulta su verificación debido a la escasa visibilidad de los elementos en las imágenes.

En este conflicto, la inteligencia artificial ha sido utilizada para simular supuestas capacidades militares, consecuencias de bombardeos, protestas, reuniones e incluso apoyos políticos inexistentes. Estos contenidos son producidos y difundidos por creadores que buscan beneficiarse del conflicto captando la atención de los usuarios. A cambio, ganan visibilidad y seguidores. Algunas de estas cuentas aparentan ser «oficiales», pero no existe claridad sobre su autenticidad.

Las motivaciones detrás de estos contenidos falsos son variadas. Algunas cuentas buscan monetizar los contenidos fabricados y han sido previamente identificadas por propagar desinformación en otros conflictos bélicos. Incluso, algunos de estos videos generados con IA han sido replicados por fuentes oficiales tanto de Irán como de Israel.

Matthew Facciani, investigador de la Universidad de Notre Dame, explicó a la BBC que la desinformación se propaga más rápido en contextos de guerra, donde predominan narrativas «binarias» y polarizadas.

En escenarios polarizados, la verdad emocional cobra peso: las personas tienden a reforzar sus creencias o preferencias geopolíticas, incluso cuando la guerra ya ofrece suficientes escenarios crueles y reales. La inteligencia artificial se convierte entonces en una herramienta para amplificar emociones y profundizar divisiones.

Aquí un par de verificaciones sobre el uso de la IA con el fin de desinformar acerca del conflicto entre Irán e Israel.

Categoría Completamente Falso “Imagen muestra un bombardero de B-2 que fue derribado por Irán antes de que alcanzara la instalación nuclear de Fordow”

Una imagen viral muestra supuestamente cómo Irán derriba un bombardero estadounidense B-2 Spirit antes de que impacte contra la planta nuclear subterránea de Fordow. Sin embargo, se comprobó que la imagen fue generada con inteligencia artificial. Este contenido engañoso surgió tras el ataque del 22 de junio, cuando Estados Unidos lanzó una ofensiva con siete bombarderos B-2 Spirit contra tres instalaciones nucleares en Irán.

Según reportó la agencia Associated Press, varios de estos bombarderos regresaron a su base en Whiteman en Missouri. Además, el modelo B-2 Spirit utilizado en el ataque no coincide con el de la imagen viral: presenta claras diferencias de diseño respecto a un bombardero real de este tipo.

La plataforma “Detect AI Generated Images” determinó con un 99 % de probabilidad que la fotografía fue creada con inteligencia artificial. Además, equipos de verificación de medios como la BBC y Newtral desmintieron la imagen, confirmando que se trata de contenido generado por IA.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IANewtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25
Associated Press – Vea el regreso de los bombarderos B-2 involucrados en el ataque de
Estados Unidos contra Irán a la base de la Fuerza Aérea de Missouri – 22/06/25

Newtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25

Categoría Completamente Falso Video muestra cómo Estados Unidos lanza bombas nucleares en Irán”

Un video viral muestra la explosión de una supuesta bomba nuclear y asegura que Estados Unidos está destruyendo reactores nucleares en Irán. Pero ese contenido fue creado con IA. Aunque Estados Unidos sí bombardeó contra las instalaciones nucleares de Irán: Fordow, Natanz e Isfahán, el contenido viral no corresponde a este ataque. 

Una búsqueda inversa con Google Lens reveló que el video original fue publicado por una cuenta dedicada a compartir contenido generado con IA. En su biografía, esta cuenta advierte que todos sus videos son producidos con inteligencia artificial sobre desastres naturales, accidentes y eventos ficticios.

Lupa Media ya verificó un contenido similar relacionado con el conflicto actual en Medio Oriente. En ese caso, el propio usuario confirmó al medio de verificación español Newtral que las imágenes publicadas en su cuenta fueron creadas por él utilizando inteligencia artificial.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de YouTube que comparte contenido con IA

Categoría Completamente Falso “Video muestra el ataque más fuerte de Irán en contra de Israel”

Este contenido muestra supuestamente explosiones en Tel Aviv tras un bombardeo iraní contra Israel. Sin embargo, no existe evidencia de que haya ocurrido un ataque de esa magnitud desde el inicio del conflicto entre ambos países.

Una búsqueda inversa con Google Lens reveló que el video original fue publicado en TikTok el 21 de abril de 2025 y acumula más de 16,8 millones de visualizaciones. El clip incluye la etiqueta “Generado por IA”, colocada por el propio creador, y no hace ninguna referencia al actual conflicto en Medio Oriente.

Además, en la esquina inferior derecha aparece el logo de Sora, la herramienta de generación de video con inteligencia artificial desarrollada por OpenAI.

La cuenta publica varios videos similares que simulan escenas de guerra, todos etiquetados como contenido generado con inteligencia artificial. Incluso, en la descripción se incluye la frase: ‘Universo de arte con IA’. Se trata, por tanto, de una cuenta dedicada a compartir material fabricado que no refleja hechos catastróficos reales ni actuales.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de TikTok que comparte contenido con IA
Newtral – Este vídeo no muestra varias explosiones en Tel Aviv tras un ataque de Irán, es IA – 19/06/25

Categoría Completamente Falso “Video evidencia un desfile de misiles iraníes para atacar a Israel”

En redes circula un video viral en el que se muestra un desfile de camiones saliendo de lo que parece ser una cueva, transportando supuestos misiles iraníes. Sin embargo, ese contenido fue generado con IA.  

Varias inconsistencias gráficas revelan la falsedad del video: las piedras en la parte inferior derecha se mueven por sí solas y las paredes de la cueva parecen difuminarse. Al igual que otros videos virales similares, este contenido también ha sido verificado por BBC Verify.

Subimos fotogramas del video a la plataforma “Detect AI Generated Images”, que indicó un 94 % de probabilidad de que las imágenes fueron generadas con inteligencia artificial. Este alto porcentaje, sumado a las incongruencias visuales señaladas, confirma la fabricación del video.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IA – 23/06/25

Contexto importante

El 22 de junio, Estados Unidos se unió a Israel en los ataques contra Irán, que habían comenzado nueve días antes. En esta escalada del conflicto en Medio Oriente, bombarderos estadounidenses atacaron instalaciones nucleares en Fordow, Natanz e Isfahán. El objetivo de EE.UU. es detener el programa nuclear iraní, que según sus declaraciones, estaba cerca de desarrollar armamento de ese tipo. Por su parte, Irán negó la intensión de generar una bomba nuclear y promete una «respuesta decisiva» al ataque de Estados Unidos.

Un día después, durante la noche en la zona horaria de Medio Oriente, Irán respondió lanzando misiles contra bases estadounidenses en Catar e Irak.

En Lupa Media te explicamos los detalles clave de la ofensiva estadounidense en Irán y las posibles consecuencias de este conflicto.


Desinformación a la carta: así se manipuló la campaña electoral en Ecuador

Descarga nuestro informe detallado aquí

Desinformación con estrategia y objetivos claros

Durante la campaañ electoral, verificamos 247 contenidos virales. El 74% resultó ser falso. Las narrativas más recurrentes apuntaron a los dos principales candidatos: Daniel Noboa y Luisa González, quienes concentraron el 38% y el 34% del contenido desinformativo respectivamente. También se detectaron ataques al Consejo Nacional Electoral y al proceso electoral en sí.

Uno de cada cinco contenidos falsos o manipulados incluyó elementos creados con inteligencia artificial. Además, el 47,7% de las verificaciones provinieron de solicitudes ciudadanas a través del servicio #VerificaciónAlaCarta, lo que demuestra una creciente preocupación del electorado ante la circulación de información dudosa.

Narrativas diseñadas para dividir y manipular

La campaña de desinformación se articuló en torno a varios tópicos:

  • Migración: Se difundieron mensajes falsos que vinculaban a personas migrantes, sobre todo venezolanas, con criminalidad, fraude electoral y beneficios económicos inexistentes. Estos contenidos apelaban al miedo y a la xenofobia, y aparecieron, en su mayoría, como publicidad pagada.
  • Dolarización: Se diseminó contenido alarmista que sugería que Ecuador abandonaría el dólar si ganaba determinado candidato. En muchos casos, se usaron fragmentos de entrevistas editadas para dar la impresión de que los candidatos apoyaban la desdolarización.
  • Fraude electoral: Desde antes de la jornada electoral hasta después de conocerse los resultados, se difundieron imágenes falsas de actas, videos fuera de contexto y teorías conspirativas para generar desconfianza en el sistema electoral.

Suplantación de identidad como estrategia de manipulación


El 42% del contenido desinformativo analizado usurpó logotipos, estilos y material de medios de comunicación, instituciones públicas o figuras reconocidas para hacer pasar contenidos falsos como auténticos. Lupa Media también identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos, con el objetivo de redirigir a los usuarios a páginas fraudulentas. Estas páginas solicitaban datos personales o pagos, aprovechando temas de campaña como gancho.

Impacto visual: el poder de las imágenes y la inteligencia artificial


El 83% del contenido desinformativo circuló en formatos visuales, como imágenes y videos. Estos contenidos a menudo contenían titulares llamativos y emotivos, diseñados para captar la atención del público. Tras el debate de la segunda vuelta presidencial, Lupa Media detectó siete piezas de desinformación basadas en deepfakes, que simulaban reportes de medios internacionales como France24, RTVE, Noticias Caracol, N+Foro y Canal 24, entre otros. Las manipulaciones visuales incluían la sincronización de labios, alteración de barras informativas y la inserción de gráficas falsas.

Una de las víctimas más afectadas por esta estrategia fue Daniel Noboa, quien fue blanco de videos manipulados. También se detectaron ataques similares contra Luisa González, con declaraciones falsas atribuidas a ella. Algunos de estos videos fueron tan convincentes que incluso periodistas y figuras políticas los compartieron como reales. En total, Lupa Media desmintió cinco veces uno de estos videos debido a su viralidad.

@lupamedia 🔍 #FactCheckElectoral | 🚨 Un video manipulado con inteligencia artificial de una entrevista de Luisa González en Teleamazonas (2023) ha vuelto a circular como si fuera real. 🤨¿Lo dijo realmente? No. Luisa González nunca afirmó que se crearía una moneda paralela al dólar. Aquí te dejamos la evidencia y te explicamos todo sobre esta narrativa en nuestra verificación en lupa.com.ec (link en bio) #luisagonzalez #elecciones2025 #ecuador #dolarizacion #noticias #fyp #viral ♬ sonido original – Lupa Media

Noticieros falsos y avatares generados por inteligencia artificial


Lupa Media también identificó la creación de noticieros completamente falsos, presentados por avatares generados con inteligencia artificial para simular reportajes reales. Estas piezas de desinformación tenían un alto nivel de sofisticación, lo que dificultó su detección para muchos usuarios.

@lupamedia 🔍#FactCheckLupa | 🔴 Un contenido viral utiliza fraudulentamente la identidad del medio colombiano NTN24 para difundir información falsa sobre la participación del presidente ecuatoriano en la ceremonia de investidura del presidente Donald Trump. Te contamos la evidencia #danielnoboa #eleccionesecuador2025 #fyp #viral ♬ sonido original – Lupa Media

Plataformas digitales sin control y publicidad pagada

La desinformación circuló principalmente en redes sociales como X (antes Twitter), TikTok, Facebook, Instagram y WhatsApp, pero su propagación no fue aleatoria. Lupa Media identificó campañas dirigidas, muchas de ellas pagadas, que aprovecharon la escasa regulación de la publicidad digital electoral en Ecuador y el debilitamiento de las políticas de moderación de contenido de las plataformas digitales.

Se detectó la participación de al menos dos empresas extranjeras —IMS Internet Media Services y Global Mind USA LLC— que difundieron contenido desinformativo a través de productos de Google. En el caso de IMS, las campañas estuvieron dirigidas a desacreditar a Luisa González en la primera vuelta, y también al binomio Noboa-Pinto en la segunda. Global Mind, por su parte, pautó más de 300 anuncios contra Noboa. Estos contenidos combinaban datos ciertos con elementos claramente manipulados y falsos.

La página de Facebook “Hablando Claro”, creada en octubre de 2024, lo evidencia. Con administradores en México y Ecuador, empleó logos falsos de medios reconocidos y un lenguaje pseudo-periodístico para dar apariencia de legitimidad a contenidos abiertamente falsos. Todo su contenido promocionado fue desinformación.

Voces influyentes como amplificadores

Otro fenómeno preocupante fue la participación activa de figuras públicas y periodistas con amplio alcance en redes sociales. Estas cuentas, muchas veces asociadas a intereses políticos, compartieron contenido falso o manipulado, incluidas piezas generadas con IA. El expresidente Rafael Correa, por ejemplo, difundió varios de estos contenidos desde su cuenta de X, con más de 4 millones de seguidores, amplificando su alcance de forma masiva.

Asimismo, se identificó una red de portales web y perfiles en redes sociales que simulan ser medios de comunicación. Estos espacios adoptan los códigos visuales y narrativos del periodismo tradicional para ganar legitimidad, pero en realidad funcionan como plataformas de propaganda partidista.

67 afirmaciones bajo la lupa: ¿Qué tan precisos fueron los discursos electorales?

Además del monitoreo de contenido viral, Lupa Media verificó 67 afirmaciones públicas de los candidatos finalistas. Durante toda la campaña electoral, monitoreamos diariamente las entrevistas, las redes sociales oficiales de los candidatos y otros contenidos relevantes vinculados al proceso electoral. También se realizó un análisis detallado del debate presidencial.

Las frases seleccionadas para verificación contenían afirmaciones concretas sobre hechos, datos o cifras que podían ser contrastadas con fuentes oficiales, estudios académicos, reportes de organismos especializados o registros históricos. Quedaron fuera del análisis las opiniones, interpretaciones subjetivas y declaraciones sin sustento verifica

El 53,7% fue clasificado entre impreciso y falso. Mientras que el 40,3% fue considerado cierto o parcialmente cierto. En el caso del presidente-candidato Noboa, un 6% de sus afirmaciones no pudo ser verificado por falta de evidencia confiable.

Las temáticas económicas, de seguridad y energía dominaron las declaraciones verificadas de Noboa, mientras que González centró sus afirmaciones principalmente en seguridad y economía.

Una reflexión: el desafío de la IA en campañas electorales

La experiencia de la campaña de 2025 dejó en evidencia una tormenta perfecta: herramientas de inteligencia artificial sin regulación, plataformas digitales sin filtros eficaces y una ciudadanía expuesta a una sobrecarga de información muchas veces engañosa. Hoy, la verdad compite en condiciones de desventaja frente a mensajes diseñados para viralizarse.

Urge un debate serio sobre la responsabilidad de las plataformas, la transparencia de los algoritmos y la regulación del uso de la IA en procesos democráticos. De lo contrario, el juego político seguirá condicionado por campañas que no buscan informar, sino manipular.

En un contexto donde los desinformadores actúan con libertad y presupuesto, mientras los verificadores enfrentamos limitaciones y ataques, proteger el derecho a una información veraz y contrastada se convierte en una prioridad para la salud de la democracia.

TikTok y salud mental: un estudio revela que el 33% de los videos más virales contienen desinformación

Un estudio científico ha analizado los 1.000 videos más virales de TikTok con la etiqueta #MentalHealth y ha concluido que el 33% de los contenidos que ofrecen «consejos e información» sobre salud mental contienen datos engañosos. Además, estos videos con información imprecisa tienen mayor alcance y generan más interacción en la plataforma que aquellos que comparten contenido veraz, según la investigación.

El estudio, publicado en enero de 2025 por investigadores de las universidades de Columbia Británica y Calgary (Canadá), analizó los videos con la etiqueta #MentalHealth más populares y los clasificó en seis categorías. Los resultados mostraron que los videos de la categoría «consejos e información» contenían un 33% de información engañosa. A pesar de ser una minoría dentro del total analizado, estos contenidos tendían a ser más virales, con más visualizaciones, ‘likes’, comentarios y compartidos.

Para llegar a esta conclusión, los autores recopilaron los 1.000 videos con esta etiqueta más vistos y los agruparon en diferentes categorías: historias personales, consejos e información, expresión de emociones intensas, referencias a la muerte, referencias a estudios científicos y venta de productos o servicios. Posteriormente, un equipo de psicólogos y psiquiatras evaluó los 319 videos de la categoría «consejos e información», determinando si el contenido era engañoso o no.

Según el equipo de expertos, algunos de estos videos contenían datos abiertamente falsos, mientras que otros carecían del contexto necesario, lo que podía inducir a conclusiones erróneas o autodiagnósticos. Entre los ejemplos detectados se encontraban afirmaciones incorrectas sobre trastornos mentales como el TDAH, los estilos de apego, el ‘gaslighting’ o las respuestas a traumas. También destacaron que tendencias como el «put a finger down challenge», un reto viral en el que los usuarios bajan un dedo por cada afirmación con la que se identifican, pueden generalizar en exceso síntomas asociados a problemas de salud mental, lo que lleva a patologizar comportamientos normales y a fomentar la ansiedad por enfermedad.

Los investigadores señalan que TikTok tiene un «gran potencial» para divulgar información sobre salud mental, especialmente entre los jóvenes. Sin embargo, consideran que la plataforma presenta «barreras» para la difusión de contenido fiable debido a su algoritmo. Según el estudio, este favorece los videos cortos con mayor retención y número de interacciones, lo que dificulta el tratamiento de temas complejos y reduce la calidad de la información compartida. Además, los autores indican que el algoritmo de TikTok no priorizaría la evidencia científica al recomendar contenidos a los usuarios.

La investigación también recuerda que TikTok también ha mostrado gran cantidad de desinformación sobre otras áreas de salud. Estudios previos encontraron que el 47% de los videos sobre cáncer de próstata, el 90% de los videos sobre disfunción eréctil y el 52% de los videos sobre el trastorno por déficit de atención contenían datos incorrectos.

El estudio reveló, además, ciertos patrones en la demografía de los creadores de contenido sobre salud mental. Las mujeres son mayoría en estos videos, pero sus publicaciones reciben menos visualizaciones e interacciones en comparación con las de los hombres. Los creadores de contenido identificados como profesionales sanitarios acumulan casi tantas visitas como los no profesionales, a pesar de que sus videos suelen ser más precisos.

Los autores del estudio sugieren que futuras investigaciones deberían explorar cómo los usuarios buscan información sobre salud mental en TikTok, cómo comparten sus experiencias en la plataforma y si existen diferencias en el tratamiento de estos temas entre distintas redes sociales.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es

La cuenta falsa de TikTok que usa IA para difundir desinformación electoral 

Desde el 9 de febrero, día de la primera vuelta electoral en Ecuador, la cuenta de TikTok @ximena.ramrez5454, ha estado difundiendo desinformación. El perfil, identificado como “Ximena Ramírez”, cuenta con 10,9 mil seguidores y más de 110 mil “me gusta”. 

Varias cuentas, el mismo contenido falso

Al menos tres perfiles en TikTok parecen estar vinculados a la misma persona o red de desinformación. La cuenta de Ximena Ramírez sigue a otro perfil llamado Ximena Martínez, que usa la misma imagen de perfil y publica los mismos contenidos. Este segundo perfil—Ximena Martínez— tiene  17 mil seguidores y 134 “me gusta”. 

Además, encontramos una tercera cuenta con la misma fotografía de “Ximena Ramírez”, pero con el nombre de Mena Martínez. 

¿Cómo sabemos que es una cuenta falsa?

No hay evidencia de que “Ximena Ramírez” sea una persona real. En los videos publicados se identificaron varias inconsistencias que indican el uso de inteligencia artificial: 

  • La gesticulación de su boca, que no coincide con el audio. 
  • Cambios abruptos en su tono de voz 
  • Su cabello se mantiene exactamente en la misma posición en todas sus publicaciones. 

Estos indicios sugieren que la cuenta utiliza un avatar generado con inteligencia artificial para simular a una persona real y difundir desinformación.

¿Qué tipo de contenido difunde la cuenta falsa?

La cuenta desinformativa difunde contenido falso sobre temas políticos de Ecuador, El Salvador, Argentina y Estados Unidos. Uno de sus contenidos más virales, con 80 mil visualizaciones, afirma que el presidente Daniel Noboa quiere la pena de muerte para Rafael Correa. 

Esa afirmación es falsa. Ecuador abolió la pena de muerte en 1906 y desde entonces se ha mantenido firme en su rechazo a su reintroducción. Además, la Consulta Popular de 2024 no incluyó la pena de muerte entre sus propuestas, sino el aumento de penas para ciertos delitos, como terrorismo.

No es la primera vez que verificamos a esta cuenta 

En una verificación anterior, desmentimos otra afirmación falsa de  Ximena Ramírez, que asegura que el presidente de El Salvador, Nayib Bukele, envió soldados para combatir la mafia. Lupa Media no encontró evidencia de que Bukele haya tomado esa medida,  ni hay registros  en las cuentas oficiales de Daniel Noboa, la Presidencia ecuatoriana ni las Fuerzas Armadas que confirmen este hecho.

Avatares creados con IA: la nueva táctica para desinformar

El uso de avatares se ha convertido en una estrategia de desinformación cada vez más común en la región. Desde 2023, se han documentado varios casos que utilizan esta tecnología para manipular a la opinión pública. Un ejemplo: el régimen chavista en Venezuela utilizó avatares generados con IA y los presentaba como periodistas. Estos “reporteros” daban informes sobre la economía del país, pero al analizar y estudiarlos, se descubrió que no se trataban de personas reales, sino de avatares digitales creados para difundir información falsa y descontextualizada. 

La proliferación de esta desinformación con inteligencia artificial se ha intensificado, especialmente en el contexto electoral, donde su impacto puede ser aún más perjudicial. Durante la primera vuelta electoral de 2025 en Ecuador, Lupa Media verificó que un 23% del contenido desinformativo viral que circulaba en redes sociales había sido creado o manipulado mediante inteligencia artificial.