Skip to main content

Etiqueta: desinformacion

Así se cocina la desinformación: caso Corte Constitucional

1. El punto de partida: mezcla verdad y falsedad

El 4 de agosto de 2025, la Corte Constitucional de Ecuador —máxima autoridad en interpretación constitucional— suspendió de manera provisional artículos clave de tres normativas:

  • Ley de Solidaridad Nacional, que declara un conflicto armado interno y regula el uso de la fuerza e indultos.
  • Ley de Inteligencia y su Reglamento, que amplían las capacidades de vigilancia, interceptación de comunicaciones y acceso a datos sin control judicial.
  • Ley de Integridad Pública, que obliga a las cooperativas de ahorro y crédito a transformarse en sociedades anónimas.

La decisión, temporal y sujeta a un proceso en curso, respondió a demandas de inconstitucionalidad que alegan vulneraciones a derechos fundamentales como la privacidad, el debido proceso y la autonomía. No implicaba la derogación de las leyes: estas seguirán vigentes hasta que la Corte emita un fallo definitivo, tras las audiencias previstas a iniciarse para el 27 de agosto.

Sin embargo, esa distinción se desdibujó rápidamente en redes sociales y medios, abriendo espacio para interpretaciones erróneas y manipulaciones.

2. La construcción de la narrativa: condimentar con miedo e indignación

En pocas horas, lo que era un debate legal se transformó en una campaña emocional que apelaba al miedo y la indignación.

A partir del 5 de agosto, con publicaciones coordinadas que usaban el hashtag #CorteAntipatria y difundían imágenes que vinculaban al máximo tribunal con el correísmo. Se divulgaron frases falsas atribuidas a líderes políticos, se manipularon portadas de medios, se usurparon logos y líneas gráficas, y se impulsaron estos contenidos desde cuentas falsas y redes de troles.

Al día siguiente, aparecieron videos generados con inteligencia artificial en blanco y negro, con estética de mensaje institucional y frases como:

  • “Prefirieron proteger la privacidad de los criminales antes que la vida de las víctimas.”
  • “El Estado pierde una capacidad clave y el ciudadano queda con menos protección ante el crimen.”
  • “La Corte Constitucional de Ecuador dejó sin marco legal la guerra contra el terrorismo.”
  • “Los jueces son correístas.”

Estos materiales fueron difundidos por personalidades de redes sociales pero no solo circularon orgánicamente: también fueron pautados como anuncios en YouTube para maximizar su alcance.

3. Aliños principales: narrativas al gusto

Lupa Media analizó 209 publicaciones en redes sociales y declaraciones de autoridades e identificó cinco narrativas centrales que se repitieron en redes sociales, medios y espacios públicos. Todas partían de un hecho real —la suspensión de artículos—, pero se mezclaron con interpretaciones, omisiones y falsedades para reforzar un mismo objetivo: desacreditar a la Corte Constitucional.

1. “La Corte protege a criminales”
Esta narrativa sostiene que los jueces actuaron en beneficio de personas vinculadas al crimen organizado, priorizando sus derechos por encima de la seguridad ciudadana. Frases como “prefirieron proteger la privacidad de los criminales antes que la vida de las víctimas” o “la Corte favorece a las mafias” circularon masivamente, asociando el fallo con impunidad.

2. “La Corte desarma al Estado”
En este relato se afirma que la resolución eliminó herramientas clave para la Policía y las Fuerzas Armadas, como allanamientos o intervenciones inmediatas. La campaña omitió explicar que la medida era provisional y que no suprimía todas las capacidades operativas del Estado, considerando que, desde 2023, está en vigencia la Ley de Uso Progresivo de la Fuerza y su reglamento respectivo.

3. “La Corte es correísta”
La politización del caso llegó con mensajes que acusaban a los jueces de responder a un sector político específico, en especial al correísmo. Imágenes y publicaciones buscaban reforzar esa asociación para desacreditar cualquier decisión del tribunal, aunque no existe evidencia concluyente que comprueben vínculos entre alguno de los nueve jueces y un partido político específico. 

4. “La Corte traiciona al país”
Aquí el tribunal era presentado como un enemigo interno que actuaba contra los intereses nacionales. Palabras como “traidores” o “enemigos del Ecuador” buscaban alinear emocionalmente a la audiencia contra la CC, sin considerar que  la Corte cumplía con su mandato constitucional de revisar posibles vulneraciones de derechos que fueron advertidos previo a la aprobaciones de las leyes en cuestión. 

5. “La Corte vive de privilegios”
Esta narrativa explotó la divulgación de cifras de remuneraciones —sin contexto— para instalar la idea de que los jueces gozan de beneficios injustificados y que actúan de espaldas a la ciudadanía. Se trató de una táctica común: usar datos reales pero incompletos para generar indignación. Los salarios divulgados  corresponden a la escala de remuneraciones del sector público para altas autoridades, no a privilegios exclusivos de la Corte. 

4. Servir caliente: cuando los voceros lo ponen en la mesa pública

La campaña no se limitó a redes sociales y contenidos anónimos. Las narrativas también fueron amplificadas por voceros del Gobierno, lo que les otorgó legitimidad y mayor alcance en la agenda pública.

Entre el 4 y el 14 de agosto (periodo de monitoreo de esta investigación), autoridades del Ejecutivo y de la Asamblea repitieron y reforzaron las mismas narrativas que circulaban en redes, trasladándolas al terreno institucional y mediático. Por ejemplo: 

  • Cadena nacional (4 de agosto): la ministra de Gobierno Zaida Rovira, junto al presidente de la Asamblea Niels Olsen y altos mandos policiales y militares, calificaron la decisión de la Corte como “un golpe a la seguridad y a la voluntad popular”. Criticaron que se haya comunicado mediante un boletín “sin explicaciones públicas”, aunque la CC había publicado las resoluciones íntegras con su justificación.
  • Anuncio presidencial (5 de agosto): el presidente Daniel Noboa anunció que en la Consulta Popular se propondría habilitar el juicio político contra jueces constitucionales. Con ello, la narrativa de que la Corte actúa “sin control” dejó de ser un eslogan político y se convirtió en propuesta de reforma institucional.
  • Asamblea Nacional (5 de agosto): en la misma línea, el legislador y exviceministro de Gobierno Esteban Torres sostuvo que los jueces constitucionales “no tienen ningún tipo de control político”. Aunque no pueden ser sometidos a juicio político —por ejercer funciones jurisdiccionales—, sí cuentan con otros mecanismos de control. Su intervención sirvió como refuerzo al mensaje presidencial, consolidando la idea de que la Corte es un poder sin contrapesos.

  • Convocatoria y marcha (6–12 de agosto): el presidente Noboa llamó a una protesta “pacífica” frente a la Corte Constitucional, acusando al tribunal de “tirar abajo las leyes que pueden dar seguridad” a la ciudadanía. Con esas palabras, presentó la suspensión provisional de artículos como si fuera una eliminación definitiva. Noboa anunció que él mismo marcharía hacia la sede del organismo el martes 12 de agosto, transformando la disputa jurídica en una confrontación callejera con el máximo tribunal.
  • El día de la movilización, varios funcionarios repitieron afirmaciones falsas o imprecisas: que la Corte “eliminó leyes que protegían a las familias” (Sade Fritschi), que afectó la protección infantil (María Lourdes Muñoz), que dejó al país “con menos herramientas para proteger a mujeres y niñas” (Arianna Tanca) o que “niega continuamente los estados de excepción” (Gian Carlo Loffredo). Además, el presidente Noboa manifestó que “no vamos a permitir que el cambio se quede estancado por nueve personas que ni siquiera dan la cara”.

El efecto: las narrativas de redes se legitimaron al ser pronunciadas por autoridades y se amplificaron al convertirse en titulares de prensa y consignas de movilización. En lugar de desmentir la desinformación, el discurso oficial abonó a consolidar como relato político institucional, generando un ecosistema de refuerzo: mensajes creados en redes, potenciados por troles y publicidad digital, y luego avalados por vocerías del propio Estado.

5. La guarnición: elementos extra para sostener la narrativa

La campaña no terminó con la marcha encabezada por el presidente Noboa. Para mantener viva la indignación, el relato digital se trasladó al espacio público. Se instalaron vallas en Quito, Guayaquil y Cuenca con el mensaje “Estos son los jueces que nos están robando la paz” y la imagen de los nueve magistrados. 

Foto: PRIMICIAS

El formato no fue casual: imitaba los carteles con los que se expone públicamente a los delincuentes buscados, lo que en la práctica convirtió a los jueces en “enemigos visibles” y buscó castigarlos simbólicamente ante la opinión pública. Así se reforzaba otra narrativa impulsada desde el oficialismo: “los jueces no dan la cara”. Sin embargo, los magistrados nunca han ocultado su identidad: sus nombres, resoluciones y comparecencias son públicas y están disponibles en los canales oficiales de la Corte Constitucional.

En paralelo, camiones con pantallas publicitarias recorrieron estas ciudades mostrando un contador en tiempo real de muertes violentas, responsabilizando directamente a la Corte por cada crimen registrado desde la suspensión de artículos.

Foto: El Universo

Los magistrados pasaron así de ser un blanco abstracto en redes a convertirse en enemigos visibles en calles y avenidas. La campaña visual, a nombre del colectivo Ecuador Merece Paz, amplificó la idea de que la Corte era culpable de la inseguridad.

Lo que omite la narrativa: como recogió Ecuavisa, no hay evidencia de que la suspensión de los artículos haya disparado las muertes violentas. Entre el 11 de julio y el 3 de agosto se registró un promedio de 21 homicidios diarios; en los días posteriores a la suspensión, el promedio bajó a 9 asesinatos diarios, menos de la mitad.

A esa puesta en escena se añadieron otros ingredientes que reforzaron la receta:

  • Una sentencia sacada de contexto (49-21-CN/26): difundida como si la Corte hubiera “liberado reincidentes”, cuando en realidad la decisión de enero de 2025 buscaba garantizar que los jueces valoren cada caso sin violar derechos fundamentales.
  • La divulgación de sueldos de jueces: presentada sin explicación, para reforzar la idea de que los magistrados gozan de privilegios injustificados. En realidad, sus remuneraciones corresponden a la escala oficial de altas autoridades del sector público.

Con esta guarnición, la receta se mantuvo caliente: las narrativas iniciales no solo persistieron, sino que se alimentaron de nuevos insumos que amplificaron la percepción de ilegitimidad y mantuvieron el tema en la agenda pública.

El plato servido sin responsabilidad: un relato que erosiona la confianza

Por ahora, el Gobierno ha señalado que se trató de una iniciativa ciudadana y se ha deslindado de cualquier responsabilidad sobre las vallas publicitarias ni del financiamiento de la marcha. Sin embargo, una investigación de Diario Expreso reveló que en los metadatos de un boletín de prensa atribuido al colectivo Ecuador Merece Paz —presentado como responsable de una de las campañas contra la Corte Constitucional— figuraba como autora “Cristina Maggi”, nombre que coincide con el de María Cristina Maggi Gordón, actual directora de Comunicación Coyuntural de la Presidencia de la República. La Secretaría de Comunicación rechazó esa acusación. Lupa Media no pudo verificar de forma independiente el origen de los metadatos del documento.

Así se cocinó la desinformación: un hecho real mezclado con falsedades, condimentado con miedo e indignación, servido por voces oficiales y mantenido vivo con nuevos insumos. El resultado fue un relato simple pero poderoso que pasó de las redes sociales a las calles y de ahí a la agenda política.

Cuando los ingredientes se combinan de esta forma, la desinformación deja de ser un ruido pasajero y se convierte en un menú que moldea la opinión pública. Este caso muestra cómo una narrativa bien sazonada puede alterar el debate democrático y erosionar la confianza en las instituciones que deberían garantizar derechos y equilibrio de poderes.

El banquete quedó servido, aunque nadie quiso admitir haberlo cocinado.

¿Por qué nuestro cerebro cae en la trampa de la desinformación?

La mente en modo automático: pensar rápido, decidir sin analizar

Cuando decimos que nuestro cerebro está diseñado para “comer cuento”, como decimos en Ecuador, no es metafórico. Es una realidad respaldada por la neurociencia: nuestra mente, por su propia forma de funcionar, es vulnerable a los contenidos engañosos.

El cerebro humano está diseñado para ahorrar energía. Frente al bombardeo constante de información, suele recurrir a atajos mentales, también conocidos como heurísticas. Son estrategias rápidas que usamos para tomar decisiones sin tener que procesar toda la información disponible.

Estos atajos no son necesariamente malos. De hecho, nos permiten reaccionar con agilidad en situaciones cotidianas. Sin embargo, cuando se aplican de forma automática a temas complejos —como la política, la salud o la seguridad— pueden llevarnos a errores de juicio.

Es ahí donde aparecen los sesgos cognitivos: distorsiones sistemáticas en la forma en que percibimos, interpretamos y recordamos la información. Como demostró el psicólogo Daniel Kahneman, nuestro sistema de pensamiento rápido (intuitivo) domina muchas de nuestras decisiones, incluso cuando sería mejor pensar despacio y con más datos.

Este tipo de funcionamiento no implica ingenuidad ni falta de inteligencia: es una respuesta natural del cerebro ante la sobrecarga informativa del mundo actual

El atajo emocional: cuando sentimos antes de pensar

Diversos estudios en neurociencia han demostrado que las emociones intensas reducen nuestra capacidad de análisis crítico. Frente a contenidos que nos indignan, conmueven o asustan, el cerebro responde desde la emoción antes que desde la razón.

La amígdala cerebral, centro del procesamiento emocional, se activa más rápido que la corteza prefrontal, que es responsable del pensamiento lógico y reflexivo. Por eso, cuando una noticia falsa nos genera una respuesta emocional fuerte, es más probable que la creamos o la compartamos sin cuestionarla.

La emoción no es enemiga de la verdad, pero cuando domina nuestra reacción, puede volvernos más vulnerables a lo falso

¿Y cómo nos afecta todo esto?

¿Alguna vez compartiste una noticia solo porque la dijo alguien en quien confías, sin verificarla?
¿Has sentido que “todo el mundo” piensa como tú sobre un tema?
¿Sigues creyendo una idea incluso después de que fue desmentida?

De nuevo, no es solo un error de juicio, ni una señal de ingenuidad. Es el resultado de cómo nuestro cerebro procesa la información. Los sesgos cognitivos están presentes en nuestras decisiones cotidianas, muchas veces sin que lo notemos.

Se han identificado más de 150 sesgos cognitivos —algunos se superponen, otros son variantes del mismo patrón—, pero no necesitas conocerlos todos. Lo importante es entender que estos atajos mentales influyen en cómo pensamos, cómo debatimos y cómo nos enfrentamos a la desinformación.

Uno de los más conocidos es el sesgo de confirmación, que nos lleva a creer más fácilmente aquello que refuerza nuestras ideas previas. Otro especialmente relevante es el efecto de verdad ilusoria, que demuestra que la repetición puede hacer que una mentira suene verdadera. Cuantas más veces escuchamos una afirmación, más familiar nos resulta… y más probable es que la aceptemos como cierta.

Este fenómeno fue documentado por primera vez en los años 70 y se ha vuelto aún más potente en la era digital, donde los contenidos engañosos se replican constantemente en memes, videos, cadenas de WhatsApp o titulares virales.

La desinformación no necesita convencernos al primer intento. Solo necesita repetirse lo suficiente.

Conocer estos mecanismos es una forma de defensa. Y también, una forma de resistencia.

¿Qué busca la desinformación? (y cómo se conecta con tu cerebro)

La desinformación moderna no solo transmite mentiras: transmite emociones, certezas absolutas y narrativas simples. Está diseñada para parecer creíble, movilizar afectos, generar indignación o reforzar identidades.

Y lo más inquietante: puede seguir influyendo incluso después de haber sido desmentida. Esto ocurre por un fenómeno conocido como influencia continuada, ampliamente estudiado por la psicología cognitiva.

Existen dos formas comunes en las que nuestra mente retiene un mito, incluso después de recibir una corrección:

  • Corrección no integrada: El cerebro recuerda la corrección, pero no la conecta con el mito original, por lo que este sigue siendo recordado como si fuera verdadero.
  • Recuperación selectiva: El mito es más familiar y accesible que la corrección, por lo que al intentar recordarlo, solo el mito aparece, especialmente si lo hemos visto repetido muchas veces.

La evidencia científica muestra que los mensajes emocionalmente cargados se recuerdan más y se comparten más, incluso cuando no son verdaderos. Por eso, en contextos de miedo, crisis o polarización, la desinformación se vuelve más efectiva: activa nuestras emociones y se graba en nuestra memoria antes que los hechos.

En este escenario, la desinformación no necesita convencernos al primer intento. Solo necesita repetirse lo suficiente.

Factores que aumentan nuestra vulnerabilidad

La psicología social y cognitiva ha identificado ciertas condiciones que nos vuelven más susceptibles a caer en desinformación:

  • Estrés y fatiga mental: reducen nuestra capacidad de análisis.
  • Sobreexposición informativa: nos lleva a depender de atajos.
  • Aislamiento o polarización: reforzamos ideas sin contraste.
  • Urgencia emocional: actuamos por impulso, no por verificación.

Un estudio de la Universidad de Cambridge demostró que las personas expuestas a mayor carga emocional en redes sociales tienden a recordar menos el contenido original y más las emociones que les generó.

¿Qué podemos hacer?

No podemos apagar nuestros sesgos cognitivos, pero sí podemos aprender a reconocerlos y neutralizar su impacto. Aquí algunas estrategias respaldadas por investigaciones en alfabetización mediática:

  • Tómate una pausa. El pensamiento crítico necesita tiempo.
  • Verifica fuentes y busca evidencia. No basta con “me suena”.
  • Consulta perspectivas diversas. Sal de tu burbuja informativa, busca un dieta informativa saludable.
  • Sé escéptico con lo que te hace reaccionar demasiado rápido.

Como concluye el investigador Stephan Lewandowsky, experto en desinformación y memoria, “la única vacuna efectiva contra los bulos es el pensamiento crítico entrenado de forma preventiva, no reactiva”.

La desinformación no solo desafía a la democracia. También desafía nuestra mente.
Y si entendemos cómo pensamos, podemos protegernos mejor —y ayudar a proteger a los demás— en un entorno donde estos desórdenes informativos viajan más rápido que los hechos.

La IA y la desinformación sobre el conflicto entre Irán e Israel-Estados Unidos

El conflicto entre Israel e Irán, escaló el 13 de junio y ha desatado una ola de desinformación con contenidos que manipulan la realidad. Tras el ingreso de Estados Unidos al conflicto, con el bombardeo a instalaciones nucleares en Irán el 22 de junio, las publicaciones sintéticas continúa propagándose sin límites. La inteligencia artificial gana terreno, y en Lupa Media verificamos algunos de ellos. Pero antes analicemos el contexto de la IA en este conflicto.

El uso de la IA en este conflicto bélico

Según Emmanuelle Saliba, directora de investigación del grupo de analistas Get Real, esta es “la primera vez que hemos visto que la IA generativa se usa a escala durante un conflicto”. En una entrevista con BBC Verify, la investigadora explicó que muchos de estos contenidos sintéticos están ambientados de noche, lo que dificulta su verificación debido a la escasa visibilidad de los elementos en las imágenes.

En este conflicto, la inteligencia artificial ha sido utilizada para simular supuestas capacidades militares, consecuencias de bombardeos, protestas, reuniones e incluso apoyos políticos inexistentes. Estos contenidos son producidos y difundidos por creadores que buscan beneficiarse del conflicto captando la atención de los usuarios. A cambio, ganan visibilidad y seguidores. Algunas de estas cuentas aparentan ser «oficiales», pero no existe claridad sobre su autenticidad.

Las motivaciones detrás de estos contenidos falsos son variadas. Algunas cuentas buscan monetizar los contenidos fabricados y han sido previamente identificadas por propagar desinformación en otros conflictos bélicos. Incluso, algunos de estos videos generados con IA han sido replicados por fuentes oficiales tanto de Irán como de Israel.

Matthew Facciani, investigador de la Universidad de Notre Dame, explicó a la BBC que la desinformación se propaga más rápido en contextos de guerra, donde predominan narrativas «binarias» y polarizadas.

En escenarios polarizados, la verdad emocional cobra peso: las personas tienden a reforzar sus creencias o preferencias geopolíticas, incluso cuando la guerra ya ofrece suficientes escenarios crueles y reales. La inteligencia artificial se convierte entonces en una herramienta para amplificar emociones y profundizar divisiones.

Aquí un par de verificaciones sobre el uso de la IA con el fin de desinformar acerca del conflicto entre Irán e Israel.

Categoría Completamente Falso “Imagen muestra un bombardero de B-2 que fue derribado por Irán antes de que alcanzara la instalación nuclear de Fordow”

Una imagen viral muestra supuestamente cómo Irán derriba un bombardero estadounidense B-2 Spirit antes de que impacte contra la planta nuclear subterránea de Fordow. Sin embargo, se comprobó que la imagen fue generada con inteligencia artificial. Este contenido engañoso surgió tras el ataque del 22 de junio, cuando Estados Unidos lanzó una ofensiva con siete bombarderos B-2 Spirit contra tres instalaciones nucleares en Irán.

Según reportó la agencia Associated Press, varios de estos bombarderos regresaron a su base en Whiteman en Missouri. Además, el modelo B-2 Spirit utilizado en el ataque no coincide con el de la imagen viral: presenta claras diferencias de diseño respecto a un bombardero real de este tipo.

La plataforma “Detect AI Generated Images” determinó con un 99 % de probabilidad que la fotografía fue creada con inteligencia artificial. Además, equipos de verificación de medios como la BBC y Newtral desmintieron la imagen, confirmando que se trata de contenido generado por IA.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IANewtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25
Associated Press – Vea el regreso de los bombarderos B-2 involucrados en el ataque de
Estados Unidos contra Irán a la base de la Fuerza Aérea de Missouri – 22/06/25

Newtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25

Categoría Completamente Falso Video muestra cómo Estados Unidos lanza bombas nucleares en Irán”

Un video viral muestra la explosión de una supuesta bomba nuclear y asegura que Estados Unidos está destruyendo reactores nucleares en Irán. Pero ese contenido fue creado con IA. Aunque Estados Unidos sí bombardeó contra las instalaciones nucleares de Irán: Fordow, Natanz e Isfahán, el contenido viral no corresponde a este ataque. 

Una búsqueda inversa con Google Lens reveló que el video original fue publicado por una cuenta dedicada a compartir contenido generado con IA. En su biografía, esta cuenta advierte que todos sus videos son producidos con inteligencia artificial sobre desastres naturales, accidentes y eventos ficticios.

Lupa Media ya verificó un contenido similar relacionado con el conflicto actual en Medio Oriente. En ese caso, el propio usuario confirmó al medio de verificación español Newtral que las imágenes publicadas en su cuenta fueron creadas por él utilizando inteligencia artificial.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de YouTube que comparte contenido con IA

Categoría Completamente Falso “Video muestra el ataque más fuerte de Irán en contra de Israel”

Este contenido muestra supuestamente explosiones en Tel Aviv tras un bombardeo iraní contra Israel. Sin embargo, no existe evidencia de que haya ocurrido un ataque de esa magnitud desde el inicio del conflicto entre ambos países.

Una búsqueda inversa con Google Lens reveló que el video original fue publicado en TikTok el 21 de abril de 2025 y acumula más de 16,8 millones de visualizaciones. El clip incluye la etiqueta “Generado por IA”, colocada por el propio creador, y no hace ninguna referencia al actual conflicto en Medio Oriente.

Además, en la esquina inferior derecha aparece el logo de Sora, la herramienta de generación de video con inteligencia artificial desarrollada por OpenAI.

La cuenta publica varios videos similares que simulan escenas de guerra, todos etiquetados como contenido generado con inteligencia artificial. Incluso, en la descripción se incluye la frase: ‘Universo de arte con IA’. Se trata, por tanto, de una cuenta dedicada a compartir material fabricado que no refleja hechos catastróficos reales ni actuales.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de TikTok que comparte contenido con IA
Newtral – Este vídeo no muestra varias explosiones en Tel Aviv tras un ataque de Irán, es IA – 19/06/25

Categoría Completamente Falso “Video evidencia un desfile de misiles iraníes para atacar a Israel”

En redes circula un video viral en el que se muestra un desfile de camiones saliendo de lo que parece ser una cueva, transportando supuestos misiles iraníes. Sin embargo, ese contenido fue generado con IA.  

Varias inconsistencias gráficas revelan la falsedad del video: las piedras en la parte inferior derecha se mueven por sí solas y las paredes de la cueva parecen difuminarse. Al igual que otros videos virales similares, este contenido también ha sido verificado por BBC Verify.

Subimos fotogramas del video a la plataforma “Detect AI Generated Images”, que indicó un 94 % de probabilidad de que las imágenes fueron generadas con inteligencia artificial. Este alto porcentaje, sumado a las incongruencias visuales señaladas, confirma la fabricación del video.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IA – 23/06/25

Contexto importante

El 22 de junio, Estados Unidos se unió a Israel en los ataques contra Irán, que habían comenzado nueve días antes. En esta escalada del conflicto en Medio Oriente, bombarderos estadounidenses atacaron instalaciones nucleares en Fordow, Natanz e Isfahán. El objetivo de EE.UU. es detener el programa nuclear iraní, que según sus declaraciones, estaba cerca de desarrollar armamento de ese tipo. Por su parte, Irán negó la intensión de generar una bomba nuclear y promete una «respuesta decisiva» al ataque de Estados Unidos.

Un día después, durante la noche en la zona horaria de Medio Oriente, Irán respondió lanzando misiles contra bases estadounidenses en Catar e Irak.

En Lupa Media te explicamos los detalles clave de la ofensiva estadounidense en Irán y las posibles consecuencias de este conflicto.


Desinformación a la carta: así se manipuló la campaña electoral en Ecuador

Descarga nuestro informe detallado aquí

Desinformación con estrategia y objetivos claros

Durante la campaañ electoral, verificamos 247 contenidos virales. El 74% resultó ser falso. Las narrativas más recurrentes apuntaron a los dos principales candidatos: Daniel Noboa y Luisa González, quienes concentraron el 38% y el 34% del contenido desinformativo respectivamente. También se detectaron ataques al Consejo Nacional Electoral y al proceso electoral en sí.

Uno de cada cinco contenidos falsos o manipulados incluyó elementos creados con inteligencia artificial. Además, el 47,7% de las verificaciones provinieron de solicitudes ciudadanas a través del servicio #VerificaciónAlaCarta, lo que demuestra una creciente preocupación del electorado ante la circulación de información dudosa.

Narrativas diseñadas para dividir y manipular

La campaña de desinformación se articuló en torno a varios tópicos:

  • Migración: Se difundieron mensajes falsos que vinculaban a personas migrantes, sobre todo venezolanas, con criminalidad, fraude electoral y beneficios económicos inexistentes. Estos contenidos apelaban al miedo y a la xenofobia, y aparecieron, en su mayoría, como publicidad pagada.
  • Dolarización: Se diseminó contenido alarmista que sugería que Ecuador abandonaría el dólar si ganaba determinado candidato. En muchos casos, se usaron fragmentos de entrevistas editadas para dar la impresión de que los candidatos apoyaban la desdolarización.
  • Fraude electoral: Desde antes de la jornada electoral hasta después de conocerse los resultados, se difundieron imágenes falsas de actas, videos fuera de contexto y teorías conspirativas para generar desconfianza en el sistema electoral.

Suplantación de identidad como estrategia de manipulación


El 42% del contenido desinformativo analizado usurpó logotipos, estilos y material de medios de comunicación, instituciones públicas o figuras reconocidas para hacer pasar contenidos falsos como auténticos. Lupa Media también identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos, con el objetivo de redirigir a los usuarios a páginas fraudulentas. Estas páginas solicitaban datos personales o pagos, aprovechando temas de campaña como gancho.

Impacto visual: el poder de las imágenes y la inteligencia artificial


El 83% del contenido desinformativo circuló en formatos visuales, como imágenes y videos. Estos contenidos a menudo contenían titulares llamativos y emotivos, diseñados para captar la atención del público. Tras el debate de la segunda vuelta presidencial, Lupa Media detectó siete piezas de desinformación basadas en deepfakes, que simulaban reportes de medios internacionales como France24, RTVE, Noticias Caracol, N+Foro y Canal 24, entre otros. Las manipulaciones visuales incluían la sincronización de labios, alteración de barras informativas y la inserción de gráficas falsas.

Una de las víctimas más afectadas por esta estrategia fue Daniel Noboa, quien fue blanco de videos manipulados. También se detectaron ataques similares contra Luisa González, con declaraciones falsas atribuidas a ella. Algunos de estos videos fueron tan convincentes que incluso periodistas y figuras políticas los compartieron como reales. En total, Lupa Media desmintió cinco veces uno de estos videos debido a su viralidad.

@lupamedia 🔍 #FactCheckElectoral | 🚨 Un video manipulado con inteligencia artificial de una entrevista de Luisa González en Teleamazonas (2023) ha vuelto a circular como si fuera real. 🤨¿Lo dijo realmente? No. Luisa González nunca afirmó que se crearía una moneda paralela al dólar. Aquí te dejamos la evidencia y te explicamos todo sobre esta narrativa en nuestra verificación en lupa.com.ec (link en bio) #luisagonzalez #elecciones2025 #ecuador #dolarizacion #noticias #fyp #viral ♬ sonido original – Lupa Media

Noticieros falsos y avatares generados por inteligencia artificial


Lupa Media también identificó la creación de noticieros completamente falsos, presentados por avatares generados con inteligencia artificial para simular reportajes reales. Estas piezas de desinformación tenían un alto nivel de sofisticación, lo que dificultó su detección para muchos usuarios.

@lupamedia 🔍#FactCheckLupa | 🔴 Un contenido viral utiliza fraudulentamente la identidad del medio colombiano NTN24 para difundir información falsa sobre la participación del presidente ecuatoriano en la ceremonia de investidura del presidente Donald Trump. Te contamos la evidencia #danielnoboa #eleccionesecuador2025 #fyp #viral ♬ sonido original – Lupa Media

Plataformas digitales sin control y publicidad pagada

La desinformación circuló principalmente en redes sociales como X (antes Twitter), TikTok, Facebook, Instagram y WhatsApp, pero su propagación no fue aleatoria. Lupa Media identificó campañas dirigidas, muchas de ellas pagadas, que aprovecharon la escasa regulación de la publicidad digital electoral en Ecuador y el debilitamiento de las políticas de moderación de contenido de las plataformas digitales.

Se detectó la participación de al menos dos empresas extranjeras —IMS Internet Media Services y Global Mind USA LLC— que difundieron contenido desinformativo a través de productos de Google. En el caso de IMS, las campañas estuvieron dirigidas a desacreditar a Luisa González en la primera vuelta, y también al binomio Noboa-Pinto en la segunda. Global Mind, por su parte, pautó más de 300 anuncios contra Noboa. Estos contenidos combinaban datos ciertos con elementos claramente manipulados y falsos.

La página de Facebook “Hablando Claro”, creada en octubre de 2024, lo evidencia. Con administradores en México y Ecuador, empleó logos falsos de medios reconocidos y un lenguaje pseudo-periodístico para dar apariencia de legitimidad a contenidos abiertamente falsos. Todo su contenido promocionado fue desinformación.

Voces influyentes como amplificadores

Otro fenómeno preocupante fue la participación activa de figuras públicas y periodistas con amplio alcance en redes sociales. Estas cuentas, muchas veces asociadas a intereses políticos, compartieron contenido falso o manipulado, incluidas piezas generadas con IA. El expresidente Rafael Correa, por ejemplo, difundió varios de estos contenidos desde su cuenta de X, con más de 4 millones de seguidores, amplificando su alcance de forma masiva.

Asimismo, se identificó una red de portales web y perfiles en redes sociales que simulan ser medios de comunicación. Estos espacios adoptan los códigos visuales y narrativos del periodismo tradicional para ganar legitimidad, pero en realidad funcionan como plataformas de propaganda partidista.

67 afirmaciones bajo la lupa: ¿Qué tan precisos fueron los discursos electorales?

Además del monitoreo de contenido viral, Lupa Media verificó 67 afirmaciones públicas de los candidatos finalistas. Durante toda la campaña electoral, monitoreamos diariamente las entrevistas, las redes sociales oficiales de los candidatos y otros contenidos relevantes vinculados al proceso electoral. También se realizó un análisis detallado del debate presidencial.

Las frases seleccionadas para verificación contenían afirmaciones concretas sobre hechos, datos o cifras que podían ser contrastadas con fuentes oficiales, estudios académicos, reportes de organismos especializados o registros históricos. Quedaron fuera del análisis las opiniones, interpretaciones subjetivas y declaraciones sin sustento verifica

El 53,7% fue clasificado entre impreciso y falso. Mientras que el 40,3% fue considerado cierto o parcialmente cierto. En el caso del presidente-candidato Noboa, un 6% de sus afirmaciones no pudo ser verificado por falta de evidencia confiable.

Las temáticas económicas, de seguridad y energía dominaron las declaraciones verificadas de Noboa, mientras que González centró sus afirmaciones principalmente en seguridad y economía.

Una reflexión: el desafío de la IA en campañas electorales

La experiencia de la campaña de 2025 dejó en evidencia una tormenta perfecta: herramientas de inteligencia artificial sin regulación, plataformas digitales sin filtros eficaces y una ciudadanía expuesta a una sobrecarga de información muchas veces engañosa. Hoy, la verdad compite en condiciones de desventaja frente a mensajes diseñados para viralizarse.

Urge un debate serio sobre la responsabilidad de las plataformas, la transparencia de los algoritmos y la regulación del uso de la IA en procesos democráticos. De lo contrario, el juego político seguirá condicionado por campañas que no buscan informar, sino manipular.

En un contexto donde los desinformadores actúan con libertad y presupuesto, mientras los verificadores enfrentamos limitaciones y ataques, proteger el derecho a una información veraz y contrastada se convierte en una prioridad para la salud de la democracia.

TikTok y salud mental: un estudio revela que el 33% de los videos más virales contienen desinformación

Un estudio científico ha analizado los 1.000 videos más virales de TikTok con la etiqueta #MentalHealth y ha concluido que el 33% de los contenidos que ofrecen «consejos e información» sobre salud mental contienen datos engañosos. Además, estos videos con información imprecisa tienen mayor alcance y generan más interacción en la plataforma que aquellos que comparten contenido veraz, según la investigación.

El estudio, publicado en enero de 2025 por investigadores de las universidades de Columbia Británica y Calgary (Canadá), analizó los videos con la etiqueta #MentalHealth más populares y los clasificó en seis categorías. Los resultados mostraron que los videos de la categoría «consejos e información» contenían un 33% de información engañosa. A pesar de ser una minoría dentro del total analizado, estos contenidos tendían a ser más virales, con más visualizaciones, ‘likes’, comentarios y compartidos.

Para llegar a esta conclusión, los autores recopilaron los 1.000 videos con esta etiqueta más vistos y los agruparon en diferentes categorías: historias personales, consejos e información, expresión de emociones intensas, referencias a la muerte, referencias a estudios científicos y venta de productos o servicios. Posteriormente, un equipo de psicólogos y psiquiatras evaluó los 319 videos de la categoría «consejos e información», determinando si el contenido era engañoso o no.

Según el equipo de expertos, algunos de estos videos contenían datos abiertamente falsos, mientras que otros carecían del contexto necesario, lo que podía inducir a conclusiones erróneas o autodiagnósticos. Entre los ejemplos detectados se encontraban afirmaciones incorrectas sobre trastornos mentales como el TDAH, los estilos de apego, el ‘gaslighting’ o las respuestas a traumas. También destacaron que tendencias como el «put a finger down challenge», un reto viral en el que los usuarios bajan un dedo por cada afirmación con la que se identifican, pueden generalizar en exceso síntomas asociados a problemas de salud mental, lo que lleva a patologizar comportamientos normales y a fomentar la ansiedad por enfermedad.

Los investigadores señalan que TikTok tiene un «gran potencial» para divulgar información sobre salud mental, especialmente entre los jóvenes. Sin embargo, consideran que la plataforma presenta «barreras» para la difusión de contenido fiable debido a su algoritmo. Según el estudio, este favorece los videos cortos con mayor retención y número de interacciones, lo que dificulta el tratamiento de temas complejos y reduce la calidad de la información compartida. Además, los autores indican que el algoritmo de TikTok no priorizaría la evidencia científica al recomendar contenidos a los usuarios.

La investigación también recuerda que TikTok también ha mostrado gran cantidad de desinformación sobre otras áreas de salud. Estudios previos encontraron que el 47% de los videos sobre cáncer de próstata, el 90% de los videos sobre disfunción eréctil y el 52% de los videos sobre el trastorno por déficit de atención contenían datos incorrectos.

El estudio reveló, además, ciertos patrones en la demografía de los creadores de contenido sobre salud mental. Las mujeres son mayoría en estos videos, pero sus publicaciones reciben menos visualizaciones e interacciones en comparación con las de los hombres. Los creadores de contenido identificados como profesionales sanitarios acumulan casi tantas visitas como los no profesionales, a pesar de que sus videos suelen ser más precisos.

Los autores del estudio sugieren que futuras investigaciones deberían explorar cómo los usuarios buscan información sobre salud mental en TikTok, cómo comparten sus experiencias en la plataforma y si existen diferencias en el tratamiento de estos temas entre distintas redes sociales.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es

La cuenta falsa de TikTok que usa IA para difundir desinformación electoral 

Desde el 9 de febrero, día de la primera vuelta electoral en Ecuador, la cuenta de TikTok @ximena.ramrez5454, ha estado difundiendo desinformación. El perfil, identificado como “Ximena Ramírez”, cuenta con 10,9 mil seguidores y más de 110 mil “me gusta”. 

Varias cuentas, el mismo contenido falso

Al menos tres perfiles en TikTok parecen estar vinculados a la misma persona o red de desinformación. La cuenta de Ximena Ramírez sigue a otro perfil llamado Ximena Martínez, que usa la misma imagen de perfil y publica los mismos contenidos. Este segundo perfil—Ximena Martínez— tiene  17 mil seguidores y 134 “me gusta”. 

Además, encontramos una tercera cuenta con la misma fotografía de “Ximena Ramírez”, pero con el nombre de Mena Martínez. 

¿Cómo sabemos que es una cuenta falsa?

No hay evidencia de que “Ximena Ramírez” sea una persona real. En los videos publicados se identificaron varias inconsistencias que indican el uso de inteligencia artificial: 

  • La gesticulación de su boca, que no coincide con el audio. 
  • Cambios abruptos en su tono de voz 
  • Su cabello se mantiene exactamente en la misma posición en todas sus publicaciones. 

Estos indicios sugieren que la cuenta utiliza un avatar generado con inteligencia artificial para simular a una persona real y difundir desinformación.

¿Qué tipo de contenido difunde la cuenta falsa?

La cuenta desinformativa difunde contenido falso sobre temas políticos de Ecuador, El Salvador, Argentina y Estados Unidos. Uno de sus contenidos más virales, con 80 mil visualizaciones, afirma que el presidente Daniel Noboa quiere la pena de muerte para Rafael Correa. 

Esa afirmación es falsa. Ecuador abolió la pena de muerte en 1906 y desde entonces se ha mantenido firme en su rechazo a su reintroducción. Además, la Consulta Popular de 2024 no incluyó la pena de muerte entre sus propuestas, sino el aumento de penas para ciertos delitos, como terrorismo.

No es la primera vez que verificamos a esta cuenta 

En una verificación anterior, desmentimos otra afirmación falsa de  Ximena Ramírez, que asegura que el presidente de El Salvador, Nayib Bukele, envió soldados para combatir la mafia. Lupa Media no encontró evidencia de que Bukele haya tomado esa medida,  ni hay registros  en las cuentas oficiales de Daniel Noboa, la Presidencia ecuatoriana ni las Fuerzas Armadas que confirmen este hecho.

Avatares creados con IA: la nueva táctica para desinformar

El uso de avatares se ha convertido en una estrategia de desinformación cada vez más común en la región. Desde 2023, se han documentado varios casos que utilizan esta tecnología para manipular a la opinión pública. Un ejemplo: el régimen chavista en Venezuela utilizó avatares generados con IA y los presentaba como periodistas. Estos “reporteros” daban informes sobre la economía del país, pero al analizar y estudiarlos, se descubrió que no se trataban de personas reales, sino de avatares digitales creados para difundir información falsa y descontextualizada. 

La proliferación de esta desinformación con inteligencia artificial se ha intensificado, especialmente en el contexto electoral, donde su impacto puede ser aún más perjudicial. Durante la primera vuelta electoral de 2025 en Ecuador, Lupa Media verificó que un 23% del contenido desinformativo viral que circulaba en redes sociales había sido creado o manipulado mediante inteligencia artificial.