Skip to main content

Etiqueta: inteligencia artificial

Lo que dijo la MOE UE sobre desinformación en el proceso electoral

La Misión de Observación Electoral de la Unión Europea (MOE UE) inició su trabajo en Ecuador el 28 de diciembre de 2024. Conformada por 106 observadores desplegados en las 24 provincias, su objetivo fue evaluar todas las etapas del proceso electoral. Además del monitoreo presencial, la misión analizó el contenido circulante en redes sociales para identificar narrativas de campaña vinculadas a la desinformación, la manipulación y el uso de inteligencia artificial.

Con base en ese análisis, la MOE UE elaboró un informe en el que formuló varias recomendaciones para fortalecer futuros procesos electorales. En ese documento, se reconoció la labor de Lupa Media, Ecuador Chequea y AFP Factual como las tres iniciativas de verificación que contribuyeron a contrastar información falsa durante el periodo electoral.

Al igual que Lupa Media , la misión concluyó que las campañas de desinformación se difundieron a través de múltiples plataformas digitales, utilizando cuentas falsas, contenido promocionado, redes automatizadas y suplantación de medios legítimos.

El uso de inteligencia artificial con fines desinformativos fue una de las estrategias más persistentes, especialmente en campañas de difamación.

Aquí te contamos qué observó la misión en torno a la desinformación electoral y cuáles son sus recomendaciones para enfrentarla.

Recomendación 1: Uso de la inteligencia artificial

El uso de inteligencia artificial con fines desinformativos marcó un hito en las elecciones recientes, complicando la distinción entre noticias reales y contenidos manipulados. Según el informe la MOE UE, esta dificultad se debe, en parte, al bajo nivel de familiaridad de la mayoría de los votantes con esta tecnología. Además, el volumen de contenido generado por IA creció conforme avanzaba la campaña.

Estas elecciones fueron las primeras en las que se observó una presencia significativa de piezas políticas creadas con inteligencia artificial. La MOE UE documentó 131 casos en los que esta tecnología fue utilizada para alterar videos, imágenes, textos y audios con fines manipulativos. Cerca del 43% de ese contenido fue difundido por cuentas sospechosas de ser bots o trolls.

Si bien algunos de estos materiales fueron utilizados en clave humorística o satírica, la mayoría buscaba desinformar y desacreditar a los adversarios políticos. Entre los casos detectados, 63 correspondían a videos manipulados, 55 a imágenes alteradas.

  • 27 de los casos observados de IA difundieron simulaban ser reportes de medios confiables.

Frente a este panorama, la MOE UE recomendó reforzar la cooperación entre el Consejo Nacional Electoral (CNE), medios de comunicación, organizaciones de la sociedad civil, academia y plataformas tecnológicas. Propuso desarrollar campañas de concientización enfocadas en la desinformación generada por IA y fomentar la alfabetización mediática y digital, especialmente en contextos electorales.

Recomendación 2: Código de conducta

La MOE UE identificó la presencia de sitios web y cuentas en redes sociales que se hacían pasar por iniciativas de verificación, pero que en realidad difundían contenido engañoso. Según el informe, incluso durante el primer debate presidencial, el entonces candidato y actual presidente Daniel Noboa respaldó públicamente algunas de estas cuentas como fuentes confiables.

Frente a este escenario, la misión recomendó fomentar la adopción de un código de conducta por parte de los partidos políticos, que incluya el compromiso de no producir ni difundir desinformación, contenidos dañinos o publicidad política sin la debida identificación. Esta sugerencia se basa en principios internacionales vinculados a la libertad de expresión, la transparencia y el acceso a la información.

El informe también observó que algunas instituciones públicas utilizaron sus perfiles oficiales para desmentir información falsa. Sin embargo, la MOE UE cuestionó esa práctica, señalando que, en muchos casos, las publicaciones carecían de una metodología clara, contenían datos inexactos o se realizaban desde una postura poco imparcial

La misión enfatizó que este tipo de respuestas no puede considerarse verificación en sentido estricto, ya que no cumple con los principios fundamentales del fact-checking: independencia, apartidismo y transparencia.

Recomendación 3: Transparencias en el gasto de publicidad

La misión internacional advirtió que herramientas como Google Ads (plataforma de publicidad) fueron utilizadas no solo para promocionar candidaturas, sino también para atacar adversarios políticos y difundir desinformación. Sin embargo, la misión no logró rastrear la identidad de los anunciantes ni verificar el origen de los fondos utilizados para este tipo de campañas.

Ante la falta de transparencia, la MOE UE recomendó fortalecer la cooperación entre el Consejo Nacional Electoral (CNE) y las plataformas tecnológicas, con el objetivo de facilitar un monitoreo más riguroso del gasto en publicidad digital durante las campañas. Esta información debería ser accesible y supervisada de forma sistemática por el organismo electoral.

Durante su monitoreo, la misión identificó diversas estrategias utilizadas para amplificar la desinformación en línea:

  • Creación de cuentas nuevas durante el periodo electoral destinadas a difundir mensajes engañosos mediante anuncios pagados.
  • Presencia activa de cuentas de trolls en múltiples plataformas.
  • Perfiles que simulaban ser medios de comunicación para publicar encuestas falsas o contenido de opinión disfrazado de información.
  • Usurpación de la identidad de medios nacionales e internacionales.
  • Páginas de Facebook que patrocinaban publicaciones orientadas a desacreditar a determinados candidatos.

Desinformación a la carta

Durante toda la campaña electoral, Lupa Media verificó 247 contenidos virales, del cual un 74% resultaron ser falsos. El 19,6% de estos eran contenidos manipulados o generados con IA. 

Las narrativas estuvieron centradas en su mayoría en los dos candidatos principales: Daniel Noboa y Luisa González. Además, las temáticas principales que surgieron como fuentes de desinformación fueron:

  • Migración.
  • Narcotráfico.
  • Dolarización.
  • Fraude electoral.

También se identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos con el fin de redirigir a páginas fraudulentas. Así como la creación de noticieros falsos que eran presentados por avatares generados con IA para simular reportajes reales. 

Estados Unidos NO cerrará sus fronteras a partir del 1 de julio

¿Qué verificamos?

Un video viral en redes sociales que afirma que Estados Unidos cerrará «completamente sus fronteras» el 1 de julio de 2025, impidiendo la entrada y salida del país incluso a residentes permanentes.

¿Por qué es completamente falso?

No existe registro de ninguna orden ejecutiva federal que ordene el cierre total de fronteras estadounidenses. Las oficinas de inmigración continúan operando normalmente y no hay evidencia oficial que respalde esta afirmación.

¿Qué dice la evidencia?

  • Búsqueda en fuentes oficiales: Lupa Media revisó el portal de decretos de la Casa Blanca (whitehouse.gov), el Departamento de Seguridad Nacional (dhs.gov) y el Servicio de Ciudadanía e Inmigración (uscis.gov) sin encontrar evidencia de la supuesta orden ejecutiva que ordene el cierre fronterizo total.
  • Políticas migratorias vigentes: En enero de 2025 se pausó por 90 días el Programa de Admisión de Refugiados (USRAP), pero esta medida no afecta el tránsito regular de personas.
  • Restricciones específicas: En junio de 2025, el Departamento de Estado suspendió la emisión de visas para ciudadanos de 19 países, con excepciones para residentes permanentes, diplomáticos y estudiantes.
  • Análisis con herramientas de detección: El video analizado con Hive Moderation mostró 70.9% de probabilidad de ser contenido generado por inteligencia artificial.
  • Operaciones normales: Las oficinas del Servicio de Ciudadanía e Inmigración de los Estados Unidos (USCIS por sus siglas en inglés) USCIS mantienen sus servicios con cita previa, contradictorio a un supuesto cierre total. Estas oficinas procesan: solicitudes de visa, procesos de naturalización, programas humanitarios, entre otros.


Contexto importante 

Este y otros videos se han difundido masivamente a nivel mundial, afectando especialmente a la comunidad latina. Lupa Media ha recibido múltiples solicitudes para verificar este contenido a través de su servicio de verificación a la carta. Otras agencias de verificación en distintos países también han abordado y desmentido este material, como Factchequeado.

Esta desinformación circula en un contexto de cambios recientes en las políticas migratorias de Estados Unidos. No obstante, incluso las medidas más restrictivas adoptadas hasta ahora contemplan excepciones para residentes legales y no implican un cierre total de las fronteras.

Conclusión

COMPLETAMENTE FALSO: No existe evidencia oficial de que Estados Unidos vaya a cerrar completamente sus fronteras el 1 de julio de 2025. El video viral carece de sustento en fuentes gubernamentales verificables y presenta alta probabilidad de ser contenido generado artificialmente.

Este video de un hombre saltando en un charco frente a una reportera no es real: está generado con IA

(Maldita.es).– Circula un vídeo en el que se ve cómo un hombre salta dentro de un bache lleno de agua mientras una reportera advierte del peligro en directo. El momento se difunde como si fuera real y ha generado muchas reacciones en redes sociales. Sin embargo, el vídeo ha sido etiquetado por su autora en TikTok como contenido de “humor” y “generado por IA”, y presenta señales que apuntan a que ha sido creado con esta tecnología.

El vídeo ha sido difundido con mensajes como “La reportera muy seria hablando de los baches… ¡hasta que llegó Don Teófilo a disfrutar del ‘spa’ callejero!”. En la grabación, se puede ver cómo un hombre salta en un charco mientras una reportera alerta en directo sobre el mal estado de la vía.

Sin embargo, la cuenta que lo ha publicado indicó que se trata de un contenido generado con IA, utilizando la etiqueta “Generado por IA” así como los hashtags “#humorlatino” e “#inteligenciaartificial”.

Captura de pantalla Maldita.es

Además, el vídeo muestra algunos signos propios de los contenidos generados con esta tecnología, como imperfecciones en los movimientos, que presentan desdoblamientos y pérdida de nitidez.

Captura de pantalla Maldita.es
Captura de pantalla Maldita.es

También hay indicios de que la voz de la reportera es sintética, ya que presenta monotonía, con un ritmo y entonación poco naturales. En otras publicaciones de la misma cuenta en TikTok, se repite este formato, con vídeos en los que una persona interrumpe un reportaje en directo. Todos ellos están etiquetados como generados con inteligencia artificial.

Por tanto, este vídeo en el que un hombre salta en un bache con agua no muestra una escena real. Ha sido creado con inteligencia artificial y así lo ha etiquetado la cuenta que lo publicó.

El perrito que salta de un avión con un paracaídas NO ES REAL, es creado con IA

¿Qué verificamos?

Un video viral en TikTok, Instagram y otras redes sociales que muestra a un perrito saltando desde un avión militar y activando un paracaídas de forma independiente, sin asistencia humana.

¿Por qué es completamente falso?

El video fue generado con inteligencia artificial, como confirman las herramientas especializadas de detección y el análisis de inconsistencias visuales presentes en las imágenes. 

¿Qué dice la evidencia?

  • Hive Moderation, una plataforma de detección de contenido generado por IA, arrojó que existe más del 95% de probabilidad de que el video sea artificial.
  • El video viral presenta varias inconsistencias visuales como:
    • Doble hocico: En varios fotogramas se observa que el perro presenta dos hocicos simultáneamente.
  • Cambio de color del paracaídas: Inicia siendo verde y posteriormente aparece azul con blanco sin explicación lógica.
  • Apertura del paracaídas: No se muestra el mecanismo por el cual el animal activa el paracaídas.
  • El video original proviene de la cuenta @GodNotDead en TikTok, que publica regularmente contenido sobre oficiales caninos estadounidenses, la mayoría generado con IA sin etiquetarlo como tal. 
@k9_d_f
  • Lupa Media consultó la cuenta oficial del Ejército de Estados Unidos y no encontró registros de entrenamientos de oficiales caninos (K9) con paracaídas sin asistencia humana.
  • Además, no encontramos protocolos militares documentados que permitan a los perros activar paracaídas de forma independiente.
  • Los perros sí pueden practicar paracaidismo, aunque suele ser una actividad vinculada a misiones de búsqueda y rescate. Para ello, requieren entrenamiento especializado, equipo adecuado como arneses y gafas protectoras, y la presencia indispensable de un guía humano.

Contexto importante 

Los videos de animales generados con IA que circulan como contenido auténtico se han multiplicado en redes sociales. Estos contenidos explotan la conexión emocional de las audiencias con los animales para generar engagement y viralización.

Lupa Media ha verificado previamente casos similares, incluyendo supuestos animales afectados por derrames de petróleo y videos de fauna en situaciones extraordinarias.

Aunque existen programas militares reales de paracaidismo con perros, estos siempre requieren asistencia humana especializada y equipos específicos para la seguridad del animal. 

  • Colombia: Los perros son entrenados como paracaidistas para participar en operaciones de búsqueda y rescate, especialmente en zonas de difícil acceso. Ellos realizan saltos, a menudo desde más de 12 mil pies de altura, utilizando el método tándem, en el que un paracaidista lleva al guía canino sujeto a su pecho. Esta actividad incluye un arnés suspendido y exposición a ruidos fuertes (con supervisión veterinaria).
  • Estados Unidos: Durante la Segunda Guerra Mundial, el Ejército estadounidense entrenó perros, principalmente Huskies Siberianos, para saltar en paracaídas desde aviones con el objetivo de ayudar a aviadores derribados en lugares aislados. Cabe recalcar que esta práctica no se implementó en el campo de batalla.
Crédito de la foto: Dos Huskies Siberianos de 100 libras esperan el despegue de un aeródromo canadiense. Un cirujano de vuelo, con equipo de protección y máscara, es responsable de sacarlos del avión (Warfare History)

Conclusión

COMPLETAMENTE FALSO: El video del perrito saltando en paracaídas fue creado con inteligencia artificial. La herramienta especializada que usó Lupa Media confirma más del 95% de probabilidad de contenido artificial, además de presentar múltiples inconsistencias visuales que evidencian su fabricación digital. 

El video viral del canguro en un aeropuerto fue creado con inteligencia artificial

¿Qué verificamos?

Un video viral que muestra una discusión entre dos mujeres en un aeropuerto mientras un canguro sostiene aparentemente un boleto de avión, como si estuviera esperando abordar un vuelo.

¿Por qué es completamente falso?

No se trata de un evento real filmado en un aeropuerto. El video fue creado con inteligencia artificial, como confirman las herramientas de detección especializadas y la cuenta original que lo publicó.

¿Qué dice la evidencia?

  • La búsqueda inversa con Google Lens reveló que el video comenzó a circular el 26 de mayo de 2025. 
  • La herramienta Hive Moderation arrojó 100% de probabilidad de que el video sea generado con inteligencia artificial.
  • El contenido presenta imperfecciones típicas de la IA: un anillo dorado que aparece y desaparece en la mano de una mujer y texto distorsionado en el supuesto boleto del canguro.
  • El video original pertenece a la cuenta de Instagram «Infinite Unreality», especializada en crear contenido con inteligencia artificial, donde fue publicado el 25 de mayo de 2025.

Contexto relevante

Los videos de animales generados con IA que circulan como contenido real se han vuelto cada vez más frecuentes en redes sociales. Lupa Media ha verificado previamente contenido similar, incluyendo animales supuestamente afectados por el derrame de petróleo en Esmeraldas y una anaconda gigante en el Amazonas, todos creados artificialmente.

La sofisticación de las herramientas de IA hace que estos contenidos sean cada vez más realistas, lo que requiere verificación especializada para identificarlos. 

Conclusión

COMPLETAMENTE FALSO: El video viral del canguro en el aeropuerto fue generado con inteligencia artificial. Las herramientas de detección especializadas confirman su origen artificial y la cuenta que lo creó lo etiqueta explícitamente como contenido generado por IA.

Cómo la ciberdelincuencia usa la IA para estafar

(Maldita.es).- Correos fraudulentos casi indistinguibles de los reales, videollamadas falsas con supuestos jefes y currículums manipulados con IA: los timadores están utilizando inteligencia artificial para estafar a empresas. Lo hacen generando contenido hiperrealista que engaña a empleados y permite suplantar identidades. Expertos en ciberseguridad aseguran a Maldita.es que la clave para evitar estos fraudes es formar a los trabajadores y utilizar herramientas de protección tecnológica.

La inteligencia artificial está facilitando nuevas formas de fraude empresarial. Los timadores están empleando esta tecnología para hacer más convincentes sus ataques. Correos de phishing que imitan a proveedores habitualesvideollamadas falsas de supuestos directivos o identidades sintéticas para infiltrarse en procesos de selección son algunas de las estrategias detectadas.

Según Miguel López, director para el Sur de EMEA en la compañía de ciberseguridad Barracuda Networks, hay herramientas de IA que permiten generar correos en varios idiomas sin errores. Antes, los fallos gramaticales servían para detectar timos; ahora, los mensajes pueden parecer escritos por un interlocutor habitual.

Diego León Casas, CEO de la empresa de ciberseguridad Flameera, afirma que estos correos “hiperrealistas” buscan que los empleados revelen información sensible o aprueben transferencias bancarias. Además, indica que ya se están utilizando audios y vídeos generados por IA para suplantar la voz o imagen de directivos. En un caso en Hong Kong, una videollamada falsa logró que un empleado transfiriera más de 27 millones de dólares creyendo que hablaba con el director financiero. La compañía de ciberseguridad ESET alerta de que este tipo de vídeos manipulados se están usando para amplificar el fraude del correo corporativo comprometido (BEC, por sus siglas en inglés)

La IA también permite generar malware. López destaca que estas herramientas son eficaces para desarrollar código y detectar fallos, capacidades que también se están orientando hacia fines delictivos. Aunque muchos modelos de IA tienen filtros éticos, León explica que algunos han sido modificados para eliminar estas restricciones.

Otra técnica detectada es el uso de bots de IA en plataformas como WhatsApp o Telegram. Según Josep Albors, responsable de Investigación y Concienciación de ESET España, estos bots suplantan a reclutadores en grupos de empleo falsos, enviando respuestas automáticas para estafar a posibles víctimas.

La generación de identidades sintéticas es otro método. Desde la empresa Veridas, especializada en identidad digital, explican que los timadores combinan datos reales con imágenes creadas con IA o documentos falsificados para superar controles de verificación. Esto se puede automatizar y ejecutar a gran escala, alertan.

Con documentación falsa, los ciberdelincuentes también pueden suplantar a empleados o proveedores. Empresas de varios países han sido víctimas de supuestos trabajadores norcoreanos que han utilizado IA para falsificar sus currículums y acceder a empleos con fines de espionaje, robo de datos o envío de fondos al Gobierno de Corea del Norte, según advierte ESET.

Para prevenir estos fraudes, León recomienda confirmar cualquier solicitud inusual mediante un canal distinto, implementar la autenticación multifactor y formar al personal, sobre todo en departamentos sensibles. El Instituto Nacional de Ciberseguridad (INCIBE) ofrece recursos gratuitos para ello.

También es esencial contar con un protocolo claro de actuación ante posibles fraudes y utilizar herramientas de detección basadas en inteligencia artificial. López destaca las soluciones XDR (detección y respuesta extendida), que monitorizan toda la red y ayudan a identificar amenazas reales descartando falsos positivos.

Javier Milei no habló de manera despectiva acerca de Daniel Noboa

¿Qué verificamos?

Un contenido viral que muestra supuestamente al presidente argentino Javier Milei supuestamente criticando al presidente ecuatoriano Daniel Noboa durante una entrevista.

¿Por qué es completamente falso?

La entrevista original fue publicada el 1 de abril de 2024 en el canal de YouTube del periodista Andrés Oppenheimer. En ningún momento de los 40 minutos de conversación Milei menciona a Daniel Noboa o a Ecuador. El análisis técnico confirma que el video fue manipulado con inteligencia artificial.

¿Qué dice la evidencia?

  • La búsqueda inversa de imágenes con Google Lens permitió identificar la entrevista original de Javier Milei con Andrés Oppenheimer en el programa «Oppenheimer Presenta» de CNN.
  • En la entrevista original de 40 minutos, Milei habla sobre su gestión inicial como presidente, pero no menciona a Daniel Noboa ni a Ecuador en ningún momento.
  • Durante la entrevista, Milei habla sobre su gestión en los primeros meses de gobierno. 
  • Milei sí hace referencias a otros mandatarios como Nicolás Maduro, Gustavo Petro y Andrés Manuel López Obrador, pero no al presidente ecuatoriano.
  • El análisis realizado con la herramienta DeepFake-o-meter arrojó un 100% de probabilidad de uso de inteligencia artificial en el video.
  • El análisis detectó inconsistencias específicas en la sincronización labial y discrepancias espacio-temporales en la zona de la boca del presidente argentino.
  • La cuenta de TikTok que difundió el contenido falso tiene un historial de publicar desinformación contra Daniel Noboa.
  • La página web que compartió el contenido falso tiene su dirección IP localizada en Colorado, Estados Unidos.

Contexto importante

Esta desinformación circula en el contexto de las elecciones presidenciales del 13 de abril de 2025, donde se enfrentan el actual presidente Daniel Noboa y la candidata de la Revolución Ciudadana, Luisa González. La primera vuelta fue extremadamente reñida, con una diferencia de apenas 0.17% entre ambos candidatos, lo que ha intensificado la campaña de desinformación en redes sociales.

Conclusión

COMPLETAMENTE FALSO: Javier Milei no realizó declaraciones despectivas sobre Daniel Noboa. El video viral es una manipulación creada con inteligencia artificial. La entrevista original con Andrés Oppenheimer, publicada el 1 de abril de 2024, no contiene ninguna mención a Noboa ni a Ecuador. Análisis técnicos confirman la manipulación digital del contenido.

Desinformación a la carta: así se manipuló la campaña electoral en Ecuador

Descarga nuestro informe detallado aquí

Desinformación con estrategia y objetivos claros

Durante la campaañ electoral, verificamos 247 contenidos virales. El 74% resultó ser falso. Las narrativas más recurrentes apuntaron a los dos principales candidatos: Daniel Noboa y Luisa González, quienes concentraron el 38% y el 34% del contenido desinformativo respectivamente. También se detectaron ataques al Consejo Nacional Electoral y al proceso electoral en sí.

Uno de cada cinco contenidos falsos o manipulados incluyó elementos creados con inteligencia artificial. Además, el 47,7% de las verificaciones provinieron de solicitudes ciudadanas a través del servicio #VerificaciónAlaCarta, lo que demuestra una creciente preocupación del electorado ante la circulación de información dudosa.

Narrativas diseñadas para dividir y manipular

La campaña de desinformación se articuló en torno a varios tópicos:

  • Migración: Se difundieron mensajes falsos que vinculaban a personas migrantes, sobre todo venezolanas, con criminalidad, fraude electoral y beneficios económicos inexistentes. Estos contenidos apelaban al miedo y a la xenofobia, y aparecieron, en su mayoría, como publicidad pagada.
  • Dolarización: Se diseminó contenido alarmista que sugería que Ecuador abandonaría el dólar si ganaba determinado candidato. En muchos casos, se usaron fragmentos de entrevistas editadas para dar la impresión de que los candidatos apoyaban la desdolarización.
  • Fraude electoral: Desde antes de la jornada electoral hasta después de conocerse los resultados, se difundieron imágenes falsas de actas, videos fuera de contexto y teorías conspirativas para generar desconfianza en el sistema electoral.

Suplantación de identidad como estrategia de manipulación


El 42% del contenido desinformativo analizado usurpó logotipos, estilos y material de medios de comunicación, instituciones públicas o figuras reconocidas para hacer pasar contenidos falsos como auténticos. Lupa Media también identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos, con el objetivo de redirigir a los usuarios a páginas fraudulentas. Estas páginas solicitaban datos personales o pagos, aprovechando temas de campaña como gancho.

Impacto visual: el poder de las imágenes y la inteligencia artificial


El 83% del contenido desinformativo circuló en formatos visuales, como imágenes y videos. Estos contenidos a menudo contenían titulares llamativos y emotivos, diseñados para captar la atención del público. Tras el debate de la segunda vuelta presidencial, Lupa Media detectó siete piezas de desinformación basadas en deepfakes, que simulaban reportes de medios internacionales como France24, RTVE, Noticias Caracol, N+Foro y Canal 24, entre otros. Las manipulaciones visuales incluían la sincronización de labios, alteración de barras informativas y la inserción de gráficas falsas.

Una de las víctimas más afectadas por esta estrategia fue Daniel Noboa, quien fue blanco de videos manipulados. También se detectaron ataques similares contra Luisa González, con declaraciones falsas atribuidas a ella. Algunos de estos videos fueron tan convincentes que incluso periodistas y figuras políticas los compartieron como reales. En total, Lupa Media desmintió cinco veces uno de estos videos debido a su viralidad.

@lupamedia 🔍 #FactCheckElectoral | 🚨 Un video manipulado con inteligencia artificial de una entrevista de Luisa González en Teleamazonas (2023) ha vuelto a circular como si fuera real. 🤨¿Lo dijo realmente? No. Luisa González nunca afirmó que se crearía una moneda paralela al dólar. Aquí te dejamos la evidencia y te explicamos todo sobre esta narrativa en nuestra verificación en lupa.com.ec (link en bio) #luisagonzalez #elecciones2025 #ecuador #dolarizacion #noticias #fyp #viral ♬ sonido original – Lupa Media

Noticieros falsos y avatares generados por inteligencia artificial


Lupa Media también identificó la creación de noticieros completamente falsos, presentados por avatares generados con inteligencia artificial para simular reportajes reales. Estas piezas de desinformación tenían un alto nivel de sofisticación, lo que dificultó su detección para muchos usuarios.

@lupamedia 🔍#FactCheckLupa | 🔴 Un contenido viral utiliza fraudulentamente la identidad del medio colombiano NTN24 para difundir información falsa sobre la participación del presidente ecuatoriano en la ceremonia de investidura del presidente Donald Trump. Te contamos la evidencia #danielnoboa #eleccionesecuador2025 #fyp #viral ♬ sonido original – Lupa Media

Plataformas digitales sin control y publicidad pagada

La desinformación circuló principalmente en redes sociales como X (antes Twitter), TikTok, Facebook, Instagram y WhatsApp, pero su propagación no fue aleatoria. Lupa Media identificó campañas dirigidas, muchas de ellas pagadas, que aprovecharon la escasa regulación de la publicidad digital electoral en Ecuador y el debilitamiento de las políticas de moderación de contenido de las plataformas digitales.

Se detectó la participación de al menos dos empresas extranjeras —IMS Internet Media Services y Global Mind USA LLC— que difundieron contenido desinformativo a través de productos de Google. En el caso de IMS, las campañas estuvieron dirigidas a desacreditar a Luisa González en la primera vuelta, y también al binomio Noboa-Pinto en la segunda. Global Mind, por su parte, pautó más de 300 anuncios contra Noboa. Estos contenidos combinaban datos ciertos con elementos claramente manipulados y falsos.

La página de Facebook “Hablando Claro”, creada en octubre de 2024, lo evidencia. Con administradores en México y Ecuador, empleó logos falsos de medios reconocidos y un lenguaje pseudo-periodístico para dar apariencia de legitimidad a contenidos abiertamente falsos. Todo su contenido promocionado fue desinformación.

Voces influyentes como amplificadores

Otro fenómeno preocupante fue la participación activa de figuras públicas y periodistas con amplio alcance en redes sociales. Estas cuentas, muchas veces asociadas a intereses políticos, compartieron contenido falso o manipulado, incluidas piezas generadas con IA. El expresidente Rafael Correa, por ejemplo, difundió varios de estos contenidos desde su cuenta de X, con más de 4 millones de seguidores, amplificando su alcance de forma masiva.

Asimismo, se identificó una red de portales web y perfiles en redes sociales que simulan ser medios de comunicación. Estos espacios adoptan los códigos visuales y narrativos del periodismo tradicional para ganar legitimidad, pero en realidad funcionan como plataformas de propaganda partidista.

67 afirmaciones bajo la lupa: ¿Qué tan precisos fueron los discursos electorales?

Además del monitoreo de contenido viral, Lupa Media verificó 67 afirmaciones públicas de los candidatos finalistas. Durante toda la campaña electoral, monitoreamos diariamente las entrevistas, las redes sociales oficiales de los candidatos y otros contenidos relevantes vinculados al proceso electoral. También se realizó un análisis detallado del debate presidencial.

Las frases seleccionadas para verificación contenían afirmaciones concretas sobre hechos, datos o cifras que podían ser contrastadas con fuentes oficiales, estudios académicos, reportes de organismos especializados o registros históricos. Quedaron fuera del análisis las opiniones, interpretaciones subjetivas y declaraciones sin sustento verifica

El 53,7% fue clasificado entre impreciso y falso. Mientras que el 40,3% fue considerado cierto o parcialmente cierto. En el caso del presidente-candidato Noboa, un 6% de sus afirmaciones no pudo ser verificado por falta de evidencia confiable.

Las temáticas económicas, de seguridad y energía dominaron las declaraciones verificadas de Noboa, mientras que González centró sus afirmaciones principalmente en seguridad y economía.

Una reflexión: el desafío de la IA en campañas electorales

La experiencia de la campaña de 2025 dejó en evidencia una tormenta perfecta: herramientas de inteligencia artificial sin regulación, plataformas digitales sin filtros eficaces y una ciudadanía expuesta a una sobrecarga de información muchas veces engañosa. Hoy, la verdad compite en condiciones de desventaja frente a mensajes diseñados para viralizarse.

Urge un debate serio sobre la responsabilidad de las plataformas, la transparencia de los algoritmos y la regulación del uso de la IA en procesos democráticos. De lo contrario, el juego político seguirá condicionado por campañas que no buscan informar, sino manipular.

En un contexto donde los desinformadores actúan con libertad y presupuesto, mientras los verificadores enfrentamos limitaciones y ataques, proteger el derecho a una información veraz y contrastada se convierte en una prioridad para la salud de la democracia.

La sed de la inteligencia artificial: ¿cuántos litros de agua consume y cómo afecta al ambiente?

Es difícil comprender el impacto ambiental de tecnologías como la inteligencia artificial (IA). Pero la verdad es que detrás de la fabricación, instalación, entrenamiento, mantenimiento e incluso su uso, la IA tiene un efecto significativo en las fuentes de agua y en la emisión de carbono debido al alto consumo de energía.

Una botella de agua por cada 100 palabras de ChatGPT

Los centros de datos que albergan servidores de IA producen desechos de equipos eléctricos y electrónicos. Pero, no solo eso, además, consumen grandes cantidades de agua, que cada vez escasea en muchos lugares, según el Programa de las Naciones Unidas para el Medio Ambiente (UNEP). 

Los servidores de IA generan mucho calor al realizar los miles de cálculos necesarios para cada respuesta. Para evitar el sobrecalentamiento utilizan torres de refrigeración o aire exterior, que requieren una cantidad considerable de agua. La huella hídrica de la IA, que significa que es la cantidad de agua dulce que se utiliza para crear los modelos de esta tecnología, varía según su lugar de entrenamiento y alojamiento de esta tecnología. 

Por ejemplo, la IA consume entre 1,8 y 12 litros de agua por cada kWh de consumo energético. Según la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés), la demanda mundial de IA puede incluso requerir de 4,2 a 6,6 mil millones de metros cúbicos de extracción de agua en 2027.

Agua utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 519 mililitros de agua, un poco más de 1 botella.
  • Una vez por semana durante un año: 27 litros aproximadamente

Consumo de agua en diferentes modelos de IA

Modelos como Grok, consume entre 10 y 50 mililitros de agua, para responder una respuesta. Google reportó un aumento del 20% en el consumo de agua de sus centros de datos en 2022, y Microsoft (que soporta a OpenAI) un 34%, lo que sugiere que los modelos más grandes o con mayor uso tienen una huella hídrica mayor por consulta.

La energía que demanda la IA

Pero los centros de datos de IA requieren más que agua: energía. Mucha que proviene de la quema de combustibles fósiles, lo que produce gases de efecto invernadero que calientan el planeta. Una pregunta realizada con ChatGPT consume 10 veces la electricidad de una búsqueda de Google, informó la Agencia Internacional de la Energía (AIE).

Energía utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora.
  • Una vez por semana durante un año: 7,5 kWh, equivalente a la electricidad consumida por 9,3 hogares de Washington, DC durante 1 hora.

Según un artículo del periódico The Washington Post, en zonas donde se encuentran los centros de datos de la IA y la energía es más barata o el agua escasea, se suele usar electricidad para enfriar las computadoras mediante grandes unidades similares a los aires acondicionados. La fórmula es la misma: se consume grandes cantidades de agua o se gasta energía.

Preocupación en zonas que albergan centros de datos

El gigante tecnológico Google anunció en septiembre de 2024 que reformulará su proyecto de 200 millones de dólares para construir un centro de datos en la comuna periférica Cerrillos, en Santiago de Chile, tras las preocupaciones por su impacto ambiental. La decisión ocurre después de que un tribunal ambiental chileno alertó sobre impactos al medioambiente y determinó que el proyecto necesitaría al menos 7,6 millones de litros de agua al día para refrigerar los servidores. Una cantidad desproporcionada, especialmente en un contexto de sequía que ha afectado a Santiago durante los últimos 15 años.

Este caso refleja un desafío global: ¿cómo equilibrar el crecimiento de la inteligencia artificial con la sostenibilidad ambiental? La respuesta a esta pregunta será clave en los próximos años.

El audio falso de Jan Topic diciendo que apoyará a Luisa González

¿Qué verificamos?

Circula un contenido viral en el que se escucha al excandidato presidencial Jan Topic afirmando que apoyará a la candidata Luisa González.

¿Por qué es completamente falso?

No hay evidencia que el audio sea real ni de que la voz pertenezca a Jan Topic. Análisis de detección de audio revelan una alta probabilidad de que la voz que se escucha fue creada con inteligencia artificial. 

¿Qué dice la evidencia?

  • No existe evidencia ni registro de que Jan Topic anunciara su apoyo a favor de la candidata por la Revolución Ciudadana, Luisa González. 
  • Usamos la herramienta DeepFake-O-Meter para analizar el audio viral. La plataforma arrojó que existe una probabilidad de entre el 99,6% al 100% de que el contenido fue generado con inteligencia artificial.
  • El análisis de la plataforma está basado en un aprendizaje profundo para la detección de audios creados con IA. Los detectores permiten identificar audios y posibles suplantaciones de voz. 
  • Otro análisis hecho con la plataforma Resemble.Ai, que permite, al igual que la otra herramienta, identificar contenidos de audio creados con inteligencia artificial. Determino inconsistencias en el inconsistencias en el timbre y tono de voz, la entonación, ritmos, pausas, ausencia de respiraciones, entre otros aspectos más que hacen concluir que «basado en el perfil acústico y la comparación forense de voz, se determinó que el archivo de audio analizado fue generado completamente mediante inteligencia artificial».
  • El equipo de Topic remitió a Lupa Media dos análisis hechos al audio que también concluyen una alta probabilidad de haber sido creado con IA.

Contexto importante

Jan Topic fue descalificado por el Tribunal Contencioso Electoral (TCE) como candidato presidencial para las elecciones de 2025 debido a conflictos de interés relacionados con sus vínculos empresariales con el Estado. Aunque Topic recurrió a la Corte Constitucional para revertir la decisión, su solicitud no fue admitida, lo que confirmó su imposibilidad de participar en los comicios de 2025.

El contenido desinformativo se da en medio de la contienda electoral donde Daniel Noboa y Luisa González disputan la presidencia del país. El próximo 13 de abril los ecuatorianos decidirán quién se convertirá en la figura política más importante de Ecuador. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia que el audio viral sea real y que la voz pertenezca a Jan Topic. Análisis de detección de audio demuestran que el contenido viral fue creado con inteligencia artificial.