Skip to main content

Etiqueta: inteligencia artificial

Javier Milei no habló de manera despectiva acerca de Daniel Noboa

¿Qué verificamos?

Un contenido viral que muestra supuestamente al presidente argentino Javier Milei supuestamente criticando al presidente ecuatoriano Daniel Noboa durante una entrevista.

¿Por qué es completamente falso?

La entrevista original fue publicada el 1 de abril de 2024 en el canal de YouTube del periodista Andrés Oppenheimer. En ningún momento de los 40 minutos de conversación Milei menciona a Daniel Noboa o a Ecuador. El análisis técnico confirma que el video fue manipulado con inteligencia artificial.

¿Qué dice la evidencia?

  • La búsqueda inversa de imágenes con Google Lens permitió identificar la entrevista original de Javier Milei con Andrés Oppenheimer en el programa «Oppenheimer Presenta» de CNN.
  • En la entrevista original de 40 minutos, Milei habla sobre su gestión inicial como presidente, pero no menciona a Daniel Noboa ni a Ecuador en ningún momento.
  • Durante la entrevista, Milei habla sobre su gestión en los primeros meses de gobierno. 
  • Milei sí hace referencias a otros mandatarios como Nicolás Maduro, Gustavo Petro y Andrés Manuel López Obrador, pero no al presidente ecuatoriano.
  • El análisis realizado con la herramienta DeepFake-o-meter arrojó un 100% de probabilidad de uso de inteligencia artificial en el video.
  • El análisis detectó inconsistencias específicas en la sincronización labial y discrepancias espacio-temporales en la zona de la boca del presidente argentino.
  • La cuenta de TikTok que difundió el contenido falso tiene un historial de publicar desinformación contra Daniel Noboa.
  • La página web que compartió el contenido falso tiene su dirección IP localizada en Colorado, Estados Unidos.

Contexto importante

Esta desinformación circula en el contexto de las elecciones presidenciales del 13 de abril de 2025, donde se enfrentan el actual presidente Daniel Noboa y la candidata de la Revolución Ciudadana, Luisa González. La primera vuelta fue extremadamente reñida, con una diferencia de apenas 0.17% entre ambos candidatos, lo que ha intensificado la campaña de desinformación en redes sociales.

Conclusión

COMPLETAMENTE FALSO: Javier Milei no realizó declaraciones despectivas sobre Daniel Noboa. El video viral es una manipulación creada con inteligencia artificial. La entrevista original con Andrés Oppenheimer, publicada el 1 de abril de 2024, no contiene ninguna mención a Noboa ni a Ecuador. Análisis técnicos confirman la manipulación digital del contenido.

Desinformación a la carta: así se manipuló la campaña electoral en Ecuador

Descarga nuestro informe detallado aquí

Desinformación con estrategia y objetivos claros

Durante la campaañ electoral, verificamos 247 contenidos virales. El 74% resultó ser falso. Las narrativas más recurrentes apuntaron a los dos principales candidatos: Daniel Noboa y Luisa González, quienes concentraron el 38% y el 34% del contenido desinformativo respectivamente. También se detectaron ataques al Consejo Nacional Electoral y al proceso electoral en sí.

Uno de cada cinco contenidos falsos o manipulados incluyó elementos creados con inteligencia artificial. Además, el 47,7% de las verificaciones provinieron de solicitudes ciudadanas a través del servicio #VerificaciónAlaCarta, lo que demuestra una creciente preocupación del electorado ante la circulación de información dudosa.

Narrativas diseñadas para dividir y manipular

La campaña de desinformación se articuló en torno a varios tópicos:

  • Migración: Se difundieron mensajes falsos que vinculaban a personas migrantes, sobre todo venezolanas, con criminalidad, fraude electoral y beneficios económicos inexistentes. Estos contenidos apelaban al miedo y a la xenofobia, y aparecieron, en su mayoría, como publicidad pagada.
  • Dolarización: Se diseminó contenido alarmista que sugería que Ecuador abandonaría el dólar si ganaba determinado candidato. En muchos casos, se usaron fragmentos de entrevistas editadas para dar la impresión de que los candidatos apoyaban la desdolarización.
  • Fraude electoral: Desde antes de la jornada electoral hasta después de conocerse los resultados, se difundieron imágenes falsas de actas, videos fuera de contexto y teorías conspirativas para generar desconfianza en el sistema electoral.

Suplantación de identidad como estrategia de manipulación


El 42% del contenido desinformativo analizado usurpó logotipos, estilos y material de medios de comunicación, instituciones públicas o figuras reconocidas para hacer pasar contenidos falsos como auténticos. Lupa Media también identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos, con el objetivo de redirigir a los usuarios a páginas fraudulentas. Estas páginas solicitaban datos personales o pagos, aprovechando temas de campaña como gancho.

Impacto visual: el poder de las imágenes y la inteligencia artificial


El 83% del contenido desinformativo circuló en formatos visuales, como imágenes y videos. Estos contenidos a menudo contenían titulares llamativos y emotivos, diseñados para captar la atención del público. Tras el debate de la segunda vuelta presidencial, Lupa Media detectó siete piezas de desinformación basadas en deepfakes, que simulaban reportes de medios internacionales como France24, RTVE, Noticias Caracol, N+Foro y Canal 24, entre otros. Las manipulaciones visuales incluían la sincronización de labios, alteración de barras informativas y la inserción de gráficas falsas.

Una de las víctimas más afectadas por esta estrategia fue Daniel Noboa, quien fue blanco de videos manipulados. También se detectaron ataques similares contra Luisa González, con declaraciones falsas atribuidas a ella. Algunos de estos videos fueron tan convincentes que incluso periodistas y figuras políticas los compartieron como reales. En total, Lupa Media desmintió cinco veces uno de estos videos debido a su viralidad.

@lupamedia 🔍 #FactCheckElectoral | 🚨 Un video manipulado con inteligencia artificial de una entrevista de Luisa González en Teleamazonas (2023) ha vuelto a circular como si fuera real. 🤨¿Lo dijo realmente? No. Luisa González nunca afirmó que se crearía una moneda paralela al dólar. Aquí te dejamos la evidencia y te explicamos todo sobre esta narrativa en nuestra verificación en lupa.com.ec (link en bio) #luisagonzalez #elecciones2025 #ecuador #dolarizacion #noticias #fyp #viral ♬ sonido original – Lupa Media

Noticieros falsos y avatares generados por inteligencia artificial


Lupa Media también identificó la creación de noticieros completamente falsos, presentados por avatares generados con inteligencia artificial para simular reportajes reales. Estas piezas de desinformación tenían un alto nivel de sofisticación, lo que dificultó su detección para muchos usuarios.

@lupamedia 🔍#FactCheckLupa | 🔴 Un contenido viral utiliza fraudulentamente la identidad del medio colombiano NTN24 para difundir información falsa sobre la participación del presidente ecuatoriano en la ceremonia de investidura del presidente Donald Trump. Te contamos la evidencia #danielnoboa #eleccionesecuador2025 #fyp #viral ♬ sonido original – Lupa Media

Plataformas digitales sin control y publicidad pagada

La desinformación circuló principalmente en redes sociales como X (antes Twitter), TikTok, Facebook, Instagram y WhatsApp, pero su propagación no fue aleatoria. Lupa Media identificó campañas dirigidas, muchas de ellas pagadas, que aprovecharon la escasa regulación de la publicidad digital electoral en Ecuador y el debilitamiento de las políticas de moderación de contenido de las plataformas digitales.

Se detectó la participación de al menos dos empresas extranjeras —IMS Internet Media Services y Global Mind USA LLC— que difundieron contenido desinformativo a través de productos de Google. En el caso de IMS, las campañas estuvieron dirigidas a desacreditar a Luisa González en la primera vuelta, y también al binomio Noboa-Pinto en la segunda. Global Mind, por su parte, pautó más de 300 anuncios contra Noboa. Estos contenidos combinaban datos ciertos con elementos claramente manipulados y falsos.

La página de Facebook “Hablando Claro”, creada en octubre de 2024, lo evidencia. Con administradores en México y Ecuador, empleó logos falsos de medios reconocidos y un lenguaje pseudo-periodístico para dar apariencia de legitimidad a contenidos abiertamente falsos. Todo su contenido promocionado fue desinformación.

Voces influyentes como amplificadores

Otro fenómeno preocupante fue la participación activa de figuras públicas y periodistas con amplio alcance en redes sociales. Estas cuentas, muchas veces asociadas a intereses políticos, compartieron contenido falso o manipulado, incluidas piezas generadas con IA. El expresidente Rafael Correa, por ejemplo, difundió varios de estos contenidos desde su cuenta de X, con más de 4 millones de seguidores, amplificando su alcance de forma masiva.

Asimismo, se identificó una red de portales web y perfiles en redes sociales que simulan ser medios de comunicación. Estos espacios adoptan los códigos visuales y narrativos del periodismo tradicional para ganar legitimidad, pero en realidad funcionan como plataformas de propaganda partidista.

67 afirmaciones bajo la lupa: ¿Qué tan precisos fueron los discursos electorales?

Además del monitoreo de contenido viral, Lupa Media verificó 67 afirmaciones públicas de los candidatos finalistas. Durante toda la campaña electoral, monitoreamos diariamente las entrevistas, las redes sociales oficiales de los candidatos y otros contenidos relevantes vinculados al proceso electoral. También se realizó un análisis detallado del debate presidencial.

Las frases seleccionadas para verificación contenían afirmaciones concretas sobre hechos, datos o cifras que podían ser contrastadas con fuentes oficiales, estudios académicos, reportes de organismos especializados o registros históricos. Quedaron fuera del análisis las opiniones, interpretaciones subjetivas y declaraciones sin sustento verifica

El 53,7% fue clasificado entre impreciso y falso. Mientras que el 40,3% fue considerado cierto o parcialmente cierto. En el caso del presidente-candidato Noboa, un 6% de sus afirmaciones no pudo ser verificado por falta de evidencia confiable.

Las temáticas económicas, de seguridad y energía dominaron las declaraciones verificadas de Noboa, mientras que González centró sus afirmaciones principalmente en seguridad y economía.

Una reflexión: el desafío de la IA en campañas electorales

La experiencia de la campaña de 2025 dejó en evidencia una tormenta perfecta: herramientas de inteligencia artificial sin regulación, plataformas digitales sin filtros eficaces y una ciudadanía expuesta a una sobrecarga de información muchas veces engañosa. Hoy, la verdad compite en condiciones de desventaja frente a mensajes diseñados para viralizarse.

Urge un debate serio sobre la responsabilidad de las plataformas, la transparencia de los algoritmos y la regulación del uso de la IA en procesos democráticos. De lo contrario, el juego político seguirá condicionado por campañas que no buscan informar, sino manipular.

En un contexto donde los desinformadores actúan con libertad y presupuesto, mientras los verificadores enfrentamos limitaciones y ataques, proteger el derecho a una información veraz y contrastada se convierte en una prioridad para la salud de la democracia.

La sed de la inteligencia artificial: ¿cuántos litros de agua consume y cómo afecta al ambiente?

Es difícil comprender el impacto ambiental de tecnologías como la inteligencia artificial (IA). Pero la verdad es que detrás de la fabricación, instalación, entrenamiento, mantenimiento e incluso su uso, la IA tiene un efecto significativo en las fuentes de agua y en la emisión de carbono debido al alto consumo de energía.

Una botella de agua por cada 100 palabras de ChatGPT

Los centros de datos que albergan servidores de IA producen desechos de equipos eléctricos y electrónicos. Pero, no solo eso, además, consumen grandes cantidades de agua, que cada vez escasea en muchos lugares, según el Programa de las Naciones Unidas para el Medio Ambiente (UNEP). 

Los servidores de IA generan mucho calor al realizar los miles de cálculos necesarios para cada respuesta. Para evitar el sobrecalentamiento utilizan torres de refrigeración o aire exterior, que requieren una cantidad considerable de agua. La huella hídrica de la IA, que significa que es la cantidad de agua dulce que se utiliza para crear los modelos de esta tecnología, varía según su lugar de entrenamiento y alojamiento de esta tecnología. 

Por ejemplo, la IA consume entre 1,8 y 12 litros de agua por cada kWh de consumo energético. Según la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés), la demanda mundial de IA puede incluso requerir de 4,2 a 6,6 mil millones de metros cúbicos de extracción de agua en 2027.

Agua utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 519 mililitros de agua, un poco más de 1 botella.
  • Una vez por semana durante un año: 27 litros aproximadamente

Consumo de agua en diferentes modelos de IA

Modelos como Grok, consume entre 10 y 50 mililitros de agua, para responder una respuesta. Google reportó un aumento del 20% en el consumo de agua de sus centros de datos en 2022, y Microsoft (que soporta a OpenAI) un 34%, lo que sugiere que los modelos más grandes o con mayor uso tienen una huella hídrica mayor por consulta.

La energía que demanda la IA

Pero los centros de datos de IA requieren más que agua: energía. Mucha que proviene de la quema de combustibles fósiles, lo que produce gases de efecto invernadero que calientan el planeta. Una pregunta realizada con ChatGPT consume 10 veces la electricidad de una búsqueda de Google, informó la Agencia Internacional de la Energía (AIE).

Energía utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora.
  • Una vez por semana durante un año: 7,5 kWh, equivalente a la electricidad consumida por 9,3 hogares de Washington, DC durante 1 hora.

Según un artículo del periódico The Washington Post, en zonas donde se encuentran los centros de datos de la IA y la energía es más barata o el agua escasea, se suele usar electricidad para enfriar las computadoras mediante grandes unidades similares a los aires acondicionados. La fórmula es la misma: se consume grandes cantidades de agua o se gasta energía.

Preocupación en zonas que albergan centros de datos

El gigante tecnológico Google anunció en septiembre de 2024 que reformulará su proyecto de 200 millones de dólares para construir un centro de datos en la comuna periférica Cerrillos, en Santiago de Chile, tras las preocupaciones por su impacto ambiental. La decisión ocurre después de que un tribunal ambiental chileno alertó sobre impactos al medioambiente y determinó que el proyecto necesitaría al menos 7,6 millones de litros de agua al día para refrigerar los servidores. Una cantidad desproporcionada, especialmente en un contexto de sequía que ha afectado a Santiago durante los últimos 15 años.

Este caso refleja un desafío global: ¿cómo equilibrar el crecimiento de la inteligencia artificial con la sostenibilidad ambiental? La respuesta a esta pregunta será clave en los próximos años.

El audio falso de Jan Topic diciendo que apoyará a Luisa González

¿Qué verificamos?

Circula un contenido viral en el que se escucha al excandidato presidencial Jan Topic afirmando que apoyará a la candidata Luisa González.

¿Por qué es completamente falso?

No hay evidencia que el audio sea real ni de que la voz pertenezca a Jan Topic. Análisis de detección de audio revelan una alta probabilidad de que la voz que se escucha fue creada con inteligencia artificial. 

¿Qué dice la evidencia?

  • No existe evidencia ni registro de que Jan Topic anunciara su apoyo a favor de la candidata por la Revolución Ciudadana, Luisa González. 
  • Usamos la herramienta DeepFake-O-Meter para analizar el audio viral. La plataforma arrojó que existe una probabilidad de entre el 99,6% al 100% de que el contenido fue generado con inteligencia artificial.
  • El análisis de la plataforma está basado en un aprendizaje profundo para la detección de audios creados con IA. Los detectores permiten identificar audios y posibles suplantaciones de voz. 
  • Otro análisis hecho con la plataforma Resemble.Ai, que permite, al igual que la otra herramienta, identificar contenidos de audio creados con inteligencia artificial. Determino inconsistencias en el inconsistencias en el timbre y tono de voz, la entonación, ritmos, pausas, ausencia de respiraciones, entre otros aspectos más que hacen concluir que «basado en el perfil acústico y la comparación forense de voz, se determinó que el archivo de audio analizado fue generado completamente mediante inteligencia artificial».
  • El equipo de Topic remitió a Lupa Media dos análisis hechos al audio que también concluyen una alta probabilidad de haber sido creado con IA.

Contexto importante

Jan Topic fue descalificado por el Tribunal Contencioso Electoral (TCE) como candidato presidencial para las elecciones de 2025 debido a conflictos de interés relacionados con sus vínculos empresariales con el Estado. Aunque Topic recurrió a la Corte Constitucional para revertir la decisión, su solicitud no fue admitida, lo que confirmó su imposibilidad de participar en los comicios de 2025.

El contenido desinformativo se da en medio de la contienda electoral donde Daniel Noboa y Luisa González disputan la presidencia del país. El próximo 13 de abril los ecuatorianos decidirán quién se convertirá en la figura política más importante de Ecuador. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia que el audio viral sea real y que la voz pertenezca a Jan Topic. Análisis de detección de audio demuestran que el contenido viral fue creado con inteligencia artificial. 


Desinformación promueve falsa plataforma de inversión atribuida a Daniel e Isabel Noboa

¿Qué verificamos?

Un contenido viral muestra un supuesto reportaje de Ecuavisa que invita a invertir dinero en «la nueva plataforma financiera de Isabel Noboa Pontón».

¿Por qué es completamente falso?

El reportaje fue creado con inteligencia artificial y manipula la voz del periodista y presentador Juan Carlos Aizprúa. Además, el contenido desinformativo edita y altera una entrevista del presidente Noboa de 2023 y una conferencia de Isabel Noboa de 2018. No hay evidencia de que Isabel Noboa haya lanzado una nueva plataforma financiera.

¿Qué dice la evidencia?

  • Al realizar una búsqueda inversa de imágenes con Google Lens, Lupa Media encontró las fuentes de los videos originales, que fueron manipulados para el contenido viral. 
  • El contenido manipulado muestra al presentador de noticias en Ecuavisa, Juan Carlos Aizprúa presentando el falso reportaje. Su voz es alterada para decir que la supuesta plataforma financiera de Isabel Noboa permite ganar más de USD 30.000 al mes.
  • La gesticulación de la boca de Aizprúa no coincide con las palabras que supuestamente menciona.
  • No hay evidencia o registro de ese reportaje en los medios oficiales de Ecuavisa.
  • Las claquetas utilizadas para el contenido falso no coinciden con las reales que emplea el medio.
  • Al igual que en el caso con el presentador, la gesticulación de la boca de Daniel Noboa en el video describiendo los supuestos beneficios de la plataforma financiera, no coincide con lo que dice y usa un acento que parece ser argentino, muy diferente a la voz real de Noboa.
  • La búsqueda inversa permitió identificar la entrevista real de Daniel Noboa, realizada en Ecuavisa, el pasado 16 de agosto de 2023.
  • La entrevista de Daniel Noboa ocurrió a vísperas de la primera vuelta de las elecciones anticipadas de 2023. Habló de propuestas y temas primordiales para su gestión en el caso de ganar la presidencia. 
  • En ningún momento menciona una plataforma financiera de inversión o incluso a su tía Isabel Noboa.
  • Las imagenes de Isabel Noboa que se ven en el video corresponden a una conferencia original fue publicada por “The Council” el 19 de junio de 2020 bajo el nombre de “CEO to CEO Summit 2018 – Isabel Noboa de Loor”. Noboa habla sobre su recorrido como empresaria y la importancia del liderazgo. Nunca menciona una plataforma financiera ni tampoco pide invertir.
  • El contenido viral también manipula la placa de la conferencia de Isabel Noboa. En realidad dice “THE COUNCIL RAISE THE BAR”, mientras que el contenido falso coloca la frase “PLATAFORMA FINANCIERA GARANTÍA 2025”.
  • “The Council” es un consejo, que promueve el crecimiento empresarial y personal de Presidentes, Gerentes Generales y Directivos. Entre sus eventos se encuentra el “CEO to CEO Summit”, que reúne a varios CEO internacionales para compartir experiencias empresariales.
  • La página de Facebook que comparte el contenido falso tiene como en su descripción que es un “partido político”, cuya creación fue en mayo de 2023 y está localizado en Tailandia.
  • Sin embargo, el origen del dominio de la página de Facebook que comparte el anuncio aparece localizado en Minnesota, Estados Unidos. 

Contexto importante

Isabel Noboa Pontón, tía del actual presidente ecuatoriano Daniel Noboa, es la directora ejecutiva del Consorcio Nobis en Ecuador, desde su fundación en 1997. Este conglomerado de empresas trabaja en áreas como la agroindustria, el sector inmobiliario, industrial, comercial, turístico, hotelero, entre otros. 

Esta desinformación ocurre en el contexto de las próximas elecciones presidenciales del 13 de abril de 2025. Una contienda en la que se enfrentan el actual presidente Daniel Noboa y la representante de la Revolución Ciudadana, Luisa González. Luego de una reñida primera vuelta en la que solo hubo una diferencia de 0.17% de los votos entre ambos presidenciables. 

Conclusión

COMPLETAMENTE FALSO: El supuesto reportaje de Ecuavisa, que promueve una nueva plataforma financiera de Isabel Noboa y su sobrino Daniel Noboa, fue creado con inteligencia artificial. El video desinformativo manipula y edita una entrevista del presidente Noboa de 2023 y una conferencia de Isabel Noboa de 2018. El contenido falso incluye un enlace para registrarse en la plataforma, pero no hay evidencia de que dicha plataforma exista. 

“Trump Gaza”: el vídeo hecho con IA sobre el futuro de Gaza que Trump ha publicado en Truth Social

(Maldita.es).- Circula un vídeo generado con inteligencia artificial (IA) llamado «Trump Gaza», en el que se muestra una visión ficticia del futuro de Gaza con rascacielos, estatuas doradas de Donald Trump y en el que aparecen figuras como Elon Musk y Benjamín Netanyahu. El vídeo fue publicado en las cuentas de Truth Social Instagram de Trump sin ninguna marca que indique que fue creado con IA.

Vídeo compartido por Donald Trump en Truth Social. Captura – Maldita.es

El 10 de febrero de 2025, Donald Trump declaró su intención de «comprar y poseer Gaza» para convertirla “en un muy buen sitio para el desarrollo futuro de cualquiera”. El presidente de Estados Unidos también aseguró que podría convertir Gaza en “la Riviera de Oriente Medio”, como recoge Al Jazeera

Días después, comenzó a circular el vídeo, en el que inicialmente se muestra una Gaza en ruinas, con escombros y personas recogiendo comida del suelo. Posteriormente, la imagen cambia a una ciudad modernizada con una torre llamada «Trump Gaza», bailarinas con barba en la playa y una estatua dorada del presidente de Estados Unidos.

El vídeo también presenta a Elon Musk bajo una lluvia de billetes y a Benjamín Netanyahu junto a Trump tomando el sol en una tumbona, sin que en ningún momento se indique que el contenido ha sido generado con IA. 

Distintos fotogramas del vídeo publicado por Donald Trump. Capturas – Maldita.es

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es

Cómo identificar qué imágenes son creadas con IA en buscadores como Google

(Maldita.es).- Los usuarios de Google, Bing, Yahoo y otros buscadores pueden encontrarse con imágenes creadas con IA en los resultados de búsqueda, sin saberlo. Esto puede provocar desinformación y afectar la calidad del servicio que ofrecen estas plataformas. Para identificar lo real de lo generado con IA, los usuarios pueden seguir algunas pautas y consejos, aunque no son infalibles

En marzo de 2024, Google actualizó su algoritmo de búsqueda para penalizar el contenido automatizado de baja calidad, como el generado con IA. Sin embargo, sigue siendo común encontrarse con imágenes creadas con IA en los resultados de este buscador. 

Por ejemplo, algunos usuarios han alertado de que los resultados de búsquedas como “baby peacock” (pavo real bebé), “la chica con el pendiente de perla” o “rana medieval” incluyen varias imágenes generadas con IA, que en ocasiones se difunden como si fueran reales

El problema radica en que la inteligencia artificial vuelve más fácil y rápido crear contenidos de poco valor, lo que promueve lo que se ha calificado como ‘mierdificación’ de las plataformas, un término usado para describir el proceso por el cual empeoran sus servicios hasta que dejan de servir a sus usuarios. Las imágenes creadas con IA en los resultados también pueden crear narrativas falsas o alterar la percepciónprovocando desinformación.  

A medida que avanza la tecnología, se vuelve más difícil diferenciar lo generado con IA de lo real. Para identificar si una imagen en los resultados de búsqueda ha sido creada con esta tecnología, se pueden aplicar algunas recomendaciones:

  • Revisar la descripción, que puede incluir etiquetas como “generada con IA” o “AI generated”.
  • Acceder a la web del resultado y buscar detalles o etiquetas que indiquen si ha sido creada con esta tecnología. 
  • Contrastar la imagen con otras que vengan de fuentes de confianza. 
  • Buscar indicios como marcas de agua, dedos de más, miradas perdidas o con estrabismo, dientes extra o desalineados, la altura de las orejas, textos mal escritos y fondos borrosos, entre otros

La búsqueda avanzada nos permiten filtrar algunas de estas imágenes, sin embargo, no es infalible

Algunos usuarios recomiendan usar la búsqueda avanzada para filtrar las imágenes con IA., como añadir “-ai” (menos inteligencia artificial) a la búsqueda, aunque sólo funciona si la imagen contiene dicho texto en su descripción.

Otra alternativa es limitar los resultados por fecha, usando filtros como “before:2022”, año en que se popularizaron herramientas como MidJourney y Dall-E. Sin embargo, esta solución también tiene sus límites, especialmente si se buscan contenidos actuales.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es

Luisa González no propuso construir una cárcel en Riobamba ni legalizar el consumo de drogas 

¿Qué verificamos?

La autenticidad de una supuesta declaración atribuida a Luisa González en la que afirma que llegó a un acuerdo para construir una nueva cárcel en Riobamba para acoger a los presos de la región, y también que planea legalizar el consumo responsable de droga.

¿Por qué es completamente falso?

Se trata de un contenido manipulado con inteligencia artificial, el cual altera la voz e imagen de la candidata Luisa González para atribuirle palabras que nunca dijo. El video viral es una manipulación digital que modifica sus declaraciones originales para crear un mensaje falso.

¿Qué dice la evidencia?

  • La declaración original de Luisa González corresponde al 29 de enero de 2024. 
  • La intervención original habla sobre el Plan Kawsay que incluye la construcción de un hospital pediátrico en Riobamba y no una cárcel como se escucha en el video manipulado. 
  • El detector de deepfake Sensity AI determinó un 92% de manipulación facial en la sincronización de labios y un 99% de que la voz es falsa o que contiene un intento de suplantación de identidad. 

Conclusión

COMPLETAMENTE FALSO: El video que circula en redes sociales es una manipulación digital que utiliza tecnología deepfake para alterar las declaraciones originales de la candidata Luisa González. La evidencia técnica confirma que tanto el audio como el video han sido modificados para crear un contenido falso. La propuesta real presentada en Riobamba se enfoca en la construcción de un hospital pediátrico, no de una cárcel, y en ningún momento se abordó el tema de la legislación sobre drogas.

Es FALSO que Daniel Noboa recibirá a 450.000 migrantes venezolanos

Un video generado por inteligencia artificial circula en redes sociales, que atribuye falsamente al presidente Daniel Noboa una supuesta autorización para el ingreso masivo de migrantes venezolanos. El contenido manipula un reportaje original de Ecuavisa de agosto de 2019.

¿Qué verificamos? 

Un video viral afirma falsamente que el gobierno ecuatoriano autorizará el ingreso de 450.000 migrantes venezolanos. 

¿Por qué es completamente falso? 

El contenido viral fue manipulado con inteligencia artificial y distorsiona un reportaje real de Ecuavisa de 2019 para asegurar de manera falsa que el actual gobierno autorizó el ingreso de 450.000 migrantes venezolanos en 2025. 

¿Qué dice la evidencia? 

  • Un análisis de la herramienta Sensity, para detectar deep fakes, arrojó que hay un 98% de manipulación en rostros y un 57.5% de manipulación de audio. 
  • El video original fue publicado el 23 de agosto de 2019, tres días antes de que entrara en vigencia la exigencia del visado para migrantes venezolanos que ingresan a Ecuador. 
  • El 25 de julio de ese año se reportó el ingreso de 7.000 personas por el Puente Internacional de Rumichaca, frontera con Colombia.

Contexto importante

Desde las 00:00 del 26 de agosto de 2019 entró en vigencia exigencia de visado a los ciudadanos venezolanos para ingresar a Ecuador. La medida se fundamenta en el Decreto Ejecutivo 826, del 25 de julio, en el gobierno del expresidente Lenín Moreno. Hasta el viernes 23 de agosto de ese año, se registró el ingreso de cerca de 7.000 personas por el Puente Internacional de Rumichaca.

Conclusión

El video de Daniel Noboa permitirá el ingreso de 450.000 migrantes venezolanos es completamente falso. El contenido viral fue manipulado con inteligencia artificial. Además, no hay registros de que el presidente Noboa presentara dicha autorización.