Skip to main content

Etiqueta: ia

Lo que sabemos de los bombardeos en Venezuela y la imputación de Nicolás Maduro en Estados Unidos

Entre la 1:50 y las primeras horas de la madrugada del 3 de enero, residentes y medios reportaron al menos siete explosiones y movimiento de aeronaves en Caracas y zonas cercanas.

Las detonaciones se escucharon en sectores como La Carlota, Fuerte Tiuna, El Valle, La Vega, El Hatillo, Higuerote y Mamo. En algunos puntos de la capital se registraron cortes de electricidad.

El gobierno venezolano afirmó que los ataques afectaron infraestructura civil y militar en Caracas y en los estados Miranda, Aragua y La Guaira.

¿Qué dijo Estados Unidos?

A través de redes sociales, Trump aseguró que Estados Unidos ejecutó una operación militar y que Nicolás Maduro y su esposa fueron capturados y trasladados fuera de Venezuela.

Horas más tarde, la fiscal general de Estados Unidos, Pamela Bondi, informó que Maduro y Cilia Flores fueron imputados en el Distrito Sur de Nueva York.

Según el Departamento de Justicia, Maduro enfrenta cargos por:

  • Conspiración de narco-terrorismo
  • Conspiración para la importación de cocaína
  • Posesión y conspiración para poseer armas de guerra y dispositivos destructivos contra Estados Unidos

Las autoridades estadounidenses sostienen que ambos imputados enfrentarán la justicia en tribunales estadounidenses, aunque no han difundido evidencia pública que confirme su ubicación actual.

Cómo fue la operación militar, según Estados Unidos

De acuerdo con declaraciones oficiales del gobierno estadounidense:

  • La operación habría estado a cargo de la Delta Force, una unidad de élite del Ejército de Estados Unidos.
  • Fue denominada “Absolute Resolve” y se ejecutó, según el mando militar, a pedido del Departamento de Justicia.
  • El jefe del Estado Mayor Conjunto, el general Dan Caine, indicó que participaron alrededor de 150 aeronaves, entre aviones y helicópteros.
  • Aviones de combate habrían neutralizado las defensas aéreas venezolanas para permitir el ingreso de helicópteros a Caracas.
  • Uno de los helicópteros fue alcanzado por fuego antiaéreo, aunque logró mantenerse operativo.
  • La operación habría durado aproximadamente dos horas y 20 minutos.
  • Estados Unidos sostiene que se trató de una acción puntual, no de una campaña militar prolongada.

El secretario de Estado, Marco Rubio, afirmó que no están previstas nuevas acciones militares tras la detención de Maduro. Sin embargo, Trump declaró posteriormente que Estados Unidos permanecerá involucrado hasta que, según sus palabras, se produzca una transición ordenada, y advirtió que su país está preparado para una segunda operación si lo considera necesario.

¿Qué respondió el régimen venezolano?

El gobierno de Venezuela calificó los hechos como una agresión militar por parte de Estados Unidos y denunció una violación del derecho internacional.

El ministro de Defensa, Vladimir Padrino López, anunció la activación de planes de defensa nacional, mientras que la vicepresidenta Delcy Rodríguez afirmó desconocer el paradero de Maduro y exigió una prueba de vida.

¿Qué se sabe del proceso judicial contra Maduro?

El proceso judicial contra Nicolás Maduro en Estados Unidos no comienza en enero de 2026. Sus antecedentes se remontan a marzo de 2020, cuando fiscales del Distrito Sur de Nueva York lo acusaron de narcotráfico internacional, identificándolo como uno de los líderes del Cártel de los Soles, una red que, según la acusación, involucra a altos funcionarios del Estado venezolano.

De acuerdo con la Fiscalía estadounidense, Maduro habría participado en la coordinación y protección de envíos de cocaína a gran escala, utilizando estructuras estatales para facilitar el tráfico de drogas hacia Estados Unidos.

El anuncio del 3 de enero de 2026 amplía y agrava esas acusaciones, al incorporar cargos vinculados al narco-terrorismo y al uso de armamento militar, lo que eleva el nivel del caso y las posibles penas.

Sin embargo, hasta ahora:

  • No se ha informado públicamente de una audiencia inicial ni de una comparecencia ante un juez federal.
  • No se han difundido documentos judiciales accesibles que confirmen el inicio formal del proceso en sede judicial.
  • Toda la información disponible proviene de comunicados del Ejecutivo y del Departamento de Justicia de Estados Unidos.

En el sistema judicial estadounidense, una imputación puede existir aunque el acusado no haya sido presentado físicamente ante la corte, por lo que el caso puede estar abierto sin que haya comenzado aún el trámite procesal público.

Cómo queda el poder en Venezuela

El presidente de Estados Unidos, Donald Trump, aseguró que su país asumirá temporalmente el control de Venezuela mientras, según sus palabras, se organiza una “transición ordenada”.

Trump señaló que Estados Unidos “va a manejar el país”, sin precisar bajo qué marco legal, por cuánto tiempo ni quiénes ejercerían funciones de gobierno. Tampoco explicó si se trata de una ocupación formal, un gobierno provisional o algún otro mecanismo.

El mandatario vinculó esta etapa con la industria petrolera venezolana, al afirmar que empresas estadounidenses invertirían en la infraestructura energética y que esos recursos financiarían la recuperación del país.

Hasta ahora, no existe confirmación independiente de que Estados Unidos esté ejerciendo control efectivo sobre Venezuela ni de que se haya producido una transición de poder. El régimen venezolano niega la captura de Nicolás Maduro y mantiene el control institucional del Estado.

Desinformación

«Un vídeo muestra un bombardeo en Fuerte Tiuna, Venezuela».

No, este video no muestra un bombardeo en Fuerte Tiana, Venezuela. En realidad, muestra los ataques con misiles iraníes contra Israel durante la guerra de los 12 días, registrada en agosto de 2025.

«Está imagen muestra la captura de Nicolás Maduro con militares»

No hay evidencia de que la imagen que circula de Nicolás Maduro capturado sea real. Existen indicios claros de que fue generada con inteligencia artificial. La imagen presenta inconsistencias visuales —como rasgos faciales poco definidos y detalles que no coinciden con fotografías auténticas—, elementos comunes en contenidos creados con IA.

Además, según SynthID de Google, la imagen contiene una marca de agua digital que indica que fue editada o generada, en su mayor parte o en su totalidad, con la inteligencia artificial de Google. Por otro lado, otros medios de verificación, como nuestros colegas de Verificado (de México), ya han catalogado esta imagen como falsa.

«Este vídeo muestra el retiro de las pancartas de Nicolás Maduro»

Ese vídeo es real, pero no es actual, fue grabado en julio de 2024. Las imágenes originalmente se difundieron un día después de las elecciones presidenciales en Venezuela (28 de julio de 2024). El material no está vinculado a una detención, operativo especial de Estados Unidos, como se sugiere en algunas publicaciones actuales.

«Diosdado Cabello murió en los bombardeos»

No, es falso que Diosdado Cabello murió en los bombardeos. La desinformación circuló en redes sociales y algunos portales digitales durante las primeras horas de la escalada del conflicto en Venezuela. Sin embargo, Diosdado Cabello apareció horas después en una transmisión en vivo, donde desmintió los rumores sobre su supuesta muerte.

Las imágenes fueron difundidas por el canal estatal Venezolana de Televisión (VTV) y muestran a Cabello activo y acompañado de militares, dirigiéndose a la ciudadanía. No existe evidencia que confirme su fallecimiento. La información que afirmaba lo contrario es falsa.

«Este video es una operación militar de Estados Unidos en Venezuela»

Este video viral es una versión manipulada con IA de un video real de una operación militar de Estados Unidos en Venezuela.

Aunque el video original sí corresponde a un hecho auténtico registrado en la madrugada del 3 de enero de 2026, circula una versión fue alterada con IA para añadir explosiones y ataques que no ocurrieron en la grabación original.

«La jefa del Comando Sur de Estados Unidos «confesó» que su país está atacando Venezuela para controlar sus recursos naturales».

FALSO. El clip viral atribuido a Laura J. Richardson está sacado de contexto. Richardson no es actualmente la jefa del Comando Sur de Estados Unidos. Ocupó ese cargo entre 2021 y 2024.

Las declaraciones corresponden a una intervención de 2023, en la que habló de seguridad regional, competencia geopolítica con China y Rusia y de la importancia estratégica de los recursos naturales en América Latina. No afirmó que EE. UU. busque apoderarse del petróleo, el litio o el oro, ni que Venezuela esté siendo atacada por esa razón. El video usa recortes de un discurso real para construir una narrativa falsa.

«Helicópteros Black Hawk de Estados Unidos en Caracas»

El contenido original fue publicado el 27 de noviembre de 2025 por Jim Ferguson, quien se presenta como “Embajador Internacional” de Advance UK, una organización activista del Reino Unido. La publicación mezcla ese video con una afirmación sobre la llegada de aviones de guerra estadounidenses a Somalia, un hecho que se enmarca en el conflicto de larga data entre Estados Unidos y grupos armados vinculados al Estado Islámico y al Al Shabaab en ese país.

No existe evidencia que relacione ese material audiovisual con operaciones militares de Estados Unidos en Caracas.

«Esta es una imagen de la detención de Maduro»

Esta imagen no es real: es IA. En redes sociales circula una imagen que supuestamente muestra la detención de Nicolás Maduro por parte de fuerzas especiales de Estados Unidos, la DEA y el FBI. La imagen no es auténtica y presenta indicios de haber sido creada con inteligencia artificial.

Entre las inconsistencias se observan letras ilegibles en el uniforme de uno de los supuestos soldados y rasgos faciales irregulares, señales frecuentes en contenidos generados con IA.

Además, según informó la cadena estadounidense CBS, fuentes militares de Estados Unidos —que no fueron identificadas— señalaron que la detención habría sido ejecutada por la Fuerza Delta, una unidad élite antiterrorista del Ejército estadounidense, y no por la DEA ni el FBI, como se afirma en la imagen viral.

Asimismo, herramientas de detección de contenido generado con IA, como InVID y SynthID, indican una alta probabilidad de que la imagen haya sido creada con inteligencia artificial.

«Esta imagen es de la captura de Nicolás Maduro»

La imagen de Nicolás Maduro detenido a bordo de USS Iwo Jima es REAL. El contenido fue publicado en el perfil de Truth Social del presidente Donald Trump.

Noticia en desarrollo

Estafas digitales en 2025: falsos bonos, suplantación de instituciones y plataformas fraudulentas

Bonos y beneficios sociales que nunca existieron

Una de las formas más recurrentes de estafa estuvo vinculada a supuestos bonos y ayudas económicas. Lupa Media identificó 18 casos que usaban el nombre del entonces Ministerio de Inclusión Económica y Social —hoy Ministerio de Desarrollo Humano—, junto con logos oficiales e incluso la imagen del presidente, para aparentar legitimidad.

Entre los engaños más frecuentes estuvo el inexistente “Bono Mujer”, , además de supuestos beneficios dirigidos a jóvenes, adultos mayores, emprendedores, “bonos navideños” o incrementos al Bono de Desarrollo Humano. El mecanismo era similar en todos los casos: publicaciones en redes sociales que redirigían a enlaces externos donde se solicitaban datos personales o pagos previos.

Mensajes falsos y cadenas engañosas

Otro grupo importante de estafas se difundió a través de SMS, correos electrónicos, redes sociales y cadenas de WhatsApp. En este rubro, Lupa Media verificó 17 contenidos que suplantaban a instituciones públicas y empresas privadas.

Circularon falsas multas de tránsito, avisos de caducidad de millas de tarjetas de crédito, supuestos pagos aduaneros, bloqueos de cuentas bancarias y ofertas laborales inexistentes atribuidas al IESS, universidades, el Metro de Quito o empresas privadas como Multicines.

También circularon cadenas alarmistas vinculadas a inseguridad o hackeos, muchas bajo esquemas de phishing, cuyo objetivo era generar urgencia y miedo para inducir a las personas a hacer clic en enlaces o entregar información sensible.

Plataformas de inversión y sitios web fraudulentos

Las falsas oportunidades de inversión también estuvieron presentes en 2025. Lupa Media verificó 12 casos que prometían ganancias rápidas y “seguras”, principalmente vinculadas a criptomonedas, trading o sistemas automatizados.

Para ganar credibilidad, estos contenidos suplantaban empresas, medios de comunicación y figuras públicas como Daniel Noboa o su tía Isabel Noboa. En algunos casos, difundían entrevistas manipuladas y videos con indicios de uso de inteligencia artificial.

El esquema se repetía: solicitar una inversión inicial, exigir nuevos pagos con distintos pretextos y luego desaparecer. Las verificaciones confirmaron que estos sitios usaban dominios no oficiales, carecían de autorización legal y fueron desmentidos por las instituciones suplantadas.

Estafas dirigidas a población migrante

Aunque en menor número, las estafas orientadas a población migrante fueron especialmente visibles durante las Elecciones Generales en el primer cuatrimestre del año. En 2025 circularon falsos anuncios sobre becas universitarias, bonos económicos y empleos masivos supuestamente impulsados por el Gobierno ecuatoriano o por figuras políticas como Luisa González.

Estos contenidos apelaban a necesidades reales —regularización, estabilidad económica y acceso a oportunidades— y redirigían a enlaces externos para recopilar datos personales. Las verificaciones confirmaron que estos programas no existían y que se distorsionaban narrativas de políticas públicas reales.

¿Cómo prevenir estas estafas?

Las 50 verificaciones realizadas en 2025 evidencian patrones claros: promesas económicas, suplantación institucional, mensajes urgentes y enlaces externos. Algunas recomendaciones clave que explicamos en este artículo son:

  • Desconfía de ofertas demasiado atractivas o mensajes alarmistas que circulan solo en redes.
  • Verifica siempre la información en canales oficiales.
  • Evita abrir enlaces enviados por mensajes no solicitados.
  • No entregues datos personales, códigos de verificación o dinero por mensaje, llamada o redes sociales.
  • Si sospechas de una estafa, guarda evidencia (capturas, enlaces, números) y envíala a Lupa Media para verificación. Cuando corresponda, repórtala también ante las autoridades.

Aumento de estafas que usan inteligencia artificial: qué está pasando y cómo prevenirlas

En este explicativo te contamos cómo funcionan estas estafasqué señales deben alertarte y qué recomiendan las autoridades y expertos para no caer.

No son estafas nuevas, pero sí más convincentes

Delitos como el phishing, la suplantación de identidad o la apropiación fraudulenta existen desde hace años. La diferencia es que hoy los estafadores usan inteligencia artificial. Entre las prácticas más frecuentes están:

  • Clonación de voz, a partir de audios publicados en redes sociales o mensajes de voz.
  • Videos falsos o deepfakes, donde una persona parece pedir dinero o recomendar inversiones.
  • Mensajes y llamadas automatizadas, que permiten contactar a muchas personas en poco tiempo.
  • Suplantación de identidad, que imitan la imagen, el lenguaje y el comportamiento de personas reales o instituciones.

En la mayoría de los casos, el objetivo es el mismo: provocar urgencia o miedo para que la víctima actúe sin verificar.

Cuando la voz o el rostro parecen reales

Uno de los mayores riesgos de estas estafas es que la comunicación puede parecer auténtica. Algunas personas han recibido llamadas de supuestos familiares pidiendo dinero por emergencias, accidentes o problemas legales. Solo después de hacer la transferencia descubren que la voz fue clonada.

Que una voz o un rostro se vean reales no garantiza que lo sean. Por eso, especialistas recomiendan no reaccionar de inmediato, incluso si el mensaje genera angustia o presión emocional.

Señales de alerta en audios y videos

Los contenidos generados o alterados con IA suelen dejar pistas. Lupa Media ha verificado en Ecuador videos falsos usados para promover inversiones o pedir transferencias. Algunas señales de alerta son:

  • Movimientos faciales poco naturales.
  • Desfase entre labios y audio.
  • Sonidos extraños o entonaciones forzadas.
  • Mensajes genéricos o mal contextualizados.
  • Llamados urgentes a enviar dinero o promesas de ganancias rápidas.

Si un contenido genera presión emocional, lo más seguro es no compartirlo ni responder sin verificar.

Verificar sigue siendo la mejor defensa

Ante cualquier llamada, audio, mensaje o video sospechoso, la recomendación es verificar por otros canales:

  • Cuelga y llama tú mismo al número que tienes guardado.
  • Escribe por otra aplicación o consulta con alguien de confianza.
  • Si dicen representar a un banco o institución pública, contacta directamente por sus canales oficiales.

Tomarse unos minutos para comprobar la información puede evitar pérdidas económicas.

Cuidado con lo que compartes en redes sociales

Para hacer creíbles estas estafas, los delincuentes necesitan información real. Audios, videos, fotos, rutinas o datos familiares publicados en redes pueden usarse para suplantaciones. Mientras más información pública haya, mayor es el riesgo. Las recomendaciones básicas incluyen:

  • Revisar la configuración de privacidad.
  • Limitar quién puede ver o descargar videos y audios.
  • Evitar publicar documentos, números personales o datos sensibles.
  • Desconfiar de aplicaciones que piden acceso a cámara, micrófono o contactos sin una justificación clara.

Nunca envíes dinero ni datos ante pedidos inesperados

Una señal clara de estafa es la solicitud de:

  • Transferencias inmediatas.
  • Pagos electrónicos urgentes.
  • Tarjetas regalo.
  • Criptomonedas.
  • Códigos de verificación o claves.

La Asociación de Bancos Privados del Ecuador (Asobanca) recuerda que los bancos no solicitan contraseñas ni códigos por teléfono, mensajes o redes sociales. Si ya realizaste un pago, contacta de inmediato a tu banco.

Un problema en crecimiento

La Fiscalía General del Estado no clasifica los delitos según el uso de inteligencia artificial. Sin embargo, las cifras muestran un aumento sostenido de estafas y delitos informáticos, muchos de los cuales ya incorporan audios, videos y perfiles falsos.

El jefe de la Unidad Nacional de Ciberdelitos, Gonzalo García señaló que en en lo que va del año se contabilizan aproximadamente 1.047 disposiciones fiscales para iniciar una investigación con respecto a este tipo de delitos. Entre los más comunes o con mayor impacto destaca:

  • Apropiación fraudulenta por medios electrónicos.
  • Acceso no consentido a un sistema informático, telemático o de telecomunicaciones.

Entre 2015 y 2025, la Fiscalía registró 28.995 denuncias por apropiación fraudulenta por medios electrónicos(phishing). Solo en 2025, la cifra llega a 4.732 casos, con Guayas y Pichincha entre las provincias con más denuncias.

La Policía Nacional ha advertido que este es uno de los ciberdelitos más comunes en el país y que muchas investigaciones ya incluyen el análisis de contenidos generados con herramientas digitales avanzadas.

Cómo la IA y las emociones reemplazaron a los hechos en la campaña del 16N

Entre el 1 y el 12 de noviembre de 2025, se identificaron 125 publicaciones en TikTok, X (antes Twitter), Facebook e Instagram que promovían posturas a favor y en contra de la Consulta Popular. Apelando a emociones intensas —miedo, indignación, heroísmo o esperanza— en lugar de ofrecer argumentos verificables.

Las plataformas dominantes fueron TikTok (65 %), X (30 %), Facebook (3 %) e Instagram (2 %).

El 75 % de los contenidos virales usaron inteligencia artificial —imágenes hiperrealistas, voces clonadas, deepfakes o textos generados—, y solo el 5 % incluía una etiqueta que señalaba su origen artificial. Además, el contenido anticipado fue difundido por diferentes tipos de cuentas:

Narrativas emocionales dominantes

  • Destrucción ambiental: Los contenidos usaron la imagen de especies endémicas para reforzar la postura del “no”. Por ejemplo, se mencionó el peligro para especies de Galápagos ante la posible instalación de una base militar (pregunta A del Referéndum) y la amenaza de la minería ilegal en Quimsacocha (pregunta D de la Asamblea Constituyente). También se hizo referencia al jaguar en la Amazonía y a los riesgos asociados con la presencia de actores extranjeros.
  • Unidad nacional: Para respaldar la postura del “Sí”, se emplearon símbolos patrióticos como los colores de la bandera nacional, el cóndor, canciones futbolísticas y la palabra “Sí” en 3D, montada digitalmente en distintas ciudades del Ecuador. Esta estrategia apoyó de manera generalizada todas las preguntas de la consulta, no una en particular.
  • Seguridad y violencia: Se realizaron campañas con comediantes, como David Reinoso, para transmitir que solo los delincuentes votan por el “no” y que las bases militares representan protección. En contraparte, otros contenidos señalaron que la inseguridad persiste y está presente a diario. Además, se recurrió a la violencia de género para asociar a quienes votan por el “sí” con la continuación de malos tratos.
  • Corrupción: La campaña buscó cuestionar el trabajo de los asambleístas y los partidos políticos para incentivar el voto “Sí” en las preguntas B y C, que proponen la eliminación del fondo partidista a organizaciones políticas y la reducción del número de asambleístas. Desde la campaña del “No”, se vinculó al presidente Daniel Noboa con intereses que favorecen a empresas bananeras y a círculos cercanos, sugiriendo una relación directa con el sector.
  • Equilibrio: Desde la postura del “No”, la pregunta D sobre la Asamblea Constituyente se presenta como un cambio que podría afectar derechos humanos fundamentales, como la salud y la educación pública, evidenciando inestabilidad en el país. En contraste, la postura del “Sí” muestra un país en paz, moderno, tecnológico y estable.

La polarización en imágenes.

  • Refresco: Quienes apoyaban el “No”, el refresco se mostró como algo incierto: un producto cuyo contenido se desconoce hasta que se compra, apelando al miedo a lo inesperado y la desconfianza hacia las propuestas del voto afirmativo. En cambio, desde el lado del “Sí” lo presentaban como una invitación a “refrescarse” con algo nuevo, asociando el voto con renovación, energía y posibilidades positivas.
  • Personajes simbólicos: El borrego se convirtió en el símbolo más polarizante, usado como insulto por algunos y como emblema de lealtad por otros en TikTok. La Rana René se empleó para ridiculizar a Luisa González, aprovechando la popularidad del meme para generar contenido simultáneamente compartible, humorístico y crítico. También hubo espacio para la ironía: el personaje Nobita, de la serie japonesa Doraemon, pasó de ser un insulto dirigido al presidente a convertirse en un héroe digital.
  • Shakira: La cantante Shakira fue utilizada como símbolo político sin su consentimiento. Se difundieron imágenes manipuladas junto a políticos ecuatorianos, portadas falsas con declaraciones inventadas y controversias fabricadas, con el objetivo de generar atención y confusión.

Por qué estas estrategias funcionan

Las campañas digitales explotaron sesgos cognitivos para volver sus mensajes más persuasivos. El sesgo de confirmación hizo que la gente aceptara con facilidad aquello que coincidía con sus ideas previas. El efecto de verdad ilusoria convirtió en “creíble” lo que se repetía muchas veces. Con el sesgo de disponibilidad, los contenidos más llamativos o emocionales se sintieron más importantes de lo que realmente eran. El efecto halo permitió que mensajes asociados a personajes populares parecieran automáticamente positivos, y el sesgo de autoridad hizo que afirmaciones de figuras influyentes se asumieran como ciertas sin verificarlas.

Según Mike Wendling, periodista digital de la BBC, que ha documentado fenómenos similares en Estados Unidos identificó que «la gente comparte contenido que resuena emocionalmente con sus creencias, aunque sea falso». En este caso, miles de ecuatorianos fueron expuestos anticipadamente a información diseñada para manipular emociones, más que para informar decisiones.

Redes sociales sin regulación

Aunque la campaña oficial terminó el 13 de noviembre, contenidos del “Sí” y el “No” siguen circulando. Actualmente, la Ley Electoral no regula redes sociales, pero el gasto en publicidad digital sí se cuenta dentro del límite de campaña. Mauricio Alarcón Salvador, director de la Fundación Ciudadanía y Desarrollo, señala que controlar la propaganda en redes es un desafío.

Desinformación Electoral & IA: ¡Que No Te Engañen en la Consulta Popular!

1.-¿Qué es la desinformación con IA?

Es la creación y difusión de contenidos falsos o manipulados con herramientas de inteligencia artificial. Estas tecnologías permiten generar con gran rapidez:

  • Imágenes o videos de hechos que nunca ocurrieron.
  • Audios falsos, donde una voz clonada imita a políticos o figuras públicas.
  • Videos hiperrealistas de personas que parecen reales, pero son totalmente sintéticas y se usan para simular entrevistas o noticieros.

2.- Identifica los deepfakes

Los deepfakes son audios o videos donde se suplanta a una persona para hacerla decir o hacer algo que nunca hizo.

Por ejemplo, durante la campaña presidencial de 2025 se detectaron deepfakes de periodistas, políticos e incluso artistas. No fueron casos aislados: formaron parte de estrategias coordinadas para desinformar, hacer propaganda, suplantar identidades y manipular percepciones.

@lupamedia 🔍 #FactCheckExprés | ❌ No, el Papa Francisco no se pronunció sobre las Elecciones Generales de Ecuador 2025. 🎥 El video que circula en redes con esas declaraciones fue manipulado con inteligencia artificial (IA). 📆 El material original fue publicado el 20 de diciembre de 2024 en el canal de YouTube Orbe 21. 🎙️ En la entrevista real, el Papa habla sobre la crisis global, las guerras, la Iglesia y la esperanza de la humanidad —no menciona temas políticos ecuatorianos. 🔗 Puedes ver el video completo aquí: https://youtu.be/xpBf-enOde4?si=5Jwye4kROzUkllGI #LupaTeExplica #Verificación #Desinformación #Elecciones2025 #Ecuador #IA #FakeNews ♬ sonido original – Lupa Media

3.- Cuidado con las imágenes emocionales

No todas las falsedades alteran hechos concretos. Muchas imágenes generadas con IA apelan a las emociones, reforzando ideas o creencias previas para que el contenido parezca más convincente.

Un análisis de BBC Verify reveló que una foto creada con IA sobre una supuesta víctima de huracán en EE. UU. fue compartida por políticos porque “transmitía” el dolor de las víctimas, aunque era completamente falsa. Es decir, defendían una «verdad emocional», no un hecho.

4.- Detecta perfiles falsos y bots

Los perfiles falsos (que simulan ser personas reales) y los bots (cuentas automatizadas) amplifican la desinformación generada con IA. Buscan aparentar consenso o rechazo masivo a ciertas posturas de la consulta popular.

Señales de alerta: cuentas recién creadas, actividad excesiva o repetitiva, pocas interacciones reales, fotos genéricas o creadas por IA.
Evita interactuar con ellas y bloquéalas o repórtalas: así reduces su alcance.

5.- ¿Cómo afecta esto al proceso democrático

La IA puede usarse para:

  • Distorsionar el sentido de las preguntas de la consulta.
  • Atacar o desprestigiar a sus promotores.
  • Difundir falsos anuncios oficiales sobre el proceso electoral.
  • Manipular emociones con imágenes o videos falsos de disturbios o situaciones extremas.

Todo esto erosiona la confianza ciudadana y enturbia el debate democrático.

6.- Cómo protegerse

  • Reporta contenido sospechoso en redes o ante el CNE.
  •  Verifica la fuente: busca medios confiables y cuentas oficiales.
  • Desconfía de lo que te haga reaccionar fuerte (miedo, ira, entusiasmo).
  • Usa herramientas de verificación: plataformas como Lupa Media ofrecen chequeos rápidos de videos, audios e imágenes.
  •  Contrasta información: consulta más de una fuente antes de creer o compartir.

El video de una ardilla gritando al comer fideos picantes fue creado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral muestra a una ardilla comiendo fideos condimentados de un tazón. En el video, el animal aparentemente se pica, toma agua desesperadamente y finalmente huye gritando de forma dramática. 

¿Por qué es completamente falso?

Según Hive Moderation, hay un 99,7% de probabilidad de que el video haya sido creado con inteligencia artificial.

¿Qué dice la evidencia?

  • Usamos Google Lens para una búsqueda inversa de imágenes. Con esto, vimos que este mismo video circuló en varias plataformas como Instagram y TikTok desde el 17 de octubre de 2025.
  • Hive Moderation detectó un 99.7% de probabilidad de que este video haya sido creado con IA
  • El video viral presenta algunas inconsistencias características de videos hechos con IA. Por ejemplo, deformaciones, colores muy saturados o falta de sonidos reales. 
  • Un artículo de la revista estadounidense Ecosphere habla sobre la comunicación de estos animalitos. El artículo fue publicado en 2021 y llamado “Comportamientos asociados con la comunicación vocal de las ardillas”
  • Corinne A. Diggins, su autora, explica que las ardillas producen una amplia gama de vocalizaciones clasificadas. Principalmente por su función comportamental y por sus características acústicas como llamadas de alarma, “chirridos” (chirps), “trinos” (trills) o “chucks”, vocalizaciones agonísticas, llamadas afiliativas, vocalizaciones de cortejo o apareamiento y sonidos neonatales.
  • Esta investigación contradice el video viral por el sonido “dramático” de la ardilla al comer picante. Ya que este grito no pertenece a su forma natural de comunicación.
  • Videos en redes sociales y documentales muestran que las ardillas producen sonidos diferentes a los que se muestran en el video viral, coincidiendo más con lo que dice Diggins en su investigación. 
@laranitadenogales Ardilla pide Biberón gritando🤣 #ardilla #naturaleza #animales ♬ sonido original – La Ranita de Nogales

Contexto importante

Los videos de animales creados con inteligencia artificial son cada vez más comunes en redes sociales, donde buscan viralización apelando a la emoción del público. Lupa Media ha verificado casos similares, como el supuesto canguro rescatado de un derrame de petróleo y videos de perros en situaciones humanizadas, confirmando que fueron generados artificialmente.

Conclusión

COMPLETAMENTE FALSO: El video viral que muestra a una ardilla comiendo fideos picantes y gritando fue generado con inteligencia artificial. Las ardillas no imitan voces humanas; solo emiten chillidos y chirridos para comunicarse o alertar sobre peligro.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Por qué una IA puede dar respuestas distintas a la misma pregunta (y cómo esto genera desinformación)

Por qué importa

  • Riesgo de desinformación masiva: Millones de personas usan estas herramientas como fuente de información sin contrastar, asumiendo que son precisas.
  • Erosión de la confianza: Respuestas contradictorias minan la credibilidad tanto de la IA como de las fuentes que cita incorrectamente.
  • Responsabilidad difusa: No hay un verificador humano antes de que la información llegue al usuario, multiplicando la propagación de datos falsos.

Las claves

  • Cómo funcionan: Los chatbots usan modelos de lenguaje entrenados con enormes cantidades de texto. «Aprenden patrones estadísticos, no reglas humanas», explica Liany Mendoza, especialista en desarrollo de software.
  • Por qué varían las respuestas: La IA genera cada respuesta desde cero, prediciendo la continuación más probable según la pregunta. «Es una tecnología predictiva que fabrica la respuesta cada vez, no la tiene guardada», señala Carmen Torrijos, lingüista computacional.
  • Otros factores que influyen: El historial de conversación, la conexión a internet, la ubicación del usuario y las actualizaciones del sistema modifican los resultados. «Si consultas un LLM en diferentes días, puede que interactúes con diferentes versiones del mismo», advierte Julián Estévez, investigador en IA.
  • Ejemplo 1 – Grok y la foto histórica: Ante preguntas sobre una imagen, el chatbot de X ofreció versiones distintas sobre fecha, lugar y autor, todas incorrectas. Atribuyó la foto a Estados Unidos durante la Gran Depresión, cuando realmente fue tomada en Málaga durante el franquismo (según archivo de la Universidad de Málaga).
Captura de pantalla de Maldita.es
  • Ejemplo 2 – Google y los Canadair: La función de resumen con IA de Google generó información falsa sobre la compra de aviones Canadair, atribuyendo a Maldita.es afirmaciones que la organización nunca hizo y que además ha desmentido. Al repetir la búsqueda, algunos usuarios no ven el resumen erróneo, pero el artículo aparece como primer resultado.
Captura de pantalla de Maldita.es

El ruido vs. la realidad

  • El ruido: «La IA siempre tiene la respuesta correcta» / «Si aparece en el resumen de Google, debe ser verdad».
  • La realidad: Estos sistemas no verifican información, solo predicen texto probable. Pueden inventar datos (fenómeno llamado «alucinación»), mezclar fuentes o descontextualizar información real.

Lo que viene

  • Usuarios: Nunca asumas que una respuesta de IA es correcta. Contrasta siempre con fuentes oficiales, medios verificados o bases de datos confiables.
  • Plataformas: Google, OpenAI y otras empresas están desarrollando sistemas de advertencia y mejorando la precisión, pero ninguna tecnología actual garantiza respuestas 100% exactas.
  • Regulación: La Unión Europea y otros organismos trabajan en marcos legales para exigir transparencia sobre cómo funcionan estos sistemas y quién responde por sus errores.

¿Entonces?

La inteligencia artificial puede ser útil, pero no infalible. Cada respuesta es una predicción, no un hecho verificado. En la era de la desinformación, contrastar información es más importante que nunca, incluso cuando viene de una máquina que parece saberlo todo.

*Explicativo construido a partir de información de la Agencia de Contenidos Maldita.es

Video con IA falsifica reportaje de Teleamazonas contra secretaria de seguridad de Quito

¿Qué verificamos?

Un video publicado por la cuenta «EmergenciasEc» en X muestra un supuesto reportaje del periodista Fausto Yépez para Teleamazonas en el que se acusa a Carolina Andrade, secretaria de seguridad de Quito, de recibir doble sueldo como directora del Cuerpo de Agentes Metropolitanos y como secretaria de seguridad, además de exigir «coimas» durante operativos en clubes nocturnos de la capital.

¿Por qué es completamente falso?

El periodista Fausto Yépez confirmó que no es su voz ni contenido de Teleamazonas. El supuesto reportaje no existe en ninguna plataforma oficial del medio. Herramientas especializadas detectaron con 75-99% de certeza que los audios son generados con inteligencia artificial. El video ensambla imágenes reales de diferentes fechas con claquetas falsas que difieren en estilo y tipografía del formato original de Teleamazonas.

¿Qué dice la evidencia?

Confirmación directa de fuentes:

  • Fausto Yépez, periodista de Teleamazonas, confirmó a Lupa Media que no es su voz y que el medio no ha cubierto ese contenido. La consulta fue hecha la noche del 1 de octubre de 2025.
  • Lupa Media realizó búsquedas en los perfiles de redes sociales de Teleamazonas (X, Facebook, Instagram, YouTube), en su sitio web oficial y en el repositorio de reportajes del medio. No se encontró evidencia del supuesto reportaje sobre Carolina Andrade.
  • La Alcaldía de Quito descartó oficialmente la veracidad de la publicación.

Análisis técnico con herramientas de detección de IA:

  • La herramienta Hiya detectó entre un 98% y 99% de probabilidad de que el audio atribuido a Fausto Yépez y Carolina Andrade fueron generados con inteligencia artificial.
Análisis audio Fausto Yépez
Análisis audio Carolina Andrade
  • Hive Moderation determinó un 74,5% y 99% de probabilidad de que los audios fueron generados sintéticamente. Los resultados fueron consistentes.
  • Estas herramientas analizan patrones de voz, frecuencias y características acústicas que delatan la síntesis artificial de audio.

Análisis visual del contenido manipulado:

  • Una búsqueda inversa de imágenes con Google Lens reveló que el video desinformativo ensambla múltiples videos de diferentes fechas para dar coherencia al montaje.
  • Las claquetas que aparecen en el video falso mantienen los colores institucionales de Teleamazonas, pero difieren significativamente en el estilo y la tipografía utilizada por el medio oficial.
Video real de Teleamazonas
Video falso
  • La manipulación combina imágenes reales con elementos gráficos falsos para simular un reportaje legítimo.

Perfil de la cuenta difusora:

  • El video fue publicado por la cuenta «EmergenciasEc» en X e Instagram. La cuenta registra más de 500 mil seguidores en X y 120 mil en Instagram.
  • Según los metadatos de X, la cuenta fue creada en 2018.
  • La cuenta aparece domiciliada en Estados Unidos.

Contexto importante

Este video falso forma parte de una tendencia creciente de desinformación generada con inteligencia artificial en Ecuador. Los deepfakes de audio permiten crear contenidos falsos cada vez más convincentes que suplantan la identidad de periodistas y medios de comunicación para dar credibilidad a acusaciones inventadas contra funcionarios públicos. Durante las elecciones generales de 2025, Lupa Media registro que 5 de cada 10 contenidos virales verificados durante la campaña electoral fueron creados o manipulados con IA.

La manipulación de videos con IA se ha sofisticado al punto de ensamblar material visual de diferentes fuentes y fechas, combinándolo con audio sintético para crear narrativas falsas que aparentan ser reportajes periodísticos legítimos.

Conclusión

COMPLETAMENTE FALSO: El supuesto reportaje de Teleamazonas fue creado con inteligencia artificial. El periodista Fausto Yépez desmintió el contenido, el medio no tiene registro del reportaje, y herramientas especializadas confirmaron que los audios son sintéticos.

Cómo evitar que las redes sociales usen tus datos para entrenar IA generativa

Por qué importa

  • Estas compañías invocan el “interés legítimo” para procesar datos sin pedir tu consentimiento expreso (en el caso de la UE).
  • Una vez que tu información entra en el modelo de IA, pierdes el control sobre cómo se usa o comparte.
  • Expertos en derechos digitales advierten que esto puede afectar la privacidad, seguridad y confianza de los usuarios.

Cómo desactivarlo en las principales plataformas

🔹 LinkedIn (a partir del 3 de noviembre de 2025)

  1. Haz clic en tu foto de perfilConfiguración.
  2. En “Privacidad de datos”, selecciona “Datos para mejorar la IA generativa”.
  3. Desactiva la opción “Usar mis datos para entrenar modelos de IA que crean contenido”.

Viene activado por defecto, debes desmarcarlo manualmente.

🔹 Meta (Instagram y Facebook)

Desde el 27 de mayo de 2025, Meta usa el contenido público de usuarios mayores de 18 años en la UE y sus interacciones con las experiencias de IA.

  • No incluye mensajes privados ni WhatsApp.
  • Para evitarlo, hay que llenar los formularios oficiales de objeción:
    1. Entra al formulario de Instagram y/o al formulario de Facebook.
    2. Rellénalo con tu nombre, correo y país.
    3. Envía el formulario y confirma el correo de validación que recibirás.

⚡ Si tienes cuentas vinculadas en el Centro de cuentas, basta con un solo formulario.
⏳ La oposición no es retroactiva: aplica solo desde el momento en que Meta acepta tu solicitud.

🔹 X (antes Twitter) – Grok

Desde julio de 2024, Grok, el asistente de IA de X, usa tus publicaciones e interacciones para entrenar el sistema.

  1. Abre www.x.com desde la versión web (no funciona en la app).
  2. Ve a “Más opciones” → “Configuración y privacidad” → “Privacidad y seguridad”.
  3. En “Intercambio y personalización de datos”, selecciona “Grok”.
  4. Desactiva la casilla “Permite que tus posts e interacciones se utilicen para entrenamiento y perfeccionamiento”.

⚡ También puedes hacer tu cuenta privada para limitar el uso de tus publicaciones.

Riesgos y recomendaciones

  • Una vez que los datos se integran en un modelo, no pueden retirarse ni eliminarse.
  • Revisa periódicamente las configuraciones de privacidad de tus redes sociales.
  • Mantente informado sobre cambios en políticas de datos e IA.

En resumen

Las grandes redes sociales están entrenando sus sistemas de IA con los datos de los usuarios.
Tienes derecho a oponerte: desactiva la función en los ajustes o completa los formularios oficiales.
Proteger tu información es tan simple como dedicar unos minutos a revisar tu configuración de privacidad.

Ciberacoso en las aulas con inteligencia artificial: cómo actuar

Artículo de Maldita.- La inteligencia artificial también ha llegado a colegios e institutos. Algunos alumnos la usan para ayudarse con sus tareas o para ser creativos en su tiempo libre. Sin embargo, son sus usos relacionados con el ciberacoso los que generan preocupación entre expertos, padres y profesores. El más popular es la generación de deepfakes o imágenes manipuladas de carácter sexual, aunque no es el único. La IA también permite a los menorescrear memes o stickers humillantes y perfiles falsos para difamar o suplantar a sus víctimas, que suelen ser sus propios compañeros y compañeras. 

Las expertas consultadas por Maldita.es advierten que estos usos pueden afectar la autoestima y el sentido de seguridad y pertenencia de las víctimas, quienes incluso pueden ver alterada su percepción de la realidad por la disonancia que genera el contenido manipulado con IA. 

Todo esto se puede manifestar en estrés, ansiedad, síndrome postraumático, autolesiones y, en casos graves, suicidio. Por lo mismo, recalcan la importancia de que los padres y centros educativos entreguen una mayor educación tecnológica y sexoafectiva, enseñen una mirada crítica hacia el contenido generado y sus consecuencias, y creen un lugar seguro para los menores. 

La IA se utiliza en el ciberacoso para generar deepfakes o imágenes manipuladas pornográficas, crear perfiles falsos y memes o stickers vergonzosos 

A nivel global, el ciberacoso va al alzauno de cada seis niños lo experimenta, según cifras de la Organización Mundial de la Salud (OMS). La popularidad y masividad que han alcanzado las herramientas de IA no estaría precisamente ayudando al problema. “La inteligencia artificial generativa ha traído herramientas que, cuando se usan de forma inadecuada, pueden amplificar el daño emocional y psicológico en los entornos digitales, especialmente entre niños, niñas y adolescentes”, explica Mariana Savid, psicopedagoga, diplomada en Educar en la Cultura Digital por la Universidad Nacional Villa María y maldita que nos ha prestado sus superpoderes. 

Estos usos ya están presentes en las aulas, donde la IA se utiliza como un arma para el ciberacoso. “El uso que mayoritariamente se está encontrando es a través de deepfakes o imágenes manipuladas de carácter sexual”, explica a Maldita.es Laura Cuesta, profesora de Cibercomunicación y Nuevos Medios. Se trata de contenidos manipulados con IA en los que se incorpora el rostro o cuerpo de la víctima en un vídeo o imagen pornográfica, con el objetivo de que parezca que ella es la protagonista del contenido adulto. 

Este ya es un problema global. En Estados Unidos, uno de cada diez niños afirma que sus amigos han usado IA para generar imágenes manipuladas de carácter sexual de otros niños, según el estudio “Youth Perspectives on Online Safety 2023” de la ONG Thorn. En Corea del Sur se han denunciado cientos de casos de deepfakes de menores de edad distribuidos por Telegram. También en España se está usando la IA para crear contenidos sexuales de menores: durante 2025 se han registrado casos en Villablino (Castilla y León)Palma (Islas Baleares) y Totana (Región de Murcia), entre otros. Si tú o alguien que conoces es víctima de esto, te explicamos qué hacer aquí

Pero Cuesta advierte que este no es el único mal uso que se le puede dar. En los centros educativos ya hay casos donde los alumnos utilizan la IA generativa “para crear perfiles falsos para difamar a personas, crear información falsa o incluso suplantar la identidad”. Otra función es lacreación de memes y stickers que pueden ser humillantes o vergonzososy que se difunden por WhatsApp, Telegram o Discord, lo que puede repercutir en la huella digital de los menores y afectarlos en el presente y futuro. 

Las víctimas pueden manifestar ansiedad, estrés y depresión, además de emociones de ira, tristeza, culpa e inseguridad y dudar de su propia percepción de la realidad

“Para las víctimas, el ciberacoso puede ser devastador, despojando a niños y niñas de su sentido de seguridad y pertenencia”, detalla Savid y añade que sin las habilidades socioemocionales necesarias, “las víctimas pueden cerrarse, dejar de confiar en los demás y aislarse, lo que agrava aún más el daño emocional”. Todo este malestar se puede manifestar en episodios de ansiedad, estrés, síndrome postraumático, autolesiones, depresión, y llegar incluso a futuros problemas de autoestima o suicidio, según Cuesta. 

Sobre el contenido sexual generado con IA y su efecto en los menores, Alicia Hermoso, pedagoga, doctoranda en Educación y maldita afirmó durante una Twitchería de Maldita Tecnología que “no es lo mismo que cuando ya eres una persona adulta, partiendo de la base de que esto te provoca un impacto individual y social [a cualquier edad]. Empiezas a tener emociones de ira, tristeza, y a buscar un culpable”. 

La experta recalcó que ver un cuerpo que se difunde como el suyo (pero que en realidad, no es suyo y en el que no se reconoce) puede generar disonancia. Savid añade que estas imágenes o vídeos manipulados pueden hacer que las víctimas duden de su propia percepción de la realidad, provocando una profunda inseguridad

Además, tienen un impacto crucial los medios por los cuáles se difunden estos contenidos. “No es como una victimización en el patio del colegio, sino que se difunden en redes sociales y la sensación de humillación y exposición ante mucha gente hace que sea mucho más dañino y genere mucha más ansiedad”, explicó Esther Calvete, catedrática de Psicología en la Universidad de Deusto durante el briefing ‘La salud mental de las personas jóvenes ante la amenaza de los deepfakes y el ciberacoso’, organizado por el Science Media Centre (SMC) de España. “Se vive con un gran sentimiento de culpa, de vergüenza y de ruptura de confianza con el mundo”, aseguró. 

Para las expertas, prohibir no es la respuesta, sino una mayor educación tecnológica y sexoafectiva, el acompañamiento y una actitud crítica hacia el contenido generado

La forma en que la IA está cambiando el ciberacoso es una preocupación que ya ha llegado a las autoridades. En España, el Proyecto de Ley Orgánica para la protección digital de los menores busca penar los deepfakes pornográficos. Pero, ¿qué pueden hacer padres y profesores?

Cuesta alerta que prohibir o restringir el uso de las herramientas de IA no es la respuesta, ya que cada día surgen nuevas aplicaciones y los menores pueden acceder a ellas sin que lo sepamos. “La formación y la capacitación para el buen uso y el entendimiento de la ética de la tecnología es imprescindible, así como las consecuencias legales del uso indebido”, sugiere. 

Para Savid, “el trabajo en equipo entre educadores y padres es fundamental para construir una cultura de respeto y solidaridad”. 

Por una parte, padres, madres o tutores legales deben crear “un refugio seguro” para los niños, niñas y adolescentes. La psicopedagoga sugiereenseñar un uso saludable y responsable de la tecnología y cumplir con ser un buen ejemplo de ello. Además, realizar actividades significativas fuera de internet, como juegos cooperativos y conversaciones profundas, para “reforzar la empatía y la comunicación asertiva, lo que fortalece los vínculos humanos profundos y significativos, que son el verdadero antídoto contra el aislamiento y la soledad”. En casos de ciberacoso severo, Savid advierte que es crucial buscar ayuda profesional

Para el trabajo en las aulas, Cuesta recoge una serie de recomendaciones a partir de lo establecido por la Comisión Europea y la UNESCO: 

  • Fomentar una actitud crítica para detectar información falsa o incompleta generada con IA.
  • Informar a los alumnos de las consecuencias tanto civiles como penales de la creación de este tipo de contenidos.
  • Conocer y mitigar el impacto de los sesgos algorítmicos en la toma de nuestras decisiones.
  • Asegurar la equidad de uso y limitar la brecha digital.