Skip to main content

Etiqueta: ia

Cómo eliminar imágenes íntimas (reales o de IA) de internet sin perder tu privacidad

No necesitas «subir» la foto ni exponer tu identidad. Estas plataformas utilizan tecnología de huella digital para detectar y bloquear el contenido en redes sociales y buscadores. A continuación, te explicamos cuál usar según tu caso.

1. Para menores de 18 años: Take It Down

Si la imagen involucra a una persona que actualmente es menor de edad (o la imagen fue tomada cuando lo era), la herramienta adecuada es Take It Down.

  • ¿Quién la opera? El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) una organización sin fines de lucro de los Estados Unidos.
  • ¿Para quién es? Niñas, niños y adolescentes. También pueden usarla padres o tutores legales.
  • ¿Cómo funciona? Ayuda a retirar contenido sexual de internet y evita que se comparta en plataformas asociadas (como Facebook, Instagram, TikTok, entre otras).
  • Alcance: Disponible en más de 30 idiomas. Desde 2024, ha procesado 62.9 millones de solicitudes de imágenes, videos y otros archivos.

Para adultos (+18): StopNCII.org

Si eres mayor de edad y apareces en la imagen, debes usar StopNCII.org.

  • ¿Quién la opera? La ONG británica Revenge Porn Helpline, con apoyo de empresas tecnológicas como Meta.
  • ¿Para quién es? Adultos mayores de 18 años.
  • Efectividad: Ha logrado eliminar o bloquear más del 90% del contenido denunciado a escala mundial.
  • Seguimiento: Al crear tu caso, recibes un número y un PIN para monitorear el estatus del bloqueo sin dar tu nombre.

¿Son seguras? ¿Tengo que enviar mi foto?

Esta es la duda más común y la respuesta es no. Tu privacidad está garantizada mediante un proceso técnico llamado hashing:

  1. La herramienta escanea la imagen directamente en tu dispositivo (móvil o computadora).
  2. Crea una «huella digital» (un código numérico único) de esa imagen.
  3. Solo se comparte el código, nunca la foto.
  4. Las redes sociales usan ese código para detectar si alguien intenta subir esa imagen y la bloquean automáticamente.

Pasos para protegerte (El proceso es igual en ambas)

  1. Ingresa a la web: Ve a TakeItDown.ncmec.org (menores) o StopNCII.org (adultos).
  2. Selecciona el material: Desde tu galería, elige la foto o video que quieres bloquear. Recuerda: el archivo no se sube a la nube, se procesa en tu teléfono.
  3. Genera la huella: El sistema creará el código digital único.
  4. Envía el reporte: Se envía la huella a las plataformas participantes para que procedan al bloqueo o eliminación.

Ambas herramientas son el estándar actual en seguridad digital para recuperar el control sobre tu intimidad. Si estás en peligro inmediato, recuerda que también puedes buscar apoyo legal local.

Nevadas en Rusia: qué contenidos son reales y cuáles no

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

En Kamchatka, en el extremo oriental de Rusia, las nevadas provocaron interrupciones prolongadas del transporte, cierre de escuelas y daños estructurales. En algunas zonas se acumularon hasta tres metros de nieve. Agencias de Estados Unidos y Rusia como AP News y RIA Novosti documentaron calles y vehículos completamente cubiertos durante varios días. Estas imágenes verificadas no coinciden con varios de los videos que se hicieron virales en redes sociales.

 “Fotografías y video dron de Kamchatka, Rusia”

Las imágenes presentan patrones visuales inconsistentes, como ventanas deformadas, edificios sin nitidez y texturas irreales en la nieve. Agencias de verificación como Newtral (España) y Demagog (Polonia) concluyeron que fueron generadas con inteligencia artificial tras análisis visual y el uso de herramientas de detección como Hive Moderation y Sight Engine. En nuestra revisión aplicamos las mismas herramientas, cuyos resultados refuerzan esa conclusión. Además, revisamos repositorios de agencias de noticias internacionales sin encontrar registros de un hecho similar.

“Personas escalando la nieve de los edificios y luego deslizándose”

El video fue publicado por una cuenta que se dedica explícitamente a crear contenido con IA. El autor ofrece tutoriales para generar este tipo de videos. El análisis técnico respalda que no corresponde a un hecho real.

“Torre de nieve colapsando junto a edificios”

Analizamos el video con la herramienta de detección Hive Moderation y detectó un 100% de probabilidad de que el contenido haya sido generado artificialmente. Además, notamos errores comunes de la IA como la saturación de colores, las texturas poco naturales de la nieve y que la estructura de los edificios que carece de nitidez.

“Personas deslizándose por la nieve de los edificios en Rusia”

El contenido proviene de una cuenta que se define como parodia y creadora de videos con IA. La detección técnica y el propio contexto del autor confirman que no es un hecho real. En el post viral, el autor recibe un comentario de un usuario señalando que el video es IA y este respondiendo «lo sé, pero es genial».

“Kamchatka. Niños deslizándose por un tobogán tras gran caída de nieve.”

El análisis técnico muestra alta probabilidad de contenido artificial señalando errores visuales típicos de la IA. En este caso está la saturación excesiva de colores y personas deslizándose que desaparecen al final del video. 

“Fotografías sobre las nevadas en Rusia que muestra a personas cubiertas por nieve incluyendo cara y ropa”

Las fotografías son reales, pero no son actuales. Corresponden a distintos años (2018, 2020 y 2024) y lugares de Siberia como Omolon, Verkhoyansk, Oymyakon y Yakutia. No presentan indicios de haber sido generadas con IA y están siendo reutilizadas fuera de contexto para atribuirlas a nevadas recientes. 

“Autos enterrados bajo la nieve”

Las imágenes fueron publicadas por AP News en enero de 2026 y muestran nevadas reales en Kamchatka, donde la vida se vio afectada durante varios días. Imágenes similares fueron compartidas también por La República, ABC News, y RT. 

“Intensas nevadas cubren edificios y vehículos”

Estas imágenes son reales y fueron publicadas por Noticias Caracol en su cuenta de TikTok el 20 de enero de 2026. Los medios internacionales confirman que Kamchatka atravesó el temporal más fuerte en décadas, con suspensión de clases y actividades presenciales.

@noticiascaracol

#Mundo | En la península rusa de Kamchatka, el temporal más fuerte en 60 años mantiene la ciudad prácticamente paralizada. Las intensas nevadas han bloqueado entradas de edificios, sepultado vehículos y alcanzado el segundo piso de algunas residencias. Las autoridades cerraron colegios y empresas, que pasaron al trabajo remoto, mientras los habitantes cavan para abrirse paso entre carreteras cubiertas. Siga la señal de Noticias Caracol en Vivo en noticiascaracol.com

♬ sonido original – Noticias Caracol
¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Cómo se difunde y monetiza la sexualización de menores en TikTok mediante IA

“Clic aquí para vídeos exclusivos”, invita uno de los perfiles de TikTok con casi 40.000 seguidores que recopila y republica vídeos de chicas reales con apariencia de ser menores de edad en su mayoría vestidas con uniforme escolar. Para acceder a este contenido oculto, los usuarios deben pagar una cuota mensual a modo de suscripción. Esta es sólo una de las estrategias que utilizan este tipo de perfiles para ganar dinero. Hay otras cuentas que publican contenido sexualizado de menores generado con inteligencia artificial (IA) 

Monetización directa dentro de TikTok

Algunos perfiles utilizan el sistema de suscripciones de TikTok, que permite cobrar una cuota mensual a cambio de contenido exclusivo o acceso a espacios privados.

Maldita.es identificó 13 cuentas que publican vídeos de menores —reales o generados con IA— y utilizan este sistema, con un coste medio de cuatro euros mensuales. En varios casos, las cuentas ofrecen:

  • acceso a vídeos no visibles públicamente,
  • posibilidad de solicitar contenido,
  • interacción directa mediante chats privados o salas exclusivas para suscriptores.

Aunque TikTok prohíbe explícitamente la sexualización de menores en sus Normas de la Comunidad, estos perfiles describen sus beneficios sin detallar el contenido, lo que dificulta la detección automática y desplaza la responsabilidad al usuario que paga.

TikTok retiene parte de los ingresos generados por este sistema. Según la propia plataforma, el reparto puede llegar hasta el 50 % de los ingresos netos para el creador, tras comisiones de tiendas de aplicaciones. En algunos países, como Estados Unidos y Canadá, ese porcentaje puede ser mayor.

Redirección a plataformas externas

Otros perfiles no cobran dentro de TikTok, sino que utilizan la plataforma como escaparate. A través de mensajes directos o enlaces en la biografía, dirigen a los usuarios a:

  • páginas web que venden imágenes y vídeos generados con IA,
  • sistemas de pago directo como PayPal,
  • plataformas de membresía,
  • o canales privados de Telegram.

Imágenes con IA

En conversaciones mantenidas por Maldita.es con varias de estas cuentas, los administradores ofrecieron contenidos personalizados y paquetes de imágenes o vídeos a precios que oscilan entre 4,95 y 149,99 euros, entregados por correo electrónico o descarga externa.

Aunque algunas webs afirman que sus creaciones representan “personajes adultos”, las imágenes presentan rasgos físicos y contextos asociados a menores de edad, lo que plantea un problema legal y ético documentado por organizaciones de protección infantil.

El papel de Telegram en la distribución de pornografía infantil

La investigación documenta un patrón recurrente: desde vídeos sexualizados en TikTok, el usuario es conducido a cuentas de Telegram donde se vende o intercambia pornografía infantil real. Maldita.es identificó 11 cuentas de Telegram que ofrecían este material. Siete de ellas enviaron pruebas de que lo poseían. Todas fueron denunciadas ante la Policía Nacional.

En Telegram, estos intercambios se realizan principalmente en conversaciones privadas, fuera del alcance de los sistemas de denuncia pública de la plataforma. Los vendedores destacan el anonimato como argumento comercial, asegurando que la aplicación es “segura” y difícil de rastrear.

Anonimato, privacidad y límites de control

Según Germán Andrés Olano, experto en seguridad informática, Telegram ofrece herramientas que facilitan el anonimato, como el ocultamiento del número de teléfono y la mínima exposición de datos personales. Esto genera una percepción de impunidad que algunos usuarios aprovechan para comercializar contenido ilegal y filtrar compradores. Telegram ha defendido históricamente su política de privacidad y libertad de expresión.

En agosto de 2024, su CEO, Pavel Durov, fue imputado en Francia por, entre otros cargos, no colaborar con las autoridades en investigaciones relacionadas con contenido ilícito. Tras ese proceso, la empresa modificó su política para incluir cooperación en casos de delitos graves.

Qué pueden hacer los usuarios

Cuando un usuario se encuentra con este tipo de contenidos:

  • En TikTok, puede denunciar publicaciones y comentarios desde la propia aplicación.
  • En Telegram, solo es posible denunciar contenido ilegal en canales públicos. En conversaciones privadas, la plataforma indica que se debe contactar por correo electrónico con sus equipos de abuso, aportando los identificadores disponibles.
  • Fuera de las plataformas, siempre es posible denunciar ante la Fiscalía o las autoridades competentes.

TikTok e IA: el peligro del contenido sexual infantil

Las protagonistas suelen ser niñas pequeñas y chicas adolescentes, pero las situaciones en las que las representan varían. El factor común: las publicaciones se llenan de comentarios en las que usuarios (muchos con fotos de perfil de hombres adultos) las sexualizan, incluso con mensajes sexualmente explícitos, o les dejan emojis de corazones y fuegos.

Hay decenas de contenidos creados con IA que muestran a las menores en bikini o usando ropa ajustada: los vídeos se enfocan en mostrar los pechos y piernas de las supuestas menores. También se repiten los vídeos de ellas saltando, ya sea usando ropa deportiva que marca sus genitales y pezones, o con uniforme escolar.

Otros, a primer vistazo, pueden parecer más inocentes, ya que las menores aparecen vestidas. Pero no lo son, como revelan los comentarios en diferentes idiomas. Hay videos que muestran a niñas sacando la lengua o comiendo helado con mensajes de usuarios que dicen “hasta el fondo” o “tienen que aprender tarde o temprano”. 

La IA de TikTok y Sora, las herramientas utilizadas

Todas las cuentas analizadas por Maldita.es usan la etiqueta de “contenido generado con IA” de TikTok o algún hashtag o comentario donde revelan el origen sintético de sus contenidos. Sin embargo, la mayoría de los videos analizados no tienen marcas de agua visibles que revelen con qué herramientas fueron creados.

Hay algunas excepciones. Uno de los perfiles analizados publicó varios videos de niñas y adolescentes en bikini con la marca de agua de TikTok AI Alive, una función que usa inteligencia artificial para “transformar fotos estáticas en vídeos dinámicos e inmersivos”, según TikTok. Otra de las cuentas (que redirige a X, donde publica enlaces a una web de pornografía) tiene varios vídeos de animadoras y chicas con uniforme escolar y de sirvienta saltando en las que aparece la marca de agua de Sora, la herramienta de creación de video de OpenAI.

‘Colegialas’, el tema favorito de los pedófilos

Una niña juega en una piscina. Unas estudiantes bailan en el patio de su instituto. Una adolescente canta a la cámara. Todas son escenas comunes de TikTok pero agrupadas en estos perfiles con descripciones como colegialas primaria, secundaria, prepa”, “me encantan las diosas de todo el mundo” y “las más lindas de los colegios”, el tono cambia. Las 20 cuentas que analizadas se dedican a recopilar videos de chicas, en muchos casos con uniforme o ambientados en espacios escolares. De hecho, 11 de los perfiles usan la palabra “colegiala” en el nombre de la cuenta. 

Los videos de menores son reales, reutilizados desde sus cuentas originales; a veces ocultan la marca de agua para evitar rastrearlas. Es el caso de un video que muestra a dos adolescentes bailando (que ha sido visto 193.000 veces), lleno de comentarios de usuarios que piden sus nombres. Uno contesta citando el perfil de la chica que lo publicó originalmente que, según su biografía, tiene 16 años.

Otra cuenta analizada, con 1.851 seguidores, recopila los vídeos que publicó originalmente una tienda de ropa argentina donde aparecen chicas con apariencia de ser menores modelando. En las publicaciones de la tienda no hay comentarios, pero sí en las del perfil que los republica: están llenos de mensajes de usuarios (muchos con fotos de perfil de hombres adultos) que las llaman “sexi”, les dejan emojis de corazones e imágenes con insinuaciones sexuales.  

Una actividad lucrativa

La cosa puede no quedarse solo en comentarios, porque la pornografía infantil está al alcance de cualquiera de estos usuarios en tan solo cinco minutos: entre los comentarios se promocionan cuentas de Telegram que venden e intercambian pornografía infantil real.  Varias de las cuentas analizadas redirigieron, ya sea a través del enlace vinculado en sus biografías o por mensaje directo, a sitios web donde se venden vídeos e imágenes sexuales de menores creados con IA. 

Además, seis de los 20 perfiles que publican estos contenidos creados con IA que sexualizan a menores usan el sistema de suscripción de TikTok, que permite cobrar por contenido exclusivo y funciones adicionales. Las suscripciones cuestan una media de USD 4,18. De estas ganancias, una parte va a la red social (el 50% después de la comisión de la plataforma de pago de iOS o Google del 15-30%, según explican en su web).

Videos con niñas irreales pueden normalizar la sexualización infantil

“Aunque no representen a niños reales, estos contenidos son profundamente problemáticos”, advierte Mamen Bueno, psicóloga sanitaria y psicoterapeuta. Según la experta, videos como los analizados por Maldita.es pueden “normalizar la sexualización infantil y reforzar patrones de consumo en personas con intereses dañinos hacia menores”. Silvia Catalán, psicóloga experta en sexualidades, añade que el problema radica en “perpetuar una imagen erótica y sexual de los cuerpos pequeños”, lo que dificulta distinguir lo permitido de lo éticamente inadmisible y puede alimentar la demanda hacia menores reales.

Estudios muestran que la sexualización conduce a la deshumanización y puede afectar la salud mental de los menores, provocando desórdenes alimenticios, baja autoestima y depresión, según la Asociación Americana de Psicología. El algoritmo de TikTok amplifica estos riesgos al recomendar contenido similar y perfiles que aparentan ser menores, aumentando la exposición a miradas potencialmente dañinas y el riesgo de captación, grooming o acoso, concluye Bueno.

Tras denunciar 15 de estas cuentas por incumplir las normas de TikTok, todas siguen estando disponibles  

Aunque TikTok prohíbe las cuentas que muestran imágenes generadas con IA que sexualizan o fetichizan a menores, los 15 perfiles que Maldita.es denunció siguieron activos 72 horas después. La plataforma solo aplicó restricciones temporales a una de ellas y consideró que la mayoría no infringía sus políticas.

En ese sentido, las redes sociales como TikTok sólo tienen obligación de eliminar un video si tienen “conocimiento efectivo” de que es ilegal, según la Ley de Servicios Digitales en España (DSA). Así lo explicó a Maldita.es Rahul Uttamchandani, abogado especializado en tecnología y privacidad.

¿Qué podemos hacer si nos encontramos con estos vídeos? 

En España,  si la menor está a nuestro cargo, Judel explica que podemos denunciar por la vía civil y solicitar una indemnización por los posibles daños y perjuicios ocasionados. Esta puede variar según el alcance de la difusión, el daño reputacional y el contexto: “Si hay un patrón de recolección sistemática de vídeos de niñas o adolescentes para fines fetichistas, la responsabilidad civil se dispara, y la indemnización también”, afirma. 

Como usuarios, podemos denunciar este tipo de contenido para que conste que las plataformas han sido notificadas. Para hacerlo, en TikTok debemos pulsar el botón ‘compartir’, presionar ‘denunciar’ y seleccionar el motivo correspondiente.

«Grok, quítale la ropa»: uso la IA en X y el riesgo de desnudar imágenes sin consentimiento

Las solicitudes a Grok incluyen instrucciones como “quítale la ropa”, “ponla en lencería” o “muéstralo sin camiseta”, aplicadas a imágenes de mujeres, hombres y menores de edad reales. La tendencia se detectó antes de que terminara 2025 y, pese a las alertas de investigadores y especialistas, ha acumulado millones de visualizaciones en la plataforma. La práctica fue documentada por la verificadora española  Maldita.es

Un uso recurrente de la IA para crear deepfakes sexuales

El uso de herramientas de IA para crear imágenes sexuales falsas no es nuevo. Grok ya había sido utilizado previamente para generar contenido violento, vejatorio o sexualizado de figuras públicas y personas famosas. Sin embargo, en este caso, las imágenes afectan a usuarios comunes y se difunden directamente en la red social.

Según un estudio de la empresa Security Hero, el 99 % de las víctimas identificadas en deepfakes sexuales son mujeres, aunque también existen casos que afectan a hombres y menores. En X, varios usuarios han denunciado que sus imágenes fueron modificadas sexualmente y que el contenido permaneció visible pese a haber sido reportado.

La investigadora de Bellingcat Kolina Koltai advirtió en mayo de 2025 que algunos usuarios ya habían identificado instrucciones específicas para que Grok generara imágenes de mujeres en bikini, lencería u otras prendas sexualizadas. Ocho meses después, estas prácticas siguen documentándose.

Una usuaria denunció que su imagen fue manipulada sexualmente pese a sus denuncias, y otro caso mostró cómo Grok generó contenido sexualizado tras solicitarlo, admitiendo que a veces produce materiales inapropiados.

También hay hombres entre las víctimas. Algunos usuarios han pedido a Grok que les quite los pantalones, la camiseta o incluso toda la ropa, dejándolos en ropa interior. “Que un tío le ha pedido a Grok que haga esto JAJAJA. Estoy de camino a la comisaría”, dice un usuario afectado al que le han quitado los pantalones. 

Eliminación de prendas religiosas y contenido vejatorio

Entre las solicitudes más frecuentes también figuran instrucciones para retirar prendas religiosas como el hijab o el burka de imágenes de mujeres musulmanas, dejando su cabello o cuerpo al descubierto sin consentimiento. En otros casos, usuarios han pedido a Grok que añada estas prendas de forma vejatoria a mujeres que denuncian el fenómeno.

Algunas de estas imágenes siguen disponibles en la plataforma a fecha de publicación, lo que plantea dudas sobre los mecanismos de moderación de contenido de X.

¿Qué ha hecho X?

Según informó CNBC, X desactivó o limitó temporalmente la función multimedia de Grok tras la difusión de estos casos. No obstante, la medida no ha impedido por completo la generación y circulación de imágenes sexualizadas creadas con IA.

X no ha detallado públicamente qué cambios específicos aplicó, ni si estos son permanentes o suficientes para prevenir nuevos abusos.

Responsabilidad de usuarios, IA y plataforma

La responsabilidad directa por la creación y difusión de estos contenidos recae en los usuarios que los solicitan. Sin embargo, las plataformas y las herramientas de inteligencia artificial utilizadas tampoco quedan completamente exentas de obligaciones.

En América Latina no existe una normativa regional equivalente a la Ley de Inteligencia Artificial de la Unión Europea. La mayoría de los países aún regulan estos casos a través de marcos generales, como las leyes de protección de datos personales, los derechos al honor y a la imagen, y las normas penales vinculadas a violencia digital o explotación sexual, especialmente cuando las víctimas son menores de edad.

Aun así, las plataformas digitales que operan en la región pueden asumir responsabilidad si, tras ser notificadas, no actúan para retirar contenidos ilícitos o que vulneran derechos fundamentales, conforme a la legislación nacional de cada país y a estándares internacionales de derechos humanos.

Prevención y acción

Para reducir el impacto de estos contenidos, es clave actuar con rapidez. Los usuarios pueden limitar la exposición de imágenes personales, evitar compartir contenido sexualizado de terceros y denunciar publicaciones que vulneren derechos, especialmente si involucran a menores.

Las víctimas deben conservar evidencia, solicitar la eliminación del contenido en la plataforma y evaluar las vías legales disponibles. Las plataformas, por su parte, tienen la obligación de actuar tras ser notificadas y retirar contenidos que vulneren derechos fundamentales.

Lo que sabemos de los bombardeos en Venezuela y la imputación de Nicolás Maduro en Estados Unidos

Entre la 1:50 y las primeras horas de la madrugada del 3 de enero, residentes y medios reportaron al menos siete explosiones y movimiento de aeronaves en Caracas y zonas cercanas.

Las detonaciones se escucharon en sectores como La Carlota, Fuerte Tiuna, El Valle, La Vega, El Hatillo, Higuerote y Mamo. En algunos puntos de la capital se registraron cortes de electricidad.

El gobierno venezolano afirmó que los ataques afectaron infraestructura civil y militar en Caracas y en los estados Miranda, Aragua y La Guaira.

¿Qué dijo Estados Unidos?

A través de redes sociales, Trump aseguró que Estados Unidos ejecutó una operación militar y que Nicolás Maduro y su esposa fueron capturados y trasladados fuera de Venezuela.

Horas más tarde, la fiscal general de Estados Unidos, Pamela Bondi, informó que Maduro y Cilia Flores fueron imputados en el Distrito Sur de Nueva York.

Según el Departamento de Justicia, Maduro enfrenta cargos por:

  • Conspiración de narco-terrorismo
  • Conspiración para la importación de cocaína
  • Posesión y conspiración para poseer armas de guerra y dispositivos destructivos contra Estados Unidos

Las autoridades estadounidenses sostienen que ambos imputados enfrentarán la justicia en tribunales estadounidenses, aunque no han difundido evidencia pública que confirme su ubicación actual.

Cómo fue la operación militar, según Estados Unidos

De acuerdo con declaraciones oficiales del gobierno estadounidense:

  • La operación habría estado a cargo de la Delta Force, una unidad de élite del Ejército de Estados Unidos.
  • Fue denominada “Absolute Resolve” y se ejecutó, según el mando militar, a pedido del Departamento de Justicia.
  • El jefe del Estado Mayor Conjunto, el general Dan Caine, indicó que participaron alrededor de 150 aeronaves, entre aviones y helicópteros.
  • Aviones de combate habrían neutralizado las defensas aéreas venezolanas para permitir el ingreso de helicópteros a Caracas.
  • Uno de los helicópteros fue alcanzado por fuego antiaéreo, aunque logró mantenerse operativo.
  • La operación habría durado aproximadamente dos horas y 20 minutos.
  • Estados Unidos sostiene que se trató de una acción puntual, no de una campaña militar prolongada.

El secretario de Estado, Marco Rubio, afirmó que no están previstas nuevas acciones militares tras la detención de Maduro. Sin embargo, Trump declaró posteriormente que Estados Unidos permanecerá involucrado hasta que, según sus palabras, se produzca una transición ordenada, y advirtió que su país está preparado para una segunda operación si lo considera necesario.

¿Qué respondió el régimen venezolano?

El gobierno de Venezuela calificó los hechos como una agresión militar por parte de Estados Unidos y denunció una violación del derecho internacional.

El ministro de Defensa, Vladimir Padrino López, anunció la activación de planes de defensa nacional, mientras que la vicepresidenta Delcy Rodríguez afirmó desconocer el paradero de Maduro y exigió una prueba de vida.

¿Qué se sabe del proceso judicial contra Maduro?

El proceso judicial contra Nicolás Maduro en Estados Unidos no comienza en enero de 2026. Sus antecedentes se remontan a marzo de 2020, cuando fiscales del Distrito Sur de Nueva York lo acusaron de narcotráfico internacional, identificándolo como uno de los líderes del Cártel de los Soles, una red que, según la acusación, involucra a altos funcionarios del Estado venezolano.

De acuerdo con la Fiscalía estadounidense, Maduro habría participado en la coordinación y protección de envíos de cocaína a gran escala, utilizando estructuras estatales para facilitar el tráfico de drogas hacia Estados Unidos.

El anuncio del 3 de enero de 2026 amplía y agrava esas acusaciones, al incorporar cargos vinculados al narco-terrorismo y al uso de armamento militar, lo que eleva el nivel del caso y las posibles penas.

Sin embargo, hasta ahora:

  • No se ha informado públicamente de una audiencia inicial ni de una comparecencia ante un juez federal.
  • No se han difundido documentos judiciales accesibles que confirmen el inicio formal del proceso en sede judicial.
  • Toda la información disponible proviene de comunicados del Ejecutivo y del Departamento de Justicia de Estados Unidos.

En el sistema judicial estadounidense, una imputación puede existir aunque el acusado no haya sido presentado físicamente ante la corte, por lo que el caso puede estar abierto sin que haya comenzado aún el trámite procesal público.

Cómo queda el poder en Venezuela

El presidente de Estados Unidos, Donald Trump, aseguró que su país asumirá temporalmente el control de Venezuela mientras, según sus palabras, se organiza una “transición ordenada”.

Trump señaló que Estados Unidos “va a manejar el país”, sin precisar bajo qué marco legal, por cuánto tiempo ni quiénes ejercerían funciones de gobierno. Tampoco explicó si se trata de una ocupación formal, un gobierno provisional o algún otro mecanismo.

El mandatario vinculó esta etapa con la industria petrolera venezolana, al afirmar que empresas estadounidenses invertirían en la infraestructura energética y que esos recursos financiarían la recuperación del país.

Hasta ahora, no existe confirmación independiente de que Estados Unidos esté ejerciendo control efectivo sobre Venezuela ni de que se haya producido una transición de poder. El régimen venezolano niega la captura de Nicolás Maduro y mantiene el control institucional del Estado.

Desinformación

«Un vídeo muestra un bombardeo en Fuerte Tiuna, Venezuela».

No, este video no muestra un bombardeo en Fuerte Tiana, Venezuela. En realidad, muestra los ataques con misiles iraníes contra Israel durante la guerra de los 12 días, registrada en agosto de 2025.

«Está imagen muestra la captura de Nicolás Maduro con militares»

No hay evidencia de que la imagen que circula de Nicolás Maduro capturado sea real. Existen indicios claros de que fue generada con inteligencia artificial. La imagen presenta inconsistencias visuales —como rasgos faciales poco definidos y detalles que no coinciden con fotografías auténticas—, elementos comunes en contenidos creados con IA.

Además, según SynthID de Google, la imagen contiene una marca de agua digital que indica que fue editada o generada, en su mayor parte o en su totalidad, con la inteligencia artificial de Google. Por otro lado, otros medios de verificación, como nuestros colegas de Verificado (de México), ya han catalogado esta imagen como falsa.

«Este vídeo muestra el retiro de las pancartas de Nicolás Maduro»

Ese vídeo es real, pero no es actual, fue grabado en julio de 2024. Las imágenes originalmente se difundieron un día después de las elecciones presidenciales en Venezuela (28 de julio de 2024). El material no está vinculado a una detención, operativo especial de Estados Unidos, como se sugiere en algunas publicaciones actuales.

«Diosdado Cabello murió en los bombardeos»

No, es falso que Diosdado Cabello murió en los bombardeos. La desinformación circuló en redes sociales y algunos portales digitales durante las primeras horas de la escalada del conflicto en Venezuela. Sin embargo, Diosdado Cabello apareció horas después en una transmisión en vivo, donde desmintió los rumores sobre su supuesta muerte.

Las imágenes fueron difundidas por el canal estatal Venezolana de Televisión (VTV) y muestran a Cabello activo y acompañado de militares, dirigiéndose a la ciudadanía. No existe evidencia que confirme su fallecimiento. La información que afirmaba lo contrario es falsa.

«Este video es una operación militar de Estados Unidos en Venezuela»

Este video viral es una versión manipulada con IA de un video real de una operación militar de Estados Unidos en Venezuela.

Aunque el video original sí corresponde a un hecho auténtico registrado en la madrugada del 3 de enero de 2026, circula una versión fue alterada con IA para añadir explosiones y ataques que no ocurrieron en la grabación original.

«La jefa del Comando Sur de Estados Unidos «confesó» que su país está atacando Venezuela para controlar sus recursos naturales».

FALSO. El clip viral atribuido a Laura J. Richardson está sacado de contexto. Richardson no es actualmente la jefa del Comando Sur de Estados Unidos. Ocupó ese cargo entre 2021 y 2024.

Las declaraciones corresponden a una intervención de 2023, en la que habló de seguridad regional, competencia geopolítica con China y Rusia y de la importancia estratégica de los recursos naturales en América Latina. No afirmó que EE. UU. busque apoderarse del petróleo, el litio o el oro, ni que Venezuela esté siendo atacada por esa razón. El video usa recortes de un discurso real para construir una narrativa falsa.

«Helicópteros Black Hawk de Estados Unidos en Caracas»

El contenido original fue publicado el 27 de noviembre de 2025 por Jim Ferguson, quien se presenta como “Embajador Internacional” de Advance UK, una organización activista del Reino Unido. La publicación mezcla ese video con una afirmación sobre la llegada de aviones de guerra estadounidenses a Somalia, un hecho que se enmarca en el conflicto de larga data entre Estados Unidos y grupos armados vinculados al Estado Islámico y al Al Shabaab en ese país.

No existe evidencia que relacione ese material audiovisual con operaciones militares de Estados Unidos en Caracas.

«Esta es una imagen de la detención de Maduro»

Esta imagen no es real: es IA. En redes sociales circula una imagen que supuestamente muestra la detención de Nicolás Maduro por parte de fuerzas especiales de Estados Unidos, la DEA y el FBI. La imagen no es auténtica y presenta indicios de haber sido creada con inteligencia artificial.

Entre las inconsistencias se observan letras ilegibles en el uniforme de uno de los supuestos soldados y rasgos faciales irregulares, señales frecuentes en contenidos generados con IA.

Además, según informó la cadena estadounidense CBS, fuentes militares de Estados Unidos —que no fueron identificadas— señalaron que la detención habría sido ejecutada por la Fuerza Delta, una unidad élite antiterrorista del Ejército estadounidense, y no por la DEA ni el FBI, como se afirma en la imagen viral.

Asimismo, herramientas de detección de contenido generado con IA, como InVID y SynthID, indican una alta probabilidad de que la imagen haya sido creada con inteligencia artificial.

«Esta imagen es de la captura de Nicolás Maduro»

La imagen de Nicolás Maduro detenido a bordo de USS Iwo Jima es REAL. El contenido fue publicado en el perfil de Truth Social del presidente Donald Trump.

Noticia en desarrollo

Estafas digitales en 2025: falsos bonos, suplantación de instituciones y plataformas fraudulentas

Bonos y beneficios sociales que nunca existieron

Una de las formas más recurrentes de estafa estuvo vinculada a supuestos bonos y ayudas económicas. Lupa Media identificó 18 casos que usaban el nombre del entonces Ministerio de Inclusión Económica y Social —hoy Ministerio de Desarrollo Humano—, junto con logos oficiales e incluso la imagen del presidente, para aparentar legitimidad.

Entre los engaños más frecuentes estuvo el inexistente “Bono Mujer”, , además de supuestos beneficios dirigidos a jóvenes, adultos mayores, emprendedores, “bonos navideños” o incrementos al Bono de Desarrollo Humano. El mecanismo era similar en todos los casos: publicaciones en redes sociales que redirigían a enlaces externos donde se solicitaban datos personales o pagos previos.

Mensajes falsos y cadenas engañosas

Otro grupo importante de estafas se difundió a través de SMS, correos electrónicos, redes sociales y cadenas de WhatsApp. En este rubro, Lupa Media verificó 17 contenidos que suplantaban a instituciones públicas y empresas privadas.

Circularon falsas multas de tránsito, avisos de caducidad de millas de tarjetas de crédito, supuestos pagos aduaneros, bloqueos de cuentas bancarias y ofertas laborales inexistentes atribuidas al IESS, universidades, el Metro de Quito o empresas privadas como Multicines.

También circularon cadenas alarmistas vinculadas a inseguridad o hackeos, muchas bajo esquemas de phishing, cuyo objetivo era generar urgencia y miedo para inducir a las personas a hacer clic en enlaces o entregar información sensible.

Plataformas de inversión y sitios web fraudulentos

Las falsas oportunidades de inversión también estuvieron presentes en 2025. Lupa Media verificó 12 casos que prometían ganancias rápidas y “seguras”, principalmente vinculadas a criptomonedas, trading o sistemas automatizados.

Para ganar credibilidad, estos contenidos suplantaban empresas, medios de comunicación y figuras públicas como Daniel Noboa o su tía Isabel Noboa. En algunos casos, difundían entrevistas manipuladas y videos con indicios de uso de inteligencia artificial.

El esquema se repetía: solicitar una inversión inicial, exigir nuevos pagos con distintos pretextos y luego desaparecer. Las verificaciones confirmaron que estos sitios usaban dominios no oficiales, carecían de autorización legal y fueron desmentidos por las instituciones suplantadas.

Estafas dirigidas a población migrante

Aunque en menor número, las estafas orientadas a población migrante fueron especialmente visibles durante las Elecciones Generales en el primer cuatrimestre del año. En 2025 circularon falsos anuncios sobre becas universitarias, bonos económicos y empleos masivos supuestamente impulsados por el Gobierno ecuatoriano o por figuras políticas como Luisa González.

Estos contenidos apelaban a necesidades reales —regularización, estabilidad económica y acceso a oportunidades— y redirigían a enlaces externos para recopilar datos personales. Las verificaciones confirmaron que estos programas no existían y que se distorsionaban narrativas de políticas públicas reales.

¿Cómo prevenir estas estafas?

Las 50 verificaciones realizadas en 2025 evidencian patrones claros: promesas económicas, suplantación institucional, mensajes urgentes y enlaces externos. Algunas recomendaciones clave que explicamos en este artículo son:

  • Desconfía de ofertas demasiado atractivas o mensajes alarmistas que circulan solo en redes.
  • Verifica siempre la información en canales oficiales.
  • Evita abrir enlaces enviados por mensajes no solicitados.
  • No entregues datos personales, códigos de verificación o dinero por mensaje, llamada o redes sociales.
  • Si sospechas de una estafa, guarda evidencia (capturas, enlaces, números) y envíala a Lupa Media para verificación. Cuando corresponda, repórtala también ante las autoridades.

Aumento de estafas que usan inteligencia artificial: qué está pasando y cómo prevenirlas

En este explicativo te contamos cómo funcionan estas estafasqué señales deben alertarte y qué recomiendan las autoridades y expertos para no caer.

No son estafas nuevas, pero sí más convincentes

Delitos como el phishing, la suplantación de identidad o la apropiación fraudulenta existen desde hace años. La diferencia es que hoy los estafadores usan inteligencia artificial. Entre las prácticas más frecuentes están:

  • Clonación de voz, a partir de audios publicados en redes sociales o mensajes de voz.
  • Videos falsos o deepfakes, donde una persona parece pedir dinero o recomendar inversiones.
  • Mensajes y llamadas automatizadas, que permiten contactar a muchas personas en poco tiempo.
  • Suplantación de identidad, que imitan la imagen, el lenguaje y el comportamiento de personas reales o instituciones.

En la mayoría de los casos, el objetivo es el mismo: provocar urgencia o miedo para que la víctima actúe sin verificar.

Cuando la voz o el rostro parecen reales

Uno de los mayores riesgos de estas estafas es que la comunicación puede parecer auténtica. Algunas personas han recibido llamadas de supuestos familiares pidiendo dinero por emergencias, accidentes o problemas legales. Solo después de hacer la transferencia descubren que la voz fue clonada.

Que una voz o un rostro se vean reales no garantiza que lo sean. Por eso, especialistas recomiendan no reaccionar de inmediato, incluso si el mensaje genera angustia o presión emocional.

Señales de alerta en audios y videos

Los contenidos generados o alterados con IA suelen dejar pistas. Lupa Media ha verificado en Ecuador videos falsos usados para promover inversiones o pedir transferencias. Algunas señales de alerta son:

  • Movimientos faciales poco naturales.
  • Desfase entre labios y audio.
  • Sonidos extraños o entonaciones forzadas.
  • Mensajes genéricos o mal contextualizados.
  • Llamados urgentes a enviar dinero o promesas de ganancias rápidas.

Si un contenido genera presión emocional, lo más seguro es no compartirlo ni responder sin verificar.

Verificar sigue siendo la mejor defensa

Ante cualquier llamada, audio, mensaje o video sospechoso, la recomendación es verificar por otros canales:

  • Cuelga y llama tú mismo al número que tienes guardado.
  • Escribe por otra aplicación o consulta con alguien de confianza.
  • Si dicen representar a un banco o institución pública, contacta directamente por sus canales oficiales.

Tomarse unos minutos para comprobar la información puede evitar pérdidas económicas.

Cuidado con lo que compartes en redes sociales

Para hacer creíbles estas estafas, los delincuentes necesitan información real. Audios, videos, fotos, rutinas o datos familiares publicados en redes pueden usarse para suplantaciones. Mientras más información pública haya, mayor es el riesgo. Las recomendaciones básicas incluyen:

  • Revisar la configuración de privacidad.
  • Limitar quién puede ver o descargar videos y audios.
  • Evitar publicar documentos, números personales o datos sensibles.
  • Desconfiar de aplicaciones que piden acceso a cámara, micrófono o contactos sin una justificación clara.

Nunca envíes dinero ni datos ante pedidos inesperados

Una señal clara de estafa es la solicitud de:

  • Transferencias inmediatas.
  • Pagos electrónicos urgentes.
  • Tarjetas regalo.
  • Criptomonedas.
  • Códigos de verificación o claves.

La Asociación de Bancos Privados del Ecuador (Asobanca) recuerda que los bancos no solicitan contraseñas ni códigos por teléfono, mensajes o redes sociales. Si ya realizaste un pago, contacta de inmediato a tu banco.

Un problema en crecimiento

La Fiscalía General del Estado no clasifica los delitos según el uso de inteligencia artificial. Sin embargo, las cifras muestran un aumento sostenido de estafas y delitos informáticos, muchos de los cuales ya incorporan audios, videos y perfiles falsos.

El jefe de la Unidad Nacional de Ciberdelitos, Gonzalo García señaló que en en lo que va del año se contabilizan aproximadamente 1.047 disposiciones fiscales para iniciar una investigación con respecto a este tipo de delitos. Entre los más comunes o con mayor impacto destaca:

  • Apropiación fraudulenta por medios electrónicos.
  • Acceso no consentido a un sistema informático, telemático o de telecomunicaciones.

Entre 2015 y 2025, la Fiscalía registró 28.995 denuncias por apropiación fraudulenta por medios electrónicos(phishing). Solo en 2025, la cifra llega a 4.732 casos, con Guayas y Pichincha entre las provincias con más denuncias.

La Policía Nacional ha advertido que este es uno de los ciberdelitos más comunes en el país y que muchas investigaciones ya incluyen el análisis de contenidos generados con herramientas digitales avanzadas.

Cómo la IA y las emociones reemplazaron a los hechos en la campaña del 16N

Entre el 1 y el 12 de noviembre de 2025, se identificaron 125 publicaciones en TikTok, X (antes Twitter), Facebook e Instagram que promovían posturas a favor y en contra de la Consulta Popular. Apelando a emociones intensas —miedo, indignación, heroísmo o esperanza— en lugar de ofrecer argumentos verificables.

Las plataformas dominantes fueron TikTok (65 %), X (30 %), Facebook (3 %) e Instagram (2 %).

El 75 % de los contenidos virales usaron inteligencia artificial —imágenes hiperrealistas, voces clonadas, deepfakes o textos generados—, y solo el 5 % incluía una etiqueta que señalaba su origen artificial. Además, el contenido anticipado fue difundido por diferentes tipos de cuentas:

Narrativas emocionales dominantes

  • Destrucción ambiental: Los contenidos usaron la imagen de especies endémicas para reforzar la postura del “no”. Por ejemplo, se mencionó el peligro para especies de Galápagos ante la posible instalación de una base militar (pregunta A del Referéndum) y la amenaza de la minería ilegal en Quimsacocha (pregunta D de la Asamblea Constituyente). También se hizo referencia al jaguar en la Amazonía y a los riesgos asociados con la presencia de actores extranjeros.
  • Unidad nacional: Para respaldar la postura del “Sí”, se emplearon símbolos patrióticos como los colores de la bandera nacional, el cóndor, canciones futbolísticas y la palabra “Sí” en 3D, montada digitalmente en distintas ciudades del Ecuador. Esta estrategia apoyó de manera generalizada todas las preguntas de la consulta, no una en particular.
  • Seguridad y violencia: Se realizaron campañas con comediantes, como David Reinoso, para transmitir que solo los delincuentes votan por el “no” y que las bases militares representan protección. En contraparte, otros contenidos señalaron que la inseguridad persiste y está presente a diario. Además, se recurrió a la violencia de género para asociar a quienes votan por el “sí” con la continuación de malos tratos.
  • Corrupción: La campaña buscó cuestionar el trabajo de los asambleístas y los partidos políticos para incentivar el voto “Sí” en las preguntas B y C, que proponen la eliminación del fondo partidista a organizaciones políticas y la reducción del número de asambleístas. Desde la campaña del “No”, se vinculó al presidente Daniel Noboa con intereses que favorecen a empresas bananeras y a círculos cercanos, sugiriendo una relación directa con el sector.
  • Equilibrio: Desde la postura del “No”, la pregunta D sobre la Asamblea Constituyente se presenta como un cambio que podría afectar derechos humanos fundamentales, como la salud y la educación pública, evidenciando inestabilidad en el país. En contraste, la postura del “Sí” muestra un país en paz, moderno, tecnológico y estable.

La polarización en imágenes.

  • Refresco: Quienes apoyaban el “No”, el refresco se mostró como algo incierto: un producto cuyo contenido se desconoce hasta que se compra, apelando al miedo a lo inesperado y la desconfianza hacia las propuestas del voto afirmativo. En cambio, desde el lado del “Sí” lo presentaban como una invitación a “refrescarse” con algo nuevo, asociando el voto con renovación, energía y posibilidades positivas.
  • Personajes simbólicos: El borrego se convirtió en el símbolo más polarizante, usado como insulto por algunos y como emblema de lealtad por otros en TikTok. La Rana René se empleó para ridiculizar a Luisa González, aprovechando la popularidad del meme para generar contenido simultáneamente compartible, humorístico y crítico. También hubo espacio para la ironía: el personaje Nobita, de la serie japonesa Doraemon, pasó de ser un insulto dirigido al presidente a convertirse en un héroe digital.
  • Shakira: La cantante Shakira fue utilizada como símbolo político sin su consentimiento. Se difundieron imágenes manipuladas junto a políticos ecuatorianos, portadas falsas con declaraciones inventadas y controversias fabricadas, con el objetivo de generar atención y confusión.

Por qué estas estrategias funcionan

Las campañas digitales explotaron sesgos cognitivos para volver sus mensajes más persuasivos. El sesgo de confirmación hizo que la gente aceptara con facilidad aquello que coincidía con sus ideas previas. El efecto de verdad ilusoria convirtió en “creíble” lo que se repetía muchas veces. Con el sesgo de disponibilidad, los contenidos más llamativos o emocionales se sintieron más importantes de lo que realmente eran. El efecto halo permitió que mensajes asociados a personajes populares parecieran automáticamente positivos, y el sesgo de autoridad hizo que afirmaciones de figuras influyentes se asumieran como ciertas sin verificarlas.

Según Mike Wendling, periodista digital de la BBC, que ha documentado fenómenos similares en Estados Unidos identificó que «la gente comparte contenido que resuena emocionalmente con sus creencias, aunque sea falso». En este caso, miles de ecuatorianos fueron expuestos anticipadamente a información diseñada para manipular emociones, más que para informar decisiones.

Redes sociales sin regulación

Aunque la campaña oficial terminó el 13 de noviembre, contenidos del “Sí” y el “No” siguen circulando. Actualmente, la Ley Electoral no regula redes sociales, pero el gasto en publicidad digital sí se cuenta dentro del límite de campaña. Mauricio Alarcón Salvador, director de la Fundación Ciudadanía y Desarrollo, señala que controlar la propaganda en redes es un desafío.

Desinformación Electoral & IA: ¡Que No Te Engañen en la Consulta Popular!

1.-¿Qué es la desinformación con IA?

Es la creación y difusión de contenidos falsos o manipulados con herramientas de inteligencia artificial. Estas tecnologías permiten generar con gran rapidez:

  • Imágenes o videos de hechos que nunca ocurrieron.
  • Audios falsos, donde una voz clonada imita a políticos o figuras públicas.
  • Videos hiperrealistas de personas que parecen reales, pero son totalmente sintéticas y se usan para simular entrevistas o noticieros.

2.- Identifica los deepfakes

Los deepfakes son audios o videos donde se suplanta a una persona para hacerla decir o hacer algo que nunca hizo.

Por ejemplo, durante la campaña presidencial de 2025 se detectaron deepfakes de periodistas, políticos e incluso artistas. No fueron casos aislados: formaron parte de estrategias coordinadas para desinformar, hacer propaganda, suplantar identidades y manipular percepciones.

@lupamedia 🔍 #FactCheckExprés | ❌ No, el Papa Francisco no se pronunció sobre las Elecciones Generales de Ecuador 2025. 🎥 El video que circula en redes con esas declaraciones fue manipulado con inteligencia artificial (IA). 📆 El material original fue publicado el 20 de diciembre de 2024 en el canal de YouTube Orbe 21. 🎙️ En la entrevista real, el Papa habla sobre la crisis global, las guerras, la Iglesia y la esperanza de la humanidad —no menciona temas políticos ecuatorianos. 🔗 Puedes ver el video completo aquí: https://youtu.be/xpBf-enOde4?si=5Jwye4kROzUkllGI #LupaTeExplica #Verificación #Desinformación #Elecciones2025 #Ecuador #IA #FakeNews ♬ sonido original – Lupa Media

3.- Cuidado con las imágenes emocionales

No todas las falsedades alteran hechos concretos. Muchas imágenes generadas con IA apelan a las emociones, reforzando ideas o creencias previas para que el contenido parezca más convincente.

Un análisis de BBC Verify reveló que una foto creada con IA sobre una supuesta víctima de huracán en EE. UU. fue compartida por políticos porque “transmitía” el dolor de las víctimas, aunque era completamente falsa. Es decir, defendían una «verdad emocional», no un hecho.

4.- Detecta perfiles falsos y bots

Los perfiles falsos (que simulan ser personas reales) y los bots (cuentas automatizadas) amplifican la desinformación generada con IA. Buscan aparentar consenso o rechazo masivo a ciertas posturas de la consulta popular.

Señales de alerta: cuentas recién creadas, actividad excesiva o repetitiva, pocas interacciones reales, fotos genéricas o creadas por IA.
Evita interactuar con ellas y bloquéalas o repórtalas: así reduces su alcance.

5.- ¿Cómo afecta esto al proceso democrático

La IA puede usarse para:

  • Distorsionar el sentido de las preguntas de la consulta.
  • Atacar o desprestigiar a sus promotores.
  • Difundir falsos anuncios oficiales sobre el proceso electoral.
  • Manipular emociones con imágenes o videos falsos de disturbios o situaciones extremas.

Todo esto erosiona la confianza ciudadana y enturbia el debate democrático.

6.- Cómo protegerse

  • Reporta contenido sospechoso en redes o ante el CNE.
  •  Verifica la fuente: busca medios confiables y cuentas oficiales.
  • Desconfía de lo que te haga reaccionar fuerte (miedo, ira, entusiasmo).
  • Usa herramientas de verificación: plataformas como Lupa Media ofrecen chequeos rápidos de videos, audios e imágenes.
  •  Contrasta información: consulta más de una fuente antes de creer o compartir.