Skip to main content

Etiqueta: inteligencia artificial

Las aplicaciones en teléfonos y computadoras ¿escuchan nuestras conversaciones?

Los especialistas consultados coinciden: sí, los dispositivos registran datos. Pero no se trata de espionaje al estilo de Hollywood: el usuario ha dado, en mayor o menor medida, su consentimiento.

Al instalar una aplicación, se aceptan términos y condiciones que muchas veces incluyen permisos amplios, como acceso a la cámara, fotos, micrófono y rastreo de movimientos. “Muchas veces cuando seleccionas lo que no quieres que haga la app simplemente no se instala”, explica Diana Maldonado, tecnóloga en informática y ciberseguridad.

Los teléfonos funcionan como canales para que las aplicaciones analicen comportamientos y preferencias, especialmente en redes sociales. “El celular sin la red social existe, pero la red social sin el celular no”, añade Maldonado.

Al instalar las aplicaciones es necesario fijarse en qué permisos les damos y a qué herramientas del teléfono tienen acceso.

¿Qué hacen con la recopilación de datos?

La entrega de información personal no siempre se debe a la omisión de los términos y condiciones, sino a que estos están redactados de manera confusa. Un estudio de la Universidad de Cornell demostró que la mayoría de los nuevos usuarios no comprende las políticas de privacidad, aunque estas aparenten ser protectoras.

Con los asistentes de voz como Siri, Alexa o Echo, la situación se intensifica. Alejandro Varas, consultor en protección de datos, señala que los micrófonos permanecen activos en segundo plano para “aprender la forma de hablar del usuario”, pero también para fines comerciales. La combinación de conversaciones y movimientos digitales permite a las empresas conocer género, edad, ubicación, intereses y hábitos de consumo, información que puede ser vendida para estrategias de marketing.

Las escuchas de las conversaciones se agravó con la implementación de la inteligencia artificial en los asistentes de voz como Siri, Alexa y Echo.

Marco legal

En junio de 2024, Meta actualizó su política de privacidad para utilizar contenido público de los usuarios en el entrenamiento de modelos de inteligencia artificial generativa. La Unión Europea y Brasil lograron que los usuarios pudieran oponerse a la recolección de datos. En la mayoría de América Latina, la legislación vigente es insuficiente o inexistente.

Ecuador cuenta desde 2021 con la Ley de Protección de Datos Personales, que garantiza el derecho a decidir sobre información personal. Sin embargo, según Varas, las empresas locales no están preparadas para atender estas solicitudes, y Maldonado señala que la normativa no contempla la inteligencia artificial, por lo que su regulación es limitada.

La mayoría de países en América Latina no tienen leyes que protejan los datos y delimiten hasta dónde puede llegar la inteligencia artificial.

Medidas de privacidad

Meta asegura que Facebook e Instagram no escuchan conversaciones sin permiso. Aun así, limitar el acceso a información requiere navegar por menús poco visibles. Lupa Media comprobó que incluso al intentar eliminar datos, algunas páginas presentan errores.

Para reducir el seguimiento:

  • En Facebook, acceder a ‘Configuración y privacidad’ > ‘Centro de Privacidad’.
  • En Instagram, ir a ‘Configuración y actividad’ > ‘Centro de privacidad’.
  • En ‘Apps y sitios web’ se puede limitar el seguimiento de Meta en otras aplicaciones. En ‘Comprobación rápida de privacidad’ se puede limitar la información pública.

Maldonado recomienda precaución con temas sensibles: dejar los dispositivos en otra habitación o usar métodos como la jaula de Faraday (envolver el teléfono en aluminio, sin encenderlo). También es recomendable desinstalar aplicaciones que ya no se usan, pues continúan recopilando datos.

Los teléfonos no son intrínsecamente peligrosos; funcionan como canales de información. Con los ajustes adecuados, pueden ofrecer un uso seguro y controlado.

IA en medicina: datos rápidos, pero… ¿diagnósticos confiables?

Hoy en día, herramientas como ChatGPT, Claude, Copilot o Perplexity responden casi cualquier pregunta en segundos. Y claro, cuando se trata de salud, la tentación de pedirles un diagnóstico rápido es enorme. Pero, ¿es seguro dejar que un chatbot nos diga qué tenemos y cómo tratarlo?

El boom de los diagnósticos digitales

En Colombia, un estudio del Programa de Enfermería de la Universidad Manuela Beltrán reveló que 3 de cada 5 personas confían en los diagnósticos médicos de la inteligencia artificial.  un 40% cree incluso que podrían reemplazar a un doctor.

En Ecuador, el médico internista Ney Dolberg asegura que 8 de cada 10 de sus pacientes, la mayoría jóvenes, ya llegan con un diagnóstico hecho por un chat bot de IA antes de consultarlo. Aunque lo toma como un reto, lanza una advertencia clara: “La máquina no tiene sabiduría ni conocimiento, apenas transforma datos”.

¿Cómo los chatbots de IA obtienen sus respuestas?

Un chatbot básico responde solo a preguntas preprogramadas (como los que atienden consultas rápidas por WhatsApp). En cambio, sistemas como ChatGPT o Claude generan respuestas en tiempo real que se elaboran con grandes bases de datos.

El problema, explica Hernán Mejía, gerente de la consultora de servicios de información SECUOIA, es que no siempre es confiable porque sus respuestas se limitan a la información suministrada.

  • Hay criterios médicos distintos según el país o la cultura.
  • Las estadísticas pueden estar sesgadas.
  • Incluso los papers científicos se contradicen.

“ChatGPT te va a tratar de dar una respuesta concreta, no ambigua”, agregó . Es decir, el programa no puede interpretar los síntomas o datos del usuario, solo presenta las respuestas más probables de lo que padece. 

Los principales riesgos de confiar en la IA médica

  •  La consulta médica es un método científico: El Dr. Dolberg recuerda que un médico sigue pasos: escuchar al paciente, revisar su historia clínica, generar hipótesis y confirmarlas con exámenes físicos, mecánicos o de laboratorio. Un chatbot no puede hacer ese proceso. “Cuando un profesional sanitario usa la IA ya tiene una referencia de qué patología probable puede ser. En cambio, cuando está en mano del paciente, puede malinterpretar el resultado que se le está dando”, advierte el médico.
  • Cuidado con el impacto emocional: Si la IA “diagnostica” algo grave, lo hará sin la sensibilidad ni el acompañamiento humano que un médico ofrece.
  • Privacidad en juego: Entregar exámenes médicos a la IA puede exponer datos personales. Mejía advierte: “Cuando algo es gratis, tú eres el producto”. Es decir, tus datos pueden terminar en perfiles de consumo o publicidad dirigida.

*Un reportaje de DW mostró, por ejemplo, que varias apps de salud femenina venden la información de las usuarias a anunciantes, quienes ajustan su marketing según el ciclo menstrual.

El riesgo de la automedicación:

Recetar medicamentos por cuenta propia con base en lo que dice la IA puede causar:

  • Resistencia a ciertos fármacos.
  • Dependencia innecesaria.
  • Enmascarar enfermedades graves.

El Dr. Dolberg insiste en que las consultas médicas a la inteligencia artificial no son dañinas por sí solas, solo deben estar acompañadas por un profesional. La IA te da datos y “los datos no son información, información no es conocimiento, conocimiento no es sabiduría. Cuando nosotros hacemos un diagnóstico y un tratamiento, necesitamos sobre todo sabiduría”.

¿Entonces sirve o no sirve la IA en medicina?

La inteligencia artificial no es una entidad malévola, es una herramienta. Por lo tanto, su uso debe estar acompañado de un profesional calificado. Se la puede aplicar a varios aspectos médicos, como los análisis de exámenes e imágenes, desarrollo de prótesis, detección de trastornos genéticos, visibilidad del feto en embarazos, entre otros. De hecho, en Riobamba se realizó la primera craneoplastia guiada por inteligencia artificial. Esta fue una cirugía cerebral que usó algoritmos para diseñar un modelo de impresión 3D de un implante que permita la adaptación perfecta en el cerebro del paciente de 15 años. 

¿Qué dice Chat GPT ?

Consultamos a uno de los chatbots más usados en el mundo. Chat GPT si podemos confiar en un diagnóstico clínico y esta fue su respuesta:

FIMI: Así manipulan tu opinión desde otros países (sin que te des cuenta)

Imagina que alguien intenta influir en la política de tu país desde fuera, no con soldados ni armas, sino usando información para confundir, engañar y dividir a la gente. A eso se le conoce como FIMI, por sus siglas en inglés: Foreign Information Manipulation and Interference (Manipulación e Interferencia Informativa Extranjera, en español).

A diferencia de la desinformación —que busca engañar con contenido falso—, la FIMI no siempre parte de mentiras completas. Muchas veces utiliza datos verdaderos, pero los saca de contexto, los mezcla o los presenta de forma engañosa para generar desconfianza, miedo o polarización.

Es decir, no se trata solo de “noticias falsas”, sino de esfuerzos deliberados y coordinados para intervenir en el debate público, dañar la credibilidad de instituciones o influir en procesos democráticos.

¿Cómo se manipula la verdad con fines de FIMI?

Según el Instituto para el Diálogo Estratégico (ISD), una think‑tank internacional fundado en 2006 y con sede en Londres, hay tres formas comunes en que se manipula la verdad con fines maliciosos.

  • Exposición dañina: Se divulga información real que pone en riesgo a una persona, con la intención de atacarla públicamente.
  • Aprovechamiento de errores: Se toman hechos ciertos —como casos de corrupción— no para informar, sino para manipular la percepción pública.
  • Sacar de contexto (cherry picking): Se selecciona solo una parte de la información que favorece una narrativa interesada, ignorando el resto del contexto.

¿Cómo se construye una operación FIMI? El modelo ABCDE

Una forma de entender cómo opera la FIMI es mediante el modelo ABCDE, que ayuda a analizar estas campañas paso a paso:

  • A (Actores): Quiénes están detrás de la desinformación o manipulación. En el caso de FIMI, pueden ser gobiernos extranjeros, grupos organizados o personas que actúan de manera coordinada.
  • B (Behavior – Comportamiento): Cómo actúan estos actores, por ejemplo, usando cuentas falsas, bots, o generando videos con inteligencia artificial para engañar.
  • C (Content – Contenido): Qué tipo de información crean o modifican: desde noticias falsas, manipulaciones de datos, hasta mensajes que mezclan verdades con mentiras para confundir.
  • D (Distribution – Distribución): Por dónde y a quiénes llega esa información. Puede ser a través de redes sociales, medios digitales o influencers que repiten esos mensajes.
  • E (Effect – Efecto): El impacto que tiene esta manipulación en la sociedad: pérdida de confianza, división social, desestabilización política.

Mientras que la desinformación se enfoca en el contenido falso, la FIMI pone el foco en el comportamiento estratégico de quienes manipulan la información.

Narrativas comunes en campañas FIMI

Las campañas de FIMI giran en torno a temas que generan miedo, ira o división. Un estudio del Instituto para el Diálogo Estratégico en Alemania identificó cinco narrativas frecuentes que también se observaron en Ecuador durante las elecciones generales de 2025.

Esto sugiere que, aunque los contextos cambien, los discursos desinformativos tienden a seguir patrones similares en diferentes partes del mundo.

Operaciones de FIMI detectadas

Algunas de las operaciones más conocidas a nivel internacional son:

Estas tácticas, aunque diversas, tienen algo en común: buscan erosionar la confianza en las instituciones y manipular la percepción pública sin que el lector se dé cuenta de quién mueve realmente las piezas. Durante el último proceso electoral en Ecuador, esto se evidenció con campañas falsas, manipulación excesiva de contenido y el uso de inteligencia artificial para desprestigiar a los candidatos.

Tácticas comunes

Las técnicas que emplea FIMI son cada vez más sofisticadas y difíciles de detectar. Por ejemplo, crean audios y videos con inteligencia artificial que parecen reales, pero están diseñados para engañar. También esconden quién está realmente detrás de ciertas cuentas o mensajes, usando identidades falsas o suplantando a instituciones confiables.

Además, coordinan grupos de cuentas para actuar juntos y hacer que un mensaje parezca más popular o creíble de lo que realmente es. Incluso aprovechan a personas influyentes para que, sin saberlo, ayuden a esparcir estas ideas manipuladas y afecten la opinión pública.

¿Esto ya pasó en Ecuador?

Sí. Un análisis de OpenAI, la empresa detrás de ChatGPT, publicado en febrero de 2025 identificó múltiples operaciones que utilizaron inteligencia artificial para generar y distribuir contenido desinformativo en América Latina, incluido Ecuador.

Desde China se creó contenido falso —generado con IA— para difundir campañas de influencia política, especialmente en contra de Estados Unidos. Este material fue traducido al español y difundido en medios de Perú, Ecuador y México.

Dos medios ecuatorianos publicaron piezas con títulos como:

  • El problema de la seguridad alimentaria en la sociedad estadounidense y su impacto en las escuelas
  • La tragedia de Estados Unidos: cuando la verdad es encubierta

Estos textos imitaban el estilo de reportajes periodísticos, pero fueron creados con herramientas de IA como ChatGPT, según reportó OpenAI.

¿Qué puedes hacer frente a la FIMI?

  1. Analiza el contenido, no solo el mensaje: Presta atención a quién publica la información, en qué contexto y con qué objetivo aparente. ¿Apela a tus emociones? ¿Falta una fuente clara?
  2. Busca señales de coordinación: Si ves el mismo mensaje replicado por cuentas similares, recién creadas o anónimas, puede tratarse de una campaña automatizada o coordinada.
  3. Desconfía de las cuentas que ocultan su identidad: Las operaciones FIMI suelen usar perfiles falsos o suplantaciones de instituciones confiables.
  4. Consulta medios y fuentes confiables: Contrasta la información con fuentes verificadas antes de compartir contenido que te genere alarma, indignación o miedo.
  5. Infórmate sobre cómo funciona la desinformación: Comprender las técnicas más comunes de manipulación te ayuda a detectarlas más fácilmente.

Desde Lupa Media, seguiremos generando contenidos educativos y verificaciones que te ayuden a navegar un ecosistema informativo cada vez más complejo.

Contenidos creados con IA de destinos turísticos pueden desinformar y distorsionar la realidad

(Maldita.es).- En redes sociales y páginas web, algunas incluso dedicadas al turismo, se comparten imágenes y vídeos creados con inteligencia artificial de destinos turísticos e históricos como si fuesen reales. Estos contenidos pueden generar desinformación, crear falsas expectativas en los viajeros y contribuir a la ‘mierdificación’ de internet. 

Uno de los ejemplos es una imagen viral del yacimiento arqueológico Gunung Padang, en Indonesia, que circula en Facebook, Instagram y Twitter. Pero expertos consultados por AFP Factual indican que la imagen es “físicamente inverosímil” y que las inconsistencias visuales, como las luces y geometría, revelan que ha sido creada con IA. 

Otro caso es el de las Termas de Caracalla, en Roma. Una imagen compartida por una página de Facebook muestra las ruinas en funcionamiento, con bañistas incluidos, como si el lugar siguiera activo. En los comentarios, hay usuarios que parecen creer que la imagen es real, pero ha sido creada con IA: una búsqueda inversa de Google muestra que la imagen proviene de un perfil de Instagram que publicó el prompt utilizado para crearla. 

También circula un vídeo supuestamente de Xiaozhai Tiankeng, el pozo más grande del mundo, en China. Las imágenes, compartidas en múltiples redes sociales, lo muestran aislado en una cadena montañosa. Sin embargo, imágenes de Google Earth y un vídeo de la BBC muestran que el pozo real está rodeado de casas y carreteras, y su interior es escalonado y lleno de vegetación. El vídeo tiene indicios de haber sido generado con IA, como un brillo poco usual y formas demasiado perfectas.

En páginas web también se encuentran ejemplos. Un artículo sobre la ciudad de Tetuán, publicado en la web de una agencia de viajes a Marruecos, incluye una imagen de portada con indicios de haber sido creada con IA: distorsiones en los balcones, luces poco realistas y una figura humana a la que le falta un brazo. La imagen no ha sido publicada por fuentes fiables según la búsqueda inversa, y tampoco hay otras imágenes del supuesto edificio que aparece. 

Estos contenidos pueden provocar desinformación, generar falsas narrativas y alterar la percepción sobre lugares o destinos turísticos. Paloma Prevost, especialista en Turismo Sostenible, alerta de que este tipo de contenidos puede “distorsionar completamente la experiencia” de los turistas. Pone como ejemplo una imagen de Machu Picchu generada con IA, en la que el lugar aparece vacío y perfecto, lo que no se corresponde con la realidad. “Quien viaje esperando esa postal puede acabar profundamente decepcionado”, advierte. Además, señala que la desinformación visual puede perjudicar a comunidades que dependen del turismo, dañar la reputación del destino y reforzar narrativas aspiracionales poco realistas.

Por otro lado, estos contenidos también contribuyen a la ‘mierdificación’ de internet, un término que hace referencia al proceso por el cual las plataformas empeoran sus servicios hasta que dejan de servir. Esto dificulta que los usuarios encuentren información útil, por ejemplo, sobre un destino que planean visitar o sobre el que necesitan investigar.

Para identificar si una imagen o vídeo ha sido creado con IA, es clave contrastar siempre con fuentes oficiales (como páginas oficiales de turismo), buscar etiquetas de que el contenido ha sido creado con IA (como “#ai”), rastrear el origen del contenido mediante herramientas como la búsqueda inversa de imágenes, y estar atentos a indicios visuales como sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.

Lo que dijo la MOE UE sobre desinformación en el proceso electoral

La Misión de Observación Electoral de la Unión Europea (MOE UE) inició su trabajo en Ecuador el 28 de diciembre de 2024. Conformada por 106 observadores desplegados en las 24 provincias, su objetivo fue evaluar todas las etapas del proceso electoral. Además del monitoreo presencial, la misión analizó el contenido circulante en redes sociales para identificar narrativas de campaña vinculadas a la desinformación, la manipulación y el uso de inteligencia artificial.

Con base en ese análisis, la MOE UE elaboró un informe en el que formuló varias recomendaciones para fortalecer futuros procesos electorales. En ese documento, se reconoció la labor de Lupa Media, Ecuador Chequea y AFP Factual como las tres iniciativas de verificación que contribuyeron a contrastar información falsa durante el periodo electoral.

Al igual que Lupa Media , la misión concluyó que las campañas de desinformación se difundieron a través de múltiples plataformas digitales, utilizando cuentas falsas, contenido promocionado, redes automatizadas y suplantación de medios legítimos.

El uso de inteligencia artificial con fines desinformativos fue una de las estrategias más persistentes, especialmente en campañas de difamación.

Aquí te contamos qué observó la misión en torno a la desinformación electoral y cuáles son sus recomendaciones para enfrentarla.

Recomendación 1: Uso de la inteligencia artificial

El uso de inteligencia artificial con fines desinformativos marcó un hito en las elecciones recientes, complicando la distinción entre noticias reales y contenidos manipulados. Según el informe la MOE UE, esta dificultad se debe, en parte, al bajo nivel de familiaridad de la mayoría de los votantes con esta tecnología. Además, el volumen de contenido generado por IA creció conforme avanzaba la campaña.

Estas elecciones fueron las primeras en las que se observó una presencia significativa de piezas políticas creadas con inteligencia artificial. La MOE UE documentó 131 casos en los que esta tecnología fue utilizada para alterar videos, imágenes, textos y audios con fines manipulativos. Cerca del 43% de ese contenido fue difundido por cuentas sospechosas de ser bots o trolls.

Si bien algunos de estos materiales fueron utilizados en clave humorística o satírica, la mayoría buscaba desinformar y desacreditar a los adversarios políticos. Entre los casos detectados, 63 correspondían a videos manipulados, 55 a imágenes alteradas.

  • 27 de los casos observados de IA difundieron simulaban ser reportes de medios confiables.

Frente a este panorama, la MOE UE recomendó reforzar la cooperación entre el Consejo Nacional Electoral (CNE), medios de comunicación, organizaciones de la sociedad civil, academia y plataformas tecnológicas. Propuso desarrollar campañas de concientización enfocadas en la desinformación generada por IA y fomentar la alfabetización mediática y digital, especialmente en contextos electorales.

Recomendación 2: Código de conducta

La MOE UE identificó la presencia de sitios web y cuentas en redes sociales que se hacían pasar por iniciativas de verificación, pero que en realidad difundían contenido engañoso. Según el informe, incluso durante el primer debate presidencial, el entonces candidato y actual presidente Daniel Noboa respaldó públicamente algunas de estas cuentas como fuentes confiables.

Frente a este escenario, la misión recomendó fomentar la adopción de un código de conducta por parte de los partidos políticos, que incluya el compromiso de no producir ni difundir desinformación, contenidos dañinos o publicidad política sin la debida identificación. Esta sugerencia se basa en principios internacionales vinculados a la libertad de expresión, la transparencia y el acceso a la información.

El informe también observó que algunas instituciones públicas utilizaron sus perfiles oficiales para desmentir información falsa. Sin embargo, la MOE UE cuestionó esa práctica, señalando que, en muchos casos, las publicaciones carecían de una metodología clara, contenían datos inexactos o se realizaban desde una postura poco imparcial

La misión enfatizó que este tipo de respuestas no puede considerarse verificación en sentido estricto, ya que no cumple con los principios fundamentales del fact-checking: independencia, apartidismo y transparencia.

Recomendación 3: Transparencias en el gasto de publicidad

La misión internacional advirtió que herramientas como Google Ads (plataforma de publicidad) fueron utilizadas no solo para promocionar candidaturas, sino también para atacar adversarios políticos y difundir desinformación. Sin embargo, la misión no logró rastrear la identidad de los anunciantes ni verificar el origen de los fondos utilizados para este tipo de campañas.

Ante la falta de transparencia, la MOE UE recomendó fortalecer la cooperación entre el Consejo Nacional Electoral (CNE) y las plataformas tecnológicas, con el objetivo de facilitar un monitoreo más riguroso del gasto en publicidad digital durante las campañas. Esta información debería ser accesible y supervisada de forma sistemática por el organismo electoral.

Durante su monitoreo, la misión identificó diversas estrategias utilizadas para amplificar la desinformación en línea:

  • Creación de cuentas nuevas durante el periodo electoral destinadas a difundir mensajes engañosos mediante anuncios pagados.
  • Presencia activa de cuentas de trolls en múltiples plataformas.
  • Perfiles que simulaban ser medios de comunicación para publicar encuestas falsas o contenido de opinión disfrazado de información.
  • Usurpación de la identidad de medios nacionales e internacionales.
  • Páginas de Facebook que patrocinaban publicaciones orientadas a desacreditar a determinados candidatos.

Desinformación a la carta

Durante toda la campaña electoral, Lupa Media verificó 247 contenidos virales, del cual un 74% resultaron ser falsos. El 19,6% de estos eran contenidos manipulados o generados con IA. 

Las narrativas estuvieron centradas en su mayoría en los dos candidatos principales: Daniel Noboa y Luisa González. Además, las temáticas principales que surgieron como fuentes de desinformación fueron:

  • Migración.
  • Narcotráfico.
  • Dolarización.
  • Fraude electoral.

También se identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos con el fin de redirigir a páginas fraudulentas. Así como la creación de noticieros falsos que eran presentados por avatares generados con IA para simular reportajes reales. 

Estados Unidos NO cerrará sus fronteras a partir del 1 de julio

¿Qué verificamos?

Un video viral en redes sociales que afirma que Estados Unidos cerrará «completamente sus fronteras» el 1 de julio de 2025, impidiendo la entrada y salida del país incluso a residentes permanentes.

¿Por qué es completamente falso?

No existe registro de ninguna orden ejecutiva federal que ordene el cierre total de fronteras estadounidenses. Las oficinas de inmigración continúan operando normalmente y no hay evidencia oficial que respalde esta afirmación.

¿Qué dice la evidencia?

  • Búsqueda en fuentes oficiales: Lupa Media revisó el portal de decretos de la Casa Blanca (whitehouse.gov), el Departamento de Seguridad Nacional (dhs.gov) y el Servicio de Ciudadanía e Inmigración (uscis.gov) sin encontrar evidencia de la supuesta orden ejecutiva que ordene el cierre fronterizo total.
  • Políticas migratorias vigentes: En enero de 2025 se pausó por 90 días el Programa de Admisión de Refugiados (USRAP), pero esta medida no afecta el tránsito regular de personas.
  • Restricciones específicas: En junio de 2025, el Departamento de Estado suspendió la emisión de visas para ciudadanos de 19 países, con excepciones para residentes permanentes, diplomáticos y estudiantes.
  • Análisis con herramientas de detección: El video analizado con Hive Moderation mostró 70.9% de probabilidad de ser contenido generado por inteligencia artificial.
  • Operaciones normales: Las oficinas del Servicio de Ciudadanía e Inmigración de los Estados Unidos (USCIS por sus siglas en inglés) USCIS mantienen sus servicios con cita previa, contradictorio a un supuesto cierre total. Estas oficinas procesan: solicitudes de visa, procesos de naturalización, programas humanitarios, entre otros.


Contexto importante 

Este y otros videos se han difundido masivamente a nivel mundial, afectando especialmente a la comunidad latina. Lupa Media ha recibido múltiples solicitudes para verificar este contenido a través de su servicio de verificación a la carta. Otras agencias de verificación en distintos países también han abordado y desmentido este material, como Factchequeado.

Esta desinformación circula en un contexto de cambios recientes en las políticas migratorias de Estados Unidos. No obstante, incluso las medidas más restrictivas adoptadas hasta ahora contemplan excepciones para residentes legales y no implican un cierre total de las fronteras.

Conclusión

COMPLETAMENTE FALSO: No existe evidencia oficial de que Estados Unidos vaya a cerrar completamente sus fronteras el 1 de julio de 2025. El video viral carece de sustento en fuentes gubernamentales verificables y presenta alta probabilidad de ser contenido generado artificialmente.

Este video de un hombre saltando en un charco frente a una reportera no es real: está generado con IA

(Maldita.es).– Circula un vídeo en el que se ve cómo un hombre salta dentro de un bache lleno de agua mientras una reportera advierte del peligro en directo. El momento se difunde como si fuera real y ha generado muchas reacciones en redes sociales. Sin embargo, el vídeo ha sido etiquetado por su autora en TikTok como contenido de “humor” y “generado por IA”, y presenta señales que apuntan a que ha sido creado con esta tecnología.

El vídeo ha sido difundido con mensajes como “La reportera muy seria hablando de los baches… ¡hasta que llegó Don Teófilo a disfrutar del ‘spa’ callejero!”. En la grabación, se puede ver cómo un hombre salta en un charco mientras una reportera alerta en directo sobre el mal estado de la vía.

Sin embargo, la cuenta que lo ha publicado indicó que se trata de un contenido generado con IA, utilizando la etiqueta “Generado por IA” así como los hashtags “#humorlatino” e “#inteligenciaartificial”.

Captura de pantalla Maldita.es

Además, el vídeo muestra algunos signos propios de los contenidos generados con esta tecnología, como imperfecciones en los movimientos, que presentan desdoblamientos y pérdida de nitidez.

Captura de pantalla Maldita.es
Captura de pantalla Maldita.es

También hay indicios de que la voz de la reportera es sintética, ya que presenta monotonía, con un ritmo y entonación poco naturales. En otras publicaciones de la misma cuenta en TikTok, se repite este formato, con vídeos en los que una persona interrumpe un reportaje en directo. Todos ellos están etiquetados como generados con inteligencia artificial.

Por tanto, este vídeo en el que un hombre salta en un bache con agua no muestra una escena real. Ha sido creado con inteligencia artificial y así lo ha etiquetado la cuenta que lo publicó.

El perrito que salta de un avión con un paracaídas NO ES REAL, es creado con IA

¿Qué verificamos?

Un video viral en TikTok, Instagram y otras redes sociales que muestra a un perrito saltando desde un avión militar y activando un paracaídas de forma independiente, sin asistencia humana.

¿Por qué es completamente falso?

El video fue generado con inteligencia artificial, como confirman las herramientas especializadas de detección y el análisis de inconsistencias visuales presentes en las imágenes. 

¿Qué dice la evidencia?

  • Hive Moderation, una plataforma de detección de contenido generado por IA, arrojó que existe más del 95% de probabilidad de que el video sea artificial.
  • El video viral presenta varias inconsistencias visuales como:
    • Doble hocico: En varios fotogramas se observa que el perro presenta dos hocicos simultáneamente.
  • Cambio de color del paracaídas: Inicia siendo verde y posteriormente aparece azul con blanco sin explicación lógica.
  • Apertura del paracaídas: No se muestra el mecanismo por el cual el animal activa el paracaídas.
  • El video original proviene de la cuenta @GodNotDead en TikTok, que publica regularmente contenido sobre oficiales caninos estadounidenses, la mayoría generado con IA sin etiquetarlo como tal. 
@k9_d_f
  • Lupa Media consultó la cuenta oficial del Ejército de Estados Unidos y no encontró registros de entrenamientos de oficiales caninos (K9) con paracaídas sin asistencia humana.
  • Además, no encontramos protocolos militares documentados que permitan a los perros activar paracaídas de forma independiente.
  • Los perros sí pueden practicar paracaidismo, aunque suele ser una actividad vinculada a misiones de búsqueda y rescate. Para ello, requieren entrenamiento especializado, equipo adecuado como arneses y gafas protectoras, y la presencia indispensable de un guía humano.

Contexto importante 

Los videos de animales generados con IA que circulan como contenido auténtico se han multiplicado en redes sociales. Estos contenidos explotan la conexión emocional de las audiencias con los animales para generar engagement y viralización.

Lupa Media ha verificado previamente casos similares, incluyendo supuestos animales afectados por derrames de petróleo y videos de fauna en situaciones extraordinarias.

Aunque existen programas militares reales de paracaidismo con perros, estos siempre requieren asistencia humana especializada y equipos específicos para la seguridad del animal. 

  • Colombia: Los perros son entrenados como paracaidistas para participar en operaciones de búsqueda y rescate, especialmente en zonas de difícil acceso. Ellos realizan saltos, a menudo desde más de 12 mil pies de altura, utilizando el método tándem, en el que un paracaidista lleva al guía canino sujeto a su pecho. Esta actividad incluye un arnés suspendido y exposición a ruidos fuertes (con supervisión veterinaria).
  • Estados Unidos: Durante la Segunda Guerra Mundial, el Ejército estadounidense entrenó perros, principalmente Huskies Siberianos, para saltar en paracaídas desde aviones con el objetivo de ayudar a aviadores derribados en lugares aislados. Cabe recalcar que esta práctica no se implementó en el campo de batalla.
Crédito de la foto: Dos Huskies Siberianos de 100 libras esperan el despegue de un aeródromo canadiense. Un cirujano de vuelo, con equipo de protección y máscara, es responsable de sacarlos del avión (Warfare History)

Conclusión

COMPLETAMENTE FALSO: El video del perrito saltando en paracaídas fue creado con inteligencia artificial. La herramienta especializada que usó Lupa Media confirma más del 95% de probabilidad de contenido artificial, además de presentar múltiples inconsistencias visuales que evidencian su fabricación digital. 

El video viral del canguro en un aeropuerto fue creado con inteligencia artificial

¿Qué verificamos?

Un video viral que muestra una discusión entre dos mujeres en un aeropuerto mientras un canguro sostiene aparentemente un boleto de avión, como si estuviera esperando abordar un vuelo.

¿Por qué es completamente falso?

No se trata de un evento real filmado en un aeropuerto. El video fue creado con inteligencia artificial, como confirman las herramientas de detección especializadas y la cuenta original que lo publicó.

¿Qué dice la evidencia?

  • La búsqueda inversa con Google Lens reveló que el video comenzó a circular el 26 de mayo de 2025. 
  • La herramienta Hive Moderation arrojó 100% de probabilidad de que el video sea generado con inteligencia artificial.
  • El contenido presenta imperfecciones típicas de la IA: un anillo dorado que aparece y desaparece en la mano de una mujer y texto distorsionado en el supuesto boleto del canguro.
  • El video original pertenece a la cuenta de Instagram «Infinite Unreality», especializada en crear contenido con inteligencia artificial, donde fue publicado el 25 de mayo de 2025.

Contexto relevante

Los videos de animales generados con IA que circulan como contenido real se han vuelto cada vez más frecuentes en redes sociales. Lupa Media ha verificado previamente contenido similar, incluyendo animales supuestamente afectados por el derrame de petróleo en Esmeraldas y una anaconda gigante en el Amazonas, todos creados artificialmente.

La sofisticación de las herramientas de IA hace que estos contenidos sean cada vez más realistas, lo que requiere verificación especializada para identificarlos. 

Conclusión

COMPLETAMENTE FALSO: El video viral del canguro en el aeropuerto fue generado con inteligencia artificial. Las herramientas de detección especializadas confirman su origen artificial y la cuenta que lo creó lo etiqueta explícitamente como contenido generado por IA.

Cómo la ciberdelincuencia usa la IA para estafar

(Maldita.es).- Correos fraudulentos casi indistinguibles de los reales, videollamadas falsas con supuestos jefes y currículums manipulados con IA: los timadores están utilizando inteligencia artificial para estafar a empresas. Lo hacen generando contenido hiperrealista que engaña a empleados y permite suplantar identidades. Expertos en ciberseguridad aseguran a Maldita.es que la clave para evitar estos fraudes es formar a los trabajadores y utilizar herramientas de protección tecnológica.

La inteligencia artificial está facilitando nuevas formas de fraude empresarial. Los timadores están empleando esta tecnología para hacer más convincentes sus ataques. Correos de phishing que imitan a proveedores habitualesvideollamadas falsas de supuestos directivos o identidades sintéticas para infiltrarse en procesos de selección son algunas de las estrategias detectadas.

Según Miguel López, director para el Sur de EMEA en la compañía de ciberseguridad Barracuda Networks, hay herramientas de IA que permiten generar correos en varios idiomas sin errores. Antes, los fallos gramaticales servían para detectar timos; ahora, los mensajes pueden parecer escritos por un interlocutor habitual.

Diego León Casas, CEO de la empresa de ciberseguridad Flameera, afirma que estos correos “hiperrealistas” buscan que los empleados revelen información sensible o aprueben transferencias bancarias. Además, indica que ya se están utilizando audios y vídeos generados por IA para suplantar la voz o imagen de directivos. En un caso en Hong Kong, una videollamada falsa logró que un empleado transfiriera más de 27 millones de dólares creyendo que hablaba con el director financiero. La compañía de ciberseguridad ESET alerta de que este tipo de vídeos manipulados se están usando para amplificar el fraude del correo corporativo comprometido (BEC, por sus siglas en inglés)

La IA también permite generar malware. López destaca que estas herramientas son eficaces para desarrollar código y detectar fallos, capacidades que también se están orientando hacia fines delictivos. Aunque muchos modelos de IA tienen filtros éticos, León explica que algunos han sido modificados para eliminar estas restricciones.

Otra técnica detectada es el uso de bots de IA en plataformas como WhatsApp o Telegram. Según Josep Albors, responsable de Investigación y Concienciación de ESET España, estos bots suplantan a reclutadores en grupos de empleo falsos, enviando respuestas automáticas para estafar a posibles víctimas.

La generación de identidades sintéticas es otro método. Desde la empresa Veridas, especializada en identidad digital, explican que los timadores combinan datos reales con imágenes creadas con IA o documentos falsificados para superar controles de verificación. Esto se puede automatizar y ejecutar a gran escala, alertan.

Con documentación falsa, los ciberdelincuentes también pueden suplantar a empleados o proveedores. Empresas de varios países han sido víctimas de supuestos trabajadores norcoreanos que han utilizado IA para falsificar sus currículums y acceder a empleos con fines de espionaje, robo de datos o envío de fondos al Gobierno de Corea del Norte, según advierte ESET.

Para prevenir estos fraudes, León recomienda confirmar cualquier solicitud inusual mediante un canal distinto, implementar la autenticación multifactor y formar al personal, sobre todo en departamentos sensibles. El Instituto Nacional de Ciberseguridad (INCIBE) ofrece recursos gratuitos para ello.

También es esencial contar con un protocolo claro de actuación ante posibles fraudes y utilizar herramientas de detección basadas en inteligencia artificial. López destaca las soluciones XDR (detección y respuesta extendida), que monitorizan toda la red y ayudan a identificar amenazas reales descartando falsos positivos.