Skip to main content

Etiqueta: ia

Cuenta falsa usurpa logo de Telemundo para difundir deepfakes de futbolistas

¿Qué verificamos?

Una cuenta de TikTok que utiliza el logo del medio Telemundo y ha acumulado 8.5 millones de «me gusta» difundiendo contenido sobre futbolistas con declaraciones controvertidas atribuidas principalmente a Lamine Yamal, Messi y Cristiano Ronaldo.

¿Por qué es completamente falso?

La cuenta no pertenece a Telemundo y manipula declaraciones reales de futbolistas mediante inteligencia artificial. Las supuestas confrontaciones entre Yamal, Messi y Cristiano Ronaldo son fabricadas, con inconsistencias temporales que demuestran la manipulación.

¿Qué dice la evidencia?

  • Lupa Media confirmó que la cuenta no aparece en los canales oficiales de Telemundo en ninguna plataforma digital.
  • El análisis cronológico de la cuenta revela que inició el 4 de junio de 2025 con contenido político generado por IA, antes de migrar al contenido deportivo el 12 de junio.
  • La cuenta ha publicado 81 videos manipulados de futbolistas, utilizando fragmentos de 4 a 10 segundos de entrevistas y ruedas de prensa reales.
  • Las figuras más utilizadas son Messi, Cristiano Ronaldo, Lamine Yamal, Ronaldinho, Mbappé, Dembélé y entrenadores como Pep Guardiola, Luis Enrique y Xavi Alonso.
  • Un video manipula la voz de Ronaldinho para hablar en contra de Lamine Yamal: “¿Balón de oro para Lamine? le queda grande”. La herramienta Hive Moderation detectó que el audio contiene un 97.8% generado con inteligencia artificial. El video original fue publicado por el medio español Marca, en el cual se refiere a la selección de Brasil.
  • Un ejemplo de manipulación temporal: El video falso publicado el 04 de agosto de 2025, muestra a Messi con una respuesta sobre el festejo de Yamal usando el número 10 en la camiseta del Barcelona (31 de julio de 2025), pero la entrevista original de Messi se publicó el 28 de febrero de 2025.
  • Las narrativas fabricadas incluyen supuestas declaraciones de Yamal en contra de futbolistas con mayor trayectoria como: «Me comparan con Messi y Cristiano, no entiendo como me pueden comparar con ese par que juegan en ligas de retirados». El video manipula una entrevista de Yamal donde se le consulta sobre el mejor jugador del año, su actualidad en selección y con su club.
  • La cuenta incluye un enlace que promete «monetizar las cuentas de TikTok con la polémica del fútbol» y el autor se identifica como «creador de IA».

Contexto importante

Los deepfakes son videos, imágenes o audios manipulados o generados artificialmente mediante técnicas de inteligencia artificial, con el propósito de hacer creer que son reales. Estos medios sintéticos pueden mostrar a personas reales o inventadas, y se han convertido en una forma moderna de engaño mediático. 

Los deepfakes de figuras públicas han aumentado en redes sociales, especialmente en el ámbito deportivo donde las rivalidades generan mayor engagement y viralidad en redes sociales. TikTok ha implementado políticas contra contenido sintético no etiquetado, pero la detección automatizada sigue siendo un desafío. Además, el uso comercial de estas manipulaciones para generar tráfico y monetización representa una nueva modalidad de desinformación con fines lucrativos.

La usurpación de logo e identidad gráfica es recurrente para generar desinformación. Lupa Media ya ha verificado cuentas que usurpan el logo de Telemundo en varias ocasiones.

Conclusión

COMPLETAMENTE FALSO: Las declaraciones atribuidas a Messi, Cristiano Ronaldo y Lamine Yamal son fabricadas mediante inteligencia artificial. La cuenta usurpa la identidad de Telemundo y crea confrontaciones inexistentes entre futbolistas con fines comerciales de monetización.

Contenidos creados con IA de destinos turísticos pueden desinformar y distorsionar la realidad

(Maldita.es).- En redes sociales y páginas web, algunas incluso dedicadas al turismo, se comparten imágenes y vídeos creados con inteligencia artificial de destinos turísticos e históricos como si fuesen reales. Estos contenidos pueden generar desinformación, crear falsas expectativas en los viajeros y contribuir a la ‘mierdificación’ de internet. 

Uno de los ejemplos es una imagen viral del yacimiento arqueológico Gunung Padang, en Indonesia, que circula en Facebook, Instagram y Twitter. Pero expertos consultados por AFP Factual indican que la imagen es “físicamente inverosímil” y que las inconsistencias visuales, como las luces y geometría, revelan que ha sido creada con IA. 

Otro caso es el de las Termas de Caracalla, en Roma. Una imagen compartida por una página de Facebook muestra las ruinas en funcionamiento, con bañistas incluidos, como si el lugar siguiera activo. En los comentarios, hay usuarios que parecen creer que la imagen es real, pero ha sido creada con IA: una búsqueda inversa de Google muestra que la imagen proviene de un perfil de Instagram que publicó el prompt utilizado para crearla. 

También circula un vídeo supuestamente de Xiaozhai Tiankeng, el pozo más grande del mundo, en China. Las imágenes, compartidas en múltiples redes sociales, lo muestran aislado en una cadena montañosa. Sin embargo, imágenes de Google Earth y un vídeo de la BBC muestran que el pozo real está rodeado de casas y carreteras, y su interior es escalonado y lleno de vegetación. El vídeo tiene indicios de haber sido generado con IA, como un brillo poco usual y formas demasiado perfectas.

En páginas web también se encuentran ejemplos. Un artículo sobre la ciudad de Tetuán, publicado en la web de una agencia de viajes a Marruecos, incluye una imagen de portada con indicios de haber sido creada con IA: distorsiones en los balcones, luces poco realistas y una figura humana a la que le falta un brazo. La imagen no ha sido publicada por fuentes fiables según la búsqueda inversa, y tampoco hay otras imágenes del supuesto edificio que aparece. 

Estos contenidos pueden provocar desinformación, generar falsas narrativas y alterar la percepción sobre lugares o destinos turísticos. Paloma Prevost, especialista en Turismo Sostenible, alerta de que este tipo de contenidos puede “distorsionar completamente la experiencia” de los turistas. Pone como ejemplo una imagen de Machu Picchu generada con IA, en la que el lugar aparece vacío y perfecto, lo que no se corresponde con la realidad. “Quien viaje esperando esa postal puede acabar profundamente decepcionado”, advierte. Además, señala que la desinformación visual puede perjudicar a comunidades que dependen del turismo, dañar la reputación del destino y reforzar narrativas aspiracionales poco realistas.

Por otro lado, estos contenidos también contribuyen a la ‘mierdificación’ de internet, un término que hace referencia al proceso por el cual las plataformas empeoran sus servicios hasta que dejan de servir. Esto dificulta que los usuarios encuentren información útil, por ejemplo, sobre un destino que planean visitar o sobre el que necesitan investigar.

Para identificar si una imagen o vídeo ha sido creado con IA, es clave contrastar siempre con fuentes oficiales (como páginas oficiales de turismo), buscar etiquetas de que el contenido ha sido creado con IA (como “#ai”), rastrear el origen del contenido mediante herramientas como la búsqueda inversa de imágenes, y estar atentos a indicios visuales como sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.

Lo que dijo la MOE UE sobre desinformación en el proceso electoral

La Misión de Observación Electoral de la Unión Europea (MOE UE) inició su trabajo en Ecuador el 28 de diciembre de 2024. Conformada por 106 observadores desplegados en las 24 provincias, su objetivo fue evaluar todas las etapas del proceso electoral. Además del monitoreo presencial, la misión analizó el contenido circulante en redes sociales para identificar narrativas de campaña vinculadas a la desinformación, la manipulación y el uso de inteligencia artificial.

Con base en ese análisis, la MOE UE elaboró un informe en el que formuló varias recomendaciones para fortalecer futuros procesos electorales. En ese documento, se reconoció la labor de Lupa Media, Ecuador Chequea y AFP Factual como las tres iniciativas de verificación que contribuyeron a contrastar información falsa durante el periodo electoral.

Al igual que Lupa Media , la misión concluyó que las campañas de desinformación se difundieron a través de múltiples plataformas digitales, utilizando cuentas falsas, contenido promocionado, redes automatizadas y suplantación de medios legítimos.

El uso de inteligencia artificial con fines desinformativos fue una de las estrategias más persistentes, especialmente en campañas de difamación.

Aquí te contamos qué observó la misión en torno a la desinformación electoral y cuáles son sus recomendaciones para enfrentarla.

Recomendación 1: Uso de la inteligencia artificial

El uso de inteligencia artificial con fines desinformativos marcó un hito en las elecciones recientes, complicando la distinción entre noticias reales y contenidos manipulados. Según el informe la MOE UE, esta dificultad se debe, en parte, al bajo nivel de familiaridad de la mayoría de los votantes con esta tecnología. Además, el volumen de contenido generado por IA creció conforme avanzaba la campaña.

Estas elecciones fueron las primeras en las que se observó una presencia significativa de piezas políticas creadas con inteligencia artificial. La MOE UE documentó 131 casos en los que esta tecnología fue utilizada para alterar videos, imágenes, textos y audios con fines manipulativos. Cerca del 43% de ese contenido fue difundido por cuentas sospechosas de ser bots o trolls.

Si bien algunos de estos materiales fueron utilizados en clave humorística o satírica, la mayoría buscaba desinformar y desacreditar a los adversarios políticos. Entre los casos detectados, 63 correspondían a videos manipulados, 55 a imágenes alteradas.

  • 27 de los casos observados de IA difundieron simulaban ser reportes de medios confiables.

Frente a este panorama, la MOE UE recomendó reforzar la cooperación entre el Consejo Nacional Electoral (CNE), medios de comunicación, organizaciones de la sociedad civil, academia y plataformas tecnológicas. Propuso desarrollar campañas de concientización enfocadas en la desinformación generada por IA y fomentar la alfabetización mediática y digital, especialmente en contextos electorales.

Recomendación 2: Código de conducta

La MOE UE identificó la presencia de sitios web y cuentas en redes sociales que se hacían pasar por iniciativas de verificación, pero que en realidad difundían contenido engañoso. Según el informe, incluso durante el primer debate presidencial, el entonces candidato y actual presidente Daniel Noboa respaldó públicamente algunas de estas cuentas como fuentes confiables.

Frente a este escenario, la misión recomendó fomentar la adopción de un código de conducta por parte de los partidos políticos, que incluya el compromiso de no producir ni difundir desinformación, contenidos dañinos o publicidad política sin la debida identificación. Esta sugerencia se basa en principios internacionales vinculados a la libertad de expresión, la transparencia y el acceso a la información.

El informe también observó que algunas instituciones públicas utilizaron sus perfiles oficiales para desmentir información falsa. Sin embargo, la MOE UE cuestionó esa práctica, señalando que, en muchos casos, las publicaciones carecían de una metodología clara, contenían datos inexactos o se realizaban desde una postura poco imparcial

La misión enfatizó que este tipo de respuestas no puede considerarse verificación en sentido estricto, ya que no cumple con los principios fundamentales del fact-checking: independencia, apartidismo y transparencia.

Recomendación 3: Transparencias en el gasto de publicidad

La misión internacional advirtió que herramientas como Google Ads (plataforma de publicidad) fueron utilizadas no solo para promocionar candidaturas, sino también para atacar adversarios políticos y difundir desinformación. Sin embargo, la misión no logró rastrear la identidad de los anunciantes ni verificar el origen de los fondos utilizados para este tipo de campañas.

Ante la falta de transparencia, la MOE UE recomendó fortalecer la cooperación entre el Consejo Nacional Electoral (CNE) y las plataformas tecnológicas, con el objetivo de facilitar un monitoreo más riguroso del gasto en publicidad digital durante las campañas. Esta información debería ser accesible y supervisada de forma sistemática por el organismo electoral.

Durante su monitoreo, la misión identificó diversas estrategias utilizadas para amplificar la desinformación en línea:

  • Creación de cuentas nuevas durante el periodo electoral destinadas a difundir mensajes engañosos mediante anuncios pagados.
  • Presencia activa de cuentas de trolls en múltiples plataformas.
  • Perfiles que simulaban ser medios de comunicación para publicar encuestas falsas o contenido de opinión disfrazado de información.
  • Usurpación de la identidad de medios nacionales e internacionales.
  • Páginas de Facebook que patrocinaban publicaciones orientadas a desacreditar a determinados candidatos.

Desinformación a la carta

Durante toda la campaña electoral, Lupa Media verificó 247 contenidos virales, del cual un 74% resultaron ser falsos. El 19,6% de estos eran contenidos manipulados o generados con IA. 

Las narrativas estuvieron centradas en su mayoría en los dos candidatos principales: Daniel Noboa y Luisa González. Además, las temáticas principales que surgieron como fuentes de desinformación fueron:

  • Migración.
  • Narcotráfico.
  • Dolarización.
  • Fraude electoral.

También se identificó la creación de cuentas falsas que suplantaban a medios y candidatos políticos con el fin de redirigir a páginas fraudulentas. Así como la creación de noticieros falsos que eran presentados por avatares generados con IA para simular reportajes reales. 

La IA y la desinformación sobre el conflicto entre Irán e Israel-Estados Unidos

El conflicto entre Israel e Irán, escaló el 13 de junio y ha desatado una ola de desinformación con contenidos que manipulan la realidad. Tras el ingreso de Estados Unidos al conflicto, con el bombardeo a instalaciones nucleares en Irán el 22 de junio, las publicaciones sintéticas continúa propagándose sin límites. La inteligencia artificial gana terreno, y en Lupa Media verificamos algunos de ellos. Pero antes analicemos el contexto de la IA en este conflicto.

El uso de la IA en este conflicto bélico

Según Emmanuelle Saliba, directora de investigación del grupo de analistas Get Real, esta es “la primera vez que hemos visto que la IA generativa se usa a escala durante un conflicto”. En una entrevista con BBC Verify, la investigadora explicó que muchos de estos contenidos sintéticos están ambientados de noche, lo que dificulta su verificación debido a la escasa visibilidad de los elementos en las imágenes.

En este conflicto, la inteligencia artificial ha sido utilizada para simular supuestas capacidades militares, consecuencias de bombardeos, protestas, reuniones e incluso apoyos políticos inexistentes. Estos contenidos son producidos y difundidos por creadores que buscan beneficiarse del conflicto captando la atención de los usuarios. A cambio, ganan visibilidad y seguidores. Algunas de estas cuentas aparentan ser «oficiales», pero no existe claridad sobre su autenticidad.

Las motivaciones detrás de estos contenidos falsos son variadas. Algunas cuentas buscan monetizar los contenidos fabricados y han sido previamente identificadas por propagar desinformación en otros conflictos bélicos. Incluso, algunos de estos videos generados con IA han sido replicados por fuentes oficiales tanto de Irán como de Israel.

Matthew Facciani, investigador de la Universidad de Notre Dame, explicó a la BBC que la desinformación se propaga más rápido en contextos de guerra, donde predominan narrativas «binarias» y polarizadas.

En escenarios polarizados, la verdad emocional cobra peso: las personas tienden a reforzar sus creencias o preferencias geopolíticas, incluso cuando la guerra ya ofrece suficientes escenarios crueles y reales. La inteligencia artificial se convierte entonces en una herramienta para amplificar emociones y profundizar divisiones.

Aquí un par de verificaciones sobre el uso de la IA con el fin de desinformar acerca del conflicto entre Irán e Israel.

Categoría Completamente Falso “Imagen muestra un bombardero de B-2 que fue derribado por Irán antes de que alcanzara la instalación nuclear de Fordow”

Una imagen viral muestra supuestamente cómo Irán derriba un bombardero estadounidense B-2 Spirit antes de que impacte contra la planta nuclear subterránea de Fordow. Sin embargo, se comprobó que la imagen fue generada con inteligencia artificial. Este contenido engañoso surgió tras el ataque del 22 de junio, cuando Estados Unidos lanzó una ofensiva con siete bombarderos B-2 Spirit contra tres instalaciones nucleares en Irán.

Según reportó la agencia Associated Press, varios de estos bombarderos regresaron a su base en Whiteman en Missouri. Además, el modelo B-2 Spirit utilizado en el ataque no coincide con el de la imagen viral: presenta claras diferencias de diseño respecto a un bombardero real de este tipo.

La plataforma “Detect AI Generated Images” determinó con un 99 % de probabilidad que la fotografía fue creada con inteligencia artificial. Además, equipos de verificación de medios como la BBC y Newtral desmintieron la imagen, confirmando que se trata de contenido generado por IA.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IANewtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25
Associated Press – Vea el regreso de los bombarderos B-2 involucrados en el ataque de
Estados Unidos contra Irán a la base de la Fuerza Aérea de Missouri – 22/06/25

Newtral – Esta imagen de un bombardero estadounidense B-2 supuestamente derribado por Irán está generada con IA – 23/06/25

Categoría Completamente Falso Video muestra cómo Estados Unidos lanza bombas nucleares en Irán”

Un video viral muestra la explosión de una supuesta bomba nuclear y asegura que Estados Unidos está destruyendo reactores nucleares en Irán. Pero ese contenido fue creado con IA. Aunque Estados Unidos sí bombardeó contra las instalaciones nucleares de Irán: Fordow, Natanz e Isfahán, el contenido viral no corresponde a este ataque. 

Una búsqueda inversa con Google Lens reveló que el video original fue publicado por una cuenta dedicada a compartir contenido generado con IA. En su biografía, esta cuenta advierte que todos sus videos son producidos con inteligencia artificial sobre desastres naturales, accidentes y eventos ficticios.

Lupa Media ya verificó un contenido similar relacionado con el conflicto actual en Medio Oriente. En ese caso, el propio usuario confirmó al medio de verificación español Newtral que las imágenes publicadas en su cuenta fueron creadas por él utilizando inteligencia artificial.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de YouTube que comparte contenido con IA

Categoría Completamente Falso “Video muestra el ataque más fuerte de Irán en contra de Israel”

Este contenido muestra supuestamente explosiones en Tel Aviv tras un bombardeo iraní contra Israel. Sin embargo, no existe evidencia de que haya ocurrido un ataque de esa magnitud desde el inicio del conflicto entre ambos países.

Una búsqueda inversa con Google Lens reveló que el video original fue publicado en TikTok el 21 de abril de 2025 y acumula más de 16,8 millones de visualizaciones. El clip incluye la etiqueta “Generado por IA”, colocada por el propio creador, y no hace ninguna referencia al actual conflicto en Medio Oriente.

Además, en la esquina inferior derecha aparece el logo de Sora, la herramienta de generación de video con inteligencia artificial desarrollada por OpenAI.

La cuenta publica varios videos similares que simulan escenas de guerra, todos etiquetados como contenido generado con inteligencia artificial. Incluso, en la descripción se incluye la frase: ‘Universo de arte con IA’. Se trata, por tanto, de una cuenta dedicada a compartir material fabricado que no refleja hechos catastróficos reales ni actuales.

Fuentes:
Búsqueda de palabras clave
Búsqueda inversa de imágenes con Google Lens
Análisis de la cuenta de TikTok que comparte contenido con IA
Newtral – Este vídeo no muestra varias explosiones en Tel Aviv tras un ataque de Irán, es IA – 19/06/25

Categoría Completamente Falso “Video evidencia un desfile de misiles iraníes para atacar a Israel”

En redes circula un video viral en el que se muestra un desfile de camiones saliendo de lo que parece ser una cueva, transportando supuestos misiles iraníes. Sin embargo, ese contenido fue generado con IA.  

Varias inconsistencias gráficas revelan la falsedad del video: las piedras en la parte inferior derecha se mueven por sí solas y las paredes de la cueva parecen difuminarse. Al igual que otros videos virales similares, este contenido también ha sido verificado por BBC Verify.

Subimos fotogramas del video a la plataforma “Detect AI Generated Images”, que indicó un 94 % de probabilidad de que las imágenes fueron generadas con inteligencia artificial. Este alto porcentaje, sumado a las incongruencias visuales señaladas, confirma la fabricación del video.

Fuentes:
Búsqueda inversa de imágenes con Google Lens
Detect AI
BBC Verify – El conflicto entre Israel e Irán desencadena una ola de desinformación sobre la IA – 23/06/25

Contexto importante

El 22 de junio, Estados Unidos se unió a Israel en los ataques contra Irán, que habían comenzado nueve días antes. En esta escalada del conflicto en Medio Oriente, bombarderos estadounidenses atacaron instalaciones nucleares en Fordow, Natanz e Isfahán. El objetivo de EE.UU. es detener el programa nuclear iraní, que según sus declaraciones, estaba cerca de desarrollar armamento de ese tipo. Por su parte, Irán negó la intensión de generar una bomba nuclear y promete una «respuesta decisiva» al ataque de Estados Unidos.

Un día después, durante la noche en la zona horaria de Medio Oriente, Irán respondió lanzando misiles contra bases estadounidenses en Catar e Irak.

En Lupa Media te explicamos los detalles clave de la ofensiva estadounidense en Irán y las posibles consecuencias de este conflicto.


Este video de un hombre saltando en un charco frente a una reportera no es real: está generado con IA

(Maldita.es).– Circula un vídeo en el que se ve cómo un hombre salta dentro de un bache lleno de agua mientras una reportera advierte del peligro en directo. El momento se difunde como si fuera real y ha generado muchas reacciones en redes sociales. Sin embargo, el vídeo ha sido etiquetado por su autora en TikTok como contenido de “humor” y “generado por IA”, y presenta señales que apuntan a que ha sido creado con esta tecnología.

El vídeo ha sido difundido con mensajes como “La reportera muy seria hablando de los baches… ¡hasta que llegó Don Teófilo a disfrutar del ‘spa’ callejero!”. En la grabación, se puede ver cómo un hombre salta en un charco mientras una reportera alerta en directo sobre el mal estado de la vía.

Sin embargo, la cuenta que lo ha publicado indicó que se trata de un contenido generado con IA, utilizando la etiqueta “Generado por IA” así como los hashtags “#humorlatino” e “#inteligenciaartificial”.

Captura de pantalla Maldita.es

Además, el vídeo muestra algunos signos propios de los contenidos generados con esta tecnología, como imperfecciones en los movimientos, que presentan desdoblamientos y pérdida de nitidez.

Captura de pantalla Maldita.es
Captura de pantalla Maldita.es

También hay indicios de que la voz de la reportera es sintética, ya que presenta monotonía, con un ritmo y entonación poco naturales. En otras publicaciones de la misma cuenta en TikTok, se repite este formato, con vídeos en los que una persona interrumpe un reportaje en directo. Todos ellos están etiquetados como generados con inteligencia artificial.

Por tanto, este vídeo en el que un hombre salta en un bache con agua no muestra una escena real. Ha sido creado con inteligencia artificial y así lo ha etiquetado la cuenta que lo publicó.

Cómo la ciberdelincuencia usa la IA para estafar

(Maldita.es).- Correos fraudulentos casi indistinguibles de los reales, videollamadas falsas con supuestos jefes y currículums manipulados con IA: los timadores están utilizando inteligencia artificial para estafar a empresas. Lo hacen generando contenido hiperrealista que engaña a empleados y permite suplantar identidades. Expertos en ciberseguridad aseguran a Maldita.es que la clave para evitar estos fraudes es formar a los trabajadores y utilizar herramientas de protección tecnológica.

La inteligencia artificial está facilitando nuevas formas de fraude empresarial. Los timadores están empleando esta tecnología para hacer más convincentes sus ataques. Correos de phishing que imitan a proveedores habitualesvideollamadas falsas de supuestos directivos o identidades sintéticas para infiltrarse en procesos de selección son algunas de las estrategias detectadas.

Según Miguel López, director para el Sur de EMEA en la compañía de ciberseguridad Barracuda Networks, hay herramientas de IA que permiten generar correos en varios idiomas sin errores. Antes, los fallos gramaticales servían para detectar timos; ahora, los mensajes pueden parecer escritos por un interlocutor habitual.

Diego León Casas, CEO de la empresa de ciberseguridad Flameera, afirma que estos correos “hiperrealistas” buscan que los empleados revelen información sensible o aprueben transferencias bancarias. Además, indica que ya se están utilizando audios y vídeos generados por IA para suplantar la voz o imagen de directivos. En un caso en Hong Kong, una videollamada falsa logró que un empleado transfiriera más de 27 millones de dólares creyendo que hablaba con el director financiero. La compañía de ciberseguridad ESET alerta de que este tipo de vídeos manipulados se están usando para amplificar el fraude del correo corporativo comprometido (BEC, por sus siglas en inglés)

La IA también permite generar malware. López destaca que estas herramientas son eficaces para desarrollar código y detectar fallos, capacidades que también se están orientando hacia fines delictivos. Aunque muchos modelos de IA tienen filtros éticos, León explica que algunos han sido modificados para eliminar estas restricciones.

Otra técnica detectada es el uso de bots de IA en plataformas como WhatsApp o Telegram. Según Josep Albors, responsable de Investigación y Concienciación de ESET España, estos bots suplantan a reclutadores en grupos de empleo falsos, enviando respuestas automáticas para estafar a posibles víctimas.

La generación de identidades sintéticas es otro método. Desde la empresa Veridas, especializada en identidad digital, explican que los timadores combinan datos reales con imágenes creadas con IA o documentos falsificados para superar controles de verificación. Esto se puede automatizar y ejecutar a gran escala, alertan.

Con documentación falsa, los ciberdelincuentes también pueden suplantar a empleados o proveedores. Empresas de varios países han sido víctimas de supuestos trabajadores norcoreanos que han utilizado IA para falsificar sus currículums y acceder a empleos con fines de espionaje, robo de datos o envío de fondos al Gobierno de Corea del Norte, según advierte ESET.

Para prevenir estos fraudes, León recomienda confirmar cualquier solicitud inusual mediante un canal distinto, implementar la autenticación multifactor y formar al personal, sobre todo en departamentos sensibles. El Instituto Nacional de Ciberseguridad (INCIBE) ofrece recursos gratuitos para ello.

También es esencial contar con un protocolo claro de actuación ante posibles fraudes y utilizar herramientas de detección basadas en inteligencia artificial. López destaca las soluciones XDR (detección y respuesta extendida), que monitorizan toda la red y ayudan a identificar amenazas reales descartando falsos positivos.

No todo lo viral es cierto: cómo detectar desinformación en redes este 2026

En la actualidad, internet y las redes sociales han democratizado el acceso a la información, pero también han facilitado la propagación viral de contenidos falsos. La desinformación no es un simple error; es contenido manipulado deliberadamente con fines estratégicos, políticos o económicos para engañar al público, polarizar a la sociedad y socavar la confianza en las instituciones.

A continuación, desglosamos cómo funciona este fenómeno, sus peligros y, lo más importante, cómo blindarnos frente a él.

¿Qué es la desinformación y por qué debería importarte?

La desinformación (o fake news) es información falsa o engañosa difundida de manera intencional para manipular percepciones, generar confusión o influir en el debate público. No se trata solo de errores: suele responder a intereses políticos, económicos o ideológicos. Según el Parlamento Europeo, su impacto va más allá del entorno digital: erosiona la confianza en instituciones, polariza a la sociedad y debilita la democracia.

Difundir rumores o contenidos falsos puede tener consecuencias reales, como estigmatizar a personas o grupos, afectar procesos electorales o entorpecer decisiones informadas sobre salud, migración o seguridad. Las campañas de desinformación modernas son sofisticadas y utilizan una variedad de tácticas:

  • Manipulación emocional: Una publicación busca generar miedo, ira o indignación para provocar una reacción impulsiva (compartir sin pensar).
  • Tecnología y automatización: Perfiles sociales usan bots (cuentas automatizadas) para viralizar mensajes masivamente y el empleo de Inteligencia Artificial para crear deepfakes (videos o audios hiperrealistas falsos).
  • Suplantación y anonimato: Se crean perfiles falsos o «cuentas híbridas» que imitan el comportamiento humano, así como la suplantación de identidad de figuras o instituciones confiables para engañarte.
  • Algoritmos y cámaras de eco: Las redes sociales priorizan el contenido sensacionalista que retiene la atención, encerrando a los usuarios en burbujas donde solo ven información que refuerza sus prejuicios.

Las señales de alerta: cómo reconocer contenidos engañosos

Las campañas de desinformación suelen repetir patrones. El Parlamento Europeo, la Universidad Nacional de Educación a Distancia (UNED) y el LISA Institute (Learning Institute of Security Advisors), coinciden en varios puntos clave:

  • Titulares exagerados o alarmistas que prometen “verdades ocultas”, “medidas secretas” o “noticias que no quieren que sepas”.
  • Lenguaje emocional  que busca provocar miedo, rabia o urgencia, reduciendo la capacidad crítica del lector.
  • Fuentes difusas o inexistentes que no citan documentos oficiales ni explican dónde se publicó la supuesta información.
  • Imágenes o videos fuera de contexto que pueden ser antiguos, manipulados o generados con inteligencia artificial para dar apariencia de veracidad.

¿Pero qué pasa si comparto estos contenidos? Esto puede provocar:

  1. Propagación incontrolada: Un rumor se multiplica exponencialmente en segundos, haciendo casi imposible detenerlo.
  2. Desorden social: Puede provocar disturbios, manifestaciones violentas o pánico colectivo injustificado en redes sociales (ej. falsas alertas sanitarias o de seguridad).
  3. Polarización: Aumenta la división y el odio entre grupos con ideologías diferentes.
  4. Desestabilización democrática: Erosiona la confianza en los procesos electorales y las instituciones públicas.
  5. Pánico innecesario: Genera ansiedad sobre eventos catastróficos inexistentes.
  6. Daño reputacional: Destruye la imagen de personas, empresas o medios de comunicación mediante difamaciones.
  7. Obstáculo para la verdad: Una vez que la mentira circula, es muy difícil que la rectificación (fact-checking) llegue al mismo número de personas.

Antes de compartir: pasos simples que marcan la diferencia

Protegerse de la desinformación no requiere ser experto. Puedes hacer estas acciones prácticas que cualquiera puede aplicar:

  • Detenerse antes de compartir y preguntarse si la información es creíble.
  • Buscar la misma noticia en otros medios confiables.
  • Revisar quién publica el contenido y cuál es su trayectoria.
  • Desconfiar de mensajes que piden difusión urgente.
  • Consulta a los verificadores: Acude a plataformas de fact-checking para ver si lo que viste ya ha sido desmentido.
  • No solo ignores el contenido falso; denúncialo en la plataforma correspondiente para frenar su alcance.

Una pausa de segundos puede evitar que un contenido falso llegue a cientos o miles de personas.

Pensamiento crítico: la mejor defensa

Hazte estas preguntas cuando veas contenidos así, créeme, son básicas pero poderosas: ¿Quién gana con que crea esto? ¿Qué evidencia lo respalda? ¿Qué falta en esta historia?

Según la UNED y el LISA Institute, estas preguntas ayudan a detectar ataques de desinformación, que suelen ser coordinados y repetitivos, especialmente en temas sensibles como migración, seguridad o salud.

En pocas palabras

Frenar la desinformación no significa silenciar opiniones. El desafío, como advierte el Foro Económico Mundial (FEM), es encontrar un equilibrio entre proteger el espacio informativo y respetar la libertad de expresión.La desinformación se aprovecha de nuestras emociones y de la rapidez de las redes. Pero no es inevitable. Informarse mejor, verificar antes de compartir y apoyar el trabajo de verificación fortalece la conversación pública. Cada persona puede ser parte de la solución.

En la era digital, la verdad es un terreno en disputa. Protegerse requiere un esfuerzo activo: pasar de ser consumidores pasivos a ciudadanos críticos que verifican antes de compartir. La lucha contra la desinformación es una responsabilidad compartida entre las plataformas, los gobiernos y, fundamentalmente, cada uno de nosotros.