Skip to main content

Etiqueta: ia

Es falso el audio que atribuye a Daniel Noboa amenazas contra alias “Pipo”

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un audio viral en el que se escucha una voz atribuida al presidente Daniel Noboa insultar a alias “Pipo”, referirse al asesinato de Fernando Villavicencio y ordenar supuestas gestiones en España para silenciarlo antes de una extradición.

¿Por qué es completamente falso?

No existe evidencia documental, audiovisual ni testimonial que confirme que el presidente haya emitido esas declaraciones. El análisis técnico del archivo lo identifica como audio generado mediante inteligencia artificial.

¿Qué dice la evidencia?

Inconsistencias narrativas:

  • El audio menciona acercamiento con Mariano Rajoy para realizar gestiones vinculadas al caso. Rajoy dejó de ser presidente del Gobierno de España en 2018 y no ejerce funciones públicas desde entonces.
  • El audio menciona represalias contra Diario Expreso por la difusión de declaraciones de alias “Pipo”. Sin embargo, la publicación inicial de esas declaraciones fue realizada por la Agencia EFE.

El archivo fue clasificado como audio sintético:

  • DeepFake-o-meter lo clasificó como generado con inteligencia artificial con una probabilidad del 100%.
  • Resemble AI lo identificó como contenido sintético según su modelo de análisis.
  • Sensity lo marcó como “sospechoso” por patrones atípicos en la modulación y estructura vocal.
  • Estas herramientas no sustituyen un peritaje forense independiente, pero coinciden en identificar el archivo como contenido generado artificialmente.

Inconsistencias técnicas en el audio:
Una revisión del archivo identifica patrones que suelen observarse en contenidos generados mediante síntesis de voz:

  • Tonalidad uniforme: La voz mantiene una cadencia y un timbre prácticamente constantes durante todo el mensaje, sin variaciones emocionales marcadas.
  • Pausas abruptas: Se registran silencios breves entre frases que no siguen un ritmo natural de conversación continua.
  • Ausencia de respiraciones audibles: No se perciben inhalaciones o variaciones fisiológicas típicas del habla espontánea.
  • Interferencias constantes: El audio incluye un ruido de fondo similar a interferencia telefónica que se mantiene de forma homogénea, sin fluctuaciones propias de una llamada real.

No existe respaldo verificable

  • No hay registro documental, audiovisual ni institucional que confirme que el presidente haya emitido las declaraciones atribuidas.
  • No existen comunicados oficiales que respalden su autenticidad.
  • Ningún medio nacional o internacional con estándares editoriales ha publicado el audio como una declaración real.
  • No hay constancia de investigaciones o procesos judiciales derivados de esas supuestas amenazas.

Contexto importante

La circulación del audio ocurre después de que la Agencia EFE reportara que Wilmer Chavarría, alias “Pipo”, detenido en España y señalado como líder del grupo criminal Los Lobos, declaró ante la Fiscalía de Zaragoza que el presidente Daniel Noboa estaría detrás del asesinato de Fernando Villavicencio en 2023.

Según ese reporte, Chavarría negó su participación en el crimen y afirmó que una persona cercana al ministro del Interior le habría dicho que el asesinato fue ordenado por el presidente.

No se han presentado pruebas públicas que respalden esas acusaciones. El Gobierno ecuatoriano rechazó esas declaraciones y las calificó de infundadas.

Conclusión

COMPLETAMENTE FALSO: El audio atribuido al presidente Daniel Noboa presenta inconsistencias narrativas verificables, no cuenta con respaldo documental, institucional ni periodístico que confirme su autenticidad y fue clasificado por tres sistemas de detección como contenido sintético, además de mostrar patrones acústicos frecuentes en audios generados o manipulados digitalmente.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Video viral que muestra a un perro mordiendo a una joven “therian” fue generado con IA

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video que circula en TikTok y otras plataformas en el que se asegura que un perro agrede a una joven mientras interactúa con él.

¿Por qué es completamente falso?

No existe evidencia visual que muestre a un perro mordiendo a la joven. El reportaje original del que se extrajo el fragmento viral registra únicamente una interacción entre personas y un animal, sin ataques ni comportamientos agresivos. El clip difundido omite partes clave de la secuencia y presenta fallas gráficas incompatibles con un registro auténtico.

¿Qué dice la evidencia?

Origen del video

  • Mediante una búsqueda inversa con Google Lens, Lupa Media identificó que el clip viral proviene de un reportaje publicado por la cuenta argentina “Resumido” de Argentina.
  • El reportaje muestra entrevistas a varias personas que se autoidentifican como therians.
  • La joven que aparece en el video viral participa en ese material y se presenta como un pastor belga malinois.
  • En las imágenes originales interactúa con otras personas, un perro y un niño.
  • En ningún momento del reportaje se observa que el perro la muerda o la agreda.
Captura de video publicado por «Resumido» – 08/02/26

Inconsistencias visuales

  • El fragmento viral está recortado antes y después del momento clave, lo que elimina la continuidad de la escena.
  • No se observa contacto claro entre el hocico del perro y el cuerpo de la joven.
  • Durante la supuesta mordida, la máscara que lleva puesta desaparece y reaparece en la secuencia.
  • En el fondo del video, las piernas de algunas personas se superponen y una figura aparece triplicada.
  • La mano que sostiene la correa del perro se deforma durante el supuesto ataque.
  • Las orejas de la máscara se confunden con el cabello de la joven tras el momento en que se afirma que fue agredida.

Detector de IA

  • Una herramienta de detección de contenido generado con inteligencia artificial arrojó una probabilidad del 99,9 % de que el video haya sido creado con IA.

Declaración de la persona involucrada

Contexto importante

El término “therian” se ha popularizado en redes sociales, especialmente en TikTok, para describir a personas que expresan una identificación psicológica o simbólica con animales no humanos. El concepto proviene del término inglés therianthropy—del griego therion (animal) y ánthropos (humano).

Un estudio publicado en 2025 en Science Direct diferencia entre teriantropía no clínica —una forma de afinidad identitaria sin pérdida del contacto con la realidad— y teriantropía clínica, asociada a trastornos psiquiátricos. Especialistas señalan que no toda identidad therian implica un problema de salud mental y que la intervención profesional solo es pertinente si existen conductas de riesgo o deterioro significativo de la vida cotidiana.

Los videos editados o generados con inteligencia artificial suelen:

  • Recortan escenas para alterar el contexto original.
  • Introducen cortes abruptos para simular hechos inexistentes.
  • Incorporan distorsiones visuales que pasan desapercibidas a simple vista.
  • Acompañan el contenido con descripciones que no coinciden con lo que muestran las imágenes.

Conclusión

COMPLETAMENTE FALSO: No hay evidencia de que un perro haya mordido a una joven identificada como “therian”. El video viral fue recortado y presenta múltiples inconsistencias visuales compatibles con edición o generación mediante inteligencia artificial. El reportaje original no registra ninguna agresión.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

La inteligencia artificial, un cupido para ligar

Las citas en línea: un fenómeno global

Casi la mitad de los adultos ya ha probado las citas en línea. Lo que empezó como una curiosidad tecnológica se ha convertido en una parte cotidiana del romance moderno. Un estudio de 2025 realizado en 12 países —desde Estados Unidos y Reino Unido hasta México y Japón— encuestó a 12.024 adultos para entender cómo las personas buscan amor en la era digital. Los números revelan el alcance de esta tendencia:

  • 22%: actualmente usan aplicaciones de citas.
  • 25%: las usaron antes, pero ya no.
  • 52%: nunca las han probado.

Del primer mensaje a la ruptura

La IA se ha convertido en un “entrenador de amor digital”, capaz de pulir desde la primera frase hasta la foto perfecta. Entre los usuarios:

  • 56% la usan para escribir un primer mensaje atractivo.
  • 54% para optimizar su perfil.
  • 53% para recibir coaching en citas.
  • 50% para practicar coqueteo o mejorar fotos de perfil.
  • 49% para redactar mensajes de ruptura.
  • 45% para pagar cuentas premium de IA y aumentar sus oportunidades.

El lado oscuro: estafas y perfiles falsos

Pero no todo es color de rosa. Más de la mitad de los usuarios de apps de citas encuentra perfiles sospechosos al menos una vez por semana. Las estafas se están sofisticando gracias a la IA, lo que hace que sea más fácil caer en engaños emocionales. Según Leyla Bilge, directora de Investigación sobre Estafas:

«Las citas en línea ofrecen más formas de conectarse que nunca, pero también brindan a los estafadores más oportunidades para explotar a las personas. Este aumento de perfiles sospechosos y estafas subraya la necesidad de ser precavidos».

El panorama: las citas digitales ya forman parte de la rutina, pero también traen consigo desafíos y riesgos que conviene conocer antes de darle “match” a alguien. En Estados Unidos, los ataques de estafas de citas bloqueados aumentaron 64% en el último año comparado con el anterior.

Cuando la soledad entra en el algoritmo

El estudio revela que el 24% de los consumidores reconoce que la soledad los lleva a tomar decisiones arriesgadas en las plataformas de citas, confirmando que, más allá de la tecnología, las emociones siguen marcando el rumbo de las relaciones.

La inteligencia artificial puede ayudar a encontrar las palabras correctas o a mejorar una primera impresión, pero no reemplaza la intuición ni la precaución. Entre emojis, filtros y algoritmos, el romance sigue siendo profundamente humano: usar la IA como herramienta exige equilibrio, ojos abiertos y corazón protegido, porque ningún sistema puede sustituir la confianza, la honestidad y una conexión genuina.

Señales de alerta: cómo protegerte

Si la IA puede ayudar a mejorar tu perfil, también es fundamental que protejas tu seguridad emocional y financiera. Evita quienes esquivan videollamadas, muestran inconsistencias o intentan apresurar la conexión emocional. Algunos consejos clave:

  1. Evita compartir información personal demasiado pronto: dirección, datos financieros o detalles sensibles.
  2. Búsqueda inversa de imágenes: ayuda a detectar si las fotos son robadas o falsas.
  3. Verifica identidad con videollamadas antes de un encuentro presencial.
  4. Reconoce manipulación emocional: cuidado si alguien habla de “alma gemela” o “amor verdadero” demasiado pronto.
  5. Atención a señales de alerta:
    • Se niegan a verse en persona o hacer videollamada.
    • Solicitan dinero por “emergencias”.
    • Bombardean con regalos al inicio, buscando generar obligación.

Colombia tendrá una candidata hecha con IA pero representa a un humano  

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

En redes sociales circula la afirmación de que una candidata “creada con IA” estará participando en las elecciones legislativas de Colombia para obtener un escaño indígena. Las publicaciones sugieren que se trataría de una IA autónoma compitiendo por un cargo público.

¿Por qué es impreciso?

El nombre de «Gaitana» no aparece en la Registraduría Nacional de Colombia (donde está la lista de candidatos a senadores). La persona inscrita es un candidato humano (Carlos Redondo) que usa a «Gaitana» como herramienta de comunicación y construcción de propuestas. Figura en la papeleta indígena como “IA – Gaitana” cumpliendo así los requisitos constitucionales de capacidad jurídica y pertenencia étnica.

¿Qué dice la evidencia?

Candidatura real y oficial:

  • «Gaitana» es una representación artificial inscrita para las elecciones legislativas de Colombia del 8 de marzo de 2026, aprobada por la Registraduría Nacional de Colombia.
  • En la papeleta aparece su nombre como «IA» por el partido ACMIZSAM (
  • Su creador, Carlos Redondo es el candidato oficial inscrito ante la Registraduría Nacional para la curul indígena en las elecciones legislativas del 8 de marzo de 2026.
  • «Gaitana» aparecerá en la papeleta indígena especial del Congreso bajo el nombre “IA – Gaitana”, una de las circunscripciones reconocidas por la normativa electoral colombiana.
  • Si obtiene el escaño, la gestión formal del cargo recaería en Carlos Redondo y su equipo humano, responsables ante el Congreso.

¿La ley colombiana permite inscribir una IA?: 

  • No directamente. Sin embargo, la Registraduría aprobó esta postulación al considerarla una candidatura humana válida, en la que la IA funciona como vehículo digital, no como entidad autónoma.

Contexto importante

Hasta ahora, no existen casos documentados en los que una IA represente directamente a un candidato humano. En otros países, la IA se ha usado de forma auxiliar, simbólica o analítica como:

  • Albania: Diella, una “ministra virtual” anticorrupción (2025), analiza contratos públicos, pero no es candidata ni toma decisiones; los responsables son humanos.
  • Perú: Revisa tu Candidato (2026) usa IA para evaluar perfiles y antecedentes, sin representar ni sustituir postulantes.
  • Chile: El CENIA empleó IA (2025) para clasificar afinidad ideológica de candidatos, solo con fines analíticos.
  • Corea del Sur e India: avatares de IA apoyan campañas, pero los candidatos son personas humanas.
  • Costa Rica: desde 2026 exige declarar el uso de IA en campañas, priorizando transparencia, no representación.

El caso de «Gaitana» es singular: la IA aparece identificada en la papeleta, aunque la candidatura sigue siendo jurídicamente humana.

Conclusión

IMPRECISO: La candidatura corresponde a un candidato humano, Carlos Redondo, quien utiliza a «Gaitana» como herramienta de comunicación y construcción de propuestas. En la papeleta indígena aparece como “IA – Gaitana”, cumpliendo los requisitos constitucionales de capacidad jurídica y pertenencia étnica, que recaen en la persona humana inscrita. En ese sentido, no se trata de una IA como sujeto político, sino de un candidato humano que emplea inteligencia artificial como herramienta política y comunicacional, dentro del marco legal colombiano.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

ARCSA no realizó este operativo: la imagen viral fue generada artificialmente

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Una publicación viral que asegura que un restaurante de comida asiática fue clausurado por usar arroz reutilizado de sobras de clientes.

¿Por qué es completamente falso?

La Agencia Nacional de Regulación, Control y Vigilancia Sanitaria (ARCSA) confirmó que la imagen no corresponde a un operativo real. No existen registros en canales oficiales del ARCSA sobre una clausura por ese motivo. Además, la imagen presenta anomalías visuales compatibles con manipulación o generación artificial.

¿Qué dice la evidencia?

Confirmación oficial:

  • ARCSA confirmó a Lupa Media que la imagen viral fue creada artificialmente y que el supuesto operativo no es real.
  • La actividad reciente del ARCSA reporta otros controles sanitarios, como:
  • Ninguna publicación oficial menciona la clausura de un restaurante por vender sobras de comida.
  • El post viral no menciona en qué lugar o ciudad específica está este supuesto local clausurado.
  • Asimismo, el restaurante viral de la fotografía no tiene un nombre más allá de un letrero en inglés.

Análisis técnico: 

  • Lupa Media analizó la imagen con Hive Moderation, Sight Engine y SynthID, sin resultados concluyentes.
  • No obstante, el análisis visual identificó múltiples señales de generación artificial, entre ellas:
    • Letras distorsionadas en cintas y chalecos.
    • Fachada genérica sin nombre del restaurante.
    • Uso de un rótulo genérico (“restaurant”).
    • Ausencia de reflejos en puertas de vidrio.
    • Textos ilegibles y colores excesivamente saturados.

Cómo funcionan las clausuras del ARCSA

  • Los inspectores usan chalecos oficiales de la institución.
  • No se emplean cintas amarillas para clausuras.
  • Se coloca un sello oficial de clausura cuando corresponde.
  • Cada sanción se respalda con un informe técnico y, en muchos casos, con material audiovisual difundido por la institución.

Contexto importante

AARCSA ha documentado clausuras por irregularidades sanitarias, principalmente por presencia de plagas y deficiencias de higiene. Ejemplos públicos incluyen:

  • Ambato (julio de 2025): decomiso de arroz con gorgojos y rastros de roedores.
  • Cayambe (enero de 2025): detección de plagas en arroz precocido.
  • Cuenca (2024): clausura de un chifa por condiciones sanitarias deficientes.

No existen registros oficiales de clausuras por reutilización de sobras de comida. Las menciones sobre “arroz de sobras” provienen de publicaciones en redes sin datos verificables.

Conclusión

COMPLETAMENTE FALSO: ARCSA confirmó que la imagen y el supuesto operativo no son reales. No hay evidencia oficial de una clausura por vender chaulafán con sobras. La imagen presenta señales compatibles con contenido generado artificialmente.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Cómo eliminar imágenes íntimas (reales o de IA) de internet sin perder tu privacidad

No necesitas «subir» la foto ni exponer tu identidad. Estas plataformas utilizan tecnología de huella digital para detectar y bloquear el contenido en redes sociales y buscadores. A continuación, te explicamos cuál usar según tu caso.

1. Para menores de 18 años: Take It Down

Si la imagen involucra a una persona que actualmente es menor de edad (o la imagen fue tomada cuando lo era), la herramienta adecuada es Take It Down.

  • ¿Quién la opera? El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) una organización sin fines de lucro de los Estados Unidos.
  • ¿Para quién es? Niñas, niños y adolescentes. También pueden usarla padres o tutores legales.
  • ¿Cómo funciona? Ayuda a retirar contenido sexual de internet y evita que se comparta en plataformas asociadas (como Facebook, Instagram, TikTok, entre otras).
  • Alcance: Disponible en más de 30 idiomas. Desde 2024, ha procesado 62.9 millones de solicitudes de imágenes, videos y otros archivos.

Para adultos (+18): StopNCII.org

Si eres mayor de edad y apareces en la imagen, debes usar StopNCII.org.

  • ¿Quién la opera? La ONG británica Revenge Porn Helpline, con apoyo de empresas tecnológicas como Meta.
  • ¿Para quién es? Adultos mayores de 18 años.
  • Efectividad: Ha logrado eliminar o bloquear más del 90% del contenido denunciado a escala mundial.
  • Seguimiento: Al crear tu caso, recibes un número y un PIN para monitorear el estatus del bloqueo sin dar tu nombre.

¿Son seguras? ¿Tengo que enviar mi foto?

Esta es la duda más común y la respuesta es no. Tu privacidad está garantizada mediante un proceso técnico llamado hashing:

  1. La herramienta escanea la imagen directamente en tu dispositivo (móvil o computadora).
  2. Crea una «huella digital» (un código numérico único) de esa imagen.
  3. Solo se comparte el código, nunca la foto.
  4. Las redes sociales usan ese código para detectar si alguien intenta subir esa imagen y la bloquean automáticamente.

Pasos para protegerte (El proceso es igual en ambas)

  1. Ingresa a la web: Ve a TakeItDown.ncmec.org (menores) o StopNCII.org (adultos).
  2. Selecciona el material: Desde tu galería, elige la foto o video que quieres bloquear. Recuerda: el archivo no se sube a la nube, se procesa en tu teléfono.
  3. Genera la huella: El sistema creará el código digital único.
  4. Envía el reporte: Se envía la huella a las plataformas participantes para que procedan al bloqueo o eliminación.

Ambas herramientas son el estándar actual en seguridad digital para recuperar el control sobre tu intimidad. Si estás en peligro inmediato, recuerda que también puedes buscar apoyo legal local.

Nevadas en Rusia: qué contenidos son reales y cuáles no

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

En Kamchatka, en el extremo oriental de Rusia, las nevadas provocaron interrupciones prolongadas del transporte, cierre de escuelas y daños estructurales. En algunas zonas se acumularon hasta tres metros de nieve. Agencias de Estados Unidos y Rusia como AP News y RIA Novosti documentaron calles y vehículos completamente cubiertos durante varios días. Estas imágenes verificadas no coinciden con varios de los videos que se hicieron virales en redes sociales.

 “Fotografías y video dron de Kamchatka, Rusia”

Las imágenes presentan patrones visuales inconsistentes, como ventanas deformadas, edificios sin nitidez y texturas irreales en la nieve. Agencias de verificación como Newtral (España) y Demagog (Polonia) concluyeron que fueron generadas con inteligencia artificial tras análisis visual y el uso de herramientas de detección como Hive Moderation y Sight Engine. En nuestra revisión aplicamos las mismas herramientas, cuyos resultados refuerzan esa conclusión. Además, revisamos repositorios de agencias de noticias internacionales sin encontrar registros de un hecho similar.

“Personas escalando la nieve de los edificios y luego deslizándose”

El video fue publicado por una cuenta que se dedica explícitamente a crear contenido con IA. El autor ofrece tutoriales para generar este tipo de videos. El análisis técnico respalda que no corresponde a un hecho real.

“Torre de nieve colapsando junto a edificios”

Analizamos el video con la herramienta de detección Hive Moderation y detectó un 100% de probabilidad de que el contenido haya sido generado artificialmente. Además, notamos errores comunes de la IA como la saturación de colores, las texturas poco naturales de la nieve y que la estructura de los edificios que carece de nitidez.

“Personas deslizándose por la nieve de los edificios en Rusia”

El contenido proviene de una cuenta que se define como parodia y creadora de videos con IA. La detección técnica y el propio contexto del autor confirman que no es un hecho real. En el post viral, el autor recibe un comentario de un usuario señalando que el video es IA y este respondiendo «lo sé, pero es genial».

“Kamchatka. Niños deslizándose por un tobogán tras gran caída de nieve.”

El análisis técnico muestra alta probabilidad de contenido artificial señalando errores visuales típicos de la IA. En este caso está la saturación excesiva de colores y personas deslizándose que desaparecen al final del video. 

“Fotografías sobre las nevadas en Rusia que muestra a personas cubiertas por nieve incluyendo cara y ropa”

Las fotografías son reales, pero no son actuales. Corresponden a distintos años (2018, 2020 y 2024) y lugares de Siberia como Omolon, Verkhoyansk, Oymyakon y Yakutia. No presentan indicios de haber sido generadas con IA y están siendo reutilizadas fuera de contexto para atribuirlas a nevadas recientes. 

“Autos enterrados bajo la nieve”

Las imágenes fueron publicadas por AP News en enero de 2026 y muestran nevadas reales en Kamchatka, donde la vida se vio afectada durante varios días. Imágenes similares fueron compartidas también por La República, ABC News, y RT. 

“Intensas nevadas cubren edificios y vehículos”

Estas imágenes son reales y fueron publicadas por Noticias Caracol en su cuenta de TikTok el 20 de enero de 2026. Los medios internacionales confirman que Kamchatka atravesó el temporal más fuerte en décadas, con suspensión de clases y actividades presenciales.

@noticiascaracol

#Mundo | En la península rusa de Kamchatka, el temporal más fuerte en 60 años mantiene la ciudad prácticamente paralizada. Las intensas nevadas han bloqueado entradas de edificios, sepultado vehículos y alcanzado el segundo piso de algunas residencias. Las autoridades cerraron colegios y empresas, que pasaron al trabajo remoto, mientras los habitantes cavan para abrirse paso entre carreteras cubiertas. Siga la señal de Noticias Caracol en Vivo en noticiascaracol.com

♬ sonido original – Noticias Caracol
¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Cómo se difunde y monetiza la sexualización de menores en TikTok mediante IA

“Clic aquí para vídeos exclusivos”, invita uno de los perfiles de TikTok con casi 40.000 seguidores que recopila y republica vídeos de chicas reales con apariencia de ser menores de edad en su mayoría vestidas con uniforme escolar. Para acceder a este contenido oculto, los usuarios deben pagar una cuota mensual a modo de suscripción. Esta es sólo una de las estrategias que utilizan este tipo de perfiles para ganar dinero. Hay otras cuentas que publican contenido sexualizado de menores generado con inteligencia artificial (IA) 

Monetización directa dentro de TikTok

Algunos perfiles utilizan el sistema de suscripciones de TikTok, que permite cobrar una cuota mensual a cambio de contenido exclusivo o acceso a espacios privados.

Maldita.es identificó 13 cuentas que publican vídeos de menores —reales o generados con IA— y utilizan este sistema, con un coste medio de cuatro euros mensuales. En varios casos, las cuentas ofrecen:

  • acceso a vídeos no visibles públicamente,
  • posibilidad de solicitar contenido,
  • interacción directa mediante chats privados o salas exclusivas para suscriptores.

Aunque TikTok prohíbe explícitamente la sexualización de menores en sus Normas de la Comunidad, estos perfiles describen sus beneficios sin detallar el contenido, lo que dificulta la detección automática y desplaza la responsabilidad al usuario que paga.

TikTok retiene parte de los ingresos generados por este sistema. Según la propia plataforma, el reparto puede llegar hasta el 50 % de los ingresos netos para el creador, tras comisiones de tiendas de aplicaciones. En algunos países, como Estados Unidos y Canadá, ese porcentaje puede ser mayor.

Redirección a plataformas externas

Otros perfiles no cobran dentro de TikTok, sino que utilizan la plataforma como escaparate. A través de mensajes directos o enlaces en la biografía, dirigen a los usuarios a:

  • páginas web que venden imágenes y vídeos generados con IA,
  • sistemas de pago directo como PayPal,
  • plataformas de membresía,
  • o canales privados de Telegram.

Imágenes con IA

En conversaciones mantenidas por Maldita.es con varias de estas cuentas, los administradores ofrecieron contenidos personalizados y paquetes de imágenes o vídeos a precios que oscilan entre 4,95 y 149,99 euros, entregados por correo electrónico o descarga externa.

Aunque algunas webs afirman que sus creaciones representan “personajes adultos”, las imágenes presentan rasgos físicos y contextos asociados a menores de edad, lo que plantea un problema legal y ético documentado por organizaciones de protección infantil.

El papel de Telegram en la distribución de pornografía infantil

La investigación documenta un patrón recurrente: desde vídeos sexualizados en TikTok, el usuario es conducido a cuentas de Telegram donde se vende o intercambia pornografía infantil real. Maldita.es identificó 11 cuentas de Telegram que ofrecían este material. Siete de ellas enviaron pruebas de que lo poseían. Todas fueron denunciadas ante la Policía Nacional.

En Telegram, estos intercambios se realizan principalmente en conversaciones privadas, fuera del alcance de los sistemas de denuncia pública de la plataforma. Los vendedores destacan el anonimato como argumento comercial, asegurando que la aplicación es “segura” y difícil de rastrear.

Anonimato, privacidad y límites de control

Según Germán Andrés Olano, experto en seguridad informática, Telegram ofrece herramientas que facilitan el anonimato, como el ocultamiento del número de teléfono y la mínima exposición de datos personales. Esto genera una percepción de impunidad que algunos usuarios aprovechan para comercializar contenido ilegal y filtrar compradores. Telegram ha defendido históricamente su política de privacidad y libertad de expresión.

En agosto de 2024, su CEO, Pavel Durov, fue imputado en Francia por, entre otros cargos, no colaborar con las autoridades en investigaciones relacionadas con contenido ilícito. Tras ese proceso, la empresa modificó su política para incluir cooperación en casos de delitos graves.

Qué pueden hacer los usuarios

Cuando un usuario se encuentra con este tipo de contenidos:

  • En TikTok, puede denunciar publicaciones y comentarios desde la propia aplicación.
  • En Telegram, solo es posible denunciar contenido ilegal en canales públicos. En conversaciones privadas, la plataforma indica que se debe contactar por correo electrónico con sus equipos de abuso, aportando los identificadores disponibles.
  • Fuera de las plataformas, siempre es posible denunciar ante la Fiscalía o las autoridades competentes.

TikTok e IA: el peligro del contenido sexual infantil

Las protagonistas suelen ser niñas pequeñas y chicas adolescentes, pero las situaciones en las que las representan varían. El factor común: las publicaciones se llenan de comentarios en las que usuarios (muchos con fotos de perfil de hombres adultos) las sexualizan, incluso con mensajes sexualmente explícitos, o les dejan emojis de corazones y fuegos.

Hay decenas de contenidos creados con IA que muestran a las menores en bikini o usando ropa ajustada: los vídeos se enfocan en mostrar los pechos y piernas de las supuestas menores. También se repiten los vídeos de ellas saltando, ya sea usando ropa deportiva que marca sus genitales y pezones, o con uniforme escolar.

Otros, a primer vistazo, pueden parecer más inocentes, ya que las menores aparecen vestidas. Pero no lo son, como revelan los comentarios en diferentes idiomas. Hay videos que muestran a niñas sacando la lengua o comiendo helado con mensajes de usuarios que dicen “hasta el fondo” o “tienen que aprender tarde o temprano”. 

La IA de TikTok y Sora, las herramientas utilizadas

Todas las cuentas analizadas por Maldita.es usan la etiqueta de “contenido generado con IA” de TikTok o algún hashtag o comentario donde revelan el origen sintético de sus contenidos. Sin embargo, la mayoría de los videos analizados no tienen marcas de agua visibles que revelen con qué herramientas fueron creados.

Hay algunas excepciones. Uno de los perfiles analizados publicó varios videos de niñas y adolescentes en bikini con la marca de agua de TikTok AI Alive, una función que usa inteligencia artificial para “transformar fotos estáticas en vídeos dinámicos e inmersivos”, según TikTok. Otra de las cuentas (que redirige a X, donde publica enlaces a una web de pornografía) tiene varios vídeos de animadoras y chicas con uniforme escolar y de sirvienta saltando en las que aparece la marca de agua de Sora, la herramienta de creación de video de OpenAI.

‘Colegialas’, el tema favorito de los pedófilos

Una niña juega en una piscina. Unas estudiantes bailan en el patio de su instituto. Una adolescente canta a la cámara. Todas son escenas comunes de TikTok pero agrupadas en estos perfiles con descripciones como colegialas primaria, secundaria, prepa”, “me encantan las diosas de todo el mundo” y “las más lindas de los colegios”, el tono cambia. Las 20 cuentas que analizadas se dedican a recopilar videos de chicas, en muchos casos con uniforme o ambientados en espacios escolares. De hecho, 11 de los perfiles usan la palabra “colegiala” en el nombre de la cuenta. 

Los videos de menores son reales, reutilizados desde sus cuentas originales; a veces ocultan la marca de agua para evitar rastrearlas. Es el caso de un video que muestra a dos adolescentes bailando (que ha sido visto 193.000 veces), lleno de comentarios de usuarios que piden sus nombres. Uno contesta citando el perfil de la chica que lo publicó originalmente que, según su biografía, tiene 16 años.

Otra cuenta analizada, con 1.851 seguidores, recopila los vídeos que publicó originalmente una tienda de ropa argentina donde aparecen chicas con apariencia de ser menores modelando. En las publicaciones de la tienda no hay comentarios, pero sí en las del perfil que los republica: están llenos de mensajes de usuarios (muchos con fotos de perfil de hombres adultos) que las llaman “sexi”, les dejan emojis de corazones e imágenes con insinuaciones sexuales.  

Una actividad lucrativa

La cosa puede no quedarse solo en comentarios, porque la pornografía infantil está al alcance de cualquiera de estos usuarios en tan solo cinco minutos: entre los comentarios se promocionan cuentas de Telegram que venden e intercambian pornografía infantil real.  Varias de las cuentas analizadas redirigieron, ya sea a través del enlace vinculado en sus biografías o por mensaje directo, a sitios web donde se venden vídeos e imágenes sexuales de menores creados con IA. 

Además, seis de los 20 perfiles que publican estos contenidos creados con IA que sexualizan a menores usan el sistema de suscripción de TikTok, que permite cobrar por contenido exclusivo y funciones adicionales. Las suscripciones cuestan una media de USD 4,18. De estas ganancias, una parte va a la red social (el 50% después de la comisión de la plataforma de pago de iOS o Google del 15-30%, según explican en su web).

Videos con niñas irreales pueden normalizar la sexualización infantil

“Aunque no representen a niños reales, estos contenidos son profundamente problemáticos”, advierte Mamen Bueno, psicóloga sanitaria y psicoterapeuta. Según la experta, videos como los analizados por Maldita.es pueden “normalizar la sexualización infantil y reforzar patrones de consumo en personas con intereses dañinos hacia menores”. Silvia Catalán, psicóloga experta en sexualidades, añade que el problema radica en “perpetuar una imagen erótica y sexual de los cuerpos pequeños”, lo que dificulta distinguir lo permitido de lo éticamente inadmisible y puede alimentar la demanda hacia menores reales.

Estudios muestran que la sexualización conduce a la deshumanización y puede afectar la salud mental de los menores, provocando desórdenes alimenticios, baja autoestima y depresión, según la Asociación Americana de Psicología. El algoritmo de TikTok amplifica estos riesgos al recomendar contenido similar y perfiles que aparentan ser menores, aumentando la exposición a miradas potencialmente dañinas y el riesgo de captación, grooming o acoso, concluye Bueno.

Tras denunciar 15 de estas cuentas por incumplir las normas de TikTok, todas siguen estando disponibles  

Aunque TikTok prohíbe las cuentas que muestran imágenes generadas con IA que sexualizan o fetichizan a menores, los 15 perfiles que Maldita.es denunció siguieron activos 72 horas después. La plataforma solo aplicó restricciones temporales a una de ellas y consideró que la mayoría no infringía sus políticas.

En ese sentido, las redes sociales como TikTok sólo tienen obligación de eliminar un video si tienen “conocimiento efectivo” de que es ilegal, según la Ley de Servicios Digitales en España (DSA). Así lo explicó a Maldita.es Rahul Uttamchandani, abogado especializado en tecnología y privacidad.

¿Qué podemos hacer si nos encontramos con estos vídeos? 

En España,  si la menor está a nuestro cargo, Judel explica que podemos denunciar por la vía civil y solicitar una indemnización por los posibles daños y perjuicios ocasionados. Esta puede variar según el alcance de la difusión, el daño reputacional y el contexto: “Si hay un patrón de recolección sistemática de vídeos de niñas o adolescentes para fines fetichistas, la responsabilidad civil se dispara, y la indemnización también”, afirma. 

Como usuarios, podemos denunciar este tipo de contenido para que conste que las plataformas han sido notificadas. Para hacerlo, en TikTok debemos pulsar el botón ‘compartir’, presionar ‘denunciar’ y seleccionar el motivo correspondiente.

«Grok, quítale la ropa»: uso la IA en X y el riesgo de desnudar imágenes sin consentimiento

Las solicitudes a Grok incluyen instrucciones como “quítale la ropa”, “ponla en lencería” o “muéstralo sin camiseta”, aplicadas a imágenes de mujeres, hombres y menores de edad reales. La tendencia se detectó antes de que terminara 2025 y, pese a las alertas de investigadores y especialistas, ha acumulado millones de visualizaciones en la plataforma. La práctica fue documentada por la verificadora española  Maldita.es

Un uso recurrente de la IA para crear deepfakes sexuales

El uso de herramientas de IA para crear imágenes sexuales falsas no es nuevo. Grok ya había sido utilizado previamente para generar contenido violento, vejatorio o sexualizado de figuras públicas y personas famosas. Sin embargo, en este caso, las imágenes afectan a usuarios comunes y se difunden directamente en la red social.

Según un estudio de la empresa Security Hero, el 99 % de las víctimas identificadas en deepfakes sexuales son mujeres, aunque también existen casos que afectan a hombres y menores. En X, varios usuarios han denunciado que sus imágenes fueron modificadas sexualmente y que el contenido permaneció visible pese a haber sido reportado.

La investigadora de Bellingcat Kolina Koltai advirtió en mayo de 2025 que algunos usuarios ya habían identificado instrucciones específicas para que Grok generara imágenes de mujeres en bikini, lencería u otras prendas sexualizadas. Ocho meses después, estas prácticas siguen documentándose.

Una usuaria denunció que su imagen fue manipulada sexualmente pese a sus denuncias, y otro caso mostró cómo Grok generó contenido sexualizado tras solicitarlo, admitiendo que a veces produce materiales inapropiados.

También hay hombres entre las víctimas. Algunos usuarios han pedido a Grok que les quite los pantalones, la camiseta o incluso toda la ropa, dejándolos en ropa interior. “Que un tío le ha pedido a Grok que haga esto JAJAJA. Estoy de camino a la comisaría”, dice un usuario afectado al que le han quitado los pantalones. 

Eliminación de prendas religiosas y contenido vejatorio

Entre las solicitudes más frecuentes también figuran instrucciones para retirar prendas religiosas como el hijab o el burka de imágenes de mujeres musulmanas, dejando su cabello o cuerpo al descubierto sin consentimiento. En otros casos, usuarios han pedido a Grok que añada estas prendas de forma vejatoria a mujeres que denuncian el fenómeno.

Algunas de estas imágenes siguen disponibles en la plataforma a fecha de publicación, lo que plantea dudas sobre los mecanismos de moderación de contenido de X.

¿Qué ha hecho X?

Según informó CNBC, X desactivó o limitó temporalmente la función multimedia de Grok tras la difusión de estos casos. No obstante, la medida no ha impedido por completo la generación y circulación de imágenes sexualizadas creadas con IA.

X no ha detallado públicamente qué cambios específicos aplicó, ni si estos son permanentes o suficientes para prevenir nuevos abusos.

Responsabilidad de usuarios, IA y plataforma

La responsabilidad directa por la creación y difusión de estos contenidos recae en los usuarios que los solicitan. Sin embargo, las plataformas y las herramientas de inteligencia artificial utilizadas tampoco quedan completamente exentas de obligaciones.

En América Latina no existe una normativa regional equivalente a la Ley de Inteligencia Artificial de la Unión Europea. La mayoría de los países aún regulan estos casos a través de marcos generales, como las leyes de protección de datos personales, los derechos al honor y a la imagen, y las normas penales vinculadas a violencia digital o explotación sexual, especialmente cuando las víctimas son menores de edad.

Aun así, las plataformas digitales que operan en la región pueden asumir responsabilidad si, tras ser notificadas, no actúan para retirar contenidos ilícitos o que vulneran derechos fundamentales, conforme a la legislación nacional de cada país y a estándares internacionales de derechos humanos.

Prevención y acción

Para reducir el impacto de estos contenidos, es clave actuar con rapidez. Los usuarios pueden limitar la exposición de imágenes personales, evitar compartir contenido sexualizado de terceros y denunciar publicaciones que vulneren derechos, especialmente si involucran a menores.

Las víctimas deben conservar evidencia, solicitar la eliminación del contenido en la plataforma y evaluar las vías legales disponibles. Las plataformas, por su parte, tienen la obligación de actuar tras ser notificadas y retirar contenidos que vulneren derechos fundamentales.