Deepfakes sexuales: qué hay detrás del caso Fernandes

Una presentadora alemana descubrió que su exmarido difundió durante años imágenes sexuales falsas de ella. El caso ocurre en un contexto de auge de los deepfakes: crecieron 550% entre 2019 y 2023, y para 2025 el 95% es pornografía no consentida y el 99% de las víctimas son mujeres.

¿Qué pasó?

Collien Fernandes, presentadora y actriz alemana de 44 años, denunció en marzo de 2026 que durante más de una década fue víctima de un esquema de suplantación digital que incluyó perfiles falsos, imágenes sexuales creadas con IA y conversaciones íntimas, incluso llamadas con voz clonada.

Según su testimonio, su exmarido le confesó los hechos en diciembre de 2024. Ese mismo año presentó una denuncia en Alemania, pero la investigación fue archivada inicialmente y luego reabierta tras nuevas revelaciones mediáticas, esta vez centrada en él.

En 2026 también denunció en España, al considerar que ofrecía un marco más sólido frente a la violencia digital y de género y por los vínculos de residencia con ese país, especialmente en Mallorca. Sin embargo, la justicia española se declaró sin competencia territorial y remitió el caso a la Fiscalía de Itzehoe, en Alemania, donde el proceso sigue en fase preliminar.

El caso generó un fuerte impacto público: cerca de 10 mil personas se manifestaron en Berlín, Fernandes participó bajo protección policial tras recibir amenazas de muerte, y la ministra de Justicia alemana anunció que impulsará legislación específica contra los deepfakes sexuales.

Collien Fernandes, de 44 años, es una de las figuras reconocidas de la televisión alemana. Fue presentadora y actriz de los canales MTV y VIVA, su imagen pública estuvo durante años ligada también a la de su marido, el actor y productor Christian Ulmen.

Qué es un deepfake sexual

Es contenido manipulado con inteligencia artificial que hace parecer que alguien realizó actos íntimos que nunca ocurrieron, como insertar su rostro en pornografía, generar imágenes sexuales falsas o clonar su voz. Se distingue por su alto realismo, facilidad de creación y alcance masivo, lo que expone a cualquier persona con fotos públicas a ser víctima.

Los números del deepfake sexual

El volumen:

El perfil del abuso sexual digital:

La escala del daño psicológico:

  • De acuerdo a un estudio, las víctimas sufren depresión, ansiedad, estrés postraumático, pérdida de empleo, aislamiento y daño reputacional, además de efectos como la pérdida de control sobre su identidad. A escala global, al menos el 2,2% de personas ha sido víctima de deepfakes sexuales.

El caso de menores de edad:

  • La Internet Watch Foundation (IFW) identificó más de 8.000 contenidos de abuso sexual infantil generados con IA, con un aumento acelerado y miles de videos, el 65% de ellos de extrema gravedad. Además, según el Centro Nacional para Niños Desaparecidos y Explotados de EE.UU. (NCMEC), esta tecnología se usa en delitos como la sextorsión.

Casos de referencia global

Casos recientes evidencian la magnitud del problema: en 2025, deepfakes sexuales de Taylor Swift se difundieron masivamente y abrieron debate legal en EE.UU. En 2023, una adolescente en Texas fue víctima de este tipo de contenido y luego impulsó acciones de prevención. Ese mismo año, en Quito, estudiantes generaron cientos de videos sexuales falsos con imágenes de sus compañeras.

También han sido afectadas figuras políticas como Alexandria Ocasio-Cortez y Giorgia Meloni, lo que ha contribuido a visibilizar el problema a nivel global.

Qué dice la ley internacional

Estados Unidos — Ley TAKE IT DOWN (mayo 2025)

Criminaliza compartir o amenazar con difundir imágenes íntimas no consentidas, incluidas las generadas con IA, con penas de hasta 3 años (menores) y 2 años (adultos), y obliga a plataformas a eliminarlas en 48 horas. En 2026 se registró la primera condena.

Alemania — Legislación en curso (2026)

Impulsada por el caso Fernandes, la ministra de Justicia Stefanie Hubig propone penalizar los deepfakes sexuales con hasta 2 años de prisión, incluir el “voyeurismo digital” y exigir acciones a plataformas.

Reino Unido — Online Safety Act (2025)

Entró en vigor desde julio de 2025. Reconoce la pornografía deepfake como delito prioritario y traslada responsabilidad a las plataformas.

Unión Europea — AI Act (2025)

Obliga a etiquetar contenido generado con IA. No criminaliza directamente los deepfakes sexuales, pero establece bases regulatorias.

América Latina

El marco es fragmentado: Argentina, por ejemplo, incluye la violencia digital en su legislación, mientras que en Ecuador no existe una ley específica sobre deepfakes sexuales.

Preguntas y recomendaciones

¿Se puede detectar un deepfake?

Cada vez es más difícil: un estudio de 2025 de iProov encontró que solo el 0,1% de las personas logró identificar correctamente todos los contenidos reales y falsos, y el 70% no confía en su capacidad para distinguir una voz real de una clonada.

¿Qué puedo hacer si soy víctima?

  • Documentar el contenido.
  • Denunciarlo ante la Fiscalía y las plataformas donde circula.
  • Acudir a servicios como el del NCMEC (Take It Down) para solicitar su eliminación.
  • También es clave buscar asesoría legal especializada en derechos digitales.
@lupamediaec

🔍 #LupaTeExplica | 🛑📲 Si una imagen íntima tuya —o de un menor— fue difundida sin consentimiento, existen herramientas gratuitas y anónimas para frenar su circulación. Aplican para imágenes reales y generadas con IA. ¿Cómo funciona? No tienes que “subir” tu foto a ninguna base de datos. Las herramientas generan un código digital (hash) directamente en tu dispositivo. Las plataformas comparten ese código con redes sociales y buscadores para eliminar el contenido y bloquear copias. ¿Cuáles son esas herramientas? 👦 Take It Down: Para menores de 18 años (o imágenes tomadas cuando eras menor). Operada por el NCMEC. 👩‍🦰 StopNCII.org: Para adultos. Coordinada por la ONG Revenge Porn Helpline. 📊El impacto: Desde 2024, estas herramientas han procesado más de 62,9 millones de solicitudes relacionadas con imágenes, videos y otros archivos. 👉 Mira el explicativo paso a paso aquí: lupa.com.ec #fyp #seguridad #ciberseguridad #medialiteracy

♬ sonido original – Lupa Media
Autor(a)

Explora, contrasta y rastrea datos en entornos digitales para desenmascarar desinformación, especialmente en temas políticos.  Tiene experiencia como locutora, redactora y editora en UDLA Channel. En su tiempo libre, disfruta descubrir nueva música y buscar buenos lugares para tomar té.