Skip to main content

Etiqueta: maldita.es

No es cierto que Hamás haya asesinado a todas las mujeres rehenes

¿Qué verificamos?

Publicaciones en redes sociales aseguran que «ninguna mujer secuestrada por Hamás ha sobrevivido» porque los 20 rehenes liberados el 13 de octubre de 2025 en el marco del alto el fuego eran hombres. Algunas cuentas políticas en X afirmaron que «Hamás asesinó a las rehenes mujeres restantes».

¿Por qué es completamente falso?

Hamás liberó a 81 mujeres con vida entre octubre de 2023 y enero de 2025. La afirmación ignora las liberaciones anteriores al último alto el fuego y tergiversa los hechos. Según el diario israelí Haaretz, Hamás secuestró a 254 personas el 7 de octubre de 2023: 162 hombres y 92 mujeres. De estas, 81 mujeres fueron liberadas vivas en diferentes etapas.

¿Qué dice la evidencia?

Mujeres liberadas con vida

Según CNN, BBC y Reuters:

  • 20 de octubre de 2023: 2 mujeres liberadas por razones humanitarias.
  • 23 de octubre de 2023: 2 mujeres liberadas.
  • 30 de octubre de 2023: 1 mujer liberada.
  • 24-30 de noviembre de 2023 (primera tregua): 66 mujeres liberadas, según CNN.
  • Junio de 2024: 1 mujer liberada.
  • Enero de 2025: 9 mujeres liberadas durante el alto el fuego entre Israel y Hamás.

Total: 81 mujeres liberadas con vida.

Mujeres cuyos cuerpos fueron recuperados

Israel recuperó los cuerpos de 10 mujeres en operativos militares realizados en:

  • Noviembre y diciembre de 2023
  • Mayo y agosto de 2024
  • Febrero y junio de 2025

No se especifica públicamente si fueron asesinadas por Hamás o murieron en cautiverio. Una mujer permanece desaparecida, según declaraciones de Hamás.

Los 20 hombres liberados el 13 de octubre de 2025

Según Reuters, estos eran los únicos rehenes israelíes con vida en manos de Hamás al momento del alto el fuego. BBC y CNN confirmaron sus identidades: hombres de entre 21 y 48 años.

Cifras totales

  • ONU Mujeres reportó que Hamás secuestró alrededor de 250 israelíes el 7 de octubre de 2023, de los cuales 65 eran mujeres.
  • Haaretz precisó que fueron 254 personas: 162 hombres y 92 mujeres.
  • CNN señala que desde el 7 de octubre de 2023, 168 rehenes han sido devueltos con vida: 160 liberados por negociación y 8 rescatados por el ejército israelí.

Contexto importante

La desinformación surge tras la liberación exclusiva de hombres en el último alto el fuego del 10 de octubre de 2025. Sin embargo, ignora que la mayoría de mujeres secuestradas ya habían sido liberadas en acuerdos anteriores entre Hamás e Israel.

El 7 de octubre de 2023, Hamás llevó a cabo un ataque en territorio israelí que dejó alrededor de 1.200 muertos, de los cuales 282 eran mujeres y 36, niños, según Oxfam. Además, secuestró a 254 personas, incluyendo a 40 menores, según un estudio citado por CNN.

Conclusión

Completamente falso: Es falso que «ninguna mujer secuestrada por Hamás haya sobrevivido». Hamás liberó a 81 mujeres con vida entre octubre de 2023 y enero de 2025. La afirmación tergiversa los hechos al ignorar las liberaciones anteriores al último alto el fuego.

Por qué una IA puede dar respuestas distintas a la misma pregunta (y cómo esto genera desinformación)

Por qué importa

  • Riesgo de desinformación masiva: Millones de personas usan estas herramientas como fuente de información sin contrastar, asumiendo que son precisas.
  • Erosión de la confianza: Respuestas contradictorias minan la credibilidad tanto de la IA como de las fuentes que cita incorrectamente.
  • Responsabilidad difusa: No hay un verificador humano antes de que la información llegue al usuario, multiplicando la propagación de datos falsos.

Las claves

  • Cómo funcionan: Los chatbots usan modelos de lenguaje entrenados con enormes cantidades de texto. «Aprenden patrones estadísticos, no reglas humanas», explica Liany Mendoza, especialista en desarrollo de software.
  • Por qué varían las respuestas: La IA genera cada respuesta desde cero, prediciendo la continuación más probable según la pregunta. «Es una tecnología predictiva que fabrica la respuesta cada vez, no la tiene guardada», señala Carmen Torrijos, lingüista computacional.
  • Otros factores que influyen: El historial de conversación, la conexión a internet, la ubicación del usuario y las actualizaciones del sistema modifican los resultados. «Si consultas un LLM en diferentes días, puede que interactúes con diferentes versiones del mismo», advierte Julián Estévez, investigador en IA.
  • Ejemplo 1 – Grok y la foto histórica: Ante preguntas sobre una imagen, el chatbot de X ofreció versiones distintas sobre fecha, lugar y autor, todas incorrectas. Atribuyó la foto a Estados Unidos durante la Gran Depresión, cuando realmente fue tomada en Málaga durante el franquismo (según archivo de la Universidad de Málaga).
Captura de pantalla de Maldita.es
  • Ejemplo 2 – Google y los Canadair: La función de resumen con IA de Google generó información falsa sobre la compra de aviones Canadair, atribuyendo a Maldita.es afirmaciones que la organización nunca hizo y que además ha desmentido. Al repetir la búsqueda, algunos usuarios no ven el resumen erróneo, pero el artículo aparece como primer resultado.
Captura de pantalla de Maldita.es

El ruido vs. la realidad

  • El ruido: «La IA siempre tiene la respuesta correcta» / «Si aparece en el resumen de Google, debe ser verdad».
  • La realidad: Estos sistemas no verifican información, solo predicen texto probable. Pueden inventar datos (fenómeno llamado «alucinación»), mezclar fuentes o descontextualizar información real.

Lo que viene

  • Usuarios: Nunca asumas que una respuesta de IA es correcta. Contrasta siempre con fuentes oficiales, medios verificados o bases de datos confiables.
  • Plataformas: Google, OpenAI y otras empresas están desarrollando sistemas de advertencia y mejorando la precisión, pero ninguna tecnología actual garantiza respuestas 100% exactas.
  • Regulación: La Unión Europea y otros organismos trabajan en marcos legales para exigir transparencia sobre cómo funcionan estos sistemas y quién responde por sus errores.

¿Entonces?

La inteligencia artificial puede ser útil, pero no infalible. Cada respuesta es una predicción, no un hecho verificado. En la era de la desinformación, contrastar información es más importante que nunca, incluso cuando viene de una máquina que parece saberlo todo.

*Explicativo construido a partir de información de la Agencia de Contenidos Maldita.es

Este video de un hombre saltando en un charco frente a una reportera no es real: está generado con IA

(Maldita.es).– Circula un vídeo en el que se ve cómo un hombre salta dentro de un bache lleno de agua mientras una reportera advierte del peligro en directo. El momento se difunde como si fuera real y ha generado muchas reacciones en redes sociales. Sin embargo, el vídeo ha sido etiquetado por su autora en TikTok como contenido de “humor” y “generado por IA”, y presenta señales que apuntan a que ha sido creado con esta tecnología.

El vídeo ha sido difundido con mensajes como “La reportera muy seria hablando de los baches… ¡hasta que llegó Don Teófilo a disfrutar del ‘spa’ callejero!”. En la grabación, se puede ver cómo un hombre salta en un charco mientras una reportera alerta en directo sobre el mal estado de la vía.

Sin embargo, la cuenta que lo ha publicado indicó que se trata de un contenido generado con IA, utilizando la etiqueta “Generado por IA” así como los hashtags “#humorlatino” e “#inteligenciaartificial”.

Captura de pantalla Maldita.es

Además, el vídeo muestra algunos signos propios de los contenidos generados con esta tecnología, como imperfecciones en los movimientos, que presentan desdoblamientos y pérdida de nitidez.

Captura de pantalla Maldita.es
Captura de pantalla Maldita.es

También hay indicios de que la voz de la reportera es sintética, ya que presenta monotonía, con un ritmo y entonación poco naturales. En otras publicaciones de la misma cuenta en TikTok, se repite este formato, con vídeos en los que una persona interrumpe un reportaje en directo. Todos ellos están etiquetados como generados con inteligencia artificial.

Por tanto, este vídeo en el que un hombre salta en un bache con agua no muestra una escena real. Ha sido creado con inteligencia artificial y así lo ha etiquetado la cuenta que lo publicó.