Skip to main content

Etiqueta: inteligencia artificial

Este noticiero español sobre conflicto SERCOP-Municipio de Guayaquil fue generado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral que circula en redes sociales muestra a dos presentadores de un supuesto noticiero español informando sobre la disputa política entre el Municipio de Guayaquil, el Gobierno de Daniel Noboa y el SERCOP por la suspensión de procesos de contratación pública. El video incluye un reportaje con un tercer periodista narrando detalles del conflicto. 

¿Por qué es completamente falso?

La búsqueda inversa también arrojó que el video fue publicado originalmente por un perfil de Instagram el 11 de diciembre de 2025. Este usuario se dedica a publicar reportajes FALSOS de diversa índole, muchos de los cuales ya han sido verificados y desmentidos previamente por Lupa Media. Dos herramientas especializadas en detección de contenido sintético—Sensity AI y Hive Moderation—arrojaron probabilidades superiores al 87% de manipulación digital. Además, no existe evidencia de que medios españoles hayan producido o emitido este contenido; la cobertura del conflicto SERCOP-Municipio de Guayaquil es exclusivamente local ecuatoriana y regional latinoamericana. ​

¿Qué dice la evidencia?

  • Búsqueda inversa de imágenes: Google Lens no identificó un noticiero exacto real ni a los presentadores originales del video viral, por lo que se trata de creaciones digitales. Sin embargo, se encontraron noticieros con formatos visuales similares (Castilla y León Televisión y FTV Bosnia), pero con diferencias en ubicación de gráficos, rasgos faciales de los presentadores y ausencia del formato de dos conductores simultáneos.
  • La búsqueda inversa también arrojó que el video fue publicado originalmente por un perfil de Instagram el 11 de diciembre de 2025. Este usuario se dedica a publicar reportajes FALSOS de diversa índole, muchos de los cuales ya han sido verificados y desmentidos previamente por Lupa Media.
  • Análisis técnico con herramientas de detección de IA: Sensity AI, plataforma especializada en detectar deepfakes y contenido generado artificialmente, identificó una probabilidad del 87,6% de que el video fue creado con IA.
  • Hive Moderation arrojó un promedio del 96,7% de probabilidad de generación artificial, tanto en el audio como en las imágenes de los presentadores.
  • Estas herramientas detectaron anomalías en sincronización labial, movimientos faciales no naturales y patrones de voz sintética.
  • Búsqueda en medios españoles: Lupa Media realizó búsquedas en portales de noticias españoles como El País, El Mundo, 20minutos, RTVE y otros medios de referencia. No se encontró ningún registro de este reportaje específico.
  • La cobertura del conflicto SERCOP-Municipio de Guayaquil proviene exclusivamente de medios ecuatorianos como Expreso, Primicias, El Universo y El Mercurio.
  • Ninguno de estos medios tiene registro de haber producido contenido sobre Ecuador o el conflicto SERCOP-Municipio de Guayaquil.

Contexto importante

Este video viral surge en el contexto de una pugna política y técnica entre el Municipio de Guayaquil, el Gobierno de Daniel Noboa y el SERCOP, que se manifiesta principalmente en la suspensión y observación de procesos de contratación pública de la entidad guayaquileña.

El Ejecutivo y el SERCOP afirman que aplican controles técnicos para garantizar legalidad y transparencia, mientras que el Municipio sostiene que existe un bloqueo político que afecta su autonomía. Según el SERCOP, decenas de procesos municipales fueron suspendidos por incumplimientos técnicos, subsanaciones pendientes o falta de oferentes, y otros fueron cancelados o declarados desiertos por el propio Municipio.

Guayaquil rechaza estos argumentos, asegura que las observaciones carecen de sustento técnico, declaró desiertos varios contratos “bajo protesta” y anunció que los volverá a publicar. Además, solicitó a la Contraloría General del Estado que revise la actuación del SERCOP.

Conclusión

COMPLETAMENTE FALSO: El video que simula un noticiero español sobre el conflicto entre el SERCOP y el Municipio de Guayaquil fue generado con inteligencia artificial. Herramientas especializadas detectaron entre 87,6% y 96,7% de probabilidad de contenido sintético. Lupa Media no encontró evidencia de que medios españoles hayan producido este reportaje; la cobertura del conflicto proviene exclusivamente de medios ecuatorianos.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Este noticiero sobre ataques en costas venezolanas fue generado con inteligencia artificial

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral presenta un supuesto noticiero que reporta ataques «de última hora» en las costas venezolanas. El contenido afirma que operativos aéreos y navales habrían golpeado instalaciones cerca de Falcón y La Guaira, «generando alarma» en Caracas. El video asegura que «autoridades» confirman múltiples incidentes.

¿Por qué es completamente falso?

El video fue generado con inteligencia artificial usando la herramienta Sora 2 de OpenAI, y un análisis técnico con Hive Moderation determinó con un 100% de certeza su origen artificial. No existe evidencia de ataques en las zonas mencionadas ni reportes oficiales sobre estos supuestos incidentes.

¿Qué dice la evidencia? 

  • Ausencia de reportes oficiales:
    • No hay comunicados del gobierno venezolano sobre ataques en Falcón o La Guaira.
    • Medios verificados y autoridades locales no han reportado incidentes.
    • No existe evidencia fotográfica ni testimonial de los supuestos ataques.
  • Origen del video viral: Una búsqueda inversa con Google Lens determinó que este video circula desde el 30 de noviembre de 2025 en TikTok e Instagram. Proviene de una cuenta en TikTok que publica videos de noticieros falsos creados con inteligencia artificial, específicamente con Sora 2, de OpenAI.
  • Análisis técnico confirma origen artificial: Hive Moderation arrojó un 100% de probabilidad de que el video del noticiero fue generado artificialmente.
  • Elementos visuales que confirman la manipulación:
    • Marca de agua visible: El sello «Sora 2» aparece en todo el video, indicando la herramienta utilizada.
    • Etiqueta de TikTok:La plataforma añadió automáticamente la etiqueta «contenido generado con IA».
    • Voz artificial: La presentadora tiene una voz robótica, sin pausas ni inflexiones humana.
    • Apariencia sintética: La piel de la presentadora es perfecta, sin imperfecciones naturales.
    • Texto incoherente: Los gráficos inferiores muestran letras distorsionadas en un idioma inexistente.
  • Búsqueda de la supuesta presentadora: El rostro de la presentadora, identificada como «Deriva», no coincide con periodistas reales ni hay registros de ella en medios venezolanos o internacionales.

Contexto importante

En 2025, las relaciones entre Estados Unidos y Venezuela atraviesan un momento de tensión. Washington ha aumentado su presencia militar en el Caribe bajo el argumento de combatir el narcotráfico, desplegando buques, aviones y miles de efectivos.

Desde septiembre de 2025, EE. UU. ha atacado más de 20 embarcaciones calificadas como “sospechosas de narcotráfico”, dejando 83 muertos según el CNN. Venezuela denuncia estas acciones como “asesinatos extrajudiciales” y ha pedido investigaciones de la ONU.

El Congreso estadounidense cuestiona la legalidad de estos ataques, pero las operaciones continúan, incluyendo acciones encubiertas dentro de Venezuela. A finales de noviembre, la tensión aumentó cuando Trump declaró el espacio aéreo venezolano “cerrado” y advirtió sobre operaciones terrestres, mientras Maduro movilizó fuerzas militares y denunció amenazas a la soberanía.

Ambos mandatarios sostuvieron una llamada telefónica en la que, según reportes, EE. UU. habría planteado un ultimátum a Maduro, llevando la relación bilateral a uno de sus momentos más críticos en años.

Conclusión

COMPLETAMENTE FALSO: El video viral que asegura ataques «de última hora» en la costa venezolana fue generado con inteligencia artificial, según Hive Moderation (100% de probabilidad). No hay evidencia de ataques reales en Falcón o La Guaira. Lo que sí se registra es un aumento en la militarización y preparación defensiva en Venezuela frente a amenazas externas, especialmente vinculadas a Estados Unidos.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp!

Entre emociones y falsedades: la otra cara de la campaña del referéndum

Ecuador acudió por segunda vez en menos de un año a las urnas y, tanto en redes sociales como en el discurso político, la desinformación volvió a moverse con rapidez, apelando más al miedo, la indignación y la incertidumbre que a la evidencia. Entre el 1 y el 13 de noviembre, Lupa Media realizó 115 verificaciones —entre contenido viral, discurso público y respuestas ciudadanas enviadas a #VerificaciónALaCarta por WhatsApp— y los hallazgos confirman que, una vez más, la disputa no solo estuvo en las urnas, sino también en la narrativa: quién lograba instalar su versión, generar impacto y mover a la gente desde la emoción.

Frente a ese escenario, la verificación se convirtió en una herramienta imprescindible para recuperar claridad en medio del ruido y acompañar a una ciudadanía cada vez más consciente de la importancia de contrastar antes de decidir.

Narrativas que dominaron la campaña

Además de desinformación puntual, durante la campaña detectamos cuatro narrativas centrales: ideas repetidas desde distintos actores, plataformas y formatos, diseñadas para generar emociones intensas y moldear la percepción pública más que para informar. Estas narrativas se alimentaron tanto de afirmaciones falsas como de piezas generadas con IA y contenidos que mezclaban hechos con interpretaciones alarmistas.

1. “La Constitución privilegia a las personas privadas de libertad por encima del resto de la sociedad”

Narrativa basada en la exageración o invención de supuestos “beneficios” para personas privadas de libertad. Circuló en contenido viral y en discursos que presentaban servicios constitucionales —como salud o educación— como privilegios exclusivos. Su objetivo fue generar indignación moral y la idea de un Estado que “premia” a quienes cometen delitos.

2. “La Constitución protege más a los criminales que a la gente honesta”

Narrativa de corte securitario, centrada en presentar artículos constitucionales como obstáculos para el trabajo policial o como “beneficios” para criminales. Surgió de interpretaciones selectivas, frases sacadas de contexto y declaraciones públicas que simplificaban un debate técnico. Su objetivo principal fue activar miedo e inseguridad.

3. “Las bases militares extranjeras ya están pactadas”

Se impulsó la idea de que la decisión sobre las bases estaba tomada incluso antes del referéndum. Esta narrativa mezcló conspiración y pérdida de soberanía, y se alimentó de documentos descontextualizados, deepfakes de noticieros internacionales y publicaciones que insinuaban acuerdos ocultos. Funcionó para instalar desconfianza hacia el proceso oficial.

4. “Si gana la opción contraria, el país colapsa”

Narrativa catastrófica que anticipaba escenarios de caos institucional, aumento extremo de inseguridad de ganar el «NO» o pérdida de derechos de ganar el «Sí». Se difundió mediante videos editados, y piezas de IA que recreaban escenarios apocalípticos. Buscó movilizar el voto desde la ansiedad y la urgencia.

Cómo funcionaron estas narrativas

Estas cuatro narrativas compartieron un propósito común:

  • simplificar problemas complejos,
  • activar emociones intensas (miedo, indignación, sensación de injusticia), y
  • condicionar percepciones en torno al voto.

En un entorno saturado de falsedades y contenido emocional, estas narrativas se volvieron poderosas porque no apelan a datos, sino a intuiciones, temores y marcos morales que se replican con facilidad.

Desinformación viral

Analizamos 56 publicaciones virales que circularon masivamente durante la campaña. Los resultados muestran un predominio claro de la desinformación:


Es decir, el 91% de las piezas virales verificadas eran falsas. Muchas fueron creadas con el fin de alimentar temores, reforzar sesgos y movilizar emociones.

Los desinformadores repitieron estrategias vistas en procesos anteriores, como los deepfakes de noticieros internacionales para posicionar mensajes que supuestamente “los medios locales no muestran”, y la usurpación de identidad de medios ecuatorianos para difundir contenido falso con apariencia de legitimidad.

Declaraciones públicas: estrategia política

Realizamos un monitoreo diario de las declaraciones de autoridades del gobierno y organizaciones involucradas en la campaña. Un total de 11 afirmaciones fueron verificadas por su incidencia en el debate público y su viralidad en dos o más plataformas.

Las afirmaciones falsas se concentraron en temas técnicos —como la reforma constitucional o la seguridad— presentadas sin evidencia, con conclusiones que no se desprenden de los datos disponibles o con interpretaciones exageradas para reforzar posturas políticas.

Un ejemplo fue la afirmación repetida por el presidente y sus funcionarios sobre supuestos “privilegios” en la atención médica para las personas privadas de libertad, que no coincide con la normativa ni con la evidencia pública.

Este patrón revela que el discurso político, durante este proceso electoral, no solo estuvo polarizado, sino también marcado por afirmaciones incorrectas amplificadas en medios tradicionales y digitales.

IA generativa: menos falsedad, más manipulación emocional

Entre el 16 de octubre y el 12 de noviembre identificamos adicionalmente 125 contenidos generados o intervenidos con IA vinculados a la campaña. Aunque muchos no contenían falsedades explícitas, sí fueron diseñados para:

  • amplificar miedo o esperanza,
  • presentar versiones idealizadas de actores políticos,
  • exagerar logros o amenazas,
  • estetizar mensajes políticos para aumentar impacto,
  • usar imágenes “épicas” o moralizantes para condicionar percepción.

La IA se consolidó como una herramienta de manipulación emocional, incluso sin generar datos falsos. El objetivo no fue engañar, sino influir.

Otros riesgos informativos durante la campaña: las estafas digitales

Aunque no forman parte de la desinformación electoral, durante el periodo de campaña detectamos un aumento significativo de estafas digitales basadas en supuestos bonos, ayudas económicas o transferencias estatales. Estos contenidos circularon con fuerza en WhatsApp, Telegram y TikTok, muchas veces desde cuentas recién creadas o que suplantaban la identidad de instituciones públicas y del presidente Noboa.

Estas estafas no buscaban influir en el voto, pero sí aprovechar el aumento de tráfico, atención y vulnerabilidad digital que suele acompañar a los procesos electorales, y también el aumento de beneficios sociales por parte del gobierno. Funcionaban bajo lógicas muy similares a las piezas de desinformación:

  • sensación de urgencia,
  • apelación emocional,
  • autoridad falsa (logos del MIES, Presidencia, ministerios),
  • enlaces que capturaban datos personales y financieros,
  • estética “institucional” para generar confianza.

La circulación de estas estafas durante la campaña revela que, en contextos electorales, la ciudadanía enfrenta no solo desinformación política, sino también riesgos digitales colaterales que se potencian con el ruido informativo.

¿Qué nos deja la campaña?

Tres conclusiones destacan:

1. La “desinformación emocional” ganó terreno

La campaña se movió más por sensaciones que por información. El contenido falso, los discursos imprecisos y las piezas de IA crearon un clima donde la emoción superó al dato.

2. La verificación sigue siendo esencial

Las 111 verificaciones realizadas muestran la necesidad de contar con equipos capaces de contrastar información en tiempo real y aclarar el debate.

3. Urge fortalecer la alfabetización mediática

Las narrativas emocionales, amplificadas por la IA, requieren ciudadanía con herramientas para identificar manipulación, distinguir fuentes y tomar decisiones informadas.

¿Entonces?

En esta campaña, la disputa no se dio solo en las urnas, sino —y sobre todo— en el terreno de la información: un espacio saturado por emociones, falsedades y contenidos diseñados para influir más que para explicar.
Mientras el país se preparaba para decidir, la conversación pública fue moldeada por narrativas emotivas, discursos sin sustento y piezas generadas con IA que desplazaron al dato como eje del debate.

En ese ruido, la verificación volvió a demostrar su valor: ofrecer claridad, recuperar contexto y ayudar a que la ciudadanía tome decisiones informadas. Porque el voto se define un día, pero la percepción se moldea mucho antes.

Video manipulado con IA suplanta a Oromar TV para desinformar sobre planes de Noboa con el ISSFA e ISSPOL

Si recibes un mensaje similar, recuerda que puedes enviárnoslo por WhatsApp al (+593 96 239 6425) y te ayudaremos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral atribuye a la presentadora  María José Pinargote de Oromar TV la presentación de un supuesto reportaje en la que afirma que Daniel Noboa confirmó que, tras la Consulta Popular del 16 de noviembre de 2025, los servicios de salud del ISSFA y ISSPOL pasarán al Ministerio de Salud Pública, eliminando estos seguros, igual que supuestamente ocurriría con el IESS.

¿Por qué es completamente falso?

El noticiero de Oromar TV corresponde al 5 de junio de 2024. En esa transmisión, la presentadora no menciona la entrevista de Daniel Noboa en Radio Sucre del 12 de noviembre de 2025, ni hace referencia a los seguros sociales de Fuerzas Armadas y Policía Nacional. Un análisis con la herramienta Sensity IA detectó un 89,8% de probabilidad de que el contenido viral haya sido creado con inteligencia artificial.

¿Qué dice la evidencia? 

  • Una búsqueda inversa con Google Lens identificó que el video original fue publicado el 5 de junio de 2024 en el canal de YouTube de Oromar TV, un canal de televisión de Manta.
  • En esa emisión, la presentadora narra las noticias del día sin mencionar la Consulta Popular, la entrevista de Noboa ni los seguros del ISSFA o ISSPOL.
  • El video viral presenta manipulación evidente:
    • Voz alterada: suena artificial y no corresponde a la voz real de la presentadora.
    • Claquetas modificadas: Los textos informativos en pantalla fueron reemplazados con información falsa.
    • Fondo alterado: el set fue modificado digitalmente.
    • Sincronización labial: los movimientos faciales no coinciden con el audio del video original.
  • La herramienta Sensity IA, especializada en detectar contenidos generados artificialmente, arrojó un 89,8% de probabilidad de que el video fue creado con inteligencia artificial.
  • Lupa Media revisó la entrevista completa de Noboa en Radio Sucre:
    • El plan propone unificar la administración de hospitales públicos, pero cada institución seguirá financiando la atención de sus afiliados.
    • Indicó que HealthBird reemplazará al call center para ordenar derivaciones, priorizar la red pública y detectar sobreprecios.
  • Los ministros John Reimberg y Gian Carlo Loffredo (del Interior y de Defensa respectivamente) recalcaron en sus cuentas oficiales de X que estos beneficios para las fuerzas del orden NO desaparecerán.

Contexto importante

La desinformación sobre la Consulta Popular del 16 de noviembre de 2025 ha recurrido a videos manipulados con IA que imitan noticieros reales. Estas piezas buscan otorgar verosimilitud a mensajes falsos mediante el uso de presentadores, logos y formatos televisivos.

Lupa Media ha documentado casos similares en los que se manipulan rostros, voces, gráficos y escenografías para simular noticieros legítimos, especialmente en períodos electorales.

Conclusión

COMPLETAMENTE FALSO:  Un video viral, manipulado con inteligencia artificial, suplanta a Oromar TV para afirmar que Daniel Noboa eliminará los servicios de salud del ISSFA e ISSPOL tras la Consulta Popular. El noticiero original es del 5 de junio de 2024 y no incluye ese reportaje. Sensity IA detectó 89,8% de probabilidad de manipulación. En la entrevista real de Radio Sucre, Noboa no anunció explícitamente la eliminación del IESS, ISSFA o ISSPOL, sino la unificación administrativa de hospitales públicos. Los ministros Reimberg y Loffredo también afirmaron en sus cuentas de X que este beneficio NO desaparecerá.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425). Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canal de WhatsApp! ‪

Por qué una IA puede dar respuestas distintas a la misma pregunta (y cómo esto genera desinformación)

Por qué importa

  • Riesgo de desinformación masiva: Millones de personas usan estas herramientas como fuente de información sin contrastar, asumiendo que son precisas.
  • Erosión de la confianza: Respuestas contradictorias minan la credibilidad tanto de la IA como de las fuentes que cita incorrectamente.
  • Responsabilidad difusa: No hay un verificador humano antes de que la información llegue al usuario, multiplicando la propagación de datos falsos.

Las claves

  • Cómo funcionan: Los chatbots usan modelos de lenguaje entrenados con enormes cantidades de texto. «Aprenden patrones estadísticos, no reglas humanas», explica Liany Mendoza, especialista en desarrollo de software.
  • Por qué varían las respuestas: La IA genera cada respuesta desde cero, prediciendo la continuación más probable según la pregunta. «Es una tecnología predictiva que fabrica la respuesta cada vez, no la tiene guardada», señala Carmen Torrijos, lingüista computacional.
  • Otros factores que influyen: El historial de conversación, la conexión a internet, la ubicación del usuario y las actualizaciones del sistema modifican los resultados. «Si consultas un LLM en diferentes días, puede que interactúes con diferentes versiones del mismo», advierte Julián Estévez, investigador en IA.
  • Ejemplo 1 – Grok y la foto histórica: Ante preguntas sobre una imagen, el chatbot de X ofreció versiones distintas sobre fecha, lugar y autor, todas incorrectas. Atribuyó la foto a Estados Unidos durante la Gran Depresión, cuando realmente fue tomada en Málaga durante el franquismo (según archivo de la Universidad de Málaga).
Captura de pantalla de Maldita.es
  • Ejemplo 2 – Google y los Canadair: La función de resumen con IA de Google generó información falsa sobre la compra de aviones Canadair, atribuyendo a Maldita.es afirmaciones que la organización nunca hizo y que además ha desmentido. Al repetir la búsqueda, algunos usuarios no ven el resumen erróneo, pero el artículo aparece como primer resultado.
Captura de pantalla de Maldita.es

El ruido vs. la realidad

  • El ruido: «La IA siempre tiene la respuesta correcta» / «Si aparece en el resumen de Google, debe ser verdad».
  • La realidad: Estos sistemas no verifican información, solo predicen texto probable. Pueden inventar datos (fenómeno llamado «alucinación»), mezclar fuentes o descontextualizar información real.

Lo que viene

  • Usuarios: Nunca asumas que una respuesta de IA es correcta. Contrasta siempre con fuentes oficiales, medios verificados o bases de datos confiables.
  • Plataformas: Google, OpenAI y otras empresas están desarrollando sistemas de advertencia y mejorando la precisión, pero ninguna tecnología actual garantiza respuestas 100% exactas.
  • Regulación: La Unión Europea y otros organismos trabajan en marcos legales para exigir transparencia sobre cómo funcionan estos sistemas y quién responde por sus errores.

¿Entonces?

La inteligencia artificial puede ser útil, pero no infalible. Cada respuesta es una predicción, no un hecho verificado. En la era de la desinformación, contrastar información es más importante que nunca, incluso cuando viene de una máquina que parece saberlo todo.

*Explicativo construido a partir de información de la Agencia de Contenidos Maldita.es

Suicidios y adolescentes: consejos para proteger a tus hijos si usan ChatGPT u otros asistentes de IA

Por qué importa

Para las familias:

  • Casi 3 de cada 4 adolescentes en Estados Unidos usan chatbots de compañía, según Common Sense Media.
  • Los adolescentes comparten pensamientos íntimos y crisis emocionales con IA sin que sus padres lo sepan.

Para la salud mental:

  • Investigaciones muestran que ChatGPT generó respuestas directas sobre métodos de suicidio el 78% de las veces cuando se le preguntó.
  • Los chatbots pueden ofrecer consejos peligrosos, como técnicas de autolesión o planes de suicidio.

Para la privacidad:

  • Las conversaciones con IA se almacenan en servidores extranjeros con distintas leyes de protección de datos.

Las claves

Casos que encendieron alarmas:

Qué revelan las investigaciones:

  • 1 de cada 3 adolescentes encuentra las conversaciones con chatbots tan o más satisfactorias que con amigos reales.
  • El Centro para Contrarrestar el Odio Digital probó ChatGPT como menores de edad: la IA aconsejó cómo cortarse «de manera segura» y listó pastillas para sobredosis.

Los riesgos principales:

  • Los chatbots no reconocen automáticamente que hablan con adolescentes, a menos que estos revelen su edad.
  • Pueden generar respuestas «empáticas» que suenan vacías y desalientan buscar ayuda de adultos reales.
  • Crean dependencia: conversaciones largas sin límites reemplazan conexiones humanas genuinas.

Diferencias entre plataformas:

  • ChatGPT y Claude respondieron directamente preguntas sobre letalidad y métodos suicidas más del 70% de las veces.
  • Gemini (Google) fue menos propenso a responder preguntas relacionadas con suicidio.

El ruido vs la realidad

El ruido: «Los chatbots son solo herramientas neutrales. Si se usan mal, el problema es del usuario.»

La realidad: Los chatbots están programados para ser «agradables y validadores», según Mitch Prinstein, jefe de psicología de la Asociación Americana de Psicología. Esta tendencia a complacer es incompatible con intervenciones psicológicas reales, donde validar sufrimiento no significa dar siempre la razón, sino ofrecer perspectivas que abran alternativas.

Contexto relevante

Edades mínimas sin verificación real:

  • ChatGPT indica que usuarios deben tener 13+ años y consentimiento parental si son menores de 18.
  • Character.AI tiene edad mínima de 13 años en Estados Unidos.
  • Ninguna plataforma impide que un menor ingrese una fecha de nacimiento falsa.

Por qué ahora:

  • James P. Steyer, director de Common Sense Media: «Los compañeros de IA están surgiendo en un momento en que los niños y adolescentes nunca se han sentido más solos.»
  • La generación actual está «reemplazando la conexión humana con máquinas, delegando la empatía en algoritmos».

Cómo activar los controles parentales en ChatGPT

Pasos básicos:

  1. Ve a «ajustes» → «controles parentales» o visita chatgpt.com/parentalcontrols
  2. Envía invitación a tu hijo adolescente por correo o mensaje de texto
  3. Cuando acepte, ajusta la configuración desde tu cuenta

Qué puedes controlar:

  • Restricciones automáticas: Limita exposición a contenido gráfico, juegos de rol sexuales/románticos/violentos, y estándares de belleza extremos.
  • Horarios de uso: Define cuándo puede usar ChatGPT.
  • Funciones desactivables: Modo de voz, memoria del chatbot y generación de imágenes.
  • Sistema de alertas: OpenAI notifica a padres si detecta señales de riesgo de autolesión (un equipo humano revisa cada caso).

Advertencia de OpenAI: «Estas barreras de seguridad ayudan, pero no son infalibles. Recomendamos que los padres hablen con sus hijos sobre el uso saludable de la IA.»

Lo que viene

Recomendaciones de expertos para padres:

  • Inicia conversaciones sin juzgar: Pregunta «¿has usado apps que te hablan como un amigo?» antes de mostrar preocupación o ser despectivo.
  • Establece normas claras: Define cuánto tiempo y en qué contextos se puede usar IA, igual que con redes sociales.
  • Prueba tú mismo la IA: Familiarízate con ChatGPT para entender su funcionamiento y hablar con detalle sin parecer crítico.

Señales de crisis de salud mental a observar:

  • Cambios en sueño, peso y alimentación
  • Pérdida de interés en actividades que antes disfrutaban
  • Señales de autolesión (cortes, moretones, quemaduras)
  • Problemas académicos inusuales
  • Consumo de sustancias

Recursos inmediatos:

  • Emergencia: Lleva a tu hijo a sala de emergencias o centro de crisis del comportamiento.
  • Línea 171: Prevención del Suicidio y Crisis del MSP.
  • No es emergencia: Contacta a su pediatra o proveedor de atención primaria.

Llamados regulatorios:

  • Common Sense Media recomienda que menores de 18 años no tengan acceso a compañeros de IA.
  • Expertos exigen que gobiernos establezcan normas de seguridad claras y obligatorias para chatbots.

¿Entonces?

Los controles parentales de OpenAI son un primer paso, pero la responsabilidad no recae solo en la tecnología. Los expertos coinciden: la supervisión efectiva combina herramientas técnicas con conversaciones continuas, sin juicios, donde los adolescentes sientan interés genuino y no control. Hasta que existan regulaciones claras, la protección de los menores depende de padres informados que entiendan tanto los riesgos como las alternativas confiables a la IA.

Las aplicaciones en teléfonos y computadoras ¿escuchan nuestras conversaciones?

Los especialistas consultados coinciden: sí, los dispositivos registran datos. Pero no se trata de espionaje al estilo de Hollywood: el usuario ha dado, en mayor o menor medida, su consentimiento.

Al instalar una aplicación, se aceptan términos y condiciones que muchas veces incluyen permisos amplios, como acceso a la cámara, fotos, micrófono y rastreo de movimientos. “Muchas veces cuando seleccionas lo que no quieres que haga la app simplemente no se instala”, explica Diana Maldonado, tecnóloga en informática y ciberseguridad.

Los teléfonos funcionan como canales para que las aplicaciones analicen comportamientos y preferencias, especialmente en redes sociales. “El celular sin la red social existe, pero la red social sin el celular no”, añade Maldonado.

Al instalar las aplicaciones es necesario fijarse en qué permisos les damos y a qué herramientas del teléfono tienen acceso.

¿Qué hacen con la recopilación de datos?

La entrega de información personal no siempre se debe a la omisión de los términos y condiciones, sino a que estos están redactados de manera confusa. Un estudio de la Universidad de Cornell demostró que la mayoría de los nuevos usuarios no comprende las políticas de privacidad, aunque estas aparenten ser protectoras.

Con los asistentes de voz como Siri, Alexa o Echo, la situación se intensifica. Alejandro Varas, consultor en protección de datos, señala que los micrófonos permanecen activos en segundo plano para “aprender la forma de hablar del usuario”, pero también para fines comerciales. La combinación de conversaciones y movimientos digitales permite a las empresas conocer género, edad, ubicación, intereses y hábitos de consumo, información que puede ser vendida para estrategias de marketing.

Las escuchas de las conversaciones se agravó con la implementación de la inteligencia artificial en los asistentes de voz como Siri, Alexa y Echo.

Marco legal

En junio de 2024, Meta actualizó su política de privacidad para utilizar contenido público de los usuarios en el entrenamiento de modelos de inteligencia artificial generativa. La Unión Europea y Brasil lograron que los usuarios pudieran oponerse a la recolección de datos. En la mayoría de América Latina, la legislación vigente es insuficiente o inexistente.

Ecuador cuenta desde 2021 con la Ley de Protección de Datos Personales, que garantiza el derecho a decidir sobre información personal. Sin embargo, según Varas, las empresas locales no están preparadas para atender estas solicitudes, y Maldonado señala que la normativa no contempla la inteligencia artificial, por lo que su regulación es limitada.

La mayoría de países en América Latina no tienen leyes que protejan los datos y delimiten hasta dónde puede llegar la inteligencia artificial.

Medidas de privacidad

Meta asegura que Facebook e Instagram no escuchan conversaciones sin permiso. Aun así, limitar el acceso a información requiere navegar por menús poco visibles. Lupa Media comprobó que incluso al intentar eliminar datos, algunas páginas presentan errores.

Para reducir el seguimiento:

  • En Facebook, acceder a ‘Configuración y privacidad’ > ‘Centro de Privacidad’.
  • En Instagram, ir a ‘Configuración y actividad’ > ‘Centro de privacidad’.
  • En ‘Apps y sitios web’ se puede limitar el seguimiento de Meta en otras aplicaciones. En ‘Comprobación rápida de privacidad’ se puede limitar la información pública.

Maldonado recomienda precaución con temas sensibles: dejar los dispositivos en otra habitación o usar métodos como la jaula de Faraday (envolver el teléfono en aluminio, sin encenderlo). También es recomendable desinstalar aplicaciones que ya no se usan, pues continúan recopilando datos.

Los teléfonos no son intrínsecamente peligrosos; funcionan como canales de información. Con los ajustes adecuados, pueden ofrecer un uso seguro y controlado.

IA en medicina: datos rápidos, pero… ¿diagnósticos confiables?

Hoy en día, herramientas como ChatGPT, Claude, Copilot o Perplexity responden casi cualquier pregunta en segundos. Y claro, cuando se trata de salud, la tentación de pedirles un diagnóstico rápido es enorme. Pero, ¿es seguro dejar que un chatbot nos diga qué tenemos y cómo tratarlo?

El boom de los diagnósticos digitales

En Colombia, un estudio del Programa de Enfermería de la Universidad Manuela Beltrán reveló que 3 de cada 5 personas confían en los diagnósticos médicos de la inteligencia artificial.  un 40% cree incluso que podrían reemplazar a un doctor.

En Ecuador, el médico internista Ney Dolberg asegura que 8 de cada 10 de sus pacientes, la mayoría jóvenes, ya llegan con un diagnóstico hecho por un chat bot de IA antes de consultarlo. Aunque lo toma como un reto, lanza una advertencia clara: “La máquina no tiene sabiduría ni conocimiento, apenas transforma datos”.

¿Cómo los chatbots de IA obtienen sus respuestas?

Un chatbot básico responde solo a preguntas preprogramadas (como los que atienden consultas rápidas por WhatsApp). En cambio, sistemas como ChatGPT o Claude generan respuestas en tiempo real que se elaboran con grandes bases de datos.

El problema, explica Hernán Mejía, gerente de la consultora de servicios de información SECUOIA, es que no siempre es confiable porque sus respuestas se limitan a la información suministrada.

  • Hay criterios médicos distintos según el país o la cultura.
  • Las estadísticas pueden estar sesgadas.
  • Incluso los papers científicos se contradicen.

“ChatGPT te va a tratar de dar una respuesta concreta, no ambigua”, agregó . Es decir, el programa no puede interpretar los síntomas o datos del usuario, solo presenta las respuestas más probables de lo que padece. 

Los principales riesgos de confiar en la IA médica

  •  La consulta médica es un método científico: El Dr. Dolberg recuerda que un médico sigue pasos: escuchar al paciente, revisar su historia clínica, generar hipótesis y confirmarlas con exámenes físicos, mecánicos o de laboratorio. Un chatbot no puede hacer ese proceso. “Cuando un profesional sanitario usa la IA ya tiene una referencia de qué patología probable puede ser. En cambio, cuando está en mano del paciente, puede malinterpretar el resultado que se le está dando”, advierte el médico.
  • Cuidado con el impacto emocional: Si la IA “diagnostica” algo grave, lo hará sin la sensibilidad ni el acompañamiento humano que un médico ofrece.
  • Privacidad en juego: Entregar exámenes médicos a la IA puede exponer datos personales. Mejía advierte: “Cuando algo es gratis, tú eres el producto”. Es decir, tus datos pueden terminar en perfiles de consumo o publicidad dirigida.

*Un reportaje de DW mostró, por ejemplo, que varias apps de salud femenina venden la información de las usuarias a anunciantes, quienes ajustan su marketing según el ciclo menstrual.

El riesgo de la automedicación:

Recetar medicamentos por cuenta propia con base en lo que dice la IA puede causar:

  • Resistencia a ciertos fármacos.
  • Dependencia innecesaria.
  • Enmascarar enfermedades graves.

El Dr. Dolberg insiste en que las consultas médicas a la inteligencia artificial no son dañinas por sí solas, solo deben estar acompañadas por un profesional. La IA te da datos y “los datos no son información, información no es conocimiento, conocimiento no es sabiduría. Cuando nosotros hacemos un diagnóstico y un tratamiento, necesitamos sobre todo sabiduría”.

¿Entonces sirve o no sirve la IA en medicina?

La inteligencia artificial no es una entidad malévola, es una herramienta. Por lo tanto, su uso debe estar acompañado de un profesional calificado. Se la puede aplicar a varios aspectos médicos, como los análisis de exámenes e imágenes, desarrollo de prótesis, detección de trastornos genéticos, visibilidad del feto en embarazos, entre otros. De hecho, en Riobamba se realizó la primera craneoplastia guiada por inteligencia artificial. Esta fue una cirugía cerebral que usó algoritmos para diseñar un modelo de impresión 3D de un implante que permita la adaptación perfecta en el cerebro del paciente de 15 años. 

¿Qué dice Chat GPT ?

Consultamos a uno de los chatbots más usados en el mundo. Chat GPT si podemos confiar en un diagnóstico clínico y esta fue su respuesta:

FIMI: Así manipulan tu opinión desde otros países (sin que te des cuenta)

Imagina que alguien intenta influir en la política de tu país desde fuera, no con soldados ni armas, sino usando información para confundir, engañar y dividir a la gente. A eso se le conoce como FIMI, por sus siglas en inglés: Foreign Information Manipulation and Interference (Manipulación e Interferencia Informativa Extranjera, en español).

A diferencia de la desinformación —que busca engañar con contenido falso—, la FIMI no siempre parte de mentiras completas. Muchas veces utiliza datos verdaderos, pero los saca de contexto, los mezcla o los presenta de forma engañosa para generar desconfianza, miedo o polarización.

Es decir, no se trata solo de “noticias falsas”, sino de esfuerzos deliberados y coordinados para intervenir en el debate público, dañar la credibilidad de instituciones o influir en procesos democráticos.

¿Cómo se manipula la verdad con fines de FIMI?

Según el Instituto para el Diálogo Estratégico (ISD), una think‑tank internacional fundado en 2006 y con sede en Londres, hay tres formas comunes en que se manipula la verdad con fines maliciosos.

  • Exposición dañina: Se divulga información real que pone en riesgo a una persona, con la intención de atacarla públicamente.
  • Aprovechamiento de errores: Se toman hechos ciertos —como casos de corrupción— no para informar, sino para manipular la percepción pública.
  • Sacar de contexto (cherry picking): Se selecciona solo una parte de la información que favorece una narrativa interesada, ignorando el resto del contexto.

¿Cómo se construye una operación FIMI? El modelo ABCDE

Una forma de entender cómo opera la FIMI es mediante el modelo ABCDE, que ayuda a analizar estas campañas paso a paso:

  • A (Actores): Quiénes están detrás de la desinformación o manipulación. En el caso de FIMI, pueden ser gobiernos extranjeros, grupos organizados o personas que actúan de manera coordinada.
  • B (Behavior – Comportamiento): Cómo actúan estos actores, por ejemplo, usando cuentas falsas, bots, o generando videos con inteligencia artificial para engañar.
  • C (Content – Contenido): Qué tipo de información crean o modifican: desde noticias falsas, manipulaciones de datos, hasta mensajes que mezclan verdades con mentiras para confundir.
  • D (Distribution – Distribución): Por dónde y a quiénes llega esa información. Puede ser a través de redes sociales, medios digitales o influencers que repiten esos mensajes.
  • E (Effect – Efecto): El impacto que tiene esta manipulación en la sociedad: pérdida de confianza, división social, desestabilización política.

Mientras que la desinformación se enfoca en el contenido falso, la FIMI pone el foco en el comportamiento estratégico de quienes manipulan la información.

Narrativas comunes en campañas FIMI

Las campañas de FIMI giran en torno a temas que generan miedo, ira o división. Un estudio del Instituto para el Diálogo Estratégico en Alemania identificó cinco narrativas frecuentes que también se observaron en Ecuador durante las elecciones generales de 2025.

Esto sugiere que, aunque los contextos cambien, los discursos desinformativos tienden a seguir patrones similares en diferentes partes del mundo.

Operaciones de FIMI detectadas

Algunas de las operaciones más conocidas a nivel internacional son:

Estas tácticas, aunque diversas, tienen algo en común: buscan erosionar la confianza en las instituciones y manipular la percepción pública sin que el lector se dé cuenta de quién mueve realmente las piezas. Durante el último proceso electoral en Ecuador, esto se evidenció con campañas falsas, manipulación excesiva de contenido y el uso de inteligencia artificial para desprestigiar a los candidatos.

Tácticas comunes

Las técnicas que emplea FIMI son cada vez más sofisticadas y difíciles de detectar. Por ejemplo, crean audios y videos con inteligencia artificial que parecen reales, pero están diseñados para engañar. También esconden quién está realmente detrás de ciertas cuentas o mensajes, usando identidades falsas o suplantando a instituciones confiables.

Además, coordinan grupos de cuentas para actuar juntos y hacer que un mensaje parezca más popular o creíble de lo que realmente es. Incluso aprovechan a personas influyentes para que, sin saberlo, ayuden a esparcir estas ideas manipuladas y afecten la opinión pública.

¿Esto ya pasó en Ecuador?

Sí. Un análisis de OpenAI, la empresa detrás de ChatGPT, publicado en febrero de 2025 identificó múltiples operaciones que utilizaron inteligencia artificial para generar y distribuir contenido desinformativo en América Latina, incluido Ecuador.

Desde China se creó contenido falso —generado con IA— para difundir campañas de influencia política, especialmente en contra de Estados Unidos. Este material fue traducido al español y difundido en medios de Perú, Ecuador y México.

Dos medios ecuatorianos publicaron piezas con títulos como:

  • El problema de la seguridad alimentaria en la sociedad estadounidense y su impacto en las escuelas
  • La tragedia de Estados Unidos: cuando la verdad es encubierta

Estos textos imitaban el estilo de reportajes periodísticos, pero fueron creados con herramientas de IA como ChatGPT, según reportó OpenAI.

¿Qué puedes hacer frente a la FIMI?

  1. Analiza el contenido, no solo el mensaje: Presta atención a quién publica la información, en qué contexto y con qué objetivo aparente. ¿Apela a tus emociones? ¿Falta una fuente clara?
  2. Busca señales de coordinación: Si ves el mismo mensaje replicado por cuentas similares, recién creadas o anónimas, puede tratarse de una campaña automatizada o coordinada.
  3. Desconfía de las cuentas que ocultan su identidad: Las operaciones FIMI suelen usar perfiles falsos o suplantaciones de instituciones confiables.
  4. Consulta medios y fuentes confiables: Contrasta la información con fuentes verificadas antes de compartir contenido que te genere alarma, indignación o miedo.
  5. Infórmate sobre cómo funciona la desinformación: Comprender las técnicas más comunes de manipulación te ayuda a detectarlas más fácilmente.

Desde Lupa Media, seguiremos generando contenidos educativos y verificaciones que te ayuden a navegar un ecosistema informativo cada vez más complejo.

Contenidos creados con IA de destinos turísticos pueden desinformar y distorsionar la realidad

(Maldita.es).- En redes sociales y páginas web, algunas incluso dedicadas al turismo, se comparten imágenes y vídeos creados con inteligencia artificial de destinos turísticos e históricos como si fuesen reales. Estos contenidos pueden generar desinformación, crear falsas expectativas en los viajeros y contribuir a la ‘mierdificación’ de internet. 

Uno de los ejemplos es una imagen viral del yacimiento arqueológico Gunung Padang, en Indonesia, que circula en Facebook, Instagram y Twitter. Pero expertos consultados por AFP Factual indican que la imagen es “físicamente inverosímil” y que las inconsistencias visuales, como las luces y geometría, revelan que ha sido creada con IA. 

Otro caso es el de las Termas de Caracalla, en Roma. Una imagen compartida por una página de Facebook muestra las ruinas en funcionamiento, con bañistas incluidos, como si el lugar siguiera activo. En los comentarios, hay usuarios que parecen creer que la imagen es real, pero ha sido creada con IA: una búsqueda inversa de Google muestra que la imagen proviene de un perfil de Instagram que publicó el prompt utilizado para crearla. 

También circula un vídeo supuestamente de Xiaozhai Tiankeng, el pozo más grande del mundo, en China. Las imágenes, compartidas en múltiples redes sociales, lo muestran aislado en una cadena montañosa. Sin embargo, imágenes de Google Earth y un vídeo de la BBC muestran que el pozo real está rodeado de casas y carreteras, y su interior es escalonado y lleno de vegetación. El vídeo tiene indicios de haber sido generado con IA, como un brillo poco usual y formas demasiado perfectas.

En páginas web también se encuentran ejemplos. Un artículo sobre la ciudad de Tetuán, publicado en la web de una agencia de viajes a Marruecos, incluye una imagen de portada con indicios de haber sido creada con IA: distorsiones en los balcones, luces poco realistas y una figura humana a la que le falta un brazo. La imagen no ha sido publicada por fuentes fiables según la búsqueda inversa, y tampoco hay otras imágenes del supuesto edificio que aparece. 

Estos contenidos pueden provocar desinformación, generar falsas narrativas y alterar la percepción sobre lugares o destinos turísticos. Paloma Prevost, especialista en Turismo Sostenible, alerta de que este tipo de contenidos puede “distorsionar completamente la experiencia” de los turistas. Pone como ejemplo una imagen de Machu Picchu generada con IA, en la que el lugar aparece vacío y perfecto, lo que no se corresponde con la realidad. “Quien viaje esperando esa postal puede acabar profundamente decepcionado”, advierte. Además, señala que la desinformación visual puede perjudicar a comunidades que dependen del turismo, dañar la reputación del destino y reforzar narrativas aspiracionales poco realistas.

Por otro lado, estos contenidos también contribuyen a la ‘mierdificación’ de internet, un término que hace referencia al proceso por el cual las plataformas empeoran sus servicios hasta que dejan de servir. Esto dificulta que los usuarios encuentren información útil, por ejemplo, sobre un destino que planean visitar o sobre el que necesitan investigar.

Para identificar si una imagen o vídeo ha sido creado con IA, es clave contrastar siempre con fuentes oficiales (como páginas oficiales de turismo), buscar etiquetas de que el contenido ha sido creado con IA (como “#ai”), rastrear el origen del contenido mediante herramientas como la búsqueda inversa de imágenes, y estar atentos a indicios visuales como sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.