Skip to main content

Etiqueta: chatgpt

¿Subir datos médicos a ChatGPT o Grok? Expertos recomiendan NO compartir información sensible con chatbots de IA

Este artículo es una adaptación de un contenido publicado originalmente por Maldita.es, actualizado por Lupa Media en enero de 2026.

Cada vez más personas consultan su salud con IA —y eso implica riesgos

Algunos usuarios están recurriendo a herramientas como ChatGPT o Grok para obtener respuestas rápidas sobre temas médicos, incluso subiendo radiografías, resultados de laboratorio o diagnósticos clínicos.

En enero de 2026, OpenAI lanzó ChatGPT Health, una función experimental para consultas relacionadas con la salud. Además, Elon Musk ha promovido el uso de Grok para obtener diagnósticos médicos.

El problema es que los chatbots no sustituyen a un profesional de la salud y pueden generar respuestas inexactas o engañosas. La Agencia Española de Protección de Datos advierte que estos sistemas pueden producir desinformación o inducir al error, con posibles consecuencias para la salud física y emocional de las personas.

Los datos médicos son altamente sensibles (y compartirlos implica perder control)

Los datos sanitarios —como diagnósticos, historiales clínicos, pruebas médicas o imágenes— son considerados información especialmente protegida por el Reglamento General de Protección de Datos (RGPD).

Expertos en ciberseguridad y protección de datos advierten que:

  • Compartir documentos médicos con un chatbot implica perder control sobre esa información.
  • Las empresas pueden usar esos datos para entrenar o mejorar sus modelos.
  • Si ocurre un ciberataque o una filtración, la información podría quedar expuesta públicamente.
  • En compañías con sede fuera de la Unión Europea, las garantías legales pueden ser más limitadas.

“Cuando compartimos un documento con un chatbot de IA, perdemos automáticamente el control de esa información”, explica a Maldita.es Samuel Parra, abogado especializado en protección de datos.

¿Pueden las IAs usar estos datos para entrenarse?

Tanto ChatGPT como Grok indican en sus políticas que el contenido de los usuarios puede utilizarse para mejorar sus servicios.
Aunque OpenAI asegura que las conversaciones en ChatGPT Health no se usan para entrenar los modelos principales, no detalla completamente cómo se gestionan estos datos.

Otro riesgo es que no siempre está claro cuánto tiempo se almacenan los documentos ni con qué fines futuros pueden utilizarse.

No hay trucos infalibles: modo incógnito, chats temporales o anonimizar no garantizan protección

Algunas personas intentan reducir riesgos usando:

  • Navegación en incógnito
  • Chats temporales
  • Eliminación de conversaciones
  • Anonimización de documentos

Sin embargo, los expertos coinciden en que ninguna de estas medidas garantiza que los datos no se almacenen, reutilicen o reconstruyan.
Incluso la anonimización puede fallar, ya que una IA puede detectar patrones y reidentificar información indirectamente.

¿Es legal que una IA procese datos médicos?

La normativa europea obliga a los sistemas de inteligencia artificial a:

  • Limitar el uso de datos sensibles
  • Aplicar medidas estrictas de protección de la privacidad
  • Evitar la reutilización o transferencia indebida de información sanitaria

Además, la Ley Europea de Inteligencia Artificial prevé clasificar ciertos modelos como de alto riesgo, especialmente si pueden afectar la salud y la seguridad pública, lo que implicará obligaciones adicionales de protección.

¿Qué pasa si ya compartiste datos médicos con una IA?

Las opciones existen, pero son limitadas.

Las personas pueden ejercer su derecho a la supresión de datos (artículo 17 del RGPD) para solicitar la eliminación de su información sanitaria.
Sin embargo:

  • No siempre es posible comprobar si los datos fueron realmente eliminados.
  • En los sistemas de IA, la información puede quedar integrada en el entrenamiento del modelo, lo que dificulta su borrado total.

Recomendación clave

Lo más seguro es NO subir datos médicos ni información sensible a ningún chatbot de IA.

Si decides usar estas herramientas:

  • No compartas exámenes médicos ni diagnósticos
  • No subas documentos clínicos
  • No reveles información personal o de terceros
  • Usa la IA solo como referencia general, nunca como sustituto de atención médica profesional

¿Entonces?

La inteligencia artificial puede ser una herramienta útil, pero no debe reemplazar la atención médica ni poner en riesgo nuestra privacidad. Cuando se trata de salud, la información sensible merece el máximo nivel de protección, criterio y responsabilidad.

Noboa sí mencionó que ChatGPT puede servir para diseñar una Constitución

Si recibes un mensaje similar, recuerda que puedes enviárnoslo a nuestro WhatsApp (+593 96 239 6425) y te ayudamos a verificarlo de manera directa y sencilla.

¿Qué verificamos?

Un video viral muestra al presidente Daniel Noboa durante una conferencia en la que señala que la herramienta ChatGPT se puede utilizar para escribir un discurso o para diseñar hasta una Constitución.

¿Por qué es cierto?

Porque la afirmación viral sí fue mencionada por el presidente Noboa durante una entrega de becas de capacitación para la formación especializada de Inteligencia Artificial llevada a cabo en la ciudad de Cuenca el pasado 31 de octubre de 2025. 

¿Qué dice la evidencia?

  • Fuente de las declaraciones: No hay registro del evento en el canal oficial de YouTube de la Presidencia. Sin embargo, fotos y notas del Gobierno muestran al Presidente con la misma vestimenta, confirmando que el evento ocurrió en Cuenca.
Imagen de Isaac Castillo – Presidencia de la República
  • Evento de Inteligencia Artificial: El 31 de octubre, el presidente Daniel Noboa, junto con la ministra de Educación, Alegría Crespo, entregó 10 000 becas para capacitación especializada en Inteligencia Artificial.
  • Declaración textual: “La inteligencia artificial… es una herramienta que es ilimitada. Lo pueden usar para preguntar, como nuestro equipo de comunicación a veces hace en ChatGPT, para cosas sencillas, para escribir un discurso o para diseñar hasta una constitución”.

Contexto importante

El 16 de noviembre de 2025, Ecuador celebrará una jornada electoral sobre tres preguntas de referéndum y una de Consulta Popular. La consulta preguntará si se aprueba una Asamblea Constituyente para redactar una nueva Constitución.

  • Si gana el “Sí”, el CNE convocará elecciones para asambleístas constituyentes en un plazo de 90 días, y los legisladores tendrán hasta ocho meses para redactar el nuevo texto. Luego se realizará otra consulta popular para aprobarlo.
  • Si gana el “No”, la propuesta de Noboa no avanzará y seguirá vigente la Constitución actual.

Conclusión

CIERTO: Las declaraciones virales son auténticas y fueron pronunciadas por el presidente Daniel Noboa durante el evento de becas en Cuenca el 31 de octubre de 2025.

¿Viste algo sospechoso y quieres que lo revisemos por ti? Haz tu pedido de #VerificaciónAlaCarta a través de nuestra línea en WhatsApp (+593 96 239 6425) Recibe nuestro contenido directo en tu celular. ¡Únete a la comunidad verificadora en nuestro canalde WhatsApp! ‪

Los chatbots de IA no son una herramienta fiable para verificar si una imagen es real (o no)

(Maldita.es).- Usar un chatbot de inteligencia artificial como ChatGPT, Grok, Claude o Gemini para saber si una imagen es real o no (o si ha sido generada con IA) no es una buena idea. Estas herramientas pueden cometer errores‘alucinar’ y dar respuestas incorrectas, o presentar sesgos como el de adulación, que hace que quieran dar la razón a los usuarios. También pueden evitar posicionarse, aunque existan pruebas suficientes.

Un ejemplo de los errores que pueden cometer es como Grokla IA de Twitter (ahora X), afirmó que una fotografía de una niña buscando comida en Gaza era en realidad de una niña yazidí en Siria en 2014. La imagen, sin embargo, fue tomada por el fotógrafo de AP Abdel Kareem Hana el 26 de julio de 2025 en un comedor comunitario de Gaza. Días después, Grok volvió a equivocarse al afirmar que imágenes de niños desnutridos en Gaza habían sido tomadas en Yemen en 2016, cuando en realidad fueron captadas por el fotógrafo Jehad Alshrafi el 23 de julio de 2025 en el campamento de Shati (Gaza).

ChatGPT, Gemini o Claude tampoco son fuentes fiables para verificar imágenes. Los chatbots de IA funcionan a través de modelos de lenguaje de gran tamaño que predicen la siguiente palabra plausible en función del prompt sus datos de entrenamiento, lo que puede llevarlos a cometer errores. 

Iris Domínguez, que investiga sobre IA, justicia algorítmica y sesgos, explica que los chatbots actuales únicamente pueden analizar el contenido de la imagen y buscar elementos incoherentes: “Probablemente acierten en imágenes antiguas, pero en las modernas el contenido suele ser coherente y difícil de distinguir”. 

En una prueba realizada por Maldita.es, se le pidió a ChatGPT que verificara una imagen falsa que supuestamente mostraba un avión F-35 derribado por Irán. Aunque la imagen había sido creada con IA, el chatbot respondió que “parece auténtica”

Los chatbots también pueden tener un sesgo de adulación que haga que siempre quieran dar la razón al usuario. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que tenemos una opinión previa favorable a una de las dos, el bot tenderá a darnos más información confirmando nuestra opinión”, señala Domínguez.

En una prueba con Gemini, la IA de Google, se consultó si una imagen falsa que mostraba una selfie entre Kamala Harris y Jeffrey Epstein era real o había sido creada con IA. Inicialmente, Gemini indicó que tenía indicios de haber sido generada con IA, pero al decirle que la imagen era real, el chatbot cambió su respuesta para apoyar esa afirmación, aunque fuera incorrecta.

También pueden verse afectados por el sesgo de equidistancia artificial: pueden evitar dar una respuesta clara para no posicionarse, incluso si existe suficiente evidencia. Por ejemplo, Claude fue consultado sobre si una imagen falsa y con indicios de haber sido creada con IA de Donald Trump durante el huracán Helene era real. Claude respondió que “no podía afirmar con certeza si es real y manipulada”, pero después ofreció argumentos a favor de su autenticidad.


Tampoco existen herramientas 100% fiables
 para detectar si una imagen ha sido generada con inteligencia artificial, aunque Domínguez señala que suelen ser más precisas que los chatbots. Aunque algunas compañías incorporan marcas de agua a sus imágenes y otras incluyen marcas imperceptibles para el ojo humano (como SynthID de Google), Domínguez advierte de que “la mayor parte de los modelos no tienen marcas de agua”. 

Para identificar si una imagen ha sido creada con IA, es clave contrastar siempre con fuentes oficialesbuscar etiquetas de que el contenido ha sido creado con IA, rastrear el origen del contenido, y estar atentos a indicios visuales como sombras incoherentes, textos ininteligibles o figuras deformadas, aunque estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.