
IA en medicina: datos rápidos, pero… ¿diagnósticos confiables?
Hoy en día, herramientas como ChatGPT, Claude, Copilot o Perplexity responden casi cualquier pregunta en segundos. Y claro, cuando se trata de salud, la tentación de pedirles un diagnóstico rápido es enorme. Pero, ¿es seguro dejar que un chatbot nos diga qué tenemos y cómo tratarlo?
El boom de los diagnósticos digitales
En Colombia, un estudio del Programa de Enfermería de la Universidad Manuela Beltrán reveló que 3 de cada 5 personas confían en los diagnósticos médicos de la inteligencia artificial. un 40% cree incluso que podrían reemplazar a un doctor.
En Ecuador, el médico internista Ney Dolberg asegura que 8 de cada 10 de sus pacientes, la mayoría jóvenes, ya llegan con un diagnóstico hecho por un chat bot de IA antes de consultarlo. Aunque lo toma como un reto, lanza una advertencia clara: “La máquina no tiene sabiduría ni conocimiento, apenas transforma datos”.
¿Cómo los chatbots de IA obtienen sus respuestas?
Un chatbot básico responde solo a preguntas preprogramadas (como los que atienden consultas rápidas por WhatsApp). En cambio, sistemas como ChatGPT o Claude generan respuestas en tiempo real que se elaboran con grandes bases de datos.
El problema, explica Hernán Mejía, gerente de la consultora de servicios de información SECUOIA, es que no siempre es confiable porque sus respuestas se limitan a la información suministrada.
- Hay criterios médicos distintos según el país o la cultura.
- Las estadísticas pueden estar sesgadas.
- Incluso los papers científicos se contradicen.
“ChatGPT te va a tratar de dar una respuesta concreta, no ambigua”, agregó . Es decir, el programa no puede interpretar los síntomas o datos del usuario, solo presenta las respuestas más probables de lo que padece.
Los principales riesgos de confiar en la IA médica
- La consulta médica es un método científico: El Dr. Dolberg recuerda que un médico sigue pasos: escuchar al paciente, revisar su historia clínica, generar hipótesis y confirmarlas con exámenes físicos, mecánicos o de laboratorio. Un chatbot no puede hacer ese proceso. “Cuando un profesional sanitario usa la IA ya tiene una referencia de qué patología probable puede ser. En cambio, cuando está en mano del paciente, puede malinterpretar el resultado que se le está dando”, advierte el médico.
- Cuidado con el impacto emocional: Si la IA “diagnostica” algo grave, lo hará sin la sensibilidad ni el acompañamiento humano que un médico ofrece.
- Privacidad en juego: Entregar exámenes médicos a la IA puede exponer datos personales. Mejía advierte: “Cuando algo es gratis, tú eres el producto”. Es decir, tus datos pueden terminar en perfiles de consumo o publicidad dirigida.
*Un reportaje de DW mostró, por ejemplo, que varias apps de salud femenina venden la información de las usuarias a anunciantes, quienes ajustan su marketing según el ciclo menstrual.
El riesgo de la automedicación:
Recetar medicamentos por cuenta propia con base en lo que dice la IA puede causar:
- Resistencia a ciertos fármacos.
- Dependencia innecesaria.
- Enmascarar enfermedades graves.
El Dr. Dolberg insiste en que las consultas médicas a la inteligencia artificial no son dañinas por sí solas, solo deben estar acompañadas por un profesional. La IA te da datos y “los datos no son información, información no es conocimiento, conocimiento no es sabiduría. Cuando nosotros hacemos un diagnóstico y un tratamiento, necesitamos sobre todo sabiduría”.
¿Entonces sirve o no sirve la IA en medicina?
La inteligencia artificial no es una entidad malévola, es una herramienta. Por lo tanto, su uso debe estar acompañado de un profesional calificado. Se la puede aplicar a varios aspectos médicos, como los análisis de exámenes e imágenes, desarrollo de prótesis, detección de trastornos genéticos, visibilidad del feto en embarazos, entre otros. De hecho, en Riobamba se realizó la primera craneoplastia guiada por inteligencia artificial. Esta fue una cirugía cerebral que usó algoritmos para diseñar un modelo de impresión 3D de un implante que permita la adaptación perfecta en el cerebro del paciente de 15 años.

¿Qué dice Chat GPT ?
Consultamos a uno de los chatbots más usados en el mundo. Chat GPT si podemos confiar en un diagnóstico clínico y esta fue su respuesta:

Fuentes:
Entrevista al Dr. Ney Dolberg, médico internista
Entrevista a Hernán Mejía, gerente general de SECUOIA