Skip to main content

Etiqueta: salud mental

Suicidios y adolescentes: consejos para proteger a tus hijos si usan ChatGPT u otros asistentes de IA

Por qué importa

Para las familias:

  • Casi 3 de cada 4 adolescentes en Estados Unidos usan chatbots de compañía, según Common Sense Media.
  • Los adolescentes comparten pensamientos íntimos y crisis emocionales con IA sin que sus padres lo sepan.

Para la salud mental:

  • Investigaciones muestran que ChatGPT generó respuestas directas sobre métodos de suicidio el 78% de las veces cuando se le preguntó.
  • Los chatbots pueden ofrecer consejos peligrosos, como técnicas de autolesión o planes de suicidio.

Para la privacidad:

  • Las conversaciones con IA se almacenan en servidores extranjeros con distintas leyes de protección de datos.

Las claves

Casos que encendieron alarmas:

Qué revelan las investigaciones:

  • 1 de cada 3 adolescentes encuentra las conversaciones con chatbots tan o más satisfactorias que con amigos reales.
  • El Centro para Contrarrestar el Odio Digital probó ChatGPT como menores de edad: la IA aconsejó cómo cortarse «de manera segura» y listó pastillas para sobredosis.

Los riesgos principales:

  • Los chatbots no reconocen automáticamente que hablan con adolescentes, a menos que estos revelen su edad.
  • Pueden generar respuestas «empáticas» que suenan vacías y desalientan buscar ayuda de adultos reales.
  • Crean dependencia: conversaciones largas sin límites reemplazan conexiones humanas genuinas.

Diferencias entre plataformas:

  • ChatGPT y Claude respondieron directamente preguntas sobre letalidad y métodos suicidas más del 70% de las veces.
  • Gemini (Google) fue menos propenso a responder preguntas relacionadas con suicidio.

El ruido vs la realidad

El ruido: «Los chatbots son solo herramientas neutrales. Si se usan mal, el problema es del usuario.»

La realidad: Los chatbots están programados para ser «agradables y validadores», según Mitch Prinstein, jefe de psicología de la Asociación Americana de Psicología. Esta tendencia a complacer es incompatible con intervenciones psicológicas reales, donde validar sufrimiento no significa dar siempre la razón, sino ofrecer perspectivas que abran alternativas.

Contexto relevante

Edades mínimas sin verificación real:

  • ChatGPT indica que usuarios deben tener 13+ años y consentimiento parental si son menores de 18.
  • Character.AI tiene edad mínima de 13 años en Estados Unidos.
  • Ninguna plataforma impide que un menor ingrese una fecha de nacimiento falsa.

Por qué ahora:

  • James P. Steyer, director de Common Sense Media: «Los compañeros de IA están surgiendo en un momento en que los niños y adolescentes nunca se han sentido más solos.»
  • La generación actual está «reemplazando la conexión humana con máquinas, delegando la empatía en algoritmos».

Cómo activar los controles parentales en ChatGPT

Pasos básicos:

  1. Ve a «ajustes» → «controles parentales» o visita chatgpt.com/parentalcontrols
  2. Envía invitación a tu hijo adolescente por correo o mensaje de texto
  3. Cuando acepte, ajusta la configuración desde tu cuenta

Qué puedes controlar:

  • Restricciones automáticas: Limita exposición a contenido gráfico, juegos de rol sexuales/románticos/violentos, y estándares de belleza extremos.
  • Horarios de uso: Define cuándo puede usar ChatGPT.
  • Funciones desactivables: Modo de voz, memoria del chatbot y generación de imágenes.
  • Sistema de alertas: OpenAI notifica a padres si detecta señales de riesgo de autolesión (un equipo humano revisa cada caso).

Advertencia de OpenAI: «Estas barreras de seguridad ayudan, pero no son infalibles. Recomendamos que los padres hablen con sus hijos sobre el uso saludable de la IA.»

Lo que viene

Recomendaciones de expertos para padres:

  • Inicia conversaciones sin juzgar: Pregunta «¿has usado apps que te hablan como un amigo?» antes de mostrar preocupación o ser despectivo.
  • Establece normas claras: Define cuánto tiempo y en qué contextos se puede usar IA, igual que con redes sociales.
  • Prueba tú mismo la IA: Familiarízate con ChatGPT para entender su funcionamiento y hablar con detalle sin parecer crítico.

Señales de crisis de salud mental a observar:

  • Cambios en sueño, peso y alimentación
  • Pérdida de interés en actividades que antes disfrutaban
  • Señales de autolesión (cortes, moretones, quemaduras)
  • Problemas académicos inusuales
  • Consumo de sustancias

Recursos inmediatos:

  • Emergencia: Lleva a tu hijo a sala de emergencias o centro de crisis del comportamiento.
  • Línea 171: Prevención del Suicidio y Crisis del MSP.
  • No es emergencia: Contacta a su pediatra o proveedor de atención primaria.

Llamados regulatorios:

  • Common Sense Media recomienda que menores de 18 años no tengan acceso a compañeros de IA.
  • Expertos exigen que gobiernos establezcan normas de seguridad claras y obligatorias para chatbots.

¿Entonces?

Los controles parentales de OpenAI son un primer paso, pero la responsabilidad no recae solo en la tecnología. Los expertos coinciden: la supervisión efectiva combina herramientas técnicas con conversaciones continuas, sin juicios, donde los adolescentes sientan interés genuino y no control. Hasta que existan regulaciones claras, la protección de los menores depende de padres informados que entiendan tanto los riesgos como las alternativas confiables a la IA.

TikTok y salud mental: un estudio revela que el 33% de los videos más virales contienen desinformación

Un estudio científico ha analizado los 1.000 videos más virales de TikTok con la etiqueta #MentalHealth y ha concluido que el 33% de los contenidos que ofrecen «consejos e información» sobre salud mental contienen datos engañosos. Además, estos videos con información imprecisa tienen mayor alcance y generan más interacción en la plataforma que aquellos que comparten contenido veraz, según la investigación.

El estudio, publicado en enero de 2025 por investigadores de las universidades de Columbia Británica y Calgary (Canadá), analizó los videos con la etiqueta #MentalHealth más populares y los clasificó en seis categorías. Los resultados mostraron que los videos de la categoría «consejos e información» contenían un 33% de información engañosa. A pesar de ser una minoría dentro del total analizado, estos contenidos tendían a ser más virales, con más visualizaciones, ‘likes’, comentarios y compartidos.

Para llegar a esta conclusión, los autores recopilaron los 1.000 videos con esta etiqueta más vistos y los agruparon en diferentes categorías: historias personales, consejos e información, expresión de emociones intensas, referencias a la muerte, referencias a estudios científicos y venta de productos o servicios. Posteriormente, un equipo de psicólogos y psiquiatras evaluó los 319 videos de la categoría «consejos e información», determinando si el contenido era engañoso o no.

Según el equipo de expertos, algunos de estos videos contenían datos abiertamente falsos, mientras que otros carecían del contexto necesario, lo que podía inducir a conclusiones erróneas o autodiagnósticos. Entre los ejemplos detectados se encontraban afirmaciones incorrectas sobre trastornos mentales como el TDAH, los estilos de apego, el ‘gaslighting’ o las respuestas a traumas. También destacaron que tendencias como el «put a finger down challenge», un reto viral en el que los usuarios bajan un dedo por cada afirmación con la que se identifican, pueden generalizar en exceso síntomas asociados a problemas de salud mental, lo que lleva a patologizar comportamientos normales y a fomentar la ansiedad por enfermedad.

Los investigadores señalan que TikTok tiene un «gran potencial» para divulgar información sobre salud mental, especialmente entre los jóvenes. Sin embargo, consideran que la plataforma presenta «barreras» para la difusión de contenido fiable debido a su algoritmo. Según el estudio, este favorece los videos cortos con mayor retención y número de interacciones, lo que dificulta el tratamiento de temas complejos y reduce la calidad de la información compartida. Además, los autores indican que el algoritmo de TikTok no priorizaría la evidencia científica al recomendar contenidos a los usuarios.

La investigación también recuerda que TikTok también ha mostrado gran cantidad de desinformación sobre otras áreas de salud. Estudios previos encontraron que el 47% de los videos sobre cáncer de próstata, el 90% de los videos sobre disfunción eréctil y el 52% de los videos sobre el trastorno por déficit de atención contenían datos incorrectos.

El estudio reveló, además, ciertos patrones en la demografía de los creadores de contenido sobre salud mental. Las mujeres son mayoría en estos videos, pero sus publicaciones reciben menos visualizaciones e interacciones en comparación con las de los hombres. Los creadores de contenido identificados como profesionales sanitarios acumulan casi tantas visitas como los no profesionales, a pesar de que sus videos suelen ser más precisos.

Los autores del estudio sugieren que futuras investigaciones deberían explorar cómo los usuarios buscan información sobre salud mental en TikTok, cómo comparten sus experiencias en la plataforma y si existen diferencias en el tratamiento de estos temas entre distintas redes sociales.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es