
Suicidios y adolescentes: consejos para proteger a tus hijos si usan ChatGPT u otros asistentes de IA
Por qué importa
Para las familias:
- Casi 3 de cada 4 adolescentes en Estados Unidos usan chatbots de compañía, según Common Sense Media.
- Los adolescentes comparten pensamientos íntimos y crisis emocionales con IA sin que sus padres lo sepan.
Para la salud mental:
- Investigaciones muestran que ChatGPT generó respuestas directas sobre métodos de suicidio el 78% de las veces cuando se le preguntó.
- Los chatbots pueden ofrecer consejos peligrosos, como técnicas de autolesión o planes de suicidio.
Para la privacidad:
- Las conversaciones con IA se almacenan en servidores extranjeros con distintas leyes de protección de datos.
Las claves
Casos que encendieron alarmas:
- Septiembre 2025: Los padres de Juliana Peralta (13 años) demandaron a Character AI, alegando que su chatbot Hero contribuyó al suicidio de su hija en 2023.
- Abril 2025: Adam Raine (16 años) se quitó la vida. Sus padres encontraron que ChatGPT no lo animó a buscar ayuda y se ofreció a redactar su nota de suicidio.
Qué revelan las investigaciones:
- 1 de cada 3 adolescentes encuentra las conversaciones con chatbots tan o más satisfactorias que con amigos reales.
- El Centro para Contrarrestar el Odio Digital probó ChatGPT como menores de edad: la IA aconsejó cómo cortarse «de manera segura» y listó pastillas para sobredosis.
Los riesgos principales:
- Los chatbots no reconocen automáticamente que hablan con adolescentes, a menos que estos revelen su edad.
- Pueden generar respuestas «empáticas» que suenan vacías y desalientan buscar ayuda de adultos reales.
- Crean dependencia: conversaciones largas sin límites reemplazan conexiones humanas genuinas.
Diferencias entre plataformas:
- ChatGPT y Claude respondieron directamente preguntas sobre letalidad y métodos suicidas más del 70% de las veces.
- Gemini (Google) fue menos propenso a responder preguntas relacionadas con suicidio.
El ruido vs la realidad
El ruido: «Los chatbots son solo herramientas neutrales. Si se usan mal, el problema es del usuario.»
La realidad: Los chatbots están programados para ser «agradables y validadores», según Mitch Prinstein, jefe de psicología de la Asociación Americana de Psicología. Esta tendencia a complacer es incompatible con intervenciones psicológicas reales, donde validar sufrimiento no significa dar siempre la razón, sino ofrecer perspectivas que abran alternativas.
Contexto relevante
Edades mínimas sin verificación real:
- ChatGPT indica que usuarios deben tener 13+ años y consentimiento parental si son menores de 18.
- Character.AI tiene edad mínima de 13 años en Estados Unidos.
- Ninguna plataforma impide que un menor ingrese una fecha de nacimiento falsa.
Por qué ahora:
- James P. Steyer, director de Common Sense Media: «Los compañeros de IA están surgiendo en un momento en que los niños y adolescentes nunca se han sentido más solos.»
- La generación actual está «reemplazando la conexión humana con máquinas, delegando la empatía en algoritmos».
Cómo activar los controles parentales en ChatGPT
Pasos básicos:
- Ve a «ajustes» → «controles parentales» o visita chatgpt.com/parentalcontrols
- Envía invitación a tu hijo adolescente por correo o mensaje de texto
- Cuando acepte, ajusta la configuración desde tu cuenta
Qué puedes controlar:
- Restricciones automáticas: Limita exposición a contenido gráfico, juegos de rol sexuales/románticos/violentos, y estándares de belleza extremos.
- Horarios de uso: Define cuándo puede usar ChatGPT.
- Funciones desactivables: Modo de voz, memoria del chatbot y generación de imágenes.
- Sistema de alertas: OpenAI notifica a padres si detecta señales de riesgo de autolesión (un equipo humano revisa cada caso).
Advertencia de OpenAI: «Estas barreras de seguridad ayudan, pero no son infalibles. Recomendamos que los padres hablen con sus hijos sobre el uso saludable de la IA.»
Lo que viene
Recomendaciones de expertos para padres:
- Inicia conversaciones sin juzgar: Pregunta «¿has usado apps que te hablan como un amigo?» antes de mostrar preocupación o ser despectivo.
- Establece normas claras: Define cuánto tiempo y en qué contextos se puede usar IA, igual que con redes sociales.
- Prueba tú mismo la IA: Familiarízate con ChatGPT para entender su funcionamiento y hablar con detalle sin parecer crítico.
Señales de crisis de salud mental a observar:
- Cambios en sueño, peso y alimentación
- Pérdida de interés en actividades que antes disfrutaban
- Señales de autolesión (cortes, moretones, quemaduras)
- Problemas académicos inusuales
- Consumo de sustancias
Recursos inmediatos:
- Emergencia: Lleva a tu hijo a sala de emergencias o centro de crisis del comportamiento.
- Línea 171: Prevención del Suicidio y Crisis del MSP.
- No es emergencia: Contacta a su pediatra o proveedor de atención primaria.
Llamados regulatorios:
- Common Sense Media recomienda que menores de 18 años no tengan acceso a compañeros de IA.
- Expertos exigen que gobiernos establezcan normas de seguridad claras y obligatorias para chatbots.
¿Entonces?
Los controles parentales de OpenAI son un primer paso, pero la responsabilidad no recae solo en la tecnología. Los expertos coinciden: la supervisión efectiva combina herramientas técnicas con conversaciones continuas, sin juicios, donde los adolescentes sientan interés genuino y no control. Hasta que existan regulaciones claras, la protección de los menores depende de padres informados que entiendan tanto los riesgos como las alternativas confiables a la IA.