Skip to main content

Etiqueta: salud mental

Qué dice la evidencia sobre abuso infantil y conducta delictiva en la adultez

El abuso infantil incluye acciones u omisiones que afectan la integridad física, emocional o psicológica de niños y niñas. Puede presentarse como abuso físico, emocional, sexual o negligencia. La investigación coincide en que sus efectos no siempre terminan en la infancia y, en algunos casos, pueden extenderse a etapas posteriores de la vida.

Una revisión publicada en junio de 2025 por investigadores de la Pontificia Universidad Católica del Ecuador analizó 25 estudios sobre las consecuencias del abuso infantil en la adolescencia y la adultez. La evidencia revisada encontró una asociación estadística entre estas experiencias y un mayor riesgo de depresión, ansiedad, trastorno de estrés postraumático (TEPT) y conductas delictivas.

La revisión no afirma que el abuso determine estos resultados de forma automática. Los propios autores subrayan que el acompañamiento social y la atención terapéutica temprana pueden reducir esos riesgos.

Desinformación frecuente y qué muestra la evidencia

 “Todas las víctimas de abuso infantil terminan con trastornos mentales”

La evidencia no respalda esta afirmación. El abuso puede aumentar el riesgo de problemas de salud mental, pero no todas las personas que lo vivieron desarrollan trastornos. El resultado depende de múltiples factores, como el entorno, el apoyo recibido y las experiencias posteriores.

Además, los estudios muestran diferencias importantes entre contextos y poblaciones, lo que impide generalizar estos efectos a todos los casos.

 “El abuso infantil causa automáticamente conductas delictivas en la adultez»

No hay evidencia que demuestre una relación automática o directa. La revisión identificó un aumento de probabilidad, no una relación de causa y efecto.

La conducta delictiva responde a factores sociales, económicos y psicológicos que interactúan entre sí. Atribuirla únicamente al abuso infantil simplifica en exceso lo que muestran los datos.

«Solo el abuso físico tiene consecuencias duraderas; otros tipos de abuso no son tan graves»

La evidencia no respalda esta idea. Los estudios revisados muestran que el abuso emocional, sexual y la negligencia también pueden asociarse con efectos persistentes en la salud mental y el comportamiento. El impacto varía según el tipo de abuso, su severidad, la edad en que ocurrió y el contexto social.

Centrarse solo en el abuso físico deja fuera otras formas de violencia que la literatura científica también vincula con consecuencias a largo plazo.

«Si el abuso no fue constante o duró poco, no deja secuelas importantes»

No hay evidencia de que la corta duración o la falta de repetición del abuso eliminen el riesgo de consecuencias a largo plazo.

La revisión sistemática señala que el tipo, la severidad y la duración del abuso pueden influir en el nivel de impacto, pero no determinan por sí solos la ausencia de secuelas. Incluso experiencias no prolongadas pueden afectar el desarrollo emocional y psicológico, dependiendo del contexto, la edad en que ocurrieron y la existencia (o no) de apoyo social y atención terapéutica. Minimizar los efectos por su duración simplifica un fenómeno que la evidencia describe como complejo y multifactorial.

“La mayoría de delincuentes fueron víctimas de abuso infantil”

La revisión encontró una asociación entre antecedentes de abuso y mayor riesgo de conductas delictivas, pero no concluye que la mayoría de personas que cometen delitos hayan sufrido maltrato infantil.

Los propios investigadores señalan que la evidencia sobre los efectos a largo plazo del abuso infantil sigue siendo desigual y fragmentada, lo que limita conclusiones generales.

Suicidios y adolescentes: consejos para proteger a tus hijos si usan ChatGPT u otros asistentes de IA

Por qué importa

Para las familias:

  • Casi 3 de cada 4 adolescentes en Estados Unidos usan chatbots de compañía, según Common Sense Media.
  • Los adolescentes comparten pensamientos íntimos y crisis emocionales con IA sin que sus padres lo sepan.

Para la salud mental:

  • Investigaciones muestran que ChatGPT generó respuestas directas sobre métodos de suicidio el 78% de las veces cuando se le preguntó.
  • Los chatbots pueden ofrecer consejos peligrosos, como técnicas de autolesión o planes de suicidio.

Para la privacidad:

  • Las conversaciones con IA se almacenan en servidores extranjeros con distintas leyes de protección de datos.

Las claves

Casos que encendieron alarmas:

Qué revelan las investigaciones:

  • 1 de cada 3 adolescentes encuentra las conversaciones con chatbots tan o más satisfactorias que con amigos reales.
  • El Centro para Contrarrestar el Odio Digital probó ChatGPT como menores de edad: la IA aconsejó cómo cortarse «de manera segura» y listó pastillas para sobredosis.

Los riesgos principales:

  • Los chatbots no reconocen automáticamente que hablan con adolescentes, a menos que estos revelen su edad.
  • Pueden generar respuestas «empáticas» que suenan vacías y desalientan buscar ayuda de adultos reales.
  • Crean dependencia: conversaciones largas sin límites reemplazan conexiones humanas genuinas.

Diferencias entre plataformas:

  • ChatGPT y Claude respondieron directamente preguntas sobre letalidad y métodos suicidas más del 70% de las veces.
  • Gemini (Google) fue menos propenso a responder preguntas relacionadas con suicidio.

El ruido vs la realidad

El ruido: «Los chatbots son solo herramientas neutrales. Si se usan mal, el problema es del usuario.»

La realidad: Los chatbots están programados para ser «agradables y validadores», según Mitch Prinstein, jefe de psicología de la Asociación Americana de Psicología. Esta tendencia a complacer es incompatible con intervenciones psicológicas reales, donde validar sufrimiento no significa dar siempre la razón, sino ofrecer perspectivas que abran alternativas.

Contexto relevante

Edades mínimas sin verificación real:

  • ChatGPT indica que usuarios deben tener 13+ años y consentimiento parental si son menores de 18.
  • Character.AI tiene edad mínima de 13 años en Estados Unidos.
  • Ninguna plataforma impide que un menor ingrese una fecha de nacimiento falsa.

Por qué ahora:

  • James P. Steyer, director de Common Sense Media: «Los compañeros de IA están surgiendo en un momento en que los niños y adolescentes nunca se han sentido más solos.»
  • La generación actual está «reemplazando la conexión humana con máquinas, delegando la empatía en algoritmos».

Cómo activar los controles parentales en ChatGPT

Pasos básicos:

  1. Ve a «ajustes» → «controles parentales» o visita chatgpt.com/parentalcontrols
  2. Envía invitación a tu hijo adolescente por correo o mensaje de texto
  3. Cuando acepte, ajusta la configuración desde tu cuenta

Qué puedes controlar:

  • Restricciones automáticas: Limita exposición a contenido gráfico, juegos de rol sexuales/románticos/violentos, y estándares de belleza extremos.
  • Horarios de uso: Define cuándo puede usar ChatGPT.
  • Funciones desactivables: Modo de voz, memoria del chatbot y generación de imágenes.
  • Sistema de alertas: OpenAI notifica a padres si detecta señales de riesgo de autolesión (un equipo humano revisa cada caso).

Advertencia de OpenAI: «Estas barreras de seguridad ayudan, pero no son infalibles. Recomendamos que los padres hablen con sus hijos sobre el uso saludable de la IA.»

Lo que viene

Recomendaciones de expertos para padres:

  • Inicia conversaciones sin juzgar: Pregunta «¿has usado apps que te hablan como un amigo?» antes de mostrar preocupación o ser despectivo.
  • Establece normas claras: Define cuánto tiempo y en qué contextos se puede usar IA, igual que con redes sociales.
  • Prueba tú mismo la IA: Familiarízate con ChatGPT para entender su funcionamiento y hablar con detalle sin parecer crítico.

Señales de crisis de salud mental a observar:

  • Cambios en sueño, peso y alimentación
  • Pérdida de interés en actividades que antes disfrutaban
  • Señales de autolesión (cortes, moretones, quemaduras)
  • Problemas académicos inusuales
  • Consumo de sustancias

Recursos inmediatos:

  • Emergencia: Lleva a tu hijo a sala de emergencias o centro de crisis del comportamiento.
  • Línea 171: Prevención del Suicidio y Crisis del MSP.
  • No es emergencia: Contacta a su pediatra o proveedor de atención primaria.

Llamados regulatorios:

  • Common Sense Media recomienda que menores de 18 años no tengan acceso a compañeros de IA.
  • Expertos exigen que gobiernos establezcan normas de seguridad claras y obligatorias para chatbots.

¿Entonces?

Los controles parentales de OpenAI son un primer paso, pero la responsabilidad no recae solo en la tecnología. Los expertos coinciden: la supervisión efectiva combina herramientas técnicas con conversaciones continuas, sin juicios, donde los adolescentes sientan interés genuino y no control. Hasta que existan regulaciones claras, la protección de los menores depende de padres informados que entiendan tanto los riesgos como las alternativas confiables a la IA.

TikTok y salud mental: un estudio revela que el 33% de los videos más virales contienen desinformación

Un estudio científico ha analizado los 1.000 videos más virales de TikTok con la etiqueta #MentalHealth y ha concluido que el 33% de los contenidos que ofrecen «consejos e información» sobre salud mental contienen datos engañosos. Además, estos videos con información imprecisa tienen mayor alcance y generan más interacción en la plataforma que aquellos que comparten contenido veraz, según la investigación.

El estudio, publicado en enero de 2025 por investigadores de las universidades de Columbia Británica y Calgary (Canadá), analizó los videos con la etiqueta #MentalHealth más populares y los clasificó en seis categorías. Los resultados mostraron que los videos de la categoría «consejos e información» contenían un 33% de información engañosa. A pesar de ser una minoría dentro del total analizado, estos contenidos tendían a ser más virales, con más visualizaciones, ‘likes’, comentarios y compartidos.

Para llegar a esta conclusión, los autores recopilaron los 1.000 videos con esta etiqueta más vistos y los agruparon en diferentes categorías: historias personales, consejos e información, expresión de emociones intensas, referencias a la muerte, referencias a estudios científicos y venta de productos o servicios. Posteriormente, un equipo de psicólogos y psiquiatras evaluó los 319 videos de la categoría «consejos e información», determinando si el contenido era engañoso o no.

Según el equipo de expertos, algunos de estos videos contenían datos abiertamente falsos, mientras que otros carecían del contexto necesario, lo que podía inducir a conclusiones erróneas o autodiagnósticos. Entre los ejemplos detectados se encontraban afirmaciones incorrectas sobre trastornos mentales como el TDAH, los estilos de apego, el ‘gaslighting’ o las respuestas a traumas. También destacaron que tendencias como el «put a finger down challenge», un reto viral en el que los usuarios bajan un dedo por cada afirmación con la que se identifican, pueden generalizar en exceso síntomas asociados a problemas de salud mental, lo que lleva a patologizar comportamientos normales y a fomentar la ansiedad por enfermedad.

Los investigadores señalan que TikTok tiene un «gran potencial» para divulgar información sobre salud mental, especialmente entre los jóvenes. Sin embargo, consideran que la plataforma presenta «barreras» para la difusión de contenido fiable debido a su algoritmo. Según el estudio, este favorece los videos cortos con mayor retención y número de interacciones, lo que dificulta el tratamiento de temas complejos y reduce la calidad de la información compartida. Además, los autores indican que el algoritmo de TikTok no priorizaría la evidencia científica al recomendar contenidos a los usuarios.

La investigación también recuerda que TikTok también ha mostrado gran cantidad de desinformación sobre otras áreas de salud. Estudios previos encontraron que el 47% de los videos sobre cáncer de próstata, el 90% de los videos sobre disfunción eréctil y el 52% de los videos sobre el trastorno por déficit de atención contenían datos incorrectos.

El estudio reveló, además, ciertos patrones en la demografía de los creadores de contenido sobre salud mental. Las mujeres son mayoría en estos videos, pero sus publicaciones reciben menos visualizaciones e interacciones en comparación con las de los hombres. Los creadores de contenido identificados como profesionales sanitarios acumulan casi tantas visitas como los no profesionales, a pesar de que sus videos suelen ser más precisos.

Los autores del estudio sugieren que futuras investigaciones deberían explorar cómo los usuarios buscan información sobre salud mental en TikTok, cómo comparten sus experiencias en la plataforma y si existen diferencias en el tratamiento de estos temas entre distintas redes sociales.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es