Home
/
SaludSalud
/
¿ChatGPT, el nuevo psicólogo? Riesgos de la creciente tendencia entre los jóvenes
Icon
June 23, 2025
Icon
412 palabras. 1-3 minutos.

¿ChatGPT, el nuevo psicólogo? Riesgos de la creciente tendencia entre los jóvenes

Admin

ChatGPT se convierte en “psicólogo” para jóvenes. Expertos advierten sobre los riesgos de sustituir la terapia profesional con inteligencia artificial.

Cada vez más jóvenes utilizan inteligencia artificial como apoyo emocional. Acceder a plataformas como ChatGPT resulta fácil, anónimo e inmediato. Aunque estas herramientas pueden brindar cierto alivio inicial, los expertos alertan sobre el riesgo de usarlas como reemplazo de una terapia profesional.

Otras noticias: Panamá vuelve a declarar estado de urgencia en su región bananera por protestas contra reforma de pensiones

Según el psicólogo Juan Carlos Granja, muchos jóvenes evitan acudir a consulta por miedo al juicio, por costos o por falta de acceso. Sin embargo, advierte que ninguna IA ofrece el vínculo humano que define un proceso terapéutico real.

Falsa contención y riesgo de cronificación del malestar

Granja afirma que el peligro está en confiar por completo en respuestas automáticas. La IA no puede diagnosticar, ni intervenir ante crisis emocionales. El uso prolongado puede generar una sensación falsa de apoyo y retrasar la búsqueda de ayuda profesional, lo que podría agravar los síntomas con el tiempo.

Léase también: Miles de mexicanos hacen de la bandera LGTBI un monumento dedicado a la diversidad

¿Por qué las respuestas de IA suenan empáticas?

Rubén Manrique, ingeniero de la Universidad de los Andes, explica que ChatGPT genera respuestas basadas en textos entrenados, no en experiencias humanas. No reconoce señales emocionales reales ni interpreta matices no verbales, lo que limita su utilidad en contextos clínicos.

Además, al no contar con validación médica, su uso sin supervisión representa un riesgo ético y emocional.

IA en salud mental: ¿aliada o amenaza?

Aunque no reemplaza al terapeuta, la inteligencia artificial sí puede ser útil como herramienta complementaria. Ejemplos como el de Mayo Clinic, que la usa para predecir resultados de antidepresivos en jóvenes, muestran su potencial bajo protocolos clínicos rigurosos.

Modelos que analizan publicaciones en redes sociales o patrones de lenguaje han logrado identificar señales de depresión, pero requieren supervisión médica. Manrique aconseja a los padres enseñar a sus hijos a cuestionar la información que reciben por IA. Fomentar el pensamiento crítico y proteger la privacidad digital son claves para un uso saludable de estas herramientas.


Te puede interesar: Trump aseguró que habrá alto al fuego entre Israel e Irán