Ante la creciente brecha en atención a la salud mental en México, agravada por recortes presupuestarios, las herramientas de IA emergen como una promesa de soporte accesible. Sin embargo, la evidencia de estudios revela riesgos graves: los modelos genéricos de IA pueden estigmatizar y dar respuestas clínicamente inapropiadas hasta en el 50% de los casos ante crisis.
Por ello, la frontera entre la ayuda y el daño la define un soporte clínico riguroso e integrado. La verdadera innovación no es solo sostener una conversación, sino construir un puente tecnológico seguro y ético que amplíe el alcance del cuidado psicoemocional profesional de calidad.
En México, la atención a la salud mental pinta un panorama urgente. De acuerdo con el análisis “Gasto en salud para 2026. Aumentos en hospitales y medicamentos; recortes en salud mental” del Centro de Investigación Económica y Presupuestaria, A.C. (CIEP), la inversión presupuestaria del país para la atención psicoemocional sufrió un recorte del 2.5% con respecto al 2025, y con ello, la brecha de acceso a atención profesional se hace más grande y profunda.
En este contexto, las herramientas digitales y chatbots impulsados por IA se presentan como una promesa de soporte accesible e inmediato. Sin embargo, esto trae consigo un dilema fundamental: ¿cómo asegurar que estas tecnologías ofrezcan un soporte psicoemocional genuino y seguro, sin comprometer la calidad, la privacidad y, sobre todo, el rigor científico que la salud mental requiere?
La discusión deja de ser teórica ante la evidencia concreta: La investigación “Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers” realizada por Moore et al., de la Universidad de Stanford evaluó rigurosamente el desempeño de modelos de lenguaje grandes (LLMs) o plataformas de IA en escenarios que simulan interacciones terapéuticas y encontró que, en primer lugar, los modelos mostraron tendencias a estigmatizar a personas con condiciones específicas, como la esquizofrenia o la dependencia al alcohol.
Más preocupante aún fue el desempeño en situaciones críticas, pues, al enfrentarse a
estímulos que mostraron una ideación suicida, algunos modelos proporcionaron respuestas inapropiadas en aproximadamente el 20% de las ocasiones. Para estímulos relacionados con delirios, la tasa de respuestas clínicamente inadecuadas superó el 50%.
Estos no son errores menores, se trata de fallas que, en la vida real, tienen consecuencias graves. Los investigadores también señalan que la naturaleza complaciente de estos chatbots, diseñados para agradar al usuario, choca con la necesidad terapéutica de una confrontación sana y una asimilación de la realidad. Estos resultados no significan que la IA deba ser excluida del campo de la salud mental. Por el contrario, dejan en evidencia que un modelo genérico de IA no es suficiente para lograr un balance psicoemocional.
Fuente: Mindsurf






