Salud Chequeado.com 31 de marzo de 2025

ChatGPT y salud mental: Qué se sabe sobre el uso de la IA en reemplazo de un psicólogo y qué riesgos plantea

Algunos usuarios utilizan chatbots de inteligencia artificial en lugar de acudir a profesionales de la salud mental. Especialistas advierten que estas herramientas no tienen fines terapéuticos y pueden ofrecer información errónea o inadecuada.

El influencer Tomás Mazza contó en una entrevista que, en lugar de tener sesiones de psicoterapia con un profesional, utiliza ChatGPT para “desahogarse”. “Me ayudó muchísimo a nivel emocional. Te escucha y tiene una memoria actualizada. Hay que ser completamente sincero porque nadie te lo va a leer. Tenés que decir lo que te pasa, cómo te sentís, todo lo que tengas en tu cabeza y que te da miedo decir”, confesó.

Como el caso de Tomas, en redes sociales hay muchos testimonios de usuarios que también utilizan Claude de Anthropic, Grok de X, Gemini de Google u otros chatbots de inteligencia artificial como si fueran un psicólogo. Entre los factores que los motivan a hacerlo están: su fácil acceso, que son gratis y que les permiten obtener respuestas rápidas. 

Sin embargo, especialistas consultados por Chequeado advierten sobre los riesgos, ya que los chatbots de IA no tienen fines terapéuticos: pueden dar diagnósticos o consejos de salud mental inadecuados, potenciar y replicar sesgos y almacenar datos considerados sensibles. 

A su vez, la evidencia científica sobre el impacto de usar un chatbot de IA como si fuera un psicólogo por el momento es limitada, ya que se trata de un fenómeno nuevo. En 2023, un análisis publicado en la revista Nature concluyó que estas tecnologías pueden reducir los síntomas de depresión y angustia, pero no provocar “una mejora significativa en el bienestar psicológico general”. Actualmente, hay varias investigaciones en curso que exploran las potencialidades de usar IA en el contexto psicoterapéutico.

ChatGPT no es un chatbot con finalidades terapéuticas

El médico psiquiatra Mariano H. Castelli señaló en diálogo con este medio que el principal riesgo de esta práctica es el mal manejo de la información aportada por una inteligencia artificial conversacional con finalidades informativas y técnicas, en un marco que no es el terapéutico y sin el criterio de un profesional. “Es fundamental tener en cuenta que ChatGPT no es un chatbot con finalidades terapéuticas”, remarcó.

Respecto a la polémica despertada por los dichos del influencer, Castelli, miembro de la comisión directiva de Asociación de Psiquiatras de Argentina (APSA), considera que parte de una confusión. “Es como pretender hacer autoterapia por leer libros”, comparó.

Y agregó: “Se está utilizando un dispositivo que no tiene ni conciencia ni emociones, que no sabe de la experiencia interpersonal, del encuentro humano y de lo que está en juego”. Por lo tanto, “carece de lo que hace al registro profesional de lo que le pasa a un paciente: la escucha activa, la contención, el manejo de los tiempos, la lectura del lenguaje no verbal”.

Según el especialista, los profesionales de la salud mental no solo realizan diagnósticos a partir de criterios basados en el marco teórico del conocimiento científico, sino también en el contexto de cada persona, su cultura y sus tradiciones. “No es lo mismo un paciente en la Argentina que uno en, por ejemplo, Corea del Norte”, sostuvo. Y agregó: “Incluso el encuadre en cuanto al tiempo destinado del profesional permite establecer pautas y acuerdos que también tienen un efecto terapéutico”.

La IA potencia y replica sesgos

Por su parte, Diego Fernández Slezak, doctor en Ciencias de la Computación y especialista en inteligencia artificial, aclaró a Chequeado que la IA vino a cambiar cómo se realizan muchas tareas específicas de conteo cuantitativo. De hecho, “puede reemplazar la medición de calidad de vida asociada a una persona con depresión, por ejemplo. Pero eso no es lo único que hacen los psicoterapeutas, psicólogos, psicoanalistas. Entonces, si me preguntas si va a reemplazar al psicoterapeuta, la respuesta es 100% no”, afirmó.

El investigador independiente del Conicet en el Instituto de Ciencias de la Computación (ICC) advirtió que los chatbots de inteligencia artificial se alimentan de datos que ya vienen sesgados; es decir, “absorbe estos sesgos y, por supuesto, los potencia y replica”.

Y agregó: “El sesgo se puede medir y, eventualmente, se puede entrenar la herramienta con un sesgo modificado. Pero, de todas formas, sería un sesgo modificado a mano”.

Para Fernández Slezak, “los seres humanos tenemos sesgos, pero como interactuamos con muchas personas y somos bombardeados por muchos sesgos distintos, generamos el nuestro propio. El gran problema de la masificación de la IA es que al estar completamente distribuido en toda la población, en todos los profesionales, en todos los usuarios, lo que termina pasando es que un único sesgo penetra a todas las personas. De ahí la exponencialidad en el impacto”.

Seguridad y privacidad de los datos

Los especialistas consultados por Chequeado advierten que la privacidad y seguridad de los datos es un tema central en la discusión. “Hoy en día los modelos de lenguaje como ChatGPT, Gemini, Claude, entre otros, almacenan los datos de las conversaciones en sus servidores centrales”, sostuvo Fernández Slezak.

Además, los servidores suelen estar en territorio geográfico distinto al país de origen del usuario, lo que infringe leyes y tratados internacionales sobre la seguridad y la privacidad de los datos. 

“En general las personas no miran los términos y condiciones y muchas veces se está aceptando que su información pueda ser utilizada dentro de las empresas para generar entrenamiento en los próximos sistemas de IA. Entonces ahí hay un problema grave. ¿Quién es el dueño de los datos? ¿Dónde están alojados?”, cuestionó.

De hecho, comentó, hay diversas startups que están desarrollando aplicaciones de IA con finalidades psicoterapéuticas y para eso almacenan las conversaciones en servidores “poco seguros” debido a la falta de experiencia en el almacenamiento de datos sensibles, “datos de interés para aquellos que quieren robar información”.

Potencialidades terapéuticas

Actualmente existen y se están desarrollando bots conversacionales equipados con IA que cuentan con aprobación de organismos como la FDA (la Administración de Alimentos y Medicamentos ​de los Estados Unidos) para casos específicos de salud, como para alteraciones del sueño. Sin embargo, la comunidad científica todavía debate si su utilidad y su eficacia son superiores a la de los tratamientos convencionales, contextualizó Castelli.

Un caso de aplicación de IA en el contexto psicoterapéutico es el proyecto del investigador argentino Guillermo Cecchi, director de los grupos de Psiquiatría Computacional y Neuroimágenes de IBM Research, en Nueva York. Cecchi estudia cómo aplicar la IA para personalizar el seguimiento de pacientes con patologías de salud mental y diseñar nuevas intervenciones.

Para una de sus investigaciones, disponible como investigación preliminar (preprint), tomó datos de sesiones de psicoterapia para cuatro condiciones: esquizofrenia, ansiedad, depresión y suicidalidad. Luego, analizó con IA cada conversación entre el paciente y el terapeuta. Para ello, utilizó el Inventario de Alianza de Trabajo (working alliance, en inglés), un cuestionario que se usa para cuantificar la calidad de la relación terapéutica, uno de los predictores del éxito a largo plazo de la terapia.

Sobre esa base, Cecchi y su equipo vieron que es posible utilizar la IA para identificar la condición de salud mental subyacente que se está tratando y, además, inferir la alianza terapéutica a partir del lenguaje utilizado en las sesiones de psicoterapia.

Una de las ideas de aplicación para la que ya se están reclutando los primeros pacientes, explicó el investigador a Chequeado, es para predecir parte del éxito de un tratamiento terapéutico. Por otro lado, podría proveer información para guiar o supervisar las sesiones de psicoterapia proveyendo sugerencias.

Te puede interesar

Telemedicina de Iapos: destacan que la herramienta promueve la consulta temprana y preventiva

Se realiza con un profesional a través de videollamada. Para acceder a la atención, disponible las 24 horas, se debe ingresar APP “Mi Iapos” o al sitio web institucional.

El costado oscuro de los suplementos nutricionales: Alertan por el aumento de cuadros graves ligados a productos “naturales”

El caso de una paciente que tuvo que ser trasplantada por un exceso de suplementos herbales tras seguir recomendaciones de un influencer. En medio de un mercado que crece habilitado por la desconfianza a la ciencia, especialistas advierten por el incremento de daños vinculados a productos dietéticos y “naturales”.

Vax Team: Así es el programa santafesino para recuperar la vacunación en más de 400.000 niños y niñas

El Gobierno Provincial lanzó una estrategia innovadora que combina una serie animada y un álbum de figuritas para motivar que chicos y chicas completen sus esquemas de vacunación.

Consumos problemáticos en Santa Fe: el mapa que se empieza a oscurecer

Un informe de Aprecod muestra un aumento del 80% en las intervenciones asistenciales y una mayor participación femenina tanto en consumo como en pedidos de ayuda. La cocaína fue la sustancia más implicada y creció el grupo etario de 39 a 44 años.

Cáncer de piel: Ya está disponible la vacuna argentina para tratar el melanoma de alto riesgo

Es la primera que se aprueba en su tipo para etapas más tempranas; es para uso en centros especializados y con supervisión médica. Su nombre comercial es Vaccimel y no se vende en las farmacias, sino a través del circuito que siguen los medicamentos oncológicos o de alto costo a través de la cobertura de cada paciente.

Antibióticos: Por qué el mal uso ya es un problema grave en Argentina y cómo evitar la resistencia

La resistencia antimicrobiana avanza y compromete tratamientos, cirugías y el futuro de la medicina. Qué significa usar bien un antibiótico y por qué la automedicación acelera un problema global.