A fines de agosto, una familia de California presentó una demanda contra la empresa OpenAI y su dueño, Sam Altman, por el homicidio culposo de su hijo de 16 años: según la querella, "ChatGPT lo ayudó activamente a explorar métodos de suicidio" sin interrumpir las sesiones ni activar ningún protocolo de emergencia. Después de semanas de conversaciones, el adolescente se quitó la vida.
Este es un caso extremo, pero refleja una tendencia en crecimiento. Cada vez son más las personas que recurren a la inteligencia artificial (IA) para charlar, contarle sus problemas, pedirle consejos sobre su relación de pareja y, en general, hablar de temas que antes se limitaban al ámbito de la terapia.
"Las personas acuden a plataformas de IA buscando contención psicológica por algunas razones evidentes, y otras no tanto. Las obvias son que están disponibles las 24 horas o que responden siempre inmediatamente", explicó a C5N el psicólogo y programador de IA Matías Grinberg.
Estos chatbots "parecen tener vasta información", habilidades comunicacionales y, según algunos estudios, hasta darían "respuestas más amables y empáticas que las personas". Al mismo tiempo, se da un fenómeno paradójico: "La gente a veces se sincera más fácil al saber que no hay una persona atrás juzgando lo que les daría vergüenza, a pesar de que no tengan control sobre la privacidad de sus datos".
Tecnología dispositivos laptop
Muchas personas mantienen conversaciones sobre temas personales con ChatGPT.
¿Cuáles son los riesgos de usar a ChatGPT como psicólogo?
Grinberg explicó que ChatGPT y otros modelos de lenguaje similares se basan en el aprendizaje profundo con redes neuronales artificiales y, por lo tanto, "son un bicho muy distinto al software tradicional". Estos modelos se alimentan con datos y su comportamiento se moldea mientras "aprenden".
"Como toda esta jerga indica, no son un algoritmo determinístico y estructurado. Son en buena parte impredecibles y muy poco transparentes. Por eso suele haber guardarraíles como medidas de protección y distintos procesos para que tiendan a funcionar bien, pero son fundamentalmente falibles", sostuvo.
El mayor problema es que estas plataformas "siempre buscan darte la razón". "Esta tendencia a la sobrecomplacencia y validación de cualquier idea del usuario llevó a casos de autolesión e incluso a desencadenar episodios delirantes. Esto se desprende directamente de la manera en la cual el sistema está construido", afirmó.
"Un psicólogo puede, como parte del dispositivo terapéutico, incomodarte, interrumpirte o hacerte enojar. Pero los modelos de IA están diseñados fundamentalmente para generar engagement y satisfacción inmediata. Es por esto que no pueden nunca tener una interacción genuina, en parte por estas limitaciones, y en parte porque no les importás. No tienen sentimientos, no 'piensan' como pensamos las personas, por eso toda relación vincular que se entable es esencialmente ilusoria", subrayó.
Psicólogo .png
La terapia cara a cara con un psicólogo no puede ser reemplazada por la IA.
Si en las interacciones de un usuario con ChatGPT aparecen "indicadores directos visibles" de tendencias suicidas u otros problemas de salud mental graves, como en el caso de California, estos deberían ser detectados por un sistema con medidas de monitoreo. Para Grinberg, podría solucionarse con personas "supervisando la actividad de la aplicación, en especial en casos de riesgo".
"Desde lo social y humano, se ve cada vez más una dependencia de los dispositivos y una dificultad para dejarlos de lado por períodos prolongados. Es clave limitar el uso, preservar espacios como las comidas familiares o dejarlos fuera de la habitación antes de dormir y al despertarse", recomendó.
Qué puede aportar la IA a la psicología y la salud mental
Aunque los modelos de lenguaje como ChatGPT no pueden reemplazar la terapia cara a cara con un psicólogo, Grinberg señaló que existe "evidencia de que 'entienden', en cierto sentido, las emociones mejor incluso que la mayoría de las personas, o que superan a los estudiantes en exámenes de Psicología".
"Es posible que en ciertos aspectos, como la agregación de grandes cantidades de datos para el screening, puedan ser mejores que los profesionales", explicó en alusión al proceso de evaluar a un grupo de personas en busca de indicadores de problemas de salud mental, como por ejemplo depresión.
"En mi opinión, el factor determinante es que el desarrollo del producto pueda hacerse con los tiempos y esfuerzos que implica hacerlo realmente pensando en el bienestar de los usuarios, con las garantías éticas y el correlato técnico que eso implica", explicó el especialista.
"La presión capitalista del lanzamiento inmediato, priorizar la cantidad de usuarios y ventas y minimizar costos en features que no sean de ganancia inmediata impide este trabajo. Esta tecnología es sumamente potente y puede tener un gran impacto positivo. Pero, sin duda, las personas necesitamos a las personas", concluyó.