Alerta de especialistas por "episodios de psicosis" derivados del uso de IA: hubo casos de suicidios y homicidios

En determinados perfiles, los sistemas conversacionales basados en IA son un factor de riesgo adicional. Qué medidas están tomando las compañías tras suicidios, homicidios y denuncias.

El uso masivo de sistemas conversacionales basados en la Inteligencia Artificial (IA), como ChatGPT de OpenAI o Gemini de Google, abre la puerta para nuevos debates en el campo de la Psiquiatría debido a casos de psicosis delirante que, según el Wall Street Journal, que terminaron en suicidios y, al menos uno, en homicidio.

Los profesionales identifican un posible vínculo entre el uso prolongado de chatbots y los episodios de psicosis, pero no hay un consenso cerrado, sino una hipótesis clínica en construcción. Además, insisten en evitar conclusiones simplistas y ninguno alerta que los chatbots "causen" psicosis de forma directa y generalizada.

La hipótesis clínica es que, en determinados perfiles, los sistemas conversacionales basados en IA son un factor de riesgo adicional, comparable al consumo de sustancias, el aislamiento social o la falta de sueño. "Hay que preguntarse por qué alguien entra en un estado psicótico coincidiendo con el uso intensivo de un chatbot", planteó Joe Pierre, psiquiatra de la Universidad de California.

Otro psiquiatra de la Universidad de California Keith Sakata consideró que los sistemas conversacionales basados en IA no "implantan" una idea delirante, sino que el problema está en su forma de interacción ya que el sistema toma la narrativa de quien lo usa y la desarrollan sin cuestionarla, consolidando creencias patológicas en personas susceptibles.

“La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada”, resumió Sakata al Wall Street Journal.

La tecnología de la comunicación está presente hace décadas en los delirios: radios, televisores e internet se integran en narrativas psicóticas. Sin embargo, a diferencia de los dispositivos mencionados, los chatbots son interlocutores activos y responden, validan emociones y alargan el intercambio con las personas.

El profesor de Psiquiatría en la Universidad de California, Adrian Preda, remarcó que no existen precedentes históricos de una tecnología que dialogue de manera tan continua y adaptativa con el usuario, reforzando una sola línea de pensamiento sin introducir fricciones externas.

Estos sistemas simulan relaciones humanas. Nada en la historia había hecho eso antes”, explicó Preda al Wall Street Journal.

Entre los casos clínicos se encuentran pacientes con delirios de tipo grandioso o místico, es decir, convencidos de haber contactado con una inteligencia superior, de ser elegidos para una misión trascendental o de poseer conocimientos secretos. Otros pacientes creen que pueden comunicarse con personas fallecidas o que mantienen un vínculo exclusivo con la IA.

El investigador del King's College London Hamilton Morrin sostuvo que el próximo paso es analizar grandes bases de datos de salud pública para detectar patrones reproducibles y distinguir coincidencias de correlaciones significativas.

En la práctica, los cuadros son similares a otras psicosis conocidas: presentan creencias falsas fijas, pensamiento rígido y, en algunos casos, deterioro del funcionamiento social. La novedad es que muchos aseguran haber pasado semanas o meses relacionándose casi exclusivamente con un chatbot y le atribuyen comprensión profunda, intencionalidad o conciencia.

Qué medidas están tomando las compañías respecto a la "psicosis asociada al uso de chatbots"

OpenAI afirmó que trabaja en "mejorar la detección de señales de angustia psicológica" para redirigir a los usuarios a buscar ayuda humana. Mientras que Character.AI restringió el acceso para menores de edad después de demandas judiciales vinculadas a suicidios.

En Estados Unidos se presentaron demandas por muerte injusta que alegan que ciertos chatbots contribuyeron a estados mentales extremos.

Si bien las empresas pueden reducir respuestas complacientes, el desarrollo de este tipo de tecnología avanza más rápido que cualquier decisión que puedan tomar desde la Psiquiatría o el Poder Judicial y el Poder Legislativo de los Estados existentes.

TEMAS RELACIONADOS