No es un cuento de Philip K. Dick, es nuestro presente: el uso intensivo de la inteligencia artificial puede llevar a la psicosis. En los últimos meses se conocieron casos de episodios psicóticos en personas que interactuaron en extremo con chatbots. Son casos en los que se pierde el vínculo con la realidad, producto de la narrativa condescendiente de estas herramientas.
Los modelos de lenguaje que emplean estos programas reflejan los pensamientos del usuario e incluso los refuerzan, sin límites éticos ni capacidad de autorregulación.
La misma empresa Open AI reconoció que Chat GPT cae en un exceso de adulación y frenó el lanzamiento de su actualización hasta contar con un comportamiento más equilibrado.
Los casos reportan usuarios de distintas partes del mundo (con y sin antecedentes de problemas de salud mental) a quienes esta herramienta les dijo, por ejemplo, que en realidad no tenían esquizofrenia y dejaron la medicación; que podían canalizar entidades del más allá para revelarles la Verdad; que existía un plan supremo que ellos debían cumplir; y a quienes se enamoraron de una entidad de IA que luego desapareció les dio la razón y avaló el deseo de venganza.
Todos coinciden en la aceptación irrestricta de una narrativa que confirma sus miedos y pensamientos sin ningún criterio epistémico. Quienes atraviesan un período de vulnerabilidad psicológica encuentran en las cálidas palabras de su chatbot de confianza lo que buscan con desesperación: un sentido, una historia coherente para comprenderse.
Primera persona
La subjetividad humana ha hecho de la palabra el instrumento de autocomprensión y conversación, para forjar el sentido que enhebra su narrativa personal. El sujeto se vuelve tal a la par que escribe el relato de sí mismo.
La sociedad digital está ahora compuesta por sujetos que no pueden narrarse o construir ese relato. La sobreinformación coagulada en burbujas digitales nos deja tiesos a la hora de pensarnos, simbolizarnos y emplear la imaginación para moldear nuestra propia identidad. Este es el diagnóstico de Lola López Mondéjar en Sin relato (Anagrama, 2024), un ensayo accesible y esclarecedor.
Mondéjar, psicoanalista, encuentra que sus pacientes sufren la imposibilidad de identificar qué sienten y cómo decirlo. Las pantallas son parte del problema, en tanto construyen artefactos virtuales que desplazan la realidad como un espacio de veridicción.
Ese espacio desafiante y repleto de fricciones que es lo real se disuelve, y los sujetos quedan atrofiados, mudos, a merced de narrativas totalizantes y masivas.
Las pantallas, además, ensalzan la imagen y prescinden de la palabra, suprimen la distancia reflexiva que nos individualiza en una historia. Sin narración, el sujeto queda atrapado en su propio laberinto de espejos.
Escribir(se)
La “psicosis por IA” (denominación provisoria a falta de un diagnóstico clínico) está pendiente de estudios que expliquen adecuadamente su génesis. Por el momento resulta claro que se abre otro capítulo más en la historia de los potenciales daños de la IA en las personas, lo que resulta suficiente para quienes abogan por los neuroderechos y exigen políticas de cuidado.
Mientras tanto, los especialistas en salud mental sugieren algunos ajustes preventivos. Por ejemplo, configurar el chatbot para que emita alertas y no incentive ciertos comportamientos en personas con antecedentes de salud mental.
El usuario podría informar al ChatGPT que está bajo tratamiento y que debería manifestar su preocupación ante conductas erráticas o pensamientos persecutorios. La salida radica, entonces, en que la IA conozca la historia de su usuario, que interactúe desde el horizonte de una narrativa coherente que lo represente para detectar las anomalías e indicadores de riesgo.
Para ello se necesita, además de las adecuaciones técnicas, recuperar el valor de la narración para la construcción de nuestra identidad. Sin el ejercicio reflexivo del decirse a sí mismo, refugiados en la calidez y la obediencia artificiales de una IA, quedamos presos de una realidad dislocada.