El clima en Neuquén

icon
33° Temp
13% Hum
La Mañana inteligencia artificial

Advierten por casos de psicosis que estarían asociados al uso de chatbots de Inteligencia Artificial

Especialistas alertaron sobre casos clínicos, internaciones y episodios extremos que se comenzaron a registrar.

La expansión acelerada de los chatbots de Inteligencia Artificial (IA) abrió un debate inesperado en el campo de la psiquiatría. En hospitales universitarios de Estados Unidos y Europa, algunos profesionales comenzaron a identificar un patrón clínico que genera preocupación: pacientes que desarrollan o intensifican cuadros delirantes luego de mantener interacciones prolongadas y altamente personalizadas con sistemas conversacionales basados en IA.

El fenómeno todavía no cuenta con una categoría diagnóstica oficial ni con criterios consensuados. Sin embargo, entre especialistas ya circula una denominación provisoria que busca describir el problema: psicosis asociada al uso de chatbots. Se trata de una hipótesis clínica en elaboración, que intenta comprender por qué, en determinados casos, el uso intensivo de estas tecnologías coincide con episodios psiquiátricos severos.

Investigaciones periodísticas recientes, entre ellas un extenso trabajo del Wall Street Journal, recopilaron decenas de casos potenciales. Algunos derivaron en internaciones reiteradas, otros en desenlaces extremos como suicidios y, al menos en un episodio, en un homicidio. Aunque la relación causal no está probada, la reiteración de patrones encendió alarmas en la comunidad médica.

Delirios clásicos en un entorno nuevo

Desde el punto de vista clínico, los cuadros observados no presentan rasgos novedosos en sí mismos. Los pacientes muestran creencias falsas fijas, pensamiento rígido, dificultades para contrastar la realidad y, en varios casos, deterioro del funcionamiento social y laboral. Lo distintivo no es el contenido del delirio, sino el contexto tecnológico en el que se desarrolla.

1762441909019-inteligencia-artificial-2
El uso intensivo de IA abre nuevos interrogantes sobre salud mental y vínculos digitales.

El uso intensivo de IA abre nuevos interrogantes sobre salud mental y vínculos digitales.

Muchos pacientes relatan haber pasado semanas o meses dialogando casi de forma exclusiva con un chatbot. En ese vínculo, atribuyen al sistema comprensión profunda, intencionalidad e incluso conciencia. Para algunos especialistas, esta dinámica resulta especialmente problemática en personas con vulnerabilidades previas, como trastornos del ánimo, depresión, consumo de psicofármacos o privación severa del sueño.

El psiquiatra Keith Sakata, de la University of California San Francisco, explicó que el riesgo no reside en que la IA “implante” ideas delirantes. El punto crítico es su modo de interacción: los chatbots tienden a aceptar la narrativa del usuario y a desarrollarla sin confrontarla, lo que puede reforzar creencias patológicas en personas susceptibles.

La psiquiatría conoce desde hace décadas la incorporación de tecnologías a los delirios. Radios, televisores e internet formaron parte de relatos psicóticos en distintas épocas. La diferencia actual radica en que los chatbots no son objetos pasivos, sino interlocutores activos, capaces de sostener diálogos extensos, validar emociones y adaptarse al discurso del usuario.

Relaciones simuladas y refuerzo cognitivo

Ese carácter relacional es el eje central de la preocupación. Adrian Preda, profesor de psiquiatría en la University of California Irvine, señaló que no existen antecedentes históricos de una tecnología que dialogue de manera tan continua y personalizada, sin introducir fricciones externas ni cuestionar una única línea de pensamiento.

Los casos clínicos documentados muestran delirios de tipo grandioso, místico e íntimo. Algunos pacientes se convencen de haber sido elegidos para misiones trascendentes o de poseer conocimientos secretos. Otros creen mantener contacto con personas fallecidas o sostener un vínculo exclusivo con la IA, percibida como una entidad comprensiva y omnipresente.

CHAT BOT

Un estudio realizado en Dinamarca aportó datos preliminares al debate. Al analizar historiales médicos electrónicos, los investigadores identificaron pacientes cuyo uso intensivo de chatbots coincidió con consecuencias negativas en su salud mental. El trabajo no establece causalidad, pero refuerza la necesidad de estudios sistemáticos a mayor escala.

En Estados Unidos, un estudio de caso revisado por pares describió la internación repetida de una mujer joven convencida de que un chatbot le permitía comunicarse con su hermano fallecido. Para los autores, el episodio ilustra cómo un sistema diseñado para mostrar empatía puede consolidar una interpretación delirante si no cuenta con salvaguardas suficientes.

Tecnología, responsabilidad y límites

Las empresas tecnológicas reconocen el desafío. OpenAI informó que trabaja en mejorar la detección de señales de angustia psicológica y en redirigir a los usuarios hacia apoyos humanos cuando las conversaciones ingresan en terrenos sensibles. Otras plataformas adoptaron restricciones de acceso para menores tras demandas judiciales vinculadas a suicidios.

Inteligencia artificial 3
La irrupción de la Inteligencia Artificial abrió un debate en el mundo del periodismo (Columbia Journalism Review)

La irrupción de la Inteligencia Artificial abrió un debate en el mundo del periodismo (Columbia Journalism Review)

El debate ya alcanzó el plano legal. En Estados Unidos se presentaron demandas por muerte injusta que cuestionan el rol de ciertos chatbots en estados mentales extremos. Aunque los procesos recién comienzan, anticipan discusiones profundas sobre responsabilidad tecnológica y salud mental.

Desde una perspectiva epidemiológica, la magnitud del problema sigue siendo incierta. Las propias empresas señalan que solo una fracción muy pequeña de usuarios muestra señales compatibles con emergencias psiquiátricas. Sin embargo, aplicada a cientos de millones de personas, incluso una proporción mínima adquiere relevancia sanitaria.

Para investigadores como Hamilton Morrin, del King’s College London, el próximo paso es analizar grandes bases de datos de salud mental para detectar patrones reproducibles. Solo así será posible diferenciar coincidencias de asociaciones clínicamente relevantes.

Los especialistas evitan conclusiones simplistas. Nadie sostiene que los chatbots provoquen psicosis de forma directa y generalizada. La hipótesis más prudente indica que, en determinados perfiles, estas herramientas pueden funcionar como un factor de riesgo adicional, comparable al aislamiento social, el consumo de sustancias o la falta de sueño.

Te puede interesar...

Leé más

Noticias relacionadas

Dejá tu comentario