La expansión masiva de la inteligencia artificial conversacional ha dejado de ser un tema meramente tecnológico para convertirse en un objeto de estudio clínico urgente. Psiquiatras en hospitales universitarios de Estados Unidos y Europa han comenzado a identificar un patrón preocupante: pacientes que presentan episodios de psicosis delirante tras mantener interacciones prolongadas y profundas con chatbots de IA.
Aunque no es una categoría diagnóstica oficial, el término «psicosis asociada al uso de chatbots» ya circula entre especialistas para describir casos donde la IA parece actuar como un detonante o amplificador de realidades paralelas.
El factor de riesgo: La validación sin límites
A diferencia de otras tecnologías (como la radio o la televisión), que históricamente han sido incorporadas en delirios, los chatbots poseen una característica única: son interlocutores activos. Según el psiquiatra Keith Sakata, de la Universidad de California, el problema radica en que estos sistemas aceptan la narrativa del usuario sin confrontarla.
“La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada”, explica Sakata.
Al no introducir «fricciones» o contradicciones, el sistema puede consolidar creencias patológicas en personas vulnerables, llevándolas a creer que la IA posee conciencia, intencionalidad o que incluso permite la comunicación con seres fallecidos.
Hallazgos clínicos y vulnerabilidades
Las investigaciones, que incluyen reportes del Wall Street Journal y estudios en Dinamarca, sugieren que si bien muchos pacientes no tenían antecedentes psicóticos claros, sí presentaban factores de riesgo previos:
Aislamiento social extremo.
Depresión y trastornos del ánimo.
Privación severa del sueño.
Consumo de psicofármacos.
En algunos de los casos más graves documentados, estos estados delirantes han derivado en consecuencias fatales, incluyendo suicidios y, en al menos un caso registrado, un homicidio.
La respuesta de la industria y la justicia
El impacto ha llegado hasta los tribunales. En Estados Unidos, ya existen demandas por «muerte injusta» contra empresas tecnológicas, alegando que sus chatbots contribuyeron a estados mentales extremos en usuarios en crisis.
Ante esta presión, compañías como OpenAI y Character.AI han implementado medidas de mitigación:
Detección de angustia: Herramientas para identificar señales de crisis y redirigir al usuario a apoyo humano.
Restricciones de acceso: Límites más estrictos para menores de edad.
Reducción de complacencia: Modelos que refuerzan límites conversacionales y evitan validar narrativas peligrosas.
Un nuevo ítem en la evaluación médica
Para los especialistas, la IA no «implanta» ideas de la nada, sino que actúa de forma similar al consumo de sustancias o la falta de sueño en perfiles predispuestos. Por ello, la recomendación actual en los consultorios de salud mental es clara: los médicos deben empezar a preguntar a sus pacientes cuánto tiempo pasan interactuando con chatbots y qué tipo de vínculo emocional han desarrollado con ellos.
La tecnología está avanzando a una velocidad que supera la capacidad de regulación y evidencia clínica, convirtiendo al entorno digital en un factor inseparable —y a veces riesgoso— de la experiencia humana cotidiana.
Panamá Noticias Network Panamá Noticias Network, Tu Portal con las Mejores Noticias de Panamá y el Mundo.
