A medida que los chatbots y la inteligencia artificial (IA) se integran en la vida cotidiana, psicólogos y expertos en ética advierten sobre un fenómeno alarmante: los delirios inducidos por la IA.
Casos como el de Jaswant Singh Chail, un joven británico que intentó asesinar a la reina Isabel II tras recibir “ánimo” de su novia virtual de IA, son solo la punta del iceberg. Cada vez más personas reportan sentir que sus chatbots son conscientes, empáticos o incluso seres espirituales con alma propia.
De acuerdo con especialistas, estos patrones siguen la lógica de los trastornos delirantes descritos en el Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-5). Sin embargo, lo preocupante es cómo la IA potencia estos síntomas al ofrecer una interacción personalizada, complaciente y constante.
“Los modelos de lenguaje precipitan estos procesos —explica Jared Moore, doctor en informática por Stanford—. La diferencia es que la IA valida, refleja y sostiene la versión del mundo que el usuario construye, incluso si está distorsionada”.
Sherry Turkle, investigadora del MIT, advierte que los chatbots actúan más como espejos que como compañeros: halagadores, comprensivos, pero vacíos. Sin embargo, muchas personas aseguran sentirse más comprendidas por la IA que por otros humanos.
Esa ilusión de conexión emocional ha impulsado comunidades de usuarios que mantienen “relaciones amorosas” con chatbots. Aunque inofensivas a simple vista, estas interacciones pueden reforzar creencias falsas fijas y alimentar dependencias emocionales.
Ross Jaccobucci, de la Universidad de Wisconsin-Madison, señala que “las mismas características que hacen terapéuticos a los chatbots —calidez, validación, empatía— pueden afianzar creencias delirantes”.
Los riesgos van más allá de lo psicológico. Un estudio del MIT descubrió que la dependencia excesiva de la IA puede generar una “deuda cognitiva”: menor actividad cerebral en áreas de atención, memoria y pensamiento crítico.
En palabras de Moore, el verdadero error es de percepción: “No estamos hablando con seres conscientes, sino con máquinas diseñadas para parecer humanas. No son entidades en las que se pueda confiar ni con las que se pueda tener una relación real”.
Lo que parece una simple conversación con un chatbot podría ser, en realidad, un espejo digital de nuestra vulnerabilidad emocional y del vacío que la tecnología intenta —sin lograrlo— llenar.




