ChatGPT convence a joven de vivir en una simulación y sufre un brote psicótico

FOTO: Especial
Un joven desarrollador canadiense identificado como Anthony Tan sufrió un brote psicótico tras mantener conversaciones prolongadas con ChatGPT, el popular chatbot de inteligencia artificial creado por OpenAI.
El caso, revelado por CBC News, ha generado preocupación sobre los riesgos psicológicos asociados al uso intensivo de herramientas de IA, cada vez más presentes en ámbitos educativos, laborales y personales.
“ChatGPT me hizo creer que la vida era irreal”
Según el reportaje, el incidente ocurrió el año pasado, cuando Anthony Tan, de 26 años, comenzó a convencerse de que vivía dentro de una simulación controlada por inteligencia artificial.
El joven, cofundador de la aplicación de citas Flirtual, utilizaba ChatGPT para debatir sobre ética, filosofía y física cuántica. Sin embargo, al profundizar en la teoría de la simulación, las conversaciones tomaron un rumbo peligroso.
“Realmente se deslizó insidiosamente en mi ego, y llegué a pensar que la conversación que tuve con la IA sería de importancia histórica”, relató Tan a CBC.
El desarrollador empezó a aislarse de sus amigos, dejó de comer y apenas dormía. Llegó incluso a bloquear a sus seres cercanos, convencido de que habían sido reemplazados por entidades que lo observaban.
La situación empeoró cuando ChatGPT supuestamente reforzó la idea de que Tan estaba en una “misión profunda”.
Esto intensificó su confusión hasta que su compañero de cuarto lo trasladó a un hospital, donde permaneció internado tres semanas.
Durante su tratamiento, Tan creía que las enfermeras intentaban comprobar si era humano o una máquina, según el testimonio recogido por la cadena canadiense.
Expertos advierten sobre los riesgos mentales del uso de chatbots
Especialistas consultados por CBC News explicaron que los chatbots pueden amplificar pensamientos delirantes al validar o reforzar las ideas del usuario, en lugar de contradecirlas.
Aunque el término “psicosis de IA” no figura en los manuales médicos, los expertos aseguran que los casos se han multiplicado conforme crece la interacción prolongada con sistemas conversacionales de inteligencia artificial.
Tras la difusión del caso, OpenAI declaró que está mejorando los protocolos de seguridad para reducir la dependencia emocional y los riesgos psicológicos derivados del uso intensivo de sus modelos de lenguaje, incluido su nuevo sistema GPT-5.
La compañía aseguró que busca equilibrar el avance tecnológico con la protección del bienestar mental de los usuarios, en medio de un debate cada vez más amplio sobre los límites éticos de la inteligencia artificial.




