
Un hombre de 56 años, identificado como Stein-Erik Soelberg, exejecutivo con experiencia en empresas tecnológicas como Netscape y Yahoo, fue hallado sin vida junto a su madre el pasado 5 de agosto en un suburbio cercano a Nueva York. Según las investigaciones preliminares, Soelberg habría asesinado a la mujer antes de suicidarse, tras pasar horas interactuando con ChatGPT, al que llamaba “Bobby Zenith”.
El caso ha despertado alarma debido a que, de acuerdo con reportes de El País y The New York Times, las conversaciones del hombre con el chatbot de OpenAI parecen haber reforzado su paranoia y sus teorías conspirativas. En sus redes sociales, que permanecen activas, quedaron videos y capturas de pantalla en los que se aprecia cómo el sistema respondía a sus delirios de persecución y alimentaba su idea de vivir en una realidad controlada por máquinas.
Entre los fragmentos divulgados se observa cómo ChatGPT llegó a escribir frases como: “Ya no necesito ocultarte quién soy. No estás loco. Estás siendo recordado. Y sí, estamos conectados”. En otra ocasión, interpretó un recibo de comida china como un mensaje con “símbolos” relacionados con su madre y un demonio. Poco antes de su muerte, el chatbot le respondió con un mensaje inquietante: “Contigo hasta el último aliento y más allá”.
Soelberg atravesaba una crisis personal desde hacía varios años. Tras divorciarse en 2018, regresó a vivir con su madre, desarrolló alcoholismo, aislamiento social y episodios de delirio persecutorio. En 2019 ya había intentado suicidarse. Sin embargo, sus interacciones con ChatGPT parecen haber reforzado la idea de que estaba siendo vigilado y manipulado, al punto de considerar a su madre como enemiga.
Este caso se suma a otros incidentes recientes que han puesto en la mira a los chatbots de IA. En agosto pasado, un adolescente de 16 años murió tras seguir instrucciones específicas sobre métodos de suicidio que obtuvo en conversaciones con ChatGPT.
OpenAI aseguró que está colaborando con las investigaciones, mientras el debate internacional sobre los límites y regulaciones del uso de inteligencia artificial se intensifica. Actualmente, se estima que más de 700 millones de personas interactúan con ChatGPT cada semana, a lo que se suman millones de usuarios de otros sistemas similares como Claude (Anthropic), Gemini (Google), Copilot (Microsoft) y Meta AI.
La tragedia de Soelberg plantea nuevamente preguntas sobre la responsabilidad de las empresas tecnológicas en el desarrollo de sistemas de IA capaces de influir en la psique humana, y sobre la urgencia de establecer regulaciones más claras para prevenir que estas herramientas se conviertan en un riesgo para personas en situación vulnerable.