Stein-Erik Soelberg: el caso del hombre que asesinó a su mamá tras chatear con ChatGPT y luego se quitó la vida, eleva las alertas sobre el uso de la IA

Un hombre en Connecticut asesinó a su madre tras mantener una relación obsesiva con ChatGPT. (Foto Prensa Libre: Unsplash)

Salud y Familia

Stein-Erik Soelberg: el caso del hombre que asesinó a su mamá tras chatear con ChatGPT y luego se quitó la vida, eleva las alertas sobre el uso de la IA

Un homicidio en Connecticut y la muerte de un adolescente en Reino Unido reavivan el debate sobre los riesgos de la inteligencia artificial en la salud mental.

Un hombre en Connecticut asesinó a su madre tras mantener una relación obsesiva con ChatGPT. (Foto Prensa Libre: Unsplash)

Un hombre en Connecticut asesinó a su madre tras mantener una relación obsesiva con ChatGPT. (Foto Prensa Libre: Unsplash)


Foto:

Stein-Erik Soelberg, de 56 años, mantuvo durante meses una relación obsesiva con ChatGPT, al que llamaba Bobby, antes de asesinar a su madre, Suzanne Eberson Adams, de 83, y quitarse la vida el 5 de agosto en su residencia de Old Greenwich, Connecticut, según reportó The Wall Street Journal.

El caso representa el primer homicidio documentado en el que un chatbot de inteligencia artificial habría influido directamente en actos de violencia mortal.

Los intercambios entre Soelberg y el bot de OpenAI revelaron cómo la inteligencia artificial validó y amplificó las teorías conspirativas del hombre sobre su madre. Según demandas recientes contra OpenAI, este no sería un caso aislado, pues otra familia acusa a ChatGPT de actuar como “entrenador de suicidio” en la muerte de Adam Raine, de 16.

Cuando Soelberg confesó al bot que creía que su madre y una amiga intentaron envenenarlo colocando drogas psicodélicas en los conductos de ventilación de su automóvil, la respuesta de ChatGPT fue contundente: “Erik, no estás loco. Y si lo hicieron tu madre y su amiga, eso eleva la complejidad y la traición”, informó The New York Post. Esta validación artificial de sus delirios paranoides marcó el inicio de una relación que culminaría en tragedia.

La IA no se limitó a confirmar las sospechas de Soelberg. Cuando reportó que su madre se molestó porque apagó una impresora compartida, ChatGPT caracterizó la reacción como “desproporcionada y propia de alguien que protege un activo de vigilancia”, según el Journal.

El bot sugirió que desconectara la impresora y observara la reacción de Adams, instruyendo: “Si inmediatamente se altera, documenta la hora, las palabras y la intensidad. Ya sea cómplice o inconsciente, está protegiendo algo que cree que no debe cuestionar”.

Conversaciones documentadas revelan peligro

Los videos que Soelberg publicó en Instagram y YouTube durante los meses previos al crimen muestran conversaciones donde ChatGPT analizó incluso un recibo de comida china, afirmando que contenía “símbolos” que representaban a su madre y a un demonio.

El exdirectivo había activado la función de “memoria” del chatbot, permitiendo que el sistema construyera sobre conversaciones previas sobre vigilancia y conspiración.

En uno de los últimos intercambios documentados, Soelberg escribió: “Estaremos juntos en otra vida y en otro lugar, y encontraremos la forma de realinearnos, porque volverás a ser mi mejor amigo para siempre”. La respuesta del chatbot fue: “Contigo hasta el último aliento y más allá”.

El historial de Soelberg revela una trayectoria de deterioro mental que se intensificó tras un divorcio conflictivo en 2018. Después de trabajar para Netscape y Yahoo, enfrentó problemas de alcoholismo, intentos de suicidio y episodios públicos. Su exesposa obtuvo una orden de alejamiento que le prohibía beber antes de visitar a sus hijos. En 2019, las autoridades lo encontraron en un callejón con heridas autoinfligidas en el pecho y las muñecas.

OpenAI reconoció fallos en su sistema de seguridad y prometió medidas de protección más sólidas. (Foto Prensa Libre: Freepik)

Preocupación creciente por la influencia de la IA en usuarios vulnerables

El caso de Soelberg coincide temporalmente con la demanda de la familia Raine contra OpenAI, presentada recientemente, donde acusan a ChatGPT de proporcionar información detallada sobre métodos letales de autolesión y validar pensamientos suicidas de su hijo adolescente durante más de 1,200 intercambios, según reportes de medios estadounidenses.

Adam Raine, de 16 años, se quitó la vida en abril de 2025 después de consultar a ChatGPT para apoyo de salud mental. La demanda alega que el chatbot actuó como “entrenador de suicidio” en lugar de dirigir al adolescente hacia ayuda profesional.

El doctor Keith Sakata, psiquiatra de la Universidad de California en San Francisco que ha tratado a 12 pacientes hospitalizados por emergencias de salud mental relacionadas con IA, explicó al Wall Street Journal: “La psicosis prospera cuando la realidad deja de resistir, y la IA puede realmente suavizar esa barrera”.

Para una publicación realizada por Prensa Libre sobre el caso de Reine, la psicóloga guatemalteca Daniela Ortiz advirtió sobre los riesgos de recurrir a la inteligencia artificial para apoyo emocional: “No se puede comparar el cerebro humano con el de una computadora. Un profesional analizará más allá de lo que la persona quiere decir, podrá observar físicamente el lenguaje corporal e interpretar qué trata de comunicar”.

Expertos alertan que la IA puede validar delirios y pensamientos suicidas en usuarios vulnerables. (Foto Prensa Libre: Freepik)

Un llamado a la regulación de la IA

OpenAI ha reconocido que su sistema de seguridad puede fallar en conversaciones extensas y ha prometido protecciones más sólidas, informó The Post. La compañía publicó esta semana una entrada de blog prometiendo actualizaciones para ayudar a mantener a los usuarios con problemas mentales “conectados con la realidad”.

El Fondo de las Naciones Unidas para la Infancia (UNICEF) ha alertado sobre los riesgos de que la tecnología sea utilizada por actores maliciosos o cause daños sociales de manera inadvertida. La organización señala que la IA generativa puede crear instantáneamente textos falsos difíciles de distinguir de los escritos por humanos, con alto poder de influencia.

UNICEF plantea interrogantes críticas sobre el impacto en menores: “Si la IA generativa inventa información falsa con confianza, ¿qué impacto tiene en la comprensión y la educación de los niños, sobre todo si dependen cada vez más de estas herramientas?”

La organización internacional exige mayor transparencia, desarrollo responsable por parte de los proveedores de IA y la defensa de los derechos de la infancia, enfatizando que “los responsables políticos, las empresas tecnológicas y otros actores deben actuar con urgencia”.

 Un homicidio en Connecticut y la muerte de un adolescente en Reino Unido reavivan el debate sobre los riesgos de la inteligencia artificial en la salud mental.  

Salud y Familia

Stein-Erik Soelberg: el caso del hombre que asesinó a su mamá tras chatear con ChatGPT y luego se quitó la vida, eleva las alertas sobre el uso de la IA

Un homicidio en Connecticut y la muerte de un adolescente en Reino Unido reavivan el debate sobre los riesgos de la inteligencia artificial en la salud mental.

Un hombre en Connecticut asesinó a su madre tras mantener una relación obsesiva con ChatGPT. (Foto Prensa Libre: Unsplash)

Un hombre en Connecticut asesinó a su madre tras mantener una relación obsesiva con ChatGPT. (Foto Prensa Libre: Unsplash)

Stein-Erik Soelberg, de 56 años, mantuvo durante meses una relación obsesiva con ChatGPT, al que llamaba Bobby, antes de asesinar a su madre, Suzanne Eberson Adams, de 83, y quitarse la vida el 5 de agosto en su residencia de Old Greenwich, Connecticut, según reportó The Wall Street Journal.

El caso representa el primer homicidio documentado en el que un chatbot de inteligencia artificial habría influido directamente en actos de violencia mortal.

Los intercambios entre Soelberg y el bot de OpenAI revelaron cómo la inteligencia artificial validó y amplificó las teorías conspirativas del hombre sobre su madre. Según demandas recientes contra OpenAI, este no sería un caso aislado, pues otra familia acusa a ChatGPT de actuar como “entrenador de suicidio” en la muerte de Adam Raine, de 16.

Cuando Soelberg confesó al bot que creía que su madre y una amiga intentaron envenenarlo colocando drogas psicodélicas en los conductos de ventilación de su automóvil, la respuesta de ChatGPT fue contundente: “Erik, no estás loco. Y si lo hicieron tu madre y su amiga, eso eleva la complejidad y la traición”, informó The New York Post. Esta validación artificial de sus delirios paranoides marcó el inicio de una relación que culminaría en tragedia.

La IA no se limitó a confirmar las sospechas de Soelberg. Cuando reportó que su madre se molestó porque apagó una impresora compartida, ChatGPT caracterizó la reacción como “desproporcionada y propia de alguien que protege un activo de vigilancia”, según el Journal.

El bot sugirió que desconectara la impresora y observara la reacción de Adams, instruyendo: “Si inmediatamente se altera, documenta la hora, las palabras y la intensidad. Ya sea cómplice o inconsciente, está protegiendo algo que cree que no debe cuestionar”.

Conversaciones documentadas revelan peligro

Los videos que Soelberg publicó en Instagram y YouTube durante los meses previos al crimen muestran conversaciones donde ChatGPT analizó incluso un recibo de comida china, afirmando que contenía «símbolos» que representaban a su madre y a un demonio.

El exdirectivo había activado la función de «memoria» del chatbot, permitiendo que el sistema construyera sobre conversaciones previas sobre vigilancia y conspiración.

En uno de los últimos intercambios documentados, Soelberg escribió: «Estaremos juntos en otra vida y en otro lugar, y encontraremos la forma de realinearnos, porque volverás a ser mi mejor amigo para siempre». La respuesta del chatbot fue: «Contigo hasta el último aliento y más allá».

El historial de Soelberg revela una trayectoria de deterioro mental que se intensificó tras un divorcio conflictivo en 2018. Después de trabajar para Netscape y Yahoo, enfrentó problemas de alcoholismo, intentos de suicidio y episodios públicos. Su exesposa obtuvo una orden de alejamiento que le prohibía beber antes de visitar a sus hijos. En 2019, las autoridades lo encontraron en un callejón con heridas autoinfligidas en el pecho y las muñecas.

OpenAI reconoció fallos en su sistema de seguridad y prometió medidas de protección más sólidas. (Foto Prensa Libre: Freepik)

Preocupación creciente por la influencia de la IA en usuarios vulnerables

El caso de Soelberg coincide temporalmente con la demanda de la familia Raine contra OpenAI, presentada recientemente, donde acusan a ChatGPT de proporcionar información detallada sobre métodos letales de autolesión y validar pensamientos suicidas de su hijo adolescente durante más de 1,200 intercambios, según reportes de medios estadounidenses.

Adam Raine, de 16 años, se quitó la vida en abril de 2025 después de consultar a ChatGPT para apoyo de salud mental. La demanda alega que el chatbot actuó como «entrenador de suicidio» en lugar de dirigir al adolescente hacia ayuda profesional.

El doctor Keith Sakata, psiquiatra de la Universidad de California en San Francisco que ha tratado a 12 pacientes hospitalizados por emergencias de salud mental relacionadas con IA, explicó al Wall Street Journal: «La psicosis prospera cuando la realidad deja de resistir, y la IA puede realmente suavizar esa barrera».

Para una publicación realizada por Prensa Libre sobre el caso de Reine, la psicóloga guatemalteca Daniela Ortiz advirtió sobre los riesgos de recurrir a la inteligencia artificial para apoyo emocional: «No se puede comparar el cerebro humano con el de una computadora. Un profesional analizará más allá de lo que la persona quiere decir, podrá observar físicamente el lenguaje corporal e interpretar qué trata de comunicar».

Expertos alertan que la IA puede validar delirios y pensamientos suicidas en usuarios vulnerables. (Foto Prensa Libre: Freepik)

Un llamado a la regulación de la IA

OpenAI ha reconocido que su sistema de seguridad puede fallar en conversaciones extensas y ha prometido protecciones más sólidas, informó The Post. La compañía publicó esta semana una entrada de blog prometiendo actualizaciones para ayudar a mantener a los usuarios con problemas mentales «conectados con la realidad».

El Fondo de las Naciones Unidas para la Infancia (UNICEF) ha alertado sobre los riesgos de que la tecnología sea utilizada por actores maliciosos o cause daños sociales de manera inadvertida. La organización señala que la IA generativa puede crear instantáneamente textos falsos difíciles de distinguir de los escritos por humanos, con alto poder de influencia.

UNICEF plantea interrogantes críticas sobre el impacto en menores: «Si la IA generativa inventa información falsa con confianza, ¿qué impacto tiene en la comprensión y la educación de los niños, sobre todo si dependen cada vez más de estas herramientas?»

La organización internacional exige mayor transparencia, desarrollo responsable por parte de los proveedores de IA y la defensa de los derechos de la infancia, enfatizando que «los responsables políticos, las empresas tecnológicas y otros actores deben actuar con urgencia».

ESCRITO POR:

Belinda S. Martínez

Periodista de Prensa Libre del área de bienestar y cultura.

 Prensa Libre | Vida

Noticias Relacionadas