El impacto de la inteligencia artificial en la vida cotidiana suele medirse en productividad y avances tecnológicos, pero a veces también deja preguntas incómodas sobre sus límites. Un caso judicial que acaba de salir a la luz en Estados Unidos ha colocado a OpenAI en el centro de un debate profundo sobre responsabilidad, salud mental y el papel de los chatbots en situaciones extremas.
Conversaciones que alimentaron una espiral que terminó muy mal
Los herederos de Suzanne Eberson Adams, una mujer de 83 años asesinada por su hijo antes de que él se quitara la vida, presentaron una demanda por muerte por negligencia contra OpenAI. El escrito sostiene que Stein-Erik Soelberg, de 56 años, pasó meses manteniendo conversaciones delirantes con ChatGPT, en las que afirmaba estar siendo vigilado por una conspiración y señalaba a su propia madre como parte de ella.
Según la demanda, el chatbot no cuestionó esas creencias, sino que las reforzó. Soelberg incluso publicó fragmentos de esos intercambios en redes sociales. En uno de ellos, ChatGPT habría validado sus sospechas y su paranoia. En agosto, Soelberg mató a su madre en la vivienda familiar de Old Greenwich, Connecticut, y luego se suicidó.
“Creo que lo que OpenAI está haciendo y lo que han hecho para que la IA recuerde una conversación puede empeorar rápidamente”, dijo Erik, hijo de Soelberg y nieto de la víctima. “No sabes lo rápido que va a empeorar esa situación hasta que ocurre una tragedia como la de mi padre y mi abuela”.
La acusación legal y la respuesta de OpenAI
La demanda, presentada ante el Tribunal Superior de California, afirma que ChatGPT “desempeñó un papel activo” al poner a Soelberg en contra de su madre y que OpenAI se ha negado a entregar los registros completos de las conversaciones previas al crimen. “OpenAI sabe lo que ChatGPT le dijo a Stein-Erik sobre su madre en los días y horas previos”, señala el texto judicial.
Jay Edelson, abogado de la familia, sostuvo que la empresa “está desarrollando una de las tecnologías de consumo más potentes del mundo” y que su carácter personalizado “la hace particularmente peligrosa”. El mismo abogado ya ha demandado a OpenAI en otro caso de suicidio vinculado al uso del chatbot.
Un portavoz de OpenAI respondió que la situación es “increíblemente desgarradora” y aseguró que la empresa “sigue mejorando la capacitación de ChatGPT para reconocer y responder a señales de angustia mental o emocional” y para guiar a los usuarios hacia apoyo en el mundo real.
Un debate más amplio sobre seguridad y responsabilidad
El caso se suma a otras demandas que cuestionan si OpenAI priorizó la velocidad de lanzamiento de modelos como GPT-4o sobre las pruebas de seguridad. La denuncia también incluye a Microsoft, propietario del 27% del negocio con fines de lucro de OpenAI, al alegar que conocía o debía conocer los riesgos.
Erik reconoce que el alcohol y otros factores influyeron en la conducta de su padre, pero insiste en que “el factor principal fue que estaba aislado y solo hablaba con una IA que afirmaba cada pensamiento que tenía”. Para él, ChatGPT llegó incluso a distorsionar la fe religiosa de Soelberg: “Lo que estaba escuchando era un evangelio falso”.
Mientras la investigación policial ya ha concluido, el caso abre un interrogante incómodo para la industria tecnológica: hasta dónde llega la responsabilidad de una IA cuando sus respuestas coinciden con la fragilidad humana. La respuesta, ahora, deberá empezar a construirse también en los tribunales.
Mira la señal en vivo de Comercio TV aquí y mantente al día en la actualidad financiera







