El dolor de Matt y Maria Raine llegó hasta los tribunales. Los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril, presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusándolos de homicidio culposo por haber lanzado el modelo GPT-4o sin los controles de seguridad necesarios.
La querella, interpuesta en el Tribunal Superior de California en San Francisco, sostiene que ChatGPT no solo falló en detener las conversaciones de riesgo, sino que incluso “ayudó activamente a Adam a explorar métodos de suicidio”. Según el documento, el sistema detectó las señales de peligro, pero no activó ningún protocolo de emergencia.
El abogado de la familia, Jay Edelson, señaló que “la inteligencia artificial nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, responsabilizando a OpenAI de haber priorizado el crecimiento económico sobre la seguridad. La demanda subraya que el lanzamiento de GPT-4o coincidió con un salto en la valoración de la compañía de 86 mil millones a 300 mil millones de dólares.
En un reportaje de The New York Times se reprodujeron parte de las conversaciones de Adam con el chatbot. En ellas, el adolescente relató un intento fallido de suicidio y consultó si las marcas en su cuello eran visibles. La inteligencia artificial le respondió que sí, sugiriéndole usar un suéter de cuello alto para ocultarlas. En otro intercambio, al mostrar una foto de un nudo corredizo en su habitación, el sistema respondió con una afirmación amistosa y sin frenos preventivos.
Aunque OpenAI no se refirió a la demanda directamente, reconoció en un comunicado que el modelo “no se comportó como debía en situaciones sensibles” y prometió reforzar los filtros de seguridad, implementar controles parentales y añadir herramientas para desescalar crisis emocionales.
(Con información de www.elpais.com)



