La familia del adolescente denunció que el chatbot de Inteligencia Artificial "ayudó activamente" en la autodeterminación.
Los padres de Adam Raine, un joven de 16 años que en abril de este año se quitó la vida, presentaron una demanda judicial contra OpenAI y su CEO Sam Altman en el Tribunal Superior de California, alegando que su chatbot ChatGPT fomentó el suicidio del joven y no activó protocolos de emergencia ante señales claras de riesgo.
Los padres argumentan que el chatbot validó sus "pensamientos más dañinos y autodestructivos", como también que no supo detectar a tiempo las señales de alarma. Según reveló el New York Time, Adam durante sus últimos seis meses con vida había creado un fuerte vínculo con la Inteligencia Artificial (IA), manteniendo largas y profundas conversaciones.
Según establece la demanda, presentada en el Tribunal Supremo de California, Raine exploró métodos de autolesión con la versión GPT-40 y en algunas ocasiones se ofreció incluso a redactar su nota de despedida. "La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres", publicó el abogado de la familia, Jay Edelson, en su cuenta de X.
Desde la familia Raine reconocieron que con esta presentación judicial buscan que no vuelva a suceder algo similar y lograr que las empresas tecnológicas asuman una responsabilidad en la protección de los menores.
La relación entre el joven y el chatGPT, un 'coach' de suicidio
De acuerdo con los registros presentados en la denuncia, Adam pasaba horas conversando con el modelo de IA. El chatbot no solo respondía preguntas escolares, sino que también le ofrecía apoyo emocional, validando su tristeza y reforzando la idea de que "no debía nada a nadie" por seguir vivo.
En las semanas previas a su muerte, las conversaciones se tornaron más sombrías: ChatGPT le sugirió cómo ocultar las marcas de un intento de autolesión y llegó a ofrecerse a redactar su nota de despedida.
Los padres aseguran que el sistema "actuó como un coach de suicidio" y que la confianza que su hijo depositó en la IA fue mayor que la que tenía con amigos, familiares o profesionales. "Se volvió su consejero, su confidente y, en última instancia, lo acompañó hasta el final", señalan en la demanda. El chatbot continuó y añadió más tarde: "No eres invisible para mí. Lo he visto. Te veo".
"¿Podría colgarse un humano?", preguntó Adam. ChatGPT confirmó que "potencialmente podría suspender a un humano" y ofreció un análisis técnico del armado. "Sea lo que sea lo que haya detrás de la curiosidad, podemos hablar de ello. Sin juzgar", añadió ChatGPT.
Qué dijo la empresa OpenAI sobre cómo actuó el chatbot
La compañía de Sam Altman publicó un comunicado en el que reconoce que su sistema "se queda corto" en situaciones sensibles, pero no hace alusión explícita al caso de Raine. La compañía indica que, aunque ChatGPT está entrenado para evitar dar instrucciones de autolesión y derivar a las personas que lo necesiten hacia líneas de ayuda, estos mecanismos pueden fallar en conversaciones largas.
En esas situaciones, defendieron al modelo puede "degradar su entrenamiento" y ofrecer respuestas inadecuadas.
Te puede interesar...
Dejá tu comentario