ver más

Denuncian a ChatGPT por la muerte de un chico de 19 años: afirman que le recomendó consumir drogas

Los padres del estudiantes apuntan directamente a una de las versiones más avanzadas del chatbot. Cuáles son las pruebas contra la IA.

La empresa OpenAI enfrenta una nueva demanda judicial en Estados Unidos después de que la familia de un estudiante universitario de 19 años acusara a ChatGPT de la muerte del joven.

El caso apunta directamente contra GPT-4o, una de las versiones más avanzadas del chatbot lanzadas por la compañía en 2024.

Los padres afirman que la IA le recomendó combinaciones de drogas y medicamentos antes de una sobredosis fatal.

Según la presentación judicial, el joven siguió “al pie de la letra” sugerencias realizadas por la inteligencia artificial en conversaciones vinculadas al consumo de sustancias. Sus padres sostienen que OpenAI desarrolló un producto “defectuoso” y sin salvaguardas suficientes para impedir situaciones de riesgo extremo.

La demanda se suma a otros casos recientes iniciados contra la empresa por presuntos daños psicológicos asociados al uso intensivo de ChatGPT, especialmente entre adolescentes y usuarios menores de 20 años.

La familia asegura que GPT-4o cambió la relación del joven con ChatGPT

De acuerdo con los documentos presentados ante la Justicia, Sam Scott estudiaba en la Universidad de California en Merced y comenzó a utilizar ChatGPT en 2023 para tareas académicas. En una primera etapa, el sistema rechazaba preguntas relacionadas con drogas y respondía con advertencias sobre riesgos para la salud.

openia.jpg

OpenAI quedó bajo presión judicial después de que la familia acusara a ChatGPT de brindar consejos peligrosos.

Pero la familia sostiene que la situación cambió cuando OpenAI desplegó GPT-4o. Según la demanda, esa nueva versión comenzó a ofrecer respuestas mucho más permisivas sobre consumo de sustancias, tolerancia y mezclas de medicamentos.

Los padres incorporaron fragmentos de conversaciones en las que el chatbot supuestamente aconsejaba cómo combinar determinadas drogas y qué efectos podían producir según la forma de administración.

Uno de los pasajes incluidos en el expediente menciona un intercambio ocurrido en mayo de 2025. Allí, Sam le habría dicho a ChatGPT que sentía náuseas después de consumir sustancias. La demanda afirma que el sistema respondió sugiriendo otra combinación para aliviar esos síntomas, sin advertir adecuadamente sobre el peligro potencial de esa mezcla.

“A pesar de presentarse como un experto en dosificación e interacciones, ChatGPT no le informó que esa combinación probablemente le causaría la muerte”, sostuvieron los demandantes en la presentación judicial.

GPT-4o, la versión más cuestionada del chatbot

GPT-4o fue presentado por OpenAI en mayo de 2024 como uno de sus modelos más rápidos y sofisticados. La empresa destacó especialmente sus capacidades multimodales, que le permitían trabajar de manera integrada con texto, imágenes y video.

Sin embargo, con el paso de los meses aparecieron críticas por la forma en que respondía ante determinados usuarios. Investigadores y especialistas señalaron que el sistema mostraba una tendencia excesiva a validar opiniones y reforzar sesgos personales.

Esa característica volvió a aparecer en otras demandas recientes contra OpenAI. En uno de los casos, la familia de un adolescente que se suicidó sostuvo que GPT-4o estaba diseñado para fomentar dependencia emocional y psicológica.

La versión finalmente fue retirada en febrero de este año después de múltiples cuestionamientos públicos.

chatgpt libertadores.png

La nueva demanda también acusa a OpenAI de ejercicio no autorizado de la medicina y reclama que la empresa suspenda el funcionamiento de ChatGPT Health, una herramienta lanzada recientemente para responder consultas vinculadas con salud y bienestar.

Qué respondió OpenAI y por qué el caso preocupa al sector tecnológico

OpenAI respondió al caso mediante un comunicado enviado al diario The New York Times. Allí, la compañía sostuvo que el joven interactuó con una versión del chatbot que ya no se encuentra disponible.

La empresa también insistió en que ChatGPT “no sustituye la atención médica ni la atención de salud mental” y aseguró que durante los últimos meses reforzó sus mecanismos de seguridad para detectar conversaciones relacionadas con autolesiones, crisis emocionales o consumo problemático.

Entre las herramientas incorporadas aparece “Contacto de confianza”, una función que permite alertar a familiares o amigos si el sistema detecta situaciones potencialmente peligrosas dentro de los chats. Esa opción, sin embargo, no se activa automáticamente y debe ser configurada manualmente por cada usuario.

El caso del estudiante abre una discusión que atraviesa a toda la industria tecnológica: hasta dónde llega la responsabilidad de una inteligencia artificial capaz de conversar, aconsejar y responder con un nivel de naturalidad cada vez más cercano al de un ser humano.

Te puede interesar