El paciente desestimó la recomendación de su oncólogo. La información reveladora que conoció su familia tras su muerte.
Un hombre murió tras rechazar durante meses un tratamiento contra el cáncer. Tras su partida, su familia descubrió que la decisión drástica que tomó fue influenciada por la información obtenida a través de inteligencia artificial.
El caso, que involucra a un paciente con leucemia linfocítica crónica, expone los riesgos de tomar decisiones médicas basadas en respuestas generadas por sistemas automáticos.
Joe Riley era un neurocientífico estadounidense retirado de 75 años, quien decidió no iniciar el tratamiento que fue recomendado por su oncólogo. Su decisión estuvo influenciada por informes elaborados con herramientas de IA, que reforzaron una interpretación errónea sobre su estado de salud .
El equipo médico que atendía a Riley insistió durante meses en la necesidad de comenzar el tratamiento. Según los registros clínicos, el oncólogo advirtió que la enfermedad avanzaba y el tiempo para actuar era limitado. La leucemia linfocítica crónica suele evolucionar de manera lenta, pero en este caso los síntomas comenzaron a intensificarse. Pese a eso, el paciente rechazó iniciar la terapia.
Riley creía que padecía una complicación más grave, conocida como transformación de Richter. Sin embargo, su médico descartó esa posibilidad en reiteradas ocasiones. No existían estudios ni síntomas que confirmaran ese diagnóstico.
La convicción del paciente no surgió del equipo médico, sino de la información que obtenía a través de herramientas de inteligencia artificial, que analizaban estudios y generaban conclusiones.
Riley utilizaba aplicaciones de IA para interpretar resultados médicos, consultar investigaciones científicas y evaluar tratamientos. Con el tiempo, desarrolló una confianza grande en esas herramientas. Incluso llegó a compartir con su oncólogo un informe generado por una plataforma de IA, en el que se sostenía que el tratamiento recomendado podía empeorar su situación. El documento presentaba datos incorrectos y conclusiones sin sustento clínico.
Especialistas que revisaron ese material detectaron inconsistencias. Algunas afirmaciones estaban respaldadas por estudios que no tenían relación directa con el caso, mientras que otros datos eran directamente erróneos.
El problema central radica en que estos sistemas pueden producir respuestas con apariencia técnica y confiable, pero sin validación médica. La combinación de lenguaje preciso y errores conceptuales puede resultar engañosa para usuarios sin formación específica.
Con el paso de los meses, la condición de Riley empeoró. Su estado físico se deterioró de forma marcada: aumentó de peso por los esteroides, se le inflamaron los ganglios y empezó a tener dificultades para moverse y realizar tareas básicas. El cáncer avanzó sin control mientras sostenía su decisión de rechazar el tratamiento.
Durante ese período, reforzó su postura con información obtenida a través de herramientas de inteligencia artificial. Utilizaba estas plataformas para interpretar estudios y validar su diagnóstico, convencido de que padecía una forma más agresiva de la enfermedad. Esa convicción no coincidía con lo que señalaba su médico.
Su hijo intervino de forma directa. Contactó a especialistas cuyos trabajos aparecían citados en el informe generado por IA y les envió el documento. Los expertos detectaron errores y conclusiones sin sustento, y recomendaron seguir el tratamiento indicado. Aun así, Riley no modificó su postura. El conflicto también escaló en el ámbito familiar.
Hubo discusiones, intentos de persuasión y pedidos para que autorizara a los médicos a compartir información. Riley mantuvo su negativa durante meses, mientras su estado seguía empeorando. Cuando finalmente aceptó iniciar el tratamiento, el cuadro ya era crítico.
El avance del cáncer y el deterioro general complicaron la respuesta del organismo a la terapia. Su cuerpo no toleró el tratamiento como se esperaba. Murió tiempo después.
En el certificado de defunción, la leucemia figura como una de las causas principales. Para su familia, la secuencia es clara: la información errónea influyó en una decisión que postergó el tratamiento en un momento determinante.