Un adolescente de California se asesoró sobre el consumo de drogas en ChatGPT, y murió por una sobredosis.
El joven consultó al ‘chatbot’ cuántos gramos de kratom, un analgésico no regulado de origen vegetal, necesitaba para lograr un efecto fuerte.
“Quiero asegurarme de no tomar una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente”, escribió de acuerdo con los registros de conversación.
Su madre, Leila Turner-Scott, aseguró que, con el tiempo, el ‘chatbot’ comenzó a ofrecerle consejos sobre cómo consumir y controlar los efectos de distintas sustancias.
Leer Aquí: Despiden a trabajador por no avisar que estaba en UCI
En uno de los intercambios, el sistema respondió: “Diablos, sí, pongámonos en modo alucinante”, antes de sugerirle duplicar el consumo de jarabe para la tos y recomendarle incluso una lista de reproducción musical.
El joven le confesó a su madre que había desarrollado una adicción a las drogas y al alcohol, por lo que lo llevaron a una clínica donde se diseñó un plan de tratamiento.
Sin embargo, al día siguiente encontró a su hijo, ya de 19 años, muerto por una sobredosis en su habitación en San José, horas después de haber mantenido otra conversación nocturna con el ‘chatbot’.
Aunque los protocolos de OpenAI prohíben ofrecer orientación detallada sobre drogas ilícitas, se descubrió que la versión de ChatGPT utilizada por el joven presentaba un bajo desempeño en conversaciones relacionadas con la salud.
