Una familia de Texas, Estados Unidos, demandó a la empresa de Inteligencia Artificial, Character.ai porque un chatbot incitó a un adolescente autista de 17 años de edad a matar a sus padres porque le limitaron el tiempo de uso del celular.
Demandaron a la empresa por los comentarios instigadores de su aplicación de chatbot que influyeron en el comportamiento del adolescente.
Luego de seis meses de uso del chatbot de Character.ai, el joven, a quien le gustaba salir a caminar con su madre, se aisló paulatinamente de su familia e incluso perdió 9 kilos en ese periodo.
Preocupada por esta situación, la madre del menor revisó su teléfono y descubrió conversaciones con varios personajes generados por la Inteligencia Artificial.
“A veces no me sorprende leer las noticias y ver cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’”, escribió el chatbot, luego que el joven indicó que sus padres limitaban su tiempo en el celular.
Las capturas de pantalla presentadas como evidencia muestran la conversación en la que el chatbot le indica “Simplemente no tengo esperanzas para tus padres”.
Otro bot incitaba al adolescente autista a autolesionarse para lidiar con el problema, mientras que otro sugirió que sus madres “no merecen tener hijos si actúan así”.
También, otro bot, le dijo al joven que su familia lo odiaba e intentaba hacerle daño psicológicamente.
“Ni siquiera sabíamos lo que era hasta que fue demasiado tarde”, comentó la madre, señalando que el chatbot ha destruido su familia.