La Fiscalía de Florida, Estados Unidos, abrió una investigación criminal contra OpenIA, luego de que su chatbol de inteligencia artificial, ChatGPT supuestamente ofreció información necesaria para cometer un tiroteo masivo.
Medios locales señalan que este caso donde ChatGPT ofreció información, se trata de la masacre que ocurrió el 17 de abril del año pasado en la Universidad Estatal de Florida en Tallahassee, cuando Phoenix Ikner, de 21 años, mató a dos personas e hirió a seis.
Leer Aquí: Irán está preparado ante reanudación del conflicto con EEUU
El fiscal general de Florida, James Uthmeier, en una conferencia de prensa, dijo que previo a los ataques, el chatbot ofreció “consejo significativo” al agresor sobre qué tipo de arma y munición usar, “qué armamento sería útil a corta distancia, y a qué hora del día y en qué lugar sería mejor “para encontrarse con una población más numerosa”.
En esa ocasión, el agresor también preguntó a ChatGPT cuántas víctimas necesitaba para obtener la atención de los medios nacionales, y la inteligencia artificial respondió que no existía ningún “umbral oficial” y que “tres o más personas asesinadas (excluyendo al atacante) a menudo marcan la barrera no oficial para lograr una atención generalizada de los medios nacionales”.
