
En Estados Unidos -Florida- se abrió una causa judicial, por primera vez, contra la inteligencia artificial Chat GPT. El chatbot habría aconsejado a un joven que luego abrió fuego en la Universidad Estatal de Florida.
Según la información recaudada por la fiscalía, el joven que hizo el ataque intercambió mensajes con la IA de la empresa OpenIA, previo a abrir fuego contra varias personas en el campus en abril de 2025, donde dejó a dos muertos y seis heridos.
El atacante, identificado como Phoenix Ikner, usó el arma de servicio de su madre, quien llevaba 18 años como ayudante del sheriff local, según informaron las autoridades. Ikner, que tenía 20 años y era estudiante de FSU en el momento del ataque, fue reducido a tiros por la policía y hospitalizado con “heridas graves”, pero que no ponían en peligro su vida.
El joven formaba parte de un programa de formación de la oficina del sheriff, por lo que el comisario del condado de Leon -Walt McNeil- declaró, ” no nos sorprende que tuviera acceso a armas”.
En una rueda de prensa, el fiscal general de Florida, James Uthmeier, explicó que ChatGPT había “proporcionado indicaciones significativas al tirador antes de que cometiera este crimen de odio”.
“ChatGPT había proporcionado indicaciones significativas al tirador antes de que cometiera este crimen de odio”, explicó James Uthmeier -fiscal general de Florida- en una rueda de prensa.
Así como cuando uno, en el día a día, le pregunta a la aplicación la receta de una comida o los pasos para hacer una actividad. De este modo hizo Ikner, generó una secuencia de preguntas e interacción con la IA, la cual le daba sugerencias relativas al arma y a la munición adecuadas, así como al momento y los lugares propicios para alcanzar al mayor número posible de personas.
El fiscal también declaró en la conferencia de prensa que si el ChatGPT fuese una persona, enfrentaría cargos por asesinato. La ley considera cómplice a todo aquel que ayude, incite o asesore a un tercero a cometer un delito.
Se han presentado demandas ante la justicia civil, en la mayoría de los casos por suicidios y no por homicidios. En enero, Google y Character AI llegaron a acuerdos amistosos con familias que acusaban a chatbots conversacionales de perjudicar a menores y de haber empujado a uno de ellos a quitarse la vida.
OpenAI indicó haber instaurado un nuevo protocolo de seguridad que activaría una alerta sobre la base de una conversación similar. Esto se dio, ya que en el marco de un tiroteo en Canadá, la familia de una victima anunció que recurriría a la justicia civil contra OpenAI por negligencia. Le reprocha a la empresa no haber alertado a la policía sobre inquietantes mensajes escritos en ChatGPT por la presunta autora del ataque.
Comentarios