Tecnología

Aseguran que ChatGPT "alentó" al atacante de un tiroteo en EEUU que causó dos muertes

El tiroteo ocurrido el año pasado en la Universidad de Florida – que dejó un saldo de 2 muertos y al menos 5 heridos – abrió un nuevo frente legal para OpenAI y volvió a poner en el centro el debate por los límites y las barreras de seguridad – guardrails – que deben implementar las herramientas de inteligencia fabricado. En los últimos días, la comunidad de una de las víctimas fatales presentó este domingo una demanda en Tallahassee contra la compañía, al denunciar a ChatGPT de sobrevenir “avivado y alentado” los “delirios” del supuesto atacante, Phoenix Ikner.

La presentación legal llega pocas semanas posteriormente de que el fiscal universal de Florida, James Uthmeier, iniciara la primera investigación penal contra OpenAI para determinar si la empresa podría tener algún cargo de “responsabilidad penal” en relación con el ataque.

OpenAI afronta una nueva denuncia contra ChatGPT

La comunidad de Tiru Chabba —una de las dos personas asesinadas durante el tiroteo de abril de 2025, según la policía— sostiene que Ikner mantuvo miles de interacciones con ChatGPT antaño de rasgar fuego en el campus universitario.

Según la demanda, el chatbot habría colaborado en distintos aspectos de la planificación del ataque. Entre otras cuestiones, aseguran que respondió consultas sobre manejo de armas y abastecimiento adentro de la universidad, incluyendo recomendaciones vinculadas al momento de anciano circulación de personas en el campus.

Phoenix Ikner, el atacante de la Universidad de Florida.

La presentación incluso afirma que Ikner subió imágenes de armas y municiones para que fueran identificadas por ChatGPT. De acuerdo con el expediente, el sistema incluso describió la pistola Glock utilizada como un armas diseñada para dispararse “de uso rápido bajo estrés” y sugirió proseguir el dedo fuera del percutor hasta estar dinámico para disparar.

Para los demandantes, ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”. El ataque dejó adicionalmente otras seis personas heridas. Ikner se declaró inocente y el inicio del sumario está previsto para octubre.

La comunidad impulsa cargos por asesinato por negligencia, negligencia agonizante, responsabilidad por productos defectuosos y yerro de advertencias, entre otros puntos. “OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, sostiene la demanda.

En este sentido, el disputa ahonda: “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.

Los abogados de la comunidad Chabba reclaman una compensación económica aún no especificada y exigen que OpenAI incorpore mayores barreras de seguridad en ChatGPT. Amy Willbanks, representante legítimo de la comunidad, advirtió que la compañía debería someter y eliminar los riesgos asociados al uso notorio del chatbot antaño de seguir ampliando su acercamiento.

“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, declaró Willbanks durante una conferencia de prensa.

Desde OpenAI respondieron que, si adecuadamente el tiroteo en FSU fue una “tragedia”, ChatGPT “no es responsable”.

Desde OpenAI remarcaron que ChatGPT “no es responsable» del ataque en la universidad y agregaron: «ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”.

“Trabajamos continuamente para fortalecer nuestras salvaguardas a fin de detectar intenciones dañinas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos de seguridad”, sentenciaron desde la empresa.

La compañía había explicado el mes pasado, a través de una publicación oficial, que trabaja en nuevos sistemas para detectar conversaciones que puedan derivar en “amenazas, daño potencial a otros o planificación en el mundo real”. Según detalló OpenAI, cuando una cuenta es marcada internamente por comportamientos de peligro, un revisor humano analiza la actividad para determinar si corresponde advertir a las autoridades.

La ola de denuncias contra ChatGPT

El caso de Florida se suma a una creciente ola de litigios contra OpenAI. La empresa enfrenta al menos diez demandas impulsadas por familias que sostienen que distintas personas se dañaron a sí mismas o a terceros tras interactuar con ChatGPT.

En paralelo, siete familias de víctimas de otro tiroteo escolar ocurrido en Canadá en febrero incluso demandaron recientemente a OpenAI y a su CEO, Sam Altman. Allí acusan tanto a la compañía como al chatbot de sobrevenir sido cómplices en las lesiones y muertes provocadas durante el ataque.

Las acciones judiciales aparecieron poco posteriormente de que Altman pidiera disculpas públicamente a la comunidad de Tumbler Ridge, en la provincia canadiense de Columbia Británica, por no sobrevenir alertado a las autoridades sobre las conversaciones mantenidas entre el atacante y ChatGPT, incluso posteriormente de que la cuenta fuera marcada por empleados de la empresa. En aquel episodio murieron ocho personas, entre ellas seis niños, antaño de que el asaltante se suicidara.

Fuente: Ambito.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba