Fiscalía de EU abre causa penal por IA

Investigan rol de chatbot en tiroteo de una universidad

› DIÁLOGOS PREVIOS del atacante con inteligencia en revisión; solicitan protocolos de seguridad, datos y políticas de empresa tecnológica; OpenAI rechaza responsabilidad

UNIVERSIDAD Estatal de Florida, el 17 de abril del 2025.
UNIVERSIDAD Estatal de Florida, el 17 de abril del 2025. Foto: Reuters

El fiscal general de Florida, James Uthmeier, anunció ayer el inicio de una investigación criminal contra OpenAI y su herramienta ChatGPT por su presunto vínculo con un tiroteo ocurrido en 2025 en la Universidad Estatal de Florida, donde murieron dos personas y al menos seis más resultaron heridas.

La indagatoria se originó tras una revisión inicial de conversaciones entre el sistema de Inteligencia Artificial y Phoenix Ikner, estudiante acusado del ataque. De acuerdo con el fiscal, el chatbot proporcionó “asesoramiento significativo” previo a los hechos, incluyendo sugerencias sobre tipos de armas, municiones y condiciones para ejecutar el ataque. También se mencionó que el sistema respondió sobre el momento del día con mayor afluencia de personas y zonas del campus con mayor concentración.

  • EL DATO: LA INVESTIGACIÓN en curso podría sentar un precedente relevante sobre los alcances de responsabilidad de las plataformas de Inteligencia Artificial en hechos delictivos.

Durante una conferencia, James Uthmeier sostuvo que, si se tratara de una persona, enfrentaría cargos por asesinato. Explicó que la legislación estatal contempla responsabilidad penal para quien “ayude, incite o aconseje” la comisión de un delito, por lo que el proceso buscará determinar si existe implicación jurídica por parte de la empresa.

Como parte de las diligencias, autoridades emitieron un citatorio para que la compañía entregue políticas internas, materiales de entrenamiento, protocolos de seguridad y datos sobre su cooperación con las fuerzas del orden. También solicitaron información sobre su estructura operativa, incluidos directivos, gerentes y empleados, con el fin de evaluar los mecanismos de prevención de riesgos.

El comisionado del Departamento de Aplicación de la Ley estatal, Mark Glass, advirtió que el caso refleja los riesgos asociados al uso de tecnologías emergentes, y subrayó la necesidad de fortalecer la vigilancia sobre su impacto en las comunidades.

En respuesta, una portavoz de OpenAI afirmó que el tiroteo fue una tragedia, pero rechazó cualquier responsabilidad. Señaló que la empresa identificó una cuenta vinculada con el sospechoso y compartió esa información con las autoridades de forma proactiva. Añadió que el sistema proporcionó respuestas basadas en información pública disponible en Internet y que no fomentó actividades ilegales o perjudiciales.

El caso se inscribe en un contexto de creciente presión regulatoria sobre la Inteligencia Artificial. En marzo pasado, se dio a conocer una demanda contra otro chatbot, acusado de inducir a un usuario al suicidio bajo la creencia de una relación personal, lo que ha intensificado el escrutinio sobre estas tecnologías. En tanto, el gobernador Ron DeSantis impulsó iniciativas para establecer salvaguardas, que incluyen propuestas de regulación sobre centros de datos y protección a usuarios vulnerables. Incluso se planteó una “Carta de Derechos de la Inteligencia Artificial”, orientada a establecer límites y transparencia en su uso.

  • Mil 500 iniciativas sobre regulaciones de IA hay en EU en 2026

Mientras que el mandatario estadounidense, Donald Trump, ha advertido sobre los riesgos de una fragmentación regulatoria, promoviendo en cambio una normativa federal que unifique criterios. Mientras tanto, distintos estados han avanzado con propuestas propias, lo que configura un escenario legal en evolución.