Florida investiga a OpenAI por posibles daños a niños y permitir el uso criminal de su IA

Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

La Fiscalía General de Florida, Estados Unidos, inició una investigación contra OpenAI al considerar que la tecnología de la startup podría representar un riesgo para la seguridad pública y nacional. El fiscal estatal, James Uthmeier, aseguró que la medida “exige respuestas sobre las actividades de OpenAI que han dañado a niños, puesto en peligro a los estadounidenses y facilitado el reciente tiroteo masivo en la Universidad Estatal de Florida (FSU)”.

A través de un video publicado en sus redes sociales, Uthmeier señaló presuntos vínculos entre ChatGPT y casos de autolesiones en menores de edad, así como con conductas delictivas como la generación de material de abuso sexual infantil. El fiscal precisó que su oficina también considera “probable” que el chatbot de la compañía haya sido utilizado para asistir a Phoenix Ikner, presunto autor de un tiroteo en la FSU que, en abril del año pasado, dejó dos personas muertas y cinco heridas.


Moderno edificio de oficinas de cristal con pasarela y zona de estar ajardinada, sede de la empresa de inteligencia artificial OpenAI, San Francisco, California, 27 de mayo de 2025.

El equipo de política de modelos dirige partes fundamentales de la investigación sobre la seguridad de la IA, incluido el modo en que ChatGPT responde a los usuarios en crisis.


El titular de la fiscalía de Florida añadió que existen preocupaciones de que los datos y las tecnologías de OpenAI puedan caer “en manos de los enemigos de Estados Unidos, como el Partido Comunista Chino”.

Uthmeier sostuvo que la inteligencia artificial (IA) debe funcionar como una herramienta para apoyar y promover el avance de la humanidad, y no como un factor capaz de provocar “una crisis existencial o nuestra desaparición definitiva”. El funcionario afirmó que, a medida que se desarrollan estas tecnologías, las empresas del sector no deben poner en riesgo la seguridad de la sociedad.

“Apoyamos la innovación, pero eso no le da a ninguna empresa el derecho de poner en peligro a nuestros hijos, facilitar actividades delictivas, empoderar a los enemigos de Estados Unidos ni amenazar nuestra seguridad nacional. Las empresas que lo hagan rendirán cuentas con todo el peso de la ley”, sentenció el fiscal.

Hasta el momento, se desconoce el alcance que tendrá la investigación. Sin embargo, el titular de la fiscalía adelantó que las citaciones judiciales se emitirán “próximamente”.

OpenAI busca garantizar la protección infantil

La apertura del proceso en Florida ocurre en un contexto de creciente escrutinio hacia OpenAI por los posibles riesgos y usos indebidos de su tecnología. En días recientes, familiares de una víctima del tiroteo en la FSU presentaron una demanda contra la startup, al argumentar que ChatGPT “pudo haber aconsejado al agresor sobre cómo cometer estos crímenes”.

En una línea similar, en septiembre del año pasado, los fiscales de California, Rob Bonta, y de Delaware, Kathy Jennings, enviaron un escrito a la compañía dirigida por Sam Altman para expresar su preocupación por el aumento de reportes sobre la interacción de sus productos con menores y sus posibles efectos nocivos.

En respuesta a estas inquietudes, OpenAI presentó esta semana un plan estratégico que busca fortalecer los marcos de protección infantil en Estados Unidos ante el avance de la IA.

La estrategia se centra en tres ejes principales: modernizar las leyes para abordar el material de abuso sexual infantil generado o alterado mediante inteligencia artificial; mejorar los mecanismos de reporte y la coordinación entre proveedores para respaldar investigaciones más eficaces; e incorporar medidas de seguridad desde el diseño en los sistemas de IA para prevenir y detectar usos indebidos.

“Estas acciones permiten al sector atender la seguridad infantil de forma más temprana y eficaz. Al interrumpir intentos de explotación con mayor anticipación, mejorar la calidad de las señales enviadas a las fuerzas del orden y fortalecer la rendición de cuentas en todo el ecosistema, este marco busca prevenir daños antes de que ocurran y contribuir a garantizar una protección más rápida para los niños cuando surgen riesgos”, concluyó la empresa.