OpenAI está lanzando su apoyo a un proyecto de ley del estado de Illinois que protegería a los laboratorios de IA de toda responsabilidad en los casos en que los modelos de IA se utilicen para causar daños sociales graves, como la muerte o lesiones graves de 100 o más personas o al menos mil millones de dólares en daños a la propiedad.
El esfuerzo parece marcar un cambio en la estrategia legislativa de OpenAI. Hasta ahora, OpenAI ha jugado en gran medida a la defensiva, oponiéndose a proyectos de ley que podrían haber responsabilizado a los laboratorios de IA por los daños de su tecnología. Varios expertos en políticas de IA le dijeron a WIRED que la SB 3444, que podría establecer un nuevo estándar para la industria, es una medida más extrema que los proyectos de ley que OpenAI ha apoyado en el pasado.
El proyecto de ley protegería a los desarrolladores de inteligencia artificial fronteriza de la responsabilidad por “daños críticos” causados por sus modelos fronterizos, siempre y cuando no hayan causado tal incidente de manera intencional o imprudente y hayan publicado informes de seguridad y transparencia en su sitio web. Define un modelo de frontera como cualquier modelo de IA entrenado con más de 100 millones de dólares en costos computacionales, que probablemente podría aplicarse a los laboratorios de IA más grandes de Estados Unidos, como OpenAI, Google, xAI, Anthropic y Meta.
"Apoyamos enfoques como este porque se centran en lo que más importa: reducir el riesgo de daños graves causados por los sistemas de inteligencia artificial más avanzados y al mismo tiempo permitir que esta tecnología llegue a manos de las personas y empresas, pequeñas y grandes, de Illinois", dijo el portavoz de OpenAI, Jamie Radice, en una declaración enviada por correo electrónico. "También ayudan a evitar un mosaico de reglas estado por estado y avanzar hacia estándares nacionales más claros y consistentes".
Según su definición de daños críticos, el proyecto de ley enumera algunas áreas comunes de preocupación para la industria de la IA, como que un mal actor utilice la IA para crear un arma química, biológica, radiológica o nuclear. Si un modelo de IA se involucra en una conducta que, si la comete un ser humano, constituiría un delito penal y conduce a esos resultados extremos, eso también sería un daño crítico. Si un modelo de IA cometiera alguna de estas acciones según la SB 3444, el laboratorio de IA detrás del modelo no podría ser considerado responsable, siempre y cuando no fuera intencional y publicaran sus informes.
Las legislaturas federales y estatales de EE. UU. aún no han aprobado ninguna ley que determine específicamente si los desarrolladores de modelos de IA, como OpenAI, podrían ser responsables de este tipo de daños causados por su tecnología. Pero a medida que los laboratorios de IA continúan lanzando modelos de IA más potentes que plantean nuevos desafíos de seguridad y ciberseguridad, como Claude Mythos de Anthropic, estas preguntas parecen cada vez más proféticas.
En su testimonio en apoyo de la SB 3444, Caitlin Niedermeyer, miembro del equipo de Asuntos Globales de OpenAI, también argumentó a favor de un marco federal para la regulación de la IA. Niedermeyer lanzó un mensaje que es consistente con la represión de la administración Trump contra las leyes estatales de seguridad de la IA, afirmando que es importante evitar "un mosaico de requisitos estatales inconsistentes que podrían crear fricciones sin mejorar significativamente la seguridad". Esto también es consistente con la visión más amplia de Silicon Valley en los últimos años, que en general ha argumentado que es primordial que la legislación sobre IA no obstaculice la posición de Estados Unidos en la carrera global de IA. Si bien la SB 3444 es en sí misma una ley de seguridad a nivel estatal, Niedermeyer argumentó que pueden ser efectivas si “refuerzan un camino hacia la armonización con los sistemas federales”.
"En OpenAI, creemos que la estrella polar para la regulación fronteriza debería ser el despliegue seguro de los modelos más avanzados de una manera que también preserve el liderazgo de Estados Unidos en innovación", dijo Niedermeyer.
Scott Wisor, director de políticas del proyecto Secure AI, le dice a WIRED que cree que este proyecto de ley tiene pocas posibilidades de ser aprobado, dada la reputación de Illinois de regular agresivamente la tecnología. "Encuestamos a personas en Illinois, preguntándoles si creen que las empresas de IA deberían estar exentas de responsabilidad, y el 90 por ciento de las personas se oponen. No hay ninguna razón por la que las empresas de IA existentes deban enfrentar una responsabilidad reducida", dice Wisor.

Deja una respuesta