Newsom vetó el proyecto de ley de “seguridad” de la IA

El gobernador de California, Gavin Newsom, vetó el domingo un proyecto de ley sobre inteligencia artificial destinado a limitar la industria de la IA en rápido crecimiento.

El proyecto de ley fue presentado por el senador estatal demócrata Scott Weiner. “seguridad” fue mencionada 42 veces y señaló varios refugios que podía ver.

“Implementará la capacidad de cerrar inmediatamente por completo” cualquier modelo de IA, además de proporcionar a los desarrolladores un “protocolo de seguridad escrito y separado” que estará disponible para el público.

La SB 1047 también requiere que los desarrolladores de IA garanticen que “el desarrollo y despliegue de la inteligencia artificial sea seguro, ético, equitativo y sostenible”. Esto se haría, entre otras medidas, para “ampliar el acceso a los recursos informáticos”, aunque el proyecto de ley no dice a quién en particular.

Newsom ya había indicado que vetaría la SB 1047 antes del domingo. El gobernador demócrata, hablando en la conferencia Dreamforce de Salesforce a principios de este mes, dijo que California debería estar de acuerdo con la regulación de la IA. Pero la SB 1047, dijo, no es la forma correcta de abordarlo porque tendría un “efecto paralizador en la industria”.

Después del veto del domingo, Newsom dijo que el proyecto de ley tenía “buenas intenciones” pero que por lo demás era inadecuado.

“La SB 1047 no tiene en cuenta si un sistema de IA se implementa en entornos de alto riesgo, implica una toma de decisiones críticas o utiliza datos confidenciales”, dijo Newsom. “En cambio, el proyecto de ley aplica estándares más estrictos incluso a las funciones básicas, hasta que un sistema grande pueda acomodarlas. No creo que ese sea el mejor enfoque para proteger al público de amenazas tecnológicas reales”.

Además de Newsom, el jefe de OpenAI y Meta, Yann LeCun, también se pronunció recientemente en contra del proyecto de ley.

El borrador dice que si la IA “no es controlada adecuadamente por humanos”, podría plantear graves riesgos para la seguridad pública. Incluye modelos de inteligencia artificial no autorizados que “permiten la creación y proliferación de armas de destrucción masiva”, además de liderar ciberataques.

El domingo, Weiner dijo que el veto era “un revés para cualquiera que crea en el control de las corporaciones gigantes que toman decisiones importantes que afectan la seguridad y el bienestar de la sociedad y el futuro del planeta”.

Fuente