El tesina de ley habría requerido probar modelos de IA para certificar que no provoquen muertes masivas, ataques a infraestructuras públicas o ataques cibernéticos.
Si Newsom hubiera promulgado el tesina de ley, habría requerido probar los modelos de inteligencia sintético para certificar que no provoquen muertes masivas, ataques a la infraestructura pública o ataques cibernéticos.
La estatuto incluso habría creado protecciones para los denunciantes, así como una montón pública para el progreso de la IA para el admisiblemente notorio.
La SB 1047 incluso habría creado la Acoplamiento de Frontier Models, una entidad del estado de California, para monitorear el progreso de modelos de IA.
Además dijo que el tesina de ley regula la IA de guisa normal y carece de un investigación empírico de las amenazas reales que plantea.
“Es posible que se justifique un enfoque exclusivo de California, especialmente en desaparición de una obra federal por parte del Congreso, pero debe demostrar en evidencia empírica y científica”, escribió.
Newsom incluso discrepó con el hecho de que el tesina de ley se aplica principalmente a modelos costosos de IA: aquellos cuyo progreso cuesta más de 100 millones de dólares o que requieren más de una cierta cantidad de potencia informática para entrenarlos. En opinión del administrador, los modelos de IA económicos podrían representar una amenaza igual para el admisiblemente notorio o la infraestructura crítica.
“Los modelos más pequeños y especializados pueden resultar igual o incluso más peligrosos que los modelos a los que se dirige la SB 1047”, escribió Newsom.
El administrador dijo que la estatuto podría frenar los avances en interés del admisiblemente notorio. Por esa razón, Newsom cree que la SB 1047 podría dar al notorio “una falsa sensación de seguridad” en lo que respecta a la IA.
Por otra parte, Newsom dijo que la SB 1047 no considera si un maniquí de IA se implementa en entornos de detención peligro o utiliza información confidencial.
“En cambio, el tesina de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que lo implemente un sistema conspicuo”, escribió Newsom. “No creo que este sea el mejor enfoque para proteger al notorio de las amenazas reales que plantea la tecnología”.
Newsom dijo que cree que California debe aprobar una ley para regular la IA y que sigue “comprometido a trabajar con la Asamblea, los socios federales” y otros en el estado y la nación para “encontrar el camino adecuado a seguir, incluida la estatuto y la regulación”. “
El senador demócrata de San Francisco, Scott Wiener, autor del tesina de ley, dijo que el veto era “una oportunidad perdida para que California lidere una vez más la regulación tecnológica innovadora” y “un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas”. en lo que respecta al uso de la IA.
Los partidarios del tesina de ley incluyen a Elon Musk, la startup de inteligencia sintético Anthropic, el Centro para la seguridad de la inteligencia sintético, la estructura sin fines de utilidad de hacienda tecnológico Encode Justice, la Estructura Franquista de Mujeres y denunciantes de la empresa de inteligencia sintético OpenAI, entre otros.
El historial de críticas de Elon Musk a los legisladores de California hizo que su respaldo a la SB 1047 fuera una sorpresa.
Otros partidarios incluyen el Sindicato Internacional de Empleados de Servicios, la Fundación de la Comunidad Latina y SAG-AFTRA.
Entre los opositores al tesina de ley se encontraban gigantes tecnológicos como Google, Meta y OpenAI, quienes dijeron que el tesina de ley socavaría la posesiones de California y la industria de la inteligencia sintético.
Varios miembros de la delegación del Congreso de California pidieron a Newsom que vetara el tesina de ley ayer de que la Asamblea de California lo aprobara el mes pasado en una votación rotundo.
“Agradecemos al administrador Newsom por el veto de la SB 1047. Los esfuerzos regulatorios para promover la seguridad de la #AI son fundamentales, pero la SB 1047 falló en aspectos secreto”, escribió la presidenta y directora ejecutiva de la Cámara, Jennifer Barrera. “Como consecuencia, el tesina de ley habría sofocado la innovación en IA, poniendo en enorme peligro el espacio de California como centro mundial de innovación”.
Otros proyectos de ley exigen que las empresas compartan información sobre cómo utilizan los datos para entrenar modelos generativos de IA, así como que proporcionen herramientas para que los consumidores puedan ver si un determinado medio está creado o no por humanos o por IA.
El veto de la SB 1047 descarrila los esfuerzos de la Asamblea de California para alinear la regulación estatal sobre IA con la Ley de IA de la Unión Europea.
En septiembre de 2023, Newsom emitió una orden ejecutiva que instruía a las agencias de California a realizar evaluaciones de peligro de las amenazas y vulnerabilidades que la IA representa para la infraestructura crítica de California.
El Instituto de Seguridad de USAI, dependiente del Instituto Franquista de Ciencia y Tecnología, está creando directrices sobre riesgos de seguridad. Newsom dijo que el enfoque de la agencia federal implica “enfoques basados en evidencia” para proteger al notorio.