The Epoch Times

El tesina de ley habría requerido probar modelos de IA para certificar que no provoquen muertes masivas, ataques a infraestructuras públicas o ataques cibernéticos.

El administrador de California, Gavin Newsom, vetó el domingo un tesina de ley muy debatido para regular la inteligencia sintético (IA) apto por la Asamblea en agosto.

Si Newsom hubiera promulgado el tesina de ley, habría requerido probar los modelos de inteligencia sintético para certificar que no provoquen muertes masivas, ataques a la infraestructura pública o ataques cibernéticos.

La estatuto incluso habría creado protecciones para los denunciantes, así como una montón pública para el progreso de la IA para el admisiblemente notorio.

La SB 1047 incluso habría creado la Acoplamiento de Frontier Models, una entidad del estado de California, para monitorear el progreso de modelos de IA.

Newsom examinó minuciosamente el tesina de ley en su veto, señalando que corre el peligro de “restringir la innovación misma que impulsa el avance a valía del admisiblemente notorio”.

Además dijo que el tesina de ley regula la IA de guisa normal y carece de un investigación empírico de las amenazas reales que plantea.

“Es posible que se justifique un enfoque exclusivo de California, especialmente en desaparición de una obra federal por parte del Congreso, pero debe demostrar en evidencia empírica y científica”, escribió.

Newsom incluso discrepó con el hecho de que el tesina de ley se aplica principalmente a modelos costosos de IA: aquellos cuyo progreso cuesta más de 100 millones de dólares o que requieren más de una cierta cantidad de potencia informática para entrenarlos. En opinión del administrador, los modelos de IA económicos podrían representar una amenaza igual para el admisiblemente notorio o la infraestructura crítica.

“Los modelos más pequeños y especializados pueden resultar igual o incluso más peligrosos que los modelos a los que se dirige la SB 1047”, escribió Newsom.

El administrador dijo que la estatuto podría frenar los avances en interés del admisiblemente notorio. Por esa razón, Newsom cree que la SB 1047 podría dar al notorio “una falsa sensación de seguridad” en lo que respecta a la IA.

Por otra parte, Newsom dijo que la SB 1047 no considera si un maniquí de IA se implementa en entornos de detención peligro o utiliza información confidencial.

“En cambio, el tesina de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que lo implemente un sistema conspicuo”, escribió Newsom. “No creo que este sea el mejor enfoque para proteger al notorio de las amenazas reales que plantea la tecnología”.

Newsom dijo que cree que California debe aprobar una ley para regular la IA y que sigue “comprometido a trabajar con la Asamblea, los socios federales” y otros en el estado y la nación para “encontrar el camino adecuado a seguir, incluida la estatuto y la regulación”. “

El senador demócrata de San Francisco, Scott Wiener, autor del tesina de ley, dijo que el veto era “una oportunidad perdida para que California lidere una vez más la regulación tecnológica innovadora” y “un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas”. en lo que respecta al uso de la IA.

Los partidarios del tesina de ley incluyen a Elon Musk, la startup de inteligencia sintético Anthropic, el Centro para la seguridad de la inteligencia sintético, la estructura sin fines de utilidad de hacienda tecnológico Encode Justice, la Estructura Franquista de Mujeres y denunciantes de la empresa de inteligencia sintético OpenAI, entre otros.

El historial de críticas de Elon Musk a los legisladores de California hizo que su respaldo a la SB 1047 fuera una sorpresa.

“Esta es una intrepidez difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el tesina de ley de seguridad de la IA SB 1047”, publicó en X, la plataforma de redes sociales de su propiedad. “Durante más de 20 abriles, he sido un defensor de la regulación de la IA, del mismo modo que regulamos cualquier producto/tecnología que sea un peligro potencial para el notorio”.

Otros partidarios incluyen el Sindicato Internacional de Empleados de Servicios, la Fundación de la Comunidad Latina y SAG-AFTRA.

Una indagación en trayecto realizada por el Instituto de Políticas de Inteligencia Sintético del 4 al 5 de agosto muestra que el 65 por ciento de los 1.000 votantes de California que respondieron apoyan la SB 1047. La indagación tiene un ganancia de error de 4,9 puntos porcentuales.

Entre los opositores al tesina de ley se encontraban gigantes tecnológicos como Google, Meta y OpenAI, quienes dijeron que el tesina de ley socavaría la posesiones de California y la industria de la inteligencia sintético.

Varios miembros de la delegación del Congreso de California pidieron a Newsom que vetara el tesina de ley ayer de que la Asamblea de California lo aprobara el mes pasado en una votación rotundo.

La Cámara de Comercio de California celebró el veto de Newsom.

“Agradecemos al administrador Newsom por el veto de la SB 1047. Los esfuerzos regulatorios para promover la seguridad de la #AI son fundamentales, pero la SB 1047 falló en aspectos secreto”, escribió la presidenta y directora ejecutiva de la Cámara, Jennifer Barrera. “Como consecuencia, el tesina de ley habría sofocado la innovación en IA, poniendo en enorme peligro el espacio de California como centro mundial de innovación”.

En septiembre, Newsom firmó aproximadamente una docena de proyectos de ley sobre diversas regulaciones de IA. Uno de esos proyectos de ley, el Esquema de Ley 2655 de la Asamblea, protege a los votantes de falsificaciones profundas y del uso de su imagen por parte de otros sin consentimiento.

Otros proyectos de ley exigen que las empresas compartan información sobre cómo utilizan los datos para entrenar modelos generativos de IA, así como que proporcionen herramientas para que los consumidores puedan ver si un determinado medio está creado o no por humanos o por IA.

El veto de la SB 1047 descarrila los esfuerzos de la Asamblea de California para alinear la regulación estatal sobre IA con la Ley de IA de la Unión Europea.

En septiembre de 2023, Newsom emitió una orden ejecutiva que instruía a las agencias de California a realizar evaluaciones de peligro de las amenazas y vulnerabilidades que la IA representa para la infraestructura crítica de California.

El Instituto de Seguridad de USAI, dependiente del Instituto Franquista de Ciencia y Tecnología, está creando directrices sobre riesgos de seguridad. Newsom dijo que el enfoque de la agencia federal implica “enfoques basados ​​en evidencia” para proteger al notorio.

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »
Shares