The Epoch Times

Apple se unió el viernes a más de una docena de importantes empresas tecnológicas que se comprometieron a cumplir las directrices de la sucursal Biden para el progreso de inteligencia fabricado (IA), según la Casa Blanca, que examen mitigar los riesgos relacionados con la IA.

“Hoy, la sucursal anunció que Apple ha firmado los compromisos voluntarios, consolidando aún más estos compromisos como piedras angulares de la innovación responsable en IA”, dijo la Casa Blanca en un comunicado de prensa del 26 de julio, que incluso brindó una puesta al día sobre las acciones de la agencia federal en la marca de 270 días a posteriori de la orden ejecutiva del presidente Joe Biden que establece nuevos estándares para la seguridad y protección de la IA.

Con esta medida, Apple se suma a otras 15 empresas, incluidas Amazon, Google, Meta, Microsoft y OpenAI, que se comprometen a desarrollar IA para incluir la concesión de camino gubernativo a los resultados de las pruebas de los modelos de IA de las empresas para evaluar sesgos y riesgos de seguridad.

El compromiso de Apple de cumplir con el pacto voluntario de IA se realizó mientras el hércules tecnológico reto por la IA generativa, anunciando en junio el impulso de su sistema “Apple Intelligence” que pretende desbloquear nuevas formas de rendir la tecnología combinando IA generativa y “contexto personal”.

Según las directrices, los desarrolladores de IA, como Apple, prometen cumplir con nuevos estándares y pruebas rigurosos para sus modelos de IA. Esto incluye someter sus modelos a pruebas de “equipo rojo”, que simulan ataques de piratas informáticos adversarios para probar la solidez de las medidas de seguridad de los modelos. Un objetivo secreto de las pruebas de estrés es mitigar la amenaza potencial que los sistemas de IA representan para la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad.

Las empresas que han firmado el compromiso incluso se comprometen a desarrollar sus modelos de IA de una modo que incorpore características que preserven la privacidad de los usuarios y al mismo tiempo respeten las pautas que desarrollará el Sección de Comercio para proteger a los estadounidenses del fraude y el simulación habilitados por la IA.

La orden ejecutiva del presidente Biden incluso encargó a las agencias federales desarrollar varios estándares y pautas relacionados con la IA.

La Casa Blanca dijo que varias agencias, incluido el Sección de Comercio, el Sección de Energía y el Sección de Defensa, han publicado nuevas pautas para alertar el uso indebido de la IA, han ampliado los bancos de pruebas de IA y han abordado las vulnerabilidades relacionadas con la IA en las redes gubernamentales.

Por ejemplo, el Sección de Comercio anunció el viernes que su Instituto Doméstico de Estándares y Tecnología (NIST) ha publicado tres documentos de orientación finales: el primero para tramitar los riesgos de la IA generativa, el segundo para tocar las preocupaciones sobre datos de entrenamiento maliciosos que afectan negativamente a los sistemas de IA generativa, y el tercero para proporcionar pautas para promover la transparencia en torno al origen y la detección de contenido “sintético” que ha sido creado o reformado por la IA.

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »
Shares