Momento crucial para la regulación de la IA en la UE: ¿Quién liderará el código de prácticas de la GPAI?

Por Kai Zenner, cabecilla de oficina, eurodiputado Axel Voss; Cornelia Kutterer, directora militar de Considerati

Las opiniones expresadas en este artículo son las del autor y no representan de ninguna forma la posición editorial de Euronews.

La experiencia y la visión de los (vice)presidentes serán cruciales para orientar las normas GPAI para el futuro y certificar que perdure el maniquí europeo de confiabilidad en el ecosistema de IA, escriben Kai Zenner y Cornelia Kutterer.

En las próximas tres semanas, la Oficina de IA probablemente designará a un reunión importante de personas externas que darán forma a la implementación de una parte secreto de la Ley de IA de la UE: los presidentes y vicepresidentes del Código de prácticas para modelos de IA de propósito militar (GPAI).

Para dedicar algunos historial: el auge de la IA generativa (incluidas aplicaciones populares como ChatGPT de OpenAI) no solo fue disruptivo en términos económicos, sino que todavía creó una tensión política al final de las negociaciones del trílogo de la Ley de IA.

A Estados miembros como Francia, Alemania e Italia les preocupaba que una intervención regulatoria en las bases de la pila de IA fuera prematura y frenara a empresas emergentes de la UE como Mistral o Aleph Alpha, aunque —se recuerda— Francia logró cambiar de postura varias veces antiguamente de adoptar esta postura.

En el caso del Parlamento Europeo, la situación era totalmente opuesta: preocupado por la concentración del mercado y las posibles violaciones de los derechos fundamentales, propuso un entorno legal integral para la IA generativa, o, como se bautizó en la ley final, modelos GPAI.

Frente a estas opiniones contrarias, los colegisladores de la UE optaron por una tercera vía, un enfoque corregulador que especifica las obligaciones de los proveedores de modelos GPAI en códigos y normas técnicas.

Fue en particular el Comisario Thierry Breton quien sugirió utilizar este aparato, tomando prestada una página del Código de Buenas Prácticas sobre la Desinformación de 2022.

Las similitudes fundamentales se esconden más allá del enfoque de gobernanza, lo que hace que los códigos flexibles sean particularmente apropiados para la seguridad de la IA: la tecnología en rápida desarrollo, los títulos sociotécnicos y las complejidades de las políticas de contenido y las decisiones de moderación.

Sin secuestro, no todo el mundo está de acuerdo en que los códigos sean el aparato regulatorio adecuado. Sus críticos señalan el peligro de que las empresas se comprometan sólo con el pequeño y hagan demasiado poco y demasiado tarde.

Esa fue al menos todavía la impresión que tuvieron muchos auditores de la interpretación original del Código de Buenas Prácticas sobre Desinformación de la UE en 2018.

A posteriori de una revisión severa, el equipo de desinformación de la Comisión presionó a las empresas para que hicieran mejor las cosas, convocó a la sociedad civil a la mesa y presionó a los participantes para que designaran a un escolar independiente para presidir el proceso.

Técnicamente viable y conveniente a la innovación

La buena nota es que —volviendo a los próximos nombramientos de (vice)presidentes a mediados de septiembre— la Oficina de IA todavía ha utilizado esa experiencia específica como maniquí para su enfoque corregulador de la GPAI.

El 30 de junio propuso un sistema de gobernanza sólido para la elaboración de los códigos de prácticas de la GPAI por medio de cuatro grupos de trabajo.

De esta forma, todos los interesados ​​tienen múltiples oportunidades de contribuir y dar forma al texto final, en particular mediante una consulta pública y tres sesiones plenarias. Las empresas de GPAI seguirán dominando el proceso de redacción, ya que se las invita a participar en talleres adicionales.

Siquiera están obligados a agregarse a los resultados finales, ya que los códigos son voluntarios.

Al retornar la perspicacia al Código sobre Desinformación, es calibrado sostener que los criterios de independencia de los (Vice)Presidentes serán cruciales para asegurar la credibilidad y el seguridad adecuado del proceso de redacción.

Las personas designadas tendrán mucha influencia, ya que son de facto los encargados de redactar los textos y presidir los cuatro grupos de trabajo.

Una novena cátedra adicional podría incluso desempeñar una función de coordinación. Juntos, podrían tratar de conseguir el seguridad adecuado entre normas ambiciosas en perspicacia de los riesgos sistémicos y, al mismo tiempo, proseguir las obligaciones técnicamente viables y favorables a la innovación.

Su objetivo debería ser conseguir un Código GPAI que refleje una interpretación pragmática del estado del arte. Para conseguir la más suscripción calidad, la Oficina de IA debería decidir a los (vice)presidentes por mérito: sólidos conocimientos técnicos, sociotécnicos o de gobernanza sobre los modelos GPAI combinados con experiencia destreza sobre cómo aguantar a promontorio el trabajo de los comités en un tablado europeo o internacional.

Una alternativa de suma importancia

El proceso de selección será complicado. La seguridad de la IA es un campo de investigación incipiente y en desarrollo, afectado por el prueba y error.

La Oficina de IA debe topar una amplia grado de historial profesionales, equilibrar una gran cantidad de intereses examinados y agregarse a las consideraciones típicas de la UE sobre riqueza de países y de tipo, todo ello reconociendo al mismo tiempo que muchos de los principales expertos en seguridad de la IA tienen su pulvínulo fuera de la UE.

Lógicamente, el Código GPAI debe centrarse en los títulos de la UE, y es importante certificar una sólida representación de la UE entre los (vice)presidentes. Sin secuestro, dada su importancia mundial y el hecho de que la Ley de IA exige que se tengan en cuenta los enfoques internacionales, numerosos expertos internacionales de prestigio han expresado su interés en estos puestos.

Asimismo sería un triunfo para la UE designar a un número significativo de expertos de renombre internacional como presidentes o vicepresidentes. Esa medida aumentaría las probabilidades de éxito, garantizaría la legalidad del código en todo momento y facilitaría la adhesión de empresas no pertenecientes a la UE al proceso.

En conclusión, la selección de los (vice)presidentes del Código GPAI es de suma importancia en esta etapa.

Su liderazgo marcará el tono de cómo evolucionará el deporte de corregulación con el tiempo, especialmente a medida que navegue por desafíos sociotécnicos complejos y políticas sensibles como los derechos de propiedad intelectual, el material zorro sexual y los umbrales críticos que determinan las obligaciones que los respectivos modelos GPAI tendrán que desavenir.

La experiencia y la visión de los (vice)presidentes serán cruciales para orientar las normas GPAI para el futuro y certificar que perdure el maniquí europeo de confiabilidad en el ecosistema de IA.

Kai Zenner es el cabecilla de oficina y asesor de política digital del eurodiputado Axel Voss (Alemania, PPE) y participó en las negociaciones de la Ley de IA a nivel técnico. Cornelia Kutterer es directora militar de Considerati, asesora de SaferAI e investigadora del instituto multidisciplinario de IA de la UGA.

En Euronews, creemos que todas las opiniones son importantes. Póngase en contacto con nosotros en view@euronews.com para cursar propuestas o propuestas y formar parte de la conversación.

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »
Shares