El triatlón de la regulación europea de IA
sábado, 24 de agosto de 2024
Ambos eventos han requerido años de trabajo que no garantizan su éxito y no han concluido con la realización de la prueba o la entrada en vigor del Reglamento
Jesús Lozano
En este verano olímpico un asunto regulatorio mucho menos vistoso que los Juegos mantiene ocupados a autoridades y organizaciones en la Unión Europea: la implementación del Reglamento de Inteligencia Artificial (IA).
Aunque el Reglamento entró en vigor el pasado 1 de agosto, sus requisitos serán exigibles fundamentalmente en tres momentos posteriores. En primer lugar, el 28 de febrero de 2025, prácticas consideradas inaceptables como la implantación de sistemas de crédito social serán definitivamente prohibidas. Posteriormente, el 2 de agosto de 2025, los modelos de IA de propósito general, como ChatGPT de OpenAI, deberán adaptarse a los requisitos del reglamento. Finalmente, el 2 de agosto de 2026, los sistemas de IA de alto riesgo y los sometidos a obligaciones de transparencia deberán cumplir requisitos específicos. El hecho de que la implementación se haga en tres fases y que tanto la realización de la prueba de triatlón en el Sena como la elaboración del Reglamento de IA hayan sido muy comentadas en los medios generalistas, invita a hacer paralelismos entre ambos acontecimientos.
El principal de ellos es que ambos eventos han requerido años de trabajo que no garantizan su éxito y no han concluido con la realización de la prueba o la entrada en vigor del Reglamento.
En lo que atañe al Reglamento, recientemente se ha establecido la Oficina de la IA y se ha reunido por primera vez el Consejo de la IA. Ambos organismos europeos desarrollarán normativas secundarias concretando algunos aspectos del Reglamento y coordinarán a las autoridades nacionales competentes.
Sin embargo, al igual que el triatlón engloba pruebas de natación, ciclismo y carrera, la implementación del Reglamento de la IA incluye, entre otras muchas, tres pruebas clave: establecer un marco de gobernanza claro, definir con precisión qué se considera “Inteligencia Artificial” y detallar los requisitos para sistemas de IA de propósito general.
Estos retos, aunque menos visibles que los Juegos Olímpicos, son esenciales para la implementación efectiva del Reglamento y fomentar el desarrollo y adopción de la IA en la UE. En lo que se refiere al marco de gobernanza, es crucial aclararlo cuanto antes para evitar una competición entre autoridades aspirantes a supervisores. Como la que parece anunciar el reciente comunicado del Comité Europeo de Protección de Datos. Este organismo europeo argumenta que las agencias de protección de datos deberían ser designadas por los Estados Miembros como supervisores de los casos de uso de alto riesgo, ignorando que en esta tecnología concurren elementos más allá de la protección de los datos y que en países como España ya se ha creado un supervisor específico.
En paralelo, la Comisión Europea ha lanzado una consulta sobre el uso de la IA en el sector financiero, que, amparada en la designación por defecto de las autoridades financieras como supervisores de esta tecnología en el sector financiero, pretende identificar aspectos normativos que requieran clarificación o apoyo y, posiblemente, evitar que se ponga en duda la designación como supervisores de las autoridades financieras. En cuanto a la definición de IA, desde el inicio de las negociaciones del Reglamento proveedores, desarrolladores y usuarios han mostrado preocupación por cómo una definición amplia de IA podría provocar la aplicación inconsistente del Reglamento y sembrar confusión en varios sectores.