Así es como la Unión Europea regulará los modelos avanzados de IA como ChatGPT
sábado, 9 de diciembre de 2023
Todos los desarrolladores de sistemas de IA de propósito general deben cumplir requisitos básicos de transparencia, a menos que sean gratuitos y de código abierto
Bloomberg
La Unión Europea llegó a un acuerdo preliminar que limitaría cómo podría operar el modelo avanzado ChatGPT, en lo que se considera una parte clave de la primera regulación integral de inteligencia artificial del mundo.
Todos los desarrolladores de sistemas de IA de propósito general (modelos potentes que tienen una amplia gama de usos posibles) deben cumplir requisitos básicos de transparencia, a menos que sean gratuitos y de código abierto, según un documento de la UE al que tuvo acceso Bloomberg.
Éstas incluyen:
- Tener una política de uso aceptable
- Mantener información actualizada sobre cómo entrenaron sus modelos.
- Informar un resumen detallado de los datos utilizados para entrenar sus modelos.
- Tener una política para respetar la ley de derechos de autor.
Los modelos que se considere que plantean un “riesgo sistémico” estarían sujetos a reglas adicionales, según el documento. La UE determinaría ese riesgo en función de la cantidad de potencia informática utilizada para entrenar el modelo. El umbral se fija en aquellos modelos que utilizan más de 10 billones de billones (o septillones) de operaciones por segundo.
Actualmente, el único modelo que alcanzaría automáticamente este umbral es el GPT-4 de OpenAI, según los expertos. El brazo ejecutivo de la UE puede designar a otros dependiendo del tamaño del conjunto de datos, si tienen al menos 10.000 usuarios comerciales registrados en la UE o el número de usuarios finales registrados, entre otras posibles métricas.
Estos modelos altamente capaces deberían firmar un código de conducta mientras la Comisión Europea elabora controles más armonizados y duraderos. Aquellos que no firmen tendrán que demostrar a la comisión que cumplen con la Ley de IA. La exención para los modelos de código abierto no se aplica a aquellos que se considera que representan un riesgo sistémico.
Estos modelos también tendrían que:
- Informar su consumo de energía
- Realizar pruebas de equipo rojo o adversarios, ya sea interna o externamente
- Evaluar y mitigar posibles riesgos sistémicos y reportar cualquier incidente
- Asegúrese de que estén utilizando controles de ciberseguridad adecuados
- Informar la información utilizada para ajustar el modelo y la arquitectura de su sistema
- Cumplir con estándares más eficientes energéticamente si se desarrollan
El acuerdo provisional aún debe ser aprobado por el Parlamento Europeo y los 27 estados miembros de la UE. Francia y Alemania han expresado anteriormente su preocupación por la aplicación de demasiada regulación a los modelos de IA de uso general y el riesgo de acabar con competidores europeos como el Mistral AI de Francia o el Aleph Alpha de Alemania.
Por ahora, Mistral probablemente no necesitará cumplir con los controles de IA de propósito general porque la compañía aún se encuentra en la fase de investigación y desarrollo, dijo la secretaria de Estado de España, Carme Artigas, el sábado por la mañana.