Meta y Amazon, entre las empresas que presentarán medidas de seguridad por la IA
viernes, 21 de julio de 2023
Empresas de EE.UU. buscan implementar pruebas para reforzar herramientas de la IA que garanticen más seguridad y transparencia
Bloomberg
En un acto que se celebrará el viernes en la Casa Blanca, siete de las principales empresas de inteligencia artificial presentarán nuevas salvaguardias voluntarias diseñadas para minimizar los abusos y los prejuicios dentro de esta tecnología emergente.
El Presidente Joe Biden estará acompañado por ejecutivos de Amazon.com Inc., Alphabet Inc., Meta Platforms Inc., Microsoft Corp. y OpenAI, que se encuentran entre las empresas que se comprometen con un compromiso de transparencia y seguridad.
Según el acuerdo, las empresas someterán los nuevos sistemas de inteligencia artificial a pruebas internas y externas antes de su lanzamiento y pedirán a equipos externos que examinen sus sistemas en busca de fallos de seguridad, tendencias discriminatorias o riesgos para los derechos, la información sanitaria o la seguridad de los estadounidenses.
Las empresas, entre las que se encuentran Anthropic e Inflection AI, también se comprometen a compartir información con los gobiernos, la sociedad civil y el mundo académico para mejorar la mitigación de riesgos, así como a informar de las vulnerabilidades que vayan surgiendo. Además, las principales empresas de IA incorporarán marcas de agua virtuales en el material que generen, lo que permitirá distinguir las imágenes y vídeos reales de los creados por ordenador.
El paquete formaliza y amplía algunas de las medidas ya en marcha en las principales empresas de IA, que han visto un inmenso interés público en su tecnología emergente, sólo igualado por la preocupación por los correspondientes riesgos sociales.
Nick Clegg, Presidente de Asuntos Globales de Meta, afirmó que los compromisos voluntarios eran un "primer paso importante para garantizar el establecimiento de guardarraíles responsables para la IA y crean un modelo a seguir por otros gobiernos".
"La inteligencia artificial debe beneficiar a toda la sociedad. Para ello, estas nuevas y potentes tecnologías deben construirse y desplegarse de forma responsable", afirmó en una declaración hecha pública a primera hora del viernes.
Los asesores de la Casa Blanca afirman que el compromiso ayuda a equilibrar las promesas de la tecnología artificial con los riesgos, y es el resultado de meses de intenso cabildeo entre bastidores. Muchos de los ejecutivos que se esperan en la Casa Blanca el viernes asistieron a una reunión con Biden y la vicepresidenta Kamala Harris en mayo, donde la administración advirtió a la industria que era responsable de garantizar la seguridad de su tecnología.
"Tenemos que asegurarnos de que las empresas someten sus productos a pruebas de presión a medida que los desarrollan y, desde luego, antes de lanzarlos al mercado, para asegurarse de que no tienen consecuencias no deseadas, como ser vulnerables a ciberataques o ser utilizados para discriminar a determinadas personas", dijo en una entrevista el jefe de gabinete de la Casa Blanca, Jeff Zients. "Y lo importante -y esto se verá a lo largo de todo el trabajo- es que aquí no pueden calificar sus propios deberes".
Salvaguardias voluntarias
Aun así, el hecho de que los compromisos sean voluntarios ilustra los límites de lo que la administración de Biden puede hacer para alejar los modelos de IA más avanzados de posibles usos indebidos.
Las directrices no exigen la aprobación de expertos externos específicos para liberar tecnologías, y las empresas sólo están obligadas a informar -más que a eliminar- riesgos como un posible uso inadecuado o sesgado. El sistema de marcas de agua aún debe desarrollarse, y puede resultar difícil sellar los contenidos de forma que no puedan ser eliminados fácilmente por agentes malignos que pretendan sembrar la desinformación en Internet.
Y hay pocos mecanismos, aparte de la opinión pública, para obligar a comprometerse a utilizar las tecnologías para prioridades sociales como la medicina y el cambio climático.
"Es un objetivo móvil", dijo Zients. "Así que no sólo tenemos que ejecutar y poner en práctica estos compromisos, sino que tenemos que idear la siguiente ronda de compromisos a medida que cambien las tecnologías".
Zients y otros funcionarios de la administración también dicen que será difícil seguir el ritmo de las tecnologías emergentes sin una legislación del Congreso que ayude al gobierno a imponer normas más estrictas y dedicar fondos que les permitan contratar expertos y reguladores.
Los ayudantes describen la preocupación por la inteligencia artificial como una de las principales prioridades del presidente en los últimos meses. Biden saca el tema con frecuencia en reuniones con asesores económicos, de seguridad nacional y de sanidad, y ha mantenido conversaciones con secretarios del Gabinete para pedirles que den prioridad al examen de las posibles interrelaciones de esta tecnología con sus organismos.
En conversaciones con expertos externos, se advirtió a Biden de que las redes sociales algorítmicas -como Facebook e Instagram de Meta y TikTok de ByteDance Ltd.- ya han ilustrado algunos de los riesgos que podría plantear la inteligencia artificial. Un asesor externo sugirió que el presidente debería considerar la cuestión como algo similar a la clonación en los años noventa, con la necesidad de unos principios y unos límites claros.
La Casa Blanca dijo que había consultado a los gobiernos de 20 países antes del anuncio del viernes.
"Creo que todas las partes estaban dispuestas o deseosas de avanzar lo más rápidamente posible en este asunto, porque así es como funciona la IA: no se puede dormir con esta tecnología", declaró el Jefe Adjunto de Gabinete, Bruce Reed.
Todos estos esfuerzos, sin embargo, van a la zaga del ritmo de desarrollo de la IA, estimulado por la intensa competencia entre rivales corporativos y por el temor a que la innovación china supere a los avances occidentales.
Incluso en Europa, donde la Ley de Inteligencia Artificial de la UE está muy por delante de cualquier ley aprobada por el Congreso de EE.UU., los líderes han reconocido la necesidad de compromisos voluntarios por parte de las empresas antes de que se establezca una ley vinculante. Un funcionario de la Casa Blanca estimó que podrían pasar al menos dos años antes de que la normativa europea empezara a afectar a las empresas de IA.
Por eso, los responsables europeos piden a las empresas que se vigilen a sí mismas. En reuniones con ejecutivos del sector tecnológico celebradas en los últimos tres meses, Thierry Breton, Comisario de Mercado Interior de la Unión Europea, ha pedido a los desarrolladores de IA que se adhieran a un "Pacto por la IA" para establecer algunos límites no vinculantes.