Ética en la inteligencia artificial
En los años 70, el gran genio del cine Stanley Kubrick concibió las ideas preliminares de un guion alrededor de la convivencia entre los humanos y robots humanoides; el libreto solo vio la luz como película años después de la muerte de Kubrick, en manos de otro gran genio del cine, Steven Spielberg, precisamente en 2001 y bajo el título de ‘Inteligencia Artificial’ se lanzó la película en la cual se exploran limites inimaginables de la convivencia entre los humanos y los “mecas”, humanoides avanzados capaces de imitar pensamientos y emociones. 20 años después de su estreno y a la luz de los recientes avances en inteligencia artificial (IA), la película pareciera más de tipo premonitorio que de ficción, y nos cuestiona acerca de cuales deben ser los límites éticos que la sociedad debe establecer a la IA.
La gobernanza de la IA es objeto de debate en numerosos centros de pensamiento a nivel global, y toma más importancia a medida que más productos y servicios usan la IA para ofrecer personalización en la oferta comercial, predecir comportamientos o sucesos, e incluso, determinar si tenemos acceso a múltiples oportunidades en nuestras vidas: desde un préstamo financiero, ser considerados como candidatos a un empleo, y hasta ser beneficiarios de un seguro de salud. Ante el uso creciente de la IA el gobierno de Singapur lanzó el año anterior una iniciativa denominada “AI Verify”, y la cual tiene como objetivo “fomentar la confianza pública en las tecnologías de IA y, al mismo tiempo, respaldar el uso cada vez mayor de la IA.”
“AI Verify” verifica el gobierno y desempeño de un sistema de IA con respecto a cinco pilares éticos aceptados internacionalmente: (i) Transparencia: Se debe facilitar a los usuarios la toma de decisión informada sobre el uso de sistemas habilitado para IA; (ii) Entendimiento: el usuario debe comprender cómo el modelo de IA llega a una decisión; (iii) Seguridad y resiliencia: El desarrollador debe asegurarse que el sistema de IA no causará daño, es confiable y funcionará de acuerdo con el propósito previsto; (iv) Equidad: el sistema debe ser desarrollado para que no haya discriminación voluntaria o involuntaria; y, (v) Gestión y supervisión: Los usuarios conocerán que existe responsabilidad y control humano en el desarrollo y/o despliegue de la IA, y que existirá capacidad de apelación, es decir, los humanos pueden hacer revisión de las decisiones.
Estamos ante un proceso de gobernanza de tecnología que no es nuevo para la sociedad, un precedente reciente son las leyes para el tratamiento automatizado de datos personales, cuyo principal precursor fue la Comunidad Europea en 1981, y que se tardó cerca de 25 años en alcanzar el despliegue global. La rápida velocidad de desarrollo y las crecientes complejidades éticas alrededor de la IA nos obligan a consensuar con mayor prontitud un marco regulatorio para la IA.
Bienvenida la inteligencia artificial, pero con límites.