La IA necesita una licencia social
lunes, 6 de junio de 2022
Christopher Weisz
A pesar de que la IA impulsa el negocio de la transformación digital, hoy en día esta se está convirtiendo en el “elefante digital en la sala”. Las empresas recurren a la IA para poder enfrentarse a un futuro complejo e incierto tras la pandemia. La IA ayuda a las compañías a pronosticar el futuro y mejorar la toma de decisiones.
Los líderes están tratando de usar la IA a escala. Sin embargo, de acuerdo con nuestros estudios, las organizaciones se están enfrentando a un gran desafío y, contrario a lo que podría pensarse, no es tecnológico; sino humano. Debido a nuestra historia de tecnofobia, cuando las personas ven tecnologías que se comportan como ellas o imitan su toma de decisiones y habilidades, se preocupan.
Las encuestas muestran que la mayoría de las personas cree que debe haber una supervisión de la IA y que las empresas deben adherirse a códigos de conducta estrictos al usar la IA. Incluso, algunos directores ejecutivos, como los de Microsoft y Google, han pedido a los gobiernos que regulen la IA. Incluso cuando se establezca una regulación robusta, el desarrollo de una IA confiable aún dependerá de cada empresa y de los científicos que escriben los algoritmos. Como resultado, los esfuerzos para prevenir los resultados negativos causados por la IA y las consecuencias imprevistas varían según la empresa, el negocio y la función, lo que está lejos de ser ideal.
Si las empresas quieren utilizar la IA a escala, deben ir más allá de la responsabilidad en el desarrollo de la IA; deben obtener la aprobación explícita de la sociedad para desplegarla. En otras palabras, las empresas no tienen más opción que adquirir una licencia social para la IA. El término de “licencia social” nace del mundo de la explotación de recursos naturales donde se necesita tener una aprobación por parte de las comunidades para realizar proyectos que tienen un impacto en el medio ambiente.
Para obtener una licencia social, las empresas deben trabajar en estrecha colaboración con las partes interesadas (empleados, desarrolladores de software, consumidores y accionistas, entre otros) para iniciar un diálogo. Estas conversaciones bidireccionales catalizarán las reacciones, posiciones, motivaciones y objeciones de diversos grupos.
Lo anterior permitirá a los ejecutivos de la empresa desarrollar un entendimiento compartido con las partes interesadas sobre cada aplicación de IA y las medidas de seguridad que deben cercar su aplicación.
Nuestros estudios muestran que una licencia social para la IA se basa en tres pilares:
- Responsabilidad: asegurar un diseño responsable y poder justificar el funcionamiento de sus algoritmos;
- Beneficio: balancear y generar un acuerdo común de ventajas y costos de usar IA;
- Contrato social: asumir la responsabilidad de cada decisión que toma el algoritmo.
Las corporaciones deben darse cuenta de que el uso de IA, sin importar cuán responsablemente se diseñe, no será aceptado automáticamente por la sociedad. Las empresas pueden disfrutar del derecho legal de usar IA, pero deben obtener una licencia social de todas sus partes interesadas si quieren implementar IA a escala.