Tecnología

Regulación de Inteligencia Artificial se enfrenta a prueba en seguros de vida en Colorado

The Prudential Financial Inc. Plaza stands at dusk in Newark, New Jersey.

El ascenso meteórico de las herramientas de IA generativa como ChatGPT de OpenAI ha encendido el fuego de los reguladores que ya luchan por redactar reglas sobre cómo las empresas pueden usar big data en todo

Bloomberg

La industria de seguros de vida podría convertirse en uno de los primeros sectores en estar sujeto a reglas estrictas sobre el uso de algoritmos y modelos impulsados ​​por inteligencia artificial, ya que los reguladores buscan proteger a los consumidores de la discriminación y el sesgo.

La División de Seguros de Colorado propuso nuevas reglas el mes pasado que requerirían que las aseguradoras de vida con licencia estatal proporcionen un inventario de todos los modelos de IA que utilizan, establezcan principios de gobierno estrictos sobre cómo implementan algoritmos y se sometan a importantes demandas de supervisión e informes.

“Nuestro objetivo principal es asegurarnos de que las personas no sean discriminadas”, dijo Michael Conway, comisionado de seguros de Colorado. “Para llegar allí, debemos ayudar a las aseguradoras a desarrollar su propia memoria muscular de cómo van a utilizar los grandes datos en general en el futuro”.

El ascenso meteórico de las herramientas de IA generativa como ChatGPT de OpenAI ha encendido el fuego de los reguladores que ya luchan por redactar reglas sobre cómo las empresas pueden usar big data en todo, desde la contratación de empleados hasta las aplicaciones de alquiler. Existe un impulso en Europa y EE. UU. para abordar los problemas de discriminación algorítmica y desarrollar salvaguardas en torno a las herramientas de IA a nivel federal. Pero los expertos dicen que las reglas más granulares para la IA, y las que tendrán efectos importantes para las empresas, ocurrirán a nivel estatal, industria por industria.

“Esta es la primera regla regulatoria integral para el gobierno de la IA, no solo para los seguros, sino en general”, dijo Avi Gesser, copresidente del programa de seguridad y estrategia de datos de la firma de abogados Debevoise & Plimpton. “ChatGPT hizo que algunos reguladores se movieran más rápido en los problemas de IA y preguntaran quién había pensado en esto. Mirando a mi alrededor, no me sorprendería si miraran a Colorado”.

Las compañías de seguros de vida han utilizado herramientas automatizadas en sus programas de suscripción durante años. Durante la pandemia de Covid-19, cuando los clientes en gran medida no podían hacerse exámenes médicos en persona, las aseguradoras se interesaron en cómo podían usar los datos de los clientes, desde transacciones con tarjetas de crédito hasta registros judiciales, para cotizar y vender pólizas.

Para 2021, el 91 % de las aseguradoras de vida tenían programas de suscripción total o parcialmente automatizados, frente al 62 % en 2019, dijo Catherine Theroux, portavoz de Limra, una firma de investigación de la industria de seguros. Las aseguradoras de vida encuestadas por McKinsey & Co. en 2020 vieron un aumento promedio del 14 % en el volumen de ventas dentro de los dos años posteriores a la digitalización de ciertos aspectos de sus servicios, incluida la suscripción.

La regulación de Colorado, que está programada para ser adoptada a finales de este año, fue ordenada por una ley estatal de 2021 para proteger a los consumidores de la discriminación injusta en las pólizas de seguro por motivos de raza, religión, género y otras categorías sociales. En reuniones públicas de partes interesadas sobre la regulación, las compañías de seguros se han opuesto a una política que describen como demasiado onerosa y que traerá pocos beneficios a quienes necesitan o desean más cobertura.

Más de 100 millones de adultos estadounidenses reconocen que tienen una brecha en la cobertura del seguro de vida, según Limra, pero las ventas de pólizas individuales están disminuyendo desde los máximos de la pandemia a medida que la inflación galopante se come los presupuestos familiares.

“La propuesta actual sería un lastre para el uso de tecnologías que, de lo contrario, brindarían a las personas la oportunidad de acceder a la cobertura”, escribió en un correo electrónico Brian Bayerle, actuario sénior del American Council of Life Insurers, un grupo de cabildeo de la industria. “Es probable que esto enfríe la capacidad de las aseguradoras para innovar por su cuenta o con la contribución de terceros”.

Aquellos que estudian la industria de seguros dicen que la regulación es un paso importante hacia la responsabilidad de las empresas privadas con acceso a datos altamente confidenciales, incluidos los registros de salud en línea.

“Especialmente después de Enron, determinar quién es responsable cuando algo sale mal (lograr que alguien ponga su nombre para certificar modelos o resultados) se vuelve fundamental”, dijo Sophia Duffy , profesora de planificación comercial en el Colegio Americano de Servicios Financieros en Pensilvania, quien ha estudiado suscripción habilitada por IA en seguros de vida.

Por ley, las compañías de seguros no pueden usar datos sobre raza, género, etnia y otras variables para vender pólizas. Pero a los reguladores les preocupa que los algoritmos, impulsados ​​por una gran cantidad de datos electrónicos de clientes, también estén entrenados en datos que podrían actuar como representantes de grupos sociales.

Por ejemplo, los datos de la tarjeta de crédito que muestran que un solicitante de póliza compra cigarrillos todos los días es información valiosa que una empresa puede usar para fijar el precio de una póliza. Pero el lugar donde se compraron esos cigarrillos (urbano o rural, por ejemplo) puede sustituir la raza o el origen étnico cuando se introduce en un algoritmo y, potencialmente, dar como resultado un sesgo injusto hacia ese solicitante.

Los expertos dicen que la regulación de Colorado deja un vacío importante al definir qué constituye exactamente discriminación. Eso es difícil de determinar cuando las compañías de seguros no recopilan datos sobre la raza, el origen étnico o el género de los solicitantes de pólizas.

“El desafío más difícil es el establecimiento de estándares para la discriminación injusta”, dijo Azish Filabi , profesor de ética empresarial en el Colegio Americano de Servicios Financieros, coautor de artículos con Duffy sobre el papel de la IA en la suscripción de seguros. “Es posible que tenga un buen proceso de prueba [para el sesgo], pero ¿para qué está probando?”

Los programas de aprendizaje automático son tan buenos como los datos que se introducen en ellos, y a medida que se recopilan más datos de clientes de una variedad de fuentes, los expertos dicen que es fundamental desarrollar estándares éticos sobre cómo se recopilan y utilizan esos datos.

“Las compañías de seguros tienen acceso a muchos más datos que en el pasado”, dijo Filabi. “Esto se está moviendo muy rápido”.

TEMAS


Inteligencia artificial - Covid-19 - chatGPT