viernes, 29 de junio de 2018

El sesgo ético en los algoritmos de inteligencia artificial aplicados al seguro


Publicado en https://www.fundacionmapfre.org/documentacion/publico/i18n/catalogo_imagenes/grupo.cmd?path=1097479


El problema
Los algoritmos de inteligencia artificial se enfrentan en su modelización a los conocidos como sesgos de información. En el campo del desarrollo científico académico de la inteligencia artificial están empeñados en resolver este problema que puede cuestionar la aplicabilidad de sus resultados.
El sesgo ético lo encontramos en la industria del seguro cuando en la modelización intervienen variables explicativas que están calificadas como discriminatorias, no solo aquellas expresamente consideradas por la legislación (género, raza, religión…) sino también aquellas que cumplan una función similar a las anteriores, o incluso lo que se conoce como discriminación inconsciente, es decir, el analista no tiene voluntad consciente de discriminar, pero el uso de esta variable si es discriminatorio.
Un estudio en los EEUU concluyó que, en la mayoría de los estados, "las primas de seguros de autos son impulsadas en gran medida por factores económicos que no están relacionados con la seguridad en la conducción", variables como el nivel educativo, ocupación, propiedad de vivienda, compra previa de seguro y estado civil. Una mayoría de estadounidenses cree que es injusto que las compañías de seguros utilicen características económicas -específicamente, nivel de educación, ocupación, no tener seguro por no tener automóvil, estado de propiedad de vivienda, estado civil y calificación crediticia- en el establecimiento primas de seguro de auto.

El problema real de los sesgos éticos es la ausencia de regulación explícita acerca de la transparencia y trazabilidad de los algoritmos de inteligencia artificial, pero es cierto que ya encontramos iniciativas, opiniones de expertos y de autoridades que comienzan a perfilar un marco de referencia que pueda servir de guía de actuación a las aseguradoras de buen hacer en la construcción de los modelos de pricing, fidelización, fraude….
La otra cara de la ética de los algoritmos es hacer que las personas que por su perfil de riesgo pasen a ser asegurables, aunque el modelo lo desaconseje. El seguro como industria necesita un acuerdo impulsado desde las autoridades regulatorias que garantice un umbral de riesgo/ precio mutualizado para que ningún solicitante de seguro quede fuera del alcance de la cobertura.
Estas dos reflexiones, nos permitirá corregir la calificada por Lemonade como supremacía estadística ya en manos de las máquinas y no de los departamentos técnicos de las entidades, cuyo origen se remonta a 1662 cuando John Graunt calculó las probabilidades de que los londinenses sobrevivieran a una edad determinada
El entorno actual conocido con el acrónico en inglés  VUCA ( Volátil, incierto, complejo y aleatorio), el uso de las potencialidades de la analítica de datos avanzada permitirá, según datos de Accenture, un incremento del 20% en ingresos por  primas y del 30% en la eficiencia.

A modo de ejemplo
La modelización del precio del seguro con los algoritmos avanzados, ya han suscitado debate y controversia en los mercados donde así han sido aplicados.
 Repasemos algunos casos publicados en la prensa internacional, que han llevado a Bill Wilson en febrero de 2018 al Big Data como la economía del vudú, alertando de la necesidad de que los modelos sean realmente predictivos, estables y rentables, elementos nucleares de la Ciencia Actuarial. 
Wilson se refiere a la respuesta a un diario británico de una aseguradora que encontró que esa aseguradora podría cobrar a los usuarios más en su seguro de automóvil por usa una cuenta de correo electrónico de Hotmail en lugar de uno de Gmail , la aseguradora sostiene que  ciertos nombres de dominio están asociados con más accidentes que otros y que utilizan  una variedad de información para producir precios competitivos para nuestros.
Otro caso denunciado por la prensa es el de una aseguradora del Reino Unido de cobrar a los conductores con nombres que no hablan inglés tanto como £ 900 extra por su seguro.
 El uso de algoritmos de Caja de Negra con el análisis de 600 variables puede llevar a este tipo implicaciones éticas.

El futuro marco regulatorio

Repasemos alguna de las iniciativas que tratan de actuar como Estrella Polar en la categorización de sesgos de los algoritmos.
 En primer lugar, la responsable de Eiopa del departamento de Protección al Consumidor, Katja Wuertz en una jornada celebrada en IESE en Madrid el pasado 15 de marzo de 2018, alertó acerca:
Riesgo de exclusión debido al acceso a la información y su relación con el big data.

Prima y la discriminación en precios por el uso de datos que el consumidor no controla si se busca personalizar se puede producir el hecho de que aquellos consumidores que más busquen en internet reciban ofertas mejores y aquellos que no buscan, se podría decir que miran menos por el precio, tengan propuestas de seguros con primas más elevadas.

Protección y la intimidad de los datos de los consumidores. La importancia del consentimiento en el uso de la información que se tiene de un asegurado.

En segundo lugar, Las Autoridades Europeas de Supevisión (ESA), publicó el pasado 15 de marzo de 2108 un informe que analiza los pros y los contras del Big Data, concluye que los consumidores se pueden beneficiar de productos y servicios personalizados, de una mejor analítica para detectar el fraude o una mayor eficiencia de los procedimientos internos de la organización. Si bien las herramientas de big data pueden cometer errores, ocasionando que los proveedores de servicios financieros tomen decisiones incorrectas en relación con el consumidor al llevar a cabo una segmentación de clientes que no se ajuste a la realidad.

En tercer lugar, el informe elaborado por European Group on Ethics que ha publicado en marzo de 2018 el documento Statement on Artificial Intelligence  , Robotics and Autonomus Systems, enumera los principios éticos y prerrequisitos democráticos que debe contemplarse en los modelos de Inteligencia Artificial:
Dignidad humana
Autonomía, libertad humana
Responsabilidad
Justicia, equidad y responsabilidad
Democracia
Estado de derecho y responsabilidad
Seguridad, integridad mental y corporal.
Protección de datos y privacidad
Sostenibilidad en las precondiciones de vida del planeta

Por último, hacemos referencia al nuevo concepto de “derecho a la explicación” establecido en el Reglamento Protección de Datos de la Unión Europea.

El futuro

Se estima que en 2030, la determinación del precio del seguro, se realizará de manera generalizada con modelos de Inteligencia Artificial, antes de que esto suceda, el sector asegurador necesita un marco formal regulatorio que elimine los sesgos éticos de los modelos, al margen de que los científicos logren técnicamente corregirlos.

José Miguel Rodríguez-Pardo