Publicado en https://www.fundacionmapfre.org/documentacion/publico/i18n/catalogo_imagenes/grupo.cmd?path=1097479
El
problema
Los algoritmos de inteligencia artificial se enfrentan en
su modelización a los conocidos como sesgos de información. En el campo del
desarrollo científico académico de la inteligencia artificial están empeñados
en resolver este problema que puede cuestionar la aplicabilidad de sus
resultados.
El sesgo ético lo encontramos en la industria del seguro
cuando en la modelización intervienen variables explicativas que están
calificadas como discriminatorias, no solo aquellas expresamente consideradas
por la legislación (género, raza, religión…) sino también aquellas que cumplan
una función similar a las anteriores, o incluso lo que se conoce como
discriminación inconsciente, es decir, el analista no tiene voluntad consciente
de discriminar, pero el uso de esta variable si es discriminatorio.
Un estudio en los EEUU concluyó
que, en la mayoría de los estados, "las primas de seguros de autos son
impulsadas en gran medida por factores económicos que no están relacionados con
la seguridad en la conducción", variables como el nivel educativo, ocupación, propiedad de vivienda, compra previa de seguro y
estado civil. Una mayoría de estadounidenses cree que es injusto que las
compañías de seguros utilicen características económicas -específicamente,
nivel de educación, ocupación, no tener seguro por no tener automóvil, estado
de propiedad de vivienda, estado civil y calificación crediticia- en el
establecimiento primas de seguro de auto.
El problema real de los sesgos éticos es la ausencia de
regulación explícita acerca de la transparencia y trazabilidad de los
algoritmos de inteligencia artificial, pero es cierto que ya encontramos
iniciativas, opiniones de expertos y de autoridades que comienzan a perfilar un
marco de referencia que pueda servir de guía de actuación a las aseguradoras de
buen hacer en la construcción de los modelos de pricing, fidelización, fraude….
La otra cara de la ética de los algoritmos es hacer que las
personas que por su perfil de riesgo pasen a ser asegurables, aunque el modelo
lo desaconseje. El seguro como industria necesita un acuerdo impulsado desde
las autoridades regulatorias que garantice un umbral de riesgo/ precio
mutualizado para que ningún solicitante de seguro quede fuera del alcance de la
cobertura.
Estas dos reflexiones, nos permitirá corregir la calificada
por Lemonade como supremacía estadística ya en manos de las máquinas y no de
los departamentos técnicos de las entidades, cuyo origen se remonta a 1662
cuando John Graunt calculó las probabilidades de que los londinenses
sobrevivieran a una edad determinada
El entorno actual conocido con el acrónico en inglés VUCA ( Volátil, incierto, complejo y
aleatorio), el uso de las potencialidades de la analítica de datos avanzada
permitirá, según datos de Accenture, un incremento del 20% en ingresos por primas y del 30% en la eficiencia.
A modo
de ejemplo
La modelización del precio del seguro con los algoritmos
avanzados, ya han suscitado debate y controversia en los mercados donde así han
sido aplicados.
Repasemos algunos casos publicados en la
prensa internacional, que han llevado a Bill Wilson en febrero de 2018 al Big
Data como la economía del vudú, alertando de la necesidad de que los modelos
sean realmente predictivos, estables y rentables, elementos nucleares de la
Ciencia Actuarial.
Wilson se refiere a la
respuesta a un diario británico de una aseguradora que encontró que esa
aseguradora podría cobrar a los usuarios más en su seguro de automóvil por usa
una cuenta de correo electrónico de Hotmail en lugar de uno de Gmail , la
aseguradora sostiene que ciertos
nombres de dominio están asociados con más accidentes que otros y que utilizan una variedad de información para producir
precios competitivos para nuestros.
Otro caso denunciado por la prensa es el
de una aseguradora del Reino Unido de cobrar a los conductores con nombres que
no hablan inglés tanto como £ 900 extra por su seguro.
El
uso de algoritmos de Caja de Negra con el análisis de 600 variables puede
llevar a este tipo implicaciones éticas.
El futuro
marco regulatorio
Repasemos alguna de las iniciativas que tratan de actuar
como Estrella Polar en la categorización de sesgos de los algoritmos.
En primer lugar, la
responsable de Eiopa del departamento de Protección al Consumidor, Katja Wuertz
en una jornada celebrada en IESE en Madrid el pasado 15 de marzo de 2018,
alertó acerca:
Riesgo de exclusión debido al acceso a la información y su relación
con el big data.
Prima
y la discriminación en precios por el uso de datos que el
consumidor no controla si se busca personalizar se puede producir el hecho de
que aquellos consumidores que más
busquen en internet reciban ofertas mejores y aquellos que no
buscan, se podría decir que miran menos por el precio, tengan propuestas de
seguros con primas más elevadas.
Protección
y la intimidad de los datos de los consumidores. La
importancia del consentimiento en el uso de la información que se tiene de un
asegurado.
En segundo lugar, Las
Autoridades Europeas de Supevisión (ESA), publicó el pasado 15 de marzo de 2108
un informe que analiza los pros y los contras del Big Data, concluye que los
consumidores se pueden beneficiar de productos y servicios personalizados, de una mejor analítica
para detectar el fraude o
una mayor eficiencia de los procedimientos internos de la organización. Si bien
las herramientas de big data pueden cometer
errores, ocasionando que los proveedores de servicios
financieros tomen decisiones incorrectas en relación con el consumidor al
llevar a cabo una segmentación de
clientes que no se ajuste a la realidad.
En tercer lugar, el informe elaborado por European Group on
Ethics que ha publicado en marzo de 2018 el documento Statement on Artificial
Intelligence , Robotics and Autonomus
Systems, enumera los principios éticos y prerrequisitos democráticos que debe
contemplarse en los modelos de Inteligencia Artificial:
Dignidad humana
Autonomía,
libertad humana
Responsabilidad
Justicia, equidad y
responsabilidad
Democracia
Estado de derecho y
responsabilidad
Seguridad, integridad mental y
corporal.
Protección de datos y
privacidad
Sostenibilidad en las
precondiciones de vida del planeta
Por último, hacemos referencia al nuevo concepto de
“derecho a la explicación” establecido en el Reglamento Protección de Datos de
la Unión Europea.
El futuro
Se estima que en 2030, la determinación del precio del
seguro, se realizará de manera generalizada con modelos de Inteligencia
Artificial, antes de que esto suceda, el sector asegurador necesita un marco
formal regulatorio que elimine los sesgos éticos de los modelos, al margen de
que los científicos logren técnicamente corregirlos.
José Miguel Rodríguez-Pardo