La medida de
una contingencia objeto de cobertura de seguro, incorpora cada vez más técnicas
estadísticas y computacionales complejas. El resultado de este proceso es una
capacidad predictiva del riesgo muy robusta, lo que contribuye a la fortaleza
en la solvencia de la entidad aseguradora y un mejor posicionamiento
competitivo en el mercado.
Apostar por
estos modelos no es una decisión exclusiva del responsable de determinar el precio
del seguro, es una decisión estratégica de la dirección de la entidad habida
cuenta las consecuencias gerenciales que conllevan estos modelos ya que
significa una nueva forma de entender el riesgo.
De alguna manera
esta decisión, la podríamos asimilar a la escena de la película Interestelar cuando el protagonista
Cooper entra en un agujero negro y dice: Estoy
cruzando el horizonte de sucesos. Este término definido desde la física
teórica, que sigue sometido a estudio y especulación, entre otros por el mismo Hawking, hace referencia a todo suceso
actual o pasado situado tras el horizonte de eventos, no forma parte del
universo observable actual.
En nuestro En el ecosistema del riesgo podemos entender
el horizonte de sucesos como el punto no
retorno.
La adopción
de estos modelos avanzados por parte de
las aseguradoras que permiten observar una nueva realidad, es relativamente
reciente, además de la mera decisión estratégica debe ir acompañada de responsables de pricing capacitados para
modelar los riesgos con estas técnicas. Este proceso requiere tiempo y teniendo
en cuenta los nuevos modelos más complejos que se vislumbran como más potentes
necesitaremos nuevos perfiles profesionales que ya se conocen como Data Scientist ,perfil que aglutina
conocimientos de economía, programación y matemáticas.
La industria
del seguro ya ha apostado por el uso de estas técnicas avanzadas, en España el
primer modelo implantado en la industria data del año 2001, realizado para
pricing de autos, y paulatinamente su uso se ha generalizado en los seguros de masa de daños y no tanto en
seguros personales. Al mismo tiempo, desde las instituciones que forman
profesionales del riesgo, como actuarios, incorporan en la actualidad en sus
programas formativos el manejo de estos modelos como lo son los conocidos GLM´S
o modelos lineales generalizados.
Ahora bien,
las técnicas, las variables a analizar y la capacidad de computación se
encuentran en continuo proceso de cambio y permite escalar hacia modelos más
sofisticados desde los modelos GLM´S construidos con variables internas del
riesgo.
Si nos
referimos al uso de variables, la incorporación de variables externas, con
técnicas de geolocalización (GIS), como sociodemográficas y/o de fenómenos de
la naturaleza puede hacer mejorar la capacidad predictiva de un modelo hasta 3
puntos por encima del mero uso de variables internas. Por otra parte, el análisis
con variables de comportamiento humano en el riesgo, tiene también capacidad
predictiva contrastada y así pueden mejorar hasta 4 puntos la capacidad
predictiva. Los primeros modelos de
comportamiento que se están implantando consideran que la proporción adecuada
de variables debe ser 80% de riesgo intrínseco y un 20% de comportamiento
Pero además,
las técnicas predictivas empiezan a utilizarse en procesos de renovación
segmentada, en técnicas de elasticidad al precio, en prevención de fraude, en
prevención de caída de cartera y mediante ingeniería inversa en competitividad
de la tarifa.
Y por último,
los modelos conocidos como Machine Learning de inteligencia artificial (IA) están
llamados a irrumpir en la modelización avanzada del riesgo, para ello
necesitamos un periodo de maduración razonable en la curva de aprendizaje, si
bien ya se ha contrastado su bondad en trabajos académicos e incluso se ha
implantado en la industria desde 2014 para modelar el riesgo de caída de
cartera en una entidad para el seguro de autos. Se estima que la capacidad
predictiva de este tipo modelos de IA, en una base de datos dividida en un 70%
para entrenamiento y un 30% para contraste del modelo, puede llegar al 90%-95%,
superando los modelos de GLM´S más robustos que pueden estar entre el 80%-85%. La
inteligencia artificial en todas sus distintas versiones en la próxima década
veremos cómo se asienta como complemento o incluso alternativa a la técnica
GLM´S.
Aprovechamos
la ocasión para recordar a Marvin Misnky uno de los padres de la inteligencia
artificial que falleció el pasado 24 de enero de 2016 quien la definió como “La ciencia que hace que las máquinas hagan cosas que
requerirían inteligencia si las hubiera hecho un humano”.
El panorama
presente y futuro del uso de modelos avanzados en el horizonte de sucesos, nos
posibilita categorizar a la gestión del riesgo en cuatro niveles atendiendo a
su nivel de complejidad.
- Entidades
que modelan el riesgo con métodos tradicionales, sin uso de técnicas
predictivas.
- Entidades
que modelan el riesgo con el uso de técnicas GLM´S con variables internas.
- Entidades
que modelan el riesgo con el uso de técnicas GLM´S o GAM con variables internas
,externas, técnica GIS , de comportamiento, y extienden el uso de los modelos
predictivos a todas las áreas de negocio,
análisis de caída, competitividad....
-Entidades
que modelan el riesgo con técnicas de inteligencia artificial (IA) y con el uso
de variables internas, externas y de comportamiento. El alcance de los modelos
de inteligencia artificial podría a su vez diferenciar más niveles de
complejidad, recordamos el post publicado
https://www.redcumes.com/blog/2015/11/04/actuarios-frecuentistas-vs-actuarios-bayesianos/
donde hacíamos referencia a diferentes técnicas de aprendizaje automático y de computación cognitiva.
Tenemos que
tener presente que un modelo predictivo requiere al menos tres-cuatro años para
demostrar su bondad , por lo que el paso de un nivel a otro necesita contraste
de modelos en el tiempo, y no es posible como decía Martin Heidegger saltar
por encima de un estado a otro.
Según el
estado donde se encuentre cada entidad podrá evaluar su fortaleza de mercado
sobre la base de su técnica actuarial aplicada.
José Miguel Rodríguez-Pardo