7-3
Variables de la demanda del seguro
Conocer
con análisis macroeconómico con modelos econométricos, los factores que
determinan la demanda de seguros ante distintas contingencias es una forma más que indiciaria para fijar
digámoslo así las etiquetas del riesgo. Y esto tiene interés porque además de
identificar los “las preocupaciones de la sociedad”, permiten valorar la
inclusión de alguna o algunas de ellas en los modelos predictivos de cada
contingencia, donde la incorporación de variables socio-economico-demográficas
influyen en la variable dependiente del riesgo.
Por particularizar en una contingencia la del
fallecimiento, los primeros estudios acerca de los factores determinantes de
los seguros de vida se remontan a 1965 con el trabajo de Yaari Hammond , desde
entonces han sido muy numerosos los estudios realizados en diferentes países
,citemos el caso de 2014 del estudio para la India de Mishra IJ de la demanda
de seguros de vida de aquel país.
Identificamos
algunas las conclusiones más relevantes
de los diferentes estudios de demanda:
- la demanda de
seguros de vida en general, se explica a
través del marco del ciclo de vida en la que las familias o individuos tienden
a maximizar la función de utilidad esperada de su consumo de toda la
vida.
- la demanda de
seguro de vida es una función de la
riqueza, de los ingresos esperados en el
tiempo de vida de un individuo, del nivel de las tasas de interés del costo de los seguros de vida (gastos
administrativos), y de la de tasa de descuento subjetiva asumido para el
flujo del consumo futuro .
- la
incertidumbre sobre el momento de la muerte de la persona unido al deseo de
dejar un ingreso adecuado para
dependientes (cónyuge o hijos), el
individuo aumenta su utilidad esperada mediante la compra de un seguro
de vida.
-La demanda del
seguro de vida, según Lewis en 1989, también está influida por la necesidad de
satisfacer a los beneficiarios potenciales del seguro, es decir el cónyuge y
los hijos tienden también a maximizar su función de utilidad esperada.
Los trabajos de Hwang y Greenford en 2005 incorporan variables de naturaleza
sociodemográficas como , la educación,
la seguridad social, la estructura social, el precio de los seguros, el
desarrollo económico...
Estos
indicadores pueden tener una utilidad adicional y es la evaluar si el seguro es
un producto, por la demanda efectiva, destinado a determinadas clases sociales
y por lo tanto entra en juego el juicio moral acerca de su contribución a la
equidad social.
7-4 Los modelos del riesgo
Conviene recordar que el proceso conocido de
pooling risk por el analista de riesgo integra en una cartera de seguros sobre
la base de la diversificación, y simplificando mucho, el modelo es aplicable cuando disponemos de un
número suficientemente grande se opera
con el teorema central del límite para fijar el precio. El asegurador establece
grupos homogéneos de riesgo reduciendo la volatilidad del grupo total de
asegurados.
Los
modelos que emplearemos para medir el riesgo, tienen como fin, como decía Kant,
el determinismo causal, esto es buscar la simetría entre la explicación y la
predicción. Como nos encontramos dentro del marco de las ciencias sociales,
predecir fenómenos en los que intervienen actores sociales puede ser complejo o
en ocasiones habrá desistir del empeño. En este proceso, reiteramos lo ya
apuntado en capítulos anteriores, el analista no hace juicios morales ni de las
variables, ni de los resultados, ni de los propios modelos que no dejan de ser
pegamento sobre el construye el nexo causal.
En
un magnífico libro sobre la historia del riesgo Against the Gods el autor
Bernstein ( Bernstein Peter L, 1996, Against the Gods: The Remarkable Story of
Risk.Nueva York Willey) ya advertía en 1996 que una nueva clase de religión, un
credo tan implacable, restrictivo y arbitrario como el anterior…, se refería a
gestión de los riesgos de la antigüedad era cosa de la superstición y de la
aceptación del destino.
No pudo ser más visionario Bernstein, de hecho
una de las causas de la crisis financiera del 2008 es atribuida a la confianza
ciega y acrítica de los modelos de
valoración de riesgos, por citar un caso concreto, el sistema de concesión de
hipotecas en los Estados Unidos basados exclusivamente en modelos de scoring.
Desde entonces, aunque se han dado pasos para evitar estas mismas situaciones,
la modelización de riesgos se está sofisticando a niveles tan complejos que se
requiere de perfiles profesionales muy orientado a lo cuantitativo, sin incluir
en la toma de decisiones elementos ajenos al resultado de los modelos. El
juicio experto y la visión crítica de los modelos no está presente.
La
elección del modelo que mejor captura el riesgo, presenta varias consideraciones
que deben ser analizadas, este proceso recuerda a la pregunta que hace Alicia
en el País de las Maravillas al sombrero ¿
Que camino debo escoger? Depende donde quieres llegar. Y es que el
modelo que seleccionemos tiene un
propósito final que forma parte de proceso de decisión del analista.
En
primer lugar y para responder a las
consideraciones acerca del modelo
recurrimos al filósofo Ludwing
Wittegestein en su obra de referencia Tractatus Logico Philoshophicus dice que
no hay un orden perfecto, sino una gran cantidad de ellos, la sentencia es
aplicable es al modelo aplicable para capturar un evento. El analista de riesgo
tiene a su disposición un conjunto de técnicas que pueden ser útiles y válidas
para el fin que persigue, el conocimiento de los distintos modelos por el
analista condicionará el manejo de cada uno de ellos y que en todo caso hay un
cierto proceso de prueba error para la elección del modelo final, y como dicen los anglosajones “ if you´re
going to fail, fail fast”.
Y
es en este punto donde surge el conocido como riesgo de modelo, esto es, en el
propio modelo hay un riesgo de error. En
la actualidad se están desarrollando técnicas que tratan de mitigar este
riesgo.
Es
importante antes de que enumeremos los distintos modelos que proponen las técnicas estadísticas más avanzadas, tener
presente que la medida de un riesgo puede tener soluciones distintas según sea
el modelo utilizado y con robustez técnica acreditada. Creemos que es de
interés recordar que mucho antes que en
la época de Adam Smith (1723-1790) se iniciara la visión estadística de la vida
social, que la búsqueda algoritmos por parte del hombre se remonta a hace 3.500 años, cuando los babilonios imaginaron los primeros
algoritmos, calculando una raíz cuadrada, sobre arcilla húmeda, desde entonces
el hombre los ido perfeccionado hasta llegar en la actualidad a los modelos
complejos que crean patrones en minutos que un ser humano tardaría años.
Creemos que es de justicia reconocer la aportación de la ciencia actuarial al
propio desarrollo de la estadística, por citar un caso relevante, destacamos a principio del Siglo XX en los
Estados Unido las aportaciones de los actuarios a la teoría de la credibilidad,
o las contribuciones de Finetti (1906-1985) en el campo de las probabilidades subjetivas.
El éxito de un algoritmo se suele asignar en
un 80% a la calidad de los datos y un 20% a la calidad de la secuencia
numérica, ahora bien, si la información de fragmenta de manera diferente, se
aplican con modelos diferentes y los
resultados son diferentes. Desde la filosofía estas distintas realidades a un
mismo fenómeno lo asimilan a un juego de espejos.
En
definitiva un modelo es una correlación comprensiva de variables que tratan de poner precio a una
contingencia, convirtiendo en certeza lo que es incierto, invirtiendo el ciclo
económico en el sentido que compra contingencias y devuelve certezas
(siniestros) con un beneficio empresarial.
Según avancemos en el conocimiento de las relaciones complejas de
variables identificativas de los riesgos, se requiere una reflexión acerca de
las consecuencias, a veces no deseadas, en el pricing del seguro.
En este proceso de búsqueda de beneficio
empresarial sobre la base de los modelos y/o tecnología que podemos denominar
determinismo de aplicación tiene sus defensores como Friedman cuando dice “Si
puedes hacerlo ( aplicar la tecnología), debes hacerlo…porque si no, lo harán
tus competidores” ( Friedman Thomas, 2005, The world is Flat.New York:
Farrar,Status an Giroux.) El potencial ético está presente en esta corriente de
pensamiento que está muy extendida en la sociedad tecnológica del Siglo XXI.
Las autoridades supervisoras bancarias ya han alertado de la tentación de
arbitrar con los modelos para utilizar el que mejor resultados presente para
los fines que se persiguen y no aquel que cumpla mejor con los test
estadísticos requeridos.
Los
llamados modelos predictivos aplicados al seguro son relativamente recientes en
su uso, desde las primeras versiones en España aplicadas en el seguro de autos
coincidentes con el principio del Siglo XXI, se han ido generalizando tanto en
las entidades que lo utilizan como en los riesgos a los que se aplican,
demostrando su robustez estadística en todas las modalidades de seguro, donde
se manejan grandes volúmenes de datos tanto de contratos como de experiencia
siniestral. Este hecho no es singular en el mercado español sino que es global,
por citar un caso ,los Estados Unidos un informe de GenRe ( Attmaniuk, J. Life
Insurers Warm to Predicitve Modelling Tools. Wwwgenre.com) de 2014 realizado sobre
40 aseguradoras mostraba un incremento del 60% en el uso de estos modelos entre
2010 y 2013. Este escenario tiene diferentes intensidades de uso, y es el
seguro de vida el menos activo, tan solo el 8% de la entidades en 2015 utilizaban esto modelos, el motivo
que alegan las aseguradoras, un 71% de los casos; que no disponían de
infraestructura de IT para ejecutar los modelos con los datos disponibles, no
se debe dejar de mencionar que apostar por estos modelos es una cultura
empresarial en sí misma y requiere para su puesta en marcha de profesionales
con conocimiento adecuado.
Más
reciente son las aplicaciones actuariales del aprendizaje automático ( técnica
de aprendizaje automático basado en redes neuronales multicapas) cuyas investigaciones inicialmente para el
seguro no vida se iniciaron en 2009, y dos años más tarde, en marzo de 2011, se
publicó el trabajo From artificial fish to underwrtiters, lo que hace que estos
modelos no sean de conocimiento general por los analistas de riesgos en la
segunda década del siglo XXI.
El
uso de estos modelos presenta ventajas pero también inconvenientes, el trabajo
de Dion M. ( Dion M. Predictive Modelling a Life Underwriter´s Primer www.genre.com) censa las
características de la modelización predicitiva:
-Detecta
relaciones complejas no lineales entre variables dependientes e independientes
-Detecta
todas las interrelaciones posibles entre los factores explicativos
-Algunos
modelos requieren conocimientos en estadística menos formales.
-Capacidad
para combinar métodos clásicos de estadística para apoyar las decisiones de los
modelos predictivos
-En
ocasiones actúan como “cajas negras” difíciles de comprender.
-Se
necesita gran capacidad computacional.
-Son
modelos sensibles a cambios en las condiciones del modelo, por lo que es
necesario un seguimiento continuo.
-Peligro
que el criterio matemático o estadístico se imponga al criterio humano en
determinadas ocasiones, produciendo decisiones equivocadas.
Es relevante que en la lista de inconvenientes
de estos modelos se señalen elementos que ya hemos analizados como de conflicto
ético, el llamado juicio experto ha
merecido un capítulo en el trabajo, y no menos importante es la referencia a
“caja negra” de determinados tipos de modelos. Esta cuestión no es menor, si el
gerente de riesgo no puede justificar los pesos de variables, sus
interacciones, el modelo puede ser invalidado por la sociedad que demanda
transparencia en la toma de decisiones empresariales sobre todo en mercados
altamente regulados.
Aplicar en la vida cotidiana los resultados de
los modelos sin juicio crítico y sin mirar al cliente sobre el que se hacía el
scoring fue, para algunos analistas, una de las causas explicativas de la
crisis financiera de 2007-2008,como ya hemos comentado; la poetisa española
Elena Medel (1985) ha escrito el poema
Salón de los pasos perdidos que comienza así: La tecnología carece de
autoestima…, es una exhortación que nos hace reflexionar.
Algunos
de los modelos aplicados en la práctica actuarial que han demostrado su validez son entre otros:
-Modelos
lineales generalizados.
-Modelos
CART ( Classification and Regression Tress)
-Redes
neuronales.
Las
experiencias en la industria del seguro de la aplicación de la modelización
predictiva desarrollada desde los inicios del siglo XXI, nos dan ciertas pistas
de cuáles son las cautelas y enseñanzas que debemos tener en cuenta, el
artículo de William Trump, Data analytics in life insurance: Lessons from
predicitve underwriting de 26 de mayo de 2014, publicado en cgd.swissre.com nos
enumera los cinco pasos a seguir:
-Comenzar
por centrar los objetivos de manera clara. No es lo mismo suscripción, que
retención o pricing diferenciado.
-Ser
realista con las limitaciones de la calidad y cantidad de datos disponibles.
-Los
datos imperfectos no son una excusa para no desarrollar el modelo.
-Los
datos no pueden hacerlo todo. Se recomienda un enfoque haz una aprueba y
aprende.
-Big
data. Mucho hablar, poca acción. El modelado de datos es un proceso de
aprendizaje constante para maximizar su eficacia
Los
modelos de Inteligencia Artificial, tratan de replicar los procesos
neuropsicológicos del ser humano, tratando crear sistemas que piensen o actúen
racionalmente como humanos. Los modelos de aprendizaje automático- machine
learning- crean patrones de comportamientos sobre la base del proceso de
aprender sobre información no estructurada, con dos tipos de categorías según
la “supervisión” del aprendizaje, si es supervisado el foco se centra en la
predicción y si no lo es, se centra en la compresión de la estructura que está
en el conjunto de los datos.
Estos modelos incluyen diferentes tipos de
aproximaciones técnicas, como árboles de decisión, análisis bayesiano, random
forest, gradient boosting machine, máquinas de soporte vectorial…, se suelen
utilizar en los casos en los que en los que las relaciones entre los datos no
son lineales.
Tengamos presente que estos modelos tienen su
origen en el tiempo, en la década de los cincuenta del siglo pasado y que su
aplicación práctica en la medida de los seguros comienza con el siglo XXI de
manera muy incipiente y no consolidada. Si en los primeros cuarenta años de su
desarrollo, hasta los noventa del siglo pasado, estos modelos se centraron en resolver
problemas combinatorios, desde entonces se han centrado en entender y
reproducir problemas que los humanos resuelven de manera inconsciente, como
sería el reconocimiento facial, traducir un idioma, y queda el reto de entender
mecanismos complejos del cerebro humano, como la mentira, el engaño ante un
juego de magia ,que juega un papel relevante en las decisiones humanas. Esta
opinión corresponde a Raúl Rojas experto en inteligencia artificial de la
Universidad de Berlin en el artículo La realidad con la que convivimos es una
simulación de nuestro cerebro, publicado en El País el 29 de enero de 2016.
Los
modelos que se desarrollan se encuadran en tres categorías según el tipo de
aprendizaje, supervisado, no supervisado y por refuerzo.
Las tres áreas en las que se puede encuadrar
la Inteligencia Artificial ,siguiendo a Pablo Rubio-Manzanares ( obra citada)
son:
-Formal,
crea modelos de búsquedas en un espacio de estados, estos modelos pueden ser
heurísticos o algorítmicos
-Técnico,
emplean conocimientos de tipo científico-técnico a partir de criterios
expertos, son los conocidos como KBS ( Knowledge Based Systems)
-Cognitivo,
trata de emular las funciones cognitivas, como el habla, mediante procesos de
modelos computacionales. En el caso del habla los expertos en estas técnicas
advierten de la dificultad de capturar la ironía, el sarcasmo o la metáfora.
Los
modelos de inteligencia artificial utilizan grandes volúmenes de datos y son
recomendables cuando las estructuras de cada variable no se conocen con
precisión. Estos modelos estiman pesos al azar a cada variable explicativa y en
proceso de comparación de las predicciones con los datos reales, se vuelve a
iterar y así sucesivamente hasta que se logra un ajuste robusto.
Las
ventajas de estos modelos en relación con modelos predictivos como el GLM, se
han demostrado en aquellas experiencias donde se han implantado son claras,
como es el tiempo de implantación del modelo cuya relación puede ser de 4 a 1,
a favor de la IA, los mejores resultados predictivos en la mayoría de los
casos. Además estos modelos permiten incorporar las cotizaciones que se
realizan en el mercado, así comprender y predecir los movimientos de precios de
mercado y ajustar el precio del catálogo de productos. Y como dice el informe
de noviembre de 2016, How Machine Learning is Revolutionising The Insurance
Industry ( www.dataanityticsinsurance.com) en 10 años la mayoría
de las infraestructuras de IT tendrán infraestructuras de aprendizaje
automático.
Pero la Inteligencia artificial, está sometida
a cierta controversia pues el modelo al actuar de manera opaca, no se puede
valorar la capacidad explicativa de cada variable, de hecho en áreas como la
biomedicina presenta ciertas dificultades de uso por este motivo. Son modelos
complejos, citemos el caso de la técnica deep learning, redes neuronales
multicapa que resuelve problemas mediante el uso de neuronas cuyos resultados
van unidos unos a otros, de tal manera que no se pueden obtener resultados si
considerar todas las relaciones, estas técnicas se utilizan en el
reconocimiento de imágenes.
La
dificultad de interpretar los resultados del
modelo y la necesaria adquisición de habilidades para ejecutar y
mantener el modelo, la responsabilidad del resultado del algoritmo, el riesgo
de ciberseguridad, deben tenerse presente a la hora de apostar por estos
modelos. Además de lo anterior el modelo debe encaminarse hacia la no
supervisión, es decir soslayar la intervención humana, reduciendo el coste del
“retuning” de los reajustes periódicos de la realidad observada, los cambios de
comportamiento y las decisiones tomadas
de los resultados del modelo.
A
pesar de estas dificultades, ya hay iniciativas en el proceso de selección de riesgos
en el seguro de vida con la ayuda de estas técnicas, como es el caso de
Genworth Financial ( Aggour, K, Bonissone,W, Messmer R, Automating the
Underwriting of Insurance Application. Ai Magazine,vol 27, nº7,2006) que
desarrolló un modelo basado en técnicas fuzzy logit donde los parámetros del
modelo se ajustan con el algoritmo de mejora donde el asegurado está
categorizado en un perfil de riesgo.
No
dejemos de mencionar el proyecto de IBM Watson Healthque aplica la computación
cognitiva y es aplicable para seguros y
en concreto que ya se está utilizando desde finales de 2015 por Swiss Re en la
suscripción de riesgos. Este supercomputador donde hasta 2.000 profesionales
médicos, investigadores y desarrolladores trabajan para incorporar datos de
historias clínicas, leer artículos sanitarios ,con el objetivo entre otros de
reducir los errores médicos, tercera
causa de fallecimiento en Estados Unidos, crear patrones de enfermedades y
tratamientos, gestión de enfermedades crónicas, desarrollo de nuevos fármacos,
mejora de los ensayos clínicos…, todo este potencial puede ser de utilidad en
hospitales, aseguradoras y médicos.
En
otros procesos de gestión de una aseguradora, también se están utilizando estas
técnicas, como son en siniestro detección de fraude, predicción de caídas de
carteras, propensión de compra optimización de precios…en todos ellos las
dificultades de explicar el modelo se hace patente. Además, su réplica por un
tercero que deba supervisar o auditar los resultados hace que entre los expertos y supervisores se
tenga prevención en su uso, y tal es así que
el uso de modelos internos de riesgos esté cuestionado.
Al
debate acerca del uso de estos modelos en la ciencia actuarial, se ha sumado
ASTIN ( Actuarial Studies in Non Life Insurance) en el informe del Grupo de
Trabajo Big Data Analytics ,Fase 1, Papeboard de abril de 2015, recomienda al
actuario el uso de los nuevos instrumentos estadísticos para la gestión
adecuada de los datos como son las aplicaciones predictivas de aprendizaje automático
y la computación cognitiva, y sostiene que la elección del modelo actuarial
adecuado para dar respuesta a este proceso debe superar las limitaciones de los
Modelos Lineales Generalizados ( GLM) para encaminarse hacia modelos más
complejos como son: CART, Random Forests, Gradient Boosting, Redes Neuronales,
Boosting, Bagging, árboles de decisión…
Otro
debate es si estos modelos a medida que se vayan perfeccionando acabarán por
eliminar el juicio experto, pues el algoritmo reproduce el esquema mental de
decisión del analista de riesgo o suscriptor. El conocido como Deep Learning se
refiere precisamente a este proceso, es decir las máquinas aprenden sin
intervención humana. Recordemos el juicio prudencial es un conjunto de valores
personales y profesionales, que se conforman a lo largo de la vida y por ello
tampoco es transparente en la toma de la decisión personal.
Relacionado con los algoritmos de inteligencia
artificial, la figura del asesor virtual de riesgos que está en fase de
desarrollo, cuyas reglas de decisión basada en algoritmos
complejos es otro reto para la ética aplicada al riesgo.
Si
miramos con cierta perspectiva en el tiempo, desde que en 1960, J.C.R Licklider
pensó en la posibilidad de la cooperación entre los seres humanos y los ordenadores,
el escenario actual y previsible de la interacción del hombre con las máquina
ha motivado a Stephen Hawkins a advertir de la amenaza para el ser humano de la plena implantación
de la Inteligencia Artificial.
El Modelo y su validez
o degradación en el tiempo
Podemos
decir que los modelos aplicados a una realidad que observamos nacen con fecha
de caducidad, en cierto modo, el tiempo degrada el modelo, podríamos hacer el
simil con la degradación de la calidad
que se producía en las primeras películas que incorporaron el color,
donde se produce un debate moral acerca de si la “recoloración” altera los
derechos de autor original. En nuestro caso, cabria proponer otro debate ético
relacionado si el modelo que confecciona el analista tiene derecho de autor lo que supone de
derechos morales no económicos o no sería aplicable. Este debate lo aparcaremos
pues el derecho tiene la respuesta adecuada.
Volvamos al planteamiento inicial: El contexto
social y económico donde medimos el riesgo, es mutable con el tiempo. Será
difícil construir un modelo con el mismo fin que se persigue en la
Arquitectura, trascender la realidad observada, lo máximo que podemos
conseguir, es explicar las perspectivas de la contingencia que causa el
infortunio ajeno a la voluntad individual. Si
riesgo es lo que nos depara el porvenir, podríamos hasta llegar a pensar
que no deja de ser una tarea imposible cuantificarlo al menos medido en el medio plazo. En la medida que el nexo
causal de un evento se alargue en el tiempo, su
aseguramiento se hace complejo, podríamos decir que el tiempo en sí mismo es un desafío a
nuestras certidumbres.
La
medida del riesgo medido en el espacio y en el tiempo es una tarea no bien
resuelta por los analistas de riesgos, no se trata tanto de prescindir del
tiempo, como solo ha hecho la cultura
guaraní, quienes no tenían unidades de tiempo, sino de incorporar el eje
temporal en los modelos, solo así el modelo acompañará al destino del
individuo. En nuestro ecosistema encontramos una sentencia muy oportuna y
aplicable que dice “El tiempo es
superior al espacio”, incluida en Exhort. Ap. Evangelli Gaudium de 24 de
noviembre de 2013.
Las
reflexiones éticas en relación al hombre y el tiempo son habituales, desde la
posición de la identidad personal de la autoconsciencia del yo soy en el
tiempo, hasta la postura de Kant que dice somos los mismos en todo el tiempo
del que poseemos consciencia, pero solo durante ese tiempo. El pensamiento
filosófico acerca del tiempo tal vez no ha tenido mejor definición que la de
San Agustín cuando decía en su libro Confesiones solo sabemos qué es el tiempo cuando nadie nos propone
definirlo. Por lo tanto asignar valor al tiempo, tarea necesaria en la medida
del riesgo, no es un asunto menor, al
referirse a la coordenada temporal Diego Sebastián Garrocho en Diálogo entre el
actuario y el filósofo, nos dice que la experiencia temporal es una
construcción social y cultural, en cierto modo el tiempo no está sino que lo
hemos construido como una ficción que hemos interiorizado, es una coordenada
improbable.
La decisión de reevaluar el riesgo con el
modelo aplicado, o incluso cuando este debe ser sustituido, sin caer en el mero
arbitraje del riesgo o el continuismo que nos lleva al abismo, está sometido a
debate y controversia. Y es que el analista del riesgo prefiere realidades
homeostáticas ,pero el tiempo las desestabiliza haciendo borrosa la realidad
observables cuanto más nos alejamos en el tiempo a la contingencia.
La experiencia nos dice que a un modelo hay
que dejarle que se asiente en el tiempo para poder validar técnicamente su
bondad estadística. Al menos tres años se recomiendan para revisitar las
hipótesis técnicas, ahora bien, si en estas se contemplan el eje tiempo ,como
el factor de mejora en el riesgo de longevidad, la revisión se puede posponer a
periodos más largos, evitando en todo caso reevaluaciones en periodos
superiores a 10 años. Debemos por tanto revisitar el plazo canónico de 20 años
para la predicción segura en la literatura actuarial para la medida de la
longevidad.
Tengamos presente algunas estimaciones de
mejoras tecnológicas y en relación con el propio ser humano, en 2022 los
ordenadores superarán la capacidad cerebral del ser humano , en 2045 los
ordenadores superarán la capacidad intelectual de todos los cerebros humanos
del planeta y en 2050 tomando la visión
del biólogo William Haseltime, fundador de Human Genome Science todos los
nacidos en ese año, vivirán 150 años y por último el conocido como “human
enhancement” ( mejoramiento humano) donde la genética, la inteligencia
artificial hará del hombre un ser más longevo, perfecto e inteligente.
Estas proyecciones aplicadas a la vida cotidiana , incluida la salud, a modo de
“warning signs” son tal intensidad y ruptura que no podemos modelar los riesgos
cotidianos en horizontes cercanos a estas fechas, por ello tal vez la sentencia
del gran Poper no se haga realidad en nuestro caso: Las grandes mejoras se
consiguen tentativamente, paso a paso. Tenemos que mirar el modelo con una
visión más rupturista que continuista. En definitiva no disponemos de
herramientas para desvelar y luego capturar
la realidad cambiante que se origina por el tiempo, mientras tanto
recordamos a Jorge Luis Borges, cuando dijo que la memoria de lo pasado y la previsión del porvenir, vale decir tiempo.
Así debemos ser muy escépticos con aquellos
modelos que sostienen que perviven en el tiempo, al no tener referentes
temporales las consecuencias económicas son no mesurables, en cierto modo la
capacidad actuarial de la medida del tiempo se ha mostrado incapaz Con un
ejemplo podemos entender mejor el nivel de incertidumbre en el riesgo incluso
de contratos en vigor como sería un seguro de renta vitalicia; hemos mencionado
que la esperanza de vida al nacer a mitad de este siglo XXI puede alcanzar los
150 años de edad, para este incremento de la vida humana, la sociedad puede
caer en el “ageismo” expresión originada en Gran Bretaña en 1968, para referirse
a la discriminación por ser viejo o senil, y donde la geriatría no conoce las
patologías asociadas a esos tramos de vida de extendida. Tampoco la filosofía
en su versión bioética ha reflexionado acerca del sentido de la vida ampliada a excepción hecha del alargamiento
de la vida de forma indigna o si este aumento de vida tiene su origen en la
manipulación genética en cuyo caso la dignidad humana quedaría en entredicho,
en este sentido, ético Svetlana Alexiévich, escritora galardonada con el premio
Nobel de literatura en 2015, nos dice que no existe una filosofía que de
soporte al extra de vida de 20 o 30 años de vida (entrevista en El País
28-4-2016 Ideas página 8), y por último el analista de riesgos no dispone de
experiencia para modelar la biometría del extremo de la vida, a pesar de los
progresos contrastados en la modelización de la longevidad a largo plazo, como
es la técnica reciente de “what if” donde se simulan escenarios estocásticos de
mejora de la vida humana. No encontramos un modelo holístico de homologación de
valores que permita comprender la vida extendida, es por ello por lo que
podríamos calificar como sistémico.
Los seguros preconcedidos
La
modelización predicitiva, permite una nueva forma de aproximación al cliente de
seguros, se refiere a la posibilidad de evaluar el perfil del riesgo de un
potencial asegurado, antes de que este manifieste su intención de contratar una
póliza.
Esta
técnica que en banca es habitual, en el mundo asegurador es todavía emergente y
no están implantadas en la mayoría de las aseguradoras, al contrario se podría
decir que esta tecnología de suscripción predictiva comienza a finales de la
primera década de este siglo.
La
idea que subyace en estos modelos, es simplificar los procesos de suscripción
de seguros, mediante el uso de técnicas predictivas aplicadas a bases de datos
de clientes sin seguro, donde se combinan variables personales, con externas y
en ocasiones de comportamiento crediticio. Después de las primeras experiencias
internacionales en las que se proponían hasta 17 variables, los modelos
actuales son más parsimónicos, y las variables que intervienen suelen estar en
el rango de 7 a 10. El catedrático de matemáticas la Universidad de Oxford Nigel Hitchin en
entrevista en el Diario El Mundo ( El
Mundo, 25-9-2016, Ciencia página 27) sostiene que para encapsular expresiones
complejas el sistema debe ser lo más simple posible, es decir, con el menor
número de suposiciones y de ecuaciones.
Los clientes son clasificados en deciles, según sean categorizados
como riesgo bajo-medio-alto ( exclusión) y aquellos clientes que se encuentren
clasificados en los dos o tres deciles más bajos se les conceden un seguro a un
precio determinado, tan solo cumplimentando un cuestionario de salud, o incluso
una única pregunta de salud.
Las
primeras experiencias de seguros pre-concedidos aplicados en el canal banco
asegurador europeo han demostrado su eficacia en términos de éxito comercial y
promete ser una línea de trabajo a potenciar por las aseguradoras. La oferta
selectiva de producto de seguro a los mejores perfiles de riesgo, puede ser
considerada como éticamente reprobable si la entidad de seguro exclusivamente
contrata el 20%-30% de todos los riesgos, haciendo inaccesible el seguro al 70%
de la población. Circunstancia parecida ocurrió en el mercado anglosajón de
salud a finales de los noventa del siglo pasado, donde una entidad centró su
oferta solo a los mejores perfiles de riesgo de morbilidad, el mercado
reaccionó con críticas por la falta de equidad de la oferta.
7-5
El margen empresarial sobre el riesgo y el precio de la red de distribución.
La
construcción del precio del seguro desde el valor asignado al riesgo hasta el
precio final que debe abonar el asegurado, debe contemplar el margen empresarial
legítimo y el pago a la red de distribución que comercializa el contrato del
seguro.
La
cuantificación de los dos elementos en su relación con lo éticamente apropiado
o socialmente aceptable es objeto de controversia permanente en una economía de
mercado.
La experiencia y lecciones aprendidas de la
crisis financiera de septiembre de 2008 nos han enseñado que la prácticas de
codicia empresarial, asociadas en ocasiones a incentivos sobre el negocio
desproporcionados, pueden haber contribuido al menos como acelerante de una de
las mayores crisis del capitalismo. La encíclica Caritas in veritate de 2009,
denuncia los efectos perniciosos sobre la economía real de una actividad
financiera mál utilizada y en buena parte especulativa…
Estos
escándalos éticos como los califica
Bernardo Kilkbersg ( Kilkbersg Bernardo, Un examen de las relaciones entre
ética y economía. Valores y Ética para el Siglo XXI,BBVA, 2012), merecen una
reflexión sosegada, donde los valores éticos que apuntaba Adam Simith en 1759
de prudencia, humanidad, justicia, generosidad y espíritu público evitaría que
hubiera graves riesgos en los mercados.
Con
estos valores presentes en cada decisión de precio se encontrará el justiprecio
socialmente aceptable y empresarialmente adecuado para la remuneración del
accionista ajustada al riesgo. Observamos iniciativas prometedoras en
posicionamientos y actitudes recientes de responsabilidad social corporativa
que se comprometen a ofrecer al
consumidor productos con precios razonables.
Todo
ello, en un contexto en el que todo indica que los márgenes se reducirán y
que el core business de las entidades
puede quedar en un mero título jurídico de suscripción del riesgo y que con
toda seguridad la cadena del proceso de gestión del seguro, quedará divida en muchos
intervinientes, es decir, quien
comercializa será distinto de quien asuma el riesgo y la gestión del mismo
puede estar cedido en régimen de outsourcing
a entidades especialistas.
7-6El
apetito al riesgo.
La
tolerancia al riesgo según el perfil de
los riesgos en los que incurre la empresa determinará el beneficio empresarial
según el capital disponible, esta decisión que se apoya en modelos
cuantitativos, tiene una decisión cualitativa y de posicionamiento estratégico.
7-7Gerencia del riesgo.
La
gerencia de riesgos en el sistema financiero tal y como la conocemos hoy en día
es un proceso gradual que comenzó sobre la década de los setenta del siglo
pasado. Siendo verdad que el mundo del seguro tiene una tradición más que
centenaria en la medida del riesgo, no es menos cierto que la gestión integral
de los riesgos del activo y el pasivo del balance es relativamente reciente. No
olvidemos que los modelos de valoración de carteras con técnicas estadísticas
tiene su impulso con el modelo de valoración de opciones de black-Sholes.
La
gestión de carteras de activos por las aseguradoras comienzan a tener una
visión cuantitativa en la década de los noventa del Siglo XX, fecha en la que
comienzan a implantarse técnicas de ALM modernas, se generaliza el uso del VAR
( Value at Risk) como medida de riesgo global.
Habrá
que esperar a este siglo para ver como se han ido implantando en los
organigramas de las entidades departamentos de riesgos cuya misión en la
gestión integral de todos los riesgos en los que incurre una entidad de
seguros. Este proceso ha ido en paralelo con el proceso de implantación de la
directiva de Solvencia II que desde sus primeros borradores hasta su plena
eficacia en enero de 2016, que ha ido formando en la gestión moderna de los riesgos.
Una
acertada definición de gestión integral de riesgos, la aportó Meulbroek (
Meulbroek L.,A Senior Manager´s Guide to integrated Risk Management, Journal
and Finance 14, 56-70) quien la define como la identificación y evaluación de
los riesgos colectivos que afectan al valor de una empresa y la aplicación de
una estrategia interna para gestionar dichos riesgos. El arte del gestor será
configurar un sistema de gestión ponderado entre arriesgar y no arriesgar.
Planteamos
un primer debate ético, la gestión de riesgos nace como un compromiso de la
empresa para garantizar la correcta
administración a los intervinientes-grupos de interés- y la sociedad en general
o por el contrario fue la sociedad quien exigió a la vista de la crisis
financiera unos comportamientos prudenciales de acuerdo con criterios de buen
administrador, lo que algunos autores denominas auto-regulación forzosa.
Lo
relevante es analizar el escenario actual de la gestión de riesgos, donde ya
está presente la transparencia, la modelización integral, mecanismos de
supervisión y de administración leal. Los avances en las obligaciones que
asumen las empresas en el marco de la ética empresarial son evidentes y los
problemas de opacidad de los que era acusada la industria financiera han quedado
atrás, pero debemos alertar de la tentación en la que pueden caer las empresas
en considerar la gestión del riesgo como un mecanismo cuantitativo de
optimización de la rentabilidad ajustada al capital, y si esto ocurriera nos
encontraríamos a las puertas de una nueva crisis financiera sistémica que se
manifiesta en una secuencia de sucesos incontrolables.
En
estos escenarios de crisis global, el administrador o gerente de riesgo no debe
pensar que el riesgo moral de sus actuaciones está easegurando el riesgo de “
to big to fail” por el Estado cuando interviene con ayudas al sistema, este
riesgo moral pudiera ser no capturado por los sistemas de buen gobierno y de
transparencia y supervisión. Los expertos en
gestión de riesgos aconsejan estar muy vigilantes a eventos de baja
frecuencia y alta intensidad, una incorrecta identificación de la exposición,
medida y protección de estos eventos son la vía de la crisis del sistema.
Como
bien apunta el citado Boatright los sucesos extremadamente inusuales, como las
fat tails (sucesos de distribución de colas muy largas) o black swans (cisnes
negros) tiene consecuencias imprevisibles e improbables o tienen distribuciones
demasiado limitadas como para poder ser analizadas. Al no haber series
históricas es muy complejo medir el riesgo para después gestionarlo. Una vez
más la gerencia de riesgos tiene mucho de actitud personal de los encargados de
la gestión, tan solo la percepción de la industria acerca del ambiente
regulatorio condiciona las decisiones de gestión.
Este
autor, nos advierte que la uniformidad de criterios en la gestión de
riesgos y de modelos , ejemplo VaR al 95% o 99% ,elaborados en escenarios de
confianza económica, pueden no ser suficientes ante situación de graves crisis,
y cita un símil de Einhorn y Brown de
2008, cuando dicen el VaR es como el airbag de los coches que funciona siempre
excepto en caso de colisión.
Ciertamente
deberíamos reflexionar sobre los efectos de la homogeneidad de modelos en la
gestión de riesgos ante escenarios que queden fuera del intervalo de confianza.
Pensemos en el riesgo de longevidad, los cálculos actuariales que se realizaron
en los sesenta y setenta del siglo pasado han demostrado que los asegurados han
superado la esperanza de vida por encima del nivel de confianza del 99%. En la
medida que toda la industria utilizó una tabla actuarial similar, el riesgo de
supervivencia se convierte en sistémico en este territorio. Esta situación
puede seguir presente en la actualidad si el asegurador ante riesgos iguales ofrece
soluciones gerenciales idénticas.
Estas
situaciones de riesgo de modelo colectivo en una industria, se moderaría
haciendo partícipe en cada entidad a la ética de valores donde se reduzca el
peso de lo cuantitativo a favor entre otros del juicio experto y estar en
condiciones de afrontar la próxima crisis, que según los expertos se produce
una cada 30 años.
7-8
El riesgo sistémico
La
ciencia actuarial ha desarrollado metodologías específicas para capturar
riesgos denominados masa (alta frecuencia y baja probabilidad del daño) y los
no masa ( contrarios al anterior), la experiencia aseguradora ha demostrado sus
capacidades para poder entender estos riesgos y gestionarlos, aunque es cierto
que los riesgos no masa son complejos y deben ser objeto de especial atención
en la gerencia de riesgos como veremos más adelante.
Pero
las capacidades técnicas de investigación deberían poner sus esfuerzos es en
entender la prociclicidad, es decir el agravamiento de las consecuencias
producidas por pequeños cambios en las interacción de variables. Y es que la dependencia no lineal de las
variables, en opinión de Boatright puede tener mayores consecuencias que los
daños de los riesgos no masa, además la situación se complica pues es muy
difícil de detectarlos y modelar.
José Miguel Rodríguez-Pardo