domingo, 30 de julio de 2017

Ensayo sobre ética aplicada a la medida del riesgo y seguro (7-2)

7-3 Variables de la demanda del seguro

Conocer con análisis macroeconómico con modelos econométricos, los factores que determinan la demanda de seguros ante distintas contingencias  es una forma más que indiciaria para fijar digámoslo así las etiquetas del riesgo. Y esto tiene interés porque además de identificar los “las preocupaciones de la sociedad”, permiten valorar la inclusión de alguna o algunas de ellas en los modelos predictivos de cada contingencia, donde la incorporación de variables socio-economico-demográficas influyen en la variable dependiente del riesgo.

 Por particularizar en una contingencia la del fallecimiento, los primeros estudios acerca de los factores determinantes de los seguros de vida se remontan a 1965 con el trabajo de Yaari Hammond , desde entonces han sido muy numerosos los estudios realizados en diferentes países ,citemos el caso de 2014 del estudio para la India de Mishra IJ de la demanda de seguros de vida de aquel país.
Identificamos algunas  las conclusiones más relevantes de los diferentes estudios de demanda:
- la demanda de seguros de vida en general, se  explica a través del marco del ciclo de vida en la que las familias o individuos tienden a  maximizar la función de  utilidad esperada de su consumo de toda la vida.
- la demanda de seguro de vida es  una función de la riqueza, de  los ingresos esperados en el tiempo de vida de un individuo, del nivel de las tasas de interés  del costo de los seguros de vida (gastos administrativos), y  de la de  tasa de descuento subjetiva asumido para el flujo del consumo futuro .
- la incertidumbre sobre el momento de la muerte de la persona unido al deseo de dejar un  ingreso adecuado para dependientes (cónyuge o hijos), el  individuo aumenta su utilidad esperada mediante la compra de un seguro de vida.
-La demanda del seguro de vida, según Lewis en 1989, también está influida por la necesidad de satisfacer a los beneficiarios potenciales del seguro, es decir el cónyuge y los hijos tienden también a maximizar su función de utilidad esperada.
 Los trabajos de Hwang y Greenford  en 2005 incorporan  variables de naturaleza sociodemográficas  como , la educación, la seguridad social, la estructura social, el precio de los seguros, el desarrollo económico...
Estos indicadores pueden tener una utilidad adicional y es la evaluar si el seguro es un producto, por la demanda efectiva, destinado a determinadas clases sociales y por lo tanto entra en juego el juicio moral acerca de su contribución a la equidad social.

 7-4 Los modelos del riesgo

 Conviene recordar que el proceso conocido de pooling risk por el analista de riesgo integra en una cartera de seguros sobre la base de la diversificación, y simplificando mucho,  el modelo es aplicable cuando disponemos de un número suficientemente grande  se opera con el teorema central del límite para fijar el precio. El asegurador establece grupos homogéneos de riesgo reduciendo la volatilidad del grupo total de asegurados.

Los modelos que emplearemos para medir el riesgo, tienen como fin, como decía Kant, el determinismo causal, esto es buscar la simetría entre la explicación y la predicción. Como nos encontramos dentro del marco de las ciencias sociales, predecir fenómenos en los que intervienen actores sociales puede ser complejo o en ocasiones habrá desistir del empeño. En este proceso, reiteramos lo ya apuntado en capítulos anteriores, el analista no hace juicios morales ni de las variables, ni de los resultados, ni de los propios modelos que no dejan de ser pegamento sobre el construye el nexo causal.

En un magnífico libro sobre la historia del riesgo Against the Gods el autor Bernstein ( Bernstein Peter L, 1996, Against the Gods: The Remarkable Story of Risk.Nueva York Willey) ya advertía en 1996 que una nueva clase de religión, un credo tan implacable, restrictivo y arbitrario como el anterior…, se refería a gestión de los riesgos de la antigüedad era cosa de la superstición y de la aceptación del destino.

 No pudo ser más visionario Bernstein, de hecho una de las causas de la crisis financiera del 2008 es atribuida a la confianza ciega  y acrítica de los modelos de valoración de riesgos, por citar un caso concreto, el sistema de concesión de hipotecas en los Estados Unidos basados exclusivamente en modelos de scoring. Desde entonces, aunque se han dado pasos para evitar estas mismas situaciones, la modelización de riesgos se está sofisticando a niveles tan complejos que se requiere de perfiles profesionales muy orientado a lo cuantitativo, sin incluir en la toma de decisiones elementos ajenos al resultado de los modelos. El juicio experto y la visión crítica de los modelos no está presente.

La elección del modelo que mejor captura el riesgo, presenta varias consideraciones que deben ser analizadas, este proceso recuerda a la pregunta que hace Alicia en el País de las Maravillas al sombrero ¿ Que camino debo escoger? Depende donde quieres llegar. Y es que el modelo  que seleccionemos tiene un propósito final que forma parte de proceso de decisión del analista.

En primer lugar  y para responder a las consideraciones acerca del modelo  recurrimos  al filósofo Ludwing Wittegestein en su obra de referencia Tractatus Logico Philoshophicus dice que no hay un orden perfecto, sino una gran cantidad de ellos, la sentencia es aplicable es al modelo aplicable para capturar un evento. El analista de riesgo tiene a su disposición un conjunto de técnicas que pueden ser útiles y válidas para el fin que persigue, el conocimiento de los distintos modelos por el analista condicionará el manejo de cada uno de ellos y que en todo caso hay un cierto proceso de prueba error para la elección del modelo final,  y como dicen los anglosajones “ if you´re going to fail, fail fast”.

Y es en este punto donde surge el conocido como riesgo de modelo, esto es, en el propio modelo  hay un riesgo de error. En la actualidad se están desarrollando técnicas que tratan de mitigar este riesgo.


Es importante antes de que enumeremos los distintos modelos que proponen las  técnicas estadísticas más avanzadas, tener presente que la medida de un riesgo puede tener soluciones distintas según sea el modelo utilizado y con robustez técnica acreditada. Creemos que es de interés recordar que mucho  antes que en la época de Adam Smith (1723-1790) se iniciara la visión estadística de la vida social, que la búsqueda algoritmos por parte del hombre se remonta a hace  3.500 años, cuando  los babilonios imaginaron los primeros algoritmos, calculando una raíz cuadrada, sobre arcilla húmeda, desde entonces el hombre los ido perfeccionado hasta llegar en la actualidad a los modelos complejos que crean patrones en minutos que un ser humano tardaría años. Creemos que es de justicia reconocer la aportación de la ciencia actuarial al propio desarrollo de la estadística, por citar un caso relevante,  destacamos a principio del Siglo XX en los Estados Unido las aportaciones de los actuarios a la teoría de la credibilidad, o las contribuciones de Finetti (1906-1985) en el campo de las probabilidades subjetivas.

 El éxito de un algoritmo se suele asignar en un 80% a la calidad de los datos y un 20% a la calidad de la secuencia numérica, ahora bien, si la información de fragmenta de manera diferente, se aplican con modelos diferentes y  los resultados son diferentes. Desde la filosofía estas distintas realidades a un mismo fenómeno lo asimilan a un juego de espejos.

En definitiva un modelo es una correlación comprensiva de  variables que tratan de poner precio a una contingencia, convirtiendo en certeza lo que es incierto, invirtiendo el ciclo económico en el sentido que compra contingencias y devuelve certezas (siniestros) con un beneficio empresarial.  Según avancemos en el conocimiento de las relaciones complejas de variables identificativas de los riesgos, se requiere una reflexión acerca de las consecuencias, a veces no deseadas, en el pricing del  seguro.

 En este proceso de búsqueda de beneficio empresarial sobre la base de los modelos y/o tecnología que podemos denominar determinismo de aplicación tiene sus defensores como Friedman cuando dice “Si puedes hacerlo ( aplicar la tecnología), debes hacerlo…porque si no, lo harán tus competidores” ( Friedman Thomas, 2005, The world is Flat.New York: Farrar,Status an Giroux.) El potencial ético está presente en esta corriente de pensamiento que está muy extendida en la sociedad tecnológica del Siglo XXI. Las autoridades supervisoras bancarias ya han alertado de la tentación de arbitrar con los modelos para utilizar el que mejor resultados presente para los fines que se persiguen y no aquel que cumpla mejor con los test estadísticos requeridos.

Los llamados modelos predictivos aplicados al seguro son relativamente recientes en su uso, desde las primeras versiones en España aplicadas en el seguro de autos coincidentes con el principio del Siglo XXI, se han ido generalizando tanto en las entidades que lo utilizan como en los riesgos a los que se aplican, demostrando su robustez estadística en todas las modalidades de seguro, donde se manejan grandes volúmenes de datos tanto de contratos como de experiencia siniestral. Este hecho no es singular en el mercado español sino que es global, por citar un caso ,los Estados Unidos un informe de GenRe ( Attmaniuk, J. Life Insurers Warm to Predicitve Modelling Tools. Wwwgenre.com) de 2014 realizado sobre 40 aseguradoras mostraba un incremento del 60% en el uso de estos modelos entre 2010 y 2013. Este escenario tiene diferentes intensidades de uso, y es el seguro de vida el menos activo, tan solo el 8% de la entidades  en 2015 utilizaban esto modelos, el motivo que alegan las aseguradoras, un 71% de los casos; que no disponían de infraestructura de IT para ejecutar los modelos con los datos disponibles, no se debe dejar de mencionar que apostar por estos modelos es una cultura empresarial en sí misma y requiere para su puesta en marcha de profesionales con conocimiento adecuado.

Más reciente son las aplicaciones actuariales del aprendizaje automático ( técnica de aprendizaje automático basado en redes neuronales multicapas)  cuyas investigaciones inicialmente para el seguro no vida se iniciaron en 2009, y dos años más tarde, en marzo de 2011, se publicó el trabajo From artificial fish to underwrtiters, lo que hace que estos modelos no sean de conocimiento general por los analistas de riesgos en la segunda década del siglo XXI.

El uso de estos modelos presenta ventajas pero también inconvenientes, el trabajo de Dion M. ( Dion M. Predictive Modelling a Life Underwriter´s Primer www.genre.com) censa las características de la modelización predicitiva:

-Detecta relaciones complejas no lineales entre variables dependientes e independientes

-Detecta todas las interrelaciones posibles entre los factores explicativos

-Algunos modelos requieren conocimientos en estadística menos formales.

-Capacidad para combinar métodos clásicos de estadística para apoyar las decisiones de los modelos predictivos

-En ocasiones actúan como “cajas negras” difíciles de comprender.

-Se necesita gran capacidad computacional.

-Son modelos sensibles a cambios en las condiciones del modelo, por lo que es necesario un seguimiento continuo.

-Peligro que el criterio matemático o estadístico se imponga al criterio humano en determinadas ocasiones, produciendo decisiones equivocadas.

Es  relevante que en la lista de inconvenientes de estos modelos se señalen elementos que ya hemos analizados como de conflicto ético, el  llamado juicio experto ha merecido un capítulo en el trabajo, y no menos importante es la referencia a “caja negra” de determinados tipos de modelos. Esta cuestión no es menor, si el gerente de riesgo no puede justificar los pesos de variables, sus interacciones, el modelo puede ser invalidado por la sociedad que demanda transparencia en la toma de decisiones empresariales sobre todo en mercados altamente regulados.

 Aplicar en la vida cotidiana los resultados de los modelos sin juicio crítico y sin mirar al cliente sobre el que se hacía el scoring fue, para algunos analistas, una de las causas explicativas de la crisis financiera de 2007-2008,como ya hemos comentado; la poetisa española Elena Medel (1985) ha escrito el  poema Salón de los pasos perdidos que comienza así: La tecnología carece de autoestima…, es una exhortación que nos hace reflexionar.

Algunos de los modelos aplicados en la práctica actuarial  que han demostrado su validez son entre otros:

-Modelos lineales generalizados.

-Modelos CART ( Classification and Regression Tress)

-Redes neuronales.

Las experiencias en la industria del seguro de la aplicación de la modelización predictiva desarrollada desde los inicios del siglo XXI, nos dan ciertas pistas de cuáles son las cautelas y enseñanzas que debemos tener en cuenta, el artículo de William Trump, Data analytics in life insurance: Lessons from predicitve underwriting de 26 de mayo de 2014, publicado en cgd.swissre.com nos enumera los cinco pasos a seguir:

-Comenzar por centrar los objetivos de manera clara. No es lo mismo suscripción, que retención o pricing diferenciado.

-Ser realista con las limitaciones de la calidad y cantidad de datos disponibles.

-Los datos imperfectos no son una excusa para no desarrollar el modelo.

-Los datos no pueden hacerlo todo. Se recomienda un enfoque haz una aprueba y aprende.

-Big data. Mucho hablar, poca acción. El modelado de datos es un proceso de aprendizaje constante para maximizar su eficacia

Los modelos de Inteligencia Artificial, tratan de replicar los procesos neuropsicológicos del ser humano, tratando crear sistemas que piensen o actúen racionalmente como humanos. Los modelos de aprendizaje automático- machine learning- crean patrones de comportamientos sobre la base del proceso de aprender sobre información no estructurada, con dos tipos de categorías según la “supervisión” del aprendizaje, si es supervisado el foco se centra en la predicción y si no lo es, se centra en la compresión de la estructura que está en el conjunto de los datos.

 Estos modelos incluyen diferentes tipos de aproximaciones técnicas, como árboles de decisión, análisis bayesiano, random forest, gradient boosting machine, máquinas de soporte vectorial…, se suelen utilizar en los casos en los que en los que las relaciones entre los datos no son lineales.

 Tengamos presente que estos modelos tienen su origen en el tiempo, en la década de los cincuenta del siglo pasado y que su aplicación práctica en la medida de los seguros comienza con el siglo XXI de manera muy incipiente y no consolidada. Si en los primeros cuarenta años de su desarrollo, hasta los noventa del siglo pasado, estos modelos se centraron en resolver problemas combinatorios, desde entonces se han centrado en entender y reproducir problemas que los humanos resuelven de manera inconsciente, como sería el reconocimiento facial, traducir un idioma, y queda el reto de entender mecanismos complejos del cerebro humano, como la mentira, el engaño ante un juego de magia ,que juega un papel relevante en las decisiones humanas. Esta opinión corresponde a Raúl Rojas experto en inteligencia artificial de la Universidad de Berlin en el artículo La realidad con la que convivimos es una simulación de nuestro cerebro, publicado en El País el 29 de enero de 2016.

Los modelos que se desarrollan se encuadran en tres categorías según el tipo de aprendizaje, supervisado, no supervisado y por refuerzo.

 Las tres áreas en las que se puede encuadrar la Inteligencia Artificial ,siguiendo a Pablo Rubio-Manzanares ( obra citada) son:

-Formal, crea modelos de búsquedas en un espacio de estados, estos modelos pueden ser heurísticos o algorítmicos

-Técnico, emplean conocimientos de tipo científico-técnico a partir de criterios expertos, son los conocidos como KBS ( Knowledge Based Systems)

-Cognitivo, trata de emular las funciones cognitivas, como el habla, mediante procesos de modelos computacionales. En el caso del habla los expertos en estas técnicas advierten de la dificultad de capturar la ironía, el sarcasmo o la metáfora.



Los modelos de inteligencia artificial utilizan grandes volúmenes de datos y son recomendables cuando las estructuras de cada variable no se conocen con precisión. Estos modelos estiman pesos al azar a cada variable explicativa y en proceso de comparación de las predicciones con los datos reales, se vuelve a iterar y así sucesivamente hasta que se logra un ajuste robusto.

Las ventajas de estos modelos en relación con modelos predictivos como el GLM, se han demostrado en aquellas experiencias donde se han implantado son claras, como es el tiempo de implantación del modelo cuya relación puede ser de 4 a 1, a favor de la IA, los mejores resultados predictivos en la mayoría de los casos. Además estos modelos permiten incorporar las cotizaciones que se realizan en el mercado, así comprender y predecir los movimientos de precios de mercado y ajustar el precio del catálogo de productos. Y como dice el informe de noviembre de 2016, How Machine Learning is Revolutionising The Insurance Industry ( www.dataanityticsinsurance.com) en 10 años la mayoría de las infraestructuras de IT tendrán infraestructuras de aprendizaje automático.

 Pero la Inteligencia artificial, está sometida a cierta controversia pues el modelo al actuar de manera opaca, no se puede valorar la capacidad explicativa de cada variable, de hecho en áreas como la biomedicina presenta ciertas dificultades de uso por este motivo. Son modelos complejos, citemos el caso de la técnica deep learning, redes neuronales multicapa que resuelve problemas mediante el uso de neuronas cuyos resultados van unidos unos a otros, de tal manera que no se pueden obtener resultados si considerar todas las relaciones, estas técnicas se utilizan en el reconocimiento de imágenes.

La dificultad de interpretar los resultados del  modelo y la necesaria adquisición de habilidades para ejecutar y mantener el modelo, la responsabilidad del resultado del algoritmo, el riesgo de ciberseguridad, deben tenerse presente a la hora de apostar por estos modelos. Además de lo anterior el modelo debe encaminarse hacia la no supervisión, es decir soslayar la intervención humana, reduciendo el coste del “retuning” de los reajustes periódicos de la realidad observada, los cambios de comportamiento y las decisiones tomadas  de los resultados del modelo.

A pesar de estas dificultades, ya hay iniciativas en el proceso de selección de riesgos en el seguro de vida con la ayuda de estas técnicas, como es el caso de Genworth Financial ( Aggour, K, Bonissone,W, Messmer R, Automating the Underwriting of Insurance Application. Ai Magazine,vol 27, nº7,2006) que desarrolló un modelo basado en técnicas fuzzy logit donde los parámetros del modelo se ajustan con el algoritmo de mejora donde el asegurado está categorizado en un perfil de riesgo.

No dejemos de mencionar el proyecto de IBM Watson Healthque aplica la computación cognitiva y es aplicable para  seguros y en concreto que ya se está utilizando desde finales de 2015 por Swiss Re en la suscripción de riesgos. Este supercomputador donde hasta 2.000 profesionales médicos, investigadores y desarrolladores trabajan para incorporar datos de historias clínicas, leer artículos sanitarios ,con el objetivo entre otros de reducir  los errores médicos, tercera causa de fallecimiento en Estados Unidos, crear patrones de enfermedades y tratamientos, gestión de enfermedades crónicas, desarrollo de nuevos fármacos, mejora de los ensayos clínicos…, todo este potencial puede ser de utilidad en hospitales, aseguradoras y médicos.

En otros procesos de gestión de una aseguradora, también se están utilizando estas técnicas, como son en siniestro detección de fraude, predicción de caídas de carteras, propensión de compra optimización de precios…en todos ellos las dificultades de explicar el modelo se hace patente. Además, su réplica por un tercero que deba supervisar o auditar los resultados  hace que entre los expertos y supervisores se tenga prevención en su uso, y tal es así que  el uso de modelos internos de riesgos esté cuestionado.

Al debate acerca del uso de estos modelos en la ciencia actuarial, se ha sumado ASTIN ( Actuarial Studies in Non Life Insurance) en el informe del Grupo de Trabajo Big Data Analytics ,Fase 1, Papeboard de abril de 2015, recomienda al actuario el uso de los nuevos instrumentos estadísticos para la gestión adecuada de los datos como son las aplicaciones predictivas de aprendizaje automático y la computación cognitiva, y sostiene que la elección del modelo actuarial adecuado para dar respuesta a este proceso debe superar las limitaciones de los Modelos Lineales Generalizados ( GLM) para encaminarse hacia modelos más complejos como son: CART, Random Forests, Gradient Boosting, Redes Neuronales, Boosting, Bagging, árboles de decisión…

Otro debate es si estos modelos a medida que se vayan perfeccionando acabarán por eliminar el juicio experto, pues el algoritmo reproduce el esquema mental de decisión del analista de riesgo o suscriptor. El conocido como Deep Learning se refiere precisamente a este proceso, es decir las máquinas aprenden sin intervención humana. Recordemos el juicio prudencial es un conjunto de valores personales y profesionales, que se conforman a lo largo de la vida y por ello tampoco es transparente en la toma de la decisión personal.


 Relacionado con los algoritmos de inteligencia artificial, la figura del asesor virtual de riesgos que está en fase de desarrollo,  cuyas  reglas de decisión basada en algoritmos complejos es otro reto para la ética aplicada al riesgo.

Si miramos con cierta perspectiva en el tiempo, desde que en 1960, J.C.R Licklider pensó en la posibilidad de la cooperación entre los seres humanos y los ordenadores, el escenario actual y previsible de la interacción del hombre con las máquina ha motivado a Stephen Hawkins a advertir de la amenaza  para el ser humano de la plena implantación de la Inteligencia Artificial. 


El Modelo y su validez o degradación en el tiempo

Podemos decir que los modelos aplicados a una realidad que observamos nacen con fecha de caducidad, en cierto modo, el tiempo degrada el modelo, podríamos hacer el simil con la degradación de la calidad  que se producía en las primeras películas que incorporaron el color, donde se produce un debate moral acerca de si la “recoloración” altera los derechos de autor original. En nuestro caso, cabria proponer otro debate ético relacionado si el modelo que confecciona el analista  tiene derecho de autor lo que supone de derechos morales no económicos o no sería aplicable. Este debate lo aparcaremos pues el derecho tiene la respuesta adecuada.

 Volvamos al planteamiento inicial: El contexto social y económico donde medimos el riesgo, es mutable con el tiempo. Será difícil construir un modelo con el mismo fin que se persigue en la Arquitectura, trascender la realidad observada, lo máximo que podemos conseguir, es explicar las perspectivas de la contingencia que causa el infortunio ajeno a la voluntad individual. Si  riesgo es lo que nos depara el porvenir, podríamos hasta llegar a pensar que no deja de ser una tarea imposible cuantificarlo al menos medido  en el medio plazo. En la medida que el nexo causal de un evento se alargue en el tiempo, su  aseguramiento se hace complejo, podríamos decir que  el tiempo en sí mismo es un desafío a nuestras certidumbres.

La medida del riesgo medido en el espacio y en el tiempo es una tarea no bien resuelta por los analistas de riesgos, no se trata tanto de prescindir del tiempo, como solo ha hecho la cultura  guaraní, quienes no tenían unidades de tiempo, sino de incorporar el eje temporal en los modelos, solo así el modelo acompañará al destino del individuo. En nuestro ecosistema encontramos una sentencia muy oportuna y aplicable  que dice “El tiempo es superior al espacio”, incluida en Exhort. Ap. Evangelli Gaudium de 24 de noviembre de 2013.

Las reflexiones éticas en relación al hombre y el tiempo son habituales, desde la posición de la identidad personal de la autoconsciencia del yo soy en el tiempo, hasta la postura de Kant que dice somos los mismos en todo el tiempo del que poseemos consciencia, pero solo durante ese tiempo. El pensamiento filosófico acerca del tiempo tal vez no ha tenido mejor definición que la de San Agustín cuando decía en su libro Confesiones solo sabemos  qué es el tiempo cuando nadie nos propone definirlo. Por lo tanto asignar valor al tiempo, tarea necesaria en la medida del riesgo,  no es un asunto menor, al referirse a la  coordenada temporal  Diego Sebastián Garrocho en Diálogo entre el actuario y el filósofo, nos dice que la experiencia temporal es una construcción social y cultural, en cierto modo el tiempo no está sino que lo hemos construido como una ficción que hemos interiorizado, es una coordenada improbable.

 La decisión de reevaluar el riesgo con el modelo aplicado, o incluso cuando este debe ser sustituido, sin caer en el mero arbitraje del riesgo o el continuismo que nos lleva al abismo, está sometido a debate y controversia. Y es que el analista del riesgo prefiere realidades homeostáticas ,pero el tiempo las desestabiliza haciendo borrosa la realidad observables cuanto más nos alejamos en el tiempo a la contingencia.

 La experiencia nos dice que a un modelo hay que dejarle que se asiente en el tiempo para poder validar técnicamente su bondad estadística. Al menos tres años se recomiendan para revisitar las hipótesis técnicas, ahora bien, si en estas se contemplan el eje tiempo ,como el factor de mejora en el riesgo de longevidad, la revisión se puede posponer a periodos más largos, evitando en todo caso reevaluaciones en periodos superiores a 10 años. Debemos por tanto revisitar el plazo canónico de 20 años para la predicción segura en la literatura actuarial para la medida de la longevidad.

 Tengamos presente algunas estimaciones de mejoras tecnológicas y en relación con el propio ser humano, en 2022 los ordenadores superarán la capacidad cerebral del ser humano , en 2045 los ordenadores superarán la capacidad intelectual de todos los cerebros humanos del planeta y  en 2050 tomando la visión del biólogo William Haseltime, fundador de Human Genome Science todos los nacidos en ese año, vivirán 150 años y por último el conocido como “human enhancement” ( mejoramiento humano) donde la genética, la inteligencia artificial hará del hombre un ser más longevo, perfecto e inteligente.

 Estas proyecciones aplicadas a la  vida cotidiana , incluida la salud, a modo de “warning signs” son tal intensidad y ruptura que no podemos modelar los riesgos cotidianos en horizontes cercanos a estas fechas, por ello tal vez la sentencia del gran Poper no se haga realidad en nuestro caso: Las grandes mejoras se consiguen tentativamente, paso a paso. Tenemos que mirar el modelo con una visión más rupturista que continuista. En definitiva no disponemos de herramientas para desvelar y luego capturar  la realidad cambiante que se origina por el tiempo, mientras tanto recordamos a Jorge Luis Borges, cuando dijo que la memoria de lo pasado y la previsión del porvenir, vale decir tiempo.

 Así debemos ser muy escépticos con aquellos modelos que sostienen que perviven en el tiempo, al no tener referentes temporales las consecuencias económicas son no mesurables, en cierto modo la capacidad actuarial de la medida del tiempo se ha mostrado incapaz Con un ejemplo podemos entender mejor el nivel de incertidumbre en el riesgo incluso de contratos en vigor como sería un seguro de renta vitalicia; hemos mencionado que la esperanza de vida al nacer a mitad de este siglo XXI puede alcanzar los 150 años de edad, para este incremento de la vida humana, la sociedad puede caer en el “ageismo” expresión originada en Gran Bretaña en 1968, para referirse a la discriminación por ser viejo o senil, y donde la geriatría no conoce las patologías asociadas a esos tramos de vida de extendida. Tampoco la filosofía en su versión bioética ha reflexionado acerca del sentido de la vida  ampliada a excepción hecha del alargamiento de la vida de forma indigna o si este aumento de vida tiene su origen en la manipulación genética en cuyo caso la dignidad humana quedaría en entredicho, en este sentido, ético Svetlana Alexiévich, escritora galardonada con el premio Nobel de literatura en 2015, nos dice que no existe una filosofía que de soporte al extra de vida de 20 o 30 años de vida (entrevista en El País 28-4-2016 Ideas página 8), y por último el analista de riesgos no dispone de experiencia para modelar la biometría del extremo de la vida, a pesar de los progresos contrastados en la modelización de la longevidad a largo plazo, como es la técnica reciente de “what if” donde se simulan escenarios estocásticos de mejora de la vida humana. No encontramos un modelo holístico de homologación de valores que permita comprender la vida extendida, es por ello por lo que podríamos calificar como sistémico.

Los seguros preconcedidos

La modelización predicitiva, permite una nueva forma de aproximación al cliente de seguros, se refiere a la posibilidad de evaluar el perfil del riesgo de un potencial asegurado, antes de que este manifieste su intención de contratar una póliza.

Esta técnica que en banca es habitual, en el mundo asegurador es todavía emergente y no están implantadas en la mayoría de las aseguradoras, al contrario se podría decir que esta tecnología de suscripción predictiva comienza a finales de la primera década de este siglo.

La idea que subyace en estos modelos, es simplificar los procesos de suscripción de seguros, mediante el uso de técnicas predictivas aplicadas a bases de datos de clientes sin seguro, donde se combinan variables personales, con externas y en ocasiones de comportamiento crediticio. Después de las primeras experiencias internacionales en las que se proponían hasta 17 variables, los modelos actuales son más parsimónicos, y las variables que intervienen suelen estar en el rango de 7 a 10. El catedrático de matemáticas  la Universidad de Oxford Nigel Hitchin en entrevista  en el Diario El Mundo ( El Mundo, 25-9-2016, Ciencia página 27) sostiene que para encapsular expresiones complejas el sistema debe ser lo más simple posible, es decir, con el menor número de suposiciones y de ecuaciones.

 Los clientes son  clasificados en deciles, según sean categorizados como riesgo bajo-medio-alto ( exclusión) y aquellos clientes que se encuentren clasificados en los dos o tres deciles más bajos se les conceden un seguro a un precio determinado, tan solo cumplimentando un cuestionario de salud, o incluso una única pregunta de salud.

Las primeras experiencias de seguros pre-concedidos aplicados en el canal banco asegurador europeo han demostrado su eficacia en términos de éxito comercial y promete ser una línea de trabajo a potenciar por las aseguradoras. La oferta selectiva de producto de seguro a los mejores perfiles de riesgo, puede ser considerada como éticamente reprobable si la entidad de seguro exclusivamente contrata el 20%-30% de todos los riesgos, haciendo inaccesible el seguro al 70% de la población. Circunstancia parecida ocurrió en el mercado anglosajón de salud a finales de los noventa del siglo pasado, donde una entidad centró su oferta solo a los mejores perfiles de riesgo de morbilidad, el mercado reaccionó con críticas por la falta de equidad de la oferta.



7-5 El margen empresarial sobre el riesgo y el precio de la red de distribución.

La construcción del precio del seguro desde el valor asignado al riesgo hasta el precio final que debe abonar el asegurado, debe contemplar el margen empresarial legítimo y el pago a la red de distribución que comercializa el contrato del seguro.

La cuantificación de los dos elementos en su relación con lo éticamente apropiado o socialmente aceptable es objeto de controversia permanente en una economía de mercado.

 La experiencia y lecciones aprendidas de la crisis financiera de septiembre de 2008 nos han enseñado que la prácticas de codicia empresarial, asociadas en ocasiones a incentivos sobre el negocio desproporcionados, pueden haber contribuido al menos como acelerante de una de las mayores crisis del capitalismo. La encíclica Caritas in veritate de 2009, denuncia los efectos perniciosos sobre la economía real de una actividad financiera mál utilizada y en buena parte especulativa…

Estos escándalos éticos como los califica Bernardo Kilkbersg ( Kilkbersg Bernardo, Un examen de las relaciones entre ética y economía. Valores y Ética para el Siglo XXI,BBVA, 2012), merecen una reflexión sosegada, donde los valores éticos que apuntaba Adam Simith en 1759 de prudencia, humanidad, justicia, generosidad y espíritu público evitaría que hubiera graves riesgos en los mercados.

Con estos valores presentes en cada decisión de precio se encontrará el justiprecio socialmente aceptable y empresarialmente adecuado para la remuneración del accionista ajustada al riesgo. Observamos iniciativas prometedoras en posicionamientos y actitudes recientes de responsabilidad social corporativa que se comprometen a ofrecer al consumidor productos con precios razonables.
Todo ello, en un contexto en el que todo indica que los márgenes se reducirán y que el core business de las entidades puede quedar en un mero título jurídico de suscripción del riesgo y que con toda seguridad la cadena del proceso de gestión del seguro, quedará divida en muchos intervinientes, es decir,  quien comercializa será distinto de quien asuma el riesgo y la gestión del mismo puede estar cedido en régimen de outsourcing a entidades especialistas.


7-6El apetito al riesgo.

La tolerancia  al riesgo según el perfil de los riesgos en los que incurre la empresa determinará el beneficio empresarial según el capital disponible, esta decisión que se apoya en modelos cuantitativos, tiene una decisión cualitativa y de posicionamiento estratégico.

 7-7Gerencia del riesgo.

La gerencia de riesgos en el sistema financiero tal y como la conocemos hoy en día es un proceso gradual que comenzó sobre la década de los setenta del siglo pasado. Siendo verdad que el mundo del seguro tiene una tradición más que centenaria en la medida del riesgo, no es menos cierto que la gestión integral de los riesgos del activo y el pasivo del balance es relativamente reciente. No olvidemos que los modelos de valoración de carteras con técnicas estadísticas tiene su impulso con el modelo de valoración de opciones de black-Sholes.

La gestión de carteras de activos por las aseguradoras comienzan a tener una visión cuantitativa en la década de los noventa del Siglo XX, fecha en la que comienzan a implantarse técnicas de ALM modernas, se generaliza el uso del VAR ( Value at Risk) como medida de riesgo global.

Habrá que esperar a este siglo para ver como se han ido implantando en los organigramas de las entidades departamentos de riesgos cuya misión en la gestión integral de todos los riesgos en los que incurre una entidad de seguros. Este proceso ha ido en paralelo con el proceso de implantación de la directiva de Solvencia II que desde sus primeros borradores hasta su plena eficacia en enero de 2016, que ha ido formando en la gestión moderna de los riesgos.




Una acertada definición de gestión integral de riesgos, la aportó Meulbroek ( Meulbroek L.,A Senior Manager´s Guide to integrated Risk Management, Journal and Finance 14, 56-70) quien la define como la identificación y evaluación de los riesgos colectivos que afectan al valor de una empresa y la aplicación de una estrategia interna para gestionar dichos riesgos. El arte del gestor será configurar un sistema de gestión ponderado entre arriesgar y no arriesgar.

Planteamos un primer debate ético, la gestión de riesgos nace como un compromiso de la empresa para garantizar  la correcta administración a los intervinientes-grupos de interés- y la sociedad en general o por el contrario fue la sociedad quien exigió a la vista de la crisis financiera unos comportamientos prudenciales de acuerdo con criterios de buen administrador, lo que algunos autores denominas auto-regulación forzosa.

Lo relevante es analizar el escenario actual de la gestión de riesgos, donde ya está presente la transparencia, la modelización integral, mecanismos de supervisión y de administración leal. Los avances en las obligaciones que asumen las empresas en el marco de la ética empresarial son evidentes y los problemas de opacidad de los que era acusada la industria financiera han quedado atrás, pero debemos alertar de la tentación en la que pueden caer las empresas en considerar la gestión del riesgo como un mecanismo cuantitativo de optimización de la rentabilidad ajustada al capital, y si esto ocurriera nos encontraríamos a las puertas de una nueva crisis financiera sistémica que se manifiesta en una secuencia de sucesos incontrolables.

En estos escenarios de crisis global, el administrador o gerente de riesgo no debe pensar que el riesgo moral de sus actuaciones está easegurando el riesgo de “ to big to fail” por el Estado cuando interviene con ayudas al sistema, este riesgo moral pudiera ser no capturado por los sistemas de buen gobierno y de transparencia y supervisión. Los expertos en  gestión de riesgos aconsejan estar muy vigilantes a eventos de baja frecuencia y alta intensidad, una incorrecta identificación de la exposición, medida y protección de estos eventos son la vía de la crisis del sistema.

Como bien apunta el citado Boatright los sucesos extremadamente inusuales, como las fat tails (sucesos de distribución de colas muy largas) o black swans (cisnes negros) tiene consecuencias imprevisibles e improbables o tienen distribuciones demasiado limitadas como para poder ser analizadas. Al no haber series históricas es muy complejo medir el riesgo para después gestionarlo. Una vez más la gerencia de riesgos tiene mucho de actitud personal de los encargados de la gestión, tan solo la percepción de la industria acerca del ambiente regulatorio condiciona las decisiones de gestión.

Este autor, nos advierte  que  la uniformidad de criterios en la gestión de riesgos y de modelos , ejemplo VaR al 95% o 99% ,elaborados en escenarios de confianza económica, pueden no ser suficientes ante situación de graves crisis, y cita un símil de Einhorn y Brown  de 2008, cuando dicen el VaR es como el airbag de los coches que funciona siempre excepto en caso de colisión.

Ciertamente deberíamos reflexionar sobre los efectos de la homogeneidad de modelos en la gestión de riesgos ante escenarios que queden fuera del intervalo de confianza. Pensemos en el riesgo de longevidad, los cálculos actuariales que se realizaron en los sesenta y setenta del siglo pasado han demostrado que los asegurados han superado la esperanza de vida por encima del nivel de confianza del 99%. En la medida que toda la industria utilizó una tabla actuarial similar, el riesgo de supervivencia se convierte en sistémico en este territorio. Esta situación puede seguir presente en la actualidad si el asegurador ante riesgos iguales ofrece soluciones gerenciales idénticas.

Estas situaciones de riesgo de modelo colectivo en una industria, se moderaría haciendo partícipe en cada entidad a la ética de valores donde se reduzca el peso de lo cuantitativo a favor entre otros del juicio experto y estar en condiciones de afrontar la próxima crisis, que según los expertos se produce una cada 30 años.

7-8 El riesgo sistémico

La ciencia actuarial ha desarrollado metodologías específicas para capturar riesgos denominados masa (alta frecuencia y baja probabilidad del daño) y los no masa ( contrarios al anterior), la experiencia aseguradora ha demostrado sus capacidades para poder entender estos riesgos y gestionarlos, aunque es cierto que los riesgos no masa son complejos y deben ser objeto de especial atención en la gerencia de riesgos como veremos más adelante.

Pero las capacidades técnicas de investigación deberían poner sus esfuerzos es en entender la prociclicidad, es decir el agravamiento de las consecuencias producidas por pequeños cambios en las interacción de variables.  Y es que la dependencia no lineal de las variables, en opinión de Boatright puede tener mayores consecuencias que los daños de los riesgos no masa, además la situación se complica pues es muy difícil de detectarlos y modelar.




José Miguel Rodríguez-Pardo