domingo, 30 de julio de 2017

Ensayo sobre ética aplicada a la medida del riesgo y seguro (8-2)

8-2La economía colaborativa y el seguro

  Hemos analizado el principio ético de la reciprocidad como garante de la mutualización de los riegos, y es precisamente bajo este principio donde se construye la economía solidaria. Nos interesa estudiar con detalle este fenómeno de la economía colaborativa, pues se ponen de manifiesto muchos de los elementos nucleares del seguro en relación con conflictos morales.

La economía colaborativa, que de manera resumida se define por “ lo mío es tuyo” tiene su origen en el conocido como consumo colaborativo, término acuñado por Rachel Botsman y Roo Rodgers, está alcanzando niveles de  penetración en la economía tradicional notables, por citar un ejemplo, la alcaldesa  de París Anne Hidalgo, en declaraciones a El País, 25-9-2016, página 18, afirma de en la ciudad de París el 10% del empleo está relacionada con la economía social y solidaria, donde los jóvenes que han estudiado en las mejores universidades quieren una vida ética y no se trata solo de ganar dinero.

 Lo que hoy es una iniciativa incipiente, su análisis, nos sirve para visibilizar cómo es posible gestionar riesgos de manera colectiva sin intervención de terceros –aseguradoras- de alguna manera es como volver a las sociedades colaborativas de la Edad Media antes de que el seguro alcanzara la tecnificación actuarial que tiene hoy. Estamos hablando de comunidades de confianza, donde subyace es un nueva forma de entender la vida (ecología, compartir- relaciones interpersonales) de los ciudadanos, donde la economía tradicional no les da adecuada respuesta. Se trata de sustituir el yo por nosotros, y la competencia por la colaboración, y donde el elemento central es el empoderamiento del ciudadano en sus relaciones comerciales. En definitiva es una mirada hacia la mutualización en sus postulados más originales.


El siguiente cuadro elaborado por Marina Gómez Corona en el Seguro dentro de la  Economía Colaborativa TFM MCAF UC3M ,julio 2015., que toma a su vez como referencia el trabajo de Albert Cañigueral  de Vivir mejor con menos , nos ilustra las diferencias esenciales entre los dos modelos económicos

Algunas iniciativas de economía colaborativa van más allá en el tiempo pasado, y se configuran como propias del trueque primitivo con la participación del uso intensivo de la tecnología para el intercambio de los bienes o servicios. Y es que en esta nueva visión económica, subyace la premisa de que la propiedad no es importante no es lo relevante sino el acceso a un servicio para cubrir una necesidad concreta en un momento determinado, por citar un caso este sería el carpooling, compartir el auto para un viaje determinado ( Blablacar) o compartir  o intercambio de vivienda a turistas ( Airbnb) el Co-Working…, las iniciativas abarcan prácticamente a todos los ámbitos de los productos y servicios, lo que es un indicador de que la economía colaborativa puede comprometer la economía tradicional basada en la propiedad,  provocando una reacción vía innovación y mejora en el precio del acceso a los productos o servicios.

Los catedráticos del MIT Carlo Ratti y Richard Sennett de la LSE y la Universidad de Nueva York, en un artículo publicado el 28-8-2016 en el País ( página 12) titulado El drama de compartir, sostienen que internet ha posibilitado que el hecho de compartir sea más prestigioso porque se ha convertido en una experiencia comunicable. Los ámbitos más fuertes de la economía colaborativa es la movilidad, en los Estados Unidos los coches están aparcados sin utilizarse el 95% del tiempo. Al compartir un coche se pueden quitar entre 10 y 30 vehículos privados en la calle, y si esto se extendiera solo harían falta una quinta parte de los coches utilizados actualmente.
Los autores, advierten de las consecuencias de prescindir del consumo masivo de productos, pues puede llegar a empobrecer a muchas capas sociales relacionadas con el pequeño  comercio.

La literatura especialista en economía colaborativa, distinguen cuatros líneas de actividad:

-Consumo colaborativo, compartir, alquilar, cambiar o comerciar, normalmente bajo plataformas P2P

-Movimiento Maker y cultura Do It Yourself ( DIY)

-Conocimiento abierto

-Finanzas participativas.

Llamamos la atención acerca de que cada iniciativa de economía colaborativa está encontrando soluciones aseguradoras ajustadas al tipo de servicio, como es el caso de Home protech, aseguradora en EEUU que cubre al inquilino de Airbnb. El espectro de la economía colaborativa es tan amplio que podríamos desenfocar el interés que tenemos en valorar la experiencia de esta nueva economía en las comunidades de riesgos.

La economía colaborativa aplicada a  banca y seguros es un fenómeno que debe ser analizado con interés, solo por el volumen de actividad de estas iniciativas que el 2015 alcanzó la cifra de 26 mil millones de dólares y la estimación para 2025 de 335 mil millones de dólares, según estimaciones de Price Waterhouse Cooper ( PWC, The Sharing Economy wwwpwc.com) justificaría el análisis.

La visión económica de Do It Yourself ( DIY), el conocimiento abierto, la comunicación bidireccional  y el acceso a la información son elementos  relevantes en la economía colaborativa que hemos censados y observamos que  están presenten en las iniciativas en el sector financiero- banca y seguros.

Lo relevante es que para el seguro tradicional, la economía colaborativa de formas de compartir riesgos entre miembros de una comunidad, sin intervención de una entidad de seguros, es una iniciativa que puede comprometer sus cuentas de resultados si llegará a tener éxito, pero para que tenga un desarrollo  adecuado, es necesario como sostiene Chomsky en su obra Esencial  para que tenga éxito debe crearse una base cultural e institucional que la haga posible.

A ello contribuye, llevar al ámbito académico la economía colaborativa como tuvimos la oportunidad en el Máster de Ciencias Actuariales en la UC3M, en el trabajo fin de Máster de Gómez Corona en 2015 titulado El seguro dentro de la economía colaborativa ( Gómez Corona, M. El seguro dentro de la economía colaborativa, TFM Máster en Ciencias Actuariales UC3M 2015) donde analizó esta iniciativa empresarial.

Nos interesa, analizar la forma de afrontar el riesgo de estos colectivos, en cierto modo es como hacer arqueología del riesgo, y comprender cómo funcionaban en la Edad Media las cofradías, gildas o cualquier otra comunidad de riesgos. El alcance o definición genérica del seguro colaborativo nos lleva a las similitudes con estas instituciones medievales, pues en el seguro colaborativo se conforma un grupo de personas con un mismo interés, comparten una prima de un “seguro” para apoyarse económicamente en el caso de que un miembro del grupo sufriera la contingencia por la que se cubren mancomunadamente, si los daños del grupo no superan las primas grupales aportadas se reduce las primas de renovación.

En general estas iniciativas suelen orbitar sobre la personalización de los productos, con técnicas de hiper-segmentación donde ser conforman lo que se conoce como los “critical risk group” que posibilitan el cálculo actuarial del riesgo. La diferencia con el seguro tradicional, es que cada grupo está constituido por afinidades comunes, incluso de relación personal, de aquí surge un compromiso moral de sus miembros que disminuye el fraude por selección adversa o por comunicación de siniestros inexistentes de manera considerable. Se podría decir que estas plataformas se centran en el aseguramiento de riesgos seleccionados.

Encontramos el elemento diferencial, soslayando el debate de competencia desleal de estas iniciativas, por situarse cuanto menos en un limbo regulatorio, que es precisamente lo apuntado, “el compromiso moral de sus miembros”, que no supone presumir que los asegurados en el seguro tradicional no esté presente, pero si necesita que este compromiso alcance a todos los miembros de grupo.  Destacamos que las técnicas de  conformación del precio mutualizado es idéntico en ambos modos de aseguramiento, como hemos podido comprobar en trabajos académicos,

Podemos diferenciar tres modalidades de economía colaborativa para la gestión compartida del riesgo.

-Modelo de riesgo compartido, donde los miembros de la comunidad aportan las primas y garantizan los siniestros del resto del colectivo, cada asegurado tiene interés en prevenir los siniestros, es un miembro activo del colectivo.

 El caso de más éxito es de Guevara en seguros de autos, entidad nacida en 2013 en Gran Bretaña, como dato sorprendente decir que consiguió 100.000 libras en primas en sus primeros dos días de funcionamiento.

Las base del negocio se fundamenta en:

-Evaluar el perfil del riesgo de cada persona y sobre este perfil se determina la prima

-Cada asegurado se incluye en un grupo de riesgo con perfil similar.

-La prima que paga el asegurado, llamada prima base, tiene dos partes, una que va dirigida al grupo individual ( Depósito de Protección) y el resto a un fondo común ( Comisiones de Seguro) de todos los asegurados de todos los grupos,que crea el que denominan Fondo Waterloo

El importe de la Comisión depende de los miembros del grupo, oscila entre el 80% cuando el grupo es de menos de 10 y del 50% cuando el grupo es de más de 100 miembros.

-En caso de siniestro, primero atiende el fondo del Depósito de Protección y si este se agota lo atiende el Fondo Waterloo. Guevara tiene reasegurado el exceso de 100% del ratio de siniestralidad golbal ,es decir que se vaciara el Fondo Waterloo.

-En la renovación, el asegurado debe aportar la cantidad necesaria para rellenar el depósito del seguro, que en caso de no siniestro del grupo puede llegar a un 100% de ahorro, pagando solo la prima de las Comisiones del Seguro. Con datos de 2015, el 90% de los usuarios de Guevara han visto reducir sus primas y según la entidad si la siniestralidad es baja es asegurado puede ver reducir su prima un 50%


El caso de Lemonade, merece también la atención, esta empresa que afirma ser la primera P2P del mundo, nace en Nueva York donde tiene licencia para operar como asegurador, posibilita que un grupo de asegurados paguen primas a un pool para después atender a siniestros. Al final del contrato si hay fondos se reembolsa a los asegurados y parte a causas sociales. El público objetivo son las clases más desfavorecidas, y contó con una ronda inicial de financiación de 13 millones de dólares.



-Modelo de riesgo limitado, la diferencia con el modelo anterior es que la comunidad de riesgos es solo para siniestros de pequeña cuantía donde el colectivo responde de manera solidaria, en caso de siniestros de alto importe es donde entra en funcionamiento el contrato de seguro privado, que cada individuo ha contratado. En este modelo el individuo abona dos primas una para la comunidad de riesgo de pequeña cuantía y otra para el resto de siniestros que abonará a las aseguradora, que actúa como franquicia de la comunidad colaborativa.

 En este modelo la experiencia de Friendsurance es la referencia de más éxito, entidad nacida en 2010 opera en Alemania y colabora con 50 aseguradoras, presenta crecimientos mensuales del orden del 20%. Desde 2011 opera en tres ramos de seguro, hogar, responsabilidad civil y protección jurídica.

El perfil del asegurado es de menores de 45 años, el ahorro estimado en los costes de las primas tradicionales fue del 33% de la prima en un 94% de los clientes. El nivel de fraude reducido se estima en una 33%

El funcionamiento se basa en clasificar a los clientes según perfiles de riesgos homogéneos lo que estimula un sentimiento de pertenencia. Cuando un asegurado presenta un siniestro este se atiende por la prima aportada al grupo, este apoyo no puede ser superior a la prima de cada individuo. En caso de que superara el importe, este es atendido por una póliza de seguro tradicional que actúa como seguro con franquicia. Si no hubiera siniestros, los asegurados puede recibir reembolsos de hasta el 40% de la prima del ejercicio.



-Modelo de compra colectiva de seguros, con el fin de obtener un mejor precio en el seguro del que obtendría el asegurado de manera individual, podemos citar el caso de Bought by Many.


La experiencia en este tipo de iniciativas de economía colaborativa aplicada al seguro, ha demostrado algunos beneficios que merecen ser destacados:

-El nivel de fraude es menor que en el seguro tradicional, debido a los vínculos personales entre los miembros del colectivo asegurado.

-Menores costes de gestión y de comercialización, así como no hay necesidad de márgenes de beneficios incorporados en el precio del seguro

-Mejor selección de riesgos al reducirse la antiselección en la admisión justificada por los vínculos de amistad de los asegurados. En ética podríamos contrastar este efecto con lo que se ha dado a conocer como los afectos morales, el propio Kant desarrolla en la Crítica de la razón práctica un conjunto de consideraciones acerca del aprecio, sentimiento que recoge el juicio hacia lo debido y desprecio en caso contrario. Tal vez por estas consideraciones tradicionalmente el riesgo de anti selección es conocido como riesgo moral.

-Si al final del contrato no hay siniestros, el fondo se puede utilizar para la invertir en activos líquidos a corto plazo.

La economía colaborativa aplicada al seguro, al margen de las consideraciones más nucleares, en relación con la fórmula tradicional, ofrece ventajas en el precio del asegurado, la primera de ellas tiene su origen  por ser un “seguro en la sombra” por lo que los costes de capital asociados al riesgo no están presentes en un seguro colaborativo, la otra ventaja si es propia de este modelo, y el menor “riesgo moral” de sus miembros. La primera de ellas no  será sostenible en el tiempo en la medida que el seguro colaborativo se integre en la economía organizada.

Otros iniciativas que se están constituyendo  de P2P en diferentes mercados son según el IIA diversas como, Darwinsurance (Italia), Inspeer (Francia), PeerCover (Nueva Zelanda) y PeersMutual Protection (China), todas ellas permiten construir pools de riesgos  de afinidad y con baja siniestralidad.

8-3Internet de las cosas ( IoT)

El continuo incremento de los objetos conectados a internet ( Internet of things (IoT) en los autos, hogares, salud y la monitorización del fitness deriva en un replanteamiento de la naturaleza del riesgo asegurable, donde los productos tradicionales construidos y vendidos como  commodities dejarán paso a servicios confeccionados a la medida del cliente, esté será el verdadero motor de tracción de innovación y de competitividad de la industria del seguro.

Este tipo de tecnología reducen la dependencia de personal especializado, de equipos e infraestructuras . como veremos en el campo de salud, los modelos se negocio se están demostrando escalables, desde los primeros usuarios muy concienciados con sus registros de actividad diaria ,los conocidos como auto-cuantificadores hasta el público en general, donde ya están desarrollando sensores de diagnóstico, o de seguimiento de enfermedades crónicas como es el caso de la diabetes. Uno de los aspectos más relevantes en este modelo de negocio es el nivel de adherencia de los usuarios  para conseguir tracción comercial que haga superar los impulsos iniciales y competir en un mercado donde el nivel de granularidad de los productos es especialmente elevado, solo así sobrevivirá el más apto, y sabiendo que en Europa a diferencia de lo que sucede en los Estados Unidos este tipo de soluciones tecnológicas se perciben como un servicio que debe ser gratuito, de aquí surge la necesidad de diversificar las fuentes de ingresos, como pueden ser las soluciones SaaS ( ingresos por los datos y su capacidad predicitva)

El término Internet de las Cosas fue acuñado por Kevin Ashton en 1999, cuando trabajaba en el Instituto Tecnológico de Massachusetts (MIT) para referirse a la relación entre la tecnología RFID ( Radio Frequency Identification Device) con Internet. Mario Tacón y Arantxa Coullaut ( obra citada) nos explican su funcionamiento: Esta tecnología permite identificar mediante etiquetas electrónicas (Tags) cualquier objeto, animal o persona de forma automática. Una etiqueta electrónica es un chip de silicio portador de una antena de radiofrecuencia y cuando entra en el área de cobertura de un lector, este envía una señal para que el tag transmita la información almacenada en la memoria sin necesidad de contacto físico o visual. En resumen  El IoT es una red de nodos, o dispositivos, que recopilan, monitorean y comparten datos de Internet. Estos dispositivos conectados o "inteligentes", puede ser incluidos desde automóviles,
sistemas de seguridad para el hogar, monitorización de la salud…

Las cifras de dispositivos conectados previstos dan idea de la dimensión de IoT, de los 10.000 millones de aparatos conectados en 2015, el año 2020 se estiman 50 mil millones de  las cosas” conectadas, la cifra alcanzará el billón en 2035, o lo que es lo mismo cada individuo se relacionará con seis dispositivos a nivel mundial, datos que proceden de la reaseguradora Munchener Re ( Munich Re, The internet of Things and Life/Living Benefits Insurance)

Con carácter preliminar, algunas inIciativas en este campo de aseguradoras y bancos, merecen su atención, según informe de EFMA:

-Uso de telemática para proporcionar un enfoque proactivo en el hogar, la salud y el auto

-Asistentes virtuales inteligentes con el uso de la geolocalización.

-Uso de drones para evaluar los riesgos de daños en grandes estructuras.

En la industria del seguro, convenimos en llamar Insurance Telematics ( Rodríguez-Pardo,J.M 2015, Gamificación y behavioral risks en seguros, webinar de Fundación Mapfre .Mapfre), a la aplicación de la conexión entre cosas y personas para reducir el precio del seguro a todas las áreas involucradas en el proceso del seguro ( pricing, marketing, suscripción, siniestros…)

Es en la nuevas generaciones donde el nivel de adhesión a estas iniciativas es mayor, según el Informe Mundial de Seguros de 2016 de Capgemini y Efma, advierte que hasta el 50% de los clientes más acomodados de la generación Y utilizarían las innovaciones encuadradas en IoT y hasta el 47% estarían dispuestos a contratar sus pólizas con nuevos competidores.

El asegurado y asegurador entran en un nuevo escenario donde se hace realidad el aforismo de todo lo que puede ser medido puede ser mejorado. Pero tenemos que avanzar en los que Mario Tascón y Arantxa Coullaut (obra citada) denominan dinamizadores no técnicos ( legislación) y técnicos ( cifrados de seguridad), para así garantizar la privacidad, confidencialidad y seguridad de los datos de IoT.

José Miguel Rodríguez-Pardo

Ensayo sobre ética aplicada a la medida del riesgo y seguro (8-1)

8Las nuevas periferias del riesgo

Introducción

Las incertidumbres del riesgo en tanto en la propia existencia como en la propia medida afectarán al modelo tradicional del seguro privado. Las referencias con las que entendemos el riesgo se verán sustancialmente alteradas y en este sentido la necesidad de disponer principios éticos facilitarán el tránsito hacia el nuevo territorio donde la mayor incógnita es la intensidad con la va a producir el proceso de transformación.

Un buen ejemplo de la necesaria reflexión, la refiere Jean-Claude Sudre en su artículo ¿El modelo del seguro en 2035?, publicado el 20 de octubre de 2016 en wwwinusrtechs.com/news, fue la conferencia celebrada en Paris el 1 de junio de 2016, organizada por las mejores escuelas de negocio de Francia ( HEC, ESSEC y ESCP Europe) con el título de "¿ Cómo gestionar una compañía de seguros en el contexto de la sociedad digital, societal y transformación reguladora?", En la reunión se trató la revolución digital, el choque de generaciones y el nuevo patio de recreo impuesto por Solvencia II.  Analizaron también el papel de los nuevos competidores GAFA ( Google, Facebook y Ammazón)

En este capítulo analizaremos cada elemento transformador del riesgo, recogiendo opiniones de los expertos y así tratar de establecer las nuevas referencias éticas-aseguradoras, donde no parece haber duda que dentro de dos décadas los niveles de riesgos se reducirán de manera significativa. Veamos con carácter preliminar algunas cifras para contextualizar mejor el capítulo:

- La frecuencia de accidentes en autos, en 2040 según KPMG, se reducirá un 80%,pudiendo reducir el tamaño del este ramo de seguros en un 40%

- El director de ingeniería de Google, Ray Kurzweill, cree que en 2029, las tecnologías médicas añadirán un año de esperanza de vida. Advertimos que según informes del Fondo Monetario Internacional cada año de incremento de esperanza de vida significa un 3%-4% de déficit en las provisiones de los riesgos biométricos de supervivencia, como son los fondos de pensiones o rentas vitalicias.

-En los seguros de hogar, según informe de Mckinsey en 2015, las casas y ciudades inteligentes pueden reducir las reclamaciones en un 43%.

El asegurador ante esta nuevo escenario se transformará de asegurar riesgos a creadores de servicios de prevención ( preventers), como son las iniciativas de Vitality de la que haremos referencia o la guía de viajes, Lonley Planet quien con su extensa base datos quiere incluir un seguro personalizado para cada viaje, o la aseguradora State farm quien ya incluye dispositivos para proteger las viviendas aseguradas frente a inundaciones, robo, incendios…

 8-1-Insurtech

Para estudiar el fenómeno insurtech, tenemos que acudir al antecedente en el tiempo  equivalente en servicios bancarios y financieros  como es fintech. La National Digital Research de Dublin, ( Neuman, J, What is fintech? The story of broken banks, innovation,ando the future of finance. Wwwdataeconomy.com)  define fintech como aquellos procesos y aplicaciones novedosas  aplicados a los servicios financieros.
Las causas que han posibilitado el desarrollo tan vertiginoso de las soluciones fintech, suelen atribuirse a:
-El reforzamiento de la legislación bancaria y reforzamiento de las necesidades de capital como respuesta a la crisis financiera, de 2007-2008 ha hecho que surjan entidades con nuevos modelos de negocio que cumplen funciones análogas al bancario regulado.
-La digitalización de los procesos empresariales, que facilitan la comunicación del cliente con la entidad por medios telemáticos.
-El propio proceso de desarrollo tecnológico de los dispositivos digitales que ha derivado en  nuevas aplicaciones soportadas por estas nuevas plataformas.
- Nuevas formas de aproximación al negocio tradicional bancario que suponen una amenaza futura a la estabilidad de la banca tradicional, como es el cado del crowdfunding.
Una definición apropiada al fenómeno Insurtech la aporta Matteo Carbone fundador del Connected Insurance Observatory ( wwwinsurtechnews.com 9 de agosto de 2016) cuando dice que son organizaciones en las que la tecnología prevalece como factor clave para el logro de los objetivos estratégicos, en este alcance caben entidades aseguradoras o distribuidores siempre que la arquitectura del negocio evolucione  hacia la tecnología y el uso de los datos.
El mismo especialista nos fija las claves que se requiere de una empresa Insurtech en cuatro ejes, conocidos como las Four P´s of Inusrtech
-Rentabilidad ( profitability)
-Proximidad ( proximity)
- Persistencia ( persistence)
-Productividad. ( productivity)
Los destinos y funcionalidades de  Insurtech  son diversas, algunos ejemplos  de la clasificación puede ser:
-Por el tipo de negocio procesado, información, pago…..
-Según el cliente de destino, seguros de vida, salud, autos….
-Cómo interactúa la relación empresarial,  business to business ( B2B), Business to client (B2C) , Client to client ( C2C)…
-En función de la posición de mercado que adopte la entidad, prestador de servicios de terceros, o prestador de servicios y productos previos.
Los vectores tecnológicos que rigen el desarrollo de Insurtech, son la hiperconectividad  y la infiltración de la tecnología en todos los ámbitos de la sociedad, desde esta perspectiva podemos llegar a hablar del seguro conectado, concepto que encapsula diferentes propuestas de valor, y  que debe cumplir tres condiciones, Rodríguez-Pardo ( Rodríguez-Pardo, J.M.  Insurtech, 11º Foro Profesional de Marketing para entidades financieras y  aseguradoras , 2016):
-Uso intensivo de la tecnología
-Mínimos costes operativos.
-Modelos avanzados de Analytics sobre la base de Big Data.
No es un asunto menor considerar que parte de las ventajas competitivas de estas soluciones Fintech o Insurtech tienen su origen en la asimetría regulatoria, donde la indefinición legal para ampararlas generan rentabilidades superiores a los capitales exigidos a los mercados regulados. Además de la ausencia de regulación específica en las finanzas, también es al menos difusa la regulación en materia de protección de datos, de salud digital, prevención de blanqueo de capitales y otras normas que tienen que ver en la innovación digital aplicado a las finanzas.
Aportamos, también una reflexión del pensador Jeremy Rifkin cuando habla de la “sociedad del coste marginal cero”, que nos lleva a un nuevo paradigma económico en el que muchas cosas serán gratis o costarán poco. En este escenario se encuentran muchas de las iniciativas que están encuadradas  en lnsurtech.
El espectro de funcionalidades de Insurtech es tan diverso que aconseja un análisis específico de las principales iniciativas que ya han demostrado éxito empresarial. Aunque las consecuencias para el paradigma del seguro puedan ser similares en algunas de ellas, esto refuerza el interés del análisis de estas iniciativas. Censemos las 11 categorías que ha establecido CB INSIGHTS ( InsuranceTech Rising+ Insurance Startups Across P2P, Life, Commercial&More in one Chart):
-Life/Annuity. Distribuyen seguros con asesoriamiento fiscal y de inversión
-Pet Insurance.Ofrecen pólizas de seguros y servicios asociados como localización del GPS, asistencia veterinaria….
-Product. Seguros destinados a la protección de productos, como los teléfonos móviles.
-Auto Telematics/ UBI y Auto Claims. Empresas Insurtech que actúan como agregadores, dispositivos de robo, comparadores, utilizando analítica avanza
-Heath/ dental ( full-stack/SMB/Individual). Ofrecen asesoramiento de seguros especializados en salud, gestión de citas médicas, tratamiento de enfermedades, mecanismos de recompensa de vida saludable.
-SMB (Small Business), seguros asociados a negocios de pequeñas y medianas empresas. Actuando a modo de bróker virtual y facilita la comparación de seguros por tipo de negocio.
-Renters/Homeowners. Oferta de seguros destinados al arrendamiento a inquilinos y propietarios.
-Sharing economy. Seguros o soluciones relacionados con la economía colaborativa.
-Insurance Industry software/ SaaS. Soluciones de software de seguros, desde la generación de bases de datos, almacenamiento, firma biométrica o detección de fraude.
-Mobile insurance management. Gestión de seguros realizada mediante dispositivos móviles, facilitan todo el proceso de la vida de un seguro.
-Peer to Peer ( P2P). Seguros colectivos constituidos por asegurados que se unen para compartir un riesgo, es una forma de autoaseguramiento. Es la expresión de la economía colaborativa en el seguro.
Propuesta de valor como la de “ All in one policy”, en la que bajo un mismo contrato es asegurado obtiene cobertura de todos sus riesgos asociados al estilo de vida, su hogar, mascotas, vacaciones , teléfono…, o la  del cliente se compromete a seguir pautas saludables y ve ajustado el precio del seguro de manera forma continua, para que a su vez el cliente mejore su auto-gestión del riesgo y la persistencia en el contrato, son solo dos iniciativas del panorama de la medida y gestión del riesgo.
En opinión de algunos expertos, alcanzar este nuevo escenario no se puede realizar de una manera escalable desde posiciones tradicionales de la gestión del riesgo y por ello se necesita una posición gerencial libre de dogmas acerca de la  misma definición de riesgo y el seguro, y al ser estos cambios muy profundos, rápidos y sobre todo como dice Juan Enriqueza Cabot, director general de Excel Venture Management, espontáneos y afectan a todas las industrias, en entrevista en Inese 6 de mayo de 2016, hace que sea complejo establecer  planes estratégicos a medio plazo.
 El nuevo contrato asegurador donde estar presente los elementos morales, no tendrá muchos elementos comunes con los habituales de Ancien Régime.como dato de interés Insurtech el 44% de las empresas de tecnología de seguros tienen menos de 10 años. Desde una mayor especialización, tolerancia al riesgo y agilidad, estas plataformas actúan en todas de forma asimétrica en toda la cadena de valor del seguro, y  en particular las áreas de negocio relacionadas con la suscripción, el producto, los siniestros y el marketing que serán las más afectadas . Veremos como en las próximas décadas la industria del seguro se verá erosionada, la propiedad de la póliza será distinta, y el autoaseguramiento será más habitual de lo que es hoy en día.
Pudiéramos pensar que se han cortado los puentes con el pasado, aunque sería más apropiada la expresión de Tomas de Aquino: El estudio de lo que han dicho los antiguos debía tener otro fin no tanto conocer lo que han afirmado, cuanto dialogar con ellos a fin de profundizar en la percepción de la verdad de las cosas.
Debemos destacar que el universo Insurtech, en sus diferentes acepciones, está siendo ya estudiado por la ciencia actuarial, en nuestro caso en el Master de Ciencias Actuariales de la UC3M en los trabajos de fin de Máster, donde se pretende analizar desde una óptica más académica que gerencial este fenómeno, y así construir una visión crítica del alcance de esta forma entender los nuevos riesgos. Nos será de utilidad hacer referencias a estos trabajos que hemos podido dirigir para poder contrastar en qué medida se ven comprometidos los principios éticos.
En todas las distintas soluciones Insurtech, la información del alcance de lo que supone el acceso a datos personales y el consentimiento serán elementos centrales en la evolución del derecho de protección de datos, sabiendo que algunas iniciativas se realizan desde territorios ajenos a del la residencia del usuario. Esto complica aún más, las certezas de la seguridad jurídica buscada, veremos por ejemplo el caso de las wearables de salud, que ya se consideran por algunos sectores como herramienta médica, donde los datos de salud registrados se pueden “descargar” en la nube.
Un término inédito de protección al usuario, es el que se conoce como “técnicas de anonimización”, resultado de un grupo de trabajo europeo derivado de la directiva comunitaria de la Protección de Datos de 1995, el citado grupo de trabajo establece una serie de recomendaciones, en abril de 2014 (Dictamen 05/2014 sobre técnicas de anonimización), como la de que los responsables del tratamiento de los datos deben ponderar seriamente estas limitaciones antes de escoger una técnica u otra para desarrollar un proceso de anonimización.
 Además deben atender a los fines previstos para la anonimización, como proteger la privacidad de las personas cuando se publica un conjunto de datos o permitir que se consulte algún tipo de información contenida en dicho conjunto. Actualmente se está trabajando en técnicas que eliminen el riesgo de reidentificación sobre todo el área de la investigación clínica con datos de pacientes.
Cifras alcanzadas por Insurtech en el mercado
Comenzando por las entidades Fintech, se estima que la inversión en este tipo de empresas ha evolucionado desde los 930 millones de dólares en 2008 hasta los 12 billones de dólares de 2015. Por zonas geográficas, es en Estados Unidos donde se ha desarrollado más esta tecnología, aunque se observan crecimientos muy  notables en la Unión Europa, destacando Reino Unido e Irlanda como países con mayor volumen de inversión. Como curiosidad destacar que parece que Nueva York está tomando la delantera en los EEUU al Silicon Valley en inversión en capital riesgo en 2016, este dato es un indicio del interés de la sociedades financieras y la banca en estar al frente del ecosistema de innovación de las start up finech tomando la delantera a la visión más tecnóloga  ( infraestructura tecnológica, análisis de datos, sistemas de pago y seguridad) propia de California.
Lo más relevante de este fenómeno, es la participación que pueden llegar a alcanzar en el negocio bancario o asegurador a medio plazo, el consenso de mercado opina que puede superar el 20% del negocio, lo que nos indica la especial atención que debemos prestar a estas iniciativas. Otras estimaciones son más alarmantes, la consultora McKinsey estima una pérdida del 10% y el 40% de los ingresos, y entre el 20% y 60% de los beneficios de la banca tradicional en 2025.
Las cifras de financiación y proyectos justifican la estimación anterior, si en 2001 se destinaron 131 millones de dólares en 24 proyectos, en 2015 la actividad fue de 2.651 millones de dólares con 109 proyectos.
Ya en 2015 se habían censado hasta 650 firmas Insurtech en el mundo, el 70% de ellas tenían su origen en los Estados Unidos, algunos expertos no incluyen dentro de esta catalogación a los comparadores por su carácter no disruptivo.
El proceso de innovación tecnológica
Las entidades financieras  bancarias y la industria bancaria se han incorporado con cierto retraso al proceso de innovación digital. Esta circunstancia ha derivado en el mantenimiento de precios de los servicios ofertados en los servicios financieros. En los seguros denominados masa, el precio medio unitario del riesgo si ha mantenido una tendencia a disminuir en coberturas homogénea en el tiempo, pero no así en los costes asociados a la comercialización y gestión interna de los riesgos.
En el proceso de innovación tecnológica aplicada al seguro privado, debe evitar las experiencias fallidas de las fintech, en el sentido de considerar  el concepto de insurtech como una mera herramienta de ingeniería informática con alto coste de adquisición de clientes y en ocasiones con soluciones no escalables. Hay un consenso de opinión al considerar que la industria aseguradora se situó en la curva de madurez digital coincidiendo con el inicio de la segunda década del siglo XXI, donde se trata de comprender al nuevo cliente, las propia innovación de la tecnología y la creación de nuevas realidades empresariales- startups –cuya flexibilidad y capacidad de adaptación al nuevo entorno aceleran el proceso que está violentado el seguro tradicional, banalizando la distribución, hiperpersonalizando el producto con periodos de coberturas más cortos y donde el pricing será continuo
No perdamos la perspectiva, esta cuarta revolución industrial, que se caracteriza por la intensidad y velocidad de los cambios, no tiene analogías en ninguna de las tres anteriores, la primera, la de la máquina de vapor o el ferrocarril, la segunda, la de la producción en masa favorecida por la electrificación, la tercera, la de la computación e internet. Esta cuarta es los dispositivos interconectados, las comunicaciones móviles y la inteligencia artificial y además es global y en opinión de algunos expertos democrática.
Observando las cifras de demanda del uso de la tecnología por los consumidores, nos facilita la lectura de las soluciones Fintech o Insurtech, para ello, recurrimos al artículo Customer demanding “digital first”, publicado en insuranceage.co.uk en 2016, donde dice:
-Un estudio a nivel europeo de Fujitsu sobre 7.000 encuestas, dice el 37% de los clientes de banca o seguros, amenazan con abandonar su proveedor si no ofrecen la tecnología más actualizada
-El 59% estaría de acuerdo con su entidad ( banco o seguro) utilice sus daots para reducir su prima de la hipoteca
-El 47% permitiría utilizar sus datos para recomendar productos y servicios relevantes.
-El 44% quieren que sus datos sean utilizados para mantenerlos informados de sus hábitos de gastos y recibir asesoramiento permanente.
-Al 36% les gustaría que sus datos fueran utilizados para modificar su calificación de crédito.
Comprobamos a la luz de estos de estos que el consumidor bancario y asegurador propicia un clima favorable para implantar estas soluciones.
Para entender bien el alcance de la tecnología en estos modelos de negocio que orbitan alrededor del seguro:
-Blockchain- The Business Blockchain tenemos que introducir el término de blockchain ( cadenas de bloques)  tecnología que soporta la moneda digital de Bitcoin o Cryptomonedas aplicable a cualquier transacción, inventada por Satoshi Nakamoto en 2008, publicado en un artículo en la lista de criptografía de metzdowd.com donde se describe el protocolo de bitcoin, en 2016 el empresario australiamo Craig Steven  Wright anunció que él era Nakamoto, pero todavía hay dudas sobre su veracidad. En 2015 unos 100.000 comercios minoristas. Además de Amazon aceptaban Bitcoin y con datos 2016 la banca mundial ha invertido más de un billón de dólares. El recorrido de esta tecnología no ha sido fácil, siendo incluso acusada de facilitar el comercio ilegal, de los mercados de la web oscura, incluso se calificó a esta moneda como la nueva Ruta de la Seda, o en 2016 como fenómeno de histeria colectiva o el nuevo patrón oro.
Técnicamente es una librería pública de transacciones donde la información se incorpora de manera cronológica formando bloques. Se conoce con el nombre tecnología de contabilidad descentralizada (DLT en acrónimo en inglés)) Esta tecnología que actúa como un libro de contabilidad es transparente, sin posibilidad de fraude y de fácil acceso por el titular de los derechos de acceso, donde todos los participantes disponen de una copia completa sincronizada. La capacidad de proceso de los blockchains en 2016 era de 1.000 millones de transacciones al día, muy superior a los primeros bitcoins que operaban 10 por minuto, lo que le impedía ser utilizado por el sistema financiero. Destaquemos que esta tecnología fue concebida en 2008 y la primera experiencia real se realizó un año después y hoy en día se considera como el caso de más innovación de la industria financiera pues podrá disponer en tiempo real la información de los flujos financieros, desarrollar productos, facilitar pagos y liquidaciones. El sistema de criptomonedas  presenta incertidumbres como es el manejo de la masa monetaria de la autoridades.  Las potencialidades de estas plataformas es tal que se estima que en 2020 el 20% de PIB mundial estará almacenado en blockchain.
Este tipo de proceso, funciona de la siguiente manera, según la asociación de finctech:
-Se realiza una transacción, validada por el consenso de toda la red.

-Cada transacción se agrupa en bloques, que se almacena en orden cronológico, bloques que entrelazan en cadenas.

-La información no se puede borrar o modificar. Los bloques quedan marcados por una función matemática que permite verificar la integridad de los datos de la información, así como su autenticidad

Un nuevo ecosistema de datos, se abre en las redes generando un escenario inexplorado de posibilidades en su uso por las entidades de seguros, incluso el debate de los datos compartidos según nos dice Dan Robles ( Dan Robles Can Blockchains Be Insured? Wwwinsurtechs.com 8-8-2016) han sido objeto de análisis por los  especialistas del Center of Insurance Policy and Research del  National Association Of Insurance Commissioners ( CIPR/NAIC) se plantearon en 2016 si las empresas blockchain ( base de datos compartidas gestionada por un software) pudieran incluso asegurar sus operaciones comerciales.

La conclusión del análisis fue que no hay problema en el fundamento matemático para calcular el riesgo pero parece posible asegurar los procesos de negocio y es que un activo digital no puede ser categorizado como dinero ni como propiedad, lo que le confiere una posición paralegal.

La importancia de esta tecnología, es tal, que ya se habla de la Teoría de la Economía Circular o de The Business Blockchain como lo define William Mougayar (Mougayar W. insurtechnews.com), que se refiere a las compensaciones que recibe un trabajador o un cliente aprovechando la tecnología blockchain que posibilita las monedas virtuales o criptomonedas según cumplimientos de objetivos o retos, Las entidades circulares se relacionan con otras entidades mediante un sistema de engranajes o ruedas dentadas. Cada unidad de mercado, genera valor económico, permite a cada interviniente participar en el éxito de  cada plataforma en la puesta en común de la equidad en la red.

Debemos estar atentos al desarrollo de las economía circulares, que tienen su origen en la idea de Reducir, Reusar y Reciclar, desarrollada por los pensadores Walter Stahel o Keneth Boulding, y posteriormente del arquitecto Bill McDonnough y el químico Michael Braungart.

Esta tecnología se está probando para el pago de transacciones entre entidades de seguros, en los llamado contratos inteligentes ( smart contracts)) donde se registra un contrato con sus cláusulas y se produce posteriormente su ejecución una vez ocurrido el evento acordado, y se puede llegar a utilizar según nos refiere Leticia Charro en su trabajo citado en riesgos asociados a catástrofes naturales de alto impacto económico, donde la velocidad de los intercambios de riesgos puede reemplazar a la intervención humana, evitando errores.

Posibles aplicaciones en el sector asegurador de esta tecnología pasan en opinión de Michael J. De Waal (www.insurtechnews.com 18 -8-2016) por:

-Coberturas de robo de criptomonedas,  “wallets “

-Aceptar las criptomonedas como medio de pago para los beneficios sociales de los empleados de aseguradoras

-Utilizar su capacidad para rastrear  y eliminar las restricciones de la suscripción de riesgos en propiedades o personas no suficientemente cubiertas

-Automatizar procesos encaminados a la cobertura de microseguros

-Minimizar el fraude y aumentar la transparencia. Se estima que el 65% de todas las reclamaciones fraudulentas pasan desapercibidas y que sólo en Estados Unidos y Europa, los costos de fraude a las aseguradoras suponen aproximadamente  60 mil millones de dólares en pérdidas anuales.
 Según un informe de Goldman Sachs, blockchain  podría generar de  2 a  4 mil millones de dólares en ahorros de costos en el mercado de seguros en los Estados Unidos solo reduciendo errores y tareas manuales.

Además de la relación anterior, algunos expertos, Gary Nuttal en The blockchain attraction, ( The actuary, 14-9-2016)  consideran que esta tecnología permitirá a las aseguradoras identificar preventivamente un evento que puede llegar a suceder y ejecutar una acción preventiva, entramos en una nueva era de productos paramétricos que permiten con sensores e inteligencia artificial vincular la detección automática preventiva de un evento. En términos de riesgo el asegurador adopta el papel de mitigador de los riesgos que asegura. Esto merecería una reflexión.

 Otra opinión del uso de esta teconología para los seguros la aporta Keving Wang en Blockchain is empowering the future of insurance  publicado en octubre de 2016 (http://insurtechnews.com/news) la tecnología Blockchain tiene el poder de simplificar el proceso de reclamaciones, aliviar las altas primas, ayudar a las aseguradoras a crear cobertura de nichos y, lo que es más importante, beneficiar a quienes viven en regiones de catástrofe. En este sentido detalla este último  seguros con el uso de Blockchain en el seguro paramétrico. En lugar de indemnizar la pérdida pura, los aseguradores estarían de acuerdo en pagar una cierta cantidad a la ocurrencia de siniestros dentro de los contratos inteligentes prefijados. Por ejemplo, si un terremoto ocurriera en una región dada por encima de una magnitud de 5, el contrato inteligente pagaría automáticamente el 20 por ciento de la reclamación de seguro a los asegurados. Los contratos requieren la confianza mutual de los ajustes de   los  terceros administradores  (TPA, acrónimo en inglés)


Un contrato inteligente es un contrato capturado en código que auto-ejecuta las obligaciones que las partes han comprometido en un acuerdo. El término fue acuñado a mediados de la década de 1990 aunque existía en gran parte como concepto teórico hasta el desarrollo de la tecnología blockchain,  ha proporcionado los elementos necesarios para que los contratos inteligentes funcionen eficazmente, Incluyendo la seguridad criptográfica y la inmutabilidad. Si el código se cumple, el programa dispara automáticamente una acción correspondiente. Al eliminar la necesidad de intervención humana  una vez que un contrato inteligente se ha desplegado en un libro distribuido,

Una visión complementaria, con foco en reducción de costes,  la aportó el informe de Capgemini sobre los contratos inteligentes basados en la tecnología blockchain , del que hizo referencia ADN del seguro, 30-10-2016 (.http://www.adndelseguro.com/es/actualidad/companias/como-afectaran-los-contratos-inteligentes-y-el-blockchain-al-sector-asegurador dice así  “los contratos inteligentes acelerarán la tramitación de siniestros en los seguros de salud, vehículos, hogar y viajes, por ejemplo, con menos formularios que cumplimentar y la menor necesidad de interacción entre reclamantes y aseguradoras. Un sistema de contratos inteligentes reuniría en una misma infraestructura abierta a todos los participantes en la cadena de valor del seguro: consumidores, aseguradoras, tramitadores de siniestros e intermediarios”. Añade que “se conseguiría así un proceso más rápido y cómodo de tramitación gracias a la reducción de la documentación requerida, una menor dependencia de las comprobaciones manuales y mayor rapidez en la ejecución de los pagos. Solo en el segmento del seguro de vehículos de uso personal, se estima que los contratos inteligentes tienen un potencial de ahorro anual para las aseguradoras cercano a 21.000 de dólares en concepto de reducción de costes de tramitación a nivel mundial. Bastaría con que las aseguradoras repercutieran la mitad de este ahorro a los consumidores para conseguir un ahorro medio anual en las primas de 45$”
El informe del IIA nos aporta varios ejemplos que facilita la compresión de este concepto Por ejemplo, tras la verificación de la aprobación de un asegurado, un seguro de vida contrato inteligente podría liberar fondos inmediatamente al beneficiario elegido, mediante el escaneo de los registros de defunción en línea en tiempo real. Otro ejemplo podría incluir un seguro inteligente vinculado a una fuente de datos meteorológicos en tiempo real que desencadena un pago de seguro de cosecha según las cantidades de lluvia caídas están debajo de un determinado nivel en un área determinada, o en los casos de los planes de seguro de viaja podría cobrar las primas  cuando un contrato inteligente se notifica a través de la característica de ubicación del teléfono inteligente del asegurado y que la persona está realmente viajando.

No dejemos de mencionar que Blockchain contribuye a la escabilidad de los distintos modelos de Insurtech, en particular las soluciones P2P como veremos en este capítulo o la intensificación de la separación de los procesos de suscripción ( originación del contrato) y la financiación ( cálculo y cobro de la prima) función tradicional de las aseguradoras y reaseguradoras, donde veremos nuevas entidades intervinientes "experimentales" en la gestión del riesgo.

Lo que algunos expertos le llaman   la mutualización de la infraestructura y la creación de un registro común de la verdad, las empresas podrían ahorrar mucho tiempo y dinero y mejorar la eficiencia operativa.

 La principal iniciativa del sector asegurador en relación a este tecnología data de octubre de 2016, que busca un nuevo camino para ofrecer servicios a clientes más rápidos y seguros, el proyecto, denominado Iniciativa de la Industria de Seguros Blockchain, o B3i, tiene como objetivo establecer  un punto de encuentro para que las empresas intercambien ideas, probar  casos de uso y seguir conceptos que podrían reformar la forma de  ofrecer servicios de seguros. Las empresas participantes son Allianz, Aegon, Munich Re, Swiss Re y Zurich.


-SaaS – Software-As-A-Service y desarrollo de código abierto. Permite modificar los procesos de negocio sin aparente dificultad.
En el marco del negocio asegurador, esta tecnología según Pablo Rubio-Manzanares  ( Pablo Rubio-Manzanares, La suscripción en los seguros de vida: rumbo hacia la suscripción continuada, TFM Ciencias Actuariales UC3M, 2016) previene el fraude, permite la gestión digital de siniestros, posibilita nuevos esquemas de gestión como son los modos de comunicación M2M ( Machine to Machine) y la gestión de seguros denominados UBI ( usage-base insurance) donde se pertenecen los seguros pay as you drive.


La indefinición normativa puede ser a largo plazo un elemento que incertidumbre en el propio modelo de negocio.

José Miguel Rodríguez-Pardo

Ensayo sobre ética aplicada a la medida del riesgo y seguro (7-2)

7-3 Variables de la demanda del seguro

Conocer con análisis macroeconómico con modelos econométricos, los factores que determinan la demanda de seguros ante distintas contingencias  es una forma más que indiciaria para fijar digámoslo así las etiquetas del riesgo. Y esto tiene interés porque además de identificar los “las preocupaciones de la sociedad”, permiten valorar la inclusión de alguna o algunas de ellas en los modelos predictivos de cada contingencia, donde la incorporación de variables socio-economico-demográficas influyen en la variable dependiente del riesgo.

 Por particularizar en una contingencia la del fallecimiento, los primeros estudios acerca de los factores determinantes de los seguros de vida se remontan a 1965 con el trabajo de Yaari Hammond , desde entonces han sido muy numerosos los estudios realizados en diferentes países ,citemos el caso de 2014 del estudio para la India de Mishra IJ de la demanda de seguros de vida de aquel país.
Identificamos algunas  las conclusiones más relevantes de los diferentes estudios de demanda:
- la demanda de seguros de vida en general, se  explica a través del marco del ciclo de vida en la que las familias o individuos tienden a  maximizar la función de  utilidad esperada de su consumo de toda la vida.
- la demanda de seguro de vida es  una función de la riqueza, de  los ingresos esperados en el tiempo de vida de un individuo, del nivel de las tasas de interés  del costo de los seguros de vida (gastos administrativos), y  de la de  tasa de descuento subjetiva asumido para el flujo del consumo futuro .
- la incertidumbre sobre el momento de la muerte de la persona unido al deseo de dejar un  ingreso adecuado para dependientes (cónyuge o hijos), el  individuo aumenta su utilidad esperada mediante la compra de un seguro de vida.
-La demanda del seguro de vida, según Lewis en 1989, también está influida por la necesidad de satisfacer a los beneficiarios potenciales del seguro, es decir el cónyuge y los hijos tienden también a maximizar su función de utilidad esperada.
 Los trabajos de Hwang y Greenford  en 2005 incorporan  variables de naturaleza sociodemográficas  como , la educación, la seguridad social, la estructura social, el precio de los seguros, el desarrollo económico...
Estos indicadores pueden tener una utilidad adicional y es la evaluar si el seguro es un producto, por la demanda efectiva, destinado a determinadas clases sociales y por lo tanto entra en juego el juicio moral acerca de su contribución a la equidad social.

 7-4 Los modelos del riesgo

 Conviene recordar que el proceso conocido de pooling risk por el analista de riesgo integra en una cartera de seguros sobre la base de la diversificación, y simplificando mucho,  el modelo es aplicable cuando disponemos de un número suficientemente grande  se opera con el teorema central del límite para fijar el precio. El asegurador establece grupos homogéneos de riesgo reduciendo la volatilidad del grupo total de asegurados.

Los modelos que emplearemos para medir el riesgo, tienen como fin, como decía Kant, el determinismo causal, esto es buscar la simetría entre la explicación y la predicción. Como nos encontramos dentro del marco de las ciencias sociales, predecir fenómenos en los que intervienen actores sociales puede ser complejo o en ocasiones habrá desistir del empeño. En este proceso, reiteramos lo ya apuntado en capítulos anteriores, el analista no hace juicios morales ni de las variables, ni de los resultados, ni de los propios modelos que no dejan de ser pegamento sobre el construye el nexo causal.

En un magnífico libro sobre la historia del riesgo Against the Gods el autor Bernstein ( Bernstein Peter L, 1996, Against the Gods: The Remarkable Story of Risk.Nueva York Willey) ya advertía en 1996 que una nueva clase de religión, un credo tan implacable, restrictivo y arbitrario como el anterior…, se refería a gestión de los riesgos de la antigüedad era cosa de la superstición y de la aceptación del destino.

 No pudo ser más visionario Bernstein, de hecho una de las causas de la crisis financiera del 2008 es atribuida a la confianza ciega  y acrítica de los modelos de valoración de riesgos, por citar un caso concreto, el sistema de concesión de hipotecas en los Estados Unidos basados exclusivamente en modelos de scoring. Desde entonces, aunque se han dado pasos para evitar estas mismas situaciones, la modelización de riesgos se está sofisticando a niveles tan complejos que se requiere de perfiles profesionales muy orientado a lo cuantitativo, sin incluir en la toma de decisiones elementos ajenos al resultado de los modelos. El juicio experto y la visión crítica de los modelos no está presente.

La elección del modelo que mejor captura el riesgo, presenta varias consideraciones que deben ser analizadas, este proceso recuerda a la pregunta que hace Alicia en el País de las Maravillas al sombrero ¿ Que camino debo escoger? Depende donde quieres llegar. Y es que el modelo  que seleccionemos tiene un propósito final que forma parte de proceso de decisión del analista.

En primer lugar  y para responder a las consideraciones acerca del modelo  recurrimos  al filósofo Ludwing Wittegestein en su obra de referencia Tractatus Logico Philoshophicus dice que no hay un orden perfecto, sino una gran cantidad de ellos, la sentencia es aplicable es al modelo aplicable para capturar un evento. El analista de riesgo tiene a su disposición un conjunto de técnicas que pueden ser útiles y válidas para el fin que persigue, el conocimiento de los distintos modelos por el analista condicionará el manejo de cada uno de ellos y que en todo caso hay un cierto proceso de prueba error para la elección del modelo final,  y como dicen los anglosajones “ if you´re going to fail, fail fast”.

Y es en este punto donde surge el conocido como riesgo de modelo, esto es, en el propio modelo  hay un riesgo de error. En la actualidad se están desarrollando técnicas que tratan de mitigar este riesgo.


Es importante antes de que enumeremos los distintos modelos que proponen las  técnicas estadísticas más avanzadas, tener presente que la medida de un riesgo puede tener soluciones distintas según sea el modelo utilizado y con robustez técnica acreditada. Creemos que es de interés recordar que mucho  antes que en la época de Adam Smith (1723-1790) se iniciara la visión estadística de la vida social, que la búsqueda algoritmos por parte del hombre se remonta a hace  3.500 años, cuando  los babilonios imaginaron los primeros algoritmos, calculando una raíz cuadrada, sobre arcilla húmeda, desde entonces el hombre los ido perfeccionado hasta llegar en la actualidad a los modelos complejos que crean patrones en minutos que un ser humano tardaría años. Creemos que es de justicia reconocer la aportación de la ciencia actuarial al propio desarrollo de la estadística, por citar un caso relevante,  destacamos a principio del Siglo XX en los Estados Unido las aportaciones de los actuarios a la teoría de la credibilidad, o las contribuciones de Finetti (1906-1985) en el campo de las probabilidades subjetivas.

 El éxito de un algoritmo se suele asignar en un 80% a la calidad de los datos y un 20% a la calidad de la secuencia numérica, ahora bien, si la información de fragmenta de manera diferente, se aplican con modelos diferentes y  los resultados son diferentes. Desde la filosofía estas distintas realidades a un mismo fenómeno lo asimilan a un juego de espejos.

En definitiva un modelo es una correlación comprensiva de  variables que tratan de poner precio a una contingencia, convirtiendo en certeza lo que es incierto, invirtiendo el ciclo económico en el sentido que compra contingencias y devuelve certezas (siniestros) con un beneficio empresarial.  Según avancemos en el conocimiento de las relaciones complejas de variables identificativas de los riesgos, se requiere una reflexión acerca de las consecuencias, a veces no deseadas, en el pricing del  seguro.

 En este proceso de búsqueda de beneficio empresarial sobre la base de los modelos y/o tecnología que podemos denominar determinismo de aplicación tiene sus defensores como Friedman cuando dice “Si puedes hacerlo ( aplicar la tecnología), debes hacerlo…porque si no, lo harán tus competidores” ( Friedman Thomas, 2005, The world is Flat.New York: Farrar,Status an Giroux.) El potencial ético está presente en esta corriente de pensamiento que está muy extendida en la sociedad tecnológica del Siglo XXI. Las autoridades supervisoras bancarias ya han alertado de la tentación de arbitrar con los modelos para utilizar el que mejor resultados presente para los fines que se persiguen y no aquel que cumpla mejor con los test estadísticos requeridos.

Los llamados modelos predictivos aplicados al seguro son relativamente recientes en su uso, desde las primeras versiones en España aplicadas en el seguro de autos coincidentes con el principio del Siglo XXI, se han ido generalizando tanto en las entidades que lo utilizan como en los riesgos a los que se aplican, demostrando su robustez estadística en todas las modalidades de seguro, donde se manejan grandes volúmenes de datos tanto de contratos como de experiencia siniestral. Este hecho no es singular en el mercado español sino que es global, por citar un caso ,los Estados Unidos un informe de GenRe ( Attmaniuk, J. Life Insurers Warm to Predicitve Modelling Tools. Wwwgenre.com) de 2014 realizado sobre 40 aseguradoras mostraba un incremento del 60% en el uso de estos modelos entre 2010 y 2013. Este escenario tiene diferentes intensidades de uso, y es el seguro de vida el menos activo, tan solo el 8% de la entidades  en 2015 utilizaban esto modelos, el motivo que alegan las aseguradoras, un 71% de los casos; que no disponían de infraestructura de IT para ejecutar los modelos con los datos disponibles, no se debe dejar de mencionar que apostar por estos modelos es una cultura empresarial en sí misma y requiere para su puesta en marcha de profesionales con conocimiento adecuado.

Más reciente son las aplicaciones actuariales del aprendizaje automático ( técnica de aprendizaje automático basado en redes neuronales multicapas)  cuyas investigaciones inicialmente para el seguro no vida se iniciaron en 2009, y dos años más tarde, en marzo de 2011, se publicó el trabajo From artificial fish to underwrtiters, lo que hace que estos modelos no sean de conocimiento general por los analistas de riesgos en la segunda década del siglo XXI.

El uso de estos modelos presenta ventajas pero también inconvenientes, el trabajo de Dion M. ( Dion M. Predictive Modelling a Life Underwriter´s Primer www.genre.com) censa las características de la modelización predicitiva:

-Detecta relaciones complejas no lineales entre variables dependientes e independientes

-Detecta todas las interrelaciones posibles entre los factores explicativos

-Algunos modelos requieren conocimientos en estadística menos formales.

-Capacidad para combinar métodos clásicos de estadística para apoyar las decisiones de los modelos predictivos

-En ocasiones actúan como “cajas negras” difíciles de comprender.

-Se necesita gran capacidad computacional.

-Son modelos sensibles a cambios en las condiciones del modelo, por lo que es necesario un seguimiento continuo.

-Peligro que el criterio matemático o estadístico se imponga al criterio humano en determinadas ocasiones, produciendo decisiones equivocadas.

Es  relevante que en la lista de inconvenientes de estos modelos se señalen elementos que ya hemos analizados como de conflicto ético, el  llamado juicio experto ha merecido un capítulo en el trabajo, y no menos importante es la referencia a “caja negra” de determinados tipos de modelos. Esta cuestión no es menor, si el gerente de riesgo no puede justificar los pesos de variables, sus interacciones, el modelo puede ser invalidado por la sociedad que demanda transparencia en la toma de decisiones empresariales sobre todo en mercados altamente regulados.

 Aplicar en la vida cotidiana los resultados de los modelos sin juicio crítico y sin mirar al cliente sobre el que se hacía el scoring fue, para algunos analistas, una de las causas explicativas de la crisis financiera de 2007-2008,como ya hemos comentado; la poetisa española Elena Medel (1985) ha escrito el  poema Salón de los pasos perdidos que comienza así: La tecnología carece de autoestima…, es una exhortación que nos hace reflexionar.

Algunos de los modelos aplicados en la práctica actuarial  que han demostrado su validez son entre otros:

-Modelos lineales generalizados.

-Modelos CART ( Classification and Regression Tress)

-Redes neuronales.

Las experiencias en la industria del seguro de la aplicación de la modelización predictiva desarrollada desde los inicios del siglo XXI, nos dan ciertas pistas de cuáles son las cautelas y enseñanzas que debemos tener en cuenta, el artículo de William Trump, Data analytics in life insurance: Lessons from predicitve underwriting de 26 de mayo de 2014, publicado en cgd.swissre.com nos enumera los cinco pasos a seguir:

-Comenzar por centrar los objetivos de manera clara. No es lo mismo suscripción, que retención o pricing diferenciado.

-Ser realista con las limitaciones de la calidad y cantidad de datos disponibles.

-Los datos imperfectos no son una excusa para no desarrollar el modelo.

-Los datos no pueden hacerlo todo. Se recomienda un enfoque haz una aprueba y aprende.

-Big data. Mucho hablar, poca acción. El modelado de datos es un proceso de aprendizaje constante para maximizar su eficacia

Los modelos de Inteligencia Artificial, tratan de replicar los procesos neuropsicológicos del ser humano, tratando crear sistemas que piensen o actúen racionalmente como humanos. Los modelos de aprendizaje automático- machine learning- crean patrones de comportamientos sobre la base del proceso de aprender sobre información no estructurada, con dos tipos de categorías según la “supervisión” del aprendizaje, si es supervisado el foco se centra en la predicción y si no lo es, se centra en la compresión de la estructura que está en el conjunto de los datos.

 Estos modelos incluyen diferentes tipos de aproximaciones técnicas, como árboles de decisión, análisis bayesiano, random forest, gradient boosting machine, máquinas de soporte vectorial…, se suelen utilizar en los casos en los que en los que las relaciones entre los datos no son lineales.

 Tengamos presente que estos modelos tienen su origen en el tiempo, en la década de los cincuenta del siglo pasado y que su aplicación práctica en la medida de los seguros comienza con el siglo XXI de manera muy incipiente y no consolidada. Si en los primeros cuarenta años de su desarrollo, hasta los noventa del siglo pasado, estos modelos se centraron en resolver problemas combinatorios, desde entonces se han centrado en entender y reproducir problemas que los humanos resuelven de manera inconsciente, como sería el reconocimiento facial, traducir un idioma, y queda el reto de entender mecanismos complejos del cerebro humano, como la mentira, el engaño ante un juego de magia ,que juega un papel relevante en las decisiones humanas. Esta opinión corresponde a Raúl Rojas experto en inteligencia artificial de la Universidad de Berlin en el artículo La realidad con la que convivimos es una simulación de nuestro cerebro, publicado en El País el 29 de enero de 2016.

Los modelos que se desarrollan se encuadran en tres categorías según el tipo de aprendizaje, supervisado, no supervisado y por refuerzo.

 Las tres áreas en las que se puede encuadrar la Inteligencia Artificial ,siguiendo a Pablo Rubio-Manzanares ( obra citada) son:

-Formal, crea modelos de búsquedas en un espacio de estados, estos modelos pueden ser heurísticos o algorítmicos

-Técnico, emplean conocimientos de tipo científico-técnico a partir de criterios expertos, son los conocidos como KBS ( Knowledge Based Systems)

-Cognitivo, trata de emular las funciones cognitivas, como el habla, mediante procesos de modelos computacionales. En el caso del habla los expertos en estas técnicas advierten de la dificultad de capturar la ironía, el sarcasmo o la metáfora.



Los modelos de inteligencia artificial utilizan grandes volúmenes de datos y son recomendables cuando las estructuras de cada variable no se conocen con precisión. Estos modelos estiman pesos al azar a cada variable explicativa y en proceso de comparación de las predicciones con los datos reales, se vuelve a iterar y así sucesivamente hasta que se logra un ajuste robusto.

Las ventajas de estos modelos en relación con modelos predictivos como el GLM, se han demostrado en aquellas experiencias donde se han implantado son claras, como es el tiempo de implantación del modelo cuya relación puede ser de 4 a 1, a favor de la IA, los mejores resultados predictivos en la mayoría de los casos. Además estos modelos permiten incorporar las cotizaciones que se realizan en el mercado, así comprender y predecir los movimientos de precios de mercado y ajustar el precio del catálogo de productos. Y como dice el informe de noviembre de 2016, How Machine Learning is Revolutionising The Insurance Industry ( www.dataanityticsinsurance.com) en 10 años la mayoría de las infraestructuras de IT tendrán infraestructuras de aprendizaje automático.

 Pero la Inteligencia artificial, está sometida a cierta controversia pues el modelo al actuar de manera opaca, no se puede valorar la capacidad explicativa de cada variable, de hecho en áreas como la biomedicina presenta ciertas dificultades de uso por este motivo. Son modelos complejos, citemos el caso de la técnica deep learning, redes neuronales multicapa que resuelve problemas mediante el uso de neuronas cuyos resultados van unidos unos a otros, de tal manera que no se pueden obtener resultados si considerar todas las relaciones, estas técnicas se utilizan en el reconocimiento de imágenes.

La dificultad de interpretar los resultados del  modelo y la necesaria adquisición de habilidades para ejecutar y mantener el modelo, la responsabilidad del resultado del algoritmo, el riesgo de ciberseguridad, deben tenerse presente a la hora de apostar por estos modelos. Además de lo anterior el modelo debe encaminarse hacia la no supervisión, es decir soslayar la intervención humana, reduciendo el coste del “retuning” de los reajustes periódicos de la realidad observada, los cambios de comportamiento y las decisiones tomadas  de los resultados del modelo.

A pesar de estas dificultades, ya hay iniciativas en el proceso de selección de riesgos en el seguro de vida con la ayuda de estas técnicas, como es el caso de Genworth Financial ( Aggour, K, Bonissone,W, Messmer R, Automating the Underwriting of Insurance Application. Ai Magazine,vol 27, nº7,2006) que desarrolló un modelo basado en técnicas fuzzy logit donde los parámetros del modelo se ajustan con el algoritmo de mejora donde el asegurado está categorizado en un perfil de riesgo.

No dejemos de mencionar el proyecto de IBM Watson Healthque aplica la computación cognitiva y es aplicable para  seguros y en concreto que ya se está utilizando desde finales de 2015 por Swiss Re en la suscripción de riesgos. Este supercomputador donde hasta 2.000 profesionales médicos, investigadores y desarrolladores trabajan para incorporar datos de historias clínicas, leer artículos sanitarios ,con el objetivo entre otros de reducir  los errores médicos, tercera causa de fallecimiento en Estados Unidos, crear patrones de enfermedades y tratamientos, gestión de enfermedades crónicas, desarrollo de nuevos fármacos, mejora de los ensayos clínicos…, todo este potencial puede ser de utilidad en hospitales, aseguradoras y médicos.

En otros procesos de gestión de una aseguradora, también se están utilizando estas técnicas, como son en siniestro detección de fraude, predicción de caídas de carteras, propensión de compra optimización de precios…en todos ellos las dificultades de explicar el modelo se hace patente. Además, su réplica por un tercero que deba supervisar o auditar los resultados  hace que entre los expertos y supervisores se tenga prevención en su uso, y tal es así que  el uso de modelos internos de riesgos esté cuestionado.

Al debate acerca del uso de estos modelos en la ciencia actuarial, se ha sumado ASTIN ( Actuarial Studies in Non Life Insurance) en el informe del Grupo de Trabajo Big Data Analytics ,Fase 1, Papeboard de abril de 2015, recomienda al actuario el uso de los nuevos instrumentos estadísticos para la gestión adecuada de los datos como son las aplicaciones predictivas de aprendizaje automático y la computación cognitiva, y sostiene que la elección del modelo actuarial adecuado para dar respuesta a este proceso debe superar las limitaciones de los Modelos Lineales Generalizados ( GLM) para encaminarse hacia modelos más complejos como son: CART, Random Forests, Gradient Boosting, Redes Neuronales, Boosting, Bagging, árboles de decisión…

Otro debate es si estos modelos a medida que se vayan perfeccionando acabarán por eliminar el juicio experto, pues el algoritmo reproduce el esquema mental de decisión del analista de riesgo o suscriptor. El conocido como Deep Learning se refiere precisamente a este proceso, es decir las máquinas aprenden sin intervención humana. Recordemos el juicio prudencial es un conjunto de valores personales y profesionales, que se conforman a lo largo de la vida y por ello tampoco es transparente en la toma de la decisión personal.


 Relacionado con los algoritmos de inteligencia artificial, la figura del asesor virtual de riesgos que está en fase de desarrollo,  cuyas  reglas de decisión basada en algoritmos complejos es otro reto para la ética aplicada al riesgo.

Si miramos con cierta perspectiva en el tiempo, desde que en 1960, J.C.R Licklider pensó en la posibilidad de la cooperación entre los seres humanos y los ordenadores, el escenario actual y previsible de la interacción del hombre con las máquina ha motivado a Stephen Hawkins a advertir de la amenaza  para el ser humano de la plena implantación de la Inteligencia Artificial. 


El Modelo y su validez o degradación en el tiempo

Podemos decir que los modelos aplicados a una realidad que observamos nacen con fecha de caducidad, en cierto modo, el tiempo degrada el modelo, podríamos hacer el simil con la degradación de la calidad  que se producía en las primeras películas que incorporaron el color, donde se produce un debate moral acerca de si la “recoloración” altera los derechos de autor original. En nuestro caso, cabria proponer otro debate ético relacionado si el modelo que confecciona el analista  tiene derecho de autor lo que supone de derechos morales no económicos o no sería aplicable. Este debate lo aparcaremos pues el derecho tiene la respuesta adecuada.

 Volvamos al planteamiento inicial: El contexto social y económico donde medimos el riesgo, es mutable con el tiempo. Será difícil construir un modelo con el mismo fin que se persigue en la Arquitectura, trascender la realidad observada, lo máximo que podemos conseguir, es explicar las perspectivas de la contingencia que causa el infortunio ajeno a la voluntad individual. Si  riesgo es lo que nos depara el porvenir, podríamos hasta llegar a pensar que no deja de ser una tarea imposible cuantificarlo al menos medido  en el medio plazo. En la medida que el nexo causal de un evento se alargue en el tiempo, su  aseguramiento se hace complejo, podríamos decir que  el tiempo en sí mismo es un desafío a nuestras certidumbres.

La medida del riesgo medido en el espacio y en el tiempo es una tarea no bien resuelta por los analistas de riesgos, no se trata tanto de prescindir del tiempo, como solo ha hecho la cultura  guaraní, quienes no tenían unidades de tiempo, sino de incorporar el eje temporal en los modelos, solo así el modelo acompañará al destino del individuo. En nuestro ecosistema encontramos una sentencia muy oportuna y aplicable  que dice “El tiempo es superior al espacio”, incluida en Exhort. Ap. Evangelli Gaudium de 24 de noviembre de 2013.

Las reflexiones éticas en relación al hombre y el tiempo son habituales, desde la posición de la identidad personal de la autoconsciencia del yo soy en el tiempo, hasta la postura de Kant que dice somos los mismos en todo el tiempo del que poseemos consciencia, pero solo durante ese tiempo. El pensamiento filosófico acerca del tiempo tal vez no ha tenido mejor definición que la de San Agustín cuando decía en su libro Confesiones solo sabemos  qué es el tiempo cuando nadie nos propone definirlo. Por lo tanto asignar valor al tiempo, tarea necesaria en la medida del riesgo,  no es un asunto menor, al referirse a la  coordenada temporal  Diego Sebastián Garrocho en Diálogo entre el actuario y el filósofo, nos dice que la experiencia temporal es una construcción social y cultural, en cierto modo el tiempo no está sino que lo hemos construido como una ficción que hemos interiorizado, es una coordenada improbable.

 La decisión de reevaluar el riesgo con el modelo aplicado, o incluso cuando este debe ser sustituido, sin caer en el mero arbitraje del riesgo o el continuismo que nos lleva al abismo, está sometido a debate y controversia. Y es que el analista del riesgo prefiere realidades homeostáticas ,pero el tiempo las desestabiliza haciendo borrosa la realidad observables cuanto más nos alejamos en el tiempo a la contingencia.

 La experiencia nos dice que a un modelo hay que dejarle que se asiente en el tiempo para poder validar técnicamente su bondad estadística. Al menos tres años se recomiendan para revisitar las hipótesis técnicas, ahora bien, si en estas se contemplan el eje tiempo ,como el factor de mejora en el riesgo de longevidad, la revisión se puede posponer a periodos más largos, evitando en todo caso reevaluaciones en periodos superiores a 10 años. Debemos por tanto revisitar el plazo canónico de 20 años para la predicción segura en la literatura actuarial para la medida de la longevidad.

 Tengamos presente algunas estimaciones de mejoras tecnológicas y en relación con el propio ser humano, en 2022 los ordenadores superarán la capacidad cerebral del ser humano , en 2045 los ordenadores superarán la capacidad intelectual de todos los cerebros humanos del planeta y  en 2050 tomando la visión del biólogo William Haseltime, fundador de Human Genome Science todos los nacidos en ese año, vivirán 150 años y por último el conocido como “human enhancement” ( mejoramiento humano) donde la genética, la inteligencia artificial hará del hombre un ser más longevo, perfecto e inteligente.

 Estas proyecciones aplicadas a la  vida cotidiana , incluida la salud, a modo de “warning signs” son tal intensidad y ruptura que no podemos modelar los riesgos cotidianos en horizontes cercanos a estas fechas, por ello tal vez la sentencia del gran Poper no se haga realidad en nuestro caso: Las grandes mejoras se consiguen tentativamente, paso a paso. Tenemos que mirar el modelo con una visión más rupturista que continuista. En definitiva no disponemos de herramientas para desvelar y luego capturar  la realidad cambiante que se origina por el tiempo, mientras tanto recordamos a Jorge Luis Borges, cuando dijo que la memoria de lo pasado y la previsión del porvenir, vale decir tiempo.

 Así debemos ser muy escépticos con aquellos modelos que sostienen que perviven en el tiempo, al no tener referentes temporales las consecuencias económicas son no mesurables, en cierto modo la capacidad actuarial de la medida del tiempo se ha mostrado incapaz Con un ejemplo podemos entender mejor el nivel de incertidumbre en el riesgo incluso de contratos en vigor como sería un seguro de renta vitalicia; hemos mencionado que la esperanza de vida al nacer a mitad de este siglo XXI puede alcanzar los 150 años de edad, para este incremento de la vida humana, la sociedad puede caer en el “ageismo” expresión originada en Gran Bretaña en 1968, para referirse a la discriminación por ser viejo o senil, y donde la geriatría no conoce las patologías asociadas a esos tramos de vida de extendida. Tampoco la filosofía en su versión bioética ha reflexionado acerca del sentido de la vida  ampliada a excepción hecha del alargamiento de la vida de forma indigna o si este aumento de vida tiene su origen en la manipulación genética en cuyo caso la dignidad humana quedaría en entredicho, en este sentido, ético Svetlana Alexiévich, escritora galardonada con el premio Nobel de literatura en 2015, nos dice que no existe una filosofía que de soporte al extra de vida de 20 o 30 años de vida (entrevista en El País 28-4-2016 Ideas página 8), y por último el analista de riesgos no dispone de experiencia para modelar la biometría del extremo de la vida, a pesar de los progresos contrastados en la modelización de la longevidad a largo plazo, como es la técnica reciente de “what if” donde se simulan escenarios estocásticos de mejora de la vida humana. No encontramos un modelo holístico de homologación de valores que permita comprender la vida extendida, es por ello por lo que podríamos calificar como sistémico.

Los seguros preconcedidos

La modelización predicitiva, permite una nueva forma de aproximación al cliente de seguros, se refiere a la posibilidad de evaluar el perfil del riesgo de un potencial asegurado, antes de que este manifieste su intención de contratar una póliza.

Esta técnica que en banca es habitual, en el mundo asegurador es todavía emergente y no están implantadas en la mayoría de las aseguradoras, al contrario se podría decir que esta tecnología de suscripción predictiva comienza a finales de la primera década de este siglo.

La idea que subyace en estos modelos, es simplificar los procesos de suscripción de seguros, mediante el uso de técnicas predictivas aplicadas a bases de datos de clientes sin seguro, donde se combinan variables personales, con externas y en ocasiones de comportamiento crediticio. Después de las primeras experiencias internacionales en las que se proponían hasta 17 variables, los modelos actuales son más parsimónicos, y las variables que intervienen suelen estar en el rango de 7 a 10. El catedrático de matemáticas  la Universidad de Oxford Nigel Hitchin en entrevista  en el Diario El Mundo ( El Mundo, 25-9-2016, Ciencia página 27) sostiene que para encapsular expresiones complejas el sistema debe ser lo más simple posible, es decir, con el menor número de suposiciones y de ecuaciones.

 Los clientes son  clasificados en deciles, según sean categorizados como riesgo bajo-medio-alto ( exclusión) y aquellos clientes que se encuentren clasificados en los dos o tres deciles más bajos se les conceden un seguro a un precio determinado, tan solo cumplimentando un cuestionario de salud, o incluso una única pregunta de salud.

Las primeras experiencias de seguros pre-concedidos aplicados en el canal banco asegurador europeo han demostrado su eficacia en términos de éxito comercial y promete ser una línea de trabajo a potenciar por las aseguradoras. La oferta selectiva de producto de seguro a los mejores perfiles de riesgo, puede ser considerada como éticamente reprobable si la entidad de seguro exclusivamente contrata el 20%-30% de todos los riesgos, haciendo inaccesible el seguro al 70% de la población. Circunstancia parecida ocurrió en el mercado anglosajón de salud a finales de los noventa del siglo pasado, donde una entidad centró su oferta solo a los mejores perfiles de riesgo de morbilidad, el mercado reaccionó con críticas por la falta de equidad de la oferta.



7-5 El margen empresarial sobre el riesgo y el precio de la red de distribución.

La construcción del precio del seguro desde el valor asignado al riesgo hasta el precio final que debe abonar el asegurado, debe contemplar el margen empresarial legítimo y el pago a la red de distribución que comercializa el contrato del seguro.

La cuantificación de los dos elementos en su relación con lo éticamente apropiado o socialmente aceptable es objeto de controversia permanente en una economía de mercado.

 La experiencia y lecciones aprendidas de la crisis financiera de septiembre de 2008 nos han enseñado que la prácticas de codicia empresarial, asociadas en ocasiones a incentivos sobre el negocio desproporcionados, pueden haber contribuido al menos como acelerante de una de las mayores crisis del capitalismo. La encíclica Caritas in veritate de 2009, denuncia los efectos perniciosos sobre la economía real de una actividad financiera mál utilizada y en buena parte especulativa…

Estos escándalos éticos como los califica Bernardo Kilkbersg ( Kilkbersg Bernardo, Un examen de las relaciones entre ética y economía. Valores y Ética para el Siglo XXI,BBVA, 2012), merecen una reflexión sosegada, donde los valores éticos que apuntaba Adam Simith en 1759 de prudencia, humanidad, justicia, generosidad y espíritu público evitaría que hubiera graves riesgos en los mercados.

Con estos valores presentes en cada decisión de precio se encontrará el justiprecio socialmente aceptable y empresarialmente adecuado para la remuneración del accionista ajustada al riesgo. Observamos iniciativas prometedoras en posicionamientos y actitudes recientes de responsabilidad social corporativa que se comprometen a ofrecer al consumidor productos con precios razonables.
Todo ello, en un contexto en el que todo indica que los márgenes se reducirán y que el core business de las entidades puede quedar en un mero título jurídico de suscripción del riesgo y que con toda seguridad la cadena del proceso de gestión del seguro, quedará divida en muchos intervinientes, es decir,  quien comercializa será distinto de quien asuma el riesgo y la gestión del mismo puede estar cedido en régimen de outsourcing a entidades especialistas.


7-6El apetito al riesgo.

La tolerancia  al riesgo según el perfil de los riesgos en los que incurre la empresa determinará el beneficio empresarial según el capital disponible, esta decisión que se apoya en modelos cuantitativos, tiene una decisión cualitativa y de posicionamiento estratégico.

 7-7Gerencia del riesgo.

La gerencia de riesgos en el sistema financiero tal y como la conocemos hoy en día es un proceso gradual que comenzó sobre la década de los setenta del siglo pasado. Siendo verdad que el mundo del seguro tiene una tradición más que centenaria en la medida del riesgo, no es menos cierto que la gestión integral de los riesgos del activo y el pasivo del balance es relativamente reciente. No olvidemos que los modelos de valoración de carteras con técnicas estadísticas tiene su impulso con el modelo de valoración de opciones de black-Sholes.

La gestión de carteras de activos por las aseguradoras comienzan a tener una visión cuantitativa en la década de los noventa del Siglo XX, fecha en la que comienzan a implantarse técnicas de ALM modernas, se generaliza el uso del VAR ( Value at Risk) como medida de riesgo global.

Habrá que esperar a este siglo para ver como se han ido implantando en los organigramas de las entidades departamentos de riesgos cuya misión en la gestión integral de todos los riesgos en los que incurre una entidad de seguros. Este proceso ha ido en paralelo con el proceso de implantación de la directiva de Solvencia II que desde sus primeros borradores hasta su plena eficacia en enero de 2016, que ha ido formando en la gestión moderna de los riesgos.




Una acertada definición de gestión integral de riesgos, la aportó Meulbroek ( Meulbroek L.,A Senior Manager´s Guide to integrated Risk Management, Journal and Finance 14, 56-70) quien la define como la identificación y evaluación de los riesgos colectivos que afectan al valor de una empresa y la aplicación de una estrategia interna para gestionar dichos riesgos. El arte del gestor será configurar un sistema de gestión ponderado entre arriesgar y no arriesgar.

Planteamos un primer debate ético, la gestión de riesgos nace como un compromiso de la empresa para garantizar  la correcta administración a los intervinientes-grupos de interés- y la sociedad en general o por el contrario fue la sociedad quien exigió a la vista de la crisis financiera unos comportamientos prudenciales de acuerdo con criterios de buen administrador, lo que algunos autores denominas auto-regulación forzosa.

Lo relevante es analizar el escenario actual de la gestión de riesgos, donde ya está presente la transparencia, la modelización integral, mecanismos de supervisión y de administración leal. Los avances en las obligaciones que asumen las empresas en el marco de la ética empresarial son evidentes y los problemas de opacidad de los que era acusada la industria financiera han quedado atrás, pero debemos alertar de la tentación en la que pueden caer las empresas en considerar la gestión del riesgo como un mecanismo cuantitativo de optimización de la rentabilidad ajustada al capital, y si esto ocurriera nos encontraríamos a las puertas de una nueva crisis financiera sistémica que se manifiesta en una secuencia de sucesos incontrolables.

En estos escenarios de crisis global, el administrador o gerente de riesgo no debe pensar que el riesgo moral de sus actuaciones está easegurando el riesgo de “ to big to fail” por el Estado cuando interviene con ayudas al sistema, este riesgo moral pudiera ser no capturado por los sistemas de buen gobierno y de transparencia y supervisión. Los expertos en  gestión de riesgos aconsejan estar muy vigilantes a eventos de baja frecuencia y alta intensidad, una incorrecta identificación de la exposición, medida y protección de estos eventos son la vía de la crisis del sistema.

Como bien apunta el citado Boatright los sucesos extremadamente inusuales, como las fat tails (sucesos de distribución de colas muy largas) o black swans (cisnes negros) tiene consecuencias imprevisibles e improbables o tienen distribuciones demasiado limitadas como para poder ser analizadas. Al no haber series históricas es muy complejo medir el riesgo para después gestionarlo. Una vez más la gerencia de riesgos tiene mucho de actitud personal de los encargados de la gestión, tan solo la percepción de la industria acerca del ambiente regulatorio condiciona las decisiones de gestión.

Este autor, nos advierte  que  la uniformidad de criterios en la gestión de riesgos y de modelos , ejemplo VaR al 95% o 99% ,elaborados en escenarios de confianza económica, pueden no ser suficientes ante situación de graves crisis, y cita un símil de Einhorn y Brown  de 2008, cuando dicen el VaR es como el airbag de los coches que funciona siempre excepto en caso de colisión.

Ciertamente deberíamos reflexionar sobre los efectos de la homogeneidad de modelos en la gestión de riesgos ante escenarios que queden fuera del intervalo de confianza. Pensemos en el riesgo de longevidad, los cálculos actuariales que se realizaron en los sesenta y setenta del siglo pasado han demostrado que los asegurados han superado la esperanza de vida por encima del nivel de confianza del 99%. En la medida que toda la industria utilizó una tabla actuarial similar, el riesgo de supervivencia se convierte en sistémico en este territorio. Esta situación puede seguir presente en la actualidad si el asegurador ante riesgos iguales ofrece soluciones gerenciales idénticas.

Estas situaciones de riesgo de modelo colectivo en una industria, se moderaría haciendo partícipe en cada entidad a la ética de valores donde se reduzca el peso de lo cuantitativo a favor entre otros del juicio experto y estar en condiciones de afrontar la próxima crisis, que según los expertos se produce una cada 30 años.

7-8 El riesgo sistémico

La ciencia actuarial ha desarrollado metodologías específicas para capturar riesgos denominados masa (alta frecuencia y baja probabilidad del daño) y los no masa ( contrarios al anterior), la experiencia aseguradora ha demostrado sus capacidades para poder entender estos riesgos y gestionarlos, aunque es cierto que los riesgos no masa son complejos y deben ser objeto de especial atención en la gerencia de riesgos como veremos más adelante.

Pero las capacidades técnicas de investigación deberían poner sus esfuerzos es en entender la prociclicidad, es decir el agravamiento de las consecuencias producidas por pequeños cambios en las interacción de variables.  Y es que la dependencia no lineal de las variables, en opinión de Boatright puede tener mayores consecuencias que los daños de los riesgos no masa, además la situación se complica pues es muy difícil de detectarlos y modelar.




José Miguel Rodríguez-Pardo