miércoles, 21 de junio de 2017

Aspectos éticos del tratamiento de los datos personales BIG DATA EN SEGUROS

REVISTA ACTUARIOS. Nº40 BIG DATA EN SEGUROS

http://actuarios.org/actuarios40/


Aspectos éticos del tratamiento de los datos personales
José Miguel Rodríguez-Pardo
Introducción
El profesor suizo de informática y ciencias sociales Dirk Helbing sostiene que los retos del presente siglo son la ecología, la transformación digital y la financiera. Si ponemos el foco en la transformación digital y recurriendo a Yuval Noah Harari en su libro Homo Deus, breve historia del porvenir (Editorial Debate, Barcelona, 2016), podemos interrogarnos si el humanismo ha muerto en favor del dataismo, donde los patrones repetitivos proporcionan el acierto perpetuo. Incluso, afirma el autor, que dado que el hombre es un algoritmo como ser vivo, nada impide que este persista indefinidamente.

Debemos plantearnos  si se están dando las condiciones para sustituir el concepto de riesgo por el dato, asignándole a este último un valor intrínseco. Esta deriva reduccionista hacia el número, solo puede ser ponderada con los postulados de la ética si queremos seguir situando en el centro de la medida a la persona, el homo mensura como decía Protágoras ( 480-410 a. de C.) .
 Nuestro propósito en este artículo, es  analizar un riesgo en este nuevo marco que proporciona el big data  bajo  el marco ético, es definitiva  cómo hacer justos los números, evitando caer en lo que ya conoce como el “datocentrismo” donde se ha instalado la creencia que todo está en el dato, el servidor y el modelo.
 La definición de dato, la encontramos en Davenport y Prusak (1999), quienes lo entienden como una representación simbólica (numérica, alfabética, algorítmica, etc…) de un atributo o variable cuantitativa o cualitativa. Los datos describen hechos empíricos, sucesos y entidades.  El término Big Data se debe a Roger Magoulas cuando en 2005, se encontró que tenía que procesar 50 terabytes de datos, cantidad que era mayor que la capacidad de una sola máquina, con lo que tuvo que distribuir los datos en diferentes ordenadores.
 Las cifras del volumen de información que manejamos, nos ratifican la relevancia del dato y las oportunidades que se presentan en la sociedad actual, según la consultora Deloitte, desde el comienzo de la humanidad hasta 2003 se generaron 2 exabytes de información. En 2011 se creó el mismo volumen en tan solo 2 días y en 2020 se tardará menos de 10 minutos.

Privacidad
El uso intensivo de datos del que se nutre la Inteligencia Artificial ( IA), propicia que al individuo que es activo en las redes sociales o dispositivos electrónicos se le pueda  establecer lo que se denomina como la huella digital o identidad digital. Este registro es el que utilizan los algoritmos para crear modelos que permiten encontrar determinados patrones de comportamiento, elaborar perfiles y hacer recomendaciones.  En el ámbito del sector asegurador la Inteligencia Artificial ( IA) posibilita, entre otras funcionalidades, reforzar las capacidades del pricing, de políticas de admisión de riesgos, o perfilar a los clientes según su potencial aseguramiento.
Categorizar a un individuo según su huella digital, requiere un debate ético además del propio técnico-jurídico que determinen las leyes de protección de datos, pues como dijo el fundador de Facebook, Mark Zuckerberg, en 2010, la privacidad había muerto.  Los interrogantes son diversos, citemos algunos de ellos en relación con el contrato de seguro privado.
-  El uso por parte del asegurador de datos aportados voluntariamente o no al mundo digital sin el consentimiento explícito del cliente.
-La oportunidad que significa para el potencial asegurado, monetizar el uso de sus datos que sin cuestionario previo de admisión de riesgo, permite perfilar su riesgo. Es decir, se deberían establecer mecanismos de recompensa al asegurado por el uso de sus datos que permiten crear precios mutuales de riesgos sobre un universo asegurable determinado.
- Los datos que se refieren a variables que se consideran discriminantes por la legislación y aquellas que pueden ser potencialmente discriminantes, como son las  que se conocen como de discriminación inconsciente.
-El derecho a la anonimicidad, por el cual aunque el algoritmo utilizando bases de datos anónimas sea  capaz  de identificar al individuo que está  detrás de esa etiqueta anónima.
- Y no dejemos de mencionar el llamado principio de proporcionalidad, por el cual el actuario debe ponderar los beneficios adicionales que significan incorporar el uso intensivo de variables y datos en los procesos de pricing. Para medir este criterio es aconsejable, valorar los cuatro elementos de este principio: Naturaleza, escalabilidad, complejidad y alternatividad.
- La capacidad de predicción que proporciona la IA, que algunos autores le llaman statistical learning, permite elaborar un conjunto de soluciones de seguros antes incluso de que el asegurado tenga conciencia de su aversión a una contingencia determinada.
- La modelización intensiva en variables y datos, nos permite adentramos en el pricing prescriptivo , donde el asegurado debe seguir una pautas determinadas para lograr un objetivo determinado en relación a la contingencia. El conflicto ético está presente, pues el asegurador asume la responsabilidad de determinar el escenario de riesgo adecuado al cliente y establecer las pautas de comportamiento mitigantes del riesgo que debe seguir y de qué forma predeterminada pueda escalar hacia este escenario de perfil idóneo de riesgo sobre el que se asegura la contingencia

El algoritmo
El debate ético del uso intensivo de datos, alcanza no solo al proceso de pricing del seguro, sino que los algoritmos de asesoramiento digitalizado pueden presentar diferencias en relación con el asesoramiento personalizado. El acceso al contenido del algoritmo supone un reto ético en la relación contractual del seguro, y es más debemos debatir sobre la responsabilidad del error en el algoritmo cuando se perfila a un cliente para suscribir o establecer el precio del seguro; de hecho ya se habla de seguros para la protección de errores en el resultado del algoritmo cuando detrás están las técnicas de inteligencia artificial.
El uso de algoritmos, en opinión de Cathy O´Neil autora del libro Weapons of Math Destruction ( Armas matemáticas de destrucción)  son criticables  por su opacidad. Iniciativas como el derecho a la explicación  de las decisiones que perjudican a un consumidor ( tomador de un seguro en nuestro  caso) tomadas por el algoritmo parece ser una vía prometedora para reestablecer las posiciones de equilibrio necesario en el contrato en relación con la simetría de información y no caer en ventaja actuarial. El profesor de derecho Frank Pasquale de la Universidad de Maryland, cree que el uso no equitativo de datos se puede corregir con leyes de protección de los consumidores.

La responsabilidad sobre los efectos del algoritmo, en determinados foros de reflexión sugieren además de  desarrollar productos de seguros coberturas que contemplen el riesgo de error del algoritmo,  la necesidad de elaborar  códigos deontológicos de los creadores de algoritmos, esta iniciativa  se viene ya proponiendo  desde los años 90 del siglo pasado , como es el caso de José Manuel García Carrasco en su artículo ¿ Es necesario un código ético en la informática?; es cierto que esta necesidad no se ha asentado suficientemente en los programas de enseñanza universitaria con la emergencia que requiere. Iniciativas como la de la Association for Computing Machinery en su documento Software Engineering Code of Ethics and Professional Practice  ( www.acm.org/about/se-code ) constituye una referencia a tener en cuenta para el ejercicio ético responsable en la programación de algoritmos.
También requiere reflexión ética el conjunto de interacciones de los individuos con los robots que va a requerir un ordenamiento jurídico y posicionamiento ético específico; la Comisión de Asuntos Jurídicos de la Comisión Europea ha empezado a tomar la iniciativa en su informe sobre normas de Derecho civil sobre robótica de 31 de mayo de 2016.
 Otro asunto que merece atención es la identificación de la responsabilidad en los vehículos autónomos, la industria del automóvil ha resuelto el conocido problema ético como "el dilema del tranvía", donde se dará prioridad a la protección de los pasajeros en relación con los peatones u ocupantes de vehículos terceros implicados en un accidente. Es interesante conocer la iniciativa de la Sociedad Japonesa de Ingenieros Mecánicos, que en 2016 realizó juicios simulados para comprender los temas legales que se derivan de accidentes en vehículos autónomos, donde los algoritmos de IA tienen mucho que ver en la posterior responsabilidad civil de los fabricantes.
La inequidad y cosificiación
Las consecuencias en el seguro de técnicas de big data , en los procesos de suscripción y pricing pueden hacer que determinados perfiles del riesgo queden sin cobertura bien por rechazo en la selección de riesgos o bien por la propuesta de precio excesivamente costosa al quedar minimizada por la eliminación de las subvenciones cruzadas de los riesgos en el proceso de de pool risk propio de un contrato de seguro.
Los modelos resultantes del uso de datos de la red, suponen en sí mismo un reto ético, pero además sus resultados contribuyen hacia la profundización hacia la cosificación del asegurado o reducción de la persona a un mero índice estadístico
Reflexión final
En el contexto actual de aproximación a la medida de las contingencias sobre la base de la hegemonía del algoritmo -dato y secuencia numérica-, podríamos pensar si la ciencia actuarial está abandonado su pertenencia al ámbito de las ciencias sociales y encuadrándose con mejor acomodo en las ciencias cuantitativas como pueden la estadística, matemática o la ingeniería informática. La metodología científica de observación de la realidad humana es distinta y en este caso nos interrogamos si la ciencia actuarial ha sido derrotada en su vertiente más solidaria de los postulados técnicos para la medida del riesgo en favor de la soberanía individual de lo que ya se conoce como "el hombre transparente" y donde la categoría mutual del precio del seguro queda muy debilitada.

Las consecuencias del fenómeno Big Data, en un sentido amplio, necesita un nuevo consenso social que redefina el seguro privado en un entorno social en el que prima la Agenda Ética. El comportamiento ético del consumidor dirigirá el cambio, las empresas competirán por conseguir la excelencia ética y los mercados deberán compatibilizar los resultados económicos-financieros a corto plazo con la consecución de beneficios sociales a largo plazo para el conjunto de la sociedad. La cuarta revolución industrial debe poner en el centro de sus postulados la citada Agenda Ética.