Comité de ética de algoritmos de inteligencia artificial
https://www.fundacionmapfre.org/documentacion/publico/i18n/catalogo_imagenes/grupo.cmd?path=1101485
José Miguel Rodríguez-Pardo
Prof. Dr. y Coord. en el Máster Universitario en Ciencias Actuariales y Financieras en la UC3M
El desarrollo y uso de los algoritmos de la inteligencia artificial en la industria del
seguro requiere un compromiso ético por las aseguradoras, los llamados sesgos
éticos que deben ser evitados dentro del marco de la economía del bien social.
La emergencia es dotar de valores éticos a la modelización predictiva, o como
dice José Ignacio La Torre en su libro “Ética para las máquinas” de 2019, la
inteligencia artificial debe configurarse como agente moral en un escenario
donde no sabremos distinguir las máquinas de un ser humano. Trasladaremos
nuestros valores éticos a las máquinas pensantes.
El buen uso de la inteligencia artificial está siendo objeto de reflexión por parte
de distintos estamentos desde 2016, año en el que la Administración
Norteamérica publicó en octubre el documento “Preparing for the future of
Artificial Intelligence”. De los distintos documentos que se están elaborando, se
va conformando un conjunto de principios rectores que deben desembocar en
norma legislativa o bien en comités éticos de Inteligencia Artificial que, bajo la
perspectiva de autorregulación, mitiguen los riesgos de los sesgos éticos.
Una reflexión que nos interpela la encontramos en el libro “Automating Inequality”
de Virginia Eubanks 2018, cuando describe la casa pobre digital, donde las
formas de automatización pueden dar lugar al maltrato de los vulnerables, por lo
que los sistemas informáticos deben proporcionar una confianza en la sociedad
que proporcionan resultados imparciales y neutros.
Analizamos los documentos más recientes y sus aportaciones más destacables
que son aplicables para el buen uso de los modelos predictivos en el seguro
privado.
Comisión Europea
Dos son los documentos que ha elaborado la Comisión Europea, “Artificial
Intelligence, Robotics and “Autonomous” Systems” de marzo de 2018 y “Ethics
Guidelines For Trustworthy AI” de abril de 2019 elaborado por el grupo de
expertos de alto nivel en Inteligencia Artificial
.
Desde Europa se propone elaborar una lista de verificación que debe analizar:
·¿Has evaluado las posibles formas de ataques a los que el Sistema de IA podría
ser vulnerable?
. -¿Has verificado qué daño se causaría si el sistema de IA hace predicciones
inexactas?
·
¿Has establecido una estrategia o un conjunto de procedimientos para evitar
crear o reforzar un sesgo injusto en el sistema IA, tanto en el uso de los datos de
entrada como en el diseño del algoritmo?
·
¿Has evaluado si el sistema de IA es utilizable por personas con necesidades
especiales o discapacidades o en riesgo de exclusión?
Además de lo anterior se establecen una serie de requisitos que hay que tener
en cuenta en los sistemas de Inteligencia Artificial:
• Agencia humana y supervisión: los sistemas de AI deben permitir
sociedades equitativas apoyando la agencia humana y los derechos
fundamentales, y no disminuir, limitar o desviar la autonomía humana.
• Robustez y seguridad: la inteligencia artificial confiable requiere que los
algoritmos sean lo suficientemente seguros, confiables y lo
suficientemente sólidos como para enfrentar errores o inconsistencias
durante todas las fases del ciclo de vida de los sistemas de inteligencia
artificial.
• Privacidad y control de los datos: los ciudadanos deben tener un control
total sobre sus propios datos, mientras que los datos que los conciernen
no se utilizarán para perjudicarlos ni discriminarlos.
• Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA.
• Diversidad, no discriminación y equidad: los sistemas de AI deben
considerar toda la gama de habilidades y requisitos humanos, y garantizar
la accesibilidad.
• Bienestar social y ambiental: los sistemas de inteligencia artificial deben
utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad
y la responsabilidad ecológica.
• Responsabilidad: deben establecerse mecanismos para garantizar la
responsabilidad y la rendición de cuentas de los sistemas de AI y sus
resultados.
La Comisión Europea desde el 8 de abril de 2019, abre una fase piloto cuyos
resultados se evaluarán a principios de 2020.
Declaración de Montreal
La Declaración de Inteligencia Artificial de Montreal de diciembre de 2018,
establece los siguientes principios:
1. Bienestar
2. Respeto a la autonomía
3. Privacidad e intimidad
4. Solidaridad
5. Participación democrática
6. Equidad
7. Diversidad e inclusión
8. Prudencia
9. Responsabilidad
10.Desarrollo sostenible
Para lograr estos principios, los redactores proponen el establecimiento de una
"organización de vigilancia e investigación sobre los usos y los impactos sociales
de la inteligencia digital y artificial" y el desarrollo de una política coherente.
También se debe garantizar el acceso a "la capacitación que permita la
comprensión, la crítica, el respeto y la responsabilidad para participar
activamente en una sociedad digital sostenible". La formación ética es deseable.
La evolución del sector de la IA no debe hacerse sin tener en cuenta las
realidades de los países pobres y en desarrollo.
World Economic Forum Davos
En la reunión de 2018, el Foro de Davos recogió los siete principios para de
Código Ético que deben regir para los investigadores:
1. Relaciónate con el público
2. Persigue la verdad
3. Minimiza el daño
4. Relaciónate con las personas que toman decisiones
5. Apoya la diversidad
6. Sé un mentor
7. Responsabilízate de tus actos
En la reunión de este año 2019, el desarrollo ético de la Inteligencia Artificial
también fue objeto de debate, desde el Foro se entiende que no puede existir un
estándar diferente para la IA cuando sabemos que la mayoría de las personas
no pueden explicar su proceso de toma de decisiones. Además, se deben seguir
principios básicos, centrados en respetar la transparencia y el uso ético de los
datos, pero se mostraron contrarios a una regulación estricta, que perjudicaría a
la innovación.
Comité Ético Alianza para la Inteligencia Artificial
La Alianza para la IA, donde participan Microsoft, Amazon, Apple, Intel MIT,
Harvard y el Instituto para de Ética en inteligencia artificial de la Universidad
Técnica de Munich 2019, apoyado por Facebook constituyen iniciativas muy
recientes que tratan de conformar principios rectores que deben cumplir los
Comités Éticos:
1. Invita a expertos en ética que reflejen la diversidad del mundo
2. Incluir a las personas que podrían verse afectadas negativamente por la IA
3. Obtener la participación de la junta directiva
4. Recluta un representante de los empleados
5. Selecciona un líder externo
6. Programe tiempo suficiente para reunirse y deliberar.
7. Comprometerse con la transparencia.
Conclusión
Las entidades de seguros, con este conjunto de iniciativas, disponen de guía de
actuación para constituir Comités éticos sin necesidad de que el legislador
desarrolle preceptos que garanticen el buen uso de la Inteligencia Artificial.
Llamamos la atención a la opinión del experto mundial en Inteligencia Artificial
Yoshua Bengio, premio Alan Turing 2019, quien en un trabajo publicado en la
revista “Nature” cree que la autorregulación no va a funcionar y es necesario un
marco legal que regule el uso adecuado y ético de los algoritmos
Los Comités de ética deben ser un compromiso de la entidad con la sociedad y
no, como ya advierten expertos de esta materia, un lavado de cara o esfuerzo
superficial. El principio de debe regir es de la equidad algorítmica y no exclusión
o discriminación tanto consciente como inconsciente.
No menos importante es de la trazabilidad, la trasparencia, y la asunción de
responsabilidades del daño a terceros de las decisiones del algoritmo. Estos
objetivos solo se pueden cumplir con una participación en el Comité Ético de
representantes de la gerencia de la entidad, abogado, actuario, responsabilidad
social de la compañía y la tecnología, y expertos independientes