martes, 21 de mayo de 2019

Comité de ética de algoritmos de inteligencia artificial

Comité de ética de algoritmos de inteligencia artificial


https://www.fundacionmapfre.org/documentacion/publico/i18n/catalogo_imagenes/grupo.cmd?path=1101485

 José Miguel Rodríguez-Pardo Prof. Dr. y Coord. en el Máster Universitario en Ciencias Actuariales y Financieras en la UC3M




 El desarrollo y uso de los algoritmos de la inteligencia artificial en la industria del seguro requiere un compromiso ético por las aseguradoras, los llamados sesgos éticos que deben ser evitados dentro del marco de la economía del bien social. La emergencia es dotar de valores éticos a la modelización predictiva, o como dice José Ignacio La Torre en su libro “Ética para las máquinas” de 2019, la inteligencia artificial debe configurarse como agente moral en un escenario donde no sabremos distinguir las máquinas de un ser humano. Trasladaremos nuestros valores éticos a las máquinas pensantes.

El buen uso de la inteligencia artificial está siendo objeto de reflexión por parte de distintos estamentos desde 2016, año en el que la Administración Norteamérica publicó en octubre el documento “Preparing for the future of Artificial Intelligence”. De los distintos documentos que se están elaborando, se va conformando un conjunto de principios rectores que deben desembocar en norma legislativa o bien en comités éticos de Inteligencia Artificial que, bajo la perspectiva de autorregulación, mitiguen los riesgos de los sesgos éticos.

Una reflexión que nos interpela la encontramos en el libro “Automating Inequality” de Virginia Eubanks 2018, cuando describe la casa pobre digital, donde las formas de automatización pueden dar lugar al maltrato de los vulnerables, por lo que los sistemas informáticos deben proporcionar una confianza en la sociedad que proporcionan resultados imparciales y neutros.

Analizamos los documentos más recientes y sus aportaciones más destacables que son aplicables para el buen uso de los modelos predictivos en el seguro privado.

Comisión Europea

 Dos son los documentos que ha elaborado la Comisión Europea, “Artificial Intelligence, Robotics and “Autonomous” Systems” de marzo de 2018 y “Ethics Guidelines For Trustworthy AI” de abril de 2019 elaborado por el grupo de expertos de alto nivel en Inteligencia Artificial

. Desde Europa se propone elaborar una lista de verificación que debe analizar:
·¿Has evaluado las posibles formas de ataques a los que el Sistema de IA podría ser vulnerable? . -¿Has verificado qué daño se causaría si el sistema de IA hace predicciones inexactas? ·
 ¿Has establecido una estrategia o un conjunto de procedimientos para evitar crear o reforzar un sesgo injusto en el sistema IA, tanto en el uso de los datos de entrada como en el diseño del algoritmo? ·
 ¿Has evaluado si el sistema de IA es utilizable por personas con necesidades especiales o discapacidades o en riesgo de exclusión?

Además de lo anterior se establecen una serie de requisitos que hay que tener en cuenta en los sistemas de Inteligencia Artificial: • Agencia humana y supervisión: los sistemas de AI deben permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana. • Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros, confiables y lo suficientemente sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial. • Privacidad y control de los datos: los ciudadanos deben tener un control total sobre sus propios datos, mientras que los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos. • Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA. • Diversidad, no discriminación y equidad: los sistemas de AI deben considerar toda la gama de habilidades y requisitos humanos, y garantizar la accesibilidad. • Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica. • Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.

 La Comisión Europea desde el 8 de abril de 2019, abre una fase piloto cuyos resultados se evaluarán a principios de 2020.

 Declaración de Montreal

 La Declaración de Inteligencia Artificial de Montreal de diciembre de 2018, establece los siguientes principios: 1. Bienestar 2. Respeto a la autonomía 3. Privacidad e intimidad 4. Solidaridad 5. Participación democrática 6. Equidad 7. Diversidad e inclusión 8. Prudencia 9. Responsabilidad 10.Desarrollo sostenible

Para lograr estos principios, los redactores proponen el establecimiento de una "organización de vigilancia e investigación sobre los usos y los impactos sociales de la inteligencia digital y artificial" y el desarrollo de una política coherente.

También se debe garantizar el acceso a "la capacitación que permita la comprensión, la crítica, el respeto y la responsabilidad para participar activamente en una sociedad digital sostenible". La formación ética es deseable. La evolución del sector de la IA no debe hacerse sin tener en cuenta las realidades de los países pobres y en desarrollo.

 World Economic Forum Davos En la reunión de 2018, el Foro de Davos recogió los siete principios para de Código Ético que deben regir para los investigadores:
 1. Relaciónate con el público 2. Persigue la verdad 3. Minimiza el daño 4. Relaciónate con las personas que toman decisiones 5. Apoya la diversidad 6. Sé un mentor 7. Responsabilízate de tus actos

En la reunión de este año 2019, el desarrollo ético de la Inteligencia Artificial también fue objeto de debate, desde el Foro se entiende que no puede existir un estándar diferente para la IA cuando sabemos que la mayoría de las personas no pueden explicar su proceso de toma de decisiones. Además, se deben seguir principios básicos, centrados en respetar la transparencia y el uso ético de los datos, pero se mostraron contrarios a una regulación estricta, que perjudicaría a la innovación. Comité Ético Alianza para la Inteligencia Artificial La Alianza para la IA, donde participan Microsoft, Amazon, Apple, Intel MIT, Harvard y el Instituto para de Ética en inteligencia artificial de la Universidad Técnica de Munich 2019, apoyado por Facebook constituyen iniciativas muy recientes que tratan de conformar principios rectores que deben cumplir los Comités Éticos:

 1. Invita a expertos en ética que reflejen la diversidad del mundo 2. Incluir a las personas que podrían verse afectadas negativamente por la IA 3. Obtener la participación de la junta directiva 4. Recluta un representante de los empleados 5. Selecciona un líder externo 6. Programe tiempo suficiente para reunirse y deliberar. 7. Comprometerse con la transparencia.

 Conclusión Las entidades de seguros, con este conjunto de iniciativas, disponen de guía de actuación para constituir Comités éticos sin necesidad de que el legislador desarrolle preceptos que garanticen el buen uso de la Inteligencia Artificial.

 Llamamos la atención a la opinión del experto mundial en Inteligencia Artificial Yoshua Bengio, premio Alan Turing 2019, quien en un trabajo publicado en la revista “Nature” cree que la autorregulación no va a funcionar y es necesario un marco legal que regule el uso adecuado y ético de los algoritmos Los Comités de ética deben ser un compromiso de la entidad con la sociedad y no, como ya advierten expertos de esta materia, un lavado de cara o esfuerzo superficial. El principio de debe regir es de la equidad algorítmica y no exclusión o discriminación tanto consciente como inconsciente. No menos importante es de la trazabilidad, la trasparencia, y la asunción de responsabilidades del daño a terceros de las decisiones del algoritmo. Estos objetivos solo se pueden cumplir con una participación en el Comité Ético de representantes de la gerencia de la entidad, abogado, actuario, responsabilidad social de la compañía y la tecnología, y expertos independientes