En tant que Data Scientist, je peux vous assurer que l’éthique devrait jouer un rôle crucial dans chaque étape et chaque itération du cycle classique du Machine Learning. Cependant, c’est encore une pratique peu courante mais je crois qu’ « un voyage de mille lieux commence par un seul pas ». Ainsi, partir de la question centrale est un bon premier pas et nous progresserons à travers la disponibilité de nos modèles ML entraînés. Cet article a été inspiré par mon expérience personnelle ainsi que par d’excellentes références disponibles sur Internet (les liens et les références sont, bien sûr, disponibles à la fin de l’article). C’est parti !
Comment l'éthique peut-elle influencer votre logiciel ?
J’ai récemment travaillé sur un projet d’identification de vêtements de protection pour salles blanches. Pour entraîner le modèle IA, nous avons choisi le service Custom Vision. La logique était assez simple : avec Python Open CV, nous lisions le flux vidéo et, image par image, nous envoyions les photos au service via un appel API. Néanmoins, en raison de problèmes éthiques, nous avons dû réécrire l’ensemble de la solution et redéfinir notre architecture. Quel était donc le problème ? Tout d’abord, nous avons été confrontés à des problèmes liés au RGPD. Nous n’étions pas conscients du fait qu’aucune donnée ne peut sortir de la salle blanche. Deuxièmement, les opérateurs de la salle blanche n’étaient pas tous au courant du fait qu’ils étaient filmés. Leurs images auraient alors été utilisées pour l’entraînement sans leur accord, ce qui aurait assurément violé leurs droits. Ainsi, nous avons exporté le modèle en local et adapté notre logiciel pour traiter et analyser les images entièrement hors ligne puis avons créé un autre logiciel pour augmenter les données initiales. Cela a demandé quelques efforts supplémentaires, mais au final nous étions heureux d’avoir respecté toute l’éthique et les règles du RGPD.
Les données constituent un autre problème. Bien que le sujet de l’identification des vêtements de protection puisse sembler trivial, le phénomène représente un problème beaucoup plus vaste. Dans notre cas, la seule présence du vêtement de protection n’est pas suffisante. Nous devons nous assurer que les lunettes, les masques et les gants sont bien mis, et que toutes les sources de contamination sont évitées. Par exemple, si le masque est sur le visage de l’opérateur mais que le nez est découvert ou que des cheveux sont visibles, l’application doit déclencher l’alarme. Outre les règles internes de l’entreprise, l’absence de ce type de données (photos avec des masques couvrant parfaitement le visage, et photos avec des masques tirés un peu sous le nez, dans notre cas) peut fausser les résultats et même mettre la vie d’une personne en danger. Par exemple, saviez-vous que votre nez est un aimant à infections, car les régions nasales sont plus sensibles aux infections ?
Les connaissances et l’expertise de vos clients/partenaires contribuent à garantir la plus grande probabilité d’un lancement sûr et réussi de votre application. Vous n’avez peut-être pas accès aux mêmes ressources, mais vous pouvez faire de votre mieux pour être aussi éthique que possible avec les informations limitées dont vous disposez. Dans notre projet, nous avons demandé à nos clients, qui étaient des experts dans le domaine, de nous fournir une liste complète d’exigences. Nous avons ensuite créé un logiciel simple pour leur permettre de générer facilement un ensemble de formations.
Les problèmes de Machine Learning exigent de la rigueur et de l’itération. Avec chaque nouveau niveau de conscience et de connaissance que nous acquérons à partir de notre ensemble de formations, nous apprenons quelles autres informations pourraient manquer, quelles nouvelles questions poser et comment hiérarchiser les données pour obtenir une compréhension plus précise du domaine.
Citation de la documentation Microsoft :
Une analyse qui ne prend en compte qu’un seul exemple de facteurs négatifs n’est pas le genre de données que la NASA utiliserait lorsque des vies réelles sont en danger. Il faudrait davantage de données et d’expertise en la matière avant de pouvoir utiliser ces données pour une véritable prise de décision.
Questions éthiques et sociales soulevées par l'IA
Il existe de nombreux défis éthiques que les développeurs doivent relever lorsqu’ils explorent les nouvelles possibilités créées par le partenariat entre les humains et les machines. Ainsi, la question principale est de savoir ce que les ordinateurs devraient faire, et non ce qu’ils peuvent faire.
Quelques exemples de questions sociales soulevées par l’IA :
Comment utiliser au mieux l’IA pour aider les utilisateurs et offrir aux gens des perspectives améliorées tout en évitant de les exposer à différents types de discrimination en matière de santé, de logement, d’application de la loi et d’emploi ?
Comment équilibrer le besoin d’efficacité et d’exploration avec l’équité et la sensibilité envers les utilisateurs ?
Alors que nous nous apprêtons à faire confiance aux agents intelligents dans notre vie quotidienne, comment faire en sorte que les individus et les communautés puissent faire confiance à ces systèmes ?
Il existe six principes éthiques formulés par l’équipe de Microsoft qui sont censés guider le développement et l’utilisation de l’apprentissage automatique en plaçant l’humain au centre :
- Équité
- Fiabilité et sécurité
- Inclusivité
- Vie privée et sécurité
- Transparence
- Responsabilité
L'ERTE (Equité, Responsabilité, Transparence et Ethique)
Pour étudier les implications sociales complexes de l’IA/ML, de l’expérimentation à grande échelle et de l’automatisation de Microsoft a créé le groupe de recherche ERTE. Son objectif principal est de proposer des techniques et des méthodologies de calcul innovantes et éthiques. En plus de formuler ces principes, ils analysent le contexte plus profond qui sous-tend ces questions à partir de différentes perspectives comme la sociologie, l’histoire ou les études scientifiques et technologiques. En outre, leurs projets de recherche collaborative portent sur le besoin de transparence, de responsabilité et d’équité dans les systèmes d’IA et d’apprentissage automatique dans différentes disciplines telles que l’intelligence artificielle, la recherche d’informations, la sociologie et les sciences politiques.
L'IA de Microsoft pour le bien
Microsoft AI for Good investit dans des programmes qui améliorent l’accès aux technologies du cloud et de l’IA par le biais de subventions, de l’éducation, de la recherche et de partenariats stratégiques.
Accessibilité
L’IA pour l’accessibilité aide les gens à acquérir de la liberté et à accomplir davantage en favorisant l’inclusion par le biais de la technologie intelligente. L’application Seeing AI, par exemple, utilise l’intelligence artificielle pour aider les personnes souffrant d’une vision limitée à mieux voir l’environnement.
Humanitaire
Un nouveau programme de 5 ans, avec un budget de 40 millions de dollars, appelé AI for Humanitarian Action, vise à utiliser l’IA pour aider les gens à se remettre de catastrophes, à répondre aux besoins des enfants, à protéger les réfugiés et les personnes déplacées, et à promouvoir le respect des droits de l’homme. Par exemple, Operation Smile, un partenaire à but non lucratif, utilise un algorithme de modélisation du visage et Microsoft Pix pour améliorer les résultats des opérations chirurgicales et aider davantage d’enfants ayant besoin d’une reconstruction faciale.
Terre
Les personnes et les organisations peuvent utiliser l’IA pour la Terre afin d’améliorer la façon dont nous surveillons, modélisons et gérons les processus naturels de la Terre. L’agriculture, l’eau, la biodiversité et le changement climatique sont autant d’aspects importants d’un avenir durable. Le projet Premonition, par exemple, a commencé comme un projet de suivi des nouvelles maladies à l’aide de l’IA, de drones et des services cloud de Microsoft. Les scientifiques ont commencé à étudier le sang des moustiques pour devancer les maladies infectieuses parce qu’ils avaient besoin de données rapides et précises, et ils se concentrent maintenant sur la biodiversité.
Seeing AI
Seeing AI est un projet de recherche de Microsoft qui associe la puissance du cloud à l’intelligence artificielle pour créer un logiciel intelligent destiné à vous aider dans votre quotidien : https://www.youtube.com/watch?v=bqeQByqf_f8.
Dans ce court article, nous avons abordé les bases d’une question aussi complexe que l’éthique en IA. Dans les prochains articles, nous allons voir les solutions et services concrets qui vous permettront de construire un service ML plus responsable. J’espère que cela vous a été utile.
Ecrit par Alibek JAKUPOV– Data Scientist chez Expertime et Microsoft MVP Artificial Intelligence