Delphine Pouponneau

Publié le 20 Avril 2020

1ère charte internationale pour une IA inclusive : Orange s’engage

La charte internationale pour une IA inclusive engage les entreprises qui le souhaitent dans la lutte contre les biais et stéréotypes en promouvant la diversité, l’usage responsable et le développement de l’intelligence artificielle. À l’origine de cette initiative avec Arborus, nous en sommes le premier signataire.

Alors que l’intelligence artificielle conquiert progressivement des territoires de plus en plus importants et que nous en avons fait un axe de développement de notre plan stratégique « Engage 2025 », nous sommes signataires de la première charte internationale pour une IA inclusive, auprès du fonds de dotation Arborus dont nous sommes membre fondateur. Quels sont les objectifs et grands principes de cette charte ? Les réponses de Delphine Pouponneau, Directrice de la Diversité et Inclusion chez Orange.

 

Qu’entend-on par « intelligence artificielle inclusive » ?

Aujourd’hui, les algorithmes d’intelligence artificielle sont dans tous les domaines : ils nous recommandent une vidéo ou un nouveau livre, nous suggèrent une offre d’emploi, tentent de nous mettre en contact avec des personnes qui pourraient nous correspondre. Mais ils interviennent aussi dans des secteurs particulièrement sensibles tels la santé, la sécurité, l’éducation ou les assurances… Or, les algorithmes sont à notre image et, selon les données qui les nourrissent, peuvent reproduire des biais et stéréotypes qui existent déjà dans la société. Le risque, c’est que, par sa puissance, l’intelligence artificielle augmente les inégalités que nous constatons déjà. Ces biais sont le résultat de l’intervention humaine au moment de la conception, au moment de la collecte de données ou dans l’écriture du code. Si les algorithmes, ainsi que le choix des données utilisées pour nourrir ces algorithmes, ne sont pensés, crées et gérés que par des hommes caucasiens, les machines ne feront que traduire et amplifier une vision particulière et donc biaisée de la société. C’est pourquoi il faut être particulièrement vigilants à identifier et maîtriser ces biais. L’une des clés est de permettre à une part plus large de la population de comprendre et participer à la conception des algorithmes.

 

Quel est l’objectif de la charte pour une IA inclusive ?

En signant cette charte pour une IA inclusive, les entreprises s’engagent à favoriser la mixité et la diversité au sein de leurs équipes, et notamment dans les équipes spécialisées en IA. Les entreprises signataires veillent aussi à ce que l’ensemble de leurs parties prenantes agissent de manière responsable à identifier et maîtriser les biais discriminatoires. N’oublions pas que l’intelligence artificielle est un formidable levier de développement. Elle porte également en elle une véritable opportunité pour réduire les inégalités. Pour les individus, elle est une promesse de carrière et d’émancipation, dont aucun pan de la société, et notamment les femmes, ne doit être exclu.

 

Pouvez-vous nous expliquer ce qui motive Orange dans ce projet ?

Nous sommes engagés dans cette démarche à plusieurs titres. D’abord, nous sommes depuis de nombreuses années un acteur français de l’intelligence artificielle. Nous la développons dans les domaines de la relation client, dans la finance et nous commençons à exploiter son potentiel dans la supervision de nos réseaux. Bientôt, nous serons en mesure de faire de la maintenance prédictive pour éviter les incidents. L’intelligence artificielle fait donc partie des métiers que nous souhaitons développer de façon prioritaire chez Orange, avec de nombreux recrutements prévus dans les années qui viennent. Nous serons particulièrement vigilants à promouvoir la formation en interne, c’est-à-dire des reconversions des collaborateurs qui le souhaiteront et à veiller à féminiser ces fonctions dans nos recrutements. Nous visons 30 % de femmes dans les métiers techniques à l’horizon 2025. Nos experts interviennent également au sein du « High-Level Expert Group on Artificial Intelligence » (AI HLEG) de la Commission européenne pour proposer des recommandations sur l'élaboration de politiques futures et sur les questions éthiques, juridiques et sociétales liées à l'IA.

 

Comment les 7 engagements de cette charte ont-ils été définis (voir les 7 engagements en encadré) ?

Les engagements pris dans le cadre de la charte répondent à trois enjeux majeurs. D’abord, promouvoir la place des femmes dans les métiers de l’IA – aujourd’hui, nous ne comptons que 12 % de chercheuses femmes dans le monde d’après une étude de l’entreprise canadienne Element AI. Ensuite, donner à chaque maillon de la chaîne les moyens de détecter ou d’alerter sur des potentiels biais, grâce à un programme de formation, qui dépasse les populations techniques. Chefs de produit, RH, responsables marketing, etc. Nous ne pourrons lutter efficacement contre les biais qu’à condition de sensibiliser l’ensemble des acteurs et au-delà, la société dans son ensemble. Enfin, mettre en place un processus d’amélioration continue pour la qualité des données utilisées, afin d’évaluer et de réagir à toutes formes de discrimination.

 

En quoi est-il important pour Orange d’établir une relation de confiance entre l’IA (et plus globalement les technologies) et les individus ?

Nous nous sommes dotés d’une raison d’être fin 2019. « Nous sommes l’acteur de confiance qui donne à chacune et chacun les clés d’un monde numérique responsable. » Parmi toutes les technologies numériques, l’IA pose de nombreuses questions. Selon une étude de l’Ifop, 80 % des Français jugent la présence des algorithmes déjà massive dans leur vie, mais un peu plus de la moitié avoue ne pas savoir précisément ce que sont ces algorithmes. Ces nouvelles technologies sont une formidable opportunité de progrès, mais nous devons apporter des garanties quant à leur utilisation et nous fixer collectivement des règles de bonne conduite. Nous devons également former et informer massivement. C’est la condition pour qu’elles soient acceptées par la société. Ces actions s’inscrivent dans notre stratégie globale et volontariste pour favoriser la diversité et pour assurer une représentation juste et équilibrée de la société. J’en profite pour faire la promotion d’une initiative qu’Orange soutient, lancée par l’institut Montaigne, Open classroom et la Fondation Abeona : Objectif IA, dont l’ambition est de former au moins 1 % des Françaises et des Français aux enjeux de l’IA. 

 

Comment cette charte va-t-elle influer sur la conception des systèmes de l’IA sans une réglementation européenne ou internationale qui encadre le sujet ?

Un cadre législatif existe déjà pour protéger l’utilisation des données personnelles en Europe, c’est le RGPD. Faut-il légiférer davantage ? Ma conviction est qu’il faut veiller à ne pas freiner le dynamisme du secteur, notamment face à des acteurs chinois ou américains. Aussi je crois qu’il est préférable de privilégier les démarches incitatives et pédagogiques et non coercitives. La promotion de labels permettrait de mettre en place des démarches d’amélioration continue et de vérifier via un organisme externe et indépendant les progressions réalisées. Ces labels permettraient d’apporter des garanties et ainsi de renforcer la confiance des citoyens envers ces nouvelles technologies. Nous avons d’ailleurs pour objectif, avec Arborus, de concevoir un label GEEIS AI, sur le modèle du GEEIS (Gender Equality European & International Standard) qui mesure l’égalité entre les femmes et les hommes dans les entreprises.

 

 

7 engagements des entreprises signataires de la Charte internationale pour une IA inclusive

Les entreprises signataires de cette charte s’engagent à :

  1. Promouvoir la mixité et la diversité dans les équipes qui travaillent sur des solutions à base d’IA.
     
  2. S’organiser pour évaluer et réagir à toutes formes de discrimination qui pourraient résulter de données biaisées ou stéréotypées.
     
  3. Veiller à la qualité des données utilisées pour garantir des systèmes plus équitables possible : une donnée unifiée, cohérente, vérifiée, traçable et exploitable.
     
  4. Former pour sensibiliser et responsabiliser les concepteurs, développeurs et tous les acteurs impliqués dans la fabrique de l’IA, aux stéréotypes, aux biais pouvant générer des discriminations.
     
  5. Sensibiliser les prescripteurs des solutions à base d’IA (RH, finances, relations clients, marketing…), aux risques de biais et stéréotypes pouvant générer des discriminations et intégrer dans les cahiers des charges des points de contrôle et d’évaluation itérative.
     
  6. Veiller à bien choisir les fournisseurs et les évaluer de manière itérative afin de s’assurer que toute la chaîne de valeur de l’IA soit non discriminatoire.
     
  7. Contrôle les solutions à base d’IA et adapter en continu les processus.

 

Sous le haut patronage de Cédric O, Secrétaire d’Etat chargé du Numérique auprès du ministre de l'Économie et des Finances et du ministre de l'Action et des Comptes publics avec l’appui de Delphine O, Ambassadrice et Secrétaire Générale de la Conférence mondiale de l’ONU sur les femmes, et de Nicole Ameline, Vice-Présidente du CEDAW-ONU.