Publié le 24 Janvier 2024

Intelligence artificielle et éthique : les bonnes pratiques des entreprises

Interview croisée de Laetitia Orsini-Sharps, Directrice Grand public d’Orange et de David Giblas, Directeur général délégué de Malakoff Humanis, Président de Positive AI

Illustration d'un fond étoilé
 
Miniature David Giblas

David Giblas,
Directeur général délégué de Malakoff Humanis
Président de Positive AI

Miniature Laetitia Orsini-Sharps

Laetitia Orsini-Sharps,
Directrice Grand public d’Orange
Anciennement Présidente de Positive AI

 
Illustration d'une silhouette allongée

Quelle a été la genèse et quel est l’objet de Positive AI ?

84 % des dirigeants d’entreprises affirment que l’intelligence artificielle responsable doit être une priorité, moins de 20 % des entreprises estiment avoir mis en place un programme d’un bon niveau de maturité en la matière.

Laetitia Orsini-Sharps, Directrice Grand public d’Orange, anciennement Présidente de Positive AI

Laetitia Orsini-Sharps : L’association est née de la rencontre vers 2020 de nos CDOs [chief data officers, ndlr] dans le cadre des travaux conduits par la Commission européenne, sur ce que devaient être les bases de l’éthique de l’intelligence artificielle. Il y avait alors un besoin d'échange et un constat commun que les entreprises avaient besoin d'outils opérationnels pour mettre en œuvre les recommandations de la commission.

Positive AI est une initiative par celles et ceux qui pratiquent l’intelligence artificielle, afin de les accompagner dans sa mise en œuvre, notamment dans les services et produits destinés au grand public. 

Car si 84 % des dirigeants d’entreprises affirment que l’intelligence artificielle responsable doit être une priorité, moins de 20 % des entreprises estiment elles-mêmes avoir mis en place un programme d’un bon niveau de maturité en la matière. La marge de progrès est importante.

David Giblas : Nous sommes conscients que toutes les entreprises n’ont pas le même degré de compréhension ou d’avancement concernant l’IA responsable, c’est pourquoi, nous avons structuré Positive AI comme une plateforme communautaire et collaborative.

Celle-ci nous permet d’échanger des bonnes pratiques, partager nos expériences et notre compréhension de l’IA et de ses usages (ex. via des webinaires). C’est également un outil efficace pour co-construire des guidelines et des outils (formations, référentiel, label), pour aider les organisations et apporter des solutions aux entreprises dans la mise en œuvre d’une IA responsable.

Enfin, Positive AI contribue au débat public sur la régulation et les perspectives de l'IA, en nous rapprochant d’autres acteurs publics et privés, français et étrangers, pour mettre en commun nos avancées et créer une approche commune au niveau européen.
 

À quelles situations pratiques les entreprises se trouvent-elles confrontées ?

Les entreprises doivent lutter contre l’image d’une intelligence artificielle qui serait une boîte noire inaccessible et incompréhensible. 

David Giblas, Directeur général délégué de Malakoff Humanis, Président de Positive AI

D.G : Elles le sont tout d’abord vis-à-vis de leurs employés, auxquels il est indispensable d’expliquer que le recours à l’intelligence artificielle n’a pas pour objet de les remplacer, de les contrôler mais, au contraire, de leur apporter une aide afin d’automatiser des tâches et de les libérer de ce qui est fastidieux. 

Les entreprises le sont ensuite vis-à-vis de leurs clients ou des personnes avec lesquelles elles sont en contact, pour lesquels elles vont s’interdire de poursuivre certaines finalités dans leurs usages de l’intelligence artificielle. Dans le domaine de la santé par exemple, en matière de contrôle des arrêts de travail, le choix de contrôler doit incomber à une personne et pas à une intelligence artificielle. Il faut aussi que les entreprises s’assurent que les intelligences artificielles employées ne sont pas victimes de biais, lors des recrutements, ou des contrôles anti-fraude par exemple. 

Enfin, les entreprises doivent être très transparentes en faisant en sorte que le recours à l’IA soit aussi bien expliqué que possible afin de lutter contre l’image d’une intelligence artificielle qui serait une boite noire inaccessible et incompréhensible. Quel que soit le domaine d’application de l’intelligence artificielle, qu’il s’agisse de marketing, de relation client, de RH, il est fondamental d’être attentif à tout cela.

L.O-S : Si l’on prend l’exemple d’Orange, nos usages de l’intelligence artificielle doivent être en résonance avec notre raison d’être [Être l'acteur de confiance qui donne à chacune et à chacun les clés d'un monde numérique responsable, ndlr] qui est de mettre à disposition un numérique responsable. Comme le dit David, le contrôle et la place de l’humain sont fondamentaux. En matière de recommandation de bouquets de chaînes de télévision par exemple, nous avons dû débiaiser nos systèmes afin que la thématique du sport ne soit pas genrée. Cela a d’ailleurs des effets très intéressants sur nos performances commerciales en accroissant nos ventes sur de nouveaux profils. Autre exemple avec la génération des contenus par les IA génératives : nous nous interdisons de les utiliser sans le dire comme nous nous interdisons de créer des images, des vidéos d’humains qui n’existent pas.

Quels sont les principaux défis à relever ?

L.O-S : Il faut se donner les moyens. Cela commence par mettre en place une gouvernance à tous les niveaux. Nous avons par exemple un Conseil d'éthique de la data et de l'IA au niveau du Groupe qui est un organe consultatif et indépendant composé de 11 personnalités externes et qui a pour mission de définir un cadre éthique en lien avec notre raison d'être. Nous avons également mis en place chez Orange France un comité d'éthique qui se réunit tous les 3 mois pour mesurer notre maturité, décider des prochaines actions. Enfin, tous les projets qui utilisent l'IA doivent passer un jalon lié à l’IA Responsable tôt dans le processus de développement afin de partir sur de bons rails.

Il s'agit ensuite de former, mais pas seulement les data experts. Nous avons pour cela développé 3 types de formations : l’une dédiée au Top Management, appelée Ethical Leaders, d’une durée de 2 h ; une autre est à destination des responsables métiers, appelée Fundamentals, organisée sur 3 h ; la troisième se déroule sur trois jours et s’adresse aux data experts.

Enfin, dès lors qu’une réglementation sera appliquée, il faudra, à l’image de ce qui s’est fait avec le RGPD [règlement général sur la protection des données, directive de l’Union européenne protégeant les données personnelles au sein de l’Union européenne, ndlr], prendre le temps et mobiliser les ressources nécessaires. 

D.G : La gouvernance des usages qui sont faits de l’intelligence artificielle est déterminante et doit être sans faille. Cela commence dès la sélection des cas d’usage, du choix des données pouvant être utilisées, des finalités poursuivies. Une phase d’incubation permet de préparer au mieux un projet avant de le lancer, afin de vérifier les résultats obtenus. À titre d’exemple, chez Malakoff Humanis, nous avons deux fois par an un comité qui se réunit pour à la fois passer en revue les résultats de ce qui a été initié, décider de ce qui sera finalement engagé mais aussi sélectionner de nouveaux cas d’usages à tester.

Comment rendre pérenne cette pratique éthique de l’IA dans une entreprise ?

L.O-S : C’est tout l’objet de Positive AI : embarquer largement l’entreprise, ses collaborateurs, ses dirigeants. Et pour y parvenir, il faut d’abord faire preuve d’une grande humilité. Ensuite, l’audit est une étape clé, car il aide à avoir une bonne vision de ce qu’il faut faire.

D.G : À la différence de l’informatique classique, les modèles utilisés peuvent dériver, générer des biais au cours du temps. Cela oblige donc à avoir une attention permanente et à conduire des efforts dans la durée car rien n’est jamais acquis. 

Quels outils et méthodes Positive AI met-elle à disposition de ses membres ?

Positive AI n’est pas dédiée aux seuls experts de l’intelligence artificielle, ni aux entreprises les plus en pointe. Nous avons vocation à réunir les entreprises les plus larges et à travailler avec leurs collaborateurs aux profils les plus variés.

Laetitia Orsini-Sharps, Directrice Grand public d’Orange, anciennement Présidente de Positive AI

D.G : Tout d’abord, Positive AI anime la communauté de ses membres, à travers des webinaires, des rencontres et des ateliers de co-construction. Ce qui est essentiel, c’est que Positive AI n’est pas dédiée aux seuls experts de l’intelligence artificielle, ni aux entreprises les plus en pointe. Nous avons vocation à réunir les entreprises les plus larges et à travailler avec leurs collaborateurs aux profils les plus variés.

Ensuite vient le référentiel qui permet à l’entreprise de se positionner sur le sujet. Il est composé de tout un ensemble de questions balayant la gouvernance de l’intelligence artificielle mais aussi chacun des sept thèmes retenus par la Commission européenne. C’est un outil dynamique car chaque question renvoie à tout un ensemble d’outils, de guides permettant à chaque fois de déterminer ce qui doit être mis en œuvre concrètement. 

Tout cela amène nécessairement des formations comme nous en parlions tout à l’heure, des dirigeants aux employés en passant par les managers. Il y a ensuite la mise en œuvre de l’obtention pour chaque entreprise du label. Les audits sont réalisés par un organisme externe indépendant. Ils portent sur la gouvernance et sur les modèles utilisés par l’intelligence artificielle. 

Face aux réglementations à venir, quels sujets devraient être débattus en priorité ?

Il serait dommage que la puissance de l’Union européenne se limite à sa capacité à réglementer l’intelligence artificielle et qu’elle se soit privée d’avoir des entreprises européennes puissantes en la matière.

David Giblas, Directeur général délégué de Malakoff Humanis, Président de Positive AI

L.O-S : Il est important me semble-t-il de ne pas oublier la valeur d’usage apportée par les recours à l’intelligence artificielle. Ensuite, qui dit réglementation, dit audit des modèles utilisés par les intelligences artificielles. Il faut donc penser à la fois le cadre et les compétences mobilisables pour accompagner son application. 

D.G : Enfin, qu’on le veuille ou non, les entreprises du monde entier se sont saisies de l’intelligence artificielle. Cela veut dire que des services seront proposés par des entreprises aussi bien américaines, que chinoises, ou européennes. Dans tous les cas, les Européens en seront utilisateurs et pour cela, leurs données seront accessibles par les entreprises opérant ces services. Il serait dommage que la puissance de l’Union européenne se limite à sa capacité à réglementer l’intelligence artificielle et qu’elle se soit privée d’avoir des entreprises européennes puissantes en la matière.

L’Institut Montaigne a mis en œuvre l'initiative Objectif IA. En quoi êtes-vous complémentaires ?

L.O-S : Objectif IA s’adresse à un très large public afin de développer cette culture de l’intelligence artificielle, qui permet de comprendre ce dont il s’agit et comment cela fonctionne, de manière accessible et concrète. Positive AI vise spécifiquement les enjeux éthiques de l’intelligence artificielle et s’adresse aux entreprises. 

D.G : C’est en avançant sur ces deux rails que l’on aidera à relever tous les défis en la matière. Plus largement, Positive AI et ses membres sont également très attachés à développer des liens avec nos associations sœurs dans les autres pays de l’Union européenne. C’est déjà le cas avec nos homologues allemands.