Un homme consulte son mobile via une commande vocale

Publié le 04 Février 2020

L’IA peut-elle être digne de confiance ?

L’intelligence artificielle est un ensemble de technologies tentant de reproduire, par des machines, les capacités cognitives de l’homme : percevoir son environnement, comprendre le langage naturel, apprendre ou raisonner. L’IA permet aussi des tâches plus spécifiques comme dialoguer virtuellement avec l'être humain ou piloter une voiture. Mais comment fonctionne l’IA, quels sont ses enjeux, notamment éthiques ? Le public lui accorde-t-il sa confiance ?

 

Comment ça marche ?

Comme les humains, les machines intégrant de l’IA passent par une phase d’apprentissage pour devenir intelligentes. Cet apprentissage automatique (machine learning) peut être supervisé : la machine apprend à partir d’exemples ou de situations vécues, afin de mieux prédire l’avenir et de mieux décider. Il peut aussi être profond (deep learning) lorsqu’il utilise une structure de réseaux de neurones artificiels.

 

Les enjeux éthiques de l’IA

Les réseaux de neurones artificiels de l’IA, alimentés par des serveurs fonctionnant à partir de gigantesques bases de données, soulèvent des questions d’ordre éthique. En France la CNIL (Commission Nationale Informatique et Libertés) s’est exprimée sans tabou : « Ces questions renvoient à des choix de société et concernent tous les citoyens ».

Trois craintes majeures sont communément partagées dans le monde concernant d’éventuelles dérives de l’IA : le risque d’empiétement sur la vie privée provoqué par une collecte disproportionnée de données personnelles (surveillance de masse), le risque d’une extrême normativité (des moteurs de recommandations enfermant l’individu dans une sorte de pensée unique …) et le risque d’un remplacement des travailleurs humains par des IA.

Pour la CNIL : « les voix les plus compétentes s’élèvent pour battre en brèche de telles prévisions, assimilées au mieux à des fantasmes, voire à des mensonges ».

A ces trois craintes majeures s’ajoutent celles de fake news qui seraient produites par des IA et de cyberattaques ou encore de robots-soldats utilisant des IA.

Pour réguler ces risques de dérive, un travail réglementaire important sur l’IA est en cours au niveau européen. Orange y contribue avec d’autres acteurs de l’écosystème. Leur mission : coordonner l’approche de tous les États membres sur les implications éthiques de l’IA :
 

 

Mais l’IA n’est-elle pas déjà digne de confiance ?

L’IA, et nous n’en sommes pas toujours conscients, nous rend déjà d’incalculables services. Elle permet de générer et trier de la documentation et donc de partager la connaissance. Elle contribue efficacement au matching entre des personnes ou des compétences. Elle prévoit certains événements et joue un rôle d’alerte. Elle élabore des recommandations et bien sûr, elle nous aide à la décision dans des situations complexes. La liste de ses applications ne cesse de s’étendre : médecine, industrie, robotique, assistants vocaux, chatbots, éducation, loisirs, gaming, véhicules autonomes, etc.

 

Orange s’intéresse depuis longtemps à l’IA et peut aujourd’hui s’appuyer sur plus de 130 spécialistes internationalement reconnus. Plusieurs projets ont déjà été développés dans plusieurs champs, que cela soit du domaine des réseaux, de la relation client avec les robots conversationnels ou celui de la santé par exemple.

Non seulement l’IA se veut responsable et utile, mais aussi de nombreux acteurs s’attachent à ce qu’elle favorise l'égalité numériqueConcrètement, des start-up s’appuient sur l’IA pour innover au service des populations. Voici des réalisations de start-up internationales accélérées par Orange Fab :

 

 

Alors ? L’IA est-elle digne de confiance ?

Selon le baromètre "Notoriété et image de l'Intelligence Artificielle" / Ifop (novembre 2019) : 71% des Français ont une bonne image de l’IA et plus de la moitié (58%) ont confiance en elle. Mais Thierry Taboy, le coordinateur de l’Observatoire Impact AI sur la santé et le bien-être au travail, détecte aussi des questionnements plus diffus. Il révèle un « énorme besoin d’acculturation sur les différentes formes d’IA, sur leurs applications concrètes, etc. ».

Alors, oui l’IA peut être digne de confiance si elle est bien encadrée, comme elle nous le prouve déjà au quotidien. Et pour qu’elle continue à servir l’humain et son bien-être, nous avons besoin d’en apprendre toujours plus sur elle, comprendre ses atouts et ce qu’elle peut nous apporter.

 

 

Le saviez-vous ?
IA et OPAL ("Open Algorithms") : un vaste projet d’innovation à but non lucratif

L’objectif d’OPAL est de mettre en place une gouvernance et un ensemble d’algorithmes conformes à des normes éthiques. OPAL est développé par un groupe de partenaires autour du MIT Media Lab, d’Imperial College (Londres), d'Orange, du Forum Économique Mondial et de Data-Pop Alliance.

OPAL vise à utiliser le potentiel des données du secteur privé pour contribuer au bien public. Les entreprises privées désireuses de contribuer à l’IA pour le bien commun (AI4Good), peuvent télécharger ces algorithmes et les utiliser au sein de leur société (les données ne sortent pas), pour compiler et analyser, de manière sécurisée, tout ou partie de leur gisement de données.

Les résultats de ces analyses sont alors mis à disposition des pouvoirs publics pour des usages strictement dédiés au bien-être des populations. Ils peuvent par exemple servir à éclairer des décisions dans le cadre de programmes de lutte contre la pauvreté, les inégalités, les maladies, la criminalité, la congestion urbaine ou encore l’aménagement des territoires.

Le projet a démarré en 2017 avec 2 projets pilotes, dont un en partenariat avec le gouvernement sénégalais et l’opérateur Orange-Sonatel.

En savoir plus sur l'OPAL