EU Industry Days : L’Europe & un futur fondé sur l’Intelligence Artificielle

Le 22 février, Orange organisait un atelier dédié à l’Intelligence Artificielle (IA) dans le cadre des « EU Industry Days » de la Commission européenne. Chaque année, cet évènement réunit les représentants de l’industrie européenne et des institutions européennes. Il permet aux participants d’échanger sur la stratégie de la politique industrielle européenne et des mesures que l’Union doit prendre pour améliorer sa compétitivité.

Cet atelier visait à appréhender le développement de l’IA et discuter des façons de parvenir à un juste équilibre entre les opportunités pour les entreprises et les questions d’éthiques et sociétales.

Entre espoirs et peurs, il est nécessaire de démystifier l’Intelligence Artificielle

Nicolas Demassieux (Orange Senior VP Research & Labs) et Andrea Renda (CEPS Research Fellow) ont échangé sur le concept d’IA, ce qu’elle est à même de réaliser aujourd’hui et sa possible évolution future.

Ils ont notamment échangé sur les défis liés au développement du « machine learning » où quand des machines deviennent capables d’apprendre par elles-mêmes. Cette évolution crée des opportunités mais suscite également de nombreuses questions ou craintes. Un consensus s’est dégagé pour souligner que le fonctionnement de l’IA est compris mais moins il est moins aisé de comprendre ou prédire l’ensemble des résultats des différentes applications algorithmiques. Ils ont aussi indiqué qu’il ne faut pas assimiler l’IA au cerveau humain ; l’AI fonctionne et « pense » différemment. Enfin, au stade actuel de développement, les solutions IA, bien que très appropriées et performantes pour des tâches spécifiques, sont encore loin d’égaler la grande diversité des capacités cognitives du cerveau humain. L’IA que nous connaissons aujourd’hui est une ‘IA faible’, par opposition à une ‘IA forte’, et les intervenants ont reconnu que nous sommes encore loin de ce que l’homme peut accomplir.

Interrogés par la modératrice Jennifer Baker, les intervenants se sont prononcés avec quelques nuances sur les questions de régulation ou de principe de précaution appliqué à l’IA : entre un appel à démarrer dès maintenant les travaux en matière de régulation pour être dans les temps, et définir une gouvernance de l’IA, à un appel au pragmatisme pour s’assurer que toute initiative vise à résoudre des problèmes qui se manifestent concrètement. La problématique de l’interconnexion des robots a été mentionnée comme un risque à anticiper. Les participants ont néanmoins montré un certain consensus sur la nécessité d’impliquer les citoyens dès le début, et de travailler sur les biais de l’IA, pour garantir un développement responsable de l’IA.

L’heure tourne : comment faire de l’IA une opportunité pour l’Industrie européenne

Modéré par Lucilla Sioli (Director Digital Industry à la DG Conect), ce panel réunissait Bénédicte Javelot (Orange Chief Strategy Officer), Ondrek Socuvka (Google EU Senior Public Policy Manager), Devid Sadek (Thales VP Research, Technology and Innovation) et Yann Lechelle (SNIPS COO).

Lucilla Sioli a ouvert le débat en indiquant que la Commission européenne présentera sa stratégie sur l’IA le 25 Avril. Celle-ci ne comprendra pas de proposition législative mais définira les bases de toute future action européenne en la matière.

Ce panel s’est concentré sur les mesures que l’Europe doit éventuellement prendre pour être à la pointe du développement de l’IA. La plupart des panelistes ont souligné que l’Union doit accélérer ses efforts dans le domaine de l’IA pour ne pas être à la traine, face à une concurrence internationale toujours plus effrénée. Ils étaient également d’accord sur le fait que l’IA constitue un changement substantiel qui va transformer en profondeur les entreprises ainsi que leurs produits et services. Il est ressorti du débat qu’il faut construire en Europe un écosystème qui accroitra la capacité de l’industrie européenne à innover et que l’UE doit non seulement investir dans le développement technologique mais aussi dans le capital humain pour développer les compétences adéquates. Les participants se sont accordés sur le fait que les européens, consommateurs et citoyens, doivent être associés au développement de l’IA dès le début pour comprendre ce que c’est, ce qu’elle peut accomplir ou non.

Enfin, les intervenants ont chacun proposé des recommandations, telles que:

  • Accroître la confiance dans l’IA, notamment par la mise en place d’une plateforme de confiance et des instruments appropriés pour contrôler et réaliser des audits des biais de l’IA, ou en développant un modèle d’IA certifiée ou de confiance par design ;
  • Améliorer l’information et l’éducation pour faciliter l’acceptation sociale de l’IA et son adoption ;
  • Renforcer l’écosystème local et les start-up, notamment par une initiative européenne sur les petites et moyennes entreprises ;
  • Inviter les entreprises et les ingénieurs à s’appuyer sur des règles de protection des données et de sécurité par design; le RGPD étant perçu par plusieurs comme un possible avantage compétitif ;
  • Garantir les droits de propriété intellectuelle de l’IA ;
  • S’assurer que l’UE ne devienne pas seulement un consommateur d’IA mais également un producteur, voire un leader dans certains secteurs.

Les questions éthiques et sociétales soulevées par l’IA

Modéré par Eva Kaili (Member of the European Parliament), ce panel réunissait Nozha Boujemaa (INRIA Director of Research), Liam Benham (IBM Europe Vice President, Government and Regulatory Affairs), et Laurent Zibell (IndustriAll European Trade Union, Policy Adviser, Industrial Policy). Les intervenants ont débattu des questions éthiques et sociétales soulevées par le développement de l’IA dans notre société.

Les panélistes ont rappelé que les développeurs d’IA ne peuvent décider seuls de ce qui est éthique ou définir ce qui est socialement acceptable. Les intervenants se sont accordés sur le fait qu’il est indispensable dès l’origine de développer l’IA sur la compréhension, la transparence et la confiance pour aboutir à une IA responsable, facilitant son acceptation par le public.

Ils ont fait chacun plusieurs suggestions afin de mettre le concept d’éthique en pratique, parmi lesquelles :

  • Ne pas nécessairement adopter de nouvelles lois mais s’assurer que les textes existants sont effectivement appliqués, sous le contrôle d’algorithmes développés à cet effet ;
  • Développer une transparence et une responsabilité de l’IA et des algorithmes par design, afin de garantir l’impartialité et l’équité de l’IA ;
  • Réduire les éventuelles asymétries d’informations entre les fournisseurs de services d’IA et les utilisateurs finaux ;
  • Garantir la transparence sur la propriété des données, sur les modalités de prise de décision des algorithmiques, sur les sources de données utilisées et sur la façon dont l’IA a été formée; améliorer la gouvernance des données ;
  • Travailler sur la robustesse et la précision des données, Big Data, et des techniques IA ;
  • Examiner la problématique de l’accès aux données dans des conditions raisonnables ;
  • Garantir que l’homme garde le contrôle sur l’IA; et dans la mesure où l’IA est évolutive, la nécessité de développer une modalité d’arrêt/d’interrupteur a également été mentionnée.

Enfin, les panélistes ont également discuté de l’impact de l’IA sur le marché du travail. Les tâches vont évoluer et certaines fonctions ou postes de travail vont disparaitre tandis que d’autres seront créés. Ils ont convenu que l’UE, les entreprises, les autorités publiques doivent anticiper et former les citoyens européens afin qu’ils acquièrent les compétences nécessaires pour avoir leur place dans un futur façonné par l’IA.