Publié le 24 Janvier 2024

Ces enjeux géopolitiques de l'IA qui nous concernent

L’intelligence artificielle est à la fois un sujet technologique, mais aussi un objet d’intérêt majeur pour les États, les organisations internationales et régionales, et les entreprises. Par son développement, l’IA révèle des enjeux économiques, politiques, culturels. Il en découle des dépendances, des rapports de force, des rivalités, des risques et des opportunités face auxquels chacun cherche à défendre ses intérêts et tirer son épingle du jeu. Alice Pannier, chercheuse et responsable du programme Géopolitique des technologies de l’Institut français des relations internationales (IFRI) nous explique tout cela.

Illustration d'un fond étoilé
Illustration de la carte du monde
Miniature de la photo d'Alice Pannier

Alice Pannier,
Chercheuse et responsable du programme Géopolitique des technologies de l’Institut français des relations internationales

 

À quoi ressemble aujourd'hui la carte géopolitique de l'IA ?

Au niveau des grands acteurs étatiques, deux aspirations se dévoilent : compétitivité et puissance économique ; assurer leur sécurité.  ».

Alice Pannier, Institut français des relations internationales (IFRI)

Alice Pannier : Les acteurs sont à la fois des États ou, dans le cas de l'Union européenne, des institutions régionales, mais aussi des acteurs privés, voire des individus. Leurs dynamiques propres sont parallèles et concomitantes, sans forcément aller dans la même direction. En outre, le paysage n'est pas forcément le même selon l'échelle d'analyse à laquelle on se place.

Si on regarde au niveau des grands acteurs étatiques, comme les États-Unis ou la Chine, et des acteurs comme l'Union européenne - et au sein de l'Union européenne, ses États membres - deux aspirations se dévoilent. D'une part, accroître leur compétitivité et leur puissance économique, puisque ce sont des vecteurs de croissance, de développement économique, de modernisation. D’autre part, assurer leur sécurité, puisque ce sont des systèmes qui font partie à la fois des infrastructures critiques des États et des usages militaires ou de sécurité nationale telle la police ou la justice.

En découle la nécessité de réduire les dépendances qu'un État peut avoir envers des acteurs étrangers sur certaines technologies, dont l'intelligence artificielle fait partie. On parle en la matière de volonté portée par les États de souveraineté technologique, d'indépendance technologique, de leadership technologique.

Quel est le rôle des entreprises ?

A.P. : Ce sont les acteurs du développement des technologies, y compris à l'échelle individuelle. Ils sont très densément imbriqués les uns avec les autres. Ce sont des entreprises qui ont des activités à l'échelle globale et l’on connaît bien la très grande utilisation des solutions technologiques américaines, en Europe par exemple. D’ailleurs, le marché du numérique est à peu près mondialisé, même si certains pays mettent des limites à l'utilisation de technologies étrangères, comme la Chine entre autres.

Leur forte imbrication passe également par le recours aux solutions Open Source qui constituent de véritables écosystèmes. On voit en effet que les logiciels développés en open source, y compris ceux destinés à l’IA, reçoivent des contributions de développeurs issus de toutes les entreprises, y compris d’entreprises chinoises, comme Huawei, qui font par ailleurs l'objet de restrictions, par exemple américaines ou européennes, pour certains équipements technologiques.

Ces 2 niveaux, celui des États et celui des entreprises, fonctionnent selon des règles assez différentes, entre l'intérêt national d'une part et l'intérêt privé d'autre part, qui vont souvent dans des directions opposées. 

 

Pourquoi l’intelligence artificielle est-elle au cœur de ces rapports de force ?

La carte géopolitique de l'IA tient compte de qui possède la puissance de calcul, qui possède les données, qui fait la recherche en IA. ».

Alice Pannier, Institut français des relations internationales (IFRI)

A.P. : Quand on parle d'intelligence artificielle, il est important de bien comprendre les différentes briques qui la constituent. Il y a des algorithmes, dont on parle beaucoup dans le cadre des efforts de régulation, notamment par l’Union européenne. Il s’agit également des données, de puissance de calcul, des systèmes de cloud dans lesquels les données sont stockées et grâce auxquels vont se faire les entraînements de modèles. Enfin, c’est toute une infrastructure réseau internet qui sous-tend tout ça.

Pour établir la carte géopolitique de l'IA, l’attention est à porter sur les rapports de puissance et donc bien tenir compte de qui possède la puissance de calcul, qui possède les données, qui fait la recherche en IA.

On obtient ainsi une image complexe, faite de réalisme, de rapports de force, d’énormément d'imbrications, et en même temps une volonté de reprise en main et de contrôle par les États du cyberespace au sein de leurs frontières. Chaque État veut en effet être sûr que les règles qui s'y appliquent sont en accord avec leurs valeurs, qu’elles soient chinoises, américaines, russes, européennes, etc.

Quelle est la vision stratégique des grands États ?

A.P. : Face au double enjeu de compétitivité économique et de sécurité nationale, chacun va chercher à déterminer son équilibre. Ce dernier va jouer notamment sur les libertés civiles.

En termes d'ambitions régulatoires, l'Union européenne se distingue par une approche dite horizontale, c'est-à-dire traitant de l'IA dans son ensemble, et qui est par ailleurs une approche par les risques. L'objectif est de restreindre les usages jugés trop risqués, qui vont entrer en conflit avec des droits et des libertés individuelles déjà consacrés par la loi. Dans ce but, l’UE procède par l'interdiction de certains types d'intelligence artificielle, ou en tout cas la certification et le contrôle sur un ensemble de systèmes qui sont jugés potentiellement à risque, par exemple dans l'éducation, dans l'emploi, pour éviter des discriminations.

Aux États-Unis, l’approche est dite verticale. Cela veut dire que le choix a été fait pour l'instant de déléguer à chaque ministère ou à chaque agence fédérale, la mise en œuvre de feuilles de route afin que l’emploi de l’intelligence artificielle se fasse selon des règles qui, par exemple, protègent le consommateur ou luttent contre les discriminations. Néanmoins, l’ordre exécutif pris par le président Biden en octobre dernier met autant l’accent sur le développement de la compétitivité américaine, la capacité à attirer les talents que sur la partie régulatoire.

Côté chinois, on a aussi évidemment un effort de régulation de l'intelligence artificielle, plus spécifiquement de l'IA générative. De la même manière qu’en Europe, il y a une certaine exigence en termes de transparence des algorithmes, avec le partage d'informations sur l'entraînement des modèles, sur les sources de données… La forte différence vient des valeurs et principes qui sous-tendent le contrôle : il ne s’agit pas d’assurer la protection des droits individuels et des libertés individuelles, mais le respect des valeurs socialistes. Ainsi, les IA génératives ne doivent pas générer du contenu qui puisse mettre à mal la sécurité nationale. Or, en Chine, cette notion de sécurité nationale est comprise de manière assez extensive.

Certains États adoptent-ils des positionnements alternatifs ?

A.P. : Le Royaume-Uni et Israël sont connus comme ayant une approche plus volontariste de l'innovation, avec en contrepartie des régulations relativement assez faibles. Et il est vrai que le Royaume-Uni, en intelligence artificielle et dans le numérique plus généralement, est un des pays européens qui innove beaucoup. Cela étant, pour le moment, je ne crois pas qu’existent encore des analyses permettant de comprendre les effets de ce positionnement depuis le Brexit. En l’absence de garde-fous, des dérives peuvent apparaître. 

Comment les rapports de force se manifestent-ils entre les acteurs publics ?

Les États-Unis aspirent à gagner la compétition technologique vis-à-vis de la Chine. Côté chinois, la volonté est de développer des technologies nationales propres, des alternatives aux technologies américaines.  ».

Alice Pannier, Institut français des relations internationales (IFRI)

A.P. : Les États-Unis aspirent à gagner la compétition technologique vis-à-vis de la Chine, alors que le rapport de force avait été au départ justifié par des impératifs de sécurité nationale au sens strict. Il s’agit donc à la fois d’encourager l'innovation aux États-Unis et de freiner le développement technologique de la Chine, à travers des restrictions aux exportations et aux transferts de technologies vers la Chine, mais aussi l’interdiction faite aux acteurs américains d’investir dans certains secteurs technologiques en Chine. Cela concerne tout un ensemble de domaines, des supercalculateurs ou semi-conducteurs à l'intelligence artificielle au sens large. Les États-Unis cherchent à convaincre leurs partenaires en Europe, en Asie ou dans les pays du Sud, à ne pas adopter des technologies chinoises et à opter pour des mesures restrictives similaires aux leurs.

Côté chinois, la volonté est de développer des technologies nationales propres, des alternatives aux technologies américaines pour en dépendre de moins en moins. Par ailleurs, le rapport de force les conduit à essayer de maintenir des liens avec les autres régions du monde, y compris l'Union européenne, afin de limiter les effets des mesures américaines.

L’Union européenne se retrouve, elle, dans une position inconfortable. Elle a de très bons atouts dans l'intelligence artificielle et le secteur s’y développe à bon train, notamment en France ces dernières années. Néanmoins, l’UE a une très forte dépendance aux technologies américaines et aussi à des équipements chinois. Ainsi, la tension sino-américaine crée beaucoup d'inquiétudes en Europe.

Pour l’Union européenne, le but est de maintenir avec la Chine une bonne relation commerciale et des coopérations sur des grands enjeux comme le changement climatique et la transition écologique. Elle cherche à maintenir autant que possible des bonnes relations avec la Chine tout en réduisant avec elle, mais de façon plus discrète, les interactions et les dépendances, en matière d’intelligence artificielle. Ainsi, des équipementiers chinois sont interdits dans l'UE. Des coopérations dans la recherche en IA ou dans les télécoms sont en train d'être revues à la baisse voire d'être remises complètement en question. 

N'y a-t-il pas d’oppositions entre l'Union européenne et les États-Unis ?

Entre l'Union européenne et les États-Unis, l’enjeu le plus important est en termes de dépendance vis-à-vis des grandes plateformes américaines. ».

Alice Pannier, Institut français des relations internationales (IFRI)

A.P. : L’enjeu le plus important est en termes de dépendance vis-à-vis des grandes plateformes américaines qui sont les principaux fournisseurs de services pour les Européens dans le cloud, dans l'IA et la bureautique notamment.

Pour y faire face, il s’agit soit d’avoir recours à des alternatives, soit d’être en mesure de s’assurer que les grandes entreprises américaines se comportent d'une manière adéquate à l’égard des intérêts et du droit européens.

La souveraineté européenne s’incarne dans ce double agenda. Ainsi, la régulation de la protection des données, les nouvelles régulations sur l’IA ont vocation à s’appliquer aux grands systèmes américains déployés dans l’Union européenne. Le marché européen permet d’avoir cette portée extraterritoriale et d’exercer une influence même s’il faut souligner que le lobbying exercé par ces acteurs américains lors de la préparation du nouveau règlement sur l’IA a été d’un niveau d’intensité extrêmement élevé. 

Quelle est l'influence des entreprises privées sur l’IA ?

A.P. : Si on se place du point de vue de la France, ce qui change très concrètement, c’est la capacité de dialogue et la proximité entre l’État et ces entreprises fournisseurs de services, impliquées dans les infrastructures critiques. Ce sont les grands acteurs étrangers, avant tout américains, qui occupent désormais ces mêmes fonctions stratégiques.

Or, ces acteurs privés ont leurs propres intérêts, sont soumis au droit américain, ayant dans certains cas des effets extraterritoriaux. Étant présents sur de nombreux maillons de la chaîne de valeur, depuis les outils bureautiques en passant par le cloud ou les infrastructures réseaux, il y a donc une dépendance multifacette sur laquelle l'État n'a pas de prise. Et donc, finalement, on n'est pas vraiment en mesure d'imposer son droit et sa loi au sein du territoire, sur ces entreprises qui fournissent des services. Les États se retrouvent donc dans un rapport de dépendance quasiment inversé.

Tout l'enjeu sous-jacent au développement d'un écosystème français et européen dans l'intelligence artificielle, comme dans d'autres domaines du numérique, c’est de pouvoir avoir une plus grande confiance dans les fournisseurs de services. Jean-Noël Barrot, ministre délégué chargé du Numérique du gouvernement français, a même souvent évoqué l’importance d’une forme de proximité culturelle. Cela prend tout son sens en matière d’intelligence artificielle, car tous les systèmes qui sont et seront créés par des entreprises françaises ou européennes, vont être porteurs de notre culture et de nos valeurs, via les données sur lesquelles ils sont entraînés, voire dans leurs algorithmes. L’enjeu n’est donc pas uniquement économique et de sécurité nationale, mais aussi culturel et civilisationnel.

Quelle est la position des grands acteurs technologiques américains face à ces enjeux culturels ?

A.P. : Je suppose que la réponse d'une grande entreprise américaine serait de dire que ses systèmes d’IA générative sont entraînés sur les données ouvertes, accessibles sur Internet, qui sont finalement le reflet de ce qu'il y a sur internet et pas d'une vision particulière, politique ou culturelle. Une vision assez agnostique et techniciste.