Partager la publication "IA : la Guerre (froide) aura-t-elle lieu ?"
L’IA (Intelligence Artificielle) est une technologie duale : elle a des usages aussi bien civils que militaires. Dans ce contexte, comment éviter une nouvelle Guerre Froide, à l’heure des Super IA ?
L’avènement d’une super Intelligence Artificielle (super IA) dépassant les capacités humaines n’est plus de la science-fiction. C’est désormais une hypothèse tout à fait crédible à terme. Il n’est donc pas trop tôt pour se préoccuper des conséquences qu’elle pourrait avoir en matière géopolitique ou militaire.
C’est ce à quoi se sont attelés les auteurs de l’étude Super Intelligence Strategy, Dan Hendrycks, Eric Schmidt et
Alexandr Wang.
Ils dressent un parallèle entre la situation actuelle et l’époque de la Guerre Froide entre les Etats-Unis et l’Union soviétique. Selon eux, la super IA a un potentiel destructeur aussi important que la bombe atomique, c’est pourquoi il est impératif d’empêcher une course à l’armement de l’IA.
Afficher la transcription de la vidéo
Imaginez, vous vous réveillez un matin et votre smartphone vous annonce qu’une intelligence artificielle chinoise vient de découvrir un traitement révolutionnaire contre le cancer. La médecine est bouleversée, des millions de vies vont pouvoir être sauvées. Malheureusement, dans la même journée, vous entendez qu’une super IA d’origine inconnue vient de découvrir une faille dans le système bancaire international.
Vos économies sont en danger et là, vous ne savez plus quoi penser. L’intelligence artificielle est-elle une bonne ou une mauvaise chose ? Eh bien, figurez-vous que nous sommes peut-être à quelques mois de vivre une situation de ce type. En effet, la plupart des chercheurs s’accordent à dire qu’une super intelligence artificielle devrait voir le jour très prochainement, pour le meilleur ou pour le pire ?
Une étude américaine récente essaie de répondre à cette question. Elle a été signée par trois experts de premier plan : Dan Hendrix, directeur du Center for AI Safety, Eric Schmidt, ancien PDG de Google, et Alexander Wang, PDG de la start-up Scale AI.
Cette étude n’est pas un simple exercice académique. Elle nous invite à réfléchir à une question fondamentale : Comment les nations vont pouvoir coexister à une époque où la maîtrise de la super intelligence artificielle donnera un avantage considérable à la nation qui, justement, la maîtrisera en premier.
Nous allons voir que les experts militaires et les spécialistes en géopolitique sont en train d’envisager plusieurs pistes, parmi lesquelles le sabotage mutuel des projets de super intelligence. Et en fin de vidéo, nous nous demanderons si ce sabotage est un immense gâchis en empêchant l’avènement d’une super intelligence qui pourrait être bénéfique pour nous ou si, au contraire, ce n’est pas finalement notre seule chance de survie.
ChatGPT qui nous donne des conseils pour choisir notre prochaine série Netflix ou dessine pour nous de superbes images paraît bien inoffensif.
Mais pousser plus loin l’intelligence artificielle pourrait être bien plus dangereuse. Elle pourrait par exemple contrôler des armes automatiques, manipuler les marchés financiers, créer des virus destructeurs. Et contrairement aux armes nucléaires, par exemple, qui nécessitent des matériaux rares et des infrastructures complexes, l’intelligence artificielle pourrait tourner sur des ordinateurs accessibles presque partout.
Face à cette réalité, les experts cherchent la parade. L’étude Super Intelligence Strategy commence par envisager trois démarches qui dominent actuellement les débats pour montrer qu’elles sont en réalité insuffisantes.
La première approche est le laisser-faire. Elle consiste à dire qu’il ne faut mettre aucune entrave à la recherche en intelligence artificielle. Les modèles doivent être développés librement. Ils doivent être rendus publics, idéalement en open source. Les puces d’IA doivent être vendues librement également, y compris à des adversaires géopolitiques potentiels. Il ne faut pas que quoi que ce soit puisse se mettre en travers de la route du développement technologique. Pour les auteurs de l’étude Super Intelligence Strategy, cette approche manque clairement de prudence.
Il y a une deuxième approche qu’on pourrait appeler le moratoire volontaire. Elle consiste à dire que dès maintenant, ou lorsque certains progrès auront été accomplis, l’ensemble des nations devrait se mettre autour d’une table pour décider collectivement de mettre un terme aux recherches en matière d’IA afin d’éviter une course aux armements de l’intelligence artificielle.
Le problème, c’est qu’en l’absence de moyens de contrôle ou de vérification, cette approche semble peu réaliste. En effet, un pays pourrait toujours avoir des doutes et se dire que son interlocuteur continue les recherches de son côté en secret, et donc il en fera de même. Et finalement la course sera ainsi relancée.
Enfin, la troisième approche pourrait être appelée le monopole. Elle consiste à dire qu’il faudrait qu’un pays atteigne le premier le niveau de la superintelligence artificielle pour dominer ainsi tous ses concurrents. Par hypothèse, cela pourrait être les États-Unis.
Ils encouragent les tenants de cette approche à développer ce qu’on pourrait appeler un « projet Manhattan » de l’intelligence artificielle, par analogie au projet Manhattan qui, pendant la Deuxième Guerre mondiale, a permis aux États-Unis de développer la première bombe atomique. L’ennui, c’est que ce genre de grand projet serait facilement repérable. Ça nécessiterait des infrastructures massives, des data centers probablement gigantesques, facilement repérables par satellite. Et dans l’hypothèse où ce serait les États-Unis qui lanceraient un tel projet, il y a peu de chance que la Chine regarde passer le train sans réagir. Elle lancerait probablement un projet du même type, et donc cette course à l’intelligence artificielle destructrice serait finalement accélérée et non pas stoppée.
Alors, si aucune de ces trois approches ne fonctionne, que faire ? Les auteurs de l’étude Super Intelligence Strategy proposent une démarche reposant sur trois piliers.
Le premier pilier, c’est ce qu’ils appellent le MAIM, Mutually Assured AI Malfunction. C’est une analogie par rapport à un concept de la guerre froide, le MAD, Mutually Assured Destruction.
Ce concept consistait à dire qu’aucun pays, l’Union soviétique ou les États-Unis, n’était en mesure de lancer une attaque nucléaire contre son adversaire parce qu’il avait la certitude que, dans cette hypothèse, il serait lui-même détruit par la riposte de l’adversaire. Donc, c’était la destruction mutuelle assurée, Mutually Assured Destruction.
Eh bien, ce que proposent les auteurs de l’étude, c’est la même chose pour l’intelligence artificielle, un dysfonctionnement assuré et mutuel de la super IA. Autrement dit, en prenant l’hypothèse de la Chine et des États-Unis, il faudrait que chaque puissance soit certaine que si elle développe une superintelligence ou un projet de ce type, eh bien, son adversaire va faire la même chose, de telle sorte que son propre projet sera piraté, saboté et ne fonctionnera pas. Donc, ce sera finalement un dysfonctionnement de chacun des projets américains ou chinois et donc, finalement, aucune super intelligence ne pourra prendre l’ascendant sur l’autre.
Imaginez un instant que la Chine ou les États-Unis soient sur le point de développer une super intelligence qui leur accorderait un avantage stratégique absolu et définitif sur les autres nations. Comment est-ce que le MAIM pourrait prendre forme ? Eh bien, les auteurs de l’étude envisagent une échelle d’escalade à cinq niveaux.
Le premier niveau, c’est le sabotage caché, c’est-à-dire en fait l’espionnage. Une nation va essayer d’infiltrer le système de communication de son adversaire pour mettre à mal son projet de super intelligence. On pourrait par exemple imaginer que les États-Unis piratent les iPhones des chercheurs chinois en train de travailler sur ce projet pour obtenir des informations. En fait, ce niveau d’escalade est probablement déjà atteint à l’heure où nous nous parlons.
Le deuxième niveau, c’est le sabotage ouvert. On passe de l’écoute du renseignement à l’action. Imaginons par exemple qu’un chercheur américain corrompu introduise des biais dans les données d’entraînement des modèles utilisés par la super IA américaine. Eh bien, ça pourrait évidemment compromettre le projet. On pourrait également imaginer que des cyberattaques fassent surchauffer à certains moments les processeurs graphiques, les fameuses GPU, qui servent à l’entraînement des modèles, et donc perturbent le développement de la super IA adverse.
Le troisième niveau est celui des attaques cinétiques. On s’en prend directement au centre de données ou au centre énergétique qui les alimente, mais uniquement de manière cyber. On pourrait par exemple imaginer une attaque de type Stuxnet. Je ne sais pas si vous vous rappelez, Stuxnet, c’était ce virus mis au point à la fin des années 2000 et qui a permis aux États-Unis de pirater les centrifugeuses iraniennes chargées d’enrichir l’uranium pour le projet atomique iranien. Voilà, donc c’était vraiment une attaque purement cyber, mais qui a complètement mis à plat le projet de recherche atomique militaire de l’Iran. Eh bien, on pourrait imaginer quelque chose du même type, un virus informatique qui viendrait perturber le développement de la super intelligence artificielle adverse.
Le 4e niveau, c’est celui des attaques physiques, mais cantonnées aux infrastructures d’IA. Par exemple, on envoie un missile de précision sur un centre de données qui héberge des milliers de GPU entraînant le modèle de super intelligence artificielle de l’adversaire.
Et enfin, le 5e niveau de cette fameuse échelle MAIM, c’est celui de l’hostilité maximale. Cette fois-ci, on s’en prend de manière cyber ou physique à des infrastructures, mais pas uniquement liées à l’IA, mais à tout type d’infrastructure. Par exemple, on va s’en prendre à des usines, à des centres de distribution, au système financier. Donc, c’est vraiment le moment où on a franchi les dernières lignes rouges et on est vraiment à la veille d’un conflit majeur.
Le deuxième pilier de la démarche proposée par les auteurs de l’étude Super Intelligence Strategy est la non prolifération. Là encore, c’est une analogie par rapport à ce qui s’est passé pendant la guerre froide. Il faut savoir qu’au sommet de la guerre froide, quand la tension était maximale entre les États-Unis et l’Union soviétique, les deux superpuissances parvenaient quand même à coopérer pour éviter une prolifération incontrôlée de matières dangereuses, de technologies destructrices, de plans de machines qui, si elles tombaient entre les mains de groupes terroristes par exemple, pourraient avoir des conséquences catastrophiques.
Eh bien là, les auteurs de l’étude disent qu’il faudrait faire la même chose pour l’IA. Donc, les puissances qui sont en compétition, donc toujours par hypothèse les États-Unis et la Chine, devraient quand même être capables de coopérer pour éviter que leur technologie IA ne tombe dans de mauvaises mains. Donc, il peut s’agir des puces, par exemple, pour que les puces les plus puissantes ne soient pas utilisées par des groupes mafieux, mais c’est également les modèles, pour que les modèles les plus performants restent secrets.
Et les auteurs de l’étude invitent également à mettre en œuvre des dispositifs de sécurité dans les technologies d’intelligence artificielle civiles et qui pourraient être également utilisées à des fins militaires. On peut imaginer l’exemple d’un modèle qui permettrait de faire de la synthèse d’ADN. Donc, c’est très bien, ça pourrait par exemple permettre de produire des médicaments formidables. Mais en revanche, si un groupe terroriste s’en emparait, eh bien cette super intelligence médicale pourrait synthétiser l’ADN de la variole ou d’autres virus donc très, très dangereux. Donc il faudrait en fait qu’il y ait des garde-fous, des mécanismes de sécurité à l’intérieur même des modèles, y compris des modèles civils, pour éviter que ce genre de choses ne puisse se passer.
Le troisième pilier de la démarche proposée par les auteurs de l’étude, c’est la compétitivité. Ainsi, il ne faudrait pas croire que la lutte contre la course aux armements en matière d’intelligence artificielle signifie la fin de l’innovation. Au contraire, les auteurs prennent l’exemple des puces qui sont fabriquées à Taïwan. Aujourd’hui, il y a une dépendance forte de tous les pays occidentaux, des États-Unis en premier lieu, vis-à-vis de la petite île de Taïwan, puisque, en fait, les puces les plus puissantes sont fabriquées sur cette île et sont importées aux États-Unis.
Et donc, les auteurs pensent qu’il faudrait absolument développer la compétitivité des entreprises informatiques, des fondeurs de puces américains, pour qu’ils soient capables de fabriquer ces puces sur le sol américain au lieu de les importer de Taïwan, afin de mettre le pays à l’abri d’une attaque de Taïwan par la Chine, une reprise de contrôle de Taïwan par la Chine qui couperait en fait cette importation. Donc, même si ça coûte plus cher, il faut quand même développer la compétitivité, développer l’innovation pour, en fait, ne pas être dépendant de technologies étrangères.
Donc, voilà, la compétitivité est finalement un des piliers clés pour pouvoir éviter la course aux armements en matière d’IA. Ce qu’il faut comprendre, c’est que ces trois piliers fonctionnent vraiment ensemble.
Par exemple, sans dissuasion, la compétitivité technologique devient une course folle qui peut conduire à une surenchère en matière d’IA destructrice. Sans non prolifération, la dissuasion est vaine, parce que même si les grandes puissances se dissuadent mutuellement, eh bien un groupe terroriste ou mafieux pourrait quand même produire des catastrophes de manière totalement incontrôlée. Et sans compétitivité, eh bien la dissuasion est vaine, parce qu’on reste dépendant de technologies étrangères. Donc, les trois fonctionnent vraiment ensemble.
Voilà, nous avons exploré un terrain complexe, allant de la dissuasion à la compétitivité, en passant par la non prolifération. Tout ça pour éviter finalement qu’une super intelligence artificielle nous détruise. Mais quelle vision à long terme adopter ? Les auteurs de l’étude essaient d’avoir une approche pragmatique, mais j’aimerais avoir votre avis.
Est-ce que cette démarche MAIM, visant en fait à assurer un dysfonctionnement mutuel des superintelligences, n’est pas finalement quelque chose qui risque de nous faire passer à côté d’une super intelligence qui pourrait nous sauver en soignant des maladies incurables, en peut-être nous permettant de résoudre les défis climatiques ? Est-ce que ce dysfonctionnement mutuel de l’intelligence artificielle ne risque pas de nous faire passer à côté d’une mine d’or qui pourrait être bénéfique pour l’humanité ?
Est-ce que freiner le développement technologique n’est pas finalement perdre une chance pour nous ?
Et puis deuxièmement, est-ce qu’il est vraiment réaliste de penser qu’on pourra cadrer ce développement de l’IA ? L’intelligence artificielle, par essence, c’est une technologie duale, c’est-à-dire qui peut être utilisée à la fois à des fins civiles et à des fins militaires. Est-ce qu’il sera vraiment possible d’empêcher que des acteurs malintentionnés prennent cette technologie civile positive pour la transformer en une technologie de destruction ?
Voilà, j’aimerais vraiment beaucoup avoir votre avis sur ces sujets.
Nous arrivons au terme de cette vidéo. À travers cette vidéo, j’ai essayé de vous présenter le plus simplement possible des réflexions qui devraient s’intensifier dans les mois et dans les années qui viennent.
Si le sujet vous passionne autant que moi, je vous invite à consulter cette autre vidéo que j’avais faite sur le sujet de la super intelligence artificielle. Et puis, je vous propose de vous abonner à la chaîne et d’activer les notifications, ce qui vous permettra d’être informé en temps réel des futures vidéos que je posterai sur le sujet.
Voilà, j’espère que ça vous a plu. N’hésitez pas à partager cette vidéo, parce que je pense vraiment que c’est la réflexion collective qui nous permettra finalement de pouvoir trouver les bonnes solutions pour nous et pour les générations futures.
Les approches actuelles ne suffisent plus
Les auteurs décrivent les trois approches qui prévalent actuellement :
- le laisser-faire : il ne faut pas brider le développement de l’IA, quoi qu’il advienne ;
- le moratoire volontaire : les nations devraient décider collectivement de faire une pause dans le développement de l’IA ;
- le monopole : il faudrait qu’une grande puissance (par exemple les États-Unis) développe la super IA en premier et « plie le match ».
Pour eux, toutes ces approches sont irréalistes. C’est pourquoi ils proposent une stratégie alternative reposant sur trois piliers.
Pilier 1 : Le M.AI.M
L' »équilibre de la terreur », pendant la Guerre Froide, reposait sur le concept de M.A.D., Mutually Assured Destruction. Les deux super-puissances nucléaires, les États-Unis et l’Union soviétique, savaient chacune qu’il était vain d’attaquer l’adversaire avec des bombes atomiques : les représailles nucléaires étaient certaines, et elles ne pouvaient aboutir qu’à une chose : une destruction mutuelle assurée.
D’après les auteurs, il conviendrait de développer un concept analogue en ce qui concerne les super IA, le M.AI.M., Mutually assured AI Malfunction. En gros, il faudrait que toute nation développant une IA hostile ait la certitude que chercher à l’utiliser contre un adversaire n’aboutirait qu’à une action réciproque du même type, conduisant les deux super IA à dysfonctionner.

Pilier 2 : la non-prolifération
Même au plus fort de la Guerre Froide, les puissances nucléaires parvenaient à coopérer pour éviter que des armements ne tombent entre les mains de groupes mafieux ou terroristes incontrôlables.
Il conviendrait de faire de même aujourd’hui, pour éviter que des groupuscules non-étatiques s’emparent de puces sur-puissantes ou de modèles d’IA évolués. Pour cela, des mesures clés sont nécessaires, comme la mise en place de dispositifs de traçabilité ou l’insertion de systèmes de sécurité au cœur même des modèles.
Pilier 3 : la compétitivité
Vouloir contenir la course aux armements en matière d’intelligence artificielle ne signifie pas cesser d’innover. Au contraire, une nation comme les Etats-Unis devrait continuer à le faire, pour éviter par exemple de dépendre de fournisseurs de puces taïwanais, faisant peser sur les USA l’épée de Damoclès d’une reprise en main de Taïwan par la Chine.
Finalement, les auteurs de l’étude se montrent relativement optimistes. Si les grandes puissances mettent en œuvre ces trois piliers de manière cohérente, un nouvel équilibre devrait s’instaurer, permettant de conjuguer paix et progrès technologique.
En savoir plus sur Jérôme Delacroix
Subscribe to get the latest posts sent to your email.