Catégories
intelligence artificielle Le monde YouTube

IA : la Guerre (froide) aura-t-elle lieu ?

L’IA (Intelligence Artificielle) est une technologie duale : elle a des usages aussi bien civils que militaires. Dans ce contexte, comment éviter une nouvelle Guerre Froide, à l’heure des Super IA ?

L’avènement d’une super Intelligence Artificielle (super IA) dépassant les capacités humaines n’est plus de la science-fiction. C’est désormais une hypothèse tout à fait crédible à terme. Il n’est donc pas trop tôt pour se préoccuper des conséquences qu’elle pourrait avoir en matière géopolitique ou militaire.

C’est ce à quoi se sont attelés les auteurs de l’étude Super Intelligence Strategy, Dan Hendrycks, Eric Schmidt et
Alexandr Wang.

Ils dressent un parallèle entre la situation actuelle et l’époque de la Guerre Froide entre les Etats-Unis et l’Union soviétique. Selon eux, la super IA a un potentiel destructeur aussi important que la bombe atomique, c’est pourquoi il est impératif d’empêcher une course à l’armement de l’IA.

Super IA : la nouvelle Guerre Froide

Les approches actuelles ne suffisent plus

Les auteurs décrivent les trois approches qui prévalent actuellement :

  • le laisser-faire : il ne faut pas brider le développement de l’IA, quoi qu’il advienne ;
  • le moratoire volontaire : les nations devraient décider collectivement de faire une pause dans le développement de l’IA ;
  • le monopole : il faudrait qu’une grande puissance (par exemple les Etats-Unis) développe la super IA en premier et “plie le match”.

Pour eux, toutes ces approches sont irréalistes. C’est pourquoi ils proposent une stratégie alternative reposant sur trois piliers.

Pilier 1 : Le M.AI.M

L'”équilibre de la terreur”, pendant la Guerre Froide, reposait sur le concept de M.A.D., Mutually Assured Destruction. Les deux super-puissances nucléaires, les Etats-Unis et l’Union soviétique, savaient chacune qu’il était vain d’attaquer l’adversaire avec des bombes atomiques : les représailles nucléaires étaient certaines, et elles ne pouvaient aboutir qu’à une chose : une destruction mutuelle assurée.

D’après les auteurs, il conviendrait de développer un concept analogue en ce qui concerne les super IA, le M.AI.M., Mutually assured AI Malfunction. En gros, il faudrait que toute nation développant une IA hostile ait la certitude que chercher à l’utiliser contre un adversaire n’aboutirait qu’à une action réciproque du même type, conduisant les deux super IA à dysfonctionner.

Pilier 2 : la non-prolifération

Même au plus fort de la Guerre Froide, les puissances nucléaires parvenaient à coopérer pour éviter que des armements ne tombent entre les mains de groupes mafieux ou terroristes incontrôlables.

Il conviendrait de faire de même aujourd’hui, pour éviter que des groupuscules non-étatiques s’emparent de puces sur-puissantes ou de modèles d’IA évolués. Pour cela, des mesures clés sont nécessaires, comme la mise en place de dispositifs de traçabilité ou l’insertion de systèmes de sécurité au cœur même des modèles.

Pilier 3 : la compétitivité

Vouloir contenir la course aux armements en matière d’IA ne signifie pas cesser d’innover. Au contraire, une nation comme les Etats-Unis devrait continuer à le faire, pour éviter par exemple de dépendre de fournisseurs de puces taïwanais, faisant peser sur les USA l’épée de Damoclès d’une reprise en main de Taïwan par la Chine.

Finalement, les auteurs de l’étude se montrent relativement optimistes. Si les grandes puissances mettent en œuvre ces trois piliers de manière cohérente, un nouvel équilibre devrait s’instaurer, permettant de conjuguer paix et progrès technologique.


En savoir plus sur Jérôme Delacroix

Subscribe to get the latest posts sent to your email.

Laisser un commentaire