Génie de Conception

Défense Nouvelles
Course aux armements et intelligence artificielle

août 31, 2018
par Pierre Deschamps



« Plus de 2 400 chercheurs en IA (Intelligence Artificielle) ont récemment signé une promesse de ne pas fabriquer d’armes dites autonomes, des systèmes qui décideraient eux-mêmes de qui tuer », rappelle un article paru tout récemment dans la MIT Technology Review. Cette démarche fait suite à la décision de Google de ne pas renouveler un contrat pour fournir au Pentagone une analyse des images de drones à la suite de la pression de nombreux employés opposés à son travail sur un projet connu sous le nom de Maven.

 

Pour Paul Scharre toutefois, qui est l’auteur d’un nouveau livre intitulé « Army of None: Autonomous Weapons and the Future of War » (publié chez W. W. Norton & Company), les chercheurs en IA doivent faire plus que se retirer s’ils veulent changer le cours des choses. 

Advertisement

En fait, celui-ci soutient que les experts en IA devraient dialoguer avec les décideurs politiques et les professionnels militaires pour expliquer les préoccupations des chercheurs sur la meilleure façon de mettre un terme à une course aux armements potentiellement dangereuse.

Dans une interview accordée à la MIT Technology Review, Paul Scharre, qui est directeur du Technology and National Security Program au Center for a New American Security, s’est fait demandé à quel point l’armée américaine est-elle désireuse de développer des armes d’IA. Ce à quoi il a répondu que : « Les dirigeants de la défense des États-Unis ont déclaré à plusieurs reprises que leur intention était de garder un « humain dans le coup » et responsable des décisions relatives à la force meurtrière. Maintenant, la mise en garde est qu’ils ont également reconnu que si d’autres pays construisent des armes autonomes, alors ils peuvent être forcés de suivre. Et c’est le risque réel : si un pays franchit cette ligne, d’autres peuvent penser qu’ils doivent réagir en nature simplement pour rester compétitifs ». Ce qui n’est pas très rassurant dans un contexte géopolitique tiraillé par des différends de tout ordre avec la Corée du Nord, l’Iran et la Chine. 

Quand il s’est agi de savoir pourquoi les technologues doivent être impliqués, Paul Scharre a expliqué que les chercheurs en IA doivent faire partie de ces conversations, car leur expertise technique est essentielle à la définition des choix politiques. Nous devons tenir compte des préjugés, de la transparence, de la sécurité et d’autres préoccupations de l’IA. La technologie d’IA possède ces deux caractéristiques: elle est puissante, mais comporte également de nombreuses vulnérabilités, tout comme les ordinateurs et les cyber-risques. 

Malheureusement, les gouvernements semblent avoir compris la première partie de ce message (l’IA est puissante) mais pas la seconde (elle comporte des risques). Les chercheurs en IA peuvent aider les gouvernements et les militaires à mieux comprendre pourquoi ils sont si préoccupés par les conséquences de la mise en œuvre de cette technologie :»

Interrogé sur le fait que les États-Unis seraient déjà dans une course aux armements d’IA avec la Chine, Scharre a répondu que « la Chine a déclaré publiquement son intention de devenir le leader mondial de l’intelligence artificielle d’ici 2030 et augmente ses recherches et recrute les meilleurs talents du monde entier. La Chine a déjà commencé à jeter les bases d’un état de surveillance technique doté de l’IA ».

En conclusion, il appert que « si les tactiques des chercheurs d’IA se limitent à ralentir l’adoption des outils d’IA dans des sociétés ouvertes et démocratiques qui valorisent les comportements éthiques, leur travail pourrait paradoxalement contribuer à ouvrir la voie à l’utilisation de telles technologies par des régimes politiques qui se soucient très peu d’éthique et de la primauté du droit
https://www.technologyreview.com

 


Print this page

Advertisement

Stories continue below