Armes autonomes : Des chercheurs en Intelligence artificielle publient une lettre ouverte
Un groupe mélangeant de nombreux chercheurs, scientifiques et personnalités publiques – parmi lesquels on trouve Stephen Hawking(i), Elon Musk(ii) ou encore Steve Wosniak(iii) – vient de publier une lettre ouverte contre le développement des armes dite « autonomes », c’est-à-dire ces armes qui utilisent l’intelligence artificielle et sont en mesure d’agir en dehors de tout contrôle humain.Voici la traduction de cette lettre :
Les armes autonomes sélectionnent et affrontent leurs cibles sans aucune intervention humaine. Ces armes sont, par exemple, les quadricoptères armés capables d’identifier et d’éliminer les personnes sur la base de critères prédéfinis, mais elles ne recouvrent pas les armements tels que les missiles Cruise ou les drones pilotés à distance, pour lesquels c’est au final l’homme qui prend la décision de tirer.
La technologie de l’Intelligence artificielle a atteint un niveau tel qu’elle pourrait permettre de réaliser de tels systèmes – en termes pratiques, sinon légaux – en l’espace de quelques années, et non plus de quelques décennies. Le défi est énorme, puisque les armes autonomes ont été qualifiées de troisième révolution dans le domaine de la guerre, après la poudre et la bombe atomique.[…]
Des arguments ont été avancés aussi bien en faveur que contre les armes autonomes. Par exemple, le fait de remplacer les soldats humains par des machines est positif dans le sens où il permet de réduire le nombre de victimes, mais il est négatif en cela qu’il abaisse le seuil menant à l’ouverture d’un conflit. La question cruciale pour l’humanité aujourd’hui est de savoir si elle permet le lancement d’une course globale aux armes autonomes, ou si elle stoppe cette course avant qu’elle ne commence. Si une grande puissance militaire pousse au développement des armes autonomes, la course globale à de tels armements deviendra inévitable, et la conclusion de ce parcours technologique est évidente : les armes autonomes deviendront les Kalashnikov de demain.
A la différence des armes nucléaires, ces armements ne requièrent pas de matériels particulièrement couteux ni difficiles à obtenir. Cela signifie qu’on en retrouvera partout et qu’elles seront peu chères à la production, pour n’importe quelle puissance militaire. Ce n’est donc qu’une question de temps avant de voir circuler ces armes au marché noir, puis entre les mains des terroristes, des dictateurs qui veulent garder leur peuple sous contrôle, des chefs de tribus décidés à mener une « purification ethnique », etc., etc.
Les armes autonomes sont aussi idéales pour assassiner quelqu’un, pour déstabiliser des nations, pour soumettre des populations, et pour éliminer de façon sélective un groupe ethnique en particulier. Par conséquent, nous pensons qu’une course au développement militaire des armes autonomes ne serait pas bénéfique pour l’humanité. Il y a quantité de façons d’utiliser l’IA pour rendre le champ de bataille plus sûr pour les êtres humains – surtout pour les civils – sans avoir besoin de créer de nouveaux outils pour tuer.
Tout comme les chimistes et les biologistes n’ont aucun intérêt à construire des armes chimiques ou biologiques, la majeure partie des chercheurs en Intelligence artificielle n’ont aucun intérêt à construire des armes autonomes, et ne veut pas voir salir la réputation de leur domaine de recherche, en créant une réaction négative du public qui pourrait impacter négativement les futurs bienfaits issus de l’Intelligence artificielle. De fait, les chimistes et les biologistes ont fortement soutenu les accords internationaux interdisant les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires dans l’espace et les armes aveuglantes à laser.
En conclusion, nous croyons que l’intelligence artificielle représente un formidable potentiel bénéfique pour l’humanité, et que le but ultime de ce domaine de recherches est précisément cela. Le fait de lancer une course aux armes autonomes serait une très mauvaise idée, et devrait être stoppé par l’interdiction de toute arme capable d’agir en dehors du contrôle humain.
Notes de la traduction :
i Stephen Hawking, célèbre astrophysicien britannique
ii Elon Musk : le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX
iii Steve Wosniak, co-fondateur d’Apple