Cet article fait partie des archives en ligne du HuffPost Québec, qui a fermé ses portes en 2021.

Armes autonomes, de l'angélisme au réalisme

Tous s'accordent pour dénoncer l'avènement des robots tueurs dont l'autonomie est rendue aujourd'hui possible par les récents progrès de l'intelligence artificielle.
This post was published on the now-closed HuffPost Contributor platform. Contributors control their own work and posted freely to our site. If you need to flag this entry as abusive, send us an email.

Le Future of Life Institute (FLI) a publié une lettre ouverte en date du 28 juillet 2015 dénonçant les dangers que représentent les armes autonomes et demandant leur interdiction immédiate à l'échelle mondiale.

À l'origine de cette pétition, on retrouve l'astrophysicien britannique Stephen Hawking, le directeur de Tesla Motors et Space X, Elon Musk, le cofondateur d'Apple, Steve Wozniak et le linguiste Noam Chomsky. Tous s'accordent pour dénoncer l'avènement des robots tueurs dont l'autonomie est rendue aujourd'hui possible par les récents progrès de l'intelligence artificielle.

La pétition, qui a recueilli à ce jour plus de 10 000 signatures, évoque à juste titre la troisième révolution de l'armement comme celle de l'autonomie d'engagement et de traitement de la cible, après l'invention de la bombe atomique et de la poudre à canon. Elle dénonce ensuite succinctement les risques de détournements des armes autonomes par des groupes terroristes, des troupes irrégulières ou des dictatures. La lettre ouverte du FLI a le mérite de mettre en lumière une évolution importante des systèmes d'armements. Pourtant, elle fait également preuve d'une certaine dose de naïveté dans l'analyse.

Première naïveté

Constatons tout d'abord que l'armement autonome existe depuis des décennies, qu'il est utilisé, et que son interdiction ne fait pas consensus actuellement. Les mines antipersonnel, antivéhicules, antichars, les mines flottantes fluviales ou maritimes, sont régulièrement utilisées aujourd'hui dans de nombreux conflits. Le programme interne d'une mine est des plus rudimentaires et peut se résumer à un simple «si» (donc à une IA embarquée minimale): «si une pression suffisante est exercée sur moi, j'explose».

Ce programme s'exécute sans aucune intervention humaine autre que celle de la cible. Si le traité d'Ottawa d'interdiction des mines antipersonnel est entré en vigueur le 1er mars 1999, il est loin de faire l'unanimité puisque de nombreux pays ont jusqu'à présent refusé de le signer, en particulier les pays producteurs et utilisateurs de ce type d'armement. On notera de plus que l'emploi de la mine ou du piège antipersonnel autonome constitue souvent un choix tactique pour les belligérants. Ainsi, en Syrie et en Irak, les combattants de l'organisation État islamique piègent systématiquement les zones qu'ils abandonnent à l'ennemi afin d'en ralentir la progression. La dépollution d'une zone est techniquement beaucoup plus complexe, coûteuse et dangereuse pour l'adversaire que la phase d'installation des mines. Le bénéfice opérationnel est donc réel pour celui qui piège. La mine antipersonnel ou anti-véhicule constitue l'arme autonome la moins coûteuse, la moins dotée d'intelligence artificielle, et la plus utilisée aujourd'hui.

Deuxième naïveté

Les progrès de l'intelligence artificielle (IA) trouvent aujourd'hui des applications dans tous les domaines de la robotique civile. Le gain en autonomie des machines concerne tous les secteurs de développement: robots industriels, machines agricoles, drones d'observation, aviation, automobile.

Les grands constructeurs automobiles travaillent à la voiture semi-autonome, puis autonome. Comment peut-on imaginer un seul instant que les industries de l'armement restent en dehors de ces évolutions? Le gain en autonomie induit naturellement un gain en personnel, un gain économique et, d'une façon générale, un gain opérationnel. Il suffit pour s'en convaincre d'observer l'opération d'implantation des robots de surveillance sentinelles SGRA1 sur la frontière séparant les deux Corées. Ces robots sont pour l'instant supervisés par des militaires sud-coréens, mais ils possèdent des fonctionnalités (une IA embarquée) qui leur permettent d'être utilisés de manière autonome. Pour l'armée sud-coréenne, l'économie induite par le déploiement des SGRA1 est déjà très importante avec un système supervisé, et rien ne dit que le passage à un système totalement autonome apporterait de nouveaux avantages.

Dans les faits, on peut imaginer que l'évolution vers plus d'autonomie sera progressive, avec des ajustements en fonction des incidents et des retours d'expériences. La transition vers la quasi-autonomie ne peut s'effectuer que par paliers successifs, car le risque de mauvaise décision du système dans l'engagement du feu est bien présent et sa maîtrise reste corrélée à une montée en puissance de l'IA, qui n'est pas suffisante aujourd'hui.

Troisième naïveté

Cette naïveté consiste à construire une séparation idéologique entre les systèmes d'armements «pré-autonomes» qui restent sous la supervision humaine et les futurs systèmes d'armes quasi-autonomes qui opéreraient de manière indépendante après avoir été activés. Dans l'esprit des rédacteurs de la lettre ouverte du FLI, les premiers systèmes seraient éthiquement acceptables alors que les seconds viendraient transgresser une hypothétique morale de guerre. Tout se passe comme si les signataires du FLI souhaitaient intégrer les trois lois d'Asimov à la convention de Genève et interdire l'IA dans l'armement, tout en acceptant par ailleurs les systèmes d'armes supervisés...

Cette partition construite sur la seule notion d'autonomie semble insuffisante quand il faudrait faire intervenir d'autres paramètres comme la précision, l'efficacité, l'adaptabilité de l'arme à la cible.

Doit-on ainsi préférer par principe un obus de mortier tiré «au jugé» avec une grande imprécision par un personnel à une charge plus faible guidée et adaptée à la cible?

Dans un combat urbain toujours très coûteux en vies, doit-on privilégier une confrontation humaine réalisée parfois à quelques dizaines de mètres de l'adversaire à un traitement robotisé de l'action réduisant le prix du sang pour le détenteur des robots?

Dans ce cadre, un certain degré d'adaptabilité de la machine à son environnement apporte un avantage opérationnel important. Plus que l'autonomie, ce sont ses capacités d'apprentissage, d'autocorrection et d'adaptation au contexte et à son évolution en temps réel qui interviennent et qui créent l'avantage.

Quatrième naïveté

Le risque de détournement de l'arme autonome évoqué dans la pétition existe au même titre que celui du détournement d'un système d'arme supervisé (par conquête militaire, achat, vol ou hacking). Les constructeurs de drones d'observation et de drones armés sont confrontés en permanence au risque de hacking du système de contrôle de la machine et développent des boucliers algorithmiques et physiques permettant de réduire ce risque. Un groupe terroriste prenant le contrôle d'un drone armé constitue un danger immédiat tout aussi élevé qu'une prise de contrôle par le groupe d'un système autonome. Tout dépend en fait de l'armement embarqué dans la machine. La seconde situation impliquerait certainement un effort supplémentaire du côté des terroristes pour modifier et détourner le programme qui gère l'autonomie du robot afin de l'adapter à sa nouvelle mission... Là encore, il faut raisonner en terme d'avantage tactique pour le combattant.

Enfin, on peut imaginer que le niveau d'IA équipant un système d'armes autonomes serait suffisant pour d'une part «avoir conscience» du détournement, du changement de propriétaire et de mission, et pour s'opposer (grâce à son autonomie) à cette nouvelle situation. Cet argument, qui ne figure jamais dans les analyses du FLI, est pourtant fortement lié au niveau d'intelligence artificielle du robot armé.

Dans le même esprit, on peut toujours imaginer une décision algorithmique unilatérale du système consistant à modifier sa mission initiale en construisant de nouvelles cibles, ou choisissant de se retourner contre le combattant qui l'emploie. Cette hypothèse, omniprésente chez les signataires de la pétition FLI, doit être confrontée à celle de l'auto-régulation par des contraintes fonctionnelles qui pourraient être codées «en dur» dans la machine et qui la forcerait à revoir son analyse tout en préservant son autonomie.

Hasard du calendrier, la lettre ouverte du FLI a été publiée la même semaine que l'annonce officielle des autorités russes indiquant le premier engagement d'une unité de combat totalement robotisée. L'unité de robots combattants Platform-M a été pleinement intégrée à un dispositif opérationnel déployé à l'occasion d'une campagne d'exercices militaires qui ont eu lieu mi-juin 2015 dans la région de Kaliningrad.

Platform-M est une plate-forme robotisée de combat, supervisée par l'homme, dédiée au renseignement, à la détection et à la neutralisation de cibles fixes et mobiles. Très polyvalente, elle peut être utilisée autant en soutien, en appui feu et en défense d'une base militaire, que dans une mission plus offensive de prise de contrôle d'une zone urbaine tenue par l'ennemi. Ces robots sont apparus publiquement le 9 mai 2015 à Kaliningrad lors des défilés de la grande parade militaire célébrant la victoire russe de 1945.

Le succès opérationnel de l'unité Platform-M a été unanimement salué par les dirigeants russes, qui ont appelé au développement de ce type de robots combattants dotés d'intelligence artificielle et... d'autonomie.

Côté américain, il est inutile d'insister sur l'ampleur des programmes de recherche de robots combattants supervisés et semi-autonomes. L'agence de recherche de la Défense US DARPA multiplie les initiatives dans le domaine et a noué de solides partenariats avec des sociétés filiales de Google comme Boston Dynamics. Cette dernière est pionnière dans la création de robots humanoïdes capables de se déplacer en terrains encombrés et en environnements dégradés...

Pour conclure avec un brin de cynisme: Elon Musk, à l'origine de la pétition, regrette peut-être secrètement de ne pas faire partie de l'attelage DARPA-Google-Boston Dynamics et le fait savoir sur le FLI?

VOIR AUSSI SUR LE HUFFPOST

Les drones

Close
Cet article fait partie des archives en ligne du HuffPost Canada, qui ont fermé en 2021. Si vous avez des questions ou des préoccupations, veuillez consulter notre FAQ ou contacter support@huffpost.com.