Cet article fait partie des archives en ligne du HuffPost Québec, qui a fermé ses portes en 2021.

Allons-nous perdre le contrôle de nos robots?

L'intelligence artificielle (IA) ou les «machines pensantes» sont bien plus inquiétantes pour les scientifiques et technologues sérieux que ne le laisse penser le faible nombre de ceux qui s'expriment publiquement.
This post was published on the now-closed HuffPost Contributor platform. Contributors control their own work and posted freely to our site. If you need to flag this entry as abusive, send us an email.

Lorsque le formidable article «Pourquoi le futur n'a pas besoin de nous» de Bill Joy, directeur scientifique de Sun Microsystems, fit la une de Wired Magazine en avril 2000, il déchaîna les passions dans les cercles du secteur high-tech. Sa thèse était que «les technologies les plus puissantes du 21e siècle - la robotique, le génie génétique et les nanotechnologies - menacent d'extinction l'espèce humaine».

Bill Joy parlait alors de technologies capables de s'autoreproduire, dont nous perdrions le contrôle. Alors qu'elles relevaient jusqu'alors de la science-fiction, leur avènement ne serait plus qu'une question de décennies, voire d'années. Des dizaines de milliers de scientifiques, d'ingénieurs, de mathématiciens, et d'informaticiens produisent à tour de bras des corpus théoriques et des applications spécialisées, sans faire grand cas de leurs impacts globaux.

Leur financement est assuré par divers budgets militaires étatiques, en grande partie externalisés au profit de grands groupes industriels, mais aussi, de plus en plus, par les efforts que consacrent certaines entreprises mondialisées. La croissance de la production de connaissance a évolué de manière exponentielle avec l'accélération des capacités des ordinateurs et leur évolution vers plus d'autonomie.

70% du volume des échanges boursiers des Etats-Unis sont désormais le fait d'ordinateurs et de leurs algorithmes -ce qui n'est encore qu'un aperçu du futur qu'avait décrit Bill Joy.

Chez les futurologues les plus éclairés, les préoccupations portent sur les conséquences souhaitées, mais aussi sur les répercussions non désirées. Les armes autonomes, par exemple, peuvent être conçues dans un certain but par les armées, mais leur usage peut déboucher sur des situations non souhaitées et plus redoutables, où ces armes décideraient d'elles-mêmes qui et quand elles frapperaient.

Le mois dernier, l'astrophysicien Stephen Hawking, le cofondateur d'Apple Steve Wozniak et Elon Musk, dirigeant de Tesla Motors, ont signé avec de nombreux autres experts une lettre ouverte appelant à une interdiction des armes autonomes. Ce texte avance que «Si jamais une puissance militaire venait à prendre de l'avance dans ce domaine, une course à l'armement entre toutes les nations serait inévitable», ajoutant que «à la différence des armes nucléaires, leur fabrication ne demande pas de matières premières coûteuses ou difficiles d'accès, elles se généraliseront donc très vite et leur production en grandes séries sera peu coûteuse pour toutes les puissances militaires d'importance».

L'intelligence artificielle (IA) ou les «machines pensantes» sont bien plus inquiétantes pour les scientifiques et technologues sérieux que ne le laisse penser le faible nombre de ceux qui s'expriment publiquement.

En décembre dernier, dans une interview accordée à la BBC, Stephen Hawking, de sa voix synthétisée par ordinateur, mettait en garde: «le développement d'une véritable intelligence artificielle pourrait signer la fin de la race humaine... Cette IA pourrait acquérir par elle-même son indépendance, et s'auto-recomposer à une vitesse sans cesse croissante». Grand penseur, Hawking relevait que «les humains, bridés par une évolution biologique lente, ne feraient pas le poids et seraient remplacés».

Les entreprises qui développent des robots visant à remplacer des dizaines de millions de cols bleus ou blancs ne se caractérisent pas par leur retenue. Il suffit d'observer les dernières usines, raffineries et zones de stockages construites pour imaginer ce qui se profile. Même le travail des avocats est aujourd'hui automatisé.

Mais les alertes lancées par des personnes comme Nassim Taleb, auteur du best-seller Black Swan et Stuart Russell, professeur d'informatique à Berkeley et coauteur d'un livre sur l'intelligence artificielle traitant des «risques qui pourraient déboucher sur l'extinction de la race humaine», doivent être diffusées auprès d'un public plus large.

Les systèmes complexes peuvent être extrêmement fragiles, dans des proportions tout à fait imprévisibles jusqu'au moment où les failles se révèlent! C'est en cela que Bill Joy voyait dans ces trois domaines technologiques - les nanotechnologies, le génie génétique et l'intelligence artificielle - un écheveau de systèmes se déployant sur la planète au-delà de tout contrôle humain.

Dans une interview récente du 17 juillet 2015 au magazine Science, la question suivante fut posée au professeur Russell: «quel est selon vous le chemin le plus probable qui mènerait de l'intelligence artificielle (IA) au désastre?» Sa réponse fut: «les routes pourraient être variées et complexes - des entreprises à la poursuite d'une supériorité technologique décisive, des pays cherchant à bâtir des systèmes d'IA avant leurs ennemis, ou une évolution plus lente, rappelant l'histoire de la grenouille qu'on porte progressivement à ébullition, et amenant à une dépendance et à un affaiblissement qui ne seraient pas sans rappeler ceux décrits par E.M. Forster dans La machine s'arrête».

Il affirme également à Science qu'il «n'a pas connaissance d'un quelconque mouvement appelant à une réglementation interne ou externe à l'IA, car nous n'avons aucune idée de la manière de définir ces règles». Telle est, relève-t-il, la conséquence de la «déroutante diversité des logiciels».

En attendant, le Congrès n'a toujours pas pris conscience de ces sombres scénarios. La majorité républicaine n'a pas intérêt à organiser des sessions d'information, car les intérêts économiques qui la gouvernent n'y voient eux-mêmes aucun avantage. Et en face, de myopes Démocrates sont trop occupés à passer des coups de fil pour lever les fonds qui alimenteront leurs campagnes de reconquête du Congrès en 2016.

Certains de ces Démocrates sont néanmoins mieux au fait. Ils ont longtemps soutenu l'Office of Technology Assessment (OTA), un organisme dépendant du Congrès, mis en place pour documenter et conseiller ses membres sur ce type de problèmes. Après la victoire du représentant républicain Newt Gingrich contre la majorité sortante démocrate en 1994, une de ses premières décisions fut de couper les financements et de fermer l'OTA.

Depuis, le Congrès a fait l'autruche. Le peuple américain en paiera certainement le prix, à moins que quelques personnes bien placées, dont des figures de la communauté scientifique, ne s'organisent pour exiger du Congrès qu'il rétablisse le système d'alerte technologique qu'apportait l'OTA. Cette institution a permis d'économiser des sommes bien plus importantes que son maigre budget de 22 millions de dollars, en bloquant certains projets inutiles et coûteux qui circulaient au Capitole.

L'immobilisme de la politique intérieure américaine ne devrait pas empêcher une extension des Conventions de Genève contre les armes chimiques et biologiques, pour les amener à couvrir également ces nouvelles armes de destruction massive de l'humanité. Un tel projet ne serait rien moins qu'une déclaration actualisée des droits humains fondamentaux.

Cet article, publié à l'origine sur le Huffington Post américain, a été traduit de l'anglais par Mathieu Bouquet.

À VOIR AUSSI SUR LE HUFFPOST:

Close
Cet article fait partie des archives en ligne du HuffPost Canada, qui ont fermé en 2021. Si vous avez des questions ou des préoccupations, veuillez consulter notre FAQ ou contacter support@huffpost.com.