Les robots devraient-ils avoir le permis de tuer ?

Vous en avez assez de lire des articles qui parlent du transhumanisme à la place des transhumanistes ? Cette chronique est faite pour vous.
Article par : Association Française Transhumaniste : Technoprog!


PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Certains droits réservés par Ѕolo

« Avec les robots guerriers, la guerre va changer de visage » nous informait le Monde du 12 novembre. Pour commémorer la “Der des Ders”, le célèbre journal faisait le point des dernières orientations des armées françaises en matière de robotique.

Faut-il accorder, c’est-à-dire programmer, la licence to kill chez les robots guerriers ?

Pas de nouvelles sidérantes : cela fait, bien sûr, plusieurs années que des robots en tout genre ont commencé à envahir les théâtres d’opérations militaires. Les plus célèbres sont les drones volants, mais les armées du monde industrialisé s’équipent aussi de robots démineurs, de robots transporteurs et autres robots de toute sorte. Et l’armée française ne fait que suivre ce mouvement au motif qu’il est censé épargner, à priori, beaucoup de victimes sur les champs de batailles.

Néanmoins, je pense qu’il nous revient de réfléchir, de nous positionner et de nous exprimer en tant que partisans d’un monde où les individus d’origine biologique – humains entre autres – vivraient en bonne entente avec d’autres de facture cybernétique ou robotique.

Comment parviendrons-nous à envisager cette future cohabitation si dés demain certains robots militaires (puis policier ?) sont dotés d’une “licence to kill” ?

Les robots guerriers aujourd’hui

Aux Etats-Unis, la tendance est aujourd’hui à la confiance envers les robots guerriers. Leur emploi en milieu militaire est, en effet, très répandu : aux USA, 1 soldat sur 50 est un robot. Le Congrès américain souhaite augmenter leur utilisation d’ici 2013 pour parvenir à un ratio d’un tiers de robots soldats.

Pour l’instant, on leur confie des missions de transports, de reconnaissance, de surveillance et de transport de matériel, voir à ce sujet le robot Big DOG construit par la DARPA (ci-dessus). Après, il n’est pas impossible qu’on leur confie d’autres missions plus “létale”, notamment par le biais de robots tueurs comme le robots SWORDS (ci-dessous).

Cependant, des voix s’élèvent pour protester ou pour alerter. Prenez l’exemple du commandant Mark Hagerott de la US Naval Academy, selon lequel il faudrait d’urgence établir un cadre de contrôle en raison de la pression économique et de l’inertie des progrès scientifiques. “Face au développement massif de robots capables de déployer une force létale, il faut une prohibition“.

Faut-il accorder, c’est-à-dire programmer, la licence to kill chez les robots guerriers ?

Permis de tuer ?

Le cœur du problème me paraît être que tant qu’ils n’ont pas de sens du bien et du mal, tant qu’ils ne sont pas des personnes, ils ne peuvent pas assumer la responsabilité de leurs actes. C’est la raison principale pour laquelle je pense que nous ne devrions pas leur attribuer l’autonomie dans la décision de tuer ou de risquer de donner la mort. Il me semble qu’il doit toujours y avoir une personne responsable derrière un tel choix, une personne à laquelle la société, les victimes éventuelles, pourront demander des comptes.

Bien sûr, s’il ne s’agit que d’un outil, d’une arme, la responsabilité se reporte sur son utilisateur, son propriétaire, voire son fabricant, mais, en première instance, au moment de « tirer sur la gâchette », les militaires eux-mêmes, les soldats, peuvent-ils accepter de faire dépendre à ce point l’engagement de leur responsabilité de la qualité de leurs armes ?

Vous me direz, quant un soldat appuie sur la gâchette de son fusil-mitrailleur comme quand le commandant d’un sous-marin ordonne le tir d’un missile et encore si un président de la république tourne une clé pour ouvrir le feu nucléaire, tous, au-delà de leur décision humaine, s’en remettent au bon fonctionnement d’une chaîne d’actions, mécaniques ou électroniques, voire d’une chaîne de commandement humain dans laquelle se dilue un peu de leur responsabilité. En cas de disfonctionnement de l’arme, d’accident ou de victimes collatérales par exemple, ils pourraient trouver là des « circonstances atténuantes » à faire valoir devant un tribunal. Ne pourrait-il pas en aller de même avec un robot guerrier programmé pour pouvoir tirer de façon autonome ?

Si les capacités d’informations du système qui entoure le robot atteignent un point où son évaluation est évidemment plus pertinente, plus rapide et plus efficiente que celle de l’humain qui jusque là détient la responsabilité de prendre la décision, ne devient-il pas plus sage de laisser également cette décision au soin du système ?

Comment programmer le sens moral ?

PaternitéPas d'utilisation commercialePas de modification Certains droits réservés par Andreas Kristensson

« Mon colonel, si vous essayer de faire ça, c’est sur vous que je vais tirer ! »

 Et bien ma réponse demeure négative, pour la bonne raison que, du point de vue d’une Démocratie digne de ce nom, les facteurs qui mènent à la décision d’agresser un humain ne peuvent jamais dépendre seulement de critères matériels. A la limite, je pourrais envisager d’octroyer une telle « liberté » à des robots le jour où ceux-ci auront montré leur capacité à se retourner contre un ordre humainement inacceptable et à dire : « mon colonel, si vous essayer de faire ça, c’est sur vous que je vais tirer ! »

Ils se peut qu’à un terme plus ou moins long, nous finissions par développer des Intelligences Artificielles performantes au point qu’elles nous donnent l’impression non seulement de passer le test de Turing, mais encore de distinguer le Bien du Mal, de faire preuve d’un sens moral, voire, pourquoi pas, de compassion. Nous pourrions alors peut-être envisager d’en doter des robots de combat auxquels nous attribuerions une autonomie dans l’ouverture du feu. Je pense que nous pourrions alors le faire parce qu’ils auraient cessé d’être de simples machines pour devenir de véritables personnes.

D’ici là, il me semble essentiel de maintenir l’interdiction.

Marc Roux, pour l’Association Française transhumaniste

Tags: , ,

--------------------------------------------




À propos de Association Française Transhumaniste : Technoprog!

Voir tous les articles de Association Française Transhumaniste : Technoprog!
l'Association Française Transhumaniste est la branche française de H+. Elle se donne pour but de débattre des nouvelles technologies et de leur impact sur la vie : allongement de la durée de vie, interface cyborg, intelligence artificielle… Parce que la réflexion transhumaniste questionne ce que sera l’homme de demain, ils nous livrerons deux fois par mois une chronique sur l’actualité : le Futur prend la plume sur Silicon Maniacs !

3 Responses to “Les robots devraient-ils avoir le permis de tuer ?” Subscribe

  1. meego 24/11/2011 at 20:08 #

    Pour l’information, il me semble, pour l’avoir lu qqpart récemment, que la doctrine militaire française actuelle est de pas “déshumaniser” le combat, et de ne confier des armes à des IA sous aucun prétexte. J’avais cru comprendre que derrière cela il y avait l’idée, assez noble et réaliste, que l’homme était vu, pour le meilleur ou pour le pire, comme la meilleure garantie qu’une éthique et une morale….

    Edit : oh wait j’ai retrouvé l’article http://www.lemonde.fr/societe/article/2011/11/12/avec-les-robots-guerriers-la-guerre-va-changer-de-visage_1602870_3224.html

  2. Bonjour,
    L’article que vous citez est justement celui d’où je suis parti pour cette la chronique de cette semaine (voyez le lien au tout début ;-). Mais je vous fais remarquer que dans cet article, il n’est nullement dit que « la doctrine française est de ne confier des armes à des IA sous aucun prétexte ». Au contraire, il est écrit : « Une ligne jaune vient d’être franchie en France, comme elle fut plus récemment aux Etats-Unis ou en Israël. Sans oser le dire, les armées ont, en 2011, admis le principe du robot armé, du robot tueur, voire du robot suicide. » L’auteur de l’article nous précise qu’au mieux « L’affaire divise. Selon les uns, les armées n’ont pas d’autre choix que de se lancer dans la robotisation, et réfléchiront en marchant à ses usages. Selon les autres, il faut, pendant qu’il est encore temps, poser en préalable un cadre intellectuel et éthique. »
    Je pense donc qu’il ne faut pas du tout comprendre que nos militaires sont tous définitivement convaincus de la dimension fondamentale de la présence d’une responsabilité humaine (ou transhumaine ;-) chaque fois qu’il est question de « donner la mort ». Le débat est en cours, et comme chaque fois qu’il est question de guerre, c’est une chose trop sérieuse pour la laisser aux seuls militaires.
    A+

  3. gaka 05/04/2012 at 12:21 #

    Pour approfondir le sujet, je vous conseille de lire “Les robots au coeur du champ de bataille” de Ronan Dore et Henri Hude sur le sujet.

Leave a Reply