Lecture: 3 min
N7673BTD
Citer l'article
Créer un lien vers ce contenu
par Fabien Girard de Barros, Directeur de la publication
le 27 Mars 2014
La lecture du Monde, en ce 19 juin 2013, a de quoi glacer le sang : "'Deux des trois gars que nous pourchassions étaient morts, mais le troisième avait perdu sa jambe droite, et il courait encore... Et je regardais ce type se vider de son sang'. Brandon Bryan observait sur l'écran de contrôle les conséquences du tir, depuis un drone Predator, de trois missiles qu'il venait de déclencher en Afghanistan, à plus de 10 000 km du cockpit climatisé où il était assis, dans le Nevada. Là-bas, l'homme était en train de mourir : il le savait car, sur l'image thermique, son sang prenait peu à peu la même couleur que le sol. En fermant les yeux, je continuais à voir chaque petit pixel. C'est moi qui avais guidé les missiles, j'avais perdu le respect de la vie'". Et l'article poursuit : "L'ancien opérateur n'est pas certain que les trois hommes qu'il a tués ce jour-là étaient des talibans ni même qu'ils étaient menaçants. Mais il n'était pas en position, dit-il, de se poser de questions" (in Les blessures à l'âme des tueurs à distance).
Depuis, l'on sait que plusieurs de ces soldats d'un nouveau genre sont atteints d'un syndrome de stress post-traumatique. Aucune guerre ne laisse indemne, mais ces "guerres à distance" semblent laisser encore plus de séquelles depuis qu'il y a ce détachement entre la prise de risque et le crime contre l'ennemi ou supposé tel ; comme si c'était cette prise de risque, justement, qui légitimait, alors, le fait de tuer son adversaire, dont les instincts meurtrier et/ou belliqueux sont similaires. Là, tranquillement installé à des milliers de kilomètres du lieu du crime, il y a une déconnexion avec la réalité de la guerre qui, finalement, si elle n'avait pas pour effet de troubler les consciences, serait, comble de l'horreur, le symbole d'une déshumanisation de l'assassinat : ce que les drones tueurs et autres RLA du futur seront à même d'offrir au genre humain, la tranquillité d'esprit.
"Non seulement il n'existera jamais aucune méthode objective (informatique) pour établir les coûts et avantages d'une opération militaire et permettre d'engager la force dans des conditions éthiques satisfaisantes, mais la vitesse des robots ne permettra plus à l'homme d'intervenir. Ils ne pourront respecter ni la discrimination ni la proportionnalité. Et comme le savent tous ceux qui ont des notions informatiques, si deux machines de programmes inconnus se rencontrent, le résultat est aléatoire et peut créer un dommage imprévisible'"... Nous livre un autre article du même jour (in Le spectre des robots tueurs)... Rassurant, n'est-il pas ?
Alors se pose inéluctablement la question de la responsabilité. Avec ces nouvelles intelligences artificielles autonomes, non seulement l'Homme n'aura plus de sentiment de culpabilité, mais il ne sera plus responsable : mieux qu'avec le sang contaminé !
Il y a peu encore, on invoquait la "théorie des baïonnettes intelligentes" pour condamner celui qui avait obéi à un ordre manifestement illégal émanant d'une autorité légitime : hier, des cantonniers ayant reçu l'ordre de jeter des déchets dans une rivière (1955), un préfet ayant collaboré à la Shoah, sur ordre du gouvernement de Vichy (1997), ou des gendarmes ayant incendié une paillote sur les sables corses (2004) ; demain, quid de l'application de l'article 122-4 du Code pénal ? Et, l'article 28 de la loi du 13 juillet 1983 peut bien disposer que "tout fonctionnaire, quel que soit son rang dans la hiérarchie, est responsable de l'exécution des tâches qui lui sont confiées. Il doit se conformer aux instructions de son supérieur hiérarchique, sauf dans le cas ou l'ordre donné est manifestement illégal et de nature à compromettre gravement un intérêt public" ; mais qu'en sera-t-il pour nos drones de demain ? Non point que le fait de commettre un crime, dans le cadre d'un conflit armé soit illégal en soi -c'est le domaine réservé du droit de la guerre-, mais l'on sait que l'erreur, même informatique, est possible et que des "dommages collatéraux" sont, parfois, à déplorer.
On a essayé de nous faire croire que la "guerre propre" était celle qui n'entraînait ni morts, ni blessés ; alors, qu'elle permet, au mieux, à l'un des belligérants de ne pas avoir de sang sur les mains ; et demain, de pointer sa "baïonnette autonome intelligente" sans qu'il soit responsable, lui, d'un quelconque libre arbitre. Il ne nous restera plus, après avoir accordé moult droits aux robots du futur, qu'à envisager leur propre responsabilité pénale -de la personnalité des peines oblige-.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:437673