[Stratcom] [Bureau] [Coordinateurs-sections] Armes autonomes

Clement Beckert clement.beckert at gmail.com
Sam 1 Aou 15:22:17 CEST 2015


J’avoue avoir joué un peu au sophiste… Mais je pense qu’il n’y a pas tant de discontinuité entre un drone que l’on programme à tuer quelqu’un et un missile à tête chercheuse… Je pense que c’est juste la suite logique de la technologie…. 

Je me place dans une logique historique. Imaginons, un instant un tireur à l’arc anglais qui a qui l’on présente le concept de missile à tête chercheuse. Pour lui cet objet n’est il pas notre arme autonome ? Il remplace l’homme dans l’acte de viser, et d’ajuster la trajectoire de sa flèche… comme aujourd’hui les drones remplaceront le soldat décidant de titre… 

Et c’est en se replaçant dans cette histoire que je trouve que le danger des armes autonomes est dans l’accroissement de la distance entre combattant et la déresponsabilisation des soldats qui vont être amenés à les utiliser. Je n’ai pas tant peur des conséquences d’un drone qui deviendrait fou que des conséquences sur la vision de l’homme qui est embarquée dans cette technologie. Si l’on réfléchit bien, 1914 ne marque pas le début de l’industrialisation, mais quelque part un achèvement d’une l’industrie supérieure à l’homme… et on a toujours pas dépassé ça… Les drones c’est la même chose… Quelles conséquences symboliques sur la vision de l’homme ces armes auront ? 

Voila pour répondre aussi à Relph sur mon texte. Ce n’est pas tant sur la technologie qu’il faut répondre, mais sur les conséquences, philosophiques, donc politique des ces horreurs.

Bonne après midi

Clément


> On 01 Aug 2015, at 12:05, Mistral Oz <mistral.oz at partipirate.org> wrote:
> 
> Juste un point :
> > "Un robot ne peut porter atteinte à un être humain," ce qui veut dire pas de drone tueur automatique que l'on aurait programmé à partir d'une photo... Du coup, reformulons "Un robot ne peut être programmé pour porter atteinte à un être humain"
> Au contraire, de ce que je comprends de la levée de boucliers (par Stephen Hawking et les autres), la question ne se pose pas sur les robots programmés pour tuer. Même l'idée du missile à tête chercheuse n'est pas en cause.  
> 
> Ce qui est vraiment remis en cause, ce sont des robots qui auraient leur propre autonomie de jugement pour décider de passer ou non à l'action. Des sortes de mines antipersonnelles qui checkerait le dossier de la personne qu'elle a en fasse d'elle pour juger si oui ou non la personne doit être tuée. C'est le pendant offensif du bouclier antimissile qui se déclenche sans intervention humaine pour éliminer une bombe entrée dans son champ d'intervention (enfin, en théorie car en pratique, en Israel, ça coûte trop cher et il faut une validation humaine pour valider ou non, et la plupart du temps le missile n'est pas intercepté car il tombe en périphérie des villes).
> 
> Pour moi la distinction entre arme autonome et missile à tête chercheuse est assez claire mais par contre, il est vrai que j'ai lu que l'ONU essayait de trouver une définition formelle de ces armes autonomes et n'arrivait pas bien à se mettre d'accord. A mon sens, ils n'arrivent surtout pas très bien à poser des limites qui empêcheraient les pays dit "développés" de les faire malgré une interdiction de l'ONU. 
> 
> 
> Mistral Oz
> Parti Pirate
> Trésorier Bretagne <http://bretagne.partipirate.org/> - Membre SI Diversité
> Président de l'association de financement <http://wiki.partipirate.org/wiki/Cat%C3%A9gorie:AFPP>
>  <http://wiki.partipirate.org/wiki/Cat%C3%A9gorie:AFPP>
> 
> _______________________________________________
> Stratcom mailing list
> Stratcom at lists.partipirate.org
> https://lists.partipirate.org/mailman/listinfo/stratcom

-------------- section suivante --------------
Une pièce jointe HTML a été nettoyée...
URL: <http://lists.partipirate.org/pipermail/stratcom/attachments/20150801/2abc8a3e/attachment.html>


More information about the Stratcom mailing list