[Stratcom] [Bureau] [Coordinateurs-sections] Armes autonomes

Olivier Soares olivier at artfutur.com
Ven 31 Juil 22:24:34 CEST 2015


Une voiture asimovienne aurait sans doute grillé ses neurones 
positroniques devant le choix insurmontable et la conscience d'avoir été 
un objet mortel. On peut toujours se proposer comme robopsychologues 
pour drones afin de les guérir de leur sentiment de culpabilité. Pauvres 
petites machines utilisées contre leur consentement :(


Le 31/07/2015 20:12, Raphael Isla a écrit :
> Bonsoir Clement, bonsoir les autres
>
> Concernant ta proposition de texte, 2 points :
> - "Attristés qu'un monde sans arme soit possible", c'est pas 
> "impossible", plutôt?
> - Attention Industrialisation et automatisation sont 2 choses 
> différentes. Oui, l'humanité a connu l'industrialisation de la mort 
> entre 1939 et 1945. Mais ce n’était pas une automatisation, puisque 
> c’était géré par des humains d'un bout à l'autre. Pour moi, le "drone 
> tueur", c'est plus une automatisation qu'une industrialisation.
> Pour le reste, ton texte me plait.
>
> Concernant ta réflexion du début, j'avais lu un article sur 
> l'automatisation des voitures et les choix logiciels. Il y avait un 
> exemple aux USA où suite à un accident, une voiture automatique devait 
> choisir entre rentrer dans une moto avec un conducteur casqué et 
> rentrer dans une moto avec un conducteur non casqué. L'article 
> expliquait que le programmeur avait fait le choix d'accidenter le 
> motard le mieux protégé pour eviter les blessures les plus graves 
> (voire la mort). Mais du coup, ça poussait les motards à moins se 
> proteger. Dilemme. (Il faudrait que je vous retrouve l'article dans 
> mes archives. C'est pas gagné.)
>
> Relf
>
> 2015-07-31 18:20 GMT+02:00 Clement Beckert <clement.beckert at gmail.com 
> <mailto:clement.beckert at gmail.com>>:
>
>     Autant on peut être d'accord sur la première partie de la phrase -
>     après précision
>
>     "Un robot ne peut porter atteinte à un être humain," ce qui veut
>     dire pas de drone tueur automatique que l'on aurait programmé à
>     partir d'une photo... Du coup, reformulons "Un robot ne peut être
>     programmé pour porter atteinte à un être humain". Donc, un robot
>     n'a pas de conscience en lui même, il n'est juste que le résultat
>     de l'algo qu'on lui a fait bouffer... Du coup,  un missile de
>     croisière, est il un robot ? Du moins c'est un automate... Donc
>     s'il on accepte cette proposition, ça cela veut dire que la France
>     devrait se passer de missiles et pas que les missiles
>     nucléaires... ce qui nous ferait passer pour des bisounours....
>     qui appellent au désarmement total. Attention, c'est une approche
>     qui me paraît philosophiquement raisonnable, mais pragmatiquement
>     irréalisable.
>
>     La deuxième partie de la phrase me semble encore plus complexe à
>     mettre en oeuvre : "ni, en restant passif, permettre qu'un être
>     humain soit exposé au danger."
>
>     Cela suppose que l'intelligence artificielle permet de gérer des
>     cas complexes. Par exemple, une voiture automatique google-uber
>     arrive sur une plaque de verglas avec un pieton au loin... SI elle
>     freine, elle envoie dans le décor son passager, si elle ne freine
>     pas c'est le piéton qui y passe... Dans ce cas c'est quoi le "en
>     restant passif"...
>
>     Du coup, Asimov, est très bien formulé... mais correspond à un
>     état de la technique qui n'existe pas encore actuellement. Cela
>     supposerait que l'homme a créé des machines douées de consciences
>     et pas des automates...
>
>
>     Dès lors pour résoudre, le paradoxe. Je rédigerais une position de
>     ce type :
>
>     Le parti pirate s'effraie de la mise en place de drones autonomes
>     qui éloignent encore plus le militaire, et demain le policier, du
>     théâtre d'opération. Attristés qu'un monde sans arme soit
>     possible, nous souhaitons néanmoins, que celles-ci restent le plus
>     possible sous maîtrise humaine, que la décision d’ôter la vie se
>     fasse au plus proche des combattants ennemis, et enfin par des
>     acteurs conscients des gestes qu'ils réalisent. Robotiser la mort
>     de militaires ennemis ou de "terroristes" revient à
>     déresponsabiliser et à industrialiser un geste qui ne le doit pas
>     sous peine de perte de l'Humanité. L'Histoire nous a déjà enseigné
>     qu'une telle industrialisation ne conduit qu'à des catastrophes.
>     Essayons tous ensemble d'éviter la prochaine.
>
>     My 0,02€
>
>     A+
>
>     C.
>
>
>
>
>
>
>     My 0,02€
>
>     Clément
>
>
>
>     _____________________________________________________________
>     Clément Beckert
>
>     clement.beckert at gmail.com <mailto:clement.beckert at gmail.com>
>     _____________________________________________________________
>
>     Le 31 juillet 2015 17:37, François Vermorel <fvermorel at gmail.com
>     <mailto:fvermorel at gmail.com>> a écrit :
>
>         Asimov avec nous !!
>
>         ...
>
>         Le 31 juil. 2015 à 17:08, Larose75 <Larose75 at partipirate.org
>         <mailto:Larose75 at partipirate.org>> a écrit :
>
>>         ca serait bien de faire un communiqué la dessus
>>
>>         le parti pirate prone l'adoption en france de la loi de la
>>         robotique d'isaac assimov
>>
>>
>>         On 29/07/2015 05:20, Cédric LEVIEUX wrote:
>>>
>>>         La position sur le sujet est clair en MidiPy : La première
>>>         loi de la robotique telle qu'édictée par Asimov ne doit pas
>>>         être bafouée :
>>>
>>>          1. Un robot ne peut porter atteinte à un être humain, ni,
>>>             en restant passif, permettre qu'un être humain soit
>>>             exposé au danger.
>>>
>>>         Voilà voilà
>>>
>>>         Le 2015-07-29 11:13, Thomas Vermorel a écrit :
>>>
>>>>         Bonjour,
>>>>         J'aimerais que le PP se pronnonce en faveur d'un moratoire
>>>>         international concernant les armes autonomes. Serait-ce
>>>>         possible de se positionner très vite sur le sujet?
>>>>
>>>>
>>>>         _______________________________________________
>>>>         Coordinateurs-sections mailing list
>>>>         Coordinateurs-sections at lists.partipirate.org
>>>>         <mailto:Coordinateurs-sections at lists.partipirate.org>
>>>>         https://lists.partipirate.org/mailman/listinfo/coordinateurs-sections
>>>
>>>
>>>         _______________________________________________
>>>         Bureau mailing list
>>>         Bureau at lists.partipirate.org  <mailto:Bureau at lists.partipirate.org>
>>>         https://lists.partipirate.org/mailman/listinfo/bureau
>>
>>         _______________________________________________
>>         Stratcom mailing list
>>         Stratcom at lists.partipirate.org
>>         <mailto:Stratcom at lists.partipirate.org>
>>         https://lists.partipirate.org/mailman/listinfo/stratcom
>
>         _______________________________________________
>         Stratcom mailing list
>         Stratcom at lists.partipirate.org
>         <mailto:Stratcom at lists.partipirate.org>
>         https://lists.partipirate.org/mailman/listinfo/stratcom
>
>
>
>     _______________________________________________
>     Stratcom mailing list
>     Stratcom at lists.partipirate.org <mailto:Stratcom at lists.partipirate.org>
>     https://lists.partipirate.org/mailman/listinfo/stratcom
>
>
>
>
> -- 
> Email : raphael.isla at partipirate-mp.org 
> <mailto:raphael.isla at partipirate-mp.org>
> Twitter : https://twitter.com/Relf_PP
> Parti Pirate : http://www.partipirate.org
>
>
> _______________________________________________
> Stratcom mailing list
> Stratcom at lists.partipirate.org
> https://lists.partipirate.org/mailman/listinfo/stratcom

-------------- section suivante --------------
Une pièce jointe HTML a été nettoyée...
URL: <http://lists.partipirate.org/pipermail/stratcom/attachments/20150731/f5e25620/attachment.html>


More information about the Stratcom mailing list