Click here to load reader

Droit international humanitaire Droit de lhttpAssets)/E537DA3041E3… · encadrement juridique de leur développement et de leur utilisation ... autour du droit international humanitaire

Embed Size (px)

Citation preview

  • Droit international humanitaire Droit de l'Homme Encadrement juridique des Robots tueurs : enjeux et perspectives Auteur : Pinchon Romain

    Rsum : Systmes d'armement ltaux autonomes - Robots tueurs - Ngociations pour un encadrement juridique de leur dveloppement et de leur utilisation - Convention sur les armes dites inhumaines - Problmes de dfinition - Enjeux thiques, militaires, conomiques, et juridiques - Proccupations humanitaires - Droit international des droits de l'Homme - Jus ad bellum - Jus in bello - Moyens et mthodes de combat - Responsabilit - Improbable interdiction - Possible moratoire - Encadrement restrictif des dbats - Elusion des problmatiques lies l'usage de drones arms

    Terminator, Robocop, Battlestar Galactica et le droit : les dbats juridiques prennent parfois, avec lvolution technologique, les allures de rcits de science-fiction. Cela tant, la problmatique est tout autant actuelle que bien relle. Des robots ont t dploys en Irak et en Afghanistan, chargs de dtecter et dtruire des engins explosifs improviss, et les robots tlcommands Swords , quips de mitrailleuse M249, ont t tests en conditions relles par les amricains. Dans ce contexte de dveloppement trs rapide de la robotique militaire, le 16 mai dernier, sest acheve Genve, une runion informelle dexperts tatiques et non-tatiques sur les systmes darmes ltaux autonomes (SALA) convoque, linitiative de la France, dans le cadre de la Convention sur certaines armes classiques. Le mandat donn aux experts par le Prsident de la Confrence des Parties tait relativement large, alors que le contexte des ngociations permet a contrario dencadrer les dbats. Il sagissait ainsi dtudier les questions relatives aux technologies mergentes lies aux systmes darmes autonomes, dans le contexte des objectifs et buts de la Convention , et daboutir un rapport en vue dinformer la runion de ses Hautes parties contractantes, prvue pour novembre 2014. Le dveloppement de telles armes, et principalement des nouveaux systmes darmements autonomes robotiss, aussi dsigns sous limpressive appellation de Robots tueurs , nest pas sans susciter dimportantes problmatiques dordre thique, technique, conomique, militaireet juridique. Alors que toutes sont troitement imbriques, cest ce dernier aspect qui sera lobjet principal de notre propos, ncessairement limit par le format et la vocation

  • informative du Bulletin Sentinelle. Au cours de la runion dexperts, les notions dautonomie, de contrle humain, et de responsabilit, ont t identifies comme devant faire objet dclaircissements. De mme, les dbats autour du droit international humanitaire ne semblent pas avoir fait merger de position consensuelle.

    Rapporte la matire juridique, le dveloppement darmes autonomes robotises, sil sagit au pralable de dfinir prcisment celles-ci, emporte dabord un certain nombre denjeux quant lencadrement juridique des conflits arms et du recours la force ltale. Il convient ensuite dtudier en quoi lopportunit dun cadre spcifique apparat lobservation du droit des armes et de la conduite des hostilits. Enfin, les perspectives se dessinent progressivement avec les stratgies normatives des acteurs intresss qui visent soit linterdiction de ces armes nouvelles, soit un moratoire sur la recherche et leur utilisation, soit, enfin, les prsenter comme une volution naturelle des moyens de combats dans le cadre du droit positif. De notre point de vue, il apparat probable que la capacit technologique primera sur la volont dinterdiction, au vu des risques et des avantages identifis. Cela tant, devant le nombre des questions techniques et juridiques qui restent en suspens, le moratoire semble simposer. I Dfinition(s) et enjeux

  • A/ Dfinitions et distinctions titre prliminaire, il parat peu ais de donner une dfinition des SALA. Quant au mandat donn par les participants de la Convention sur les armes classiques aux experts, il permettait plusieurs clairages et distinctions. taient dabord exclus des discussions les systmes non-ltaux, utilisables par exemple dans le contexte de troubles internes ou dmeutes. Ensuite, en visant les technologies mergentes , il sagissait pour les experts de se dterminer sur ceux des systmes qui nexistent pas encore ou sont en cours de dveloppement. La question nest pas anodine, en ce qua contrario, il ne sagit pas de viser les systmes existants. Or, certaines armes ltales et autonomes sont aujourdhui utilises, qui vont des mines anti-personnelles aux systmes de dfense automatiques telles que les Phalanx de lUS Navy ou lIron Dome isralien ou robotiss, comme les mitrailleuses SGR-1 dployes par la Core du Sud pour la surveillance de la zone dmilitarise. Dautres, bien que non encore employes, existent dj et font lobjet de dveloppement par une quinzaine dEtats, dont les Etats-Unis, le Royaume-Uni, la Russie, la Chine, Isral avec son systme Sentry Tech dj oprationnel, ou la Core du Sud. Il est certain que la question du degr dautonomie et de contrle humain est centrale dans la dfinition juridique des SALA. Lon remarquera titre prliminaire que nulle arme mise au point par lhomme est vritablement autonome : les animaux utiliss en contexte de conflits arms ont de tout temps eu leur dresseur ; les drones actuels demeurent tl-oprs ; les systmes darmes automatiss sont pralablement programms et mme les robots tueurs autonomes, sils nexistent encore, disposeraient dune intelligence artificielle labore par lHomme, et ne seraient en outre destins qu un rle oprationnel ou tactique. Parmi ces robots usage militaire, lon distingue gnralement, selon limplication humaine dans les actions entreprises, entre ceux qui ne font que slectionner des cibles quils attaqueront sur ordre humain (Human in the Loop), les robots qui ciblent et attaquent des objectifs sous la supervision dun oprateur humain capable de prendre la main et darrter lattaque (Human on the Loop) et ceux qui capables de slectionner et attaquer des cibles sans intervention humaine (Human out of the Loop). Comme le terme de technologies mergentes figurant dans le mandat donn aux experts parat dsigner les systmes darmement pleinement autonomes, ils impliquent, selon la position franaise, la possibilit dune absence de

  • supervision humaine, le recours une technologie complexe dont une intelligence artificielle, des capacits dauto-apprentissage et de dcisions conduisant au ciblage et lattaque avec un degr de prvisibilit. Cest cette dfinition que retient le Rapporteur spcial des Nations Unies sur les excutions extrajudiciaires, sommaires et arbitraires. Dans son rapport de 2013, pour voquer les robots ltaux autonomes, il se rfre aux systmes darme robotique qui, une fois active, peuvent slectionner et engager des cibles sans lintervention dun oprateur humain () Le robot dispose dun choix autonome dans la slection de lobjectif et lusage de la force ltale . Les Etats-Unis, qui apparaissent comme le seul Etat stre dot, en 2012, dune doctrine officielle en la matire, distinguent quant eux entre autonomous and semi-autonomous weapon systems et dfinissent les premiers comme A weapon system that, once activated, can select and engage targets without further intervention by a human operator . Le Dpartement de la Dfense insiste ensuite sur lobligatoire intervention dun oprateur humain, position que partage le gouvernement britannique. Mais la possibilit reste cependant ouverte de doter ces machines dun pouvoir de dcision autonome. Dans la perspective dun encadrement juridique, la problmatique des dfinitions et des distinctions sous-jacentes sera primordiale : faut-il viser les seules armes qui laissent lHomme en dehors de la boucle de dcision ? Est-ce que lon doit traiter de la mme manire les armes offensives et celles, statiques et purement dfensives ? Quid de lencadrement juridique des armes existantes ou semi-autonomes, telles que les drones et robots tlcommands, qui sont largement utilises ? Ne risque-t-on pas de voir apparatre des "zones grises", en ayant de lautonomie une vision par trop statique et insuffisamment fonctionnelle ? B/ Enjeux militaires et conomiques, questions thiques 1. Enjeux militaires et conomiques Le fait nest pas nouveau que les hommes ont cherch induire de plus en plus de distance entre eux et leurs cibles, du lancer de caillou jusquau missile nuclaire. Dans cette dynamique, ils ont cherch tuer et dtruire travers un ensemble de techniques qui ne ncessitent leur intervention directe, de la chausse-trappe la mine anti-personnelle. De fait, la robotique et le dveloppement de systme autonome connaissent un accroissement de leurs

  • usages commerciaux, par exemple dans le secteur automobile. Lindustrie darmement nest pas en reste. La robotique militaire offrirait un certain nombre davantages, dont celui de limiter le nombre de personnel militaire et, subsquemment, les pertes humaines auxquelles les opinions publiques prtent une grande attention. De mme, pour certains militaires et scientifiques, comme le Pr. Arkin du Georgia Institute of Technology, les robots arms, autonomes et fiables, serviraient rduire les erreurs de ciblage dans les conflits futurs, vitant les dommages collatraux. Ils ont pour eux la rapidit et lefficacit. En outre, en permettant lenregistrement de leurs oprations et en facilitant les investigations, ils seraient facteur de transparence et de respect de la rgle de droit lors de lengagement du combat. Enfin, impermables la colre, au stress, la panique et lanxit, ils permettraient dviter sur le champ de bataille les violations du droit international humanitaire imputables lHomme et ses passions les plus destructrices, telles que le viol ou linfliction de souffrances inutiles. Lon pourrait cependant objecter cela, par exemple, que le viol dans le contexte dun conflit arm obit souvent une politique concerte. Certains experts annoncent tout de mme que by 2030 machine capabilities will have increased to the point that humans will have become the weakest component in a wide array of systems and processes . Les armes robotises autonomes sont aussi prsentes comme une ncessit, alors que le rythme du combat pourrait devenir trop rapide pour des oprateurs humains. Les SALA permettraient donc de sauver des vies, pour chaque partie au conflit, et dallger les souffrances humaines. Sur le plan conomique, enfin (et surtout ?), ces robots prsentent une opportunit en ce que leur entretien ncessite en thorie moins de ressources que pour un soldat, et quils participent de lenrichissement de lindustrie darmement. En somme, et tout en se prservant dun anthropomorphisme inconscient, il sagit de combattants sans motions, ni salaire, ni contingences humainespas plus que dhumanit. 2. Questions thiques Cest dailleurs lun des premiers arguments de la coalition dONG qui sest constitue pour une campagne en faveur linterdiction des robots tueurs , sous lgide de Human Rights Watch, et qui a dlivr, fin 2013 son rapport Losing humanity: The case of Robot Killer . Sur le plan thique, ils soulignent dabord la difficult quil y a daccorder une machine un pouvoir de

  • vie et de mort sur la personne humaine. Beaucoup, linstar du Rapporteur spcial sur les excutions extrajudiciaires du Haut Commissariat des Nations Unies sur les Droits de lHomme, dans son rapport de 2013, insistent sur le risque quils emportent une plus grande distanciation entre les utilisateurs darmes et la force meurtrire laquelle ils ont recours , et aient ainsi pour effet de dshumaniser la guerre et les soldats, avec lapparition dune mentalit Playstation . De plus, il est fait valoir que les robots tueurs ne sont pas en mesure de faire des apprciations qualitatives la faon dtre humains, ni de faire preuve de compassion, dempathie et dintuition au moment dengager la force. Pareillement, ils nont pas la rpugnance de ltre humain tuer, tre tu ou voir un de leur proche limin. Comment dans ce cadre, pourrait-il faire, par exemple, la diffrence entre un ordre lgal ou illgal et de prendre une dcision dans le contexte dun conflit asymtrique complexe ? De manire gnrale, se pose la question de ladquation du dveloppement de telles armes et de leur utilisation au droit international humanitaire et au droit de lhomme. II Un problmatique encadrement par le droit international humanitaire positif A/ Relativement au droit de la paix Sil a t choisi par les Etats denvisager les problmatiques lies aux robots tueurs dans le cadre du droit des armes, ces dernires se prolongent galement en droit international des droits de lhomme et en matire de jus ad bellum. Il a ainsi t argument que la dcision du recours la force pourrait tre facilite par lusage de robots et la moindre implication corrlative dtres humains. Le fait que seuls les pays technologiquement les plus avancs puissent mettre au point ce type darmement donnerait ceux-ci un avantage militaire dterminant dans la dcision de recourir au conflit arm. Ce serait lavnement dune situation asymtrique ultime opposant dun ct des machines et de lautres des tres de chair et de sang, avec un risque allant croissant de rtorsion contre des cibles civiles. Il a t prouv, par ailleurs, que lemploi darmements semi-automatiss, tels que les drones amricains utiliss au Pakistan, a suscit une hostilit croissante de la population locale. Par

  • analogie, la prsume vertu pacificatrice des robots tueurs reste sujette caution. Le Rapporteur spcial aux Nations Unies sur les excutions extrajudiciaires, ainsi que les ONG, pointent galement le risque de lutilisation de robots tueurs en dehors du contexte de conflit arm. Cette crainte sexprime dabord quant lutilisation de robots par un gouvermenent contre son peuple, pour rprimer lopposition politique. Un robot ne discute les ordres, pas plus quil nest susceptible de sdition. Quant au niveau dexigence des rgles du droit international des droits de lHomme applicables en matire de rtablissement de lordre public, on peut craindre que lusage de robots ne soit inadapt, avec notamment lutilisation dune force excessive. Tout comme le rapporteur spcial des Nations Unies, un rapport ralis, en 2013, pour le Parlement europen voque la menace que constituent les robots tueurs, et notamment leur usage extraterritorial, quant aux droits de lHomme en gnral et au droit la vie, un recours et la dignit, en particulier. Par ailleurs, le dveloppement de robots autonomes peut constituer un risque, rapport lvolution de la cyber-technologie. Ils sont, en thorie, susceptibles dappropriation ou de piratage, y compris par des acteurs non tatiques disposant des capacits adaptes pour les retourner ensuite contre leur Etat dorigine ou la population civile. La question de l'usage des cybertechnologies devrait tre associe celle du dveloppement d'armements autonomes qui communiquent par ces mmes moyens. B/ Relativement au droit des conflits arms 1. Le droit relatif aux moyens et mthodes de combat Il sagit galement de confronter le dveloppement et lutilisation de robots tueurs au droit international humanitaire, qui encadre les mthodes et moyens de combats. il convient de rappeler en premier lieu que ce corps de droit connat un dterminant axiologique avec le respect du principe dhumanit, que lon trouve par exemple dans la Clause de Martens. Celle-ci interdit galement les armes qui vont lencontre des exigences de la conscience publique . La CIJ affirme ainsi que les principes du droit international humanitaire s'appliquent toutes les formes de guerre et toutes les armes, celles du pass, comme celles du prsent et de l'avenir (voy.

  • lavis sur la licit de la menace ou de lemploi de larme nuclaire, 86). Outre que le dveloppement darmes nouvelles puisse tre incompatible avec la volont dclare des Etats duvrer au dsarmement, ils ont lobligation de vrifier si celles-ci ne sont pas contraires aux rgles du droit international humanitaire qui les lient dj, que ce soit en toute circonstance ou selon les circonstances. En effet, cest le sens des dispositions de lart. 36 du Protocole additionnel (I) aux Convention de Genve du 8 juin 1977. En dehors dune rglementation specifique, une arme peut tre interdite au regard de ses effets ou de sa mise en uvre. Ainsi, des interdictions ou restrictions dcoulent du principe de prcaution : les Etats doivent veiller ce que les armes nouvelles nemportent pas pour les combattants des maux superflus , quand bien mme cette notion demeure incertaine, souffrances suprieures aux maux invitables que suppose la ralisation dobjectifs militaires lgitimes . Il sagit ici dune obligation de rsultat qui vise protger les combattants ennemis, alors que les civils bnficent en droit international humanitaire dune protection absolue (voy., par exemple, le 12 de lopinion du juge Higgins jointe lavis de la Cour internationale de justice relatif la licit de la menace ou de lemploi darmes nuclaires). A priori, les robots tueurs nentrent pas ncessairement dans cette catgorie, tant quils ne sont quips avec des armes spcifiquement prohibes telles que des lasers aveuglants, mis part sils contribuent rendre la mort invitable, en violation du principe dhumanit. En vertu du prambule de la Dclaration de Saint Petersburg, ou du droit international humanitaire coutumier (voy. la rgle n70 identifie par ltude du CICR, et son commentaire), un belligrant se doit en effet de tout mettre en uvre pour rduire autant que possible les dommages causs son adversaire, ce qui parat techniquement difficile raliser pour un robot. Le droit positif proscrit galement les armes frappant de manire indiscrimine . On retrouve cette interdiction lart. 514 du Protocole additionnel (I). La question se pose de savoir si, de par leur nature mme, les robots tueurs risquent de frapper sans discrimination des objectifs militaires ou civils. Certains robotistes insistent sur la prcision de ces machines dans le ciblage et lexcution. Pourtant, supposer que leur logiciel ne leur permette de faire la distinction entre un combattant, un civil prenant directement part aux hostilits et un non-combattant, les armes robotises pleinement autonomes sont susceptibles de frapper sans discrimination, notamment dans le contexte dun conflit

  • asymtrique. Cette rserve technique tant mise apparat comme un enjeu ne pas ngliger pour qui voudrait voir conclu un Protocole spcifique ce type darmement, dans le cadre de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent tre considres comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (nous soulignons). Si les Robots-tueurs ne sont interdits de par leur nature mme, il convient que leur emploi satisfasse au principe cardinal de distinction (Voy. avis sur la licit de la menace ou de lemploi de larme nuclaire, 78-79), que lon retrouve nonc aux art. 48, 51 et 52 du Protocle additionnel (I), et qui jouit dune ferme prsomption quant son statut coutumier (voy. la rgle n1 identifie par ltude du CICR). Il nest pas certain que les robots tueurs puissent distinguer, et cela mme dans un contexte dune complexit modre : les ordinateurs ne sont tout simplement pas en mesure de faire la distinction entre de formes multiples et changeantes dans un environnement encombr de btiments, de vhicules, darbres et de personnes . Il en va de la mme faon pour le principe de proportionnalit : si aprs avoir pris lensemble des prcautions ncessaires, la neutralisation ou la destruction de lavantage militaire ennemi risque dengendrer quand mme des pertes et des dommages civils, ces oprations militaires doivent tre ralises en veillant viter de provoquer des pertes ou des dommages parmi les personnes et les biens civils qui seraient excessifs par rapport lavantage militaire concret et direct attendu (voy., lart. 515b et 572(iii) du Protocole additionnel (I)). Ce dernier principe oblige donc viter tout dommage collatral excessif en planifiant ou excutant une attaque, avec des critres qui peuvent tre partiellement objectivs, mais emporte ncessairement une apprciation casuistique de la situation. Or, et selon les experts en robotique, quand bien mme la technologie lie l'intelligence artificielle pourrait permettre aux robots dvaluer la proportionnalit de leurs actions (qui ne se confond donc pas avec la seule probabilit doccasionner des dommages collatraux), ce qui demeure tout de mme incertain, elle nexiste pas lheure actuelle. Enfin, quant la prcaution dans lattaque, que lon trouve codifie larticle 57 du Protocole additionnel (I), et qui figure vraisemblablement dans le droit coutumier, il sagit de prendre en compte le fait que les robots tueurs disposent de capacits avances afin de cibler prcisemment les objectifs militaires, avec des sonars, des systmes de vise infrarouges, etc. Or, en

  • fonction des circonstances, leur utilisation peut tre substitu un moyen de combat qui se montre aussi efficace tout en tant plus protecteur des vies humaines. Cest la ncessit dune apprciation subjective du contexte, dont la machine se montre, pour le moment, incapable, qui resurgit ici. 2. "Robots tueurs" et imputation de la responsabilit Autre question essentielle : celle de la responsabilit. Il parat clair quun robot ne puisse endosser la responsabilit de ses actions. En cas de violation de la rgle de droit, qui demander rparation ? Sagirait-il dune responsabilit tatique et/ou individuelle ? Qui sanctionner dans ce dernier cas ? Est-ce le commandant qui mne lopration ? Le programmeur du robot ? Lentreprise qui la produit ? Linvestisseur ? Pour autant que ces armes autonomes restent sous le commandement stratgique de lhumain, limputation de leurs actions ceux qui les dploient ne semble poser un problme irrmdiable. Lon peut prendre lexemple dun individu qui modifierait dlibrment le programme dun robot tueur afin que celui-ci commette un crime de guerre. Pour les autres cas, lengagement de la responsabilit de lindividu peut savrer plus complexe : les commandants militaires disposeront-ils dun degr suffisant de contrle sur les machines ? Et quadviendra-t-il en cas de bug , dala technique aux effets dvastateurs ? La responsabilit du commandement, telle quinterprte par la jurisprudence des tribunaux pnaux internationaux, semble plutt inadapte lutilisation de SALA. III Perspectives dvolution du cadre juridique A/ Une improbable interdiction Quant aux perspectives dencadrement juridique, il convient dabord de dterminer si les SALA devraient faire lobjet dune rgle spcifique. Pour ceux qui visent une interdiction totale ou un moratoire pour ce type darme, lon serait tent de rpondre par laffirmative. Cela tant, il est possible de considrer linterdiction des armes causant des maux superflus ainsi que de celles qui frappent de manire indiscrimines comme gnrales et autonomes, sappliquant par consquent en labsence de rgles conventionnelles ou

  • coutumires spcifiques. Elles simposent donc pour le dvelopppement et lutilisation de robots tueurs pleinement autonomes. Et dans ce cadre, on peut considrer que ceux-ci, sils nexistent encore quau stade de la potentialit, ne disposent pas des qualits humaines ncessaires au respect des rgles du droit international humanitaire. Les partisans dune interdiction gnrale ne sont pourtant que peu nombreux, notamment parmi les Etats dont certains, comme les Etats-Unis et Isral, ne sont parties au Protocole additionnel (I) aux conventions de Genve de 1949. Les dpenses militaires augmentent dans le monde, et la robotique militaire nchappe pas la tendance. Il sen suit une vritable course larmement robotis, dans laquelle les puissances ne souhaitent pas tre distances. Les ONG comme la plateforme Stop killer robots ou lInternational Committee for Robot Arms Control (ICRAC), fond par le Pr. N. Sharkey, tentent de mobiliser lopinion civile, qui apparat peu favorable lusage de robots tueurs peut-tre faut-il y voir un effet Skynet -, autour dune interdiction prventive qui ne viserait cependant que les systmes darmements robotiss pleinement autonomes. En ltat, il semble bien que si les Etats sont en capacit de fabriquer des armes robotiss, qui leur offrent un avantage comparatif sur le plan militaire dans un contexte de restrictions budgtaires, ils le feront. Par ailleurs, les progrs technologiques en matire civile et les avances militaire sont si troitement imbriqus que linterdiction indistinctives des SALA, perue comme un potentiel frein aux premires ne parat que peu probable dans limmdiat. Cette image positive associe l'innovation pourrait galement influer l'opinion publique, tout comme le langage antropomorphe utilis par les industriels propos des robots. B/ Un probable moratoire aux effets limits linstar du CICR, qui se dit proccup mais adopte une posture de prudence en ne sassociant pas avec les initiatives visant l'interdiction, la majorit des Etats ayant donn leur opinion expriment des rserves sur le dveloppement de robots tueurs , et se prononcent, tantt pour un approfondissement de la reflexion commune, tantt pour un moratoire reprenant leur compte les conclusions du Rapporteur spcial des Nations Unies pour les excutions extrajudiciares. Celui-ci a en effet appel un moratoire sur le dveloppement et lutilisation des SALA jusqu adoption dun cadre juridique pertinent. Lon

  • verra si certains Etats tentent, cette occasion, de faire voluer des rgles bien ancres dans le droit international humanitaire gnral, tel que le principe de proportionnalit et celui de prcaution dans l'attaque. Le cadre de la convention sur les armes dtes inhumaines parat un cadre pertinent aux ngociations, en ce quy sont parties les principaux intresss. Lon peut toutefois le considrer comme trop restrictif, tout comme le mandat donn aux experts qui viennent de se runir. Dabord quant au choix de viser les seules technologies mergentes, ce qui vacue des expertises les conflits existants sur lencadrement juridique des armes autonomes les plus couramment utilises, dveloppes et produites, savoir les drones. Ensuite, en ciblant les dbats sur un type spcifique darmement, les robots pleinement autonomes, qui nexiste pas et dont le dveloppement ne parat actuellement gure envisag par des Etats partisans de conserver a minima une supervision humaine dans la boucle". La prise de risque est matrise et les chances de succs plus grandes. Ces armes paraissent ainsi faire consensus contre elles, mais ltendue de la dfinition retenue fera lobjet de dbats. Pour le reste, et au vu du rapport de clture de la runion des experts, il semble que les discussions naient que peu abouti des positions communes. Entre proccupations humanitaires et ncessits de dfense , le dveloppement darmes autonomes robotises appelle pourtant des rponses qui ne se limitent pas la simple technique juridique, ni au seul droit des armes.

    Quelhas Daniela, La troisime commission de lAssemble Gnrale de lONU, sige du premier dbat intertatique sur lusage des drones arms , Bulletin Sentinelle, n372, 12 janv. 2012 Quelhas Daniela, La prolifration des robots tueurs quelques problmes juridiques et thiques , Bulletin Sentinelle, n352, 16 juin 2013 Quelhas Daniela, La doctrine des Etats-Unis en matire d'emploi des drones de combat et son volution rcente , Bulletin Sentinelle, n351, 9 juin 2013