Upload
ngodien
View
214
Download
0
Embed Size (px)
Citation preview
Couverture et page de titre : © F.-F. FLUCK/IGG/UniNE • 2017
L’esthétisation en page de titre propose une représentation tant des hotspots que des
individus à risque que réalisent les logiciels de police prédictive selon une logique
d’arborescences suspicionnaires. La petitesse du code binaire cherche à créer une
impression de brouillage pour illustrer la grande quantité des données que mobilise le
Predictive Policing ainsi que l’opacité de ces systèmes.
CHAMPS DISCIPLINAIRES • #géographiepolitique #surveillancestudies #criminologie
#softwarestudies #philosophie #sociologie #SHS #STS1
CLÉS CONCEPTUELLES
« Donné » préliminaire au Predictive Policing • #sociospatialité #liquidité
#normativité #intentionnalité #rationalité
Concepts centraux • #agency #médiateur #dispositifsociotechnique
#surveillantassemblage #gouvernementalitéalgorithmique
Effets du Predictive Policing • #performativité #incertitude #réflexivité #adaptabilité
MÉTHODOLOGIES • #ANT2 #méthodesqualitatives #représentationgraphique
Remarque : dans un souci de confort de lecture et d’appréhension du document,
celui-ci propose une amélioration des normes graphiques édictées par l’UniNE. Il en
demeure que le contenu propre en terme de quantité de texte s’accorde aux
exigences de l’UniNE en matière de projet de thèse.
1 Science and technology studies
2 Actor Network Theory ou Théorie de l’acteur-réseau
« I
mag
ine
r, c
’est
(…)
ha
usse
r le
ré
el d
’un
ton
. »
Ga
sto
n B
AC
HE
LA
RD
(1
950
[1
943
] : 9
7)
« W
ha
t m
att
ers
is n
ot so
much a
qu
estio
n o
f w
he
the
r o
r h
ow
th
e w
orld
is m
ore
da
nge
rous, m
ore
un
ce
rta
in,
or
less s
afe
bu
t h
ow
sp
ecific
re
pre
se
nta
tions o
f risk,
un
ce
rta
inty
, d
ang
er,
an
d s
ecu
rity
are
dis
tin
ctive
ly w
ritin
g t
he
co
nto
urs
of
tha
t w
orld
. »
Lo
uis
e A
MO
OR
E (2
01
3 :
7)
« A
ujo
urd
’hu
i, la
te
chn
icité t
end
à r
ésid
er
dan
s le
s e
nse
mb
les ;
elle
pe
ut a
lors
de
ve
nir
un
fon
de
me
nt d
e la
cu
ltu
re à
la
que
lle e
lle a
pp
ort
era
un p
ou
voir
d’u
nité
et
de
sta
bili
té, e
n la
re
nd
an
t ad
éq
uate
avec la r
éa
lité
qu
’elle
exp
rim
e e
t qu
’elle
rè
gle
. »
Gilb
ert
SIM
ON
DO
N (1
98
9 [
19
58
] :
16
)
« C
od
e/s
pace
occu
rs w
he
n s
oft
ware
and
the
sp
atia
lity o
f every
day life
be
com
e m
utu
ally
con
stitu
ted,
tha
t is
, p
rod
uce
d th
rou
gh
on
e a
no
the
r. »
Ro
b K
ITC
HIN
et
Ma
rtin
DO
DG
E (
20
11
: 1
6)
« T
ou
t se
passe
com
me
si la
te
ch
niq
ue
, e
n s
’au
ton
om
isa
nt
tou
jou
rs p
lus,
accom
plis
sait u
n p
roje
t con
sis
tan
t à
se
fa
ire le
de
stin
inh
um
ain
qu
i d
éch
arg
e e
nfin
l’hum
anité
du
fa
rde
au
de la
lib
ert
é e
t d
e l’a
uto
no
mie
. »
Je
an
-Pie
rre
DU
PU
Y (20
02
: 7
7)
Table des matières
Avant-propos ......................................................................................................................... vi
Résumé ....................................................................................................................................... vi
Appréhension du document ............................................................................................. vii
1. DÉFINITION ET ÉMERGENCE DE LA POLICE PRÉDICTIVE ...................................... 1
2. LE « DONNÉ » DU PREDICTIVE POLICING : LOGIQUES, PRINCIPES ET
IMPLICATIONS ................................................................................................................... 3
2.1. Logiques techniques et sécuritaires .............................................................. 3
2.1.1. Gémellités avec un régime de surveillance numérique galopant .................. 3
2.1.2. Faire parler les traces : de la statistique dirigée par l’homme à
l’intelligence artificielle ....................................................................................................................... 4
2.1.3. Le data double : préliminaire du profilage ............................................................ 6
2.1.4. Les « arborescences suspicionnaires » .................................................................... 8
2.2. Principe de précaution vs Principe d’innovation : Comment penser
l’incertitude dans un réel fondamentalement contingenté ? ................................ 9
2.2.1. L’abrogation de l’incertitude : le grand projet prédictif ? .............................. 9
2.2.2. L’incertitude entraînée par la technologie ......................................................... 10
2.2.3. Le Predictive Policing en tant qu’assemblage complexe : une source
d’incertitude amplifiée ......................................................................................................................11
2.3. Un système nourri de subjectivités et aux implications performatives
11
2.3.1. L’immanence des subjectivités dans le Predictive Policing ..........................11
2.3.2. Performativité du Predictive Policing et entrée en résonance avec ses
subjectivités intrinsèques : les gênes de la faillibilité ? ...................................................... 12
3. NOTRE APPRÉHENSION DU PREDICTIVE POLICING : EXPLICITATION DE LA
DÉMARCHE DE RECHERCHE ............................................................................................. 15
3.1. Le Predictive Policing : un dispositif sociotechnique empreint de
« gouvernementalité algorithmique » ......................................................................... 15
3.2. Question de recherche et concept central ............................................ 16
3.3. L(es) objet(s) de notre étude : Les « médiateurs » de la police
prédictive .............................................................................................................................. 18
3.4. Le Predictive Policing : un sujet résolument géographique .............. 19
3.5. Méthodologie et terrains envisagés .......................................................... 20
3.5.1. Cadre méthodologique ............................................................................................... 20
3.5.2. Ciblage de terrains....................................................................................................... 23
4. BIBLIOGRAPHIE ................................................................................................. 24
vi
Avant-propos
Ce document projectualise le travail de thèse de doctorat que j’ai engagé en août
2016 sous la direction de Francisco R. KLAUSER. Cette entreprise ayant pour sujet la
police prédictive s’inscrit dans le domaine de la géographie politique de la
surveillance et des technologies disruptives et a vocation à se réaliser à la Faculté
des Lettres et Sciences Humaines de l’Université de Neuchâtel. Le comité de lecture
ayant validé ce document se compose des Professeurs Francisco R. KLAUSER
(Chaire de Géographie politique/UniNE), Dominique CARDON (Medialab/Sciences Po)
et Olivier SOUBEYRAN (UMR PACTE/IGA/UGA3).
Résumé
Ce travail appréhende l’objet Predictive Policing par le prisme de son fonctionnement
intrinsèque et de ses effets sociospatiaux.
Il s’inscrit dans un contexte de développement inflationnaire des technologies
numériques et des données situées et temporalisées qu’elles produisent et analysent
dans nos sociétés contemporaines.
Le Predictive Policing est la pratique consistant, pour des policiers à appuyer leur
activité sur l’utilisation de superordinateurs qui agrègent des Big Data et modélisent la
prévision d’infractions futures.
Ces dispositifs revêtent différentes modalités d’applications qui questionnent la place
de ces systèmes computationnels et les effets qu’ils produisent sur les logiques
d’actions des forces de police.
L’étude de ces technologies émergentes et de leur usage requière une attention toute
particulière en cela qu’elles sont porteuses d’enjeux, d’opportunités et de menaces et
que saisir ce monde qui vient est fondamental pour en tirer le meilleur parti.
3 Unité mixte de recherche Politiques publiques, Action politique, Territoires/Institut de
Géographie Alpine/Université Grenoble Alpes.
vii
Appréhension du document
Nous présentons ici la logique d’organisation de ce document afin d’en rendre
intelligible son agencement.
La première partie situe et définit brièvement la « police prédictive ».
La deuxième partie détaille ce sur quoi s’appuie le Predictive Policing et les effets
qu’il est susceptible de produire. Nous précisons d’abord le cadre dans lequel il
s’inscrit – celui d’une surveillance contemporaine exacerbée – puis nous détaillons
les technologies et leurs logiques qui rendent possible le ciblage de personnes et de
lieux sur lesquels s’appuie cette forme de police proactive (sous partie 2.1.). Le
rapport à l’incertitude et sa gestion constitue l’objet de la sous partie suivante (2.2.). Il
nous parait primordial d’insister sur cette dimension intrinsèque à la prédiction et d’en
relever certaines de ses contradictions : l’opposition entre « principe de précaution »
et « principe d’innovation » ou le fait que malgré son ambition de dissoudre
l’incertitude, de nouvelles formes d’incertitude émergent de par la nature des
technologies et des montages sur lesquels elle s’appuie. La sous partie 2.3. cherche
à rendre attentif notre lecteur au caractère « construit socialement » des systèmes
que nous étudions. Ceux-ci sont en effet habités de subjectivités qui provoquent des
biais potentiels. Nous présentons ensuite les effets performatifs que la police
prédictive peut occasionner en insistant sur les effets multiplicateurs potentiels par
l’adossement des subjectivités aux performativités.
La partie suivante (3.) précise notre posture de recherche. Nous choisissons
d’appréhender la police prédictive sous l’angle du concept de « dispositif
sociotechnique » que nous complétons par le concept de « gouvernementalité
algorithmique » afin de souligner le pouvoir singulier des technologies de la police
prédictive (sous partie 3.1.). « Dispositif sociotechnique » nous offre de nous plonger
dans toute la complexité – actorielle, technique, organisationnelle, etc. – que revêt
notre sujet. La sous partie 3.2. présente le questionnement au cœur de notre
recherche : « Comment les acteurs “composent” au sein du dispositif de Predictive
Policing ? ». Pour répondre à cette question, nous mobilisons le concept de
« médiateur ». Nous considérons nos « objets » – policiers, interfaces informatiques,
algorithmes, etc. – comme des médiateurs : ils rendent possible, modèlent,
contraignent, etc. l’expression de la police prédictive. Décomposer le système en une
multiplicité de médiateurs permet d’étudier la nature des rapports de pouvoir, des
négociations, des tensions qui s’opèrent pour comprendre la coproduction du
phénomène Predictive Policing. Vient ensuite – en sous partie 3.3. – un inventaire
préliminaire de la diversité des médiateurs que nous ciblons à ce jour et dont nous
ambitionnons l’étude. Enfin, la sous partie 3.4. met en exergue la géographicité de
notre sujet.
Pour résumer, la partie 1 introduit notre sujet, la partie 2 présente des principes,
effets et logiques opératoires que nous décortiquons ensuite au prisme des cadres
conceptuels et des médiateurs que nous identifions en partie 3.
1
1. DÉFINITION ET ÉMERGENCE DE LA POLICE PRÉDICTIVE
Il est convenu que le travail du policier s’appuie sur une empirie et une expertise
singulière. Elles se nourrissent de l’expérience et de la pratique du terrain que
viennent appuyer les théories de la criminologie tout en mobilisant l’intuition des
agents.
Cependant, l’expansion des technologies informatiques ces dernières décennies
contrarie cette acception de la pratique policière. De fait, les forces de police
archivent depuis longtemps les statistiques d’infractions. L’appétence de la police
pour les données (HAGGERTY & ERICSON 2000 : 610, 616, LYON 2007 : 4),
l’amélioration constante des capacités d’enregistrement et de calcul au travers du
matériel informatique ainsi que l’explosion de la disponibilité de données
géolocalisées ces dix dernières années amènent les policiers à transformer leurs
pratiques de maintien de l’ordre. À ce titre, on considère ces technologies de récolte
et de traitement des données comme des « médiateurs » aux côtés desquels les
policiers et data analysts sont amenés à composer.
Le virement contemporain majeur qui constitue l’objet de notre étude réside dans ce
qu’on appelle la « police prédictive ». Opérant un renversement d’une pratique
policière réactive vers une pratique proactive4 (COSTANTINI 2017, PERRY et al. 2013 :
iii), le Predictive Policing5 ambitionne de prévoir la production d’infractions futures au
moyen du médium computationnel.6 Plus concrètement, il s’agit pour les policiers
d’organiser leur activité en prenant en compte les analyses et recommandations des
logiciels de Predictive Policing. Ainsi, des policiers peuvent par exemple être aiguillés
en temps réel vers certaines zones d’une ville au moyen d’un ordinateur embarqué
présentant des modélisations cartographiques évolutives. Ces logiciels abondés de
données et dirigés par des algorithmes plus ou moins complexes proviennent
généralement d’entreprises marchandes bien que la tendance soit au développement
des montages public/privés7.
4 La police réactive agit à posteriori, après la réalisation d’une infraction tandis que la police
proactive s’inscrit dans une dialectique prévision-préemption.
5 Nous préférons l’appellation anglo-saxonne de ce concept provenant des États-Unis, plus
répandue que sa traduction « police prédictive ».
6 « Predictive policing refers to any policing strategy or tactic that develops and uses
information and advanced analysis to inform forward-thinking crime prevention. » (MORGAN,
cité par UCHIDA 2009 : 1)
7 Sont susceptibles d’intervenir dans le design de ces « solutions » des entreprises
spécialisées dans le hardware (matériel informatique) et le software (logiciels) à l’instar
d’IBM, des pure players (les entreprises qui vendent uniquement des services
informatiques) telles que Google, des acteurs du milieu académique (ex : laboratoires
d’Écoles d’ingénieurs), des divisions des services de police et de sécurité intérieurs
spécialisés dans l’« intelligence informatique », etc.
2
Empruntant aux verbiages foucaldien et latourien, nous pensons l’objet Predictive
Policing en tant que « dispositif sociotechnique » en cela qu’il fait intervenir des
hommes mais aussi des matérialités 8 complétés par des jeux d’acteurs et des
rapports de force à priori complexes. Ce dispositif s’appuie sur des techniques de
surveillance (FOUCAULT 2004 [1977-1978] : 4).
Une des finalités de cette recherche est d’offrir un cadre réflexif9 le plus impartial
possible permettant aux acteurs de penser les meilleures modalités de déploiement
de ces technologies. Il s’agit pour nous d’analyser le « système » Predictive Policing
pour en proposer des régulations qui respectent les personnes, les temps et les
espaces. Le Predictive Policing est aujourd’hui techniquement possible, est-il audible
et souhaitable pour autant ?
Ci-après, nous proposons une représentation simplifiée de la logique opératoire type
des logiciels de police prédictive
Figure 1 : agrégation des données, traitements prédictifs, ciblage spatial ou individuel
8 Les senseurs (bruit, météo), les ordinateurs mobiles, les salles de contrôle ou encore les
serveurs informatiques incarnent une partie de ces matérialités.
9 Présentement, notre usage du vocable « réflexif » désigne simplement ce qui a trait à la
réflexion.
3
2. LE « DONNÉ » DU PREDICTIVE POLICING :
LOGIQUES, PRINCIPES ET IMPLICATIONS
2.1. Logiques techniques et sécuritaires
2.1.1. Gémellités avec un régime de surveillance
numérique galopant
Pour bien comprendre le Predictive Policing, il nous incombe de le situer dans un
contexte actuel d’accroissement de la surveillance qui s’appuie sur l’explosion des
données massives10. Nous définissons en premier lieu la surveillance comme suit :
« a mode of governing the everyday that relies on systematic and routines techniques
of attention, focusing on human or non-human objects » (KLAUSER 2017 : 19).
Bien que la surveillance basée sur les technologies informatiques ait cours depuis la
guerre froide (OGURA 2006 : 272) et a été amplifiée dans un contexte post
11/09/2001 (DALBY 2015 : 676, MCCULLOCH & WILSON 2015 : 3, SADIN 2010 : 229),
nous nous devons d’insister sur le caractère massif et paradigmatique qu’elle revêt
aujourd’hui eu égard à l’expansion du numérique. La pénétration des technologies
dans les villes (SHELLER 2006 : 44) et notre propension à nous seconder des
« prothèses numériques » est à l’origine d’un « magma immatériel à prolifération
exponentielle induit par leurs usages » (SADIN 2015 : 19). Ce « technospace »
(SHELLER 2006 : 44) repose sur l’« exploitation industrielle, systémique et
systématique des rétentions tertiaires numériques » (STIEGLER 2015 : 57) ainsi que
sur la « généralisation de la calculabilité et la systématisation de la politique des
indicateurs » (CARDON 2015 : 9).
Ces considérations nous amènent vers des acceptions de la surveillance basée sur la
collecte et l’analyse en continu (LESZCZYNSKI 2016 : 4) des données – ou
métadonnée pourrait-on dire dans la mesure où ces traitements s’appuient sur des
traces contextuelles – (HAGGERTY & ERICSON 2000 : 611) : « data-based
surveillance » (MATZNER 2016 : 197), « dataveillance » (ROUVROY & BERNS 2013 :
168), « société d’hypercontrôle » (STIEGLER 2015 : 35), « surveillance society » (LYON
2007 : 7). Empruntant le vocabulaire foucaldien, SADIN évoque un « “panoptisme
planétaire” , chargé […] de situer les individus sur des “abscisses électroniques” , à
l’intérieur d’un quadrillage systématisé dépourvu de “trous”, par le fait de la
couverture satellitaire globale » (2015 : 169, 2010 : 39), et composé d’un « faisceau
de strates au spectre global, […] toujours plus densifié et clairvoyant » (2010 : 57). À
la métaphore du panoptique, nous préférons cependant la figure deulezo-
guattarienne du rhizome que proposent HAGGERTY et ERICSON pour qualifier la
10
« Données massives » ainsi que « mégadonnées » constituent des francisations de Big
Data. Cinq « V » sont régulièrement invoqués pour caractériser les Big Data : variété,
volume, véracité, vélocité et valeur. Et BOGDANOSKI de rajouter « Big Data is when the size
of data became part of the problem. » (2017)
4
surveillance contemporaine (2000 : 617). Ouverture du réseau, anastomose, limites
floues, faible niveau de hiérarchisation, haut niveau de connexité le qualifient (LEVY &
LUSSAULT 2003 : 804). Cette symbolisation nous semble plus à même de caractériser
la nature fluctuante, mouvante, évolutive de cette forme de surveillance qui instille
une « cartographie détaillée et opérée en temps réel du cours de nos existences
individuelles et collectives » (BOYER 2015 : 67). De plus, l’image du panoptique
implique l’idée d’une centralisation qui ne correspond pas forcément à la réalité de
par la multiplicité et la propriété parfois partagée des sources de données.
Nous exposons les caractéristiques de ce régime de surveillance en cela qu’il
constitue un terreau qui favorise le développement des technologies de police
prédictive et dans lequel elles peuvent puiser. Les données qui potentiellement
alimentent les systèmes prédictifs proviennent de l’internet des objets – smartphones,
capteurs embarqués (automobile, domotique, télévision) –, des senseurs qui
mesurent nos espaces – trafic, météo, sons, présence –, de l’analyse des navigations
internet – extraction de sites et de réseaux sociaux – et, bien sûr des statistiques
policières propres. Ce constat que nous dressons témoigne de tendances à l’œuvre.
Il s’exprime de façon différenciée dans les espaces avec une prévalence dans les
métropoles occidentales.
2.1.2. Faire parler les traces :
de la statistique dirigée par l’homme à
l’intelligence artificielle
Traditionnellement, la production de connaissances statistiques suit une logique
hypothético-déductive : le statisticien formule des hypothèses que l’on va attester ou
démentir suivant des calculs dirigés dans des bases de données. Ce mode opératoire
est utilisé dans une partie des systèmes de Predictive Policing.11 La formulation de
ces hypothèses et la nature des traitements dirigés renferme des normativités, des
rationalités et des intentionnalités : il n’existe pas une méthode exacte mais plutôt un
panel de traitements et d’interprétations possibles.
Face à cette première approche de production d’information appliquée à la police
prédictive, une seconde logique opératoire en plein boom requière toute notre
attention en ce qu’elle implique pour la place de l’homme et pour la caractérisation
des objets sur lesquels le Predictive Policing agit : « Advances in task-based artificial
intelligence, machine learning and neural network computation are radically
11
Prenons l’exemple d’un agent en charge de la police prédictive dans son département : il
mobiliserait dans cette approche statistique un certain nombre de variables internes et/ou
externes : occurrences spatiales des cambriolages, occurrences temporelles, type de
zones dans lesquelles se sont produites les infractions… À partir de cette sélection de
données, le policier en vient à mener des analyses statistiques (analyse en composantes
principales, droites de régressions, analyses de variance…) visant à comprendre les
dynamiques d’entraînement interfactorielles afin d’adapter l’action policière.
Dans ce mode de faire, les hypothèses émises par le statisticien peuvent être confirmées
ou infirmées. La place de l’homme reste primordiale : c’est lui qui commande la machine.
5
reshaping practices of securization and instituting new logics for the governing of
populations » (AMOORE & RALEY 2017 : 4, GROBELNIK 2017).
Nous parlons ici des technologies auto-apprenantes de l’intelligence artificielle12. On
définit l’apprentissage profond comme le « traitement effectué par un grand nombre
de neurones artificiels qui, par leurs interactions, permettent au système d’apprendre
progressivement à partir d’image, de textes ou d’autres données » (BENGIO 2016 :
44). Concrètement, on nourrit des superordinateurs de statistiques variées afin qu’ils
identifient des distributions de façon autonome (CUKIER 2016). Ces traitements sans
« ciblage préalable » qui impliquent de « ratisser le plus grand nombre possible
d’indices de tout ordre » (SADIN 2010 : 147) opèrent une vraie révolution par rapport
aux approches statistiques classiques en cela qu’elles fonctionnent suivant une
logique inductive. On confie alors aux algorithmes la tâche de révéler des corrélations
insoupçonnées (MATZNER 2016 : 199, ROUVROY & BERNS 2013 : 170, 180, SADIN
2010 : 146, STIEGLER 2015 : 95, TAYEBI & GLÄSSER 2016 : 8). Cette rationalité
algorithmique inductive (ROUVROY & BERNS 2010 : 91, 92) qui part des
« conséquences aux causes probables » (CARDON 2015 : 39, 41) s’enorgueillit de
« “saisir” la “réalité sociale” comme telle » (ROUVROY & BERNS 2013 : 165) et vient
substituer l’expertise calculatoire à l’autorité professionnelle (CARDON 2015 : 43).
Cette délégation du ciblage 13 pose la question fondamentale de la place de la
machine qui semble s’arracher de la main humaine.14
Nous rappelons que les systèmes prédictifs à priori les plus performants et en même
temps les plus problématiques en ce qu’ils charrient d’incertitude15 s’inscrivent dans
un triptyque réunissant disponibilité massive de données – les Big Data –,
amélioration des capacités computationnelles 16 et technologies type Deep
Learning 17 (GROBELNIK 2017). Nous définissons le « Deep Learning » comme la
12
L’apprentissage automatique principalement, il s’inscrit dans le cadre général du Deep
Learning ou apprentissage profond. La nébuleuse de l’intelligence artificielle regroupe un
ensemble de techniques telles que le machine learning, le cognitive computing, le
connexionnisme (et ses réseaux convolutifs), le knowledge discovery, le semantic analysis,
le deep text understanding ou encore le pattern recognition.
13 Le système cible des probabilités qui qualifient les individus selon un degré de suspicion
ou les espaces selon leur potentiel de risque par exemple.
14 Nous tempérerons cette considération ultérieurement car la « machine » renferme des
intentions et des idéologies provenant de ses programmeurs.
15 Nous préciserons cet aspect plus tard.
16 Cette composante est strictement matérielle : la baisse des coûts en parallèle de la
montée en performance sont des constantes dans l’informatique qui rendent sans cesse
plus accessibles ces technologies (puissance des cartes graphiques, vélocité des disques
durs Solid State Drive, moindre coût des serveurs et du cloud…).
17 Le domaine de l’intelligence artificielle vit un vrai renouveau ces dernières années. On
parle à ce titre de « Printemps de l’intelligence artificielle ». Il en demeure que d’immenses
progrès restent à accomplir notamment en terme d’apprentissage non supervisée, le
domaine le plus à même d’opérer des prédictions mais qui reste peu maîtrisé.
6
« récente aptitude qui conçoit le langage de programmation, non plus comme
déterminant de part en part le “comportement” d’un système, mais comme un premier
socle à partir duquel son niveau de compétence va régulièrement s’améliorer au long
de ses “expériences” » (SADIN 2016 : 98) ; et l’auteur, critique, de nous mettre en
garde quant à une « sournoise et massive “passation de pouvoir” de la raison
humaine à des systèmes chargés d’éclairer de leurs “lumières” des pans sans cesse
plus étendus de nos existences » (2016 : 104).
Nous nous devons cependant de modérer l’optimisme autour du Big Data et de
l’apprentissage profond. D’une part l’utopie de systémisme par l’exhaustivité des
données que semble sous-tendre l’idée des mégadonnées n’est jamais totale et
produit inexorablement des analyses incomplètes (MATZNER 2016 : 202). D’autre part,
la principale difficulté à laquelle est confronté le Deep Learning appliqué au Predictive
Policing réside dans le fait que la machine n’est pas douée d’abstraction (BOURGOIN
2016, LE CUN 2016, RENUCCI 2016 : 158) ; l’intelligence artificielle ne saisit pas la
complexité des contextes comme le ferait un homme (CARDON 2015 : 59), au risque
de produire des analyses faillibles.
Ces développements technologiques dont s’emparent des systèmes de surveillance
et de Predictive Policing proviennent du marketing ciblé (HAGGERTY & ERICSON 2000 :
617, LYON 2007 : 2, OGURA 2006 : 271, SADIN 2015 : 167, 2010 : 122, STIEGLER
2015 : 125, WILSON 2017), du domaine militaire (KLAUSER 2017 : 97, LYON 2007 : 4,
MCCULLOCH & PICKERING 2009 : 629, RAUFER 2016 : 111, SADIN 2010 : 43) et de la
lutte antiterroriste (AMOORE 2013 : 4, MCCULLOCH & PICKERING 2009 : 632).18 Les
pratiques de dual use19 (SADIN 2010 : 43) et de l’Information Sharing20 (BONDITTI
2005 : 9) posent la question du risque d’une surveillance amplifiée par l’hybridation
des sphères de la police et de la sécurité intérieure (MCCULLOCH & PICKERING 2009 :
636).
2.1.3. Le data double : préliminaire du profilage
Nous évoquions précédemment la mise à profit de technologies algorithmique21 qui
ont vocation à mettre en exergue des associations et, par extensions des tendances,
des modélisations dans les systèmes prédictifs. Car en effet, le matériau premier de
la création de pattern22 est la relation (TAYEBI & GLÄSSER 2016 : 2, ZWITTER 2014 : 2).
18
Il nous incombe aussi de signaler le « projet cybernétique » dont on situe l’âge d’or à la
fin des années quarante, non aboutie faute de « maturité technique » (SADIN 2016 : 105).
19 Soit la mobilité de l’expertise de traitement informationnel du militaire vers la sureté
territoriale.
20 La mutualisation d’informations entre agences de sécurité et public/privé.
21 Derrière cette appellation barbare, le simple traitement informatique opéré par des
logiciels.
22 Ce vocable anglais signifie « modèle ». Il est largement utilisé dans la littérature
spécialisée d’où notre emploi de sa version originale.
7
Ces données relationnelles permettent de catégoriser des personnes ou des objets23
selon une approche corrélationniste. Vulgairement et pour illustrer un écueil dans
lequel certains logiciels Predictive Policing peuvent tomber : si j’habite un quartier
défavorisé, ou si mes contacts email possèdent un casier judiciaire ; mon « degré de
dangerosité » quantifié sera modulé en conséquence, et même dans le cas où je n’ai
jamais commis d’infraction. « Data that is collected at one place and from a particular
set of persons, constributes to assessing and judging different persons in different
places » (MATZNER 2016 : 204, ROUVROY & BERNS 2010 : 92).
Le data double vient aussi alimenter la représentation qu’exposent les logiciels
prédictifs de mon individualité, de mes comportements, de mon penchant
criminogène. Cette ombre numérique – sorte de « double statistique des sujets »
(ROUVROY & BERNS 2013 : 167) –, glanée à partir des signaux et des traces du
monde numérique alimente des systèmes computationnels selon des logiques de
classification, de tri social et d’archivage (BERTHIER 2014, BOURMEAU 2016,
HAGGERTY & ERICSON 2000 : 613, SADIN 2015 : 59, 2010 : 109, 111, 115, STIEGLER
2015 : 204).
Sur la figure suivante, nous proposons des représentations d’une part de la constante
reconfiguration de notre data double – les datas double sont figurés sous l’apparence
de « tâches profilaires » afin de mettre en exergue la dimension fondamentalement
mouvante de celles-ci – et d’autre part de l’hybridation de notre data double avec
celui de tierces personnes physiques ou morales. 24 ROUVROY nous dit que la
« mémoire digitale » est « éminemment mobile, se réorganisant constamment en
temps réel, répondant principalement aux impératifs de pertinence et de vitesse alors
que deviennent inopérants les critères de vérité, d’objectivité, de diversité, de critique
et de profondeur historique propres à l’évaluation de la mémoire humaine » (2010 :
63)
23
Par exemple un lieu, une saison, un type d’action, un comportement…
24 Ce schéma s’inspire de la vidéo « What are digital traces ? » de l’organisation ME AND
MY SHADOW. Cette vidéo est visionnable à l’adresse < https://myshadow.org/>.
8
Figure 2 : représentation de l'ombre digitale
2.1.4. Les « arborescences suspicionnaires »
KLAUSER (2013 : 100), MATZNER (2016 : 200), OGURA (2006 : 280) et SADIN (2010 : 146)
nous rappellent que la surveillance est voisine de la suspicion. Cette suspicion
s’opère au regard du data double (LESZCZYNSKI 2016 : 2) et au moyen du social
sorting25 (HAGGERTY & ERICSON 2000 : 611). « Surveillance based on Big Data is the
production of bodies and lives as suspects » (MATZNER 2016 : 209). Ou encore
« data-based verdicts do not only concern who someone is, but who this person will
(potentially) be » (MATZNER 2016 : 203).
L’évaluation des actes et des personnes par des « systèmes techniciens » (ELLUL
2012 [1977])26 qui apprécient notre « dangerosité » supposée (SADIN 2010 : 229)
pose un problème légal de premier ordre. Nous appelons ici la notion de présomption
d’innocence menacée et érodée par le développement des systèmes prédictifs qui
25
Le social sorting – tri social – désigne la catégorisation à partir de données d’un individu
ou d’un groupe.
26 Cet ouvrage classique et avant-gardiste dépeint une vision englobante d’une
« technique » totalisante aux velléités expansionnistes, poursuivant une recherche
effrénée d’efficacité et d’interconnexion.
9
tendent à juger sur des intentions conjecturées et non plus sur des actes avérés
(MCCULLOCH & WILSON 2015 : 8, 47, RENUCCI 2016 : 157).
2.2. Principe de précaution vs Principe d’innovation :
Comment penser l’incertitude dans un réel
fondamentalement contingenté ?
Au travers de cette partie, nous dressons un tour d’horizon du rapport que nos
acteurs entretiennent à l’incertitude en partant du « paradigme » de la réduction de
l’incertitude vers l’incertitude inhérente et charriée par les « technologies disruptives »
pour finir avec son inscription dans le « dispositif sociotechnique » de police
prédictive.
2.2.1. L’abrogation de l’incertitude :
le grand projet prédictif ?
“L’incertitude, c’est à dire l’inconnu quant aux risques encourus et gains à espérer »
(CHALAS et al. 2009 : 10, MCCULLOCH & WILSON 2015 : 36) se situe au cœur de notre
travail. « L’incertitude est synonyme de peur. Rien d’étonnant à ce que nous rêvions
d’un monde dénué de hasard. D’un monde régulier. D’un monde prévisible. »
(BAUMAN 2007 : 124). Au-delà de la rencontre entre opportunités de marché (AMOORE
2013 : 4) et technologies disruptives, le développement des systèmes prédictifs qui
ambitionnent de s’arracher à la contingence (SADIN 2015 : 123) révèle d’autres
référentiels dans lesquels nous évoluons. Nous faisons ici allusion aux paradigmes
de l’efficacité et de l’utilitarisme (TOVAR : 5) qu’incarnent le capitalisme 27 et le
néolibéralisme (ROUVROY 2016 : 35) appuyés par des croyances scientistes
(HOURDEAUX 2015 : 1, MATZNER 2016 : 198, 207, SADIN 2011 : 5, 2015 : 55) et un
prétendu « “naturalisme” des données » (TOVAR : 17).
Le « principe de précaution » – « selon lequel l'absence de certitudes […] ne doit pas
retarder l'adoption de mesures effectives et proportionnées visant à prévenir un
risque de dommages graves et irréversibles » (Loi dite Barnier : 1995)28 – rentre dans
notre cas d’analyse. Être précautionneux, n’est-ce pas arrêter un individu avant qu’il
réalise – potentiellement – un délit hautement dommageable ? Derrière cet axiome il
faut préciser la prégnance du concept d’« acceptabilité sociale » soit, par extension la
matérialisation d’un calcul coût/avantage. Cette composante corrobore la logique
socioéconomique qui légitime et sous-tend le déploiement des solutions Predictive
Policing. Et pourtant, les technologies de police prédictive peuvent produire des
27
Le « capitalisme précognitif » peut-on même dire : celui qui cherche selon SADIN à
déceler nos désirs avant que nous ayons conscience. (SADIN 2011)
28 Cette définition provient du droit français. Ce principe charrie une forte connotation
environnementale. C’est en premier lieu cet objet qu’il cherche à protéger néanmoins la
transposition au travers des technologies sécuritaires que nous étudions nous semble
fertile.
10
externalités négatives dès lors que l’on néglige la prise en compte du principe de
précaution au moment de leurs déploiements.
Face à un principe de précaution débordé par le principe d’innovation29 (MARTIN
2017), nous relevons le paradoxe suivant : tant bien même que des entreprises de
haute technologie s’attèlent à « réduire l’inconnu ou l’inattendu attaché à
l’incertitude » (CHALAS et al. 2009 : 12), elles produisent en parallèle de nouvelles
formes d’incertitudes liées aux technologies qu’elles développent.
2.2.2. L’incertitude entraînée par la technologie
« Nous fabriquons ces calculateurs, mais en retour ils nous construisent. » (CARDON
2015 : 7)
Évoquant MORIN ; CHALAS, GILBERT, et VINCK identifient deux principales sources
d’incertitude contemporaines : la technologie et l’abandon de la tradition au profit de
la modernité (2009 : 10). Nous adaptons aisément cette considération au niveau
technologique avec les avancées que nous avons décrites et, de façon plus cavalière,
nous transposons la tradition à la pratique de police réactive et la modernité à la
police proactive.
Le haut niveau de sophistication peut être vecteur d’incertitude et d’erreurs dans la
prédiction (A. PIELKE JR. et al. 2000 : 369, CHALAS et al. 2009 : 13). En cause : le
traitement de quantités de données dont seules des machines peuvent assurer la
charge et des vitesses de traitement inouïes30 (AMOORE 2016 : 16). Cette dynamique
accélérationniste accentue une dynamique que les hommes n’ont pas la faculté
d’appréhender, produisant ainsi de l’incertitude (CHALAS et al. 2009 : 11). Évoquons
de surcroit le fonctionnement « black box » de ces technologies (EDWARDS & VEALE
2017, WILSON 2017) : comment évaluer la fiabilité d’un ensemble dont on ne peut pas
entrevoir l’activité interne ? Enfin, l’exercice de prospective requiert une
compréhension des contextes et une analyse qualitative que ne maîtrisent pas
encore ces machines prévisionnaires. Penser la rupture, la discontinuité représente
un défi pour ces technologies (ALLOING & MOINET 2016 : 40, 52, ANSERMET 2008 : 2,
TAYEBI & GLÄSSER 2016 : 4) qui « simplifie[nt] un réel infiniment plus complexe » et
tendent à projeter un passé dans l’avenir (RAUFER 2016 : 113).
La « doxa prédictive » prônée par le néolibéralisme et l’incertitude que produisent les
nouvelles technologies s’inscrit dans un cadre plus large encore qui amplifie cette
vulnérabilité : le « dispositif sociotechnique de police prédictive ».
29
Ce deuxième principe est à comprendre comme la liberté pour une entreprise de
développer ses produits et services.
30 A l’image des algorithmes du trading à haute fréquence – un autre type de système
prédictif – où des millions de transactions financières s’effectuent à la seconde.
11
2.2.3. Le Predictive Policing en tant qu’assemblage
complexe :
une source d’incertitude amplifiée
« The dynamic nature of risk means that even while risk reduction or mitigation
strategies aim to create a sense of certainty, they generate new levels of uncertainty
and new risks. » (MCCULLOCH & WILSON 2015 : 37)
La complexité du Predictive Policing en tant que « surveillant assemblage »
(HAGGERTY & ERICSON 2000) ou dispositif sociotechnique œuvre en faveur d’une
extension des niveaux d’incertitudes évoqués précédemment : ce système constitue
le point d’achoppement d’acteurs, de discours, de contextes, d’objets aux logiques
d’actions, de pouvoir, de collaboration hétérogène (AMOORE 2013 : 5). Ce réseau
mixte, enchevêtré, composite implique une incertitude épistémique de par ses nature
(A. PIELKE JR. et al. 2000 : 367). En cas de dysfonctionnement, quelle est la résilience
du système ? Les responsabilités sont-elles systématiquement et clairement
réparties ? Nous postulons que ce dispositif peut produire des effets non-désirés, des
« wicked problems » 31 eu égard de ses propriétés immanentes. Finalement,
l’« improvisation » pourrait-elle constituer une réponse à l’incertitude dans des
situations où se croisent conséquences non-intentionnelles et actions non-
intentionnelles, comme le suggère SOUBEYRAN (2015) ?
2.3. Un système nourri de subjectivités et
aux implications performatives
2.3.1. L’immanence des subjectivités dans le Predictive
Policing
« L’objet qui sort de l’invention technique emporte avec lui quelque chose de l’être qui
la produit (…) on pourrait dire qu’il y a de la nature humaine dans l’être technique, au
sens où le mot de nature pourrait être employé pour désigner ce qui reste d’or iginel,
d’antérieur même à l’humanité constitué en l’homme » (SIMONDON 1989 [1958] : 248).
Dans cette recherche, nous ambitionnons d’étudier quelles sont les normativités32, les
subjectivités et les intentionnalités que charrie le code33 qui dirige le fonctionnement
31
« Wicked problem », traductible en « problèmes pernicieux » est une expression qui
provient des recherches en environnement et en climatologie faisant allusion à la
complexité des effets entraînés par le réchauffement global en cela qu’ils alimentent des
boucles de rétroaction positives et négatives, agissent sur une quantité colossale de
variables et en cela sont très difficilement modélisables et impliquent un haut degré
d’incertitude.
32 « Normativité », « ce qui est intrinsèque à la loi » nous dit FOUCAULT (2004 [1977-1978] :
58). Nous élargissons cette acception aux différentes règles et lois qui construisent nos
identités : religion, milieu social, culture, etc.
12
des systèmes Predictive Policing. Nous considérons que les normativités et les
subjectivités imprègnent des idéologies qui se traduisent en intentions. Face aux
argumentaires en faveur de la police prédictive qui soutiennent que ces systèmes,
par leur « télé-objectivité », leur adossement stricte aux données collectées
factuellement reflètent une réalité de façon impartiale à partir de laquelle des
recommandations détachés des biais interprétatifs humains émanent (PÖCHHACKER
2016 : 14), nous partageons l’idée selon laquelle le code source à la base de ces
systèmes renferme des subjectivités, des normativités, des rationalités et des
intentionnalités34 potentiellement faillibles et dommageables à des personnes et/ou à
des espaces. Le code n’est pas neutre ! (WILSON 2017) Il nous apparaît donc
primordial d’étudier ces aspects idéels voire les idéologies 35 que renferment les
algorithmes à la base des softwares de police prédictive : peuvent-t-ils être éthique
ou au contraire discriminants ? Apporter une réponse manichéenne serait surement
prématuré et faux.
2.3.2. Performativité du Predictive Policing
et entrée en résonance avec ses subjectivités
intrinsèques : les gênes de la faillibilité ?
« À l’assignation rigide de ses propres traces, au titre d’un destin identitaire suggérant
une lisibilité performative de l’individu profilé, devenant prévisible, correspond un
paradigme dans lequel le réel deviendrait une copie de sa propre image. » (NELSON
et al. 2008 : 546)
Nous voulons disséquer notre objet en sollicitant le concept de « performativité ».
Provenant de la linguistique, ce mot désigne un acte de langage « qui réalise une
action par le fait même de son énonciation » (CNRTL). En cela, nous pouvons
adosser la performativité à différentes composantes 36 des systèmes prédictifs.
Considérant l’autorité accordée à priori au système, celui-ci est performatif dans la
mesure où vraisemblablement nous suivrons ses prescriptions. Cet aspect peut poser
problème si l’on agit sur un individu selon son intention supposée – au travers de son
profil numérique – et non selon la réalisation avérée d’une infraction. Cette évocation
présente une forme de performativité pouvant revêtir des effets d’autant plus
33
Le « code », aussi appelé « code source », « code binaire » ou « code numérique »
désigne dans le langage de programmation informatique les instructions écrites par le
programmeur (ou le codeur) à l’origine du fonctionnement des logiciels. Nous utilisons au
même titre le vocable « algorithme » soit « une série d’instructions [un ensemble de lignes
de code] permettant d’obtenir un résultat » (CARDON 2015 : 7).
34 « La tentative de décrire […] l’algorithmique comme a-théorique et a-politique est en
réalité pure posture politique, voire imposture » (NOYER & Carmes : 2014 : 90).
35 « La technique renferme des idéologies. » (MARTIN 2017)
36 Les données, les interfaces visuelles, le choix des traitements opérés, le simple fait de
souscrire à une solution Predictive Policing… Prenons un exemple : en sélectionnant les
données de vol de voiture au sein du système de police prédictive, les équipiers vont
tendre à traiter tout spécialement ce type d’infractions.
13
considérables que ces systèmes fonctionnent avec un haut niveau d’automatisation :
« Pre-crime “ countermeasures ” “ perform ” crimes that never happened »
(MCCULLOCH & WILSON 2015 : 50). Et LATOUR de nous aider à tempérer notre propos
en nous rappelant, au sujet de l’influence des objets les uns sur les autres, qu’il existe
« de nombreuses nuances métaphysiques entre la causalité pleine et la pure
inexistence » (2014 : 103). Objets de surcroît sujets aux chances et tribulations du
« Je-ne-sais-quoi et [du] Presque-rien » cher à JANKÉLÉVITCH (1983).
Plus généralement est pointé le risque de reproduction du réel selon des boucles de
rétroaction positive (ROUVROY 2010 : 64). Enfin, nous sommes attentifs aux
interactions entre performativité et subjectivités. Les normativités intrinsèques au
système37 s’expriment au travers des recommandations performatives. À l’inverse, les
prescriptions performatives viennent confirmer et/ou façonner nos normativités. Ainsi,
la performativité produit de la normativité et inversement, au risque de poursuivre des
sentiers indésirables.
Enfin, des auteurs mettent en garde sur cette performativité des systèmes38 créatrice
de « new “suspect communities” » à l’instar des jeunes, des immigrés, des minorités,
etc. (MCCULLOCH & WILSON 2015 : 47-48, MONAHAN 2010 : 97, TOVAR : 16-17), une
performativité qui viendrait finalement confirmer nos préjugés (TOVAR : 17).
Nous illustrons dans les schèmes suivants un écueil performatif dans lequel peuvent
tomber des systèmes de Predictive Policing dès lors qu’ils sont abondés de données
trop partielles et/ou d’algorithmes idéologiquement orientés. Ce diagramme inspiré
des travaux de l’organisation non gouvernementale Human Rights Data Analysis
Group dépeint un biais en comparant deux quartiers ségrégués. La lecture s’opère
comme suit : dans le quartier « noir », les patrouilles sont plus fréquentes entraînant
mécaniquement une comptabilisation plus exhaustive des délits. À l’inverse dans le
quartier « blanc », les infractions sont numériquement plus importantes mais moins
relevées par les autorités de police. À la base de ce différentiel dans l’intervention
des forces de l’ordre, un code informatique qui renferme l’idée selon laquelle la
difficulté économique d’un quartier serait voisine d’une plus grande propension
délictuelle. Même si ce postulat est initialement avéré, il en demeure qu’il entraîne un
accroissement de la surveillance dans ce quartier puis une comptabilisation plus
exhaustive des infractions et donc une caractérisation à priori négative de cet espace.
Nous exemplifions notre propos au moyen d’une opposition quartier noir/quartier
blanc car dans note revue de littérature nous relevons que des biais raciaux sont
susceptibles d’intervenir.
37
Celles dont le codeur est à l’origine.
38 Nous insistons une fois encore sur la variété des performativités que peut exprimer ce
type de dispositif ; la matérialité des objets numériques embarqués par exemple n’est pas
en reste : « For us, devices – mundane, discursive, technical or theoretical – are
performative in that they (re)configure social spaces, (re)draw boundaries and (re)distribute
meanings. » (AMICELLE et al. 2015 : 298)
14
Figure 3 : exemple de boucle de rétroaction performative
Nous voulons également présenter un autre exemple de performativité qui se base
sur la façon dont PredPol® – le leader sur le marché – légitime ses résultats. Le
schéma suivant est à comprendre comme suit : il y a deux entrées – présence
policière et production de délit. Dans le cas où le logiciel prédit un délit, soit la police
intervient soit elle n’intervient pas. Si elle se rend sur le terrain et constate des faits
délictueux, PredPol® est légitimé ; si rien ne se passe, PredPol® est également
légitimé, imputant cela à l’effet dissuasif des forces police. Si le délit se produit sans
qu’un agent ait été affrété, PredPol® a encore raison et enfin, l’absence d’un délit
pourtant anticipé n’entraînant pas la venue de la police n’est tout simplement pas
comptabilisée.
Figure 4 : performativité de la légitimation de la police prédictive
15
3. NOTRE APPRÉHENSION DU PREDICTIVE POLICING :
EXPLICITATION DE LA DÉMARCHE DE RECHERCHE
3.1. Le Predictive Policing : un dispositif
sociotechnique empreint de
« gouvernementalité algorithmique »
Au regard de la complexité technologique, actorielle et matérielle qu’incarnent les
systèmes de police prédictive, nous mobilisons FOUCAULT et LATOUR pour qualifier le
Predictive Policing de « dispositif sociotechnique ». Nous entendons « dispositif »
comme un mode d’organisation évolutif entre des objets variés – discours, intentions,
objets tangibles – qui révèle des rapports de forces et des logiques collaboratives et
qui a vocation à réguler, contrôler et orienter en s’appuyant sur l’action (FOUCAULT
2004 [1977-1978]). Nous pouvons par exemple décliner ce système au regard des
acteurs en présence : public, privé ; individuel, collectif ; des discours : sécuritaire,
économique, technologique ; des logiques d’action : algorithmes, savoir-faire ; des
échelles spatiales et temporelles, etc. Nous raccordons à ce concept les dimensions
« dispositifs sécuritaires »39 et « dispositifs disciplinaires »40 (FOUCAULT 2004 [1977-
1978]).
Nous nous devons cependant de signaler d’autres conceptualisations à même
d’appréhender et de caractériser les systèmes complexes de police prédictive. : le
vocable « agencement » d’après DELEUZE et GUATTARI – « assemblage » en anglais
– qui implique un réseau varié dont le sens commun excède la somme des parties
(PHILLIPS 2006 : 108), et sa transcription féconde pour notre sujet en « surveillant
assemblage » théorisée par HAGGERTY et ERICSON (2000) ; ou encore « prediction
enterprise », « a dynamic social and political milieu » (A. PIELKE JR. et al. 2000 : 362).
Nous pensons ce type d’approches contextuelles et relationnelles du pouvoir comme
étant fructueuse pour étudier la police prédictive car nous gardons à l’esprit que
« responsibility for surveillance is shared by the socio-technical system as a whole »
(KLAUSER 2017 : 27), et KITCHIN et DODGE de considérer l’objet software41 en tant que
« socio-material production » (2011 : 12).
Il en demeure que « Contemporary security decisions are made by a complex
amalgam of human and machine elements. The algorithm is an integral part of human
action and culture » (AMOORE & RALEY 2017 : 7). Par cette citation nous voulons
mettre en exergue le poids croissant du code dans la médiation décisionnelle
qu’opèrent les acteurs de la police prédictive. Nous appelons donc le concept de
39
Primauté d’un réel donné, importance de l’ouverture et de la circulation, dynamique
centripète où l’ensemble de la population est ciblée.
40 Matérialisation d’un « quadrillage » situant les individus selon leurs caractéristiques
propres ; "la discipline comme « mode d’individualisation des multiplicités » (FOUCAULT
2004 [1977-1978] : 14)
41 « Software » est le mot anglais pour « logiciel ».
16
« gouvernementalité algorithmique ». ROUVROY et BERNS la définissent comme « un
certain type de rationalité (a)normative ou (a)politique reposant sur la récolte,
l’agrégation et l’analyse automatisée de données en quantité massive de manière à
modéliser, anticiper et affecter par avance les comportements possibles » (2013 :
173). Cette gouvernementalité algorithmique laisse planer le spectre d’un horizon
machiniste remettant en cause le rôle et l’influence d’un « politique »42 libre arbitre
débordé, attaqué dans ses fondements (BECK 2008 [1986] : 401, 405-406, ROUVROY
2015 : 2, ROUVROY & BERNS 2013 : 171, 183, SADIN 2013 : 32, STIEGLER 2015 : 38,
208) : évocation d’un « positivisme algorithmique » (BOULLIER 2016), approche
solutionniste à grand renforts de datas (CARDON 2015 : 55), « gouvernementalité
anticipatrice » (KLAUSER & ALBRECHTSLUND 2014 : 280) ou encore régime
« subpolitique », politico-scientiste hybridé où la science vient légitimer le politique,
une sorte de « modernité réflexive » selon l’auteur (BECK 2008 [1986] : 400).
3.2. Question de recherche et concept central
Nous présentons la question de recherche suivante :
« Comment les acteurs 43 “composent” 44 au sein du dispositif de Predictive
Policing ? »
Cette question centrale ambitionne de disséquer la façon dont les acteurs humains et
non humains – le code mais aussi les expressions matérielles du système –
s’ajustent et s’agencent les uns par rapport aux autres. En fait, il s’agit d’étudier le
mode de coexistence entre ses objets pour en déceler les tensions qui s’exercent, les
négociations qui se déploient, les stratégies adaptatives qui s’opèrent au travers des
logiques collaboratives et de « pouvoir »45 et l’expression des dépendances46. Nous
rappelons la visée de notre travail : proposer un cadre permettant de réfléchir la mise
en place de ces systèmes en « bonne intelligence » – soit un dosage actoriel
42
Par politique, nous désignons la dimension « projet » dont témoignent les hommes dans
leurs actions.
43 Selon LATOUR, « toute chose qui vient modifier une situation donnée devient un acteur »
(2014 : 103).
44 Partant de notre culture de géographe, nous traduisons le verbe « to cope with »
particulièrement mobilisé dans l’étude de l’adaptation et de l’atténuation au changement
climatique ainsi que dans l’étude des risques naturels pour saisir la façon dont les acteurs
organisent leur logique d’action et s’accommodent face à un « donné » incertain.
45 Le « pouvoir », soit « la manière dont une force ou un ensemble de forces affectent
d’autres forces et comment celles-ci sont affectées » (RAZAC 2008 : 16) ou « un ensemble
de mécanismes et de procédures qui ont pour rôle ou fonction et thème, même s’ils n’y
parviennent pas, d’assurer justement le pouvoir » (FOUCAULT 2004 [1977-1978] : 4).
46 Ex. : entre les prestataires de solutions informatiques et les services de police, entre la
disponibilité des données et les cadres législatifs, etc.
17
équilibré entre différentes formes d’expertises, de pouvoirs décisionnels et de
transcriptions spatiales et organisationnelles.
Ensuite, nous mobilisons le concept latourien de « médiateur » pour qualifier nos
acteurs. Celui-ci désigne « the ensemble of human and non-human entities that
participate in the relational composition of a given reality » (KLAUSER 2017 : 26) ;
nous permettant ainsi de placer au premier plan tant les hommes que les machines et
algorithmes au cœur des systèmes Predictive Policing. Face aux critiques émises à
l’encontre de LATOUR sur sa propension à trop estomper la « matérialité » de ses
objets (QUÉRÉ 2015 : 4), nous apportons un soin particulier à considérer les réalités
palpables de la police prédictive – à l’instar des salles d’opérations, des quartiers, des
ordinateurs, etc. – comme des éléments structurants dans notre analyse. « Les
médiateurs transforment, traduisent, distordent, et modifient le sens ou les éléments
qu'ils sont censés transporter. » (LATOUR 2014 : 58) Ils « font faire » et constituent
des « centres actifs d’opération » (QUÉRÉ 2015 : 11) : ils sont dotés d’« agency ».
Selon KLAUSER, « médiateur » et « médiation » siéent tout spécialement à l’étude
critique des « IT-mediated techniques of attention [that] shape, articulate, provoke
and assemble relations » (2017 : 26).
Enfin, nous sollicitons d’autres cadres conceptuels dans lesquels s’inscrivent nos
objets47 – nos « médiateurs » donc. Vu la police prédictive comme un ensemble, un
assemblage entre des objets variés ; le qualifier de « dispositif sociotechnique »48
rend compte de son cadre général d’expression. Nous apportons en outre un soin
tout particulier à développer la composante computationnelle49 de ce dispositif avec
le concept de « gouvernementalité algorithmique » qui contribue à guider notre
réflexion. Ce parti pris s’explique par la montée en puissance des technologies
disruptives 50 telles que les systèmes autonomes dans nos sociétés. La police
prédictive représente pour nous à la fois un sujet51 et un objet52. Quant à l’intitulé de
ce projet de recherche – « Surveillance, prédiction et préemption à l’aire des
47
Rappelons au sujet de cette arborescence de vocables que « Latour parle
indistinctement d’objets, de choses, d’entités, d’êtres, voire de modes d’existence ou de
régimes d’énonciation (Ibid., p. 346) – ce qui représente une catégorie très extensive. »
(QUÉRÉ 2015 : 2)
48 Nous complétons l’appréhension du Predictive Policing en tant que dispositif
sociotechnique par le concept plus récent de « surveillant assemblage » théorisé par
HAGGERTY et ERICSON car il amène la dimensions « surveillance », prégnante dans notre
sujet (2000).
49 Dans ses aspects techniques et dans l’expression réflexive et cognitive qu’elle implique
pour les acteurs ; à un niveau plus métaanalytique, dans ce qu’elle dit de nous aujourd’hui.
50 Par « technologies disruptives », soit des technologies de rupture qui modifient
structurellement les logiques d’usages, nous désignons principalement le Big Data et le
Machine Learning qui contribuent à l’essor des systèmes prédictifs. On parle aujourd’hui
d’« informatique ubiquitaire » et pérvasive.
51 Un cadre général de recherche qui mérite d’être appréhendé dans ses multiplicités.
52 Une entité au pouvoir d’action qui produit des effets.
18
technologies disruptives » –, il fait allusion aux trois étapes de la police prédictive. La
« préemption » désigne l’action engagée (ou non) suite à la surveillance et à la
prédiction.
3.3. L(es) objet(s) de notre étude :
Les « médiateurs » de la police prédictive
Ici, nous inventorions une partie des médiateurs de la police prédictive dont nous
ambitionnons l’étude. La principale difficulté qui se présente à nous provient de la
grande variété des objets qui coconstruisent ce dispositif. Nous en convenons,
réaliser des typologies, trouver des « cases » communes dans lesquelles intégrer nos
objets semblerait approprié pour un tel travail de recherche. Il en demeure que cette
tâche se révèle véritablement malaisée eu égard de l’hybridation et de la porosité de
ces objets entre eux. En effet : ceux-ci peuvent résulter d’une intervention
multiactorielle, avoir une responsabilité, une propriété voire un usage partagé et
mouvant, circuler d’un milieu à un autre, etc.
Nous ciblons tout de même certaines caractéristiques qu’ils peuvent revêtir : le
médiateur de la police prédictive peut être public, privé ou résulter d’un montage
intégrant ses deux dimensions. Il provient du civil comme du militaire. Il poursuit des
logiques marchandes et/ou régaliennes. Il peut être personne physique ou personne
morale. Sa temporalité est celle du passé comme du futur, de l’instantané de
l’évènement au temps long de la stratégie. Il se meut au sein du commissariat, d’un
quartier, d’une aire métropolitaine ou rurale voire dans les insaisissables méandres
du cloud computing. Sa doctrine trouve ses origines dans le néolibéralisme, le
cartésianisme, le sécuritarisme ou encore l’utilitarisme. Il est composé de circuits
imprimés, de code binaire, de plastic, de métal ou de tissu humain. Il s’alimente peut-
être d’énergie électrique, de carburant fossile ou de Big Data. Il provient des écoles
de police, des sciences informatiques, des laboratoires de R & D. Il est susceptible de
raisonner tant de façon déductive que de façon inductive ; ses facultés d’imagination
et d’intuition modifient ses principes d’action. Il est probablement tangible,
potentiellement intangible, banal ou anomal.
Plus concrètement, les médiateurs dont nous présentons un panel de
caractérisations possibles sont les matériaux premiers de la police prédictive à savoir
ses algorithmes et ses données ; ses forces vives incarnées par le policier qui
pratique son terrain ou le data analyst qui éprouve les interfaces computationnelles ;
ses matérialités, de l’ordinateur de bord embarqué dans le véhicule à la salle
d’opérations du PC de police ; mais aussi ses énoncés, les doctrines idéelles que
véhicule la « police prédictive ».
Notre travail consiste donc à appréhender chacun de ces médiateurs pour en déceler
son interactivité avec les autres médiateurs, son agency, son rapport à l’incertitude,
son adaptabilité, ses logiques et principes d’action, son pouvoir performatif, son
éthique et sa rationnalité, la nature de ses subjectivités.
19
Nous défendons cette proposition de recherche qui peut sembler très
multidirectionnelle, foisonnante voire tumultueuse par le cadre d’analyse latourien qui
est le nôtre : celui de la théorie de l’acteur réseau. « Elle a pour principe que ce sont
les acteurs eux-mêmes qui font tout, même leurs propres cadres explicatifs, leurs
propres théories, leurs propres contextes, leurs propres métaphysiques et même
leurs propres ontologies ». Et LATOUR de préciser que « la seule direction à suivre,
j'en ai peur, c'est : encore plus de descriptions » (2014 : 213-214)
3.4. Le Predictive Policing :
un sujet résolument géographique
Différents arguments concourent en faveur d’une analyse de cet objet par la
géographie. En premier lieu, on peut dire que le Predictive Policing agit sur la qualité
des espaces, en les rendant plus ou moins surveillés, en les caractérisant de façon
positive ou négative 53 . Ensuite, les agents de police représentent des actants
fondamentalement territoriaux et mobiles : ils témoignent d’une pratique et d’une
expertise spatiale réelles. Rappelons également que de nombreux dispositifs de
police prédictive s’appuient sur des données géolocalisées 54 . De plus, la
gouvernance territoriale – domaine de recherche de nombreux géographes –
s’intéresse notoirement aux rapports de force et aux conséquences sociospatiales qui
s’expriment par le jeu d’adaptation et d’ajustement d’entités publiques et privées55. En
dernier lieu, la prospective territoriale qui s’applique à dessiner un horizon d’avenir à
partir des tendances et signaux faibles du présent est largement mobilisable dans
notre thématique.
53
En sollicitant notre imagination, on imagine aisément des dérives possibles : installation
à priori de mobilier sécuritaire (les fameux « bancs anti-sdf ») ; interpellations
intempestives dans des secteurs desservies par de « mauvaises données » (taux de
chômage élevé, population jeune, forte présence de débits de boissons…) ou encore
augmentation des primes d’assurance logement dans le cas où les statistiques de la police
prédictive étaient diffusées ou vendues.
54 L’internet des objets et autres wearable devices constituent le terreau de la production
de ces données – les Big Data – : smartphones et applications assorties, montres
connectées, puces RFID (que l’on trouve sur nos cartes bancaires, abonnements de
transports urbains, chaussures…) permettent une lecture précise des déplacements et des
activités des individus, souvent en temps réel. On dit que 80 % des Big Data sont
spatialisées (KLAUSER 2016 : 9).
55 Il s’agit typiquement des cas de « délégations de service public » et autre « partenariat
public-privé » dans les domaines de la gestion des services urbains. La frontière avec la
pratique de maintien de l’ordre est mince tant ce secteur s’ouvre aux prestataires privés,
ces mêmes opérateurs qui équipent nos villes de capteurs « smart » en tout genre.
20
Nous pouvons donc dire que la géographie est prégnante dans ce sujet : le Predictive
Policing produit des spatiotemporalités 56 autant qu’il est engendré par des
spatiotemporalités 57 . Notre posture de géographe semble donc pertinente pour
« attraper » ce sujet. Nous rappelons que l’essentiel des recherches sur ce sujet
proviennent de la criminologie 58 , du droit, des sciences informatiques, des
surveillance studies voire de l’éthique en philosophie59 ; univers disciplinaires dans
lesquels nous puisons largement.
3.5. Méthodologie et terrains envisagés
3.5.1. Cadre méthodologique
En terme d’enquête de terrain à proprement parlé, les « entretiens ouverts et semi-
dirigés » et l’« observation en situation » semblent tout indiqués. On prendra alors
soin d’être non-directif, de fonctionner en miroir, de se distancier, de mobiliser du
matériel d’enregistrement (VAN CAMPENHOUDT & QUIVY 2011 : 61-62-63) et autres
techniques de communication : empathie, écoute active, reformulation, etc. Nous
voulons éprouver notre terrain en interviewant des policiers et data analystes dans
les milieux qui sont les leurs : poste de commandement, salle de réunion et de
stratégie, spatiotemporalité de la patrouille urbaine, etc.
Le cadre méthodologique est celui de l’ANT, regroupant les concepts de
« médiateur » et d’« agency » que nous avons déjà exploré : cette posture est
spécialement mobilisée pour appréhender les systèmes complexes mêlant
technologie, acteurs humains et non-humains et étudier l’« agencivité » des acteurs60
(KLAUSER 2017 : 26, TIMAN 2017).
56
Nous choisissons d’élargir la spatialité, dimension première de la géographie à la
temporalité dans le but de dégager un sens global plus fécond et plus à même de saisir
notre sujet. Raccorder temps et espace vient en outre exprimer les évolutions récentes de
la discipline, discipline qui cherche aujourd’hui à comprendre un réel dynamique et
profondément évolutif.
57 Nous affirmons cela au regard du fonctionnement type de ces technologies : elles
prédisent le futur à partir du passé, entrainant potentiellement une reproduction du réel.
D’autres technologies à l’instar du Deep Learning réalisent des croisements à partir de Big
Data et révèlent des spatiotemporalités nouvelles.
58 Sont notamment intégrées dans les systèmes de police prédictive les théories
criminologiques du choix rationnel, du near repeat, d’activités de routine, des patterns du
crime. La doctrine de l’«Intelligence Led Policing » – soit un modèle d’aide à la décision qui
place la question du renseignement au premier plan – est également invoquée. (AEBI
2015 : 1, PÖCHHACKER 2016 : 13)
59 L’intérêt croissant pour l’étude de ce type d’objet marque ce qu’on pourrait appeler un
« digital surveillance turn ».
60 Les formes d’« agencements » qu’ils déploient.
21
Nous tâchons aussi d’adopter une posture de recherche postmoderniste où nous
essayons que nos valeurs, représentations et référentiels nous débordent le moins
possible. Cet aspect est important : il serait par exemple malvenu de venir avec des
conceptions sur l’éthique du code et des technologies arrêtées. La confrontation des
discours et des logiques entre les différents acteurs vise à étudier la diversité des
rationnalités qu’exprime l’objet Predictive Policing.
Enfin, nous nous inspirons spécialement de cette citation : « Habiter et décrire les
agencements, implique plusieurs postures dont les principales pourraient être les
suivantes : suivre le mouvement des relations et penser l’hétérogénéité. Suivre les
connexions et leur élaboration ; suivre les variations et l’enchevêtrement
d’agencements étendus ; suivre la formation-formatage des attractions-répulsions et
s’en donner une visualisation ; suivre les monades ou le rhizome ”par son milieu “ »
(NOYER & CARMES 2014 : 90)
Nous souhaitons également mobiliser notre sensibilité graphique et cartographique
pour produire des schèmes voire des infographies qui rendent nos propos
synthétiques et intelligibles.
23
3.5.2. Ciblage de terrains
Les technologies Predictive Policing sont essentiellement déployées aux États-Unis
néanmoins la tendance est à la diffusion de ces « doctrines » dans l’ensemble du
monde occidental. En Suisse, la ville de Zurich et les cantons de Bâle-campagne et
d’Argovie ont souscrit à la solution allemande Precobs®. D’un point de vue général,
les États-Unis sont en avance en terme de mise à profit de technologies d’intelligence
artificielle tandis que le vieux continent semble plus prudent face à ces softwares et
ce qu’ils impliquent. Mais les choses évoluent rapidement.
J’ai pu rentrer en contact avec les policiers en charge de la police prédictive des deux
cantons suscités : André GLOOR pour Argovie et Markus WEISSKOPF pour Bâle-
Campagne. Les approches universitaires semblent retenir leur attention ; ils ont par le
passé collaboré à ce titre avec l’étudiant AEBI que nous citons. Leur choix de logiciel
– relativement simple, il n’agrège que quelques données, en vue de prévenir les
cambriolages essentiellement – retient notre attention de par les perspectives
comparatives qu’il offre avec d’autres « solutions » plus techniquement plus
complexe à l’instar de ceux qui renferment des technologies d’intelligence artificielle.
Je suis aussi également en liaison avec l’agent Kevin G MASON de la police
ottavienne. Il m’incombe de monter un dossier complet à partir duquel ils statueront
pour accepter ou refuser cette étude. Enfin, Daniel ANVARI est mon interlocuteur de
Saskatoon au Canada. Ces services de police nord-américains ont cela d’intéressant
qu’ils font intervenir dans le design de leur police prédictive le monde universitaire.
Les technologies mobilisées sont de plus différentes que celles mobilisées par nos
confrères européens : machine learning et réseaux convolutifs. En fait, ces unités
organisent présentement la mise en place de leurs systèmes. Celui de Saskatoon
renferme les gênes du prédictif : il a vocation à le devenir prochainement. Celui
d’Ottawa se développe aussi dans un cadre de megacityevent : cette année sera
riche en festivités car le Canada fête ses 150 ans d’existence en tant que nation. J’ai
également échangé avec Vancouver.
Ces terrains impliquent des jeux d’acteurs et des technologies différents, de même
qu’ils ont pour cible des types d’infractions différenciés. Travailler de pair avec les
deux services de police suisse suscités pourrait s’avérer pertinent car permettant
d’étudier la façon dont des unités au fonctionnement comparable s’emparent
différemment de la même solution logiciel. S’aventurer vers des terrains plus lointains
enrichirait notre travail d’une approche régionale différenciée ; mais plus
fondamentalement, ces terrains pourraient servir de prétexte à l’immersion dans les
laboratoires de recherche locaux au sein desquels je pourrais aborder la réflexion de
la mise en place des systèmes prédictifs dans un contexte plus académique.
Ce travail s’intéresse donc aux forces de police mais d’autres partenariats (sphère
plus générale des systèmes prédictifs, entreprises prestataires de software) ne sont
pas exclus, bien au contraire.
À ce jour les enquêtes de terrain ne sont pas formalisées. Le calendrier de recherche
plus haut prévoit de concrétiser ces perspectives d’enquêtes durant les semaines à
venir.
24
4. BIBLIOGRAPHIE
1995. Loi n° 95-101 du 2 février 1995 relative au renforcement de la protection de l'environnement :Gouvernement français.
A. PIELKE JR., R., SAREWITZ, D. & BYERLY JR., R. 2000. Decision making and the future of nature: understanding and using predictions. In Prediction: Science, decision making, and the future of nature, 361. : .
AEBI, C. 2015. Évaluation du systeme de prediction de cambriolages résidentiels PRECOBS. In École des Sciences Criminelles, 65. : Université de Lausanne.
ALLOING, C. & MOINET, N. 2016 : Les signaux faibles: du mythe à la mystification. Hermès, La Revue, 86-92.
AMOORE, L. 2013 : The politics of possibility: risk and security beyond probability. :
Duke University Press.
--- 2016 : Cloud geographies Computing, data, sovereignty. Progress in Human Geography, 1-21.
AMOORE, L. & RALEY, R. 2017 : Securing with algorithms: Knowledge, decision, sovereignty. Security Dialogue, 48.
ANSERMET, F. 2008. Les effets iatrogènes de la prédiction. In Enfants turbulents:
l'enfer est-il pavé de bonnes préventions?, 59-68. : ERES.
BACHELARD, G. 1950 [1943] : L'air et les songes : essai sur l'imagination du mouvement. : J. Corti.
BAUMAN, Z. 2007 : Le présent liquide. Peurs sociales et obsession sécuritaire. :
Paris, Le Seuil.
BECK, U. 2003 : La société du risque globalisé revue sous l'angle de la menace terroriste. Cahiers internationaux de sociologie, 27-33.
--- 2008 [1986] : La société du risque : Sur la voie d'une autre modernité.
BENGIO, Y. 2016 : La révolution de l'apprentissage profond. Pour la Science, 7.
BERTHIER, T. 2014. Projections algorithmiques, concurrences et altruisme. :
TransVision 2014.
BOGDANOSKI, M. 2017. Finding the right balance between security and privacy:
NATO and the Big Data Analyses. In Big Data: New Challenges for Law and Ethics. Faculty of Law University of Ljubljana.
BONDITTI, P. 2005 : Biométrie et maîtrise des flux: vers une «géo-technopolis du vivant-en-mobilité»? Cultures & Conflits, 131-154.
BOULLIER, D. 2016. Politique des données ou données sans politique ? :
Colloque international "Humanisme numérique : valeurs et modèles pour demain ?".
BOURGOIN, N. 2016. La police prédictive débarque en France. In Alter Info. : .
BOURMEAU, S. 2016. Ni Foucault 2.0 ni Debord 2.0. In La Suite dans les idées. :
France Culture.
BOYER, P. 2015 : Ville connectée = vies transformées : notre prochaine utopie ? [préface de Karine Dognin-Sauze postface de Bruno Monier Vinard]. : Bluffy : Editions Kawa.
CARDON, D. 2015 : A quoi rêvent les algorithmes : nos vies à l'heure des big data. : Paris : Ed. du Seuil.
CHALAS, Y., GILBERT, C. & VINCK, D. 2009. Saisir la question de l’incertitude à partir de la pratique des acteurs. In Comment les acteurs s’ arrangent avec l’incertitude, 9-22. : .
25
CNRTL : UMR Analyse et Traitement Informatique de la Langue Française
(CNRS – Nancy Université).
COSTANTINI, F. 2017. Social network, social profiling, predictive policing. Current issues and future perspectives. In Big Data: New Chalenges for Law and Ethics. Faculty of Law University of Ljubljana.
CUKIER, K. 2016 : Big Data et algorithmes : la course aux données. Cahiers français, 392.
DALBY, S. 2015 : Book review: The Politics of Possibility: Risk and Security Beyond Probability. Progress in Human Geography, 39, 676-677.
DELEUZE, G. & GUATTARI, F. 2013 [1980] : Mille plateaux : Capitalisme et schizophrénie, 2. : Minuit.
DUPUY, J.-P. 2002 : Pour un catastrophisme éclairé : quand l'impossible est
certain. : Paris : Éditions du Seuil.
EDWARDS, L. & VEALE, M. 2017. Slave to the Algorhythm? Legal and
technological sticking points concerning machine learning and the GDPR. In Big Data: New Chalenges for Law and Ethics. Faculty of Law
University of Ljubljana.
ELLUL, J. 2012 [1977] : Le système technicien. : le Cherche midi.
FOUCAULT, M. 2004 [1977-1978] : Sécurité, territoire, population: cours au Collège de France, 1977-1978. : Gallimard.
GROBELNIK, M. 2017. Limits of the current state of Artificial Intelligence for Law. In Big Data: New Challenges for Law and Ethics. Faculty of Law University of Ljubljana.
HAGGERTY, K. D. & ERICSON, R. V. 2000 : The surveillant assemblage. The British journal of sociology, 51, 605-622.
HOURDEAUX, J. 2015 : Gendarmes et industriels imaginent un nouveau logiciel pour prédire le crime. Mediapart, 1-5.
JANKELEVITCH, V. 1983 : Le Je-ne-sais-quoi et le Presque-rien. 1-La Manière et
l'Occasion 2-La Méconnaissance et le Malentendu 3-La Volonté de Vouloir.
KITCHIN, R. & DODGE, M. 2011 : Code/space : software and everyday life. :
Cambridge, Mass. : MIT Press.
KLAUSER, F. 2013 : Through Foucault to a political geography of mediation in the information age. Geographica Helvetica, 68, 95-104.
--- 2016 : Interview with Jeremy Crampton. GeoAgenda, 4, 8-9.
KLAUSER, F. R. 2017. Surveillance & Space. : Sage.
KLAUSER, F. R. & ALBRECHTSLUND, A. 2014 : From self-tracking to smart urban
infrastructures: Towards an interdisciplinary research agenda on Big Data. Surveillance & Society, 12, 14.
LATOUR, B. 2014 : Changer de société, refaire de la sociologie. : La découverte.
LE CUN, Y. 2016. L'apprentissage profond : une révolution en intelligence artificielle. In Chaire Informatique et sciences numériques (2015-2016), ed. C. d. France. : .
LESZCZYNSKI, A. 2016 : Speculative futures: Cities, data, and governance beyond smart urbanism. Environment and Planning A, 1691-1708.
LÉVY, J. & LUSSAULT, M. 2003 : Dictionnaire de la géographie [et de l'espace des sociétés]. : Belin Paris.
LYON, D. 2007 : Surveillance studies: An overview. : Polity.
MARTIN, N. 2017. Principe de précaution : où poser les limites ? . In La Méthode scientifique. : France Culture.
26
MATZNER, T. 2016 : Beyond data as representation: The performativity of Big Data in surveillance. Surveillance & Society, 14, 197.
MCCULLOCH, J. & PICKERING, S. 2009 : Pre-crime and counter-terrorism imagining future crime in the ‘war on terror’. British Journal of Criminology, 49,
628-645.
MCCULLOCH, J. & WILSON, D. 2015 : Pre-crime: Pre-emption, precaution and the future. : Routledge.
MONAHAN, T. 2010 : Surveillance as governance: social inequality and the pursuit of democratic surveillance. Surveillance and democracy, 91-110.
NELSON, N., GELTZER, A. & HILGARTNER, S. 2008 : Introduction: the anticipatory state: making policy-relevant knowledge about the future. Science & Public Policy (SPP), 35.
NOYER, J.-M. & CARMES, M. 2014 : L'irrésistible montée de l'algorithmique : méthodes et concepts en SHS. Les cahiers du numérique, 63-102.
OGURA, T. 2006 : Electronic government and surveillance-oriented society. Theorizing surveillance, 270-295.
PERRY, W. L., MCINNIS, B., PRICE, C. C., SMITH, S. C. & HOLLYWOOD, J. S. 2013.
Predictive Policing: The Role of Crime Forecasting in Law Enforcement Operations. : RAND Corporation.
PHILLIPS, J. 2006 : Agencement/assemblage. Theory, Culture & Society, 23, 108-
109.
PÖCHHACKER, N. 2016 : Predictive policing. Datenbasierte
Verrechensbekämpfung und eine neue Geographie des Risikos. GeoAgenda, 4, 13-15.
QUÉRÉ, L. 2015 : Retour sur l’agentivité des objets. Occasional Papers, 1-12.
RAUFER, X. 2016 : Démons et merveilles du «prédictif» : une bonne fois pour toutes. Sécurité globale, 107-120.
RAZAC, O. 2008 : Avec Foucault, après Foucault : Disséquer la société de
contrôle. : Editions L'Harmattan.
RENUCCI, F. 2016 : Surveiller et prédire. Hermès, La Revue, 156-161.
ROUVROY, A. 2010 : La «digitalisation de la vie même» : enjeux épistémologiques et politiques de la mémoire digitale. Documentaliste, 47, 63-64.
--- 2015 : L'algorithme n'est" pas un système de prédiction mais d'intervention" (entretien réalisé par Jérôme Hourdeaux). Mediapart.
--- 2016 : La gouvernementalité algorithmique : radicalisation et stratégie immunitaire du capitalisme et du néolibéralisme ? La Deleuziana.
ROUVROY, A. & BERNS, T. 2010 : Le nouveau pouvoir statistique. Multitudes, 88-
103.
--- 2013 : Gouvernementalité algorithmique et perspectives d'émancipation. Réseaux, 163-196.
SADIN, É. 2010 : Surveillance globale : Enquête sur les nouvelles formes de
contrôle. : Editions Flammarion.
---. 2011 : La société de l'anticipation : le web précognitif ou la rupture anthropologique. : Inculte.
---. 2013 : L'humanité augmentée : l'administration numérique du monde. :
l'Échappée.
---. 2015 : La vie algorithmique: critique de la raison numérique. : L’Echappée.
---. 2016 : La silicolonisation du monde. L’irrésistible expansion du libéralisme numerique.
27
SHELLER, M. 2006 : Mobile technologies of the city / ed. by Mimi Sheller ... [et al.]. : London : Routledge.
SIMONDON, G. 1989 [1958] : Du mode d'existence des objets techniques.
SOUBEYRAN, O. 2015 : Pensée aménagiste et improvisation: l’improvisation en
jazz et l’écologisation de la pensée aménagiste. : Archives contemporaines.
STIEGLER, B. 2015 : La Société automatique : 1. L'avenir du travail. : Fayard.
TAYEBI, M. A. & GLÄSSER, U. 2016. Social Network Analysis in Predictive Policing.
In Social Network Analysis in Predictive Policing, 7-14. : Springer.
TIMAN, T. 2017. “But I used quotation marks”: data science methods and misinterpretations. In Big Data: New Chalenges for Law and Ethics. Faculty of law University of Ljubljana.
TOVAR, E. : Mesurer la justice socio-spatiale : de l'ancien au nouveau monde,
promesses et menaces du «Big Data». 23.
UCHIDA, C. D. 2009 : A national discussion on predictive policing: Defining our terms and mapping successful implementation strategies. : National
Institute of Justice.
VAN CAMPENHOUDT, L. & QUIVY, R. 2011 : Manuel de recherche en sciences sociales-4e edition. : Dunod.
WILSON, D. 2017. Algorithmic Patrol: The Futures of Predictive Policing. Faculty
of Law University of Ljubljana: Big Data: New Challenges for Law and Ethics.
ZWITTER, A. 2014 : Big data ethics. Big Data & Society, 1.