38

 · La petitesse du code binaire ... actorielle, technique, organisationnelle, etc. – que ... viennent appuyer les théories de la criminologie tout en

  • Upload
    ngodien

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Couverture et page de titre : © F.-F. FLUCK/IGG/UniNE • 2017

L’esthétisation en page de titre propose une représentation tant des hotspots que des

individus à risque que réalisent les logiciels de police prédictive selon une logique

d’arborescences suspicionnaires. La petitesse du code binaire cherche à créer une

impression de brouillage pour illustrer la grande quantité des données que mobilise le

Predictive Policing ainsi que l’opacité de ces systèmes.

CHAMPS DISCIPLINAIRES • #géographiepolitique #surveillancestudies #criminologie

#softwarestudies #philosophie #sociologie #SHS #STS1

CLÉS CONCEPTUELLES

« Donné » préliminaire au Predictive Policing • #sociospatialité #liquidité

#normativité #intentionnalité #rationalité

Concepts centraux • #agency #médiateur #dispositifsociotechnique

#surveillantassemblage #gouvernementalitéalgorithmique

Effets du Predictive Policing • #performativité #incertitude #réflexivité #adaptabilité

MÉTHODOLOGIES • #ANT2 #méthodesqualitatives #représentationgraphique

Remarque : dans un souci de confort de lecture et d’appréhension du document,

celui-ci propose une amélioration des normes graphiques édictées par l’UniNE. Il en

demeure que le contenu propre en terme de quantité de texte s’accorde aux

exigences de l’UniNE en matière de projet de thèse.

1 Science and technology studies

2 Actor Network Theory ou Théorie de l’acteur-réseau

« I

mag

ine

r, c

’est

(…)

ha

usse

r le

el d

’un

ton

. »

Ga

sto

n B

AC

HE

LA

RD

(1

950

[1

943

] : 9

7)

« W

ha

t m

att

ers

is n

ot so

much a

qu

estio

n o

f w

he

the

r o

r h

ow

th

e w

orld

is m

ore

da

nge

rous, m

ore

un

ce

rta

in,

or

less s

afe

bu

t h

ow

sp

ecific

re

pre

se

nta

tions o

f risk,

un

ce

rta

inty

, d

ang

er,

an

d s

ecu

rity

are

dis

tin

ctive

ly w

ritin

g t

he

co

nto

urs

of

tha

t w

orld

. »

Lo

uis

e A

MO

OR

E (2

01

3 :

7)

« A

ujo

urd

’hu

i, la

te

chn

icité t

end

à r

ésid

er

dan

s le

s e

nse

mb

les ;

elle

pe

ut a

lors

de

ve

nir

un

fon

de

me

nt d

e la

cu

ltu

re à

la

que

lle e

lle a

pp

ort

era

un p

ou

voir

d’u

nité

et

de

sta

bili

té, e

n la

re

nd

an

t ad

éq

uate

avec la r

éa

lité

qu

’elle

exp

rim

e e

t qu

’elle

gle

. »

Gilb

ert

SIM

ON

DO

N (1

98

9 [

19

58

] :

16

)

« C

od

e/s

pace

occu

rs w

he

n s

oft

ware

and

the

sp

atia

lity o

f every

day life

be

com

e m

utu

ally

con

stitu

ted,

tha

t is

, p

rod

uce

d th

rou

gh

on

e a

no

the

r. »

Ro

b K

ITC

HIN

et

Ma

rtin

DO

DG

E (

20

11

: 1

6)

« T

ou

t se

passe

com

me

si la

te

ch

niq

ue

, e

n s

’au

ton

om

isa

nt

tou

jou

rs p

lus,

accom

plis

sait u

n p

roje

t con

sis

tan

t à

se

fa

ire le

de

stin

inh

um

ain

qu

i d

éch

arg

e e

nfin

l’hum

anité

du

fa

rde

au

de la

lib

ert

é e

t d

e l’a

uto

no

mie

. »

Je

an

-Pie

rre

DU

PU

Y (20

02

: 7

7)

Table des matières

Avant-propos ......................................................................................................................... vi

Résumé ....................................................................................................................................... vi

Appréhension du document ............................................................................................. vii

1. DÉFINITION ET ÉMERGENCE DE LA POLICE PRÉDICTIVE ...................................... 1

2. LE « DONNÉ » DU PREDICTIVE POLICING : LOGIQUES, PRINCIPES ET

IMPLICATIONS ................................................................................................................... 3

2.1. Logiques techniques et sécuritaires .............................................................. 3

2.1.1. Gémellités avec un régime de surveillance numérique galopant .................. 3

2.1.2. Faire parler les traces : de la statistique dirigée par l’homme à

l’intelligence artificielle ....................................................................................................................... 4

2.1.3. Le data double : préliminaire du profilage ............................................................ 6

2.1.4. Les « arborescences suspicionnaires » .................................................................... 8

2.2. Principe de précaution vs Principe d’innovation : Comment penser

l’incertitude dans un réel fondamentalement contingenté ? ................................ 9

2.2.1. L’abrogation de l’incertitude : le grand projet prédictif ? .............................. 9

2.2.2. L’incertitude entraînée par la technologie ......................................................... 10

2.2.3. Le Predictive Policing en tant qu’assemblage complexe : une source

d’incertitude amplifiée ......................................................................................................................11

2.3. Un système nourri de subjectivités et aux implications performatives

11

2.3.1. L’immanence des subjectivités dans le Predictive Policing ..........................11

2.3.2. Performativité du Predictive Policing et entrée en résonance avec ses

subjectivités intrinsèques : les gênes de la faillibilité ? ...................................................... 12

3. NOTRE APPRÉHENSION DU PREDICTIVE POLICING : EXPLICITATION DE LA

DÉMARCHE DE RECHERCHE ............................................................................................. 15

3.1. Le Predictive Policing : un dispositif sociotechnique empreint de

« gouvernementalité algorithmique » ......................................................................... 15

3.2. Question de recherche et concept central ............................................ 16

3.3. L(es) objet(s) de notre étude : Les « médiateurs » de la police

prédictive .............................................................................................................................. 18

3.4. Le Predictive Policing : un sujet résolument géographique .............. 19

3.5. Méthodologie et terrains envisagés .......................................................... 20

3.5.1. Cadre méthodologique ............................................................................................... 20

3.5.2. Ciblage de terrains....................................................................................................... 23

4. BIBLIOGRAPHIE ................................................................................................. 24

vi

Avant-propos

Ce document projectualise le travail de thèse de doctorat que j’ai engagé en août

2016 sous la direction de Francisco R. KLAUSER. Cette entreprise ayant pour sujet la

police prédictive s’inscrit dans le domaine de la géographie politique de la

surveillance et des technologies disruptives et a vocation à se réaliser à la Faculté

des Lettres et Sciences Humaines de l’Université de Neuchâtel. Le comité de lecture

ayant validé ce document se compose des Professeurs Francisco R. KLAUSER

(Chaire de Géographie politique/UniNE), Dominique CARDON (Medialab/Sciences Po)

et Olivier SOUBEYRAN (UMR PACTE/IGA/UGA3).

Résumé

Ce travail appréhende l’objet Predictive Policing par le prisme de son fonctionnement

intrinsèque et de ses effets sociospatiaux.

Il s’inscrit dans un contexte de développement inflationnaire des technologies

numériques et des données situées et temporalisées qu’elles produisent et analysent

dans nos sociétés contemporaines.

Le Predictive Policing est la pratique consistant, pour des policiers à appuyer leur

activité sur l’utilisation de superordinateurs qui agrègent des Big Data et modélisent la

prévision d’infractions futures.

Ces dispositifs revêtent différentes modalités d’applications qui questionnent la place

de ces systèmes computationnels et les effets qu’ils produisent sur les logiques

d’actions des forces de police.

L’étude de ces technologies émergentes et de leur usage requière une attention toute

particulière en cela qu’elles sont porteuses d’enjeux, d’opportunités et de menaces et

que saisir ce monde qui vient est fondamental pour en tirer le meilleur parti.

3 Unité mixte de recherche Politiques publiques, Action politique, Territoires/Institut de

Géographie Alpine/Université Grenoble Alpes.

vii

Appréhension du document

Nous présentons ici la logique d’organisation de ce document afin d’en rendre

intelligible son agencement.

La première partie situe et définit brièvement la « police prédictive ».

La deuxième partie détaille ce sur quoi s’appuie le Predictive Policing et les effets

qu’il est susceptible de produire. Nous précisons d’abord le cadre dans lequel il

s’inscrit – celui d’une surveillance contemporaine exacerbée – puis nous détaillons

les technologies et leurs logiques qui rendent possible le ciblage de personnes et de

lieux sur lesquels s’appuie cette forme de police proactive (sous partie 2.1.). Le

rapport à l’incertitude et sa gestion constitue l’objet de la sous partie suivante (2.2.). Il

nous parait primordial d’insister sur cette dimension intrinsèque à la prédiction et d’en

relever certaines de ses contradictions : l’opposition entre « principe de précaution »

et « principe d’innovation » ou le fait que malgré son ambition de dissoudre

l’incertitude, de nouvelles formes d’incertitude émergent de par la nature des

technologies et des montages sur lesquels elle s’appuie. La sous partie 2.3. cherche

à rendre attentif notre lecteur au caractère « construit socialement » des systèmes

que nous étudions. Ceux-ci sont en effet habités de subjectivités qui provoquent des

biais potentiels. Nous présentons ensuite les effets performatifs que la police

prédictive peut occasionner en insistant sur les effets multiplicateurs potentiels par

l’adossement des subjectivités aux performativités.

La partie suivante (3.) précise notre posture de recherche. Nous choisissons

d’appréhender la police prédictive sous l’angle du concept de « dispositif

sociotechnique » que nous complétons par le concept de « gouvernementalité

algorithmique » afin de souligner le pouvoir singulier des technologies de la police

prédictive (sous partie 3.1.). « Dispositif sociotechnique » nous offre de nous plonger

dans toute la complexité – actorielle, technique, organisationnelle, etc. – que revêt

notre sujet. La sous partie 3.2. présente le questionnement au cœur de notre

recherche : « Comment les acteurs “composent” au sein du dispositif de Predictive

Policing ? ». Pour répondre à cette question, nous mobilisons le concept de

« médiateur ». Nous considérons nos « objets » – policiers, interfaces informatiques,

algorithmes, etc. – comme des médiateurs : ils rendent possible, modèlent,

contraignent, etc. l’expression de la police prédictive. Décomposer le système en une

multiplicité de médiateurs permet d’étudier la nature des rapports de pouvoir, des

négociations, des tensions qui s’opèrent pour comprendre la coproduction du

phénomène Predictive Policing. Vient ensuite – en sous partie 3.3. – un inventaire

préliminaire de la diversité des médiateurs que nous ciblons à ce jour et dont nous

ambitionnons l’étude. Enfin, la sous partie 3.4. met en exergue la géographicité de

notre sujet.

Pour résumer, la partie 1 introduit notre sujet, la partie 2 présente des principes,

effets et logiques opératoires que nous décortiquons ensuite au prisme des cadres

conceptuels et des médiateurs que nous identifions en partie 3.

1

1. DÉFINITION ET ÉMERGENCE DE LA POLICE PRÉDICTIVE

Il est convenu que le travail du policier s’appuie sur une empirie et une expertise

singulière. Elles se nourrissent de l’expérience et de la pratique du terrain que

viennent appuyer les théories de la criminologie tout en mobilisant l’intuition des

agents.

Cependant, l’expansion des technologies informatiques ces dernières décennies

contrarie cette acception de la pratique policière. De fait, les forces de police

archivent depuis longtemps les statistiques d’infractions. L’appétence de la police

pour les données (HAGGERTY & ERICSON 2000 : 610, 616, LYON 2007 : 4),

l’amélioration constante des capacités d’enregistrement et de calcul au travers du

matériel informatique ainsi que l’explosion de la disponibilité de données

géolocalisées ces dix dernières années amènent les policiers à transformer leurs

pratiques de maintien de l’ordre. À ce titre, on considère ces technologies de récolte

et de traitement des données comme des « médiateurs » aux côtés desquels les

policiers et data analysts sont amenés à composer.

Le virement contemporain majeur qui constitue l’objet de notre étude réside dans ce

qu’on appelle la « police prédictive ». Opérant un renversement d’une pratique

policière réactive vers une pratique proactive4 (COSTANTINI 2017, PERRY et al. 2013 :

iii), le Predictive Policing5 ambitionne de prévoir la production d’infractions futures au

moyen du médium computationnel.6 Plus concrètement, il s’agit pour les policiers

d’organiser leur activité en prenant en compte les analyses et recommandations des

logiciels de Predictive Policing. Ainsi, des policiers peuvent par exemple être aiguillés

en temps réel vers certaines zones d’une ville au moyen d’un ordinateur embarqué

présentant des modélisations cartographiques évolutives. Ces logiciels abondés de

données et dirigés par des algorithmes plus ou moins complexes proviennent

généralement d’entreprises marchandes bien que la tendance soit au développement

des montages public/privés7.

4 La police réactive agit à posteriori, après la réalisation d’une infraction tandis que la police

proactive s’inscrit dans une dialectique prévision-préemption.

5 Nous préférons l’appellation anglo-saxonne de ce concept provenant des États-Unis, plus

répandue que sa traduction « police prédictive ».

6 « Predictive policing refers to any policing strategy or tactic that develops and uses

information and advanced analysis to inform forward-thinking crime prevention. » (MORGAN,

cité par UCHIDA 2009 : 1)

7 Sont susceptibles d’intervenir dans le design de ces « solutions » des entreprises

spécialisées dans le hardware (matériel informatique) et le software (logiciels) à l’instar

d’IBM, des pure players (les entreprises qui vendent uniquement des services

informatiques) telles que Google, des acteurs du milieu académique (ex : laboratoires

d’Écoles d’ingénieurs), des divisions des services de police et de sécurité intérieurs

spécialisés dans l’« intelligence informatique », etc.

2

Empruntant aux verbiages foucaldien et latourien, nous pensons l’objet Predictive

Policing en tant que « dispositif sociotechnique » en cela qu’il fait intervenir des

hommes mais aussi des matérialités 8 complétés par des jeux d’acteurs et des

rapports de force à priori complexes. Ce dispositif s’appuie sur des techniques de

surveillance (FOUCAULT 2004 [1977-1978] : 4).

Une des finalités de cette recherche est d’offrir un cadre réflexif9 le plus impartial

possible permettant aux acteurs de penser les meilleures modalités de déploiement

de ces technologies. Il s’agit pour nous d’analyser le « système » Predictive Policing

pour en proposer des régulations qui respectent les personnes, les temps et les

espaces. Le Predictive Policing est aujourd’hui techniquement possible, est-il audible

et souhaitable pour autant ?

Ci-après, nous proposons une représentation simplifiée de la logique opératoire type

des logiciels de police prédictive

Figure 1 : agrégation des données, traitements prédictifs, ciblage spatial ou individuel

8 Les senseurs (bruit, météo), les ordinateurs mobiles, les salles de contrôle ou encore les

serveurs informatiques incarnent une partie de ces matérialités.

9 Présentement, notre usage du vocable « réflexif » désigne simplement ce qui a trait à la

réflexion.

3

2. LE « DONNÉ » DU PREDICTIVE POLICING :

LOGIQUES, PRINCIPES ET IMPLICATIONS

2.1. Logiques techniques et sécuritaires

2.1.1. Gémellités avec un régime de surveillance

numérique galopant

Pour bien comprendre le Predictive Policing, il nous incombe de le situer dans un

contexte actuel d’accroissement de la surveillance qui s’appuie sur l’explosion des

données massives10. Nous définissons en premier lieu la surveillance comme suit :

« a mode of governing the everyday that relies on systematic and routines techniques

of attention, focusing on human or non-human objects » (KLAUSER 2017 : 19).

Bien que la surveillance basée sur les technologies informatiques ait cours depuis la

guerre froide (OGURA 2006 : 272) et a été amplifiée dans un contexte post

11/09/2001 (DALBY 2015 : 676, MCCULLOCH & WILSON 2015 : 3, SADIN 2010 : 229),

nous nous devons d’insister sur le caractère massif et paradigmatique qu’elle revêt

aujourd’hui eu égard à l’expansion du numérique. La pénétration des technologies

dans les villes (SHELLER 2006 : 44) et notre propension à nous seconder des

« prothèses numériques » est à l’origine d’un « magma immatériel à prolifération

exponentielle induit par leurs usages » (SADIN 2015 : 19). Ce « technospace »

(SHELLER 2006 : 44) repose sur l’« exploitation industrielle, systémique et

systématique des rétentions tertiaires numériques » (STIEGLER 2015 : 57) ainsi que

sur la « généralisation de la calculabilité et la systématisation de la politique des

indicateurs » (CARDON 2015 : 9).

Ces considérations nous amènent vers des acceptions de la surveillance basée sur la

collecte et l’analyse en continu (LESZCZYNSKI 2016 : 4) des données – ou

métadonnée pourrait-on dire dans la mesure où ces traitements s’appuient sur des

traces contextuelles – (HAGGERTY & ERICSON 2000 : 611) : « data-based

surveillance » (MATZNER 2016 : 197), « dataveillance » (ROUVROY & BERNS 2013 :

168), « société d’hypercontrôle » (STIEGLER 2015 : 35), « surveillance society » (LYON

2007 : 7). Empruntant le vocabulaire foucaldien, SADIN évoque un « “panoptisme

planétaire” , chargé […] de situer les individus sur des “abscisses électroniques” , à

l’intérieur d’un quadrillage systématisé dépourvu de “trous”, par le fait de la

couverture satellitaire globale » (2015 : 169, 2010 : 39), et composé d’un « faisceau

de strates au spectre global, […] toujours plus densifié et clairvoyant » (2010 : 57). À

la métaphore du panoptique, nous préférons cependant la figure deulezo-

guattarienne du rhizome que proposent HAGGERTY et ERICSON pour qualifier la

10

« Données massives » ainsi que « mégadonnées » constituent des francisations de Big

Data. Cinq « V » sont régulièrement invoqués pour caractériser les Big Data : variété,

volume, véracité, vélocité et valeur. Et BOGDANOSKI de rajouter « Big Data is when the size

of data became part of the problem. » (2017)

4

surveillance contemporaine (2000 : 617). Ouverture du réseau, anastomose, limites

floues, faible niveau de hiérarchisation, haut niveau de connexité le qualifient (LEVY &

LUSSAULT 2003 : 804). Cette symbolisation nous semble plus à même de caractériser

la nature fluctuante, mouvante, évolutive de cette forme de surveillance qui instille

une « cartographie détaillée et opérée en temps réel du cours de nos existences

individuelles et collectives » (BOYER 2015 : 67). De plus, l’image du panoptique

implique l’idée d’une centralisation qui ne correspond pas forcément à la réalité de

par la multiplicité et la propriété parfois partagée des sources de données.

Nous exposons les caractéristiques de ce régime de surveillance en cela qu’il

constitue un terreau qui favorise le développement des technologies de police

prédictive et dans lequel elles peuvent puiser. Les données qui potentiellement

alimentent les systèmes prédictifs proviennent de l’internet des objets – smartphones,

capteurs embarqués (automobile, domotique, télévision) –, des senseurs qui

mesurent nos espaces – trafic, météo, sons, présence –, de l’analyse des navigations

internet – extraction de sites et de réseaux sociaux – et, bien sûr des statistiques

policières propres. Ce constat que nous dressons témoigne de tendances à l’œuvre.

Il s’exprime de façon différenciée dans les espaces avec une prévalence dans les

métropoles occidentales.

2.1.2. Faire parler les traces :

de la statistique dirigée par l’homme à

l’intelligence artificielle

Traditionnellement, la production de connaissances statistiques suit une logique

hypothético-déductive : le statisticien formule des hypothèses que l’on va attester ou

démentir suivant des calculs dirigés dans des bases de données. Ce mode opératoire

est utilisé dans une partie des systèmes de Predictive Policing.11 La formulation de

ces hypothèses et la nature des traitements dirigés renferme des normativités, des

rationalités et des intentionnalités : il n’existe pas une méthode exacte mais plutôt un

panel de traitements et d’interprétations possibles.

Face à cette première approche de production d’information appliquée à la police

prédictive, une seconde logique opératoire en plein boom requière toute notre

attention en ce qu’elle implique pour la place de l’homme et pour la caractérisation

des objets sur lesquels le Predictive Policing agit : « Advances in task-based artificial

intelligence, machine learning and neural network computation are radically

11

Prenons l’exemple d’un agent en charge de la police prédictive dans son département : il

mobiliserait dans cette approche statistique un certain nombre de variables internes et/ou

externes : occurrences spatiales des cambriolages, occurrences temporelles, type de

zones dans lesquelles se sont produites les infractions… À partir de cette sélection de

données, le policier en vient à mener des analyses statistiques (analyse en composantes

principales, droites de régressions, analyses de variance…) visant à comprendre les

dynamiques d’entraînement interfactorielles afin d’adapter l’action policière.

Dans ce mode de faire, les hypothèses émises par le statisticien peuvent être confirmées

ou infirmées. La place de l’homme reste primordiale : c’est lui qui commande la machine.

5

reshaping practices of securization and instituting new logics for the governing of

populations » (AMOORE & RALEY 2017 : 4, GROBELNIK 2017).

Nous parlons ici des technologies auto-apprenantes de l’intelligence artificielle12. On

définit l’apprentissage profond comme le « traitement effectué par un grand nombre

de neurones artificiels qui, par leurs interactions, permettent au système d’apprendre

progressivement à partir d’image, de textes ou d’autres données » (BENGIO 2016 :

44). Concrètement, on nourrit des superordinateurs de statistiques variées afin qu’ils

identifient des distributions de façon autonome (CUKIER 2016). Ces traitements sans

« ciblage préalable » qui impliquent de « ratisser le plus grand nombre possible

d’indices de tout ordre » (SADIN 2010 : 147) opèrent une vraie révolution par rapport

aux approches statistiques classiques en cela qu’elles fonctionnent suivant une

logique inductive. On confie alors aux algorithmes la tâche de révéler des corrélations

insoupçonnées (MATZNER 2016 : 199, ROUVROY & BERNS 2013 : 170, 180, SADIN

2010 : 146, STIEGLER 2015 : 95, TAYEBI & GLÄSSER 2016 : 8). Cette rationalité

algorithmique inductive (ROUVROY & BERNS 2010 : 91, 92) qui part des

« conséquences aux causes probables » (CARDON 2015 : 39, 41) s’enorgueillit de

« “saisir” la “réalité sociale” comme telle » (ROUVROY & BERNS 2013 : 165) et vient

substituer l’expertise calculatoire à l’autorité professionnelle (CARDON 2015 : 43).

Cette délégation du ciblage 13 pose la question fondamentale de la place de la

machine qui semble s’arracher de la main humaine.14

Nous rappelons que les systèmes prédictifs à priori les plus performants et en même

temps les plus problématiques en ce qu’ils charrient d’incertitude15 s’inscrivent dans

un triptyque réunissant disponibilité massive de données – les Big Data –,

amélioration des capacités computationnelles 16 et technologies type Deep

Learning 17 (GROBELNIK 2017). Nous définissons le « Deep Learning » comme la

12

L’apprentissage automatique principalement, il s’inscrit dans le cadre général du Deep

Learning ou apprentissage profond. La nébuleuse de l’intelligence artificielle regroupe un

ensemble de techniques telles que le machine learning, le cognitive computing, le

connexionnisme (et ses réseaux convolutifs), le knowledge discovery, le semantic analysis,

le deep text understanding ou encore le pattern recognition.

13 Le système cible des probabilités qui qualifient les individus selon un degré de suspicion

ou les espaces selon leur potentiel de risque par exemple.

14 Nous tempérerons cette considération ultérieurement car la « machine » renferme des

intentions et des idéologies provenant de ses programmeurs.

15 Nous préciserons cet aspect plus tard.

16 Cette composante est strictement matérielle : la baisse des coûts en parallèle de la

montée en performance sont des constantes dans l’informatique qui rendent sans cesse

plus accessibles ces technologies (puissance des cartes graphiques, vélocité des disques

durs Solid State Drive, moindre coût des serveurs et du cloud…).

17 Le domaine de l’intelligence artificielle vit un vrai renouveau ces dernières années. On

parle à ce titre de « Printemps de l’intelligence artificielle ». Il en demeure que d’immenses

progrès restent à accomplir notamment en terme d’apprentissage non supervisée, le

domaine le plus à même d’opérer des prédictions mais qui reste peu maîtrisé.

6

« récente aptitude qui conçoit le langage de programmation, non plus comme

déterminant de part en part le “comportement” d’un système, mais comme un premier

socle à partir duquel son niveau de compétence va régulièrement s’améliorer au long

de ses “expériences” » (SADIN 2016 : 98) ; et l’auteur, critique, de nous mettre en

garde quant à une « sournoise et massive “passation de pouvoir” de la raison

humaine à des systèmes chargés d’éclairer de leurs “lumières” des pans sans cesse

plus étendus de nos existences » (2016 : 104).

Nous nous devons cependant de modérer l’optimisme autour du Big Data et de

l’apprentissage profond. D’une part l’utopie de systémisme par l’exhaustivité des

données que semble sous-tendre l’idée des mégadonnées n’est jamais totale et

produit inexorablement des analyses incomplètes (MATZNER 2016 : 202). D’autre part,

la principale difficulté à laquelle est confronté le Deep Learning appliqué au Predictive

Policing réside dans le fait que la machine n’est pas douée d’abstraction (BOURGOIN

2016, LE CUN 2016, RENUCCI 2016 : 158) ; l’intelligence artificielle ne saisit pas la

complexité des contextes comme le ferait un homme (CARDON 2015 : 59), au risque

de produire des analyses faillibles.

Ces développements technologiques dont s’emparent des systèmes de surveillance

et de Predictive Policing proviennent du marketing ciblé (HAGGERTY & ERICSON 2000 :

617, LYON 2007 : 2, OGURA 2006 : 271, SADIN 2015 : 167, 2010 : 122, STIEGLER

2015 : 125, WILSON 2017), du domaine militaire (KLAUSER 2017 : 97, LYON 2007 : 4,

MCCULLOCH & PICKERING 2009 : 629, RAUFER 2016 : 111, SADIN 2010 : 43) et de la

lutte antiterroriste (AMOORE 2013 : 4, MCCULLOCH & PICKERING 2009 : 632).18 Les

pratiques de dual use19 (SADIN 2010 : 43) et de l’Information Sharing20 (BONDITTI

2005 : 9) posent la question du risque d’une surveillance amplifiée par l’hybridation

des sphères de la police et de la sécurité intérieure (MCCULLOCH & PICKERING 2009 :

636).

2.1.3. Le data double : préliminaire du profilage

Nous évoquions précédemment la mise à profit de technologies algorithmique21 qui

ont vocation à mettre en exergue des associations et, par extensions des tendances,

des modélisations dans les systèmes prédictifs. Car en effet, le matériau premier de

la création de pattern22 est la relation (TAYEBI & GLÄSSER 2016 : 2, ZWITTER 2014 : 2).

18

Il nous incombe aussi de signaler le « projet cybernétique » dont on situe l’âge d’or à la

fin des années quarante, non aboutie faute de « maturité technique » (SADIN 2016 : 105).

19 Soit la mobilité de l’expertise de traitement informationnel du militaire vers la sureté

territoriale.

20 La mutualisation d’informations entre agences de sécurité et public/privé.

21 Derrière cette appellation barbare, le simple traitement informatique opéré par des

logiciels.

22 Ce vocable anglais signifie « modèle ». Il est largement utilisé dans la littérature

spécialisée d’où notre emploi de sa version originale.

7

Ces données relationnelles permettent de catégoriser des personnes ou des objets23

selon une approche corrélationniste. Vulgairement et pour illustrer un écueil dans

lequel certains logiciels Predictive Policing peuvent tomber : si j’habite un quartier

défavorisé, ou si mes contacts email possèdent un casier judiciaire ; mon « degré de

dangerosité » quantifié sera modulé en conséquence, et même dans le cas où je n’ai

jamais commis d’infraction. « Data that is collected at one place and from a particular

set of persons, constributes to assessing and judging different persons in different

places » (MATZNER 2016 : 204, ROUVROY & BERNS 2010 : 92).

Le data double vient aussi alimenter la représentation qu’exposent les logiciels

prédictifs de mon individualité, de mes comportements, de mon penchant

criminogène. Cette ombre numérique – sorte de « double statistique des sujets »

(ROUVROY & BERNS 2013 : 167) –, glanée à partir des signaux et des traces du

monde numérique alimente des systèmes computationnels selon des logiques de

classification, de tri social et d’archivage (BERTHIER 2014, BOURMEAU 2016,

HAGGERTY & ERICSON 2000 : 613, SADIN 2015 : 59, 2010 : 109, 111, 115, STIEGLER

2015 : 204).

Sur la figure suivante, nous proposons des représentations d’une part de la constante

reconfiguration de notre data double – les datas double sont figurés sous l’apparence

de « tâches profilaires » afin de mettre en exergue la dimension fondamentalement

mouvante de celles-ci – et d’autre part de l’hybridation de notre data double avec

celui de tierces personnes physiques ou morales. 24 ROUVROY nous dit que la

« mémoire digitale » est « éminemment mobile, se réorganisant constamment en

temps réel, répondant principalement aux impératifs de pertinence et de vitesse alors

que deviennent inopérants les critères de vérité, d’objectivité, de diversité, de critique

et de profondeur historique propres à l’évaluation de la mémoire humaine » (2010 :

63)

23

Par exemple un lieu, une saison, un type d’action, un comportement…

24 Ce schéma s’inspire de la vidéo « What are digital traces ? » de l’organisation ME AND

MY SHADOW. Cette vidéo est visionnable à l’adresse < https://myshadow.org/>.

8

Figure 2 : représentation de l'ombre digitale

2.1.4. Les « arborescences suspicionnaires »

KLAUSER (2013 : 100), MATZNER (2016 : 200), OGURA (2006 : 280) et SADIN (2010 : 146)

nous rappellent que la surveillance est voisine de la suspicion. Cette suspicion

s’opère au regard du data double (LESZCZYNSKI 2016 : 2) et au moyen du social

sorting25 (HAGGERTY & ERICSON 2000 : 611). « Surveillance based on Big Data is the

production of bodies and lives as suspects » (MATZNER 2016 : 209). Ou encore

« data-based verdicts do not only concern who someone is, but who this person will

(potentially) be » (MATZNER 2016 : 203).

L’évaluation des actes et des personnes par des « systèmes techniciens » (ELLUL

2012 [1977])26 qui apprécient notre « dangerosité » supposée (SADIN 2010 : 229)

pose un problème légal de premier ordre. Nous appelons ici la notion de présomption

d’innocence menacée et érodée par le développement des systèmes prédictifs qui

25

Le social sorting – tri social – désigne la catégorisation à partir de données d’un individu

ou d’un groupe.

26 Cet ouvrage classique et avant-gardiste dépeint une vision englobante d’une

« technique » totalisante aux velléités expansionnistes, poursuivant une recherche

effrénée d’efficacité et d’interconnexion.

9

tendent à juger sur des intentions conjecturées et non plus sur des actes avérés

(MCCULLOCH & WILSON 2015 : 8, 47, RENUCCI 2016 : 157).

2.2. Principe de précaution vs Principe d’innovation :

Comment penser l’incertitude dans un réel

fondamentalement contingenté ?

Au travers de cette partie, nous dressons un tour d’horizon du rapport que nos

acteurs entretiennent à l’incertitude en partant du « paradigme » de la réduction de

l’incertitude vers l’incertitude inhérente et charriée par les « technologies disruptives »

pour finir avec son inscription dans le « dispositif sociotechnique » de police

prédictive.

2.2.1. L’abrogation de l’incertitude :

le grand projet prédictif ?

“L’incertitude, c’est à dire l’inconnu quant aux risques encourus et gains à espérer »

(CHALAS et al. 2009 : 10, MCCULLOCH & WILSON 2015 : 36) se situe au cœur de notre

travail. « L’incertitude est synonyme de peur. Rien d’étonnant à ce que nous rêvions

d’un monde dénué de hasard. D’un monde régulier. D’un monde prévisible. »

(BAUMAN 2007 : 124). Au-delà de la rencontre entre opportunités de marché (AMOORE

2013 : 4) et technologies disruptives, le développement des systèmes prédictifs qui

ambitionnent de s’arracher à la contingence (SADIN 2015 : 123) révèle d’autres

référentiels dans lesquels nous évoluons. Nous faisons ici allusion aux paradigmes

de l’efficacité et de l’utilitarisme (TOVAR : 5) qu’incarnent le capitalisme 27 et le

néolibéralisme (ROUVROY 2016 : 35) appuyés par des croyances scientistes

(HOURDEAUX 2015 : 1, MATZNER 2016 : 198, 207, SADIN 2011 : 5, 2015 : 55) et un

prétendu « “naturalisme” des données » (TOVAR : 17).

Le « principe de précaution » – « selon lequel l'absence de certitudes […] ne doit pas

retarder l'adoption de mesures effectives et proportionnées visant à prévenir un

risque de dommages graves et irréversibles » (Loi dite Barnier : 1995)28 – rentre dans

notre cas d’analyse. Être précautionneux, n’est-ce pas arrêter un individu avant qu’il

réalise – potentiellement – un délit hautement dommageable ? Derrière cet axiome il

faut préciser la prégnance du concept d’« acceptabilité sociale » soit, par extension la

matérialisation d’un calcul coût/avantage. Cette composante corrobore la logique

socioéconomique qui légitime et sous-tend le déploiement des solutions Predictive

Policing. Et pourtant, les technologies de police prédictive peuvent produire des

27

Le « capitalisme précognitif » peut-on même dire : celui qui cherche selon SADIN à

déceler nos désirs avant que nous ayons conscience. (SADIN 2011)

28 Cette définition provient du droit français. Ce principe charrie une forte connotation

environnementale. C’est en premier lieu cet objet qu’il cherche à protéger néanmoins la

transposition au travers des technologies sécuritaires que nous étudions nous semble

fertile.

10

externalités négatives dès lors que l’on néglige la prise en compte du principe de

précaution au moment de leurs déploiements.

Face à un principe de précaution débordé par le principe d’innovation29 (MARTIN

2017), nous relevons le paradoxe suivant : tant bien même que des entreprises de

haute technologie s’attèlent à « réduire l’inconnu ou l’inattendu attaché à

l’incertitude » (CHALAS et al. 2009 : 12), elles produisent en parallèle de nouvelles

formes d’incertitudes liées aux technologies qu’elles développent.

2.2.2. L’incertitude entraînée par la technologie

« Nous fabriquons ces calculateurs, mais en retour ils nous construisent. » (CARDON

2015 : 7)

Évoquant MORIN ; CHALAS, GILBERT, et VINCK identifient deux principales sources

d’incertitude contemporaines : la technologie et l’abandon de la tradition au profit de

la modernité (2009 : 10). Nous adaptons aisément cette considération au niveau

technologique avec les avancées que nous avons décrites et, de façon plus cavalière,

nous transposons la tradition à la pratique de police réactive et la modernité à la

police proactive.

Le haut niveau de sophistication peut être vecteur d’incertitude et d’erreurs dans la

prédiction (A. PIELKE JR. et al. 2000 : 369, CHALAS et al. 2009 : 13). En cause : le

traitement de quantités de données dont seules des machines peuvent assurer la

charge et des vitesses de traitement inouïes30 (AMOORE 2016 : 16). Cette dynamique

accélérationniste accentue une dynamique que les hommes n’ont pas la faculté

d’appréhender, produisant ainsi de l’incertitude (CHALAS et al. 2009 : 11). Évoquons

de surcroit le fonctionnement « black box » de ces technologies (EDWARDS & VEALE

2017, WILSON 2017) : comment évaluer la fiabilité d’un ensemble dont on ne peut pas

entrevoir l’activité interne ? Enfin, l’exercice de prospective requiert une

compréhension des contextes et une analyse qualitative que ne maîtrisent pas

encore ces machines prévisionnaires. Penser la rupture, la discontinuité représente

un défi pour ces technologies (ALLOING & MOINET 2016 : 40, 52, ANSERMET 2008 : 2,

TAYEBI & GLÄSSER 2016 : 4) qui « simplifie[nt] un réel infiniment plus complexe » et

tendent à projeter un passé dans l’avenir (RAUFER 2016 : 113).

La « doxa prédictive » prônée par le néolibéralisme et l’incertitude que produisent les

nouvelles technologies s’inscrit dans un cadre plus large encore qui amplifie cette

vulnérabilité : le « dispositif sociotechnique de police prédictive ».

29

Ce deuxième principe est à comprendre comme la liberté pour une entreprise de

développer ses produits et services.

30 A l’image des algorithmes du trading à haute fréquence – un autre type de système

prédictif – où des millions de transactions financières s’effectuent à la seconde.

11

2.2.3. Le Predictive Policing en tant qu’assemblage

complexe :

une source d’incertitude amplifiée

« The dynamic nature of risk means that even while risk reduction or mitigation

strategies aim to create a sense of certainty, they generate new levels of uncertainty

and new risks. » (MCCULLOCH & WILSON 2015 : 37)

La complexité du Predictive Policing en tant que « surveillant assemblage »

(HAGGERTY & ERICSON 2000) ou dispositif sociotechnique œuvre en faveur d’une

extension des niveaux d’incertitudes évoqués précédemment : ce système constitue

le point d’achoppement d’acteurs, de discours, de contextes, d’objets aux logiques

d’actions, de pouvoir, de collaboration hétérogène (AMOORE 2013 : 5). Ce réseau

mixte, enchevêtré, composite implique une incertitude épistémique de par ses nature

(A. PIELKE JR. et al. 2000 : 367). En cas de dysfonctionnement, quelle est la résilience

du système ? Les responsabilités sont-elles systématiquement et clairement

réparties ? Nous postulons que ce dispositif peut produire des effets non-désirés, des

« wicked problems » 31 eu égard de ses propriétés immanentes. Finalement,

l’« improvisation » pourrait-elle constituer une réponse à l’incertitude dans des

situations où se croisent conséquences non-intentionnelles et actions non-

intentionnelles, comme le suggère SOUBEYRAN (2015) ?

2.3. Un système nourri de subjectivités et

aux implications performatives

2.3.1. L’immanence des subjectivités dans le Predictive

Policing

« L’objet qui sort de l’invention technique emporte avec lui quelque chose de l’être qui

la produit (…) on pourrait dire qu’il y a de la nature humaine dans l’être technique, au

sens où le mot de nature pourrait être employé pour désigner ce qui reste d’or iginel,

d’antérieur même à l’humanité constitué en l’homme » (SIMONDON 1989 [1958] : 248).

Dans cette recherche, nous ambitionnons d’étudier quelles sont les normativités32, les

subjectivités et les intentionnalités que charrie le code33 qui dirige le fonctionnement

31

« Wicked problem », traductible en « problèmes pernicieux » est une expression qui

provient des recherches en environnement et en climatologie faisant allusion à la

complexité des effets entraînés par le réchauffement global en cela qu’ils alimentent des

boucles de rétroaction positives et négatives, agissent sur une quantité colossale de

variables et en cela sont très difficilement modélisables et impliquent un haut degré

d’incertitude.

32 « Normativité », « ce qui est intrinsèque à la loi » nous dit FOUCAULT (2004 [1977-1978] :

58). Nous élargissons cette acception aux différentes règles et lois qui construisent nos

identités : religion, milieu social, culture, etc.

12

des systèmes Predictive Policing. Nous considérons que les normativités et les

subjectivités imprègnent des idéologies qui se traduisent en intentions. Face aux

argumentaires en faveur de la police prédictive qui soutiennent que ces systèmes,

par leur « télé-objectivité », leur adossement stricte aux données collectées

factuellement reflètent une réalité de façon impartiale à partir de laquelle des

recommandations détachés des biais interprétatifs humains émanent (PÖCHHACKER

2016 : 14), nous partageons l’idée selon laquelle le code source à la base de ces

systèmes renferme des subjectivités, des normativités, des rationalités et des

intentionnalités34 potentiellement faillibles et dommageables à des personnes et/ou à

des espaces. Le code n’est pas neutre ! (WILSON 2017) Il nous apparaît donc

primordial d’étudier ces aspects idéels voire les idéologies 35 que renferment les

algorithmes à la base des softwares de police prédictive : peuvent-t-ils être éthique

ou au contraire discriminants ? Apporter une réponse manichéenne serait surement

prématuré et faux.

2.3.2. Performativité du Predictive Policing

et entrée en résonance avec ses subjectivités

intrinsèques : les gênes de la faillibilité ?

« À l’assignation rigide de ses propres traces, au titre d’un destin identitaire suggérant

une lisibilité performative de l’individu profilé, devenant prévisible, correspond un

paradigme dans lequel le réel deviendrait une copie de sa propre image. » (NELSON

et al. 2008 : 546)

Nous voulons disséquer notre objet en sollicitant le concept de « performativité ».

Provenant de la linguistique, ce mot désigne un acte de langage « qui réalise une

action par le fait même de son énonciation » (CNRTL). En cela, nous pouvons

adosser la performativité à différentes composantes 36 des systèmes prédictifs.

Considérant l’autorité accordée à priori au système, celui-ci est performatif dans la

mesure où vraisemblablement nous suivrons ses prescriptions. Cet aspect peut poser

problème si l’on agit sur un individu selon son intention supposée – au travers de son

profil numérique – et non selon la réalisation avérée d’une infraction. Cette évocation

présente une forme de performativité pouvant revêtir des effets d’autant plus

33

Le « code », aussi appelé « code source », « code binaire » ou « code numérique »

désigne dans le langage de programmation informatique les instructions écrites par le

programmeur (ou le codeur) à l’origine du fonctionnement des logiciels. Nous utilisons au

même titre le vocable « algorithme » soit « une série d’instructions [un ensemble de lignes

de code] permettant d’obtenir un résultat » (CARDON 2015 : 7).

34 « La tentative de décrire […] l’algorithmique comme a-théorique et a-politique est en

réalité pure posture politique, voire imposture » (NOYER & Carmes : 2014 : 90).

35 « La technique renferme des idéologies. » (MARTIN 2017)

36 Les données, les interfaces visuelles, le choix des traitements opérés, le simple fait de

souscrire à une solution Predictive Policing… Prenons un exemple : en sélectionnant les

données de vol de voiture au sein du système de police prédictive, les équipiers vont

tendre à traiter tout spécialement ce type d’infractions.

13

considérables que ces systèmes fonctionnent avec un haut niveau d’automatisation :

« Pre-crime “ countermeasures ” “ perform ” crimes that never happened »

(MCCULLOCH & WILSON 2015 : 50). Et LATOUR de nous aider à tempérer notre propos

en nous rappelant, au sujet de l’influence des objets les uns sur les autres, qu’il existe

« de nombreuses nuances métaphysiques entre la causalité pleine et la pure

inexistence » (2014 : 103). Objets de surcroît sujets aux chances et tribulations du

« Je-ne-sais-quoi et [du] Presque-rien » cher à JANKÉLÉVITCH (1983).

Plus généralement est pointé le risque de reproduction du réel selon des boucles de

rétroaction positive (ROUVROY 2010 : 64). Enfin, nous sommes attentifs aux

interactions entre performativité et subjectivités. Les normativités intrinsèques au

système37 s’expriment au travers des recommandations performatives. À l’inverse, les

prescriptions performatives viennent confirmer et/ou façonner nos normativités. Ainsi,

la performativité produit de la normativité et inversement, au risque de poursuivre des

sentiers indésirables.

Enfin, des auteurs mettent en garde sur cette performativité des systèmes38 créatrice

de « new “suspect communities” » à l’instar des jeunes, des immigrés, des minorités,

etc. (MCCULLOCH & WILSON 2015 : 47-48, MONAHAN 2010 : 97, TOVAR : 16-17), une

performativité qui viendrait finalement confirmer nos préjugés (TOVAR : 17).

Nous illustrons dans les schèmes suivants un écueil performatif dans lequel peuvent

tomber des systèmes de Predictive Policing dès lors qu’ils sont abondés de données

trop partielles et/ou d’algorithmes idéologiquement orientés. Ce diagramme inspiré

des travaux de l’organisation non gouvernementale Human Rights Data Analysis

Group dépeint un biais en comparant deux quartiers ségrégués. La lecture s’opère

comme suit : dans le quartier « noir », les patrouilles sont plus fréquentes entraînant

mécaniquement une comptabilisation plus exhaustive des délits. À l’inverse dans le

quartier « blanc », les infractions sont numériquement plus importantes mais moins

relevées par les autorités de police. À la base de ce différentiel dans l’intervention

des forces de l’ordre, un code informatique qui renferme l’idée selon laquelle la

difficulté économique d’un quartier serait voisine d’une plus grande propension

délictuelle. Même si ce postulat est initialement avéré, il en demeure qu’il entraîne un

accroissement de la surveillance dans ce quartier puis une comptabilisation plus

exhaustive des infractions et donc une caractérisation à priori négative de cet espace.

Nous exemplifions notre propos au moyen d’une opposition quartier noir/quartier

blanc car dans note revue de littérature nous relevons que des biais raciaux sont

susceptibles d’intervenir.

37

Celles dont le codeur est à l’origine.

38 Nous insistons une fois encore sur la variété des performativités que peut exprimer ce

type de dispositif ; la matérialité des objets numériques embarqués par exemple n’est pas

en reste : « For us, devices – mundane, discursive, technical or theoretical – are

performative in that they (re)configure social spaces, (re)draw boundaries and (re)distribute

meanings. » (AMICELLE et al. 2015 : 298)

14

Figure 3 : exemple de boucle de rétroaction performative

Nous voulons également présenter un autre exemple de performativité qui se base

sur la façon dont PredPol® – le leader sur le marché – légitime ses résultats. Le

schéma suivant est à comprendre comme suit : il y a deux entrées – présence

policière et production de délit. Dans le cas où le logiciel prédit un délit, soit la police

intervient soit elle n’intervient pas. Si elle se rend sur le terrain et constate des faits

délictueux, PredPol® est légitimé ; si rien ne se passe, PredPol® est également

légitimé, imputant cela à l’effet dissuasif des forces police. Si le délit se produit sans

qu’un agent ait été affrété, PredPol® a encore raison et enfin, l’absence d’un délit

pourtant anticipé n’entraînant pas la venue de la police n’est tout simplement pas

comptabilisée.

Figure 4 : performativité de la légitimation de la police prédictive

15

3. NOTRE APPRÉHENSION DU PREDICTIVE POLICING :

EXPLICITATION DE LA DÉMARCHE DE RECHERCHE

3.1. Le Predictive Policing : un dispositif

sociotechnique empreint de

« gouvernementalité algorithmique »

Au regard de la complexité technologique, actorielle et matérielle qu’incarnent les

systèmes de police prédictive, nous mobilisons FOUCAULT et LATOUR pour qualifier le

Predictive Policing de « dispositif sociotechnique ». Nous entendons « dispositif »

comme un mode d’organisation évolutif entre des objets variés – discours, intentions,

objets tangibles – qui révèle des rapports de forces et des logiques collaboratives et

qui a vocation à réguler, contrôler et orienter en s’appuyant sur l’action (FOUCAULT

2004 [1977-1978]). Nous pouvons par exemple décliner ce système au regard des

acteurs en présence : public, privé ; individuel, collectif ; des discours : sécuritaire,

économique, technologique ; des logiques d’action : algorithmes, savoir-faire ; des

échelles spatiales et temporelles, etc. Nous raccordons à ce concept les dimensions

« dispositifs sécuritaires »39 et « dispositifs disciplinaires »40 (FOUCAULT 2004 [1977-

1978]).

Nous nous devons cependant de signaler d’autres conceptualisations à même

d’appréhender et de caractériser les systèmes complexes de police prédictive. : le

vocable « agencement » d’après DELEUZE et GUATTARI – « assemblage » en anglais

– qui implique un réseau varié dont le sens commun excède la somme des parties

(PHILLIPS 2006 : 108), et sa transcription féconde pour notre sujet en « surveillant

assemblage » théorisée par HAGGERTY et ERICSON (2000) ; ou encore « prediction

enterprise », « a dynamic social and political milieu » (A. PIELKE JR. et al. 2000 : 362).

Nous pensons ce type d’approches contextuelles et relationnelles du pouvoir comme

étant fructueuse pour étudier la police prédictive car nous gardons à l’esprit que

« responsibility for surveillance is shared by the socio-technical system as a whole »

(KLAUSER 2017 : 27), et KITCHIN et DODGE de considérer l’objet software41 en tant que

« socio-material production » (2011 : 12).

Il en demeure que « Contemporary security decisions are made by a complex

amalgam of human and machine elements. The algorithm is an integral part of human

action and culture » (AMOORE & RALEY 2017 : 7). Par cette citation nous voulons

mettre en exergue le poids croissant du code dans la médiation décisionnelle

qu’opèrent les acteurs de la police prédictive. Nous appelons donc le concept de

39

Primauté d’un réel donné, importance de l’ouverture et de la circulation, dynamique

centripète où l’ensemble de la population est ciblée.

40 Matérialisation d’un « quadrillage » situant les individus selon leurs caractéristiques

propres ; "la discipline comme « mode d’individualisation des multiplicités » (FOUCAULT

2004 [1977-1978] : 14)

41 « Software » est le mot anglais pour « logiciel ».

16

« gouvernementalité algorithmique ». ROUVROY et BERNS la définissent comme « un

certain type de rationalité (a)normative ou (a)politique reposant sur la récolte,

l’agrégation et l’analyse automatisée de données en quantité massive de manière à

modéliser, anticiper et affecter par avance les comportements possibles » (2013 :

173). Cette gouvernementalité algorithmique laisse planer le spectre d’un horizon

machiniste remettant en cause le rôle et l’influence d’un « politique »42 libre arbitre

débordé, attaqué dans ses fondements (BECK 2008 [1986] : 401, 405-406, ROUVROY

2015 : 2, ROUVROY & BERNS 2013 : 171, 183, SADIN 2013 : 32, STIEGLER 2015 : 38,

208) : évocation d’un « positivisme algorithmique » (BOULLIER 2016), approche

solutionniste à grand renforts de datas (CARDON 2015 : 55), « gouvernementalité

anticipatrice » (KLAUSER & ALBRECHTSLUND 2014 : 280) ou encore régime

« subpolitique », politico-scientiste hybridé où la science vient légitimer le politique,

une sorte de « modernité réflexive » selon l’auteur (BECK 2008 [1986] : 400).

3.2. Question de recherche et concept central

Nous présentons la question de recherche suivante :

« Comment les acteurs 43 “composent” 44 au sein du dispositif de Predictive

Policing ? »

Cette question centrale ambitionne de disséquer la façon dont les acteurs humains et

non humains – le code mais aussi les expressions matérielles du système –

s’ajustent et s’agencent les uns par rapport aux autres. En fait, il s’agit d’étudier le

mode de coexistence entre ses objets pour en déceler les tensions qui s’exercent, les

négociations qui se déploient, les stratégies adaptatives qui s’opèrent au travers des

logiques collaboratives et de « pouvoir »45 et l’expression des dépendances46. Nous

rappelons la visée de notre travail : proposer un cadre permettant de réfléchir la mise

en place de ces systèmes en « bonne intelligence » – soit un dosage actoriel

42

Par politique, nous désignons la dimension « projet » dont témoignent les hommes dans

leurs actions.

43 Selon LATOUR, « toute chose qui vient modifier une situation donnée devient un acteur »

(2014 : 103).

44 Partant de notre culture de géographe, nous traduisons le verbe « to cope with »

particulièrement mobilisé dans l’étude de l’adaptation et de l’atténuation au changement

climatique ainsi que dans l’étude des risques naturels pour saisir la façon dont les acteurs

organisent leur logique d’action et s’accommodent face à un « donné » incertain.

45 Le « pouvoir », soit « la manière dont une force ou un ensemble de forces affectent

d’autres forces et comment celles-ci sont affectées » (RAZAC 2008 : 16) ou « un ensemble

de mécanismes et de procédures qui ont pour rôle ou fonction et thème, même s’ils n’y

parviennent pas, d’assurer justement le pouvoir » (FOUCAULT 2004 [1977-1978] : 4).

46 Ex. : entre les prestataires de solutions informatiques et les services de police, entre la

disponibilité des données et les cadres législatifs, etc.

17

équilibré entre différentes formes d’expertises, de pouvoirs décisionnels et de

transcriptions spatiales et organisationnelles.

Ensuite, nous mobilisons le concept latourien de « médiateur » pour qualifier nos

acteurs. Celui-ci désigne « the ensemble of human and non-human entities that

participate in the relational composition of a given reality » (KLAUSER 2017 : 26) ;

nous permettant ainsi de placer au premier plan tant les hommes que les machines et

algorithmes au cœur des systèmes Predictive Policing. Face aux critiques émises à

l’encontre de LATOUR sur sa propension à trop estomper la « matérialité » de ses

objets (QUÉRÉ 2015 : 4), nous apportons un soin particulier à considérer les réalités

palpables de la police prédictive – à l’instar des salles d’opérations, des quartiers, des

ordinateurs, etc. – comme des éléments structurants dans notre analyse. « Les

médiateurs transforment, traduisent, distordent, et modifient le sens ou les éléments

qu'ils sont censés transporter. » (LATOUR 2014 : 58) Ils « font faire » et constituent

des « centres actifs d’opération » (QUÉRÉ 2015 : 11) : ils sont dotés d’« agency ».

Selon KLAUSER, « médiateur » et « médiation » siéent tout spécialement à l’étude

critique des « IT-mediated techniques of attention [that] shape, articulate, provoke

and assemble relations » (2017 : 26).

Enfin, nous sollicitons d’autres cadres conceptuels dans lesquels s’inscrivent nos

objets47 – nos « médiateurs » donc. Vu la police prédictive comme un ensemble, un

assemblage entre des objets variés ; le qualifier de « dispositif sociotechnique »48

rend compte de son cadre général d’expression. Nous apportons en outre un soin

tout particulier à développer la composante computationnelle49 de ce dispositif avec

le concept de « gouvernementalité algorithmique » qui contribue à guider notre

réflexion. Ce parti pris s’explique par la montée en puissance des technologies

disruptives 50 telles que les systèmes autonomes dans nos sociétés. La police

prédictive représente pour nous à la fois un sujet51 et un objet52. Quant à l’intitulé de

ce projet de recherche – « Surveillance, prédiction et préemption à l’aire des

47

Rappelons au sujet de cette arborescence de vocables que « Latour parle

indistinctement d’objets, de choses, d’entités, d’êtres, voire de modes d’existence ou de

régimes d’énonciation (Ibid., p. 346) – ce qui représente une catégorie très extensive. »

(QUÉRÉ 2015 : 2)

48 Nous complétons l’appréhension du Predictive Policing en tant que dispositif

sociotechnique par le concept plus récent de « surveillant assemblage » théorisé par

HAGGERTY et ERICSON car il amène la dimensions « surveillance », prégnante dans notre

sujet (2000).

49 Dans ses aspects techniques et dans l’expression réflexive et cognitive qu’elle implique

pour les acteurs ; à un niveau plus métaanalytique, dans ce qu’elle dit de nous aujourd’hui.

50 Par « technologies disruptives », soit des technologies de rupture qui modifient

structurellement les logiques d’usages, nous désignons principalement le Big Data et le

Machine Learning qui contribuent à l’essor des systèmes prédictifs. On parle aujourd’hui

d’« informatique ubiquitaire » et pérvasive.

51 Un cadre général de recherche qui mérite d’être appréhendé dans ses multiplicités.

52 Une entité au pouvoir d’action qui produit des effets.

18

technologies disruptives » –, il fait allusion aux trois étapes de la police prédictive. La

« préemption » désigne l’action engagée (ou non) suite à la surveillance et à la

prédiction.

3.3. L(es) objet(s) de notre étude :

Les « médiateurs » de la police prédictive

Ici, nous inventorions une partie des médiateurs de la police prédictive dont nous

ambitionnons l’étude. La principale difficulté qui se présente à nous provient de la

grande variété des objets qui coconstruisent ce dispositif. Nous en convenons,

réaliser des typologies, trouver des « cases » communes dans lesquelles intégrer nos

objets semblerait approprié pour un tel travail de recherche. Il en demeure que cette

tâche se révèle véritablement malaisée eu égard de l’hybridation et de la porosité de

ces objets entre eux. En effet : ceux-ci peuvent résulter d’une intervention

multiactorielle, avoir une responsabilité, une propriété voire un usage partagé et

mouvant, circuler d’un milieu à un autre, etc.

Nous ciblons tout de même certaines caractéristiques qu’ils peuvent revêtir : le

médiateur de la police prédictive peut être public, privé ou résulter d’un montage

intégrant ses deux dimensions. Il provient du civil comme du militaire. Il poursuit des

logiques marchandes et/ou régaliennes. Il peut être personne physique ou personne

morale. Sa temporalité est celle du passé comme du futur, de l’instantané de

l’évènement au temps long de la stratégie. Il se meut au sein du commissariat, d’un

quartier, d’une aire métropolitaine ou rurale voire dans les insaisissables méandres

du cloud computing. Sa doctrine trouve ses origines dans le néolibéralisme, le

cartésianisme, le sécuritarisme ou encore l’utilitarisme. Il est composé de circuits

imprimés, de code binaire, de plastic, de métal ou de tissu humain. Il s’alimente peut-

être d’énergie électrique, de carburant fossile ou de Big Data. Il provient des écoles

de police, des sciences informatiques, des laboratoires de R & D. Il est susceptible de

raisonner tant de façon déductive que de façon inductive ; ses facultés d’imagination

et d’intuition modifient ses principes d’action. Il est probablement tangible,

potentiellement intangible, banal ou anomal.

Plus concrètement, les médiateurs dont nous présentons un panel de

caractérisations possibles sont les matériaux premiers de la police prédictive à savoir

ses algorithmes et ses données ; ses forces vives incarnées par le policier qui

pratique son terrain ou le data analyst qui éprouve les interfaces computationnelles ;

ses matérialités, de l’ordinateur de bord embarqué dans le véhicule à la salle

d’opérations du PC de police ; mais aussi ses énoncés, les doctrines idéelles que

véhicule la « police prédictive ».

Notre travail consiste donc à appréhender chacun de ces médiateurs pour en déceler

son interactivité avec les autres médiateurs, son agency, son rapport à l’incertitude,

son adaptabilité, ses logiques et principes d’action, son pouvoir performatif, son

éthique et sa rationnalité, la nature de ses subjectivités.

19

Nous défendons cette proposition de recherche qui peut sembler très

multidirectionnelle, foisonnante voire tumultueuse par le cadre d’analyse latourien qui

est le nôtre : celui de la théorie de l’acteur réseau. « Elle a pour principe que ce sont

les acteurs eux-mêmes qui font tout, même leurs propres cadres explicatifs, leurs

propres théories, leurs propres contextes, leurs propres métaphysiques et même

leurs propres ontologies ». Et LATOUR de préciser que « la seule direction à suivre,

j'en ai peur, c'est : encore plus de descriptions » (2014 : 213-214)

3.4. Le Predictive Policing :

un sujet résolument géographique

Différents arguments concourent en faveur d’une analyse de cet objet par la

géographie. En premier lieu, on peut dire que le Predictive Policing agit sur la qualité

des espaces, en les rendant plus ou moins surveillés, en les caractérisant de façon

positive ou négative 53 . Ensuite, les agents de police représentent des actants

fondamentalement territoriaux et mobiles : ils témoignent d’une pratique et d’une

expertise spatiale réelles. Rappelons également que de nombreux dispositifs de

police prédictive s’appuient sur des données géolocalisées 54 . De plus, la

gouvernance territoriale – domaine de recherche de nombreux géographes –

s’intéresse notoirement aux rapports de force et aux conséquences sociospatiales qui

s’expriment par le jeu d’adaptation et d’ajustement d’entités publiques et privées55. En

dernier lieu, la prospective territoriale qui s’applique à dessiner un horizon d’avenir à

partir des tendances et signaux faibles du présent est largement mobilisable dans

notre thématique.

53

En sollicitant notre imagination, on imagine aisément des dérives possibles : installation

à priori de mobilier sécuritaire (les fameux « bancs anti-sdf ») ; interpellations

intempestives dans des secteurs desservies par de « mauvaises données » (taux de

chômage élevé, population jeune, forte présence de débits de boissons…) ou encore

augmentation des primes d’assurance logement dans le cas où les statistiques de la police

prédictive étaient diffusées ou vendues.

54 L’internet des objets et autres wearable devices constituent le terreau de la production

de ces données – les Big Data – : smartphones et applications assorties, montres

connectées, puces RFID (que l’on trouve sur nos cartes bancaires, abonnements de

transports urbains, chaussures…) permettent une lecture précise des déplacements et des

activités des individus, souvent en temps réel. On dit que 80 % des Big Data sont

spatialisées (KLAUSER 2016 : 9).

55 Il s’agit typiquement des cas de « délégations de service public » et autre « partenariat

public-privé » dans les domaines de la gestion des services urbains. La frontière avec la

pratique de maintien de l’ordre est mince tant ce secteur s’ouvre aux prestataires privés,

ces mêmes opérateurs qui équipent nos villes de capteurs « smart » en tout genre.

20

Nous pouvons donc dire que la géographie est prégnante dans ce sujet : le Predictive

Policing produit des spatiotemporalités 56 autant qu’il est engendré par des

spatiotemporalités 57 . Notre posture de géographe semble donc pertinente pour

« attraper » ce sujet. Nous rappelons que l’essentiel des recherches sur ce sujet

proviennent de la criminologie 58 , du droit, des sciences informatiques, des

surveillance studies voire de l’éthique en philosophie59 ; univers disciplinaires dans

lesquels nous puisons largement.

3.5. Méthodologie et terrains envisagés

3.5.1. Cadre méthodologique

En terme d’enquête de terrain à proprement parlé, les « entretiens ouverts et semi-

dirigés » et l’« observation en situation » semblent tout indiqués. On prendra alors

soin d’être non-directif, de fonctionner en miroir, de se distancier, de mobiliser du

matériel d’enregistrement (VAN CAMPENHOUDT & QUIVY 2011 : 61-62-63) et autres

techniques de communication : empathie, écoute active, reformulation, etc. Nous

voulons éprouver notre terrain en interviewant des policiers et data analystes dans

les milieux qui sont les leurs : poste de commandement, salle de réunion et de

stratégie, spatiotemporalité de la patrouille urbaine, etc.

Le cadre méthodologique est celui de l’ANT, regroupant les concepts de

« médiateur » et d’« agency » que nous avons déjà exploré : cette posture est

spécialement mobilisée pour appréhender les systèmes complexes mêlant

technologie, acteurs humains et non-humains et étudier l’« agencivité » des acteurs60

(KLAUSER 2017 : 26, TIMAN 2017).

56

Nous choisissons d’élargir la spatialité, dimension première de la géographie à la

temporalité dans le but de dégager un sens global plus fécond et plus à même de saisir

notre sujet. Raccorder temps et espace vient en outre exprimer les évolutions récentes de

la discipline, discipline qui cherche aujourd’hui à comprendre un réel dynamique et

profondément évolutif.

57 Nous affirmons cela au regard du fonctionnement type de ces technologies : elles

prédisent le futur à partir du passé, entrainant potentiellement une reproduction du réel.

D’autres technologies à l’instar du Deep Learning réalisent des croisements à partir de Big

Data et révèlent des spatiotemporalités nouvelles.

58 Sont notamment intégrées dans les systèmes de police prédictive les théories

criminologiques du choix rationnel, du near repeat, d’activités de routine, des patterns du

crime. La doctrine de l’«Intelligence Led Policing » – soit un modèle d’aide à la décision qui

place la question du renseignement au premier plan – est également invoquée. (AEBI

2015 : 1, PÖCHHACKER 2016 : 13)

59 L’intérêt croissant pour l’étude de ce type d’objet marque ce qu’on pourrait appeler un

« digital surveillance turn ».

60 Les formes d’« agencements » qu’ils déploient.

21

Nous tâchons aussi d’adopter une posture de recherche postmoderniste où nous

essayons que nos valeurs, représentations et référentiels nous débordent le moins

possible. Cet aspect est important : il serait par exemple malvenu de venir avec des

conceptions sur l’éthique du code et des technologies arrêtées. La confrontation des

discours et des logiques entre les différents acteurs vise à étudier la diversité des

rationnalités qu’exprime l’objet Predictive Policing.

Enfin, nous nous inspirons spécialement de cette citation : « Habiter et décrire les

agencements, implique plusieurs postures dont les principales pourraient être les

suivantes : suivre le mouvement des relations et penser l’hétérogénéité. Suivre les

connexions et leur élaboration ; suivre les variations et l’enchevêtrement

d’agencements étendus ; suivre la formation-formatage des attractions-répulsions et

s’en donner une visualisation ; suivre les monades ou le rhizome ”par son milieu “ »

(NOYER & CARMES 2014 : 90)

Nous souhaitons également mobiliser notre sensibilité graphique et cartographique

pour produire des schèmes voire des infographies qui rendent nos propos

synthétiques et intelligibles.

22

Figure 5 : diagramme de GANTT

23

3.5.2. Ciblage de terrains

Les technologies Predictive Policing sont essentiellement déployées aux États-Unis

néanmoins la tendance est à la diffusion de ces « doctrines » dans l’ensemble du

monde occidental. En Suisse, la ville de Zurich et les cantons de Bâle-campagne et

d’Argovie ont souscrit à la solution allemande Precobs®. D’un point de vue général,

les États-Unis sont en avance en terme de mise à profit de technologies d’intelligence

artificielle tandis que le vieux continent semble plus prudent face à ces softwares et

ce qu’ils impliquent. Mais les choses évoluent rapidement.

J’ai pu rentrer en contact avec les policiers en charge de la police prédictive des deux

cantons suscités : André GLOOR pour Argovie et Markus WEISSKOPF pour Bâle-

Campagne. Les approches universitaires semblent retenir leur attention ; ils ont par le

passé collaboré à ce titre avec l’étudiant AEBI que nous citons. Leur choix de logiciel

– relativement simple, il n’agrège que quelques données, en vue de prévenir les

cambriolages essentiellement – retient notre attention de par les perspectives

comparatives qu’il offre avec d’autres « solutions » plus techniquement plus

complexe à l’instar de ceux qui renferment des technologies d’intelligence artificielle.

Je suis aussi également en liaison avec l’agent Kevin G MASON de la police

ottavienne. Il m’incombe de monter un dossier complet à partir duquel ils statueront

pour accepter ou refuser cette étude. Enfin, Daniel ANVARI est mon interlocuteur de

Saskatoon au Canada. Ces services de police nord-américains ont cela d’intéressant

qu’ils font intervenir dans le design de leur police prédictive le monde universitaire.

Les technologies mobilisées sont de plus différentes que celles mobilisées par nos

confrères européens : machine learning et réseaux convolutifs. En fait, ces unités

organisent présentement la mise en place de leurs systèmes. Celui de Saskatoon

renferme les gênes du prédictif : il a vocation à le devenir prochainement. Celui

d’Ottawa se développe aussi dans un cadre de megacityevent : cette année sera

riche en festivités car le Canada fête ses 150 ans d’existence en tant que nation. J’ai

également échangé avec Vancouver.

Ces terrains impliquent des jeux d’acteurs et des technologies différents, de même

qu’ils ont pour cible des types d’infractions différenciés. Travailler de pair avec les

deux services de police suisse suscités pourrait s’avérer pertinent car permettant

d’étudier la façon dont des unités au fonctionnement comparable s’emparent

différemment de la même solution logiciel. S’aventurer vers des terrains plus lointains

enrichirait notre travail d’une approche régionale différenciée ; mais plus

fondamentalement, ces terrains pourraient servir de prétexte à l’immersion dans les

laboratoires de recherche locaux au sein desquels je pourrais aborder la réflexion de

la mise en place des systèmes prédictifs dans un contexte plus académique.

Ce travail s’intéresse donc aux forces de police mais d’autres partenariats (sphère

plus générale des systèmes prédictifs, entreprises prestataires de software) ne sont

pas exclus, bien au contraire.

À ce jour les enquêtes de terrain ne sont pas formalisées. Le calendrier de recherche

plus haut prévoit de concrétiser ces perspectives d’enquêtes durant les semaines à

venir.

24

4. BIBLIOGRAPHIE

1995. Loi n° 95-101 du 2 février 1995 relative au renforcement de la protection de l'environnement :Gouvernement français.

A. PIELKE JR., R., SAREWITZ, D. & BYERLY JR., R. 2000. Decision making and the future of nature: understanding and using predictions. In Prediction: Science, decision making, and the future of nature, 361. : .

AEBI, C. 2015. Évaluation du systeme de prediction de cambriolages résidentiels PRECOBS. In École des Sciences Criminelles, 65. : Université de Lausanne.

ALLOING, C. & MOINET, N. 2016 : Les signaux faibles: du mythe à la mystification. Hermès, La Revue, 86-92.

AMOORE, L. 2013 : The politics of possibility: risk and security beyond probability. :

Duke University Press.

--- 2016 : Cloud geographies Computing, data, sovereignty. Progress in Human Geography, 1-21.

AMOORE, L. & RALEY, R. 2017 : Securing with algorithms: Knowledge, decision, sovereignty. Security Dialogue, 48.

ANSERMET, F. 2008. Les effets iatrogènes de la prédiction. In Enfants turbulents:

l'enfer est-il pavé de bonnes préventions?, 59-68. : ERES.

BACHELARD, G. 1950 [1943] : L'air et les songes : essai sur l'imagination du mouvement. : J. Corti.

BAUMAN, Z. 2007 : Le présent liquide. Peurs sociales et obsession sécuritaire. :

Paris, Le Seuil.

BECK, U. 2003 : La société du risque globalisé revue sous l'angle de la menace terroriste. Cahiers internationaux de sociologie, 27-33.

--- 2008 [1986] : La société du risque : Sur la voie d'une autre modernité.

BENGIO, Y. 2016 : La révolution de l'apprentissage profond. Pour la Science, 7.

BERTHIER, T. 2014. Projections algorithmiques, concurrences et altruisme. :

TransVision 2014.

BOGDANOSKI, M. 2017. Finding the right balance between security and privacy:

NATO and the Big Data Analyses. In Big Data: New Challenges for Law and Ethics. Faculty of Law University of Ljubljana.

BONDITTI, P. 2005 : Biométrie et maîtrise des flux: vers une «géo-technopolis du vivant-en-mobilité»? Cultures & Conflits, 131-154.

BOULLIER, D. 2016. Politique des données ou données sans politique ? :

Colloque international "Humanisme numérique : valeurs et modèles pour demain ?".

BOURGOIN, N. 2016. La police prédictive débarque en France. In Alter Info. : .

BOURMEAU, S. 2016. Ni Foucault 2.0 ni Debord 2.0. In La Suite dans les idées. :

France Culture.

BOYER, P. 2015 : Ville connectée = vies transformées : notre prochaine utopie ? [préface de Karine Dognin-Sauze postface de Bruno Monier Vinard]. : Bluffy : Editions Kawa.

CARDON, D. 2015 : A quoi rêvent les algorithmes : nos vies à l'heure des big data. : Paris : Ed. du Seuil.

CHALAS, Y., GILBERT, C. & VINCK, D. 2009. Saisir la question de l’incertitude à partir de la pratique des acteurs. In Comment les acteurs s’ arrangent avec l’incertitude, 9-22. : .

25

CNRTL : UMR Analyse et Traitement Informatique de la Langue Française

(CNRS – Nancy Université).

COSTANTINI, F. 2017. Social network, social profiling, predictive policing. Current issues and future perspectives. In Big Data: New Chalenges for Law and Ethics. Faculty of Law University of Ljubljana.

CUKIER, K. 2016 : Big Data et algorithmes : la course aux données. Cahiers français, 392.

DALBY, S. 2015 : Book review: The Politics of Possibility: Risk and Security Beyond Probability. Progress in Human Geography, 39, 676-677.

DELEUZE, G. & GUATTARI, F. 2013 [1980] : Mille plateaux : Capitalisme et schizophrénie, 2. : Minuit.

DUPUY, J.-P. 2002 : Pour un catastrophisme éclairé : quand l'impossible est

certain. : Paris : Éditions du Seuil.

EDWARDS, L. & VEALE, M. 2017. Slave to the Algorhythm? Legal and

technological sticking points concerning machine learning and the GDPR. In Big Data: New Chalenges for Law and Ethics. Faculty of Law

University of Ljubljana.

ELLUL, J. 2012 [1977] : Le système technicien. : le Cherche midi.

FOUCAULT, M. 2004 [1977-1978] : Sécurité, territoire, population: cours au Collège de France, 1977-1978. : Gallimard.

GROBELNIK, M. 2017. Limits of the current state of Artificial Intelligence for Law. In Big Data: New Challenges for Law and Ethics. Faculty of Law University of Ljubljana.

HAGGERTY, K. D. & ERICSON, R. V. 2000 : The surveillant assemblage. The British journal of sociology, 51, 605-622.

HOURDEAUX, J. 2015 : Gendarmes et industriels imaginent un nouveau logiciel pour prédire le crime. Mediapart, 1-5.

JANKELEVITCH, V. 1983 : Le Je-ne-sais-quoi et le Presque-rien. 1-La Manière et

l'Occasion 2-La Méconnaissance et le Malentendu 3-La Volonté de Vouloir.

KITCHIN, R. & DODGE, M. 2011 : Code/space : software and everyday life. :

Cambridge, Mass. : MIT Press.

KLAUSER, F. 2013 : Through Foucault to a political geography of mediation in the information age. Geographica Helvetica, 68, 95-104.

--- 2016 : Interview with Jeremy Crampton. GeoAgenda, 4, 8-9.

KLAUSER, F. R. 2017. Surveillance & Space. : Sage.

KLAUSER, F. R. & ALBRECHTSLUND, A. 2014 : From self-tracking to smart urban

infrastructures: Towards an interdisciplinary research agenda on Big Data. Surveillance & Society, 12, 14.

LATOUR, B. 2014 : Changer de société, refaire de la sociologie. : La découverte.

LE CUN, Y. 2016. L'apprentissage profond : une révolution en intelligence artificielle. In Chaire Informatique et sciences numériques (2015-2016), ed. C. d. France. : .

LESZCZYNSKI, A. 2016 : Speculative futures: Cities, data, and governance beyond smart urbanism. Environment and Planning A, 1691-1708.

LÉVY, J. & LUSSAULT, M. 2003 : Dictionnaire de la géographie [et de l'espace des sociétés]. : Belin Paris.

LYON, D. 2007 : Surveillance studies: An overview. : Polity.

MARTIN, N. 2017. Principe de précaution : où poser les limites ? . In La Méthode scientifique. : France Culture.

26

MATZNER, T. 2016 : Beyond data as representation: The performativity of Big Data in surveillance. Surveillance & Society, 14, 197.

MCCULLOCH, J. & PICKERING, S. 2009 : Pre-crime and counter-terrorism imagining future crime in the ‘war on terror’. British Journal of Criminology, 49,

628-645.

MCCULLOCH, J. & WILSON, D. 2015 : Pre-crime: Pre-emption, precaution and the future. : Routledge.

MONAHAN, T. 2010 : Surveillance as governance: social inequality and the pursuit of democratic surveillance. Surveillance and democracy, 91-110.

NELSON, N., GELTZER, A. & HILGARTNER, S. 2008 : Introduction: the anticipatory state: making policy-relevant knowledge about the future. Science & Public Policy (SPP), 35.

NOYER, J.-M. & CARMES, M. 2014 : L'irrésistible montée de l'algorithmique : méthodes et concepts en SHS. Les cahiers du numérique, 63-102.

OGURA, T. 2006 : Electronic government and surveillance-oriented society. Theorizing surveillance, 270-295.

PERRY, W. L., MCINNIS, B., PRICE, C. C., SMITH, S. C. & HOLLYWOOD, J. S. 2013.

Predictive Policing: The Role of Crime Forecasting in Law Enforcement Operations. : RAND Corporation.

PHILLIPS, J. 2006 : Agencement/assemblage. Theory, Culture & Society, 23, 108-

109.

PÖCHHACKER, N. 2016 : Predictive policing. Datenbasierte

Verrechensbekämpfung und eine neue Geographie des Risikos. GeoAgenda, 4, 13-15.

QUÉRÉ, L. 2015 : Retour sur l’agentivité des objets. Occasional Papers, 1-12.

RAUFER, X. 2016 : Démons et merveilles du «prédictif» : une bonne fois pour toutes. Sécurité globale, 107-120.

RAZAC, O. 2008 : Avec Foucault, après Foucault : Disséquer la société de

contrôle. : Editions L'Harmattan.

RENUCCI, F. 2016 : Surveiller et prédire. Hermès, La Revue, 156-161.

ROUVROY, A. 2010 : La «digitalisation de la vie même» : enjeux épistémologiques et politiques de la mémoire digitale. Documentaliste, 47, 63-64.

--- 2015 : L'algorithme n'est" pas un système de prédiction mais d'intervention" (entretien réalisé par Jérôme Hourdeaux). Mediapart.

--- 2016 : La gouvernementalité algorithmique : radicalisation et stratégie immunitaire du capitalisme et du néolibéralisme ? La Deleuziana.

ROUVROY, A. & BERNS, T. 2010 : Le nouveau pouvoir statistique. Multitudes, 88-

103.

--- 2013 : Gouvernementalité algorithmique et perspectives d'émancipation. Réseaux, 163-196.

SADIN, É. 2010 : Surveillance globale : Enquête sur les nouvelles formes de

contrôle. : Editions Flammarion.

---. 2011 : La société de l'anticipation : le web précognitif ou la rupture anthropologique. : Inculte.

---. 2013 : L'humanité augmentée : l'administration numérique du monde. :

l'Échappée.

---. 2015 : La vie algorithmique: critique de la raison numérique. : L’Echappée.

---. 2016 : La silicolonisation du monde. L’irrésistible expansion du libéralisme numerique.

27

SHELLER, M. 2006 : Mobile technologies of the city / ed. by Mimi Sheller ... [et al.]. : London : Routledge.

SIMONDON, G. 1989 [1958] : Du mode d'existence des objets techniques.

SOUBEYRAN, O. 2015 : Pensée aménagiste et improvisation: l’improvisation en

jazz et l’écologisation de la pensée aménagiste. : Archives contemporaines.

STIEGLER, B. 2015 : La Société automatique : 1. L'avenir du travail. : Fayard.

TAYEBI, M. A. & GLÄSSER, U. 2016. Social Network Analysis in Predictive Policing.

In Social Network Analysis in Predictive Policing, 7-14. : Springer.

TIMAN, T. 2017. “But I used quotation marks”: data science methods and misinterpretations. In Big Data: New Chalenges for Law and Ethics. Faculty of law University of Ljubljana.

TOVAR, E. : Mesurer la justice socio-spatiale : de l'ancien au nouveau monde,

promesses et menaces du «Big Data». 23.

UCHIDA, C. D. 2009 : A national discussion on predictive policing: Defining our terms and mapping successful implementation strategies. : National

Institute of Justice.

VAN CAMPENHOUDT, L. & QUIVY, R. 2011 : Manuel de recherche en sciences sociales-4e edition. : Dunod.

WILSON, D. 2017. Algorithmic Patrol: The Futures of Predictive Policing. Faculty

of Law University of Ljubljana: Big Data: New Challenges for Law and Ethics.

ZWITTER, A. 2014 : Big data ethics. Big Data & Society, 1.