e-legal

Recherche
Volume n°7

I-Police ou l’art de prédire la discrimination

PDF

Avant-propos

La réalisation de ce travail a nécessité en amont un important effort d’investigation afin de dissiper une partie de l’opacité entourant le programme I-Police. En commençant nos recherches, nous nous sommes vite rendu à l’évidence que les informations laissées en libre accès ne suffiraient pas à appuyer notre argumentation. Il a donc fallu nous tourner directement vers les autorités compétentes. Nous ne pouvons cacher le fait que la prise de contact avec les instances policières fut laborieuse. Outre les longs mois sans réponse et les changements inopinés d’interlocuteur.rices, obtenir de la documentation fut pénible. Néanmoins, ces démarches furent récompensées par l’obtention du dossier de sélection décrivant le marché public I-Police. En continuant d’insister, nous avons également eu l’occasion d’avoir un entretien téléphonique avec l’un des project managers d’I-Police. Cette conversation fut riche en renseignements. Toutefois, ce dernier n’a pas donné suite au courriel dans lequel il lui était demandé d’approuver ses déclarations. Ayant interprété son silence comme accord, nous nous permettons d’utiliser les informations retranscrites dans cet entretien. Cette expérience appuie le manque de transparence qui a pu être observé à l’égard des outils de police prédictive1.

Sur tout autre chose, nous tenons à préciser d’emblée que nous nous rallions à la position de la Ligue des droits humains quant à l’usage du terme « race » et de ses dérivés. Ceux-ci sont « contestables, à de nombreux points de vue, et ne sont pas pertinents. Ils ne sont dès lors utilisés dans le présent document que lorsqu’il n’y a pas moyen de les éviter, c’est-à-dire lorsqu’ils sont mobilisés par une structure qui continue à avoir recours à cette terminologie erronée »2.

Introduction

§1 L’académicien Jean Dutourd a dit : « la seule chose dont on soit sûr, en ce qui concerne l’avenir, c’est qu’il n’est jamais conforme à nos prévisions »3. Cette affirmation est tellement évidente qu’elle pourrait en devenir une lapalissade. Pourtant, l’État belge a cru à la théorie selon laquelle le crime est prédictible. En 2014, les autorités ont annoncé le lancement aux environs 2020-2030 d’« I-Police », outil de police prédictive censé assister les forces de l’ordre dans leurs missions quotidiennes4. Néanmoins, si le terme de « police prédictive » donne lieu à de nombreux fantasmes et attentes5, l’introduction de ces nouvelles technologies multiplie les interrogations, parmi lesquelles la problématique des discriminations. En effet, nous ayant devancés dans l’utilisation de ces nouveaux programmes6, les États-Unis ont pu tirer certaines conclusions. L’expérience américaine dévoile notamment que les statistiques criminelles historiques, empreintes de pratiques policières discriminatoires, alimentent les bases de données et par conséquent les logiciels prédictifs. Cela aurait pour effet de corrompre ces logiciels en les rendant à leur tour discriminants7. Partant, la police belge étant accusée de profilage ethnique par Amnesty International8, il parait censé de s’interroger quant à l’emploi du système I-Police. Se pose dès lors la question suivante : « En théorie, comment I-Police peut-il se rendre coupable de discrimination ? ».

Afin de répondre à la question de recherche, il a été décidé d’opter pour une approche formaliste basée sur la « technique juridique »9. Dans cette optique, la cadre légal belge relatif aux discriminations sera délimité pour ensuite l’appliquer pratiquement au cas d’I-Police. L’idée est de construire l’hypothèse dans laquelle ce système prédictif pourrait devenir discriminant et donc violer la législation en vigueur.

Pour y parvenir, cet article s’articulera en deux grands chapitres. Le premier rendra le sujet de la police prédictive plus limpide. Il a pour mission de donner au.à la lecteur.ice les outils nécessaires afin qu’iel puisse s’approprier la démonstration qui sera faite plus loin. Y seront évoqués la théorie générale, les enjeux et bien sûr le système I-Police en lui-même. La seconde partie de cette étude rappellera d’abord le cadre législatif anti-discrimination en vigueur. Elle s’attèlera ensuite à démontrer que le profilage ethnique constitue une discrimination répréhensible, qu’il est employé par la police belge et que par conséquent il imprègne les données utilisées par I-Police, transformant ce dernier en un outil discriminant.

Police prédictive : une réalité proche de la fiction

§2 Rares sont ceux qui savent à quoi renvoie le terme de « police prédictive ». Quelques irréductibles s’évertuent toutefois à faire référence à la nouvelle de Philip K. Dick adaptée à l’écran par Steven Spielberg : Minority Report. Une dystopie dans laquelle la société ne connait plus de crimes grâce aux prédictions de trois oracles permettant l’arrestation des criminels par une unité spécialisée et ce, avant qu’ils n’aient même commis leurs méfaits.

L’ancrage de cette œuvre dans l’inconscient collectif est intéressant car il déteint aujourd’hui sur les attentes liées à l’usage d’outils prédictifs par la police10. À ce titre, il est assez cocasse d’apprendre que le terme anglais pour « police prédictive » (predictive policing) est lui-même tiré du film de 2002 dans lequel joue Tom Cruise11. Les images véhiculées par les médias sont également le reflet de ce qui est projeté comme le remède miracle à la criminalité12. Il n’y a qu’à lire les titres d’articles annonçant l’usage d’outils prédictifs en Belgique : « i-Police: la police va prévoir la criminalité grâce à des algorithmes »13, « La police va bientôt anticiper les délits grâce au nouveau système iPolice »14 ou encore « Voici venu le temps de l’iPolice belge ! »15.

L’idée dans ce chapitre est de préalablement démystifier le terme de « police prédictive » et de clarifier ses contours en définissant les notions clefs qui gravitent autour. D’abord, en décortiquant les catégories d’outils englobés sous cette appellation, puis en exposant brièvement certains modèles utilisés à l’étranger afin d’en présenter les applications concrètes. S’ensuit le développement des différents enjeux que soulève l’utilisation du prédictif dans la lutte contre le crime. Ce sera ainsi l’occasion d’amorcer la problématique qui est la nôtre. En dernier lieu, le système I-Police lui-même sera abordé, une importance primordiale lui étant accordée car toutes les informations connues à son égard y seront compilées. De fait, il est essentiel d’en apprendre le plus possible sur celui-ci afin de démontrer ultérieurement en quoi il pourrait devenir problématique.

Vue d’ensemble

§3 La formule « police prédictive » sous-tend une série de notions telles qu’« algorithme » ou encore « big data ». Le premier point s’évertuera de manière concise et intelligible à les définir afin de faciliter la compréhension du présent travail. Au sein des outils prédictifs, différents paramètres cohabitent et influencent les problématiques qui en découlent. Ils seront déclinés en plusieurs catégories (point « les différentes catégories »). Par ailleurs, de nombreux pays expérimentent ou ont adopté des logiciels prédictifs. Ainsi, dans le cadre de ce travail, les États-Unis, la France et les Pays-Bas ont été sélectionnés dans une approche comparative pour mettre en avant la traduction pratique des modèles, leurs bilans et entrevoir les possibles inspirations d’I-Police (point « exemples internationaux »).

Définition

§4 La définition largement répandue du terme « police prédictive » englobe le domaine de recherche ayant pour objectif l’élaboration d’outils qui pourraient « prédire » – selon un taux de probabilité – soit les lieux et moments d’activités criminelles, soit les auteur.ices ou victimes de crimes. Outre un nombre croissant de données diverses, sont utilisées pour cela des techniques analytiques/de statistiques avancées et des algorithmes16.

§5 Il est utile d’approfondir plusieurs termes employés ci-dessus. Le premier est « algorithme », entendu comme une « suite finie et non ambiguë d’opérations permettant d’atteindre un résultat. Par extension, un ensemble de codes informatiques ou instructions réalisant les opérations »17. Un algorithme sert à « résoudre un problème ou effectuer une tâche, à partir d’entrées, en suivant certaines étapes »18. La police prédictive emploie, entre autres, des algorithmes apprenant par eux-mêmes (dits de « machine learning »). Cela correspond à « une forme d'intelligence artificielle (IA) qui permet à un système d'apprendre à partir des données et non à l'aide d'une programmation explicite »19. Pour alimenter les programmes prédictifs, des données sont donc indispensables. Celles-ci sont souvent associées à des expressions telles que « big data » ou encore « data mining ». La première expression désigne les « mégadonnées » c’est-à-dire « l’analyse de gros volumes de données » tandis que la seconde se comprend comme « un type d’apprentissage automatique qui consiste à repérer des constantes intéressantes dans d’énormes quantités de données »20. Ces dernières sont de plus en plus nombreuses dans le domaine du prédictif21.

§6 Dans la définition générale donnée plus haut, le terme « prédire » a été mis entre guillemets de manière réfléchie. En effet, les formules d’« outil d’aide à la décision » ou « analyse décisionnelle » sont fréquemment préférées. Comme rapidement évoqué plus haut, le terme de « police prédictive » est à prendre avec précaution22. Il a surtout été choisi pour son côté avant-gardiste, idéal pour illustrer un renouveau des forces de police à l’ère des nouvelles technologies23. Cette stratégie s’avère plutôt payante vu l’engouement suscité dans les médias. Toutefois, promettre de prédire la criminalité ne sert qu’un dessein de communication publique. En réalité, les programmes « prédictifs » auront souvent tendance à jouer sur la proactivité des forces de l’ordre et l’optimisation de leurs ressources. Ils auront un rôle d’adjuvant dans la constitution de politiques de prévention et de sécurisation de l’espace public. Les données produites vont pouvoir aider à l’amélioration des choix tactiques, à une meilleure gestion des patrouilles et à un suivi plus encadré des agent.es24.

Les différentes catégories

§7 Il n’existe pas un seul modèle prédictif commun à tous les logiciels employés par la police, plusieurs variables peuvent être observées. Trois d’entre elles ont été sélectionnées en raison du fait qu’elles influencent différemment les enjeux traités plus loin dans cet article. D’abord, il sera question des « cibles » choisies par l’outil qui pourront être des personnes ou des lieux. Ensuite, il sera discuté d’algorithmes spécifiques et de l’importance des données ingérées. Le dernier point, quant à lui, introduira les notions d’outils « internes » ou « externes » se distinguant par leur concepteur.rice.

« Person-based » ou « place-based predictive policing »

§8 Les outils « person-based » sont ceux qui prennent pour cible une personne. Deux options s’ouvrent alors : soit il est décidé de surveiller de potentiel.es auteur.ices de méfaits, soit d’identifier des personnes risquant d’être des victimes. Ils sont utilisés, par exemple, pour chiffrer la probabilité de récidive des détenu.es en passe d’être libéré.es. Ils se prêtent également à la dissuasion et la prévention ciblée à l’encontre de certains individus dits « à risque » car susceptibles d’être impliqués dans des violences entre gangs ou domestiques25. Principalement prisés outre-Atlantique avec des programmes tels que la Strategic Subject List initiée à Chicago (qui sera évoquée plus loin), ces types d’outils sont loin d’être majoritairement adoptés en Europe. Cela s’explique par les risques engendrés par ces dispositifs en matière de protection de la vie privée et de collecte de données personnelles. De facto, les moindres faits et gestes des cibles – et de leur entourage – se verront scrutés. En outre, l’attribution d’une étiquette « victime » ou « auteur » pose, elle aussi, question26.

§9 Quant aux outils « place-based », l’objectif est de définir via une carte interactive « les lieux et moments où le crime a le plus de risque de survenir »27. Le postulat de base justifiant leur usage résulte de la théorie selon laquelle un crime se produit là où il a déjà eu lieu ; les crimes seraient comme l’Histoire : un éternel recommencement28. La carte recouvre donc une zone préalablement définie, découpée elle-même en plus petites aires géographiques pour former visuellement une sorte de maillage. Plus les secteurs délimités par les quadrillages seront réduits, plus les prédictions seront fiables29. Outre un découpage spatial, ces systèmes nécessitent d’opter pour un type d’infractions à poursuivre (ex. : cambriolages, agressions, etc.). Habituellement, ils passent d’abord par une phase d’apprentissage durant laquelle ils repèrent des patterns30 dans les données mises à leur disposition. Ensuite, ils calculent le risque afin d’obtenir un score plus ou moins élevé, propre à chaque division territoriale31. Ce score se traduira graphiquement par une échelle de couleur (le rouge étant souvent indicateur d’un besoin accru de vigilance) d’où les appellations « hotspotting » et « heatmap »32. Certes, il a toujours fait partie du travail policier de rechercher dans les données collectées certaines tendances criminelles. Cependant, la donne a aujourd’hui changé avec le recours à de nouveaux outils analytiques dotés d’une certaine intelligence et disposant d’une masse de données considérable pouvant être exploitée33. À l’instar des modèles « person-based », les dispositifs « place-based » sont pointés du doigt pour certaines dérives. Bien que cela fasse l’objet de développements plus approfondis dans la suite de cette étude, il peut être dès à présent signalé que l’usage de ces outils présente un risque de discrimination indirecte : si ceux-ci poussent à surveiller certains quartiers en priorité et de manière répétée, il est fort probable que certaines populations expérimentent une différenciation de traitement (due à la découpe irrémédiable du territoire selon des facteurs socio-économiques). Les données utilisées jouent d’ailleurs un rôle premier dans cet engrenage34.

Données et algorithmes

§10 Brièvement évoqués au début, les algorithmes d’apprentissage (ou utilisés pour effectuer du « machine learning ») composent certains outils prédictifs. L’avantage de ceux-ci réside dans leur habilité à traiter de vastes volumes de données souvent complexes. De plus, ils se démarquent grâce à leur capacité d’autocorrection et d’auto-apprentissage. Toutefois, l’inconvénient majeur de ce type d’instruments tient à leur opacité – ils sont d’ailleurs qualifiés de « black box »35. Pour faire simple, il n’est pas aisé de mettre en lumière un lien de corrélation entre les données fournies à l’entrée et le résultat obtenu par le programme à la sortie36.

§11 D’autres types d’algorithmes moins complexes sont également employés. Ils se matérialisent sous la forme de modèles statistiques expressément destinés à un usage prédictif. Au sein de ceux-ci, sont présentes deux catégories : les « near-repeat models » et les « time-space models ». Rappelez-vous, tous les programmes prédictifs s’accordent à dire que « les incidents criminels ne se produisent pas par hasard et présentent un pattern prévisible qu'il convient de trouver »37. Les « near-repeat models » poussent la théorie encore plus loin et prétendent que certains délits (principalement les cambriolages) se propagent selon un schéma identique aux épidémies ou au séismes (l’illustration la plus marquante étant le logiciel Predpol qui sera introduit ci-après). Ces algorithmes requièrent uniquement l’historique des infractions comprenant les informations suivantes : lieu, date et type de délits. Les « time-space models » se distinguent par le fait qu’en plus des données criminelles, ils intègrent d’autres sources (telles que des données démographiques ou géographiques par exemple). Cela nécessite en conséquence une présélection des sources pertinentes38.

§12 Pour fonctionner, tous ces algorithmes ont un carburant commun : les données39. Celles-ci proviennent majoritairement des institutions policières mais le recours à des éléments externes est de plus en plus fréquent avec par exemple la météo, la densité de population, les évènements publics, etc40. Leur qualité et volume vont définir le résultat final du programme. La formule anglaise « garbage in, garbage out » résume ce phénomène. Nourrir les modules avec des données biaisées, erronées ou bancales amène automatiquement à des contre-performances ou pire (à des discriminations, inégalités, traitements défavorables, etc.)41. D’où l’importance de la collecte et de la sélection des données. Cette étape ne peut être laissée exclusivement à la machine42. L’autre condition requise au bon fonctionnement est celle d’une masse suffisante de données, comme en témoigne le fait que seul un nombre restreint de délits, comme les cambriolages ou les vols de voitures, peuvent faire l’objet de prédictions. Ces incidents sont souvent bien documentés étant donné qu’ils se produisent en nombre, font l’objet de signalements/plaintes et peuvent être rattachés à un lieu et à une date, voire une heure. Dans le cas d’infractions peu dénoncées à l’instar des viols ou violences domestiques, les programmes prédictifs seront a contrario inefficaces43.

Outils internes ou externes

§13 Derrière cette variable existe la possibilité pour les États désirant user du prédictif de concevoir seuls leur propre logiciel ou à l’inverse, de faire appel à des entreprises privées afin d’acheter un produit fini, prêt à utilisation. Ce choix n’est nullement neutre et ses répercussions sont considérables. Les grands groupes et même les start-ups ont bien compris que le marché de la prédiction sécuritaire est en plein essor44. Il existe auprès des dirigeant.es et politiques une pression sociale pour plus de sûreté. Celleux-ci voient donc dans la prédiction policière un moyen d’y parvenir, ou à tout le moins, de séduire une partie de l’opinion publique45. Aux États-Unis, où l’emploi de ces nouvelles technologies est largement répandu, ce sont des entreprises qui ont été à l’origine de leur conception. Elles sont désormais à la pointe et dominent le marché46. Il est tentant de passer par l’intermédiaire d’acteur.ices privé.es en raison d’un aspect pratique et d’une mise en place plus rapide. Cependant, il faut attirer l’attention sur les aléas que cela comporte. Il y a tout d’abord la naissance d’une dépendance du service public à l’égard de l’opérateur commercial. Celle-ci se traduit au niveau de la maintenance quotidienne/régulière du programme et de l’assistance en cas de dysfonctionnement. En vendant un produit directement prêt à l’emploi, les entreprises fournissent en réalité des « black box », c’est-à-dire des outils dont le fonctionnement et l’articulation restent obscurs pour le.a client.e. À cela s’ajoute le fait qu’à tout moment, le.a développeur.se peut modifier le programme à sa guise ou même ne plus le mettre à jour. L’autre inconvénient inhérent à ces « black box » est évidemment le manque de transparence. Il est difficile d’imaginer qu’un service public – ici, la police – ne puisse rendre des comptes aux citoyen.nes quant aux moyens qu’il emploie. De fait, comment évaluer publiquement un système s’il reste incompris par celleux qui en font usage ? Toujours dans la même veine, il est raisonnable de s’interroger sur le sort des données générées, notamment celles relatives à la criminalité. Il se pourrait qu’elles soient récupérées par le.a concepteur.rice (souvent basé.e à l’étranger) à cause de règles en matière de propriété intellectuelle et/ou droit des brevets. Dès lors, la situation pourrait dériver vers un enjeu de souveraineté nationale si des données policières venaient à devenir propriété de sociétés installées dans d’autres pays. Confier une part de la politique de sécurité publique au privé amène en définitive à douter du fait que puisse être encore pertinent le concept de « service public »47. De surcroît, au regard du coût exorbitant des logiciels privés, le choix d’outils internes apparaitra comme plus judicieux. Néanmoins, un temps de développement plus long et un manque de communication à leur propos peuvent leur être reprochés.

À la lecture des éléments exposés ci-dessus, il est plus facile de comprendre pourquoi en Europe la tendance se situe davantage dans le développement d’instruments internes tels que les système CAS (Pays-Bas), Predvol ou encore Paved (France)48. Le point ci-dessous s’attardera, entre autres, sur ces derniers.

Exemples internationaux

§14 Au fil des paragraphes précédents, l’accent a été mis sur ce qu’est « la police prédictive » théoriquement et synthétiquement. Il pourrait sembler superflu d’ajouter à cela une présentation de différents logiciels prédictifs en guise d’exemples pratiques. Au contraire, l’intérêt d’explorer les applications internationales réside ailleurs. Connaître ce qui se fait à l’étranger, c’est en apprendre plus sur ce qui pourrait se réaliser chez nous. Les États communiquent et s’inspirent mutuellement. C’est ce qu’il se passe avec I-Police : la conception de ce dernier s’accompagne notamment de discussions avec les Pays-Bas49. Partant, poser un regard sur les outils néerlandais et français s’avère indispensable tant ils nous éclairent sur le futur de la prédiction policière belge. La comparaison avec ces deux pays est naturelle comme en témoignent nos ressemblances d’un point de vue juridique et l’utilisations de langues communes. En ce qui concerne les États-Unis, ne pas parler de leur expérience en la matière semble malavisé compte tenu du fait que tous les programmes en activité descendent de leurs semblables américains, pionniers en la matière50.

États-Unis

§15 La naissance aux États-Unis des premières solutions prédictives s’explique par un terreau particulièrement fertile à ce genre d’expérimentations. Ces programmes viennent à point nommé dans un contexte où la population n’a plus confiance en sa police, où il faut faire plus avec les mêmes moyens et où le pays fait face à des phénomènes de violences particuliers (violences urbaines aggravées par le droit à porter une arme, guerres des gangs, tuerie de masses/school shootings). Encore une fois, c’est cette idée d’une solution miracle, neutre et plus économique qui séduit et pousse les États à financer le déploiement massif de ces nouveaux alliés51. Trois de ces outils méritent une attention singulière justifiée par leur influence, leur fonctionnement ou encore leur importance : Predpol, Hunchlab et SSL.

§16 Predpol est sans doute la « star » des logiciels prédictifs. Projeté sur le devant de la scène en 2011, il succède à Compstat, outil précurseur ayant pour mission de rassembler les données de la criminalité new-yorkaise ainsi que de faire rapport de la réponse policière52. Predpol est arrivé avec un concept révolutionnaire : prédire en continu où et quand le crime va sévir. Pour cela, la société américaine Predpol Inc se base sur les données archivées par la police et les passe au travers d’un algorithme afin d’obtenir une carte où sont mis en évidence des points chauds (dits « hotspots ») symbolisant les endroits où le risque de crime est le plus élevé. En se référant aux catégories présentées précédemment, Predpol rentre dans les cases d’outil externe, « place-based » et « near-repeat model ». Il peut être qualifié de « near-repeat model » car ses concepteur.ices se sont calqué.es sur un algorithme utilisé en sismologie pour prévenir les tremblements de terres53. Iels soutiennent l’hypothèse selon laquelle les crimes agissent comme les secousses secondaires d’un séisme, c’est-à-dire qu’ils « sont dépendants les uns des autres et se déplacent de proche en proche »54. Le succès du logiciel s’explique principalement par sa simplicité, mais aussi par le fait que la carte produite est facilement lisible, la formation nécessaire à l’utilisation est brève et le programme peut être installé tant sur smartphone/tablette que sur ordinateur55. Un autre point fort est le guidage des patrouilles puisque le logiciel calcule le temps nécessaire pour une présence policière optimisée dans certains secteurs56. Ce succès est visible au travers de son expansion : conçu originellement pour Los Angeles, il s’est vite exporté dans d’autres villes américaines (notamment à Atlanta, Richmond et Modesto) et même au Royaume-Uni (à Londres, dans le Kent et le Yorkshire)57.

§17 Derrière ce tableau a priori idyllique, Predpol tire également sa célébrité des critiques le désignant comme un exemple à ne pas suivre. D’un point de vue technique, lui sont reprochés : un manque de flexibilité quant à l’inclusion de données autres que celles de la police58, une incapacité à anticiper des infractions dites « spontanées » ou peu documentées59 et l’impossibilité de prouver tangiblement son efficacité. Les rares études s’étant penchées sur les résultats de Predpol ont été pour la plupart diligentées par ses créateur.ices. Lorsqu’iels prétendent diminuer la criminalité, cela doit être largement relativisé en fonction des chiffres disponibles et du type d’infraction60. L’illustration parfaite est le cas du Kent : introduit là-bas en 2013, Predpol fut abandonné en 2018 car il n’avait pu lui être officiellement attribué une quelconque baisse de la criminalité. Le coût de licence étant exorbitant, le choix fut vite fait61. D’autres voix se sont élevées pour dénoncer l’outil. Parmi elles, celle de David Marsan, père des algorithmes prédictifs en sismologie. Lui-même est perplexe quant au rapprochement fait entre les séismes et le crime. Il met en exergue le côté imprévisible et évolutif de la criminalité, celle-ci ne pouvant être assimilée à un phénomène naturel62. Enfin, il a été observé que les patrouilles dirigées par Predpol étaient constamment envoyées dans les quartiers majoritairement composés d’afro-américain.nes ou hispaniques, plus « criminogènes »63. Certain.es y voient l’indice d’un biais intrinsèque au système64.

§18 Concurrent direct de Predpol, Hunchlab est aussi un outil « place-based » à la différence que celui-ci est un « time-space model ». Il n’utilise donc pas que les trois variables (type de crime-lieux-temps) mais emploie également d’autres sources (voy. « Données et algorithmes ») pour essayer de pallier les résultats faussés par des biais65. Dans sa première version, en 2008, Hunchlab a connu un échec cuisant66. Il a fallu attendre la sortie de Predpol en 2011, pour que Hunchlab fasse l’objet d’une profonde réorientation. En 2013, il revient et innove en arguant ne pas être un logiciel prédictif67. Hunchlab se positionne comme un gestionnaire de patrouille. Il vise l’optimisation, l’aide à la décision en suggérant des zones à surveiller et en analysant les risques de surcontrôle de certains endroits. Il n’impose donc pas aux policiers un parcours de patrouille et met en place un examen a posteriori pour évaluer « leur travail et l’efficacité des propositions faites par le système »68. L’évaluation du système permet à ce dernier de s’autocorriger. À la différence de Predpol, Hunchlab fait preuve de transparence en n’ayant déposé aucun brevet sur ses composants69. Ils partagent toutefois un point commun : aucune étude n’atteste de leur réelle efficience70.

§19 Un rapide survol sera fait de la Strategic Subject List de Chicago (abrégée SSL). L’intérêt réside dans le fait que cet outil ciblait des personnes. Fondée sur l’historique des arrestations couvrant une période de quatre ans, elle répertoriait les personnes ayant le plus de chances de se retrouver impliquées dans une fusillade. Cette liste comprenait les auteur.ices et victimes potentiel.les ; iels étaient à peu près 400.000. Dans un but de prévention, ces personnes recevaient la visite régulière de policier.es et de travailleur.ses sociaux.les. En outre, les potentiel.les auteur.ices listé.es se voyaient infliger une peine maximale en cas de passage à l’acte. Le programme prit fin en 2019. Les raisons avancées sont multiples : inefficacité, partage des données avec d’autres services judicaires (« law enforcement agencies »), biais inhérents dus aux données policières utilisées, coût financier important, atteinte aux droits fondamentaux, etc71.

§20 Ce qu’il est important de garder en mémoire c’est le phénomène de biais des données utilisées par la police américaine. Leurs registres sont imprégnés de pratiques racistes ayant fait partie des habitudes policières pendant très longtemps. La plus connue est la politique dite « Terry Stop » ou « Stop-and-frisk » qui permettait aux policier.es d’arrêter et de détenir un individu momentanément même s’il n’existait à son encontre aucun soupçon d’implication dans une activité criminelle (conséquence directe de l’arrêt Terry c. Ohio de la Cour Suprême américaine72 et du principe de stare decisis73). Cette pratique fut jugée inconstitutionnelle en 2011 par la United States District Court for the Southern District of New York car elle avait pour répercussion de viser trop fréquemment les personnes afro-américaines et hispaniques74. Elle laisse cependant 43 ans de discriminations dans les données policières, aujourd’hui exploitées par les outils prédictifs75.

Pays-Bas

§21 Les Pays-Bas expérimentent plusieurs outils prédictifs. Deux attirent particulièrement notre attention : le Criminaliteit Anticipatie Systeem (abrégé CAS) et le Sensing Project. Le premier est le produit phare de la police néerlandaise. Le second est un projet-pilote qui pose déjà bon nombre de questions.

Le CAS fonctionne comme un outil « place-based », un « time-space model ». Il utilise des données relatives aux infractions passées et des données statistiques socio-économiques (âge de la population, revenus, aides sociales, etc.). Il établit toutes les deux semaines une carte prédictive où certaines zones sont colorées en rouge, orange ou jaune en fonction du niveau de risque estimé. Cela permet aux policier.es de savoir où intensifier la surveillance. Parmi les infractions ciblées se trouvent surtout les cambriolages, les vols et les agressions76. Testé en 2014 à Amsterdam, il est finalement étendu au reste du pays en 2017. Cette extension résulte d’une évaluation positive quant à l’efficience du système77. Cependant, celle-ci est encore une fois à relativiser. En effet, à l’échelle nationale rien ne démontre une réelle baisse de criminalité – et encore moins en ce qui concerne les cambriolages78. Des inquiétudes surgissent également à propos des données utilisées. Il est fort à parier que celles-ci soient biaisées. En cause, la place prise par le profilage ethnique au sein de la Nationale Politie79.

§22 Le Sensing Project est un outil-pilote déployé à Roermond afin de lutter contre le banditisme itinérant, en particulier le vol à la tire et le vol à l’étalage. Il scanne à l’aide de caméras « ANPR »80 les véhicules entrant dans la ville et analyse leurs allers et venues. Il tire de cela un certain nombre de données : modèle, marque, année, couleur, lieu d’immatriculation, etc. Ces données sont ensuite soumises à un algorithme pour en sortir un score de risque censé indiquer quels véhicules les policier.es doivent contrôler en priorité81. Amnesty International, dans un rapport publié en 2020, a dénoncé la discrimination qu’opère le programme à l’égard des individus originaires d’Europe de l’Est, a fortiori ceux issus des communautés roms. Selon elle, être immatriculé dans certains pays de l’Est augmente considérablement le score de risque attribué82. À cela, le Ministre de la Justice et de la Sécurité néerlandais a rétorqué qu’il n’y avait pas de discrimination. Il avoue néanmoins que l’accent a été mis sur les véhicules originaires de Roumanie, Bulgarie et du Royaume-Uni. Pour lui, ce traitement différencié est justifié par les chiffres qui montrent que les groupes se livrant au vol à la tire ou à l’étalage sont principalement issus de ces pays-là. Il ajoute que le Procureur général (de « officier van justitie ») a estimé cette différenciation admissible au vu des principes de proportionnalité et de subsidiarité83.

France

§23 En France, les outils prédictifs connus ont été conçus en interne par la gendarmerie. Il sera évoqué deux d’entre eux : Predvol et PAVED.

Predvol est le nom d’un programme créé par la gendarmerie (sur le modèle de Predpol) et testé dans l’Oise par celle-ci et la BAC (Brigade Anti-Criminalité). Il se présentait sous la forme d’une carte de chaleur et visait la délinquance commise à l’encontre des véhicules. En ce qui concerne les données, étaient utilisées les archives policières en plus de celles générées par la machine. Le fait que les prédictions pointaient souvent les mêmes endroits (eux-mêmes déjà connus avant son déploiement) a suggéré une faille dans la précision des prédictions (l’insuffisance de données étant une possible explication au problème). C’est cela qui a précipité son abandon84.

§24 PAVED85 fut développé en parallèle de Predvol et ce dès 2013. Initialement expérimenté dans onze départements, il a ensuite été étendu au reste de la France en 2018. Le principe est plutôt classique : le logiciel se compose d’un volet statistique proposant des « analyses quantitatives de la délinquance au niveau départemental »86 et d’un volet prédictif (même si les gendarmes préfèrent parler d’outil « d’aide à la décision ») reposant sur une heatmap. Cette carte diffère selon les départements et les données disponibles dans chacun d’entre eux (le type de criminalité pouvant varier d’un endroit à l’autre). De manière constante, ce sont les cambriolages et les vols de véhicules qui sont ciblés. Les données traitées sont fournies par l’INSEE (données statistiques socio-économiques) et les services d’ordre (police/gendarmerie)87. Malgré des résultats positifs avancés par le commandement88, les agents de terrain reprochent au logiciel de mettre en avant des endroits déjà décelés comme criminogènes par leurs soins, le poids réel de celui-ci devant être revu à la baisse89. De plus, un manque de précision et de portabilité est également rapporté90. Afin de ne pas s’exposer aux critiques, le commandement et les concepteur.rices ont préféré s’éloigner du terme « prédictif ». Pour elleux, l’outil sert les diverses stratégies de prévention, dissuasion et sécurisation. Il représenterait une réelle plus-value pour la hiérarchie, notamment dans l’optimisation de la présence policière sur le terrain91.

Les enjeux soulevés par le prédictif

§25 La théorie générale et plus particulièrement les logiciels abordés ci-dessus ont semé les graines d’une réflexion plus profonde sur les enjeux soulevés par le prédictif. Il a été entrevu que l’usage de ces derniers posait problème à différents niveaux. Il a été décidé de répartir ces enjeux en quatre sphères : respect des droits fondamentaux, protection des données personnelles, efficacité, égalité de traitement et discrimination. Le dernier point est central dans le cheminement amenant une réponse à la problématique, par conséquent, il nécessite un développement plus important.

Respect des droits fondamentaux

§26 Abstraction faite des droits à la non-discrimination et à la protection des données personnelles, d’autres droits fondamentaux sont menacés par l’utilisation de systèmes prédictifs. Prenons la présomption d’innocence. Le logiciel délivre une prédiction, celle-ci amène à contrôler un individu préventivement ou à intensifier la surveillance autour de lui. Pourtant, il n’existe aucune suspicion raisonnable d’implication dans une activité criminelle. Cette personne aura raison d’invoquer une violation de la présomption92. C’est aussi en l’absence de toute suspicion raisonnable que le Sensing Project provoque le contrôle d’automobilistes prétendu.es plus enclin.es à la criminalité mobile93. Dans une situation analogue, la Cour européenne des droits de l’Homme (abrégée CEDH) a condamné le Royaume-Uni qui autorisait ses policier.es à stopper/fouiller/inspecter un véhicule et ses occupant.es sans soupçons légitimes pour autant que cela s’inscrive dans la lutte contre le terrorisme. La Cour y a vu une violation de l’article 8 de la Convention94. Dans un autre contexte, l’Autorité de protection des données expose, dans un rapport de 2017, l’hypothèse suivante : « si par exemple un modèle d'iPolice analyse les réactions de citoyens sur les médias sociaux en vue d'exécuter des missions de police administrative ou judiciaire, l'analyse d'impact devra prendre en considération le risque et l'influence au niveau de la liberté d'expression des personnes concernées sur les médias sociaux »95. La liste des droits en danger s’allonge à nouveau. Enfin, la législation européenne protège le droit à un recours effectif et à un procès équitable96. S’il advenait qu’une personne veuille contester les décisions issues d’algorithmes prédictifs, elle aurait du mal à le faire en n’ayant pas accès à la totalité des informations relatives au fonctionnement du logiciel97. Un manque de transparence entrainerait dès lors la violation de ces garanties élémentaires. Notons dans tout cela que le risque d’atteinte aux droits fondamentaux sera souvent plus élevé dans le cadre d’outils « person-based »98. L’Union européenne ainsi que le Conseil de l’Europe, conscients de l’insécurité provoquée par ces nouveaux moyens, ont tous deux préconisé la réalisation d’une étude d’impact sur les droits humains préalable aux expérimentations d’appareils prédictifs99.

Protection des données et transparence algorithmique

§27 L’évocation du droit au respect de la vie privée nous amène irrémédiablement à la question des données personnelles. Les programmes prédictifs interrogent d’abord sur les types de données qu’ils utilisent mais également sur celles qu’ils collectent, et en quelle quantité. Dans son rapport de 2017, l’Autorité belge de protection des données rappelle qu’« établir des "corrélations" avec ou sur la base de données à caractère personnel sensibles (comme des données relatives à la race, à l'origine ethnique, aux opinions politiques, à la religion ou aux convictions philosophiques, à l'appartenance syndicale, au statut génétique ou à l'état de santé, ou à l'orientation sexuelle ou relatives aux condamnations pénales et aux infractions ou aux mesures de sureté connexes) est en principe interdit, à moins qu'une exception légale existe et que des garanties soient prévues »100. Cette sécurité émane du règlement général sur la protection des données en vigueur dans l’Union européenne101. Ces « données à caractère personnel sensibles » ont été précisées par la CEDH et incluent entre autres celles collectées dans l’espace public102. Amnesty International, dans son étude du Sensing Project, arrive à la conclusion que l’ingérence dans la vie privée due aux outils prédictifs ne peut se justifier du point de vue des critères de subsidiarité et de proportionnalité car ces outils opèrent en réalité une surveillance de masse103. L’emploi de « données à caractère personnel sensibles » est généralement l’apanage des logiciels « person-based ». Leur rareté dans l’espace européen s’explique notamment par le cadre législatif sévère et d’application large constitué par le règlement en matière de protection des données personnelles104. Cependant, il existe un risque de « ré-identification » même avec les programmes « place-based »105. En effet, il a été « démontré à plusieurs reprises au cours des dernières années que même des données soi-disant anonymisées ou codées pouvaient être reliées sans beaucoup de difficulté à des individus »106. En cela, les « projets pour lesquels on utilise des ensembles de données riches en variables » présentent « une grande probabilité qu'une combinaison de ces variables détermine un individu de manière univoque »107. En lien indirect avec les données à caractère personnel se trouve le débat sur la transparence. Le constat qui est fait aujourd’hui est celui d’une opacité entourant les programmes prédictifs108. Nombreuses sont les interrogations quant au fonctionnement interne des outils, aux données collectées et traitées, aux algorithmes utilisés... Moins nombreuses sont les réponses109. Pourtant il est dans l’intérêt de l’État d’apporter plus de clarté afin d’éviter une perte de confiance chez les citoyen.nes110. Cette transparence permet aussi de rassurer en ce qui concerne les risques d’intrusion dans la vie privée111. Le manque de transparence peut être le fait de la police mais pas seulement. Dans certains cas, il provient des compagnies commercialisant les logiciels et arguant que ceux-ci sont leur propriété112. Face à cette carence, il existe pourtant un principe de loyauté qui suppose que « les personnes concernées doivent être informées de manière loyale sur le traitement de leurs données à caractère personnel et de leur conférer notamment un droit d’accès »113.

Efficacité réelle de ces systèmes

§28 Predpol dans le Kent, Predvol en France, la SSL de Chicago, Shreveport114, etc. Ce sont autant d’exemples de programmes abandonnés en raison d’un manque probant d’efficacité. Même dans les cas où une preuve d’efficience a été avancée, le doute est permis (comme cela a déjà été souligné plus haut). Plusieurs soucis peuvent être relevés dans l’évaluation de ces systèmes. Outre la rareté des évaluations, c’est surtout leur objectivité qui est compromise. Elles sont souvent commandées par les entreprises elles-mêmes. Les systèmes ne sont pas soumis à un examen critique effectué par un organisme indépendant115. De plus, il a été constaté dans les rapports d’utilisation qu’il n’est fait référence qu’aux statistiques de criminalité et à la bonne gestion des patrouilles116. Or, dans l’idéal, il faudrait plutôt se concentrer sur la précision effective des prédictions générées117. Avoir une évaluation méticuleuse c’est permettre la mise en balance éclairée entre les intérêts sécuritaires et les atteintes potentielles aux droits fondamentaux118. C’est également justifier l’usage des systèmes et mesurer la plus-value apportée par de nouvelles variables119. Reste enfin la tendance que les logiciels ont à susciter « leur propre validité » en « pré-formatant la réalité »120.

§29 L’inefficacité peut être due à de multiples facteurs :

  • La survalorisation de la police prédictive121. Résultant principalement des médias et de la publicité des vendeur.ses, le prédictif est perçu comme une boule de cristal capable de faire appréhender les criminel.les en flagrant délit. Cette perception d’infaillibilité122 va à l’encontre de ce que les outils prédictifs savent vraiment faire : rechercher des patterns et quantifier le risque123. De plus, en fonctionnant sur base des données des crimes passés, une prédiction ne constitue qu’une « extrapolation du passée »124.
  • « L’effet plumeau » ou « effet de déplacement »125. Les programmes prédictifs ont fréquemment pour conséquence de faire baisser temporairement la criminalité à un niveau local. L’explication est simple : une fois la présence policière intensifiée dans une zone, les auteur.ices d’infraction iront d’instinct opérer ailleurs. C’est logique et cela révèle pourquoi au niveau national, la criminalité n’observe aucune baisse (voy. le Criminaliteit Anticipatie Systeem). Au final, les logiciels influent sur le processus qu’ils analysent126.
  • Les modestes conséquences des erreurs de prédiction. Au contraire des séismes, une erreur prédictive en matière de police ne sera jamais vraiment ratée. Il vaudra mieux cela que de ne rien faire du tout. En résumé, « la robustesse d’une prédiction est inversement proportionnelle à ses conséquences pratiques »127.

Égalité de traitement et discrimination

§30 Semés tout au long de ce travail ont été les indices du mal frappant les outils prédictifs et nous intéressant le plus : le risque de discrimination. En tête nous avons l’idée populaire selon laquelle les nouvelles technologies, les algorithmes et autres intelligences artificielles sont infaillibles, neutres et objectives ; les « robots » ne peuvent avoir de préjugés. Cette affirmation est éminemment fausse128. Un programme prédictif est avant tout le fruit de son environnement. Il est le produit d’êtres humains, le reflet d’une société dans laquelle stéréotypes et discriminations cohabitent129. Tout est une histoire de contexte. Pour comprendre les logiciels prédictifs, il faut avoir égard aux entreprises qui les conçoivent. Celles-ci peuvent être dirigées par d’ancien.nes policier.es ou personnes ayant travaillé dans le monde judiciaire et ayant des idées préconçues issues de leurs expériences. En vendant leurs logiciels aux forces de l’ordre, iels savent ce que ces dernières recherchent et feront en sorte de présenter un outil répondant à leurs attentes130. Peut aussi être pointé le manque de diversité au sein des équipes de designer131. Si celleux-ci ne représentent pas la société dans son hétérogénéité, cela se ressentira forcément sur le résultat final.

§31 Au-delà de ces considérations hypothétiques, il existe un consensus sur la propension des outils prédictifs à inclure des biais132. Souvenez-vous de l’adage « garbage in, garbage out »133. Le principe était qu’en nourrissant un algorithme avec des données biaisées, celui-ci les reproduisait. Si ces données sont empreintes de discriminations, l’outil reproduira ces discriminations134. Même si les avis divergent sur les manières dont un programme prédictif peut devenir discriminant, deux phases apparaissent comme essentielles au phénomène : la conception et l’apprentissage135. Au sein de ces deux étapes, il a pu être mis en avant six procédés pouvant être le point de départ de décisions discriminantes. Il s’agit « de la définition de la variable cible et des étiquettes de classe, de l’étiquetage des données d’apprentissage, de la collecte des données d’apprentissage, de la sélection des caractéristiques, du choix des données indirectes. Enfin, les systèmes peuvent être délibérément utilisés à des fins discriminatoires »136. S’applique à notre étude « la collecte des données d’apprentissage ». Les outils de police prédictive apprennent et fonctionnent grâce aux données engrangées en matière de criminalité. Si dans le passé la police a particulièrement ciblé certains groupes ethniques, les quartiers populaires ou les personnes issues de l’immigration par exemple (voy. Terry Stop et Stop-and-frisk aux États-Unis), ces dernier.es seront par conséquent surreprésenté.es dans les fichiers policiers. Le modèle va dès lors intégrer que ces populations (ou ces endroits) sont plus enclines à la commission d’infractions. Au final, les prédictions qui seront générées reproduiront les discriminations présentes dans les bases de données137. Outre le risque de reproduction, il existe également un risque d’amplification via le concept de « boucle de rétroaction ». Le système ayant appris à prédire sur base de biais, il va diriger les patrouilles sur les zones historiquement harcelées. De ces interventions seront tirées de nouvelles données qui serviront à nouveau comme base d’apprentissage et qui amplifieront les biais originels138. En bref, les « discriminations s’autoalimentent »139.

§32 Les concepteur.rices de logiciels prédictifs ont admis la problématique des biais et y apportent globalement deux types de réponses. La première consiste à dire que l’algorithme n’est pas meilleur ou pire que l’être humain et qu’au fond il se comporte tel un miroir. S’il produit discrimination et inégalité, cela reflète uniquement l’état actuel de la société. La machine ne fait pas pire que l’humain140. Outre cette vision plutôt cynique, Predpol et Hunchlab ont pour projet d’inclure au sein de leur logiciel un paramètre censé équilibrer le ratio interventions profitables/infructueuses. Les mathématiques pourraient selon eux participer à amoindrir le préjudice inhérent à l’activité policière141. N’en demeure pas moins compliqué de prouver une discrimination opérée par une intelligence artificielle142. Le manque de transparence (souligné précédemment) rend complexe l’obtention d’une preuve, les systèmes se caractérisant par leur aspect « black box »143.

Belgique : la modernité grâce à I-Police

§33 Avant de poser un regard critique sur l’outil, il faut en connaitre la nature et l’agencement. Ce point s’évertuera à le faire grâce aux investigations effectuées en amont. La collecte d’informations a été laborieuse notamment en raison d’une communication sporadique des institutions policières ainsi que du manque de documentation en libre accès (cela fait écho au problème de la transparence). Afin de dresser le portrait d’I-Police, nous reprendrons la structure de la section traitant des différentes catégories (outil « person-based » ou « place-based », données et algorithmes, etc.). D’éventuelles précisions seront ajoutées subséquemment.

§34 I-Police fut présenté dans la presse comme un modèle prédictif, or il ne résume pas qu’à cela. Il résulte d’abord d’un plan global de modernisation de la police144. L’objectif principal est une fusion de différentes bases de données actuellement cloisonnées. Il existe bien la BNG (Banque de données Nationale Générale) recensant des millions de fichiers policiers mais elle n’est plus suffisante aujourd’hui au vu de la multiplication des informations et des ponts nécessaires entre celles-ci145. Cette nouvelle base de données servira à tous les agents qui verront leur accessibilité différer selon le niveau de confidentialité des renseignements demandés146. La facilité résidera dans la possibilité pour le.a fonctionnaire de l’avoir à disposition « sur le terrain via sa tablette ou son smartphone »147. La nature des futures données exploitables sera détaillée par la suite. Reste à noter qu’en plus de cette fusion, I-Police souhaite automatiser un maximum de tâches quotidiennes du policier.e et exploiter/analyser automatiquement les données en leur possession (les big data entre autres)148.

§35 Passons au volet qui nous intéresse : le prédictif. Les autorités ne cachent pas leur enthousiasme quant à la possibilité d’user des prédictions149. Notre contact en charge d’I-Police auprès de la police fédérale, va d’ailleurs dans ce sens quand il explique qu’à l’heure actuelle, la police ne peut se permettre de faire sans le prédictif. Peu importe, selon lui, que les résultats ne soient pas systématiquement conformes à la réalité, les situations réellement anticipées prévaudront150. Un peu de flou entoure cet aspect car le produit voulu par la police doit être « non-fini », c’est-à-dire ne pas constituer une black box151. Il y a derrière cette exigence le désir d’une « architecture » développée sur « un mode de copropriété »152. En simplifiant, la police cherche une dépendance minimale à l’égard du concepteur.rice du modèle et veut pouvoir participer à la construction de ce dernier. Une mise en œuvre progressive est prônée afin d’inclure graduellement de nouvelles applications. Ceci explique donc le flou évoqué concernant le volet prédictif qui, même s’il est souhaité et prévu, n’a encore aucune traduction concrète153. Comme vous l’aurez sans doute deviné à la suite des indications précédentes, I-Police est un outil « externe » (voy. ci-dessus). Il a fait l’objet d’une procédure de marché public avec dialogue compétitif154.

§36 La forme choisie sera certainement un modèle « place-based »155. Pour appuyer cette affirmation, nous nous en tenons à certains extraits du document décrivant le marché public I-Police. Un chapitre de celui-ci intitulé « Inspirational Epic – une journée dans la vie d’un(e) policier(ière) anno 2020 » est particulièrement interpellant. Il décrit la journée-type d’un.e policier.e « du futur » et indique par exemple que, « grâce à l'analyse informatisée d'un certain nombre d'incidents récents et des accidents de la circulation, et l'ouverture prochaine d'une nouvelle Zone PME, un modèle “prédictif” sera réalisé et un plan pour la surveillance préventive des bâtiments des PME sera mis au point »156. Un autre scenario projette qu’un.e agent « consulte par le biais de Police-Maps, les lieux où il doit aller dans son quartier et le “smart device” lui suggèrera, suite à sa question, l'itinéraire optimal en tenant compte des absences déclarées de citoyens qui souhaitent que leur habitation soit contrôlée par la police ou qui ont besoin d'une réponse. Une illustration indique également que, dans l'après-midi, il y a un évènement sportif qui traverse le quartier »157. Enfin, I-Police pourra apparemment détecter une recrudescence « de vols de bicyclettes autour d'un certain endroit et à certains moments » et ce grâce aux « “data scientists” à Bruxelles [qui] ont programmé le système pour reconnaître des “anomalies” de ce type ». Partant, l’agent pourra « travailler proactivement et résoudre les problèmes », en prévoyant des « patrouilles récurrentes »158. Outre ces pastilles anticipatives, le choix de cartes prédictives et de hotspots où seront dirigées des patrouilles préventives/dissuasives, ne fait pas débat. À l’inverse, il semble être écarté l’usage de programmes « person-based »159. Un point d’interrogation subsiste néanmoins dans le type d’infraction ciblé. Le spectre envisagé est encore large allant des cambriolages au terrorisme160. Cependant, cela peut être nuancé au vu de l’opinion donnée par Pieter De Crem (alors Ministre fédéral de la Sécurité et de l’Intérieur) qui préconisait d’ « identifier les phénomènes criminels qui sont les plus adéquats à prédire » afin d’éviter « un outil inefficace »161.

§37 Demeure l’enjeu des données et algorithmes exploités. L’ambition est clairement d’optimiser le rendement des outils prédictifs avec le plus de données possible. Des notions telles que « big data », « data mining », « masterdata » séduisent et fascinent162. Concrètement, les données premières sont policières163. Elles sont bien connues, elles alimentent tous les algorithmes prédictifs. Dans le cas d’I-Police elles proviennent « du fonctionnement opérationnel de la police (celles enregistrées en réponse au fonctionnement quotidien de la police) », « des partenaires de la police (Registre national, Banque-Carrefour des entreprises, etc.) » ou ont été « transférées par des tiers (par exemple, les données des antennes des opérateurs de télécommunication) »164. Aux côtés de ces dernières, il y a les « sources ouvertes » ou « open data » qui sont « accessibles au public et reprises par la police »165. Elles peuvent provenir des réseaux sociaux, de la presse ou des instituts météorologiques166. Le sujet des données et l’exploitation pharaonique qui en est souhaitée soulèvent quelques inquiétudes167. L’Organe de contrôle de l’information policière (abrégé COC) s’interroge, dans un avis de 2018, sur l’existence d’une « base légale suffisante pour instaurer le futur concept d’I-Police » en raison des informations exploitées « qui ne sont pas encore évaluées et/ou validées »168. Le COC insiste sur la prudence qui est de mise « dans des situations de contrôle pouvant avoir des effets sur les droits et libertés des personnes »169. Font aussi état de ces inquiétudes les nombreuses questions parlementaires pointant les potentielles dérives (profilage ethnique170, atteinte à la vie privée, etc.)171. Outre l’invocation d’un cadre législatif protecteur172 et d’une consultation de l’Autorité de protection des données (en collaboration avec le monde universitaire)173, une réponse de Pieter de Crem démontre que l’exécutif est bien conscient des risques auquel il s’expose en mettant en œuvre des logiciels prédictifs. Il déclare : « Sans disposer des résultats des différentes études dont vous me parlez, mais en se basant sur les expériences européennes et d’autres études internationales sur le sujet, mon administration estime important avant toute chose de bien construire la base de ce qui fera la “police prédictive”, c’est-à-dire les données. Trop souvent, les données exploitées sont les statistiques policières et seulement celles-ci. En agissant ainsi, on installe un biais dans le système et on force les algorithmes à reproduire des préjugés et des interprétations erronées des faits. Les statistiques policières reflètent avant toute chose l’activité policière. Elles ne reflètent pas la réalité criminelle d’un territoire donné »174. Notre interlocuteur en charge d’I-Police avance afin de rassurer : la maîtrise des outils en interne, la mise en place d’une gouvernance et l’existence d’organismes de contrôle (le Comité P, le COC). Il souligne également l’importance de l’obligation de rendre compte devant le Parlement ainsi que du dialogue déjà établi en matière de données avec la Liga voor Mensrechten175.

§38 Alors que le déploiement global d’I-Police est prévu pour 2026176, un modèle prédictif a déjà été expérimenté dans la zone de police de Zennevallei (Brabant flamand). Censé débuté en novembre 2019, il fut finalement lancé début 2020 et prolongé en raison du Covid-19. Mené en collaboration avec l’Université de Gand, il visait entre autres la prédiction des cambriolages177. Un projet similaire aurait également vu le jour en Province d’Anvers en partenariat avec l’UAntwerp178.

Discrimination raciale : une fatalité pour I-Police ?

§39 Dans la présente étude, nous avons pris connaissance du concept de police prédictive, nous l’avons détaillé et en avons fait ressortir les grandes problématiques. Parmi elles, il a été mis en exergue le risque de reproduction voire d’amplification des discriminations. Pour expliquer ce mécanisme, il a été démontré qu’entraîner les algorithmes à l’aide de données biaisées par des pratiques racistes aboutissait au « clonage » de ces dernières. En dernier lieu, nous avons opéré la dissection du logiciel I-Police, objet de notre recherche, afin d’en apprendre un maximum sur sa teneur.

§40 Le présent chapitre est crucial tant il va s’évertuer à démontrer qu’I-Police sera un relais pour les discriminations raciales. On tend ici à prouver que les données policières belges sont faussées par le profilage ethnique. En exposant cela, il est facile de prédire que le logiciel apprendra à fonctionner sur base de données empreintes de discrimination raciale, qu’il ne fera que répéter. Dans cette optique, ce chapitre sera subdivisé en trois parties. Il sera d’abord rappelé de manière concise le cadre législatif de la lutte anti-discrimination. La démonstration de la présence de profilage ethnique au sein de la police viendra dans un second temps. S’il est nécessaire de prévenir d’un danger, il l’est tout autant de proposer une issue. Pour cela un ultime point sera consacré aux potentielles alternatives censées éviter la déroute.

Les armes législatives dans la lutte contre les discriminations

§41 Même si un inventaire de l’arsenal législatif s’impose en raison de l’approche choisie, la brièveté sera ici de mise.

En guise de préambule, il convient de définir la notion de « discrimination ». Précédé en cela par la jurisprudence, le droit de l’Union distingue la discrimination directe et indirecte179. Pour qu’il y ait discrimination directe, « il doit y avoir une différence dans le traitement de personnes placées dans des situations analogues ou comparables » en sachant que « seules les différences de traitement fondées sur une caractéristique identifiable (“situation”) sont susceptibles de revêtir un caractère discriminatoire »180. La discrimination indirecte est pour sa part décrite comme « une différence de traitement [pouvant] consister en un effet préjudiciable disproportionné occasionné par une politique ou une mesure qui, bien que formulée de manière neutre, opère une discrimination à l’égard d’un groupe »181.

§42 Liane Chancerelle a été plus loin en élaborant, dans le cadre de l’intelligence artificielle, une définition spécifique de la discrimination qui prend place « lorsque deux personnes similaires en termes de critères légitimes ne reçoivent pas les mêmes prédictions, recommandations ou appariement du fait de leur différence en termes de critères illégitimes »182.

§43 La discrimination est actuellement couverte dans une multitude de textes législatifs. Son interdiction passe d’abord par un niveau international avec notamment le Pacte international relatif aux droits civils et politiques183, la Convention internationale sur l'élimination de toutes les formes de discrimination raciale184, la Déclaration universelle des droits de l’homme185 et la Convention de sauvegarde des droits de l’homme186. Au sein de l’Union européenne, plusieurs sources sont primordiales : la Charte des droits fondamentaux de l’Union européenne187, le traité sur le fonctionnement de l'Union européenne188 ou encore la directive 2000/43/CE189. Notre domaine de recherche appelle également à ce que l’on cite le RGPD, qui en son considérant 71, requiert de prévenir « entre autres, les effets discriminatoires à l'égard des personnes physiques fondées sur la l'origine raciale ou ethnique (…) »190. Notons toutefois que, n’étant qu’un considérant, cette disposition n’a aucun pouvoir coercitif191.

§44 Si l’on se recentre sur la Belgique, il y a évidemment en premier lieu les articles 10 et 11 de la Constitution192. En second lieu, afin de transposer en droit national le droit européen cité plus haut193, le législateur belge a adopté les célèbres lois du 10 mai 2007 (la loi antiracisme194, la loi anti-discrimination195 et la loi dite « genre »196)197. À ce titre, il faut souligner que ces lois valent tant au civil qu’au pénal, et intègrent les discriminations directes et indirectes198. En dernier lieu, les législations régionales et communautaires peuvent également être citées. Ces dernières luttent contre les discriminations à l’intérieur des compétences qui leur sont attribuées et pour cette raison, nous ne nous épancherons pas dessus.

La problématique du profilage ethnique dans la police belge et son influence sur I-Police

§45 Avant de développer, reprenons l’affirmation de départ. Comme enseigné précédemment, tout outil prédictif apprend et fonctionne sur base des données qui lui sont fournies. Un risque existe donc : qu’elles soient biaisées. Il a été vu à ce propos que la collecte des données d’apprentissage est l’un des moments propices à l’intégration de biais. En se focalisant sur la police prédictive, l’usage veut que ses modèles se servent des archives, des banques de données policières. À cette fin, I-Police dispose, par exemple, des sources de police « administrative, judiciaire et de circulation, d’informations classifiées et non-classifiées, d’informations sur des faits concrets et non concrets, etc. »199. Parler de collecte de données d’apprentissage revient dans notre cas à regarder le contexte dans lequel les fichiers policiers se sont construits. Aux États-Unis, il a été observé que les archives de la police étaient imprégnées de pratiques historiquement racistes (voy. Terry-Stop et Stop-and-frisk) et c’est de ce constat que découle l’allégation suivant laquelle la surexposition des minorités génère « un biais dans ces banques de données à la base des activités dites prédictives »200. En conséquence, les systèmes prédictifs reproduiront (ou amplifieront) les discriminations tirées des données qu’ils ont exploitées. Ainsi, les minorités201 feront face à « un nombre disproportionné de correspondances et, en cascade, d’arrestations, incarcérations, condamnations, etc. »202. Avant d’entamer la suite, citons Madame E. Tendayi Achiume, rapporteuse spéciale de l’ONU sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée, qui a déclaré : « Technology is not neutral or objective. It is fundamentally shaped by the racial, ethnic, gender and other inequalities prevalent in society, and typically makes these inequalities worse. It is resulting in discrimination and unequal treatment in all areas of life, from education and employment to healthcare and criminal justice »203.

§46 Là où les Américain.es ont vu leur données biaisées par les politiques Terry-Stop et Stop-and-frisk, nous soutenons la thèse selon laquelle les données qui nourriront I-Police sont altérées par le profilage ethnique exercé par la police belge. Cette démonstration opérera en trois étapes. La première consistera à définir l’expression « profilage ethnique ». Dans un second temps, nous verrons de quelle manière cela constitue une discrimination prohibée en droit. En dernier lieu, nous établirons l’utilisation de cette méthode au sein de la police belge.

La Commission Européenne contre le Racisme et l’Intolérance (abrégée ECRI) définit le profilage ethnique comme « l’utilisation par la police, sans justification objective et raisonnable, de motifs tels que la race, la couleur, la langue, la religion, la nationalité ou l’origine nationale dans des activités de contrôle, de surveillance ou d’investigation »204. La formulation de « profilage ethnique » pose en soi des questions205. À ce sujet, la Ligue des droits humains déclare que « la problématique du profilage correspond parfois plus à un profilage “au faciès” qu’à une véritable “ethnicité” supposée »206. Cependant, la dénomination « ethnique » sera retenue par la suite en raison du fait qu’elle est utilisée par « les recherches académiques », « les pouvoirs publics » et surtout « les personnes concernées par ces contrôles »207.

§47 Tel que défini ci-dessus, il fait peu de doute que le profilage ethnique constitue une discrimination répréhensible aux yeux du droit. En ce sens l’Agence des droits fondamentaux de l’Union européenne (abrégée FRA) décrète que « toute forme de profilage ethnique est probablement illégale, en termes de droit international également, en ce qu’elle contrevient aux garanties contenues dans la Convention internationale pour l’élimination de toute forme de discrimination raciale. Cette convention lie tous les États membres de l’UE »208. Le terme « probablement » fait écho à l’idée qu’en des circonstances particulières, des « formes spécifiques de profilage criminel » puissent être licites209. Par exemple, les profils de suspects basés sur les dires de témoins et comprenant des caractéristiques telles que la couleur de peau demeurent légaux tant qu’ils font partie d’une « description détaillée (…) circonscrite dans le temps et dans l'espace »210. Pour la FRA, il est essentiel « que l’origine ethnique, la race ou la religion de la personne ne soit pas l’unique ou la principale raison justifiant le contrôle et la fouille ou toute autre action de la police »211. Dans le cas contraire, nous serions face à un cas de discrimination directe réprimée par la loi212. À l’inverse, il a également été plaidé qu’importe ses modalités, le profilage ethnique constitue une discrimination répréhensible213. C’est en tout cas ce qui ressort du Programme d’action de Durban où le profilage ethnique est identifié chaque fois que « la police et les autres agents des forces de l’ordre se fient, si peu que ce soit, à la race, à la couleur, à l’ascendance ou à l’origine nationale ou ethnique pour soumettre des personnes à des investigations ou déterminer si un individu donné a des activités criminelles »214. On constate dès lors une définition englobant un nombre plus important de situations et qui va être mobilisée par le Comité pour l’élimination de la discrimination raciale (abrégé CERD) dans sa recommandation générale n°36215. Le Comité va ainsi condamner le « profilage racial » qu’il considère comme « contraire à l’idée même de la Convention » et exhorte les États parties à faire en sorte « qu’il ne se produise pas » ou « ne soit pas facilité »216.

§48 Cette interdiction du profilage ethnique (tel que défini par l’ECRI ou la FRA), la Belgique va elle-même l’affirmer dans un rapport soumis au Comité pour l’élimination de la discrimination raciale en 2019217. Malgré que cela n’ait pas toujours été clair218, la Cour européenne des droits de l'homme a, elle aussi, fini par condamner la pratique du profilage ethnique dans l’arrêt Timishev c. Russie219. Plus récemment dans l’arrêt Lingurar c. Roumanie, la Cour a jugé que les « requérants ont été visés parce qu’ils étaient Roms et parce que les autorités considéraient les membres de la communauté rom en général comme des délinquants »220. Selon elle, « ces éléments montrent que les autorités ont établi de manière automatique un lien entre origine ethnique et délinquance » et y a vu, par conséquent, « un profilage ethnique des requérants et une pratique discriminatoire, emportant violation de l’article 14 combiné avec l’article 3 »221. Dans l’affaire Rosalind Williams Lecraft c. Espagne, notons que le Comité des droits de l’homme a lui vu dans le profilage ethnique une « forme de discrimination raciale » ainsi qu’une « violation des droits humains fondamentaux »222.

§49 Il reste à démontrer la présence du profilage ethnique dans les habitudes policières. La preuve d’une telle pratique en Belgique est difficile à apporter en raison de l’absence de chiffres officiels sur le phénomène et l’insuffisance d’études académiques traitant du sujet223. À cela s’ajoute le déni complet des autorités et des gouvernant.es quant à ce fléau224.

Cependant, il est possible d’affirmer aujourd’hui que le profilage ethnique est une réalité ancrée dans les habitudes de maintien de l’ordre. Ce sont d’abord les ONG qui nous ont permis de prendre connaissance du problème, en cela Amnesty International et la Ligue des droits humains225. Celles-ci renvoient aux conclusions d’autres organismes faisant, eux aussi, le constat d’un usage répandu du profilage ethnique en Europe226, et plus particulièrement en Belgique227. Toutefois, la clef de voûte de notre argumentation réside dans les rapports périodiques d’un organe des Nations Unies : le Comité pour l’élimination de la discrimination raciale. Dès 2014, en parlant de la Belgique, ce dernier s’inquiète des « informations selon lesquelles les personnes d’origine étrangère sont surreprésentées dans le système de justice pénale, notamment du point de vue du taux et de la durée d’incarcération »228. Rien de nouveau vu le rapport de 2002 faisant état « de plusieurs incidents racistes, survenus dans des postes de police, dans lesquels étaient impliqués des agents des forces de l’ordre et dont les victimes étaient des immigrants et des demandeurs d’asile »229. Finalement, la situation atteint son paroxysme en avril 2021 lorsque le Comité dit être « préoccupé du fait que le profilage racial par la police continue d’être un problème persistant dans l’État partie et qu’il n’existe aucune loi interdisant explicitement le profilage racial »230.

§50 En guise d’éléments supplémentaires, il peut être relevé l’existence d’un rapport d’audition sur le profilage ethnique fait au nom de la Commission de l’Intérieur, des Affaires générales et de la Fonction publique231, ainsi que l’enregistrement des contrôles d’identité dans la zone de police Malines-Willebroek afin de lutter contre le profilage ethnique232. De plus, il a été observé à Bruxelles que « les quartiers les plus équipés en caméras de surveillance sont le centre-ville et les quartiers populaires à forte densité de population immigrée (ex. : Matongé et le centre historique de Molenbeek) »233. Témoignages de violences racistes au sein de la police belge, nous renvoyons également les lecteur.rices aux affaires Turan Cakir234, Bouyid235 et Boutaffala236 portées devant la Cour européenne des droits de l’homme237.

Les solutions face à un naufrage annoncé

§51 Bien que cela ne soit pas la fonction première de ce travail, il parait pertinent de poser des pistes de solution face au désastre que sera le volet prédictif d’I-Police. À notre humble avis, l’abandon pur et simple du projet est le choix le plus raisonnable au vu des dangers suscités. Cependant, il semble que les autorités ne soient pas disposées à renoncer au prédictif238.

Dans cette perspective, une réforme législative serait nécessaire pour garantir les droits et libertés des citoyen.nes dans le cadre très spécifique des nouvelles technologies policières239. Une réponse adéquate devrait émerger au niveau européen ; à cet effet, le RGPD pourrait être modifié afin de renforcer la protection contre les discriminations issues notamment des procédés d’intelligences artificielles240.

De plus, il est important de garantir aux personnes victimes de discriminations engendrées par les prédictions un droit de recours effectif241. Cette prérogative pourrait s’exercer auprès d’un organe désigné exclusivement pour cela242, comme l’envisage le droit européen243.

§52 À un moment donné, l’absence d’expertises objectives des systèmes prédictifs et les lacunes dans les rares exceptions ont été pointées du doigt. L’évaluation consciencieuse des risques et du fonctionnement de ceux-ci est un point à parfaire244. Des études d’impact sont nécessaires à plusieurs niveaux. Elles doivent porter tant sur les risques inhérents à l’algorithme utilisé (cibles, critères choisis, etc.)245 que sur les données employées246. Pour celles-ci, il faut étudier « la collecte, le stockage la préparation, l’analyse et l’utilisation »247. Enfin, une évaluation performante est une évaluation qui s’effectue « en cours d’utilisation et en continu »248.

§53 Face au manque de transparence des programmes prédictifs, l’une des solutions proposées est la mise en place de « stop forms »249 ou « récépissés »250. Le principe est le suivant : à la suite de chaque contrôle de police, un document indiquant certaines informations – telles que l’origine ethnique de la personne contrôlée et les raisons du contrôle – serait octroyé aux individus contrôlés251. Ces stop forms permettraient d’évaluer statistiquement si un modèle atteint disproportionnellement certaines personnes qui auraient en commun une caractéristique protégée252. Toujours dans cette idée de transparence, une autre recommandation plébiscitée est l’instauration d’un vrai dialogue entre les acteur.rices de la société civile et les autorités à propos du prédictif253. Ce dialogue peut être optimisé par l’établissement d’une collaboration entre le monde universitaire, scientifique et les institutions policières254.

Conclusion

§54 L’aboutissement de cet article ne peut se concevoir sans réemprunter le cheminement qui l’y a amené. En débutant par une vue d’ensemble, les bases et notions clefs ont pu être posées. Au-delà de son utilité irréfutable dans la compréhension du présent travail, elle a mis en évidence l’importance des données et s’est servie de l’expérience américaine comme illustration de la théorie générale. L’expérience américaine a été cruciale car c’est grâce à elle qu’ont pu être observées les conséquences d’un modèle prédictif intrinsèquement biaisé. En cause, l’ancrage durable de pratiques policières racistes. Cet exemple a conduit à évoquer les enjeux liés au prédictif et plus particulièrement l’inquiétude relative aux discriminations. Les discriminations sont reproduites par le programme si celui-ci s’est (ou a été) entrainé à l’aide de données biaisées. L’intégration de biais pouvant s’opérer au moment de la collecte des données d’apprentissage. Ceci explique l’influence néfaste des politiques Terry Stop et Stop-and-frisk sur les logiciels étasuniens. Une fois ce mécanismes exposé, il a fallu l’appliquer au cas d’I-Police. La Belgique ne connait pas les même pratiques que celles présentes aux USA mais trouve son pareil dans la problématique du profilage ethnique. Il a été démontré que son usage est répandu et encore observable en 2021 au sein de la police belge. À cela s’est superposé son caractère illégal car discriminant. Partant, il ne fait aucun doute que les données utilisées par I-Police seront biaisées car imprégnées par ce procédé. Par conséquent, l’outil prédictif reproduira indéniablement ce qu’il a appris, c’est-à-dire des discriminations.

§55 Il a été évoqué ci-avant les solutions existantes afin de limiter la casse. Cependant il ne faut pas se leurrer, ces solutions apparaissent finalement comme des bouées de sauvetage là où c’est le navire qu’il faut empêcher de couler. L’usage de la police prédictive est un non-sens pour plusieurs raisons dont certaines ont été évoquées au fil de cette recherche. Pire qu’un non-sens, elle constitue à pleins d’égards un danger qu’il ne faut sous-estimer en raison de l’apparence faussement neutre attribuée aux technologies. Le temps, l’énergie et l’argent investis dans ces outils auraient pu trouver un placement plus rentable dans l’éducation, la police de proximité ou dans la lutte contre les inégalités qui sont des moyens durables de lutter contre la délinquance. Certain.es me traiteront d’utopiste mais où se trouve réellement l’utopie quand on prétend pouvoir prédire le crime ?


  1. Institut d’Aménagement et d’Urbanisme d’Île-de-France, « La police prédictive : enjeux soulevés par l’usage des algorithmes prédictifs en matière de sécurité publique », disponible sur www.fnau.org, 2019, p. 5 ; Williams P. et Kind E., « Data-driven: the hardwiring of discriminatory policing practices across Europe (rapport pour le Réseau européen contre le racisme (ENAR)) », disponible sur https://www.enar-eu.org, novembre 2019, p. 27. 

  2. Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 8. 

  3. Dutourd J., Mascareigne ou le Schéma, Paris, Librairie Générale Française, 1979. 

  4. X, « L’intelligence artificielle pour “fliquer” le citoyen à la place de la police, pas si vite... », disponible sur www.lesoir.be, 13 août 2018. 

  5. Raufer X., « Police prédictive : les belles histoires de l’Oncle Predpol », in Sécurité globale, Vol. 3-4, 2015, pp. 95-110, p. 99. 

  6. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 3. 

  7. Castets-Renard C. et al., « Encadrement des risques techniques et juridiques des activités de police prédictive (rapport de recherche du Centre des Hautes Études du Ministère de l’Intérieur) », disponible sur https://hal.archives-ouvertes.fr, 2019, p. 19. 

  8. Amnesty International, « On ne sait jamais avec des gens comme vous : Politiques policières de prévention du profilage ethnique en Belgique », disponible sur www.amnesty.be, 2018. 

  9. Corten O., Méthodologie du droit international public, Bruxelles, Éditions de l’Université de Bruxelles, 2009, p. 23. 

  10. Perry W. et al., Predictive Policing: The Role of Crime Forecasting in Law Enforcement Operations, Santa Monica, RAND Corporation, 2013, pp. 149 et 150. 

  11. Perry W. et al., ibid., p. 114. 

  12. Raufer X., op. cit., pp. 99 et 100. 

  13. Bové L., « La police va prévoir la criminalité grâce à des algorithmes », disponible sur www.lecho.be, 20 août 2018. 

  14. J.M., « La police va bientôt anticiper les délits grâce au nouveau système iPolice », disponible sur www.sudinfo.be, 1er juin 2019. 

  15. Ben N. et M.B., « Voici venu le temps de l’iPolice belge ! », disponible sur www.dhnet.be, 20 mai 2016. 

  16. Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », in Réseaux, Vol. 206, 2017, pp. 95-123, p. 97 ; Hardyns W. et Rummens A., « Predictive Policing as a New Tool for Law Enforcement? Recent Developments and Challenges », in Eur. J. Policy Res., Vol. 24, 2017, pp. 201-218, p. 201; Amnesty International, « We sense trouble: automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 4. 

  17. Castets-Renard C. et al., op. cit., p. 68. 

  18. Chancerelle L., « La lutte contre les discrimination en Europe à l’ère de l’intelligence artificielle et du big data », in J.D.J., Vol. 381, 2019, pp. 25-37, pp. 25 et 26. 

  19. Hurwitz J. et Kirsch D., Machine Learning for dummies: IBM Limited Edition, Hoboken, John Wiley & Sons Inc, 2018, p. 4. 

  20. Zuiderveen Borgesius F., « Discrimination, intelligence artificielle et décisions algorithmiques (étude à l’intention du Service anti-discrimination du Conseil de l’Europe) », disponible sur https://www.coe.int/fr/, 2018, p. 9. 

  21. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 14 ; Snaphaan T. et Hardyns W., « Environmental criminology in the big data era », in European Journal of Criminology, Vol. 18, 2019, pp. 713-734, p. 716. 

  22. Castets-Renard C. et al., op. cit., p. 8. 

  23. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 4. 

  24. Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », in Réseaux, Vol. 211, 2018, pp. 221-256, p. 223 ; Castets-Renard C., « L’IA en pratique : la police prédictive aux États-Unis », in Dalloz IP/IT, Vol. 5, 2019, pp. 314-317, p. 314 ; Perry W. et al., op. cit., p. 30 ; Institut d’Aménagement et d’Urbanisme d’Île-de-France, ibid., p. 4; Hardyns W. et Rummens A., op. cit., p. 203 ; Castets-Renard C. et al., op. cit., p. 8. 

  25. Institut d’Aménagement et d’Urbanisme d’Île-de-France, ibid., p. 14 ; Hardyns W. et Rummens A., op. cit., p. 203. 

  26. Hielscher M. et Heeder M. (Réalisateurs). (2017). Pre-Crime [Film]. Kloos & Co. 

  27. Castets-Renard C. et al., op. cit., p. 9. 

  28. Perry W. et al., op. cit., p. 49. 

  29. Hardyns W. et Rummens A., op. cit., p. 204 ; Castets-Renard C. et al., op. cit., p. 36. 

  30. Mot tiré de l’anglais se comprenant comme un « modèle spécifique représentant d'une façon schématique la structure d'un comportement individuel ou collectif », Larousse. 

  31. Hardyns W. et Rummens A., op. cit., p. 204. 

  32. Castets-Renard C. et al., op. cit., p. 70. 

  33. Perry W. et al., op. cit., p. 29 ; Williams P. et Kind E., op. cit., p. 23. 

  34. Castets-Renard C. et al., op. cit., p. 37. 

  35. Hardyns W. et Rummens A., op. cit., p. 206. 

  36. Hardyns W. et Rummens A., ibid., p. 206. 

  37. Castets-Renard C., « L’IA en pratique : la police prédictive aux États-Unis », op. cit., p. 314 ; Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., p. 95. 

  38. Hardyns W. et Rummens A., op. cit., p. 206 ; Wang X. et Brown D. E., « The spatio-temporal modeling for criminal incidents », in Security Informatics, Vol. 1:2, 2012, pp. 1-17. 

  39. Castets-Renard C., « L’IA en pratique : la police prédictive aux États-Unis », op. cit., p. 314. 

  40. Hardyns W. et Rummens A., op. cit., p. 205. 

  41. Chancerelle L., op. cit., p. 31 ; Barocas S. et Selbst A.D., « Big data’s disparate impact », in California Law Review, Vol. 104:671, 2016, pp. 671-732, p. 683. 

  42. Perry W. et al., op. cit., p. 151. 

  43. Hardyns W. et Rummens A., op. cit., p. 205 ; Castets-renard C., « L’IA en pratique : la police prédictive aux États-Unis », op. cit., 2019*,* p. 314. 

  44. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., pp. 11 et 12. 

  45. Institut d’Aménagement et d’Urbanisme d’Île-de-France, ibid., p. 29. 

  46. Castets-Renard C. et al., op. cit., p. 13. 

  47. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 29 ; Castets-Renard C., « Régulation des algorithmes et gouvernance du machine learning : vers une transparence et “explicabilité” des décisions algorithmiques ? », in Revue Droit & Affaires, Vol. 15, 2018, consultable sur https://papers.ssrn.com, p. 11 ; Castets-Renard C. et al., op. cit., pp. 19, 28, 34 et 35. 

  48. Castets-Renard C. et al., op. cit., p. 13. 

  49. Réponse donnée le 12 février 2019 à la question n°6-2175 de L. BAJART, Sén., 2018-2019, disponible sur www.senate.be ; Retranscription de l’entretien téléphonique avec un project manager d'I-Police (Annexe n°1 que l'auteur tient à disposition sur demande), réponse 1, d). 

  50. Castets-Renard C. et al., op. cit., p. 5. 

  51. Castets-Renard C. et al., op. cit., pp. 5 et 6 ; Ferguson A. G., The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement, New York, NYU Press, 2017, p. 21. 

  52. Castets-Renard C. et al., op. cit., p. 5. 

  53. Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., p. 234 ; Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., p. 101 ; Castets-Renard C. et al., op. cit., p. 14 à 16 ; Chancerelle L., op. cit., p. 30. 

  54. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 4. 

  55. Castets-Renard et al., op. cit., p. 16 ; Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., p. 234. 

  56. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 4 ; Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., pp. 238 et 239. 

  57. Hardyns W. et Rummens A., op. cit., p. 209. 

  58. Hardyns W. et Rummens A., ibid., p. 210. 

  59. Castets-Renard C. et al., op. cit., p. 16. 

  60. Mohler G., « Marked point process hotspot maps for homicide and gun crime prediction in Chicago », in International Journal of Forecasting, Vol. 30, 2014, pp. 491-497, pp. 495 et 496; Castets-Renard C. et al., op. cit., pp. 18 et 56; Hardyns W. et Rummens A., op. cit., pp. 11 et 12; Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 9 ; Mohler G. et al., « Randomized controlled field trials of predictive policing », in Journal of the American Statistical Association, Vol. 110:512, 2015, pp. 1399-1411, pp. 1408 à 1410. 

  61. X., « Kent Police stop using crime predicting software », disponible sur https://bbc.com, 26 novembre 2018 ; X., « Kent crime up despite new predictive policing’ tool », disponible sur https://bbc.com, 30 avril 2015. 

  62. Chancerelle L., op. cit., p. 30. 

  63. Castets-Renard C. et al., op. cit., p. 18. 

  64. Ibid., p. 19. 

  65. Hardyns W. et Rummens A., op. cit., p. 11. 

  66. Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., p. 234. 

  67. Ibid., pp. 232 et 234. 

  68. Castets-Renard C. et al., op. cit., pp. 23 à 25. 

  69. Ibid., p. 26. 

  70. Hardyns W. et Rummens A., op. cit., p. 211; Ratcliffe J.H. et al., « The Philadelphia predictive policing experiment », in Journal of Experimental Criminology, Vol. 17, 2021, pp. 15-41, pp. 30 à 33. 

  71. City of Chicago, « Strategic Subject List – Historical », disponible sur https://data.cityofchicago.org, 2020 ; Gorner J. et Sweeney A., « For years Chicago police rated the risk of tens of thousands being caught up in violence. That controversial effort has quietly been ended », disponible sur www.chicagotribune.com, 2020 ; Castets-Renard C. et al., op. cit., pp. 28 à 30. 

  72. Cour suprême des États-Unis, arrêt Terry c. Ohio, n°392 U.S. 1, 10 juin 1968, consultable sur https://supreme.justia.com. 

  73. Le stare decisis est un principe en droit étasunien selon lequel les tribunaux s’appuient sur les précédents pour prendre leurs décisions. Stare decisis signifie en latin : « s’en tenir aux choses décidées ». Voy. Mead J. W., « Stare Decisis in the Inferior Courts of the United States », in Nevada Law Journal, Vol. 12:787, 2012, pp. 788-830. 

  74. Cour de district des États-Unis pour le district sud de New York, arrêt Floyd c. City of New York, n°08.Civ. 1034 (SAS), 12 août 2013, consultable sur https://ccrjustice.org. 

  75. Castets-Renard C. et al., op. cit., pp. 6 et 7. 

  76. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 4. ; Williams P. et Kind E., op. cit., p. 26; Castets-Renard C. et al., op. cit., pp. 32 et 33 ; Hardyns W. et Rummens A., op. cit., p. 207. 

  77. de Graauw J. S., Tijdruimtelijk voorspellen van criminele incidenten, mémoire, Vrije Universiteit Amsterdam, 2014, pp. 34 et 38 ; Hardyns W. et Rummens A., op. cit., p. 208 ; Willems D., « Predictive Policing – wens of werkelijkheid », in Het Tijdschrift voor de Politie, Vol. 4/5, 2014, pp. 39-42, p. 42. 

  78. Mali B., Bronkhorst-Giesen C. et den Hengst M., « Predicitve policing: lessen voor de toekomst. Een evaluatie van de landelijke pilot », disponible sur https://www.politieacademie.nl, 2017, pp. 41 et 42 ; Das A. et Schuilenburg M., « Garbage in, garbage out: over predictive policing en vuile data », in Beleid & Maatschappij, Vol. 47, 2020, pp. 254-268, p. 257; Amnesty International, « We sense trouble: automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 13. 

  79. Das A. et Schuilenburg M., ibid., p. 258 ; de Vries L., « Algoritmes en lokale overheden: kansen voor iedereen? », disponible sur https://d66.nl, 2020, pp. 43 et 44. 

  80. Anagramme pour « Automated Number Plate Recognition ». 

  81. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, pp. 5 et 26 ; X., « Plan van aapak : Opreationele Proef Tuin Sensin Roermond », disponible sur https://www.politie.nl, 2017, pp. 4 à 6. 

  82. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 6. 

  83. Ministerie van Justitie en Veiligheid, « Reactie op verzoek commissie over het rapport van Amnesty International over massasurveillance », disponible sur https://www.tweedekamer.nl, 11 décembre 2020. 

  84. Castets-Renard C. et al., op. cit., pp. 30, 31 et 36 ; Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., pp. 16 et 17. 

  85. Anagramme pour « Plateforme d’Analyse et de Visualisation Évolutive de la Délinquance ». 

  86. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 18. 

  87. Castets-Renard C. et al., op. cit., pp. 31 et 50 ; Institut d’Aménagement et d’Urbanisme d’Île-de-France, ibid., pp. 17, 18, 20, 25 et 30. 

  88. Lascar O. et Martin N., « 22 – V’là la police prédictive ! », disponible sur https://www.franceculture.fr, 5 décembre 2018. 

  89. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., pp. 22 et 27. 

  90. Ibid., pp. 22, 23 et 30. 

  91. Ibid., pp. 24, 25, 28 et 30. 

  92. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, pp. 12 et 13. 

  93. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 29. 

  94. Cour eur. D.H., Gillan et Quinton c. Royaume-Uni, Chambre, requête n° 4158/05, 12 janvier 2010, §87 ; Convention de sauvegarde des droits de l’homme et des libertés fondamentales, signée à Rome le 4 novembre 1950, approuvée par la loi du 13 mai 1955, M.B., 19 août 1955, art. 8 ; Charte des droits fondamentaux de l’Union européenne, signée à Nice le 7 décembre 2000, approuvée par la loi 19 juin 2008, M.B., 19 février 2009, art. 7. 

  95. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 17. 

  96. Charte des droits fondamentaux de l’Union européenne précitée, art. 47 et 48. 

  97. Castets-Renard C. et al., op. cit., p. 40 ; Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 32. 

  98. Castets-Renard C. et al., op. cit., p. 39. 

  99. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), J.O.U.E., L 119, 4 mai 2016, art. 35 ; Recommandation CM/REC(2020)1 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’homme, adoptée par le Comité des Ministres le 8 avril 2020 lors de la 1373ème réunion des Délégués des Ministres, §3.1. 

  100. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 50. 

  101. Règlement (UE) 2016/679 précité, considérant 51 et 71 et art. 9, al. 2 et 10. 

  102. Cour eur. D.H., Shimovolos c. Russie, requête n°30194/09, Chambre, 21 juin 2011, §§64 à 66. 

  103. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 19. 

  104. Castets-Renard C. et al., op. cit., p. 45. 

  105. Castets-Renard C. et al., op. cit., p. 44. 

  106. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 20. 

  107. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 21. 

  108. Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., p. 105. 

  109. Castets-Renard C., « L’IA en pratique : la police prédictive aux États-Unis », op. cit., p. 314. 

  110. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 27. 

  111. Perry W. et al., op. cit., p. 158. 

  112. Williams P. et Kind E., op. cit., p. 27. 

  113. Castets-Renard C. et al., op. cit., p. 53 ; Règlement (UE) 2016/679 précité, considérant 39 ; Charte des droits fondamentaux de l’Union européenne précitée, art. 8(2). 

  114. National Institute of Justice, « Evaluation of the Shreveport Predictive Policing Experiment », disponible sur https://nij.ojp.gov, 6 mars 2018. 

  115. Castets-Renard C. et al., op. cit., pp. 55 et 56 ; Hardyns W; et Rummens A., op. cit., p. 202 ; Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 13. 

  116. Castets-Renard C., « L’IA en pratique : la police prédictive aux États-Unis », op. cit., p. 314. 

  117. Castets-Renard C. et al., op. cit., p. 55. 

  118. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 13. 

  119. Castets-Renard C. et al., op. cit., p. 55. 

  120. Raufer X., op. cit., p. 101. 

  121. Castets-Renard C. et al., op. cit., p. 52. 

  122. Williams P. et Kind E., op. cit., p. 24. 

  123. Perry W. et al., op. cit., pp. 149, 150 et 161. 

  124. Raufer X., op. cit., p. 106 ; Perry W. et al., ibid., p. 150. 

  125. Castets-Renard C. et al., op. cit., p. 56. 

  126. Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., pp. 106 et 107 ; Raufer X., op. cit., p. 98. 

  127. Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., p. 117. 

  128. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, p. 13 ; Naudts L., « Automating Inequality – How High-Tech Tools Profile, Police and Punish the Poor », in E.D.P.L., Vol. 4, 2018, pp. 568-572, p. 568 ; Rouvroy A. et Berns T., « Le nouveau pouvoir statistique. Ou quand le contrôle s'exerce sur un réel normé, docile et sans événement car constitué de corps “numériques”... », in Multitudes, Vol. 40, 2010, pp. 88-103, p. 96 ; Raufer X., op. cit., p. 107. 

  129. Chancerelle L., op. cit., p. 25 ; Benbouzid B., « Des crimes et des séismes. La police prédictive entre science, technique et divination », op. cit., p. 98. 

  130. Williams P. et Kind E., op. cit., p. 14. 

  131. Chancerelle L., op. cit., pp. 33 et 34. 

  132. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 28. 

  133. Perry W. et al., op. cit., p. 42 ; Chancerelle L., op. cit., pp. 31 et 33. 

  134. Williams P. et Kind E., op. cit., p. 24; Castets-Renard C. et al., op. cit., p. 37; Chancerelle L., op. cit., p. 27; Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., p. 245. 

  135. Chancerelle L., ibid., p. 29. 

  136. Zuiderveen Borgesius F., op. cit., p. 10 ; Voy. en ce sens Barocas S. et Selbst A. D., op. cit., pp. 671 et 732 ; Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, pp. 30 et 31. 

  137. Zuiderveen Borgesius F., ibid., pp. 12 et 13 ; Williams P. et Kind E., op. cit., pp. 6, 25 et 28 ; Chancerelle L., op. cit., p. 32. 

  138. Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., p. 245 ; Zuiderveen Borgesius F., op. cit., p. 12 ; Chancerelle L., ibid., p. 32. 

  139. Chancerelle L., ibid., p. 32. 

  140. Institut d’Aménagement et d’Urbanisme d’Île-de-France, op. cit., p. 28 ; Chander A., « The Racist Algorithm? », in Michigan Law Review, Vol. 115, 2017, pp. 1023-1045, p. 1024 ; Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., pp. 245 et 246. 

  141. Benbouzid B., « Quand prédire, c'est gérer. La police prédictive aux États-Unis », op. cit., pp. 246, 249, 250 et 252. 

  142. Castets-Renard C. et al., op. cit., p. 44. 

  143. Zuiderveen Borgesius F., op. cit., p. 10. 

  144. Question n°0045 de T. VANDENPUT du 30 août 2019, Ch., 2019-2020, disponible sur https://www.lachambre.be. 

  145. Police (i-Police), Dossier de sélection. Annexe H. Description du marché (Annexe n°2 que l'auteur tient à disposition sur demande), pp. 27 et 28. 

  146. Farge R., « Police du futur et nouvelles technologies du profilage ethnique », in La Chronique de la Ligue des droits humains, Vol. 191, 2020, pp. 13-16, p. 16 ; Annexe n°2, op. cit., p. 32. 

  147. Organe de contrôle de l’information policière (COC), « Avis n°009/2018 concernant l’avant-projet de loi relatif à la gestion de l’information policière et modifiant la loi sur la fonction de police et la loi du 7 décembre 1998 organisant un service de police intégré, structuré à deux niveaux », disponible sur https://www.organedecontrole.be, 12 décembre 2018, p. 6. 

  148. Annexe n°2, op. cit., pp. 28 et 32. 

  149. La Commission Permanente de la Police Locale, « Horizon 2025 », disponible sur https://www.police.be*,* 2019, p. 12 ; Police Fédérale, « Memorandum – Mai 2019 », disponible sur https://www.nspv.be, 2019, p. 1. 

  150. Annexe n°1, op. cit., réponse 4. 

  151. Annexe n°1, op. cit., réponse 1. e). 

  152. Annexe n°2, op. cit., p. 29. 

  153. Annexe n°2, op. cit., p. 29 à 31 ; Annexe n°1, op. cit., réponse 1. a), e) et 3. 

  154. Question n°0045 de T. VANDENPUT du 30 août 2019, Ch., 2019-2020, disponible sur https:// www.lachambre.be ; Annexe n°2, op. cit., p. 67 ; En décembre 2021, la ministre Verlinden a attribué le marché I-Police à un consortium dirigé par Sopra Steria, avec comme partenaires : Microsoft, Niche, TA9, Orbit et KPMG. Le Gouvernement fédéral, afin d’en assurer le développement, a libéré 299 millions d’euros. (Voy. Grossard F., « i-Police : l’avenir de la police est numérique », 7 mai 2022, disponible sur https://www.telesambre.be ; Bové L., Bombaerts J.-P., « La police entame une révolution digitale à 300 millions d’euros », 7 mai 2022, disponible sur https://www.lecho.be). 

  155. Farge R., op. cit., p. 16. 

  156. Annexe n°2, op. cit., p. 35. 

  157. Annexe n°2, op. cit., p. 33. 

  158. Annexe n°2, op. cit., p. 35. 

  159. Annexe n°2, op. cit., p. 45 ; Annexe n°1, op. cit., réponse 1.a ; Une position confirmée ensuite par la ministre de l’Intérieur Annelies Verlinden : « I-Police permet de traiter de grandes quantités de données, mais les données devront toujours être analysées par des humains. Nous n’allons pas non plus nous lancer dans des méthodes prédictives et cibler des personnes qui cadrent avec tel ou tel profil » (Bové L., Bombaerts J.-P., « La police entame une révolution digitale à 300 millions d’euros », 7 mai 2022, disponible sur https://www.lecho.be). 

  160. Annexe n°1, op. cit., réponse 1.b ; Réponse donnée le 2 juillet 2018 à la question n°6-1678 de J. J. de GUCHT, Sén., 2017-2018, disponible sur www.senate.be ; Réponse donnée le 12 février 2019 à la question n°6-2175 de L. BAJART, Sén., 2018-2019, disponible sur www.senate.be. 

  161. Réponse donnée le 9 juillet 2020 à la question n°7-591 de P. van ROMPUY, Sén., 2019-2020, disponible sur www.senate.be. 

  162. La Commission Permanente de la Police Locale, « Horizon 2025 », disponible sur https://www.police.be, 2019, p. 13 ; Police Fédérale, « Memorandum – Mai 2019 », disponible sur https://www.nspv.be, 2019, p. 1 ; Annexe n°2, op. cit., pp. 28 et 47. 

  163. Réponse donnée le 12 février 2019 à la question n°6-2175 de L. BAJART, Sén., 2018-2019, disponible sur www.senate.be; Police Fédérale, « Memorandum – Mai 2019 », disponible sur https://www.nspv.be, 2019, p. 1. 

  164. Annexe n°2, op. cit., pp. 43 et 44. 

  165. Annexe n°2, op. cit., pp. 43 et 44. 

  166. Annexe n°1, op. cit., réponse 2 ; Annexe n°2, op. cit., p. 44 ; Réponse donnée le 9 juillet 2020 à la question n°7-591 de P. van ROMPUY, Sén., 2019-2020, disponible sur www.senate.be. 

  167. La Commission Permanente de la Police Locale, « Horizon 2025 », disponible sur https://www.police.be*,* 2019, p. 13. 

  168. Organe de contrôle de l’information policière (COC), « Avis n°009/2018 concernant l’avant-projet de loi relatif à la gestion de l’information policière et modifiant la loi sur la fonction de police et la loi du 7 décembre 1998 organisant un service de police intégré, structuré à deux niveaux », disponible sur https://www.organedecontrole.be, 12 décembre 2018, p. 6 ; Organe de contrôle de l’information policière (COC), « Rapport d’activités – De 2016 à 2019 », disponible sur https://www.organedecontrole.be, 2020, p. 55. 

  169. Organe de contrôle de l’information policière (COC), « Avis n°009/2018 concernant l’avant-projet de loi relatif à la gestion de l’information policière et modifiant la loi sur la fonction de police et la loi du 7 décembre 1998 organisant un service de police intégré, structuré à deux niveaux », disponible sur https://www.organedecontrole.be, 12 décembre 2018, p. 6. 

  170. Voy. en lien : Commission d’évaluation des lois fédérales tendant à lutter contre la discrimination, « Combattre la discrimination, les discours de haine et les crimes de haines : une responsabilité partagée », Rapport final, disponible sur https://equal.belgium.be, 23 août 2022, pp. 30 et 31. 

  171. Réponse donnée le 2 juillet 2018 à la question n°6-1678 de J.-J. de GUCHT, Sén., 2017-2018, disponible sur www.senate.be ; Réponse donnée le 12 février 2019 à la question n°6-2175 de L. BAJART, Sén., 2018-2019, disponible sur www.senate.be. 

  172. Réponse donnée le 8 janvier 2018 à la question n°6-1679 de J.-J. de GUCHT, Sén., 2017-2018, disponible sur www.senate.be. 

  173. Réponse donnée le 12 février 2019 à la question n°6-2175 de L. BAJART, Sén., 2018-2019, disponible sur www.senate.be. 

  174. Réponse donnée le 9 juillet 2020 à la question n°7-591 de P. van ROMPUY, Sén., 2019-2020, disponible sur www.senate.be. 

  175. Annexe n°1, op. cit., réponses 3 et 5. 

  176. Police Fédérale, « L’ICT au cœur de l’action et de la gestion », disponible sur https://rapportannuel.policefederale.be/, 2021. 

  177. Farge R., op. cit., p. 16 ; Réponse donnée le 9 juillet 2020 à la question n°7-591 de P. van ROMPUY, Sén., 2019-2020, disponible sur www.senate.be. 

  178. Réponse donnée le 9 juillet 2020 à la question n°7-591 de P. van ROMPUY, Sén., 2019-2020, disponible sur www.senate.be. 

  179. Muir E., « L’action juridique de l’union européenne dans la lutte contre les discriminations », in Migrations Société, Vol. 131, 2010, pp. 87-104, p. 96. 

  180. Cour eur. D.H., Biao c. Danemark, requête n°38590/10, Grande Chambre, 24 mai 2016, §89. 

  181. Cour eur. D.H., Biao c. Danemark, requête n°38590/10, Grande Chambre, 24 mai 2016, §103. 

  182. Chancerelle L., op. cit., p. 28. 

  183. Pacte international relatif aux droits civils et politiques, fait à New York le 16 décembre 1966, approuvé par la loi du 15 mai 1981, M.B., 6 juillet 1983, art. 2.1 et 26. 

  184. Convention internationale sur l’élimination de toutes les formes de discrimination raciale, conclue à New York le 21 décembre 1965, ratifiée par la Belgique le 7 août 1975, e.v. le 6 septembre 1975, art. 1, 2, 4, 5 et 7. 

  185. Déclaration universelle des droits de l’homme adoptée par l’Assemblée générale des Nations Unies, faite à Paris le 10 décembre 1948, art. 7. 

  186. Convention de sauvegarde des droits de l’homme et des libertés fondamentales précitée, art. 14. 

  187. Charte des droits fondamentaux de l’Union européenne précitée, art. 20 et 21. 

  188. Traité sur le fonctionnement de l’Union européenne (version consolidée), J.O.U.E., C326/47, 26 octobre 2012, art. 18. 

  189. Directive (UE) 2000/43/CE du Conseil du 29 juin 2000 relative à la mise en œuvre du principe de l’égalité de traitement entre les personnes sans distinction de race ou d’origine ethnique, J.O.U.E., L 180, 19 juillet 2000. 

  190. Règlement (UE) 2016/679 précité, considérant 71. 

  191. Tinière R., « Les droits fondamentaux dans les actes de droit dérivé de l’Union européenne : Le discours sans la méthode », in Revue des droits et libertés fondamentaux, chron. n°14, mis en ligne en 2013, consulté le 27 février 2023 in [www.revuedlf.com]. 

  192. Constitution coordonnée de 1994, art. 10 et 11. 

  193. Horevoets C. et Vincent S., « Le contexte normatif du principe d’égalité et de non-discrimination », in Bribosia E., Rorive I. et van Drooghenbroeck S. (dir.), Actualités en matière de non-discrimination, Bruxelles, Bruylant, 2016, p. 24. 

  194. Loi du 30 juillet 1981 visant à réprimer certains actes inspirés par le racisme et la xénophobie, M.B., 8 août 1981*, err.,* 30 mai 2007. 

  195. Loi du 10 mai 2007 tendant à lutter contre certaines formes de discrimination, M.B., 30 mai 2007. 

  196. Loi du 10 mai 2007 tendant à lutter contre la discrimination entre les femmes et les hommes, M.B., 30 mai 2007. 

  197. Com. élim. disc. rac., Rapport valant vingtième à vingt-deuxième rapports périodiques soumis par la Belgique en application de l’article 9 de la Convention, attendu en 2018, 15 août 2019, CERD/C/BEL/20-22, p. 3. 

  198. Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 14. 

  199. Annexe n°2, op. cit., p. 33. 

  200. Farge R., op. cit., p. 16. 

  201. Williams P. et Kind E., op. cit., p. 9. 

  202. Farge R., op. cit., p. 15. 

  203. Haut-Commissariat des Nations Unies aux droits de l’homme, « Discrimination raciale et nouvelles technologies numériques : analyse sous l’angle des droits de l’homme (Rapport de la Rapporteuse spéciale sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée) », disponible sur https://www.ohchr.org, 15 juillet 2020. 

  204. Commission européenne contre le racisme et l’intolérance (ECRI), « Recommandation de politique générale n°11 sur la lutte contre le racisme et la discrimination raciale dans les activités de la police adoptée le 29 juin 2007 », CRI/Conseil de l’Europe, disponible sur https://www.coe.int, 2007, p. 4. 

  205. Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 6. 

  206. Ibidem

  207. Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 7. 

  208. Agence européenne des droits fondamentaux (FRA), « Opinion sur la proposition de décision-cadre du Conseil relative à l’utilisation du Passenger Name Record (PNR) à des fins de maintien de l’ordre », disponible sur https://fra.europa.eu, 2009, p. 39. 

  209. Assemblée parlementaire du Conseil de l’Europe, « Le profilage ethnique en Europe : une question très préoccupante », Rapport de la Commission sur l’égalité et la non-discrimination et du Rapporteur Boris Cilevičs, Doc. 15199, 14 décembre 2020, §43 ; Voy. aussi Commission européenne contre le racisme et l’intolérance (ECRI), « Recommandation de politique générale n°11 sur la lutte contre le racisme et la discrimination raciale dans les activités de la police adoptée le 29 juin 2007 », CRI/Conseil de l’Europe, disponible sur https://www.coe.int, 2007, pp. 8 et 9. 

  210. Ibidem ; Open Society Justice Initiative, « le profilage ethnique dans l’Union européenne : omniprésent, inefficace et discriminatoire », Résumé et recommandations, New York, Open society Institute, 2009, disponible sur https://www.justiceinitiative.org/, p. 5. 

  211. Agence des droits fondamentaux de l’Union européenne (FRA), « Pour des pratiques de police plus efficaces. Guide pour comprendre et prévenir le profilage ethnique discriminatoire », Rapport, Luxembourg, Office des publications de l’UE, 2010, p. 22 ; En ce sens voy. aussi Com. élim. disc. rac., Recommandation générale XXXI sur la discrimination raciale dans l’administration et le fonctionnement du système de justice pénale, A/60/18, 2005, pp. 108-120, §20 ; Commission interaméricaine des droits de l’homme (IACHR), The situation of people of African descent in the Americas, OEA/Ser.L/V/II.Doc 62, 5 décembre 2011, §143. 

  212. La FRA évoque aussi la possibilité de discriminations indirectes engendrées par le profilage ethnique mais reconnaît qu’au vu du manque de « donnée statistiques liées à l’exercice de compétence de polices et ventilées par race, origine ethnique et religion », ces dernières restent difficiles à prouver. (Agence des droits fondamentaux de l’Union européenne (FRA), « Pour des pratiques de police plus efficaces. Guide pour comprendre et prévenir le profilage ethnique discriminatoire », Rapport, Luxembourg, Office des publications de l’UE, 2010, pp. 18, 25 et 26). 

  213. Voy. à ce propos Ruteere M., Haut-Commissariat aux droits de l'homme (OHCHR), Rapport du Rapporteur spécial sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée, Mutuma Ruteere, A/HRC/29/46, 20 avril 2015, §§2 et 63 ; Parlement européen (PE), Résolution du Parlement européen du 19 juin 2020 sur les manifestations contre le racisme après la mort de George Floyd, (2020/2685(RSP)), P9_TA(2020)0173, 19 juin 2020, §27. 

  214. Nations-Unies, Haut-Commissariat aux droits de l'homme (OHCHR), « Programme d’action », Conférence mondiale contre le racisme, la discrimination raciale, la xénophobie et l’intolérance qui y est associée, New York, Département de l’information de l’ONU, 2002, §72 (p. 77). 

  215. Com. élim. disc. rac., Recommandation générale n° 36 (2020) sur la prévention et l’élimination du recours au profilage racial par les représentants de la loi, CERD/C/GC/36, 17 décembre 2020, §§7 et 18. 

  216. Ibid., §§20 et 23. 

  217. Com. élim. disc. rac., Rapport valant vingtième à vingt-deuxième rapports périodiques soumis par la Belgique en application de l’article 9 de la Convention, attendu en 2018, CERD/C/BEL/20-22, 15 août 2019, p. 11. 

  218. Voy. Cour eur. D.H., Cissé c. France, Décision sur la recevabilité, requête n° 51346/99, Chambre (3ème section), 9 avril 2002 ; Cour eur. D.H., Conka c. Belgique, Décision sur la recevabilité, requête n° 51564/99, Chambre (3ème section), 13 mars 2001. 

  219. Cour eur. D.H., Timishev c. Russie, requêtes n°55762/00 et 55974/00, Chambre (2ème section), 13 décembre 2005, §§55, 56 et 59. 

  220. Cour eur. D.H., Lingurar c. Roumanie, requête n°48474/14, Chambre, 16 avril 2019, §76. 

  221. Cour eur. D.H., Lingurar c. Roumanie, requête n°48474/14, Chambre, 16 avril 2019, §§76 et 78. 

  222. Com. D.H., décision Rosalind Williams Lecraft c. Espagne, communication n°1493/2006, CCPR/C/96/D/1493/2006, 11 septembre 2006, p. 18. 

  223. Commission européenne contre le racisme et l’intolérance (ECRI), « Rapport sur la Belgique », disponible sur https://rm.coe.int, 18 mars 2020, p. 37 ; Com. élim. disc. rac., Observations finales concernant les seizième à dix-neuvième rapports périodiques de la Belgique, CERD/C/BEL/CO/16-19, 14 mars 2014, p. 4 ; Com. élim. disc. rac., Rapport valant vingtième à vingt-deuxième rapports périodiques soumis par la Belgique en application de l’article 9 de la Convention, attendu en 2018, CERD/C/BEL/20-22, 15 août 2019, pp. 12 et 14 ; Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, pp. 8, 19, 20 et 27 ; Com. élim. disc. rac., Observations finales concernant le rapport de la Belgique valant vingtième à vingt-deuxième rapports périodiques, CERD/C/BEL/CO/20-22, 30 avril 2021, pp. 3 et 4 ; Amnesty International, « On ne sait jamais avec des gens comme vous : Politiques policières de prévention du profilage ethnique en Belgique », disponible sur www.amnesty.be, 2018, pp. 30 et 32 ; Commission d’évaluation des lois fédérales tendant à lutter contre la discrimination, « Combattre la discrimination, les discours de haine et les crimes de haines : une responsabilité partagée », Rapport final, disponible sur https://equal.belgium.be, 23 août 2022, p. 60. 

  224. Com. élim. disc. rac., Rapport valant vingtième à vingt-deuxième rapports périodiques soumis par la Belgique en application de l’article 9 de la Convention, attendu en 2018, CERD/C/BEL/20-22, 15 août 2019, pp. 11 et 12 ; Farge R., op. cit., p. 13. 

  225. Amnesty International, « On ne sait jamais avec des gens comme vous : Politiques policières de prévention du profilage ethnique en Belgique », disponible sur www.amnesty.be, 2018 ; Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016. 

  226. Williams P. et Kind E., op. cit., p. 8 ; Open Society Justice Initiative, « le profilage ethnique dans l’Union européenne : omniprésent, inefficace et discriminatoire », Résumé et recommandations, New York, Open society Institute, 2009, p. 3 ; Haut-Commissariat aux droits de l'homme (OHCHR), « Promotion et protection des droits de l’homme et des libertés fondamentales des Africains et des personnes d’ascendance africaine face au recours excessif à la force et aux autres violations des droits de l’homme dont se rendent coupables des membres des forces de l’ordre », Rapport de la Haute-Commissaire des Nations Unies aux droits de l’homme, A/HRC/51/53, 2 août 2022, §35 ; European Network Against Racism (ENAR), Nwabuzo O., « The sharp edge of violence : Police brutality and community resistance of racialised groups », disponible sur www.enar-eu.org, 2021, p. 33. 

  227. Agence européenne des droits fondamentaux de l’Union européenne (FRA), « Données en bref : Contrôles de police et minorités », disponible sur https://fra.europa.eu, 2010, pp. 7 à 14 ; Commission européenne contre le racisme et l’intolérance (ECRI), « Rapport sur la Belgique », disponible sur https://rm.coe.int, 18 mars 2020, p. 23 ; Gilles J., Abieri V., Gilles M. et Bausier T., « Le profilage ethnique en Belgique : pile ou faciès ? », disponible sur https://obspol.be/actualite/, 14 novembre 2017, pp. 2 et 3 ; Commission d’évaluation des lois fédérales tendant à lutter contre la discrimination, « Combattre la discrimination, les discours de haine et les crimes de haines : une responsabilité partagée », Rapport final, disponible sur https://equal.belgium.be, 23 août 2022, p. 213. 

  228. Com. élim. disc. rac., Observations finales concernant les seizième à dix-neuvième rapports périodiques de la Belgique, CERD/C/BEL/CO/16-19, 14 mars 2014, p. 5. 

  229. Com. élim. disc. rac*., Observations finales du Comité pour l’Élimination de la Discrimination Raciale : Belgique,* CERD/C/60/CO/2, 21 mai 2002, p. 3. 

  230. Com. élim. disc. rac., Observations finales concernant le rapport de la Belgique valant vingtième à vingt-deuxième rapports périodiques, CERD/C/BEL/CO/20-22, 30 avril 2021, pp. 3 et 4. 

  231. Commission de l’Intérieur, des Affaires générales et de la Fonction publique, Rapport d’audition sur le profilage ethnique, DOC 54 3683/001, disponible sur https://www.lachambre.be/, 21 mars 2019. 

  232. Amnesty International, « On ne sait jamais avec des gens comme vous : Politiques policières de prévention du profilage ethnique en Belgique », disponible sur www.amnesty.be, 2018, p. 31. 

  233. de Keersmaecker P. et Debailleul C., « Répartition géographique de la vidéosurveillance dans les lieux publics de la Région de Bruxelles-Capitale », in Brussels Studies, mis en ligne le 10 octobre 2016, consulté le 10 juillet 2021 in [https://journals.openedition.org/], §18. 

  234. Cour eur. D.H., Turan Cakir c. Belgique, requête n°44256/06, Chambre (2ème section), 10 mars 2009. 

  235. Cour eur. D.H., Bouyid c. Belgique, requête n°23380/09, Grande Chambre, 28 septembre 2015. 

  236. Cour eur. D.H., Boutaffala c. Belgique, requête n°20762/19, Chambre (3ème section), 28 juin 2022. 

  237. L’ENAR a également publié une étude de cas belges de violences policières à caractère raciste, voy. European Network Against Racism (ENAR), Nwabuzo O., « The sharp edge of violence: Police brutality and community resistance of racialised groups », disponible sur www.enar-eu.org, 2021. 

  238. Annexe n°1, op. cit., réponse 4. 

  239. Com. élim. disc. rac., Recommandation générale n° 36 (2020) sur la prévention et l’élimination du recours au profilage racial par les représentants de la loi, CERD/C/GC/36, 17 décembre 2020, §58. 

  240. À ce sujet, une proposition de Règlement européen concernant l’intelligence artificielle a été faite en avril 2021 et intègre un certain nombre des recommandations faites à l’égard des systèmes prédictifs. Voy. Proposition de Règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, 2021/0106(COD), 21 avril 2021 ; Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 44 ; Castets-Renard C. et al., op. cit., p. 61 ; Zuiderveen Borgesius F., op. cit., p. 20 ; Chancerelle L., op. cit., p. 37. 

  241. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 43. 

  242. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 54 ; Commission européenne contre le racisme et l’intolérance (ECRI), « Recommandation de politique générale n°11 sur la lutte contre le racisme et la discrimination raciale dans les activités de la police adoptée le 29 juin 2007 », CRI/Conseil de l’Europe, disponible sur https://www.coe.int, 2007, p. 15. 

  243. Chancerelle L., op. cit., p. 37. 

  244. Mohler G., op. cit., p. 157. 

  245. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 43. 

  246. Williams P. et Kind E., op. cit., p. 27 ; Gilles J., Abieri V., Gilles M. et Bausier T., « Le profilage ethnique en Belgique : pile ou faciès ? », disponible sur https://obspol.be/actualite/, 14 novembre 2017, p. 6. 

  247. Autorité de protection des données, « Rapport Big Data », disponible sur www.autoritédelaprotectiondesdonnees.be, 2017, p. 57. 

  248. Castets-Renard C. et al., op. cit., p. 64. 

  249. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 41 ; Williams P. et Kind E., op. cit., p. 27. 

  250. Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 61. 

  251. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, p. 42. 

  252. Amnesty International, « We sense trouble : automated discrimination and mass surveillance in predictive policing in the Netherlands », disponible sur https://www.amnesty.be/, 2020, pp. 41 et 42 ; Ligue des droits humains, « Contrôler et punir ? – Étude exploratoire sur le profilage ethnique dans les contrôles de police : paroles de cibles », disponible sur https://www.liguedh.be, 2016, p. 11. 

  253. Zuiderveen Borgesius F., op. cit., pp. 31 à 33 ; Com. élim. disc. rac., Recommandation générale n° 36 (2020) sur la prévention et l’élimination du recours au profilage racial par les représentants de la loi, CERD/C/GC/36, 17 décembre 2020, §60. 

  254. Williams P. et Kind E., op. cit., p. 29 ; Castets-Renard C. et al., op. cit., p. 63. 

Jérémiah Vervoort