Si d’habitude les choix technologiques des forces de sécurité s’effectuent plutôt de manière discrète, on notera la publication en cette fin septembre d’un rapport émanant d’EUROPOL(Nouvelle fenêtre) sur les avantages et les défis de l’utilisation de l’intelligence artificielle par les services de sécurité : police, gendarme, douanes.
Rappelons-le, Europol est l’agence européenne pour la coopération, en matière d’application de la loi pénale. Elle a été fondée en 1992 par le traité de Maastricht. Ce n’est pas un FBI européen, mais bien une instance de partage d’informations entre les Etats membres, et un point de coopération avec leurs homologues étrangers comme les Etats-Unis, le Canada ou l’Australie.
Les principaux domaines d’application de l’IA dans le domaine de la sécurité publique ?
Ils sont principalement de deux sortes : D’une part, il y a la capacité à analyser d’importants volumes de données. Notamment pour identifier des liens entre des personnes ou des organisations parmi une grande variété de documents : textes, tableaux de chiffres, images…
Cela permet de détecter des comportements inhabituels, par exemple parmi des centaines de milliers de transactions recensées dans de la documentation bancaire. Un moyen utilisé pour identifier des fraudes ou des soupçons de fraude. Cela facilite la reconstitution de mouvements financiers voire d’identifier des schémas criminels entre différentes entités.
D’autre part, l’IA peut servir à extraire des informations utiles parmi une multitude de sources. Qu’elles soient en libre accès, comme les réseaux sociaux. On parle alors d’OSINT (Open Source Intelligence) et plus précisément de SOCMINT (Social Media Intelligence). Ou soient extraites de captations numériques comme de la surveillance vidéo ou des enregistrements sonores. Les algorithmes seront utilisés pour faire des transcriptions ou des traductions, identifier des personnes ou des comportements suspects. Comme par exemple, quelqu’un qui remonte une foule qui converge vers une même direction ou s’écroule à terre.
L’IA peut en outre être mise à contribution pour élaborer des scénarios d’entraînement à des fins de formation des personnels.
Certains usages de l’intelligence artificielle considérés d’ores et déjà comme problématiques
D’abord, comme toute intelligence artificielle, il faut se prémunir contre les risques de biais, c’est-à-dire des données utilisées pour éduquer l’IA qui seraient biaisées, par exemple en comportant des préjugés sur des personnes en fonction de leur âge ou de leur genre et fausseraient donc les résultats obtenus. Et les risques d’hallucinations, comme lorsque l’algorithme propose des solutions absolument fausses, mais qui ont l’apparence du sérieux et de la vérité.
Ensuite, le danger peut venir de certains usages de l’IA, comme une surveillance de masse automatisée de dispositifs de vidéosurveillance biométrique qui reconnaîtraient tous les visages à la volée. Les algorithmes doivent en outre toujours rester explicables. Une transparence qui doit permettre de comprendre comment et pourquoi des décisions ont été prises par des systèmes d’IA.
La réglementation européenne anticipe les possibles excès de l’IA
L’Union européenne s’est dotée d’un texte, l’IA ACT(Nouvelle fenêtre), destiné à encadrer l’usage de l’IA en Europe. Ce qui inclut son exploitation par les forces de sécurité. Cet IA ACT, a été publié au Journal officiel le 12 juillet 2024, et entré en vigueur le 1er août 2024. Son entrée en application s’étalera de février 2025 à août 2027.
En commençant par détailler les interdictions relatives aux systèmes d’IA présentant “des risques inacceptables”.
De quoi s’agit-il ? De ce qui conduirait à des pratiques contraires aux valeurs de l’Union européenne et aux droits fondamentaux.
- Par exemple, la notation sociale telle qu’elle est pratiquée en Chine, avec une mise en barème de chacun de vos actes du quotidien (traverser hors des clous, tenir des propos déplacés ou au contraire faire don de son sang pour gagner des points).
- L’utilisation par les services de sécurité de l’identification biométrique à distance en temps réel dans des espaces accessibles au public.
- Des mesures de police prédictive ciblant les individus.
- Reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement.
En France, la Commission nationale de l’informatique et des libertés, la CNIL, a publié une analyse de cet IA Act (Nouvelle fenêtre)avec son point de vue d’autorité administrative indépendante en charge de la protection des données personnelles. De quoi nourrir la réflexion collective et politique au-delà de la disponibilité prochaine des technologies.