À Minneapolis, la surveillance numérique a transformé en réalité ce qui, jusqu’il y a peu, semblait relever de la sciencefiction. Les agents du Service de contrôle de l’immigration et des douanes, ICE selon son sigle en anglais, disposent de procédés d’identification instantanée dans la rue, assurent le suivi de l’activité numérique et croisent d’immenses bases de données dans le cadre de leur pratique opérationnelle, dans le contexte du durcissement migratoire impulsé par l’administration Trump.
Le problème, comme le soulignent les organisations de défense des droits civils, n’est pas seulement de savoir qui est recherché, mais aussi l’infrastructure qui se normalise pour le faire et le type de pouvoir que cette infrastructure concentre.
Pour le comprendre, il convient d’imaginer une scène simple : un groupe de personnes participe à une manifestation pacifique et, soudain, un agent s’approche et prononce les noms de plusieurs participants comme s’il les connaissait depuis toujours. Il dispose d’un système de reconnaissance faciale dans sa poche, capable de comparer des visages avec des millions d’images contenues dans des bases de données et de fournir des identités en quelques secondes, avec des profils et des paramètres pour chaque individu. Ce qui auparavant exigeait une surveillance physique, des témoignages ou une enquête, se résout aujourd’hui par une capture d’image et une vérification automatique.
Selon un article du New York Times, du 30 janvier 2026, intitulé « Comment l’ICE sait déjà qui sont les manifestants de Minneapolis », le gouvernement utilise l’application Mobile Fortify, liée au Département de la Sécurité intérieure. L’outil permet de scanner des visages sur le terrain et de consulter les informations associées dans les registres fédéraux et étatiques.
L’administration Trump affirme agir dans le cadre légal, mais refuse d’en préciser la portée au nom de la sécurité. Cette opacité n’est pas un détail : sans transparence ni contrôle indépendant, l’exception devient la règle.
La reconnaissance faciale n’est pas un détecteur de vérité. C’est un système probabiliste, avec une marge d’erreur, qui fonctionne d’autant plus mal avec ceux qui sont généralement les plus exposés au contrôle, comme les femmes et les personnes racialisées. Lorsqu’un système ne fonctionne pas de la même façon pour tous est intégré à des décisions coercitives, l’erreur n’est pas neutre. Elle devient un risque structurel pour les mêmes secteurs qui subissent désormais la plus forte pression policière et administrative.
Et il n’agit pas seul. Des outils acquis auprès d’entreprises privées permettent d’extraire des données, de suivre les schémas d’utilisation des téléphones portables et de reconstituer les déplacements. En parallèle, les plateformes sociales sont surveillées, sur lesquelles restent des traces non seulement de ce que chaque utilisateur publie, mais aussi de ses interactions, des causes auxquelles il s’associe et des événements qu’il partage. Le résultat est une surveillance par agrégation, dans laquelle une action quotidienne peut alimenter un profil opérationnel.
Palantir, prestataire régulier de l’appareil de sécurité étasunien, développe des plateformes qui croisent des informations gouvernementales et commerciales afin de générer des pistes opérationnelles, de hiérarchiser des objectifs et de faciliter la localisation. En avril 2025, un contrat d’environ 30 millions de dollars a été conclu pour développer ImmigrationOS, une plateforme visant à accélérer et automatiser certaines étapes du cycle de contrôle et d’expulsion, avec l’appui du soutien de l’intelligence artificielle.
Il s’agit d’une répression silencieuse, distribuée et efficiente, qui fonctionne sans uniforme et sans visage, mais avec des conséquences bien réelles. Minneapolis est devenu un terrain d’expérimentation du contrôle social, préfigurant par la technologie numérique le monde dystopique que Trump veut imposer. •






