Un système de reconnaissance faciale controversé à la Nouvelle-Orléans a ravivé le débat sur l’utilisation non contrôlée de l’intelligence artificielle par le gouvernement. Le tumulte met en évidence les réseaux de surveillance de l’IA avec le pouvoir de numériser, d’identifier et de signaler les individus dans les espaces publics et privés. Ces systèmes sont en service, prenant des décisions une fois réservées aux êtres humains, avec des implications profondes pour la vie privée et les libertés civiles.
Pendant deux ans, la police de la Nouvelle-Orléans a secrètement exploité un réseau privé de 200 caméras équipées d’un logiciel de reconnaissance faciale. Cette expérience hors des livres dans la surveillance de l’IA a été menée par une organisation à but non lucratif appelée Project NOLA, qui a contourné les garde-corps légaux à l’insu ou le consentement des élus. Peu de temps avant que le Washington Post ait exposé le Secret Camera Network, les responsables du département de police de la Nouvelle-Orléans ont tiré la prise.
Maintenant, les responsables de la ville veulent le relancer. Une ordonnance proposée permettant la reconnaissance faciale en temps réel serait la première du pays, avec de profondes implications pour les libertés civiles.
Les défenseurs de la vie privée disent que le problème n’est pas que la reconnaissance faciale est utilisée, mais comment elle est utilisée. En règle générale, les organismes d’application de la loi utilisent des logiciels comme Clearview AI après un crime, en comparant une image immobile avec une base de données de mugshots, des photos de permis de conduire et des publications sur les réseaux sociaux. En revanche, la police de la Nouvelle-Orléans exploitait secrètement un dragnet en temps réel du quartier français et des hotspots de crime, alertant les officiers chaque fois qu’il identifiait une personne d’intérêt. La nature non ciblée de la surveillance – scanner les visages de chacun sans mandat ni objectif d’investigation spécifique – est ce qui rend le programme de la Nouvelle-Orléans uniquement controversé.
En plus de ramener de nouveaux terrains technologiquement, la Nouvelle-Orléans innove sur la structure du programme, proposant de nouveaux accords de partage de données pour légitimer le modèle du projet NOLA. D’autres villes, dont Tulsa et Nashville, ont également commencé à intégrer les flux en direct des caméras privées dans des systèmes officiels de surveillance de la police. Ces réseaux de caméras publics-privés partagés – incorporant tout, des caméras de circulation aux caméras à sonnette – donnent à la police une couverture à 360 degrés d’un quartier, ou même d’une ville entière. Avec l’aide de l’IA, ces réseaux peuvent fonctionner en continu, jour et nuit.
La Nouvelle-Orléans est depuis longtemps à l’avant-garde de cette révolution technologique. En janvier 2020, Michael Celestine, 25 ans, fumait devant la maison d’un ami lorsque les officiers de NOPD l’ont poursuivi, tassé et arrêté. Malgré aucune preuve ne le reliant à un crime, Célestine avait été signalée à distance comme «suspecte» par le centre de criminalité en temps réel de la ville, et il a passé plus d’un an en prison avant la suppression des accusations. L’ACLU a ensuite poursuivi le ministère pour une fausse arrestation, et la ville s’est installée en faveur de Celestine.
Alors que la Nouvelle-Orléans devrait être félicité pour avoir adopté de nouvelles technologies, l’utilisation de la surveillance toujours sur donne à la police de nouveaux pouvoirs extraordinaires, remodelant fondamentalement la relation entre les citoyens et l’État. Heureusement, ce qui sépare la sécurité publique légitime de la surveillance du gouvernement n’est pas la technologie elle-même mais les gens et les politiques derrière. Dans ce cas, un dragnet axé sur l’algorithme avec un enregistrement de précision imparfait ne doit pas être utilisé comme base pour une arrestation. Le type de système en temps réel que la Nouvelle-Orléans propose doit nécessiter un soupçon au moins raisonnable, sinon un mandat. Au cours des manifestations ou d’autres activités protégées par la Constitution, elle ne doit pas être utilisée du tout.
L’IA doit aider les policiers, et non les remplacer. Une application prometteuse est l’examen des images de la caméra du corps de la police, où l’IA est utilisée pour analyser des terroctets de contenu vidéo dans une fraction du temps auparavant possible. Ces systèmes peuvent identifier les événements clés, mettre en lumière la police professionnelle et même rédiger des rapports préliminaires. Compte tenu des grandes quantités de données générées par les caméras corporelles quotidiennement, l’automatisation de la revue vidéo a le potentiel de transformer les archives ingérables en informations actives.
La vraie question n’est pas de savoir si l’IA sera utilisée dans le système de justice pénale; C’est où, quand et comment. Si la Nouvelle-Orléans veut diriger la nation dans l’innovation de la sécurité publique, elle doit également conduire à la protection des libertés civiles. Avec les réglementations de bon sens et quelques garanties simples, les responsables de la ville peuvent aligner l’innovation technologique avec les principes constitutionnels pour rendre les communautés plus sûres.
En Amérique, nous n’avons pas à choisir entre la sécurité et la liberté. Avec les garanties appropriées, nous pouvons – et devons – avoir les deux.
Logan Seacrest est membre résident de la justice pénale et des libertés civiles au R Street Institute. Il a écrit ceci pour insideources.com.
(TagStotranslate) Intelligence artificielle