Intelligence artificielle L'entreprise technologique ShotSpotter au cœur d'une tourmente autour de la falsification de...

Pour approfondir le sujet

Skoda ouvre son laboratoire dédié à l’intelligence artificielle pour améliorer sa production de véhicules électriques

Au sein de l'Université technique d'Ostrava, en République tchèque, le constructeur automobile Skoda a inauguré un laboratoire de production par intelligence artificielle (AIM.Lab). Cette...

Recevez le numéro 5 d’ActuIA, le magazine de l’intelligence artificielle

Le numéro 5 d’ActuIA, le magazine de l’intelligence artificielle, arrive en kiosques et en version numérique le 21 septembre 2021 ! Recevez-le directement chez...

Québec : création d’une chaire de recherche en numérique de la santé pour mieux soigner les maladies rares

Mieux comprendre les maladies rares afin de mieux les diagnostiquer et les traiter efficacement constitue un défi de taille en raison de la multiplicité...

Greenly lève 3 millions de dollars pour déployer sa solution de comptabilité carbone alimentée par l’IA

Greenly, une start-up technologique spécialisée dans l'aide aux organisations à réduire leurs émissions de dioxyde de carbone, a annoncé cette semaine une levée de...

L’entreprise technologique ShotSpotter au cœur d’une tourmente autour de la falsification de preuves policières

ShotSpotter, une entreprise américaine spécialisée dans la détection des armes à feu, voit ses technologies être régulièrement utilisées par les forces de polices d’une centaine de villes et de comtés des États-Unis. Récemment, la société est au cœur d’une polémique selon laquelle certaines preuves ont été potentiellement falsifiées afin de justifier des arrestations et de soutenir le dossier des procureurs en justice. Cette découverte a, par exemple, contraint les procureurs de Chicago à retirer les preuves générées par la technologie dans le cadre du meurtre du jeune adolescent Adam Toledo, abattu par un policier de la ville.

Comment fonctionne la technologie de détections d’armes à feu de ShotSpotter ?

Dans plus d’une centaine de comtés des États-Unis, ShotSpotter est utilisé afin de détecter les potentiels coups de feu se produisant au sein d’une ville. Cette détection acoustique des coups de feu repose sur une série de capteurs, souvent placés sur des lampadaires ou des bâtiments. Si un coup de feu est tiré, les capteurs détectent la signature acoustique spécifique d’un coup de feu et envoient l’heure et le lieu à la police. L’emplacement est mesuré en mesurant le temps qu’il faut au son pour atteindre les capteurs à différents endroits.

Selon ShotSpotter, ces informations sont ensuite vérifiées par des experts acoustiques humains pour confirmer que le son est un coup de feu, et non un retour de flamme de voiture, un pétard ou d’autres sons qui pourraient être confondus avec des coups de feu. Les capteurs eux-mêmes peuvent uniquement déterminer s’il y a un bruit fort qui ressemble fortement ou moins fortement à un coup de feu. C’est toujours aux personnes qui écoutent au casque de dire si des coups de feu ont été tirés ou non.

C’est ce dernier point qui suscite actuellement la polémique.

L’exemple de l’affaire Safarain Herring pour mieux comprendre la polémique autour de ShotSpotter

Le 31 mai 2020, Safarian Herring, âgé de 26 ans, a reçu une balle dans la tête par un autre homme, probablement Michael Williams, 64 ans. Deux jours plus tard, le jeune homme meurt de ses blessures et la police de Chicago arrête l’homme accusé du meurtre qui lui, soutient qu’il n’est pas l’auteur du crime, mais qu’une fusillade en voiture aurait éclaté et serait la cause de ce meurtre.

L’élément clé qui tend à prouver que Michael Williams est l’assassin est une vidéo de surveillance montrant la voiture de l’individu, stationné à l’heure et l’endroit où le Safarian Herring aurait été abattu. La police a alors déclaré que ShotSpotter a généré une alerte à ce moment précis et à cet endroit précis. Sauf qu’il y a un problème dans cette affirmation.

Cette nuit-là, 19 capteurs ShotSpotter ont détecté un son de percussion à 23 h 46 (soit la bonne heure du crime), mais ont déterminé un emplacement situé à environ 1,5 kilomètre du lieu de l’assassinat. Les algorithmes de la société ont initialement classé le son comme un feu d’artifice. Mais après l’alerte de 23h46, un analyste de ShotSpotter a annulé manuellement les algorithmes et “reclassifié” le son comme un coup de feu. Puis, des mois plus tard et après le post-traitement, un autre analyste de ShotSpotter a changé les coordonnées de l’alerte avec celles du meurtre.

Un cas inquiétant qui se reproduit après des problèmes similaires : la réponse de ShotSpotter

Après avoir appris cela, les procureurs ont retiré les preuves de ShotSpotter après que la défense a demandé au juge d’examiner la valeur médico-légale du système. Et ce n’est pas la première fois que cela se produit puisque la pertinence technologique des capteurs a souvent été mise à rude épreuve ces dernières années :

  • Lorsque des agents fédéraux ont tiré sur un homme à Chicago en 2018, ShotSpotter n’a enregistré que deux coups de feu – ceux tirés par des policiers. La police a demandé à l’entreprise de réexaminer les données manuellement. Un analyste a trouvé cinq coups de feu supplémentaires, vraisemblablement ceux tirés par l’agresseur.
  • À New York en 2016, un analyste de l’entreprise a requalifié en coups de feu un son que l’algorithme avait classé comme bruit d’hélicoptère après avoir été contacté par la police. Un juge a par la suite annulé la condamnation d’un homme accusé d’avoir tiré sur la police lors de cet incident, affirmant que les preuves de ShotSpotter n’étaient pas fiables.

Depuis, plusieurs villes ont résilié leurs contrats avec ShotSpotter après avoir déterminé que la technologie ne prenait pas en compte environ 50 % des coups de feu. Les militants demandent à la ville de Chicago d’annuler son contrat de 33 millions de dollars avec l’entreprise après que son système a faussement alerté la police de coups de feu, entraînant la mort d’Adam Toledo, âgé de 13 ans.

Dans une de leurs déclarations, ShotSpotter a affirmé sur le rapport de Vice, ayant mis en lumière cette affaire, était “faux et trompeur”. L’entreprise n’a pas nié que la sortie du système avait été modifiée manuellement, mais a déclaré que le journaliste avait confondu deux services différents : la détection automatisée et en temps réel des coups de feu et l’analyse après coup par le personnel de l’entreprise. “L’analyse médico-légale peut révéler des informations supplémentaires relatives à une alerte en temps réel, telles que davantage de coups de feu ou un moment ou un emplacement mis à jour après une enquête plus approfondie”, a déclaré la société.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Zacharie Tazrout

Partager l'article

Skoda ouvre son laboratoire dédié à l’intelligence artificielle pour améliorer sa production de véhicules électriques

Au sein de l'Université technique d'Ostrava, en République tchèque, le constructeur automobile Skoda a inauguré un laboratoire de production par intelligence artificielle (AIM.Lab). Cette...

Recevez le numéro 5 d’ActuIA, le magazine de l’intelligence artificielle

Le numéro 5 d’ActuIA, le magazine de l’intelligence artificielle, arrive en kiosques et en version numérique le 21 septembre 2021 ! Recevez-le directement chez...

Québec : création d’une chaire de recherche en numérique de la santé pour mieux soigner les maladies rares

Mieux comprendre les maladies rares afin de mieux les diagnostiquer et les traiter efficacement constitue un défi de taille en raison de la multiplicité...

Greenly lève 3 millions de dollars pour déployer sa solution de comptabilité carbone alimentée par l’IA

Greenly, une start-up technologique spécialisée dans l'aide aux organisations à réduire leurs émissions de dioxyde de carbone, a annoncé cette semaine une levée de...