Logo ETI Quitter la lecture facile

PCA, le logiciel de Hitachi qui prédit les crimes

Posté le par La rédaction dans Informatique et Numérique

Hitachi a conçu un logiciel de prédiction algorithmique qui permettrait de savoir où et quand un crime aura lieu. Selon l’entreprise, le “PCA” devrait faire gagner beaucoup de temps à la police. Sauf en cas d’erreurs.

Minority Report, plus si loin ? Après Predpol, le logiciel de prédiction algorithmique utilisé par la police new-yorkaise pour prédire à quel endroit les risques de délits sont les plus probables, voici le dernier programme de Hitachi.

L’algorithme de l’entreprise niponne ‎prétend aller plus loin. Son système, “Visualization Predictive Crime Analytics” (PCA), permettrait de prédire le lieu et l’heure des crimes – et pas simplement d’en avoir une estimation statistique.

Selon le site ‎Quartz,‎ le logiciel puise “dans les données des réseaux de transport, les conversations sur les réseaux sociaux, les bulletins météo, et plus encore”. Selon Hitachi, interrogé par Fast Company, les messages postés sur le réseau social Twitter sont particulièrement utiles, car ils augmentent la précision du PCA de 15%, grâce à la géolocalisation des tweets et aux hashtags (mots-clés). Car c’est bien connu, les criminels sont aussi sur Twitter, et parlent en public de leurs forfaits.

Une “zone à risque” de 200 m2

Le logiciel japonais est bien sûr loin d’être un programme « miracle ». Comme Predpol, en réalité, il ne fait que donner un « pourcentage de risque », avec la nature du crime probable. Mais les résultats seront plus précis, Predpol ne se basant que sur des données de la police, et non sur des données collectées un peu partout sur le Web. Une zone à risque de 200 m2 est constituée, avec un pourcentage de risque.

Selon l’un des responsables du projet, cité par Fast Company, PCA permettra de faire gagner du temps à la police, car “un humain ne peut pas gérer quand il y a des dizaines ou des centaines de variables qui pourraient influer un crime”. Le logiciel n’aurait, en outre, pas besoin d’intervention humaine. Et cerise sur le gâteau, « il apprend tout seul », selon le principe du Machine Learning.

‎Subsiste hélas l’éternel problème des faux positifs. Ainsi, le risque reste grand de patrouiller dans une zone où il ne se passera en réalité rien, et d’interpeller à tort un innocent, suivant les préjugés des policiers, pendant les fameux « contrôles au faciès ».

Selon Hitachi, “une demi-douzaine” de villes américaines, dont Washington, devraient tester ce programme prochainement.

par Fabien Soyez 

Pour aller plus loin

Posté le par La rédaction


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !