L’Actu de l’innovation

PCA, le logiciel de Hitachi qui prédit les crimes

Posté le 28 octobre 2015
par La rédaction
dans Informatique et Numérique

Hitachi a conçu un logiciel de prédiction algorithmique qui permettrait de savoir où et quand un crime aura lieu. Selon l’entreprise, le “PCA” devrait faire gagner beaucoup de temps à la police. Sauf en cas d’erreurs.

Minority Report, plus si loin ? Après Predpol, le logiciel de prédiction algorithmique utilisé par la police new-yorkaise pour prédire à quel endroit les risques de délits sont les plus probables, voici le dernier programme de Hitachi.

L’algorithme de l’entreprise niponne ‎prétend aller plus loin. Son système, “Visualization Predictive Crime Analytics” (PCA), permettrait de prédire le lieu et l’heure des crimes – et pas simplement d’en avoir une estimation statistique.

Selon le site ‎Quartz,‎ le logiciel puise “dans les données des réseaux de transport, les conversations sur les réseaux sociaux, les bulletins météo, et plus encore”. Selon Hitachi, interrogé par Fast Company, les messages postés sur le réseau social Twitter sont particulièrement utiles, car ils augmentent la précision du PCA de 15%, grâce à la géolocalisation des tweets et aux hashtags (mots-clés). Car c’est bien connu, les criminels sont aussi sur Twitter, et parlent en public de leurs forfaits.

Une “zone à risque” de 200 m2

Le logiciel japonais est bien sûr loin d’être un programme « miracle ». Comme Predpol, en réalité, il ne fait que donner un « pourcentage de risque », avec la nature du crime probable. Mais les résultats seront plus précis, Predpol ne se basant que sur des données de la police, et non sur des données collectées un peu partout sur le Web. Une zone à risque de 200 m2 est constituée, avec un pourcentage de risque.

Selon l’un des responsables du projet, cité par Fast Company, PCA permettra de faire gagner du temps à la police, car “un humain ne peut pas gérer quand il y a des dizaines ou des centaines de variables qui pourraient influer un crime”. Le logiciel n’aurait, en outre, pas besoin d’intervention humaine. Et cerise sur le gâteau, « il apprend tout seul », selon le principe du Machine Learning.

‎Subsiste hélas l’éternel problème des faux positifs. Ainsi, le risque reste grand de patrouiller dans une zone où il ne se passera en réalité rien, et d’interpeller à tort un innocent, suivant les préjugés des policiers, pendant les fameux « contrôles au faciès ».

Selon Hitachi, “une demi-douzaine” de villes américaines, dont Washington, devraient tester ce programme prochainement.

par Fabien Soyez 


Pour aller plus loin

Dans les ressources documentaires