Jusqu’ici, on s’occupe à résoudre les crimes après qu’ils se sont produits. Mais que se passerait-il si on arrivait à les prédire avant qu’ils n’aient lieu ?
C’est en tout cas le scénario mis en scène dans le film Minority Report, sorti en 2002. Pour rappel, le film de Philip K. Dick., joué par Tom Cruise, dépeint monde dystopique où une intelligence artificielle est capable de prédire les crimes à l’avance. Eh bien, aujourd’hui, la fiction est devenue réalité avec l’arrivée d’un nouveau genre d’intelligence artificielle qui anticipe la criminalité. Le concept n’est plus totalement nouveau. Mais aux dernières nouvelles, un expert en IA a créé un algorithme capable de prédire où et quand un crime allait se produire avec une précision de 80 à 90 %.
Dans cet article :
L’IA a été testée dans 8 grandes villes américaines
Le nouvel algorithme a été testé dans plusieurs États américains et les résultats sont particulièrement encourageants. Il a été mis au point par une équipe menée par le professeur Ishanu Chattopadhyay, de l’Université de Chicago. Les chercheurs ont conçu l’IA à partir des données de la criminalité à Chicago, entre les années 2014 et 2016. Ils ont ensuite réparti la ville américaine en plusieurs zones d’environ 300 mètres de diamètre.
À terme, l’algorithme a réussi à anticiper les niveaux de criminalité dans chacune de ces zones géographiques sur les semaines suivant l’analyse. Les chercheurs ont ensuite élargi les tests sur sept autres grandes villes américaines. Il s’agit d’Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco. Les résultats se sont montrés tout aussi encourageants.
Et si l’IA conduisait à l’arrestation d’innocents ?
Néanmoins, l’efficacité d’une IA n’est pas toujours synonyme d’évolution. En effet, dans le présent cas, les résultats probants ne rassurent pas bon nombre d’observateurs. Au contraire, beaucoup s’inquiètent des potentiels dégâts que pourrait causer une telle machine.
« Les gens craignent que cela ne soit utilisé comme un outil pour mettre les gens en prison avant qu’ils ne commettent des crimes. Cela n’arrivera pas parce qu’il n’a pas la capacité de le faire. »
Chattopadhyay
Par exemple, la police de Chicago a déjà testé une Intelligence Artificielle de la même catégorie il y a quelques années. Les autorités ont recouru à l’outil pour essayer de repérer les suspects et potentielles victimes dans une fusillade. Les résultats étaient particulièrement décevants, car ils étaient clairement discriminatoires. 56 % des hommes noirs de la ville âgés de 20 à 29 ans figuraient dans la liste générée par l’algorithme.
VOIR AUSSI : Le magnifique tableau d’une IA qui remporte un concours des beaux-arts fait polémique
Un instrument politico-social pour réduire les niveaux de criminalité
Ishanu Chattopadhyay, principal auteur de la recherche publiée dans Nature Human Behaviour, a tenu à rassurer le public quant à sa création. Cette dernière ne serait pas destinée à une utilisation policière. Il s’agirait plutôt d’un outil politico-social qui devrait servir à prévoir et réduire les niveaux de criminalité dans des zones géographiques déterminées.
« Il prédit simplement un événement à un endroit précis. Il ne dit pas qui commettra l’événement ou la dynamique ou la mécanique exacte des événements. Il ne peut pas être utilisé de la même manière que dans le film Minority Report. »
Des risques de discrimination ou de racisme ?
Il a également assuré avoir pris des précautions pour éviter les cas de racisme ou de discrimination de la part de l’algorithme.
« Mes coéquipiers et moi avons beaucoup dit que nous ne voulions pas que cela soit utilisé comme un outil politique purement prédictif. Nous voulons que l’optimisation des politiques en soit l’utilisation principale. Nous devons permettre cela, car il ne suffit pas de mettre un papier et d’avoir l’algorithme. Nous voulons que le maire ou les administrateurs utilisent le modèle généré pour exécuter des simulations et informer la politique. »
Dans tous les cas, on en sait encore peu sur la manière dont cette technologie va être appliquée dans le monde réel. L’outil est jusqu’ici dans une phase d’essai.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :
3 commentaires
En France je peux aller plus loin et vous prédire qui va commettre des crimes et délits : tous ceux qui ont déjà été en garde à vue 15 fois avant d’avoir 18 ans. Je peux aussi vous donner des lieux où des crimes et délits auront lieu à coup sûr ces prochaines semaines : dans le 93 pas loin de la gare du RER B La Plaine Stade de France par exemple.
Franchement c’est pas d’une IA qui prédit les crimes et délits dont on a besoin…
L’IA qui serait raciste mais lol..Donc on va la bidouiller et rendre ses résultats erroné pour faire de la discrimination positive.
Cet effondrement générale de l’occident qui se met lui même des poutre dans les yeux par idéologie.
Article intéressant, malgré que un peu dépassé et peu à jour. Choix ou oublie mais le nom de l’algorithme plus ou moins évolué Predpol ni ai pas cité.