Le Royaume-Uni Testa AI pour identifier les tueurs potentiels
Le Ministère de la Justice britannique teste un instrument de À la prédictive capable d’estimer si une personne pourrait devenir un auteur potentiel de Crimes violents, y compris le meurtre.
Le projet, appelé « Partage des données pour améliorer l’évaluation des risques», Utilisez des données de Archives de police, dossiers médicaux et précédents judiciaires pour générer un « score de risque ».
Comment fonctionne l’intelligence artificielle prédictive dans le système judiciaire
L’algorithme considère Facteurs comportementaux et démographiques: conditions de santé mentale, abus de substances, casier judiciaire. Officiellement, le système est toujours en phase de recherche et Il ne sera pas utilisé pour les arrestations ou les activités de surveillance.
Mais la simple existence d’un système similaire augmente Craintes concrets concernant sa future application opérationnelle.
Les risques d’utilisation de l’IA pour prédire les crimes
Selon le groupe Watwatchqui a obtenu des informations via Liberté d’informationle système risque amplifier les inégalités existantes.
L’utilisation de données historiques pourrait conduire à des profils comme des sujets « dangereux » appartenant à Minorités ethniques, classes sociales défavorisées ou personnes déjà connues de la policeà cause de Biais algorithmique.
La frontière labile entre la recherche et la justice prédictive
Même si le gouvernement britannique insiste sur le fait que le système n’est que expérimental, Beaucoup craignent que les résultats générés finissent par influencer les décisions opérationnelles. Une fois qu’un algorithme commence à générer Prévisions sur les crimesdevient difficile à les ignorer. Une pression politique ou sociale pour «agir» selon ces données peut entraîner des dérives dangereuses.
Lisez également: La plupart des gens peuvent reconnaître les images et les textes générés par l’IA
De la science-fiction à la réalité: le rapport de l’ombre de la minorité
La comparaison avec Rapport minoritaire Ce n’est pas seulement cinématographique. L’idée d’agir sur une base prédictive – Avant qu’un crime ne soit commis – C’est aujourd’hui une réelle possibilité.
Là surveillance prédictive C’est déjà une réalité dans des pays comme USA Et Chineoù des outils similaires ont été connectés à un une plus grande pression sur les communautés marginales.
Lisez également: 40% des travailleurs en danger avec les secondes de l’IA de l’ONU
Profilage algorithmique et discrimination systémique
La combinaison entre profilage algorithmique et les bases de données pré-existantes renforcer les préjugés systémiques. L’IA n’est pas neutre: elle reflète et amplifie les données sur lesquelles elle est formée. Si ces données sont déjà le résultat de la discrimination, la Les décisions d’algorithme risquent de les perpétuer.
Lisez également: L’agent Amazon effectue des achats à votre place. Voici comment ça marche
Comparaison entre le Royaume-Uni, les États-Unis et la Chine sur l’utilisation de l’IA prédictive
Dans États-Unisl’utilisation de algorithmes prédictifs a déjà conduit à des cas documentés de injustice Et erreurs systémiquesavec police prédictive qui concentre les contrôles dans les quartiers pauvres ou afro-américains. Dans Chinele système de Crédit une notation sociale Comprend des évaluations basées sur les comportements et les relations. Le Le Royaume-Uni semble maintenant commencer dans la même direction.
Confidentialité et IA: un équilibre difficile
Lequel données Utilisez-vous l’intelligence artificielle pour prédire un crime? La question de confidentialité et IA C’est central. Accès à informations sensibles comme la santé mentale ou les relations familiales Questions éthiques sérieuses.
Qui a le droit d’accéder à ces données? Et avec quelles garanties?
Lisez également: Les images de style ghibli avec le chatppt sont une tendance virale (et un problème de droit d’auteur)
Éthique de l’intelligence artificielle et de la justice prédictive
Réflexion urgente sur leéthique de l’intelligence artificielle appliqué à la justice. Le risque n’est pas seulement technique, mais social: Automatiser les soupçons, attribuer le danger aux données passées, transformer les prévisions en convictions morales.
Le but de la justice n’est pas d’anticiper la criminalité, mais évaluer les faitspas la probabilité.