I.A Justice

L'Intelligence Artificielle fait son entrée dans les palais de Justice. Certains Etats comme l'Estonie envisage d'utiliser l'I.A. pour rendre des verdicts dans le cadre d'affaires mineurs. L'I.A. représente donc une opportunité d'améliorer l'efficacité et la rapidité des procédures judiciaires. Ainsi, l'Estonie travaille sur : "la mise en service d'un juge robot dont la mission serait d’étudier les poursuites mineures (dont les dommages s’élèveraient à moins de 7000 euros). Ce robot serait aussi amené – et c’est là la nouveauté – à rendre des verdicts... soumis à la supervision dêtres humains." [1].

L'Intelligence Artificielle s'invite donc dans l'application des règles juridiques. Cette intervention de l'I.A peut se faire de plusieurs façons, ainsi aux États-Unis les Juges utilisent les algorithmes dans un rôle d'adjuvant pour les aider à prendre des décisions mais pas pour rendre des verdicts.

Déjà l'I.A., utilisée comme simple aide à la prise de décision, pose des problèmes de discrimination car des logiciels sont utilisés pour déterminer les taux de récidive. Ainsi des accusés peuvent se voir sanctionner sur le préjugé d'une éventuelle récidive qu'ils n'ont pas encore commise. En effet, les logiciels utilisés aident à statuer sur la base d’informations liées au passé judiciaire et psycho-médico-social de l'accusé (situation familiale, addictions, précédentes arrestations). Ainsi : "Ces « outils d’évaluation du risque » (risk-assessment tools en version originale) sont principalement utilisés pour estimer le risque de récidive des détenus et décider (ou non) de leur libération conditionnelle. Mais ils sont controversés car, bien qu’utilisés pour réduire les risques de discrimination, ils sont soupçonnés, au contraire, de les entretenir." [2].



"Justice prédictive" - Olivier Haenecour & Antoine Garapon à la MSH-ULB - Maison des Sciences Humaines ULB

Des enquêtes journalistiques de ProPublica ont démontré cette faille discriminatoire des algorithmes, ainsi : "les journalistes de ProPublica ont montré qu'à casier judiciaire équivalent, Noirs et Blancs se voyaient quand même attribuer des scores de dangerosité différents. Ils en ont déduit que les algorithmes, censés être objectifs, reproduisent en fait les inégalités raciales et sociales." [2].

Mais cette constatation du potentiel caractère discriminatoire des algorithmes est à nuancer pour plusieurs facteurs biaisants dont le premier est l'encodage des données. Par exemple sur le logiciel COMPAS de prédiction des récidives : "Sur une interface comme COMPAS, un travailleur social va répondre, en collaboration avec le prévenu, à plus de 100 questions du type « Que pense le prévenu de la police ? », « Quelles sont les caractéristiques des amis du prévenu ? », « Certains d'entre eux ont-ils déjà été condamnés ? », etc." [2]. Ainsi, des avocats américians ont déjà porté plainte pour discrimination pour des décisions prises à l'aide de ce type de logiciel [1].

Les travailleurs sociaux ont donc un rôle essentiel dans l'encodage des données et dans la lutte contre la discrimination judiciaire, ainsi : "Si ces logiciels se développent encore davantage à l’avenir, le rôle du travailleur social va être encore plus prépondérant, ce qui peut être bien en soi, mais il faut alors être certain qu’ils soient bien formés, qu’ils puissent rendre des comptes, et qu’on puisse contester ce score si on n’est pas d’accord." [2].
 
Les logiciels prédictifs représentent donc une facilité tant pour les Juges que les avocats, et bien qu'ils ne soient pas tenus de tenir compte des résultats de ce genre d'outils, et où on peut se poser la question de l'enventuelle "double peine" pour des faits qui ne sont pas encore commis, ces outils logiciels influencent les Magistrats alors qu'ils ne sont pas exempt de manipulation tant du côté de la justice que des prévenus qui pourraient "en rajouter" sans réelle intention récidiviste.


[1] Lila Meghraoua, "En Estonie, des robots vont bientôt rendre la justice", Usbek & Rica, 27/03/2019, https://usbeketrica.com/article/estonie-robots-justice
[2] Laura Fernandez Rodriguez, "Un algorithme peut-il prédire le risque de récidive des détenus ?", Usbek & Rica, 22/08/2017, https://usbeketrica.com/article/un-algorithme-peut-il-predire-le-risque-de-recidive-des-detenus

Juge ou Robot

Nos Juges seront-ils bientôt remplacés par des robots ? Les logiciels d'aide à la décision sont déjà utilisés depuis plusieurs années aux Etats-Unis, des pays comme l'Estonie veulent déléguer des décisions de verdicts qui feront jurisprudence, à quand le Juge Robot ?
La robotisation de la justice est en route et la généralisation d’une justice algorithmique est proche dans notre élan utopiste d'une justice parfaite et omnisciente.
Cette utopie de justice parfaite qui grâce aux robots serait une justice quasi divine : "Il [le robot] jugerait sans être soumis aux émotions, aux influences ou aux carences qui parasitent les décisions humaines. Impartial et incorruptible." [1].

Mais rendre la Justice n'est pas appliquer la Loi à la lettre. La Justice est fonction des situations de chaque cas particulier car : "Il ne faut pas confondre la Loi et la Justice. Appliquer la loi de façon rigide peut aboutir à de profondes injustices »." [1].

Ainsi, selon Olivier Paquet, docteur ès sciences politiques : "La justice est un instrument avant tout social. Elle doit être souple pour évoluer avec la société." [1].

Le rôle du Juge est donc d'ajuster l'application de la loi dans un contexte socio-culturel particulier à un époque déterminée, ainsi : "La marge de manœuvre et la sensibilité humaine du juge permettraient donc d’ajuster l’application des lois, de suivre des jurisprudences ou d’en créer de nouvelles." [1].

La Justice parfaite et universelle n'est pas l'idéal que nous devons rechercher en la déléguant à des alogrithmes eux-mêmes dépourvus de jugement, en effet : "Il  faut sortir de l’idée d’une justice parfaite et universelle. La justice est culturelle, relative aux valeurs de chaque société " [1].

Les algorithmes sont fait pour croiser des faits avec le code pénal, pas pour avoir un esprit critique et éthique. Ainsi pour Ugo Bellagamba, maître de conférence en histoire du droit à l’université de Nice : "On imagine le pire qui n’arrivera probablement jamais. La justice doit rester humaine, mais les machines peuvent avoir un rôle d’auxiliaires extrêmement utile." [1].

Les machines semblent donc avoir plus pour vocation de servir à la constitution des dossiers judiciaires qu'à rendre les verdicts, à être une aide précieuse plutôt qu'un remplaçant bon marché, en effet : "Toute la partie purement technique du travail des juges, la recherche de cas antérieurs, de statistiques, et de big data juridique pourrait être compilée par une IA au service du juge." [1].

Ainsi pour Ugo Bellagamba : "La société naît de notre faculté de se juger. Si on renonce à exercer nous-mêmes la justice, on sort de la société" [1].



[1] Vincent Lucchese,"Le juge parfait sera-t-il un robot ?", Usbek & Rica, 03/11/2016, https://usbeketrica.com/article/le-juge-parfait-sera-t-il-un-robot-1


Avocats ou I.A.

Les solutions techniques pour proposer des assistants à base d'Intelligence Artificielle aux avocats commencent à se développer. Des plates-formes en ligne se proposent même d'être votre assistant juridique virtuel tel que la weclaim.com lancée en 2015 en France avec comme idée de démocratiser l'accès au droit.

Le retard judiciaire et l'engorgement des tribunaux est une aubaine pour ce type de marché et d'entreprise qui graçe au big data peut analyser les contenus des décisions de justice pour en faire ressortir des prédictions quand aux jugements, et proposer leurs services tant aux magistrats qu'aux avocats, en effet : "L'analyse des statistiques peut permettre à ce dernier [l'avocat] de mesurer ses chances de réussite. Quant au magistrat, il est progressivement assisté par la machine dans la prise de décision. À terme, celle-ci sera pré-rédigée et le juge n'aura plus qu'à la revoir." [1].

Les machines peuvent être une source de démocratisation judiciaire car, comme le souligne une étude de Jomati Consultants, cabinet de conseil juridique londonien : "Ces machines ne ressentiront pas la fatigue, ne chercheront pas à avoir de l’avancement, elles ne demanderont pas d’augmentation de salaire. Et le prix des tâches juridiques qu'elles accompliront baissera rapidement" [1].

Mais que ce soit pour le magistrat ou l'avocat, les machines resterons une aide précieuse et pas celles qui prennent les décisions, car pour Frédéric Sicard, bâtonnier de Paris : "Faire du droit, c'est restituer une application humaine de la règle.(...) La machine est un moyen, pas une finalité" [1].

Les innovations technologiques ont donc une place dans l'évolution de la Justice, pour faire face au manque de moyen et de personnel, mais sans doute aussi pour améliorer l'accès à l'information juridique, aux jurisprudences et jugements antérieurs, et par là à l'amélioration de la qualité des défenses et des jugements, ainsi qu'à la démocratisation des procédures judiciaires.


[1] Flavien Osanna, Centre de formation et de perfectionnement des journalistes (CFPJ), "Mon avocat est un algorithme", Usbek & Rica, 03/11/2016, https://usbeketrica.com/article/mon-avocat-est-un-algorithme




Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International


Retour




Les associations et Asbl (association sans but lucratif) sur Social Square



Bienvenue sur Cybersociety - La société cybernétique
Ce site utilise des cookies. En poursuivant votre visite, vous acceptez leur utilisation.
Accepter
Refuser
Fermer