Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice?
Un tremblement de terre: voilà la comparaison qui définit l’impact de l’intelligence artificielle (IA) sur notre quotidien, le fonctionnement de nos sociétés et même dans l’équilibre géopolitique du monde. L’IA est là pour de bon. Depuis la fin novembre 2022, force est de faire ce constat: ChatGPT a déboulé dans nos vies. Un outil conçu pour épauler l’Homme, mais qui le dépasse déjà dans sa capacité de calcul, de mémorisation ou encore dans sa représentation du monde.
Question de principe dans un domaine éminemment politique: l’IA consolide-t-elle ou non la justice et la démocratie? Plus précisément, qu’en est-il du fonctionnement de la justice? L’utilisation des algorithmes en matière judiciaire pourra-t-elle être «éthique». Il faut rappeler ici que la justice est rendue par des êtres humains: c’est une institution qui en assure l’équité.
Et les lois qui sont ainsi interprétées et appliquées prennent en compte la personnalité des justiciables, leur histoire, ainsi que les circonstances de la commission des actes incriminés. L’argument invoqué, ici et là, pour justifier l’utilisation de l’IA, est celui de la célérité, le gain de temps. Ce serait alors une justice automatisée, du «prêt-à-porter» industriel avec des décisions toutes faites, en somme... Mais le risque est évident: celui de la mise en équation, ou plutôt entre parenthèses, des principes généraux du droit et de la justice, dont celui en l’espèce du contradictoire.
Quelle jurisprudence peut être construite alors dans de telles conditions? Que deviendraient les voies de recours en appel et au niveau des cours suprêmes, baptisées officiellement comme telles, et qui veillent à afficher la supériorité du juge sur les autres producteurs de normes juridiques.
Cela dit, l’IA n’échappe pas à un biais: elle prend en effet appui sur des données produites par des êtres humains. Et si tous les tribunaux utilisaient une telle IA biaisée, n’est-ce pas tout le système judiciaire qui le deviendrait lui aussi de manière systématique? Le débat n’est pas académique, comme l’on pourrait le croire. Il a en effet connu ses premières applications. Celle du logiciel Compas (Correctional Offender Management Profiling for Alternative Sanctions) en est une parfaite illustration.
Cet outil est déjà utilisé dans les États de New York et de Californie. Il vise à prévenir pratiquement les risques de récidive d’un condamné, et ce, à partir de ses réponses à un questionnaire (lieu de résidence, âge, antécédents judiciaires et ceux de son entourage…). Or, ce système a conduit à des discriminations en stigmatisant les minorités noires et hispaniques. C’est dire que cela milite en faveur de l’encadrement des usages de l’IA dans le domaine de la justice, ainsi que de la nécessité de vérifier la validité de leurs résultats.
Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice? L’IA ne «vit» pas dans le monde réel des humains.
La justice ne doit pas être celle de la machine. Elle ne doit pas non plus être celle de l’émotion et de l’empathie; elle résulte de la sagesse, du discernement; elle cherche à comprendre avant de juger, de sorte que le jugement soit accepté par tous. La justice est avant tout une question d’histoires humaines individuelles. C’est dire s’il faut poser des limites pour définir une utilisation éclairée et «éthique» des algorithmes en matière judiciaire.
Comment? En veillant à se limiter à la collecte d’informations pour établir la véracité des faits, à rechercher les textes de loi applicables et les jurisprudences pertinentes, à accompagner aussi l’enquête. Les algorithmes ne doivent en aucun cas «fabriquer» un jugement, autrement dit, ne pas les laisser déterminer la culpabilité d’une personne, désigner un responsable, fixer une indemnité.
#maroc
#justice
#ia
#intelligenceartificielle
Abonnez-vous à notre chaîne sur YouTube : https://bit.ly/2UDicWw
En DIRECT - Suivez L'ODJ TV ici : https://bit.ly/3mrgSBE
Notre Web Radio en streaming : https://www.lodj.ma/webradio
Notre site Live TV 24H/7J: https://www.lodj.ma/tv
Rejoignez nous sur Facebook : https://www.facebook.com/LODJMAROC
Suivez nous sur Twitter : https://twitter.com/lodjma
L'ODJ Média : https://www.lodj.ma/
Groupe de presse Arrissala Maroc : https://www.arrissala.ma
Un tremblement de terre: voilà la comparaison qui définit l’impact de l’intelligence artificielle (IA) sur notre quotidien, le fonctionnement de nos sociétés et même dans l’équilibre géopolitique du monde. L’IA est là pour de bon. Depuis la fin novembre 2022, force est de faire ce constat: ChatGPT a déboulé dans nos vies. Un outil conçu pour épauler l’Homme, mais qui le dépasse déjà dans sa capacité de calcul, de mémorisation ou encore dans sa représentation du monde.
Question de principe dans un domaine éminemment politique: l’IA consolide-t-elle ou non la justice et la démocratie? Plus précisément, qu’en est-il du fonctionnement de la justice? L’utilisation des algorithmes en matière judiciaire pourra-t-elle être «éthique». Il faut rappeler ici que la justice est rendue par des êtres humains: c’est une institution qui en assure l’équité.
Et les lois qui sont ainsi interprétées et appliquées prennent en compte la personnalité des justiciables, leur histoire, ainsi que les circonstances de la commission des actes incriminés. L’argument invoqué, ici et là, pour justifier l’utilisation de l’IA, est celui de la célérité, le gain de temps. Ce serait alors une justice automatisée, du «prêt-à-porter» industriel avec des décisions toutes faites, en somme... Mais le risque est évident: celui de la mise en équation, ou plutôt entre parenthèses, des principes généraux du droit et de la justice, dont celui en l’espèce du contradictoire.
Quelle jurisprudence peut être construite alors dans de telles conditions? Que deviendraient les voies de recours en appel et au niveau des cours suprêmes, baptisées officiellement comme telles, et qui veillent à afficher la supériorité du juge sur les autres producteurs de normes juridiques.
Cela dit, l’IA n’échappe pas à un biais: elle prend en effet appui sur des données produites par des êtres humains. Et si tous les tribunaux utilisaient une telle IA biaisée, n’est-ce pas tout le système judiciaire qui le deviendrait lui aussi de manière systématique? Le débat n’est pas académique, comme l’on pourrait le croire. Il a en effet connu ses premières applications. Celle du logiciel Compas (Correctional Offender Management Profiling for Alternative Sanctions) en est une parfaite illustration.
Cet outil est déjà utilisé dans les États de New York et de Californie. Il vise à prévenir pratiquement les risques de récidive d’un condamné, et ce, à partir de ses réponses à un questionnaire (lieu de résidence, âge, antécédents judiciaires et ceux de son entourage…). Or, ce système a conduit à des discriminations en stigmatisant les minorités noires et hispaniques. C’est dire que cela milite en faveur de l’encadrement des usages de l’IA dans le domaine de la justice, ainsi que de la nécessité de vérifier la validité de leurs résultats.
Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice? L’IA ne «vit» pas dans le monde réel des humains.
La justice ne doit pas être celle de la machine. Elle ne doit pas non plus être celle de l’émotion et de l’empathie; elle résulte de la sagesse, du discernement; elle cherche à comprendre avant de juger, de sorte que le jugement soit accepté par tous. La justice est avant tout une question d’histoires humaines individuelles. C’est dire s’il faut poser des limites pour définir une utilisation éclairée et «éthique» des algorithmes en matière judiciaire.
Comment? En veillant à se limiter à la collecte d’informations pour établir la véracité des faits, à rechercher les textes de loi applicables et les jurisprudences pertinentes, à accompagner aussi l’enquête. Les algorithmes ne doivent en aucun cas «fabriquer» un jugement, autrement dit, ne pas les laisser déterminer la culpabilité d’une personne, désigner un responsable, fixer une indemnité.
#maroc
#justice
#ia
#intelligenceartificielle
Abonnez-vous à notre chaîne sur YouTube : https://bit.ly/2UDicWw
En DIRECT - Suivez L'ODJ TV ici : https://bit.ly/3mrgSBE
Notre Web Radio en streaming : https://www.lodj.ma/webradio
Notre site Live TV 24H/7J: https://www.lodj.ma/tv
Rejoignez nous sur Facebook : https://www.facebook.com/LODJMAROC
Suivez nous sur Twitter : https://twitter.com/lodjma
L'ODJ Média : https://www.lodj.ma/
Groupe de presse Arrissala Maroc : https://www.arrissala.ma
- Catégories
- Intelligence Artificielle
Commentaires