La justice algorithmique prévaut en France

Première modification :

Le Conseil d’État (la plus haute instance judiciaire) a récemment adopté le système informatique d’aide à la décision DataJust, qui permet aux tribunaux de déterminer l’indemnisation à laquelle les victimes de dommages corporels ont droit. L’Association pour la défense des libertés fondamentales dénonce l’utilisation de données personnelles sans le consentement préalable du justiciable.

Par Dominique Desaunay

L’objectif du programme DataJust est d’aider les juges à évaluer, par exemple, le montant de l’indemnisation à laquelle une victime d’une agression physique ou d’un accident de la circulation a droit. La mise en œuvre de cette expérimentation, annoncée par décret le 27 mars 2020, « vise à développer un algorithme, qui se charge d’extraire et d’exploiter automatiquement les données contenues dans les décisions de justice en matière d’indemnisation du préjudice corporel », comme le précise le ministère de la Justice. sur son site Internet.

Pour « former » ce système, basé sur un programme d’intelligence artificielle, utilise des fichiers contenant des milliers de données sensibles. Cela comprend les noms des victimes, ainsi que des informations relatives à d’éventuelles blessures, à l’expérience médicale, mais aussi à leur situation professionnelle ou financière. Bien que la plupart de ces informations soient restées anonymes, certaines données d’identification, telles que la date de naissance ou d’éventuels liens familiaux entre les victimes et leurs proches, sont clairement visibles dans la base de données.

Association de défense des libertés fondamentales

Selon plusieurs avocats, ce mode de traitement informatique contredit le RGPD, le système européen de protection des données personnelles et la loi informatique et libertés. L’association fait le même constat. « Avec cette expérience de justice algorithmique, l’Etat s’affranchit des lois qui protègent les données personnelles et la vie privée », a déclaré Bastien Le Querrec, avocat et membre du groupe contentieux Quadrature du Net, association qui défend les libertés fondamentales dans l’environnement numérique. .

« Cette méthodologie, qui consiste à appliquer des labels expérimentaux pour permettre l’extraction d’informations plus privées, nous dérange. A chaque fois, on dit que c’est expérimental, ne vous inquiétez pas, on va vérifier si les résultats proposés par l’algorithme sont proportionnels, alors qu’en fait On joue le sorcier. La croyance qu’un algorithme peut prendre de meilleures décisions que les humains s’est généralisée, on la voit dans le secteur de la police, maintenant dans le secteur de la justice, dans le contrôle social dans le système des Caisses d’allocations familiales ( fonds de soutien à la famille) … on voit que ces algorithmes interfèrent de plus en plus avec la vie quotidienne des citoyens et c’est vraiment le choix des gens. Chez Quadrature du Net, nous essayons de contrer le biais qu’ils produisent ces programmes automatisés, car la technologie peut conduisent parfois à des abus, comme c’est le cas aujourd’hui avec les systèmes DataJust », déplore Bastien Le Querrec.

L’algorithme DataJust est validé par la plus haute juridiction

Le Conseil d’État, visé par la Quadrature du Net, a affirmé dans sa conclusion que, s’agissant d’un projet d’intérêt général, le consentement des personnes inscrites au fichier n’est pas requis pour le traitement de leurs données personnelles. Le système DataJust, dont l’efficacité n’a pas été révélée, sera opérationnel d’ici fin mars 2022, selon le ministère de la Justice.

Lazare Abraham

"Pionnier du café. Analyste. Passionné de musique généraliste. Expert du bacon. Organisateur dévoué. Ninja incurable d'Internet. Entrepreneur."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *