"Éthique et régulation : quel rôle pour la puissance publique dans le développement de la legal tech au service de la justice ?" - allocution de Monsieur le président Bruno Pireyre, lors du premier forum parlementaire de la legal tech

lundi 18 juin 2018

Télécharger l’allocution

Allocution de Monsieur Bruno Pireyre, président de chambre à la Cour de cassation, directeur du service de documentation, des études et du rapport, du service des relations internationales et du service de communication, prononcée au cours de la troisième table ronde du forum parlementaire de la legal tech "La technologie au service de la justice", qui s’est déroulé au Sénat, le lundi 18 juin 2018.



Dans son allocution d’ouverture de ce forum, le premier président de la Cour de cassation a retracé le cadre de ce qui revenait au pilotage et à la responsabilité de la haute juridiction dans les séquences successives de la collecte, du traitement et de la diffusion de la jurisprudence de l’ensemble des juridictions judiciaires. Plus largement, le Conseil d’Etat comme la Cour de cassation, disposent, à la tête de leurs ordres de juridiction respectifs, de l’expérience et, plus encore, de la légitimité pour revendiquer ce rôle, articulé en ses trois étapes inséparables qui viennent d’être rappelées. Pourquoi ? Parce que cette mission tout à la fois procède et touche à leur essence même : la « production » des ordonnances, jugements et arrêts, en d’autres termes de la jurisprudence.

Cinq chiffres, pour simple ordre de grandeur.

A ce jour, la Cour de cassation tient deux bases de données de jurisprudence : l’une contient l’intégralité des décisions de la Cour de cassation, soit environ 30 000 en flux annuel et 830 000 et plus en stock. L’autre réunit les décisions civiles motivées des cours d’appel, soit 150 000 ordonnances et arrêts en flux annuel et près de 1 900 000 en stock.

Dans un avenir qui vient à nous à grands pas, mettant en œuvre l’open data des décisions de justice prévu par le loi du 7 octobre 2016 pour une République numérique (article L. 111-13 du code de l’organisation judiciaire), il nous incombera de constituer et d’administrer une base de données unique, regroupant la totalité des décisions judiciaires, soit 3,9 millions de décisions en flux annuel – valeur 2016 – (2,7 millions de décisions civiles et 1,2 millions de décisions pénales).

Ces chiffres ne disent pourtant pas l’essentiel !

Le défi principal auquel est confronté l’open data juridictionnel tient à l’impérieuse nécessité pour les responsables du dispositif selon le cas de recevoir et de se doter des moyens juridiques et techniques de maîtriser aussi vite qu’il se pourra les risques de grande ampleur secrétés par celui-ci.

C’est bien de régulation qu’il s’agit – maître mot de l’époque – qui combine et déploie tour à tour ses instruments d’identification, de prévention, de contrôle et de sanction.

Au nombre des risques évoqués – dont l’avenir, n’en doutons pas, se chargera d’en faire éclore de nouveaux – deux s’imposent par leur ampleur et leur intensité.

LES RISQUES D’IDENTIFICATION DES PERSONNES

La finalité assignée à l’ouverture des données de justice – qui l’ignore encore ? – procède des vertus cognitives et créatives prêtées à juste titre à la transparence de la production du droit par la jurisprudence.

Pour autant, l’ouverture considérée comporte une limite stricte tracée par les exigences de la protection de la vie privée et plus généralement des données relatives aux personnes citées dans les décisions en cause.

Tout l’équilibre, délicat sinon instable, du système repose sur cette difficile conciliation.

Pour l’assurer, il appartient de réaliser une pseudonymisation des décisions diffusées. En d’autres termes, une anonymisation rendue imparfaite, par la nécessité d’occulter les noms et les éléments d’identification qu’elles renferment dans des conditions qui n’affectent pas trop lourdement leur intelligibilité. Le procédé présente, par construction, l’inconvénient de ne pas opposer un obstacle infranchissable, absolu, à la ré-identification des personnes concernées. Dès lors, le système est exposé, par nature, au péril d’être perturbé par les velléités de ré-identification d’acteurs de toute sorte, inspirés par des mobiles illégitimes ou illicites : prospection commerciale ou politique, indiscrétion, malveillance, projets criminels…

Au premier niveau, qui est celui de l’intervention ex ante, de la prévention, la Cour de cassation, forte de l’expérience qu’elle a su acquérir dans la pseudonymisation des décisions extraites de ses bases de données, publiées sur le site internet Légifrance, s’emploie désormais à parfaire les techniques dont elle use pour y parvenir. A cet effet, elle renouvelle profondément ses méthodes de travail en recourant à de nouveaux procédés, en cours de développement, fondés sur des technologies émergentes, dites de machine learning ou d’apprentissage automatique. Les résultats attendus doivent permettre d’atteindre très vite et sur un mode plus industrialisé à plus de rapidité, plus d’efficacité, plus de sûreté.

Au stade, second, qui est celui de l’action correctrice ex post, la Cour revisite les process par lesquels elle surveille, réagit, rectifie, complète, la pseudonymisation des décisions de justice mises à disposition du public. Elle y est conduite, selon le cas, par la veille qu’elle assure à cet égard, en réponse aux réclamations des intéressés ou à la suite des signalements du public.

LES RISQUES DE DEVOIEMENT DES INSTRUMENTS D’ANALYSE DE LA JUSTICE PREDICTIVE

Plus lourd, plus insaisissable est le risque de dévoiement des instruments d’analyse de la jurisprudence et d’exploitation de ses résultats.

Les « grandes peurs » charrient leurs noirs phantasmes que la raison commande de remettre à bonne distance. Toute diabolisation de la justice dite prédictive, en soi, mérite d’être énergiquement repoussée. Il reste que ce janus a bien deux faces. Il en est une, lumineuse, qui ouvre sur une prévisibilité de la justice, une sécurité du droit, mieux assurées et mieux connues, la connaissance « universelle » étant l’instrument privilégié de l’harmonisation de la jurisprudence pour laquelle tant reste à faire. Mais il est une face plus sombre qu’il nous faut tenir en lisière : celle qui procède d’un mésusage, intentionnel ou non, des outils algorithmiques.

La mission CADIET en avait une conscience aigüe. Aussi avons-nous préconisé une régulation à plusieurs bras : obligation de transparence des algorithmes ; mise en œuvre de mécanismes souples de contrôle de ceux-ci par la puissance publique ; adoption d’un dispositif de certification, labellisation de qualité, par un organisme indépendant, enfin. Ces pistes de solutions, dont il importe que l’exploration débute avec célérité, désormais, doivent concourir à nous offrir la garantie de l’intégrité scientifique et technique des outils de la justice prédictive pour en prévenir les manifestations dévoyées, en repérer et en faire corriger les biais, ainsi que pour alerter en conséquence les utilisateurs.

Dans ce schéma d’ensemble, il doit échoir aux cours suprêmes – insistons-y - une mission de veille et d’éclairage du public sur les instruments en cause.

EN GUISE DE CONCLUSION

A l’instar de ceux qui sont au cœur des grandes évolutions de société, les sujets qui nous retiennent s’affirment bien comme un lieu où se rencontrent, interagissent, s’affrontent, une technologie digitale ouvrant sur un champ presque infini de bouleversements et des considérations éthiques, escortées par la préoccupation du devenir social.

Le propre de nos démocraties, tout à la fois de délibération et d’opinion, est de confier au législateur et au juge, chacun pour la part qui lui revient - dont la frontière, on le sait, s’ajuste avec flexibilité - les arbitrages, sans cesse à revisiter, qu’appelle la confrontation de ces valeurs.