Les enjeux de l’IA pour les legaltech et les professionnels du droit

Legaltech
Outils
TAILLE DU TEXTE

Une conférence a fait le point sur les enjeux de l'IA pour les legaltech et les professionnels du droit.

Il s’agit de la conférence annuelle organisée entre le Diplôme d'université Transformation numérique du droit de l’IED-EDS de l’université Paris 1 Panthéon-Sorbonne (dirigé par Mme Donzel, M. Cassar et M. Gasnault) et le Diplôme d'Université Transformation numérique du droit & LegalTech de l’université Paris-Panthéon-Assas (dirigé par M. Deffains et M. Baller). Les objectifs des deux diplômes étant de répondre aux enjeux du numérique dans le monde juridique.

La conférence a eu lieu le 22 mai 2023 via la plateforme Zoom et était ouverte au public. Des étudiants du Master Droit de l'intelligence artificielle de l’Institut Catholique étaient présents en plus des étudiants des deux diplômes évoqués.

Sept intervenants étaient conviés :

  • Me Clarisse Surin, membre du CNB et vice-présidente de la commission numérique au sein du CNB ;
  • Me Mathieu Bui, membre de l’Incubateur du Barreau de Paris ;
  • Aurore Hyde, enseignante au sein du Diplôme d’université de l’université Paris 1 Panthéon-Sorbonne sur les questions de l’IA éthique, Professeur à l’Université de Reims ;
  • Grégoire Miot, président de l’European Legal Technology Association (“ELTA”) ;
  • Thomas Saint-Aubin, CEO de la LegalTech Seraphin.legal ;
  • Hugo Ruggieri, avocat, directeur juridique de la LegalTech Doctrine ;
  • Fabrizio Papa Techera, avocat, président de LexBase ;

Ceux-ci ont pu débattre autour de trois sujets essentiels :

I - Quelle est la perception de l’IA éthique au regard du futur règlement européen sur l’intelligence artificielle (RIA ou AI Act), quel est son avenir économique ? Existe-t-il à ce propos un nouveau marché pour les LegalTech ?

S’agissant des legaltech, les systèmes d’IA sont essentiels dans la génération de contrats, dans le traitement des algorithmes ou encore en matière d’exploitation des décisions de justice en open data. Il existe énormément de systèmes d’IA différents.

C’est néanmoins l’arrivée des systèmes d’IA génératives, entraînées à partir de LLM (“large language models”), qui bouleverse le paysage et soulève de nouveaux enjeux juridiques - outre le coût économique du développement de tels systèmes qui se chiffre en plusieurs millions d’euros.

Cependant, les legaltech ne peuvent échapper à la demande croissante de leurs clients qui sont de plus en plus demandeurs - dans leurs appels d’offres - des références en matière de systèmes d’IA. Ces exigences sont parfois difficiles à satisfaire : les besoins exacts des clients sont difficiles à définir, les systèmes d’IA peuvent vite être dépassés, de nombreuses questions de gouvernance des données se posent, comme des questions de droit de propriété intellectuelle.

Le rôle des legaltech à l’ère des systèmes d’IA génératives demeure essentiellement constitué en trois missions : rendre le droit disponible, intelligible et abordable financièrement pour leurs clients (majoritairement des cabinets d’avocats).

Les différents intervenants ont encouragé les étudiants à développer des compétences qu’ils jugent essentielles compte tenu du marché qui s’ouvre désormais :

  • la maîtrise des bases de données, élément différenciant aux Etats-Unis par exemple ;
  • la maîtrise du “design” : comment produire un produit “simple” pour un usage “sophistiqué” ;
  • d’explorer les nouveaux “business models” possibles, via des algorithmes sémantiques par exemple.

Les différents intervenants ont également exhorté à la vigilance en matière de systèmes d’IA et préconisent vivement l’intervention de la personne humaine dans la gestion et l’entraînement du système. L’ensemble des legaltech s’accordent à dire que l’IA éthique et la place de l’humain sont deux éléments capitaux pour bien appréhender le futur règlement européen.

Une autre problématique a été évoquée : les prestations de conseil juridique sont réglementées en France alors que les services des LegalTech ne le sont pas. Dans quelle mesure un système d’IA pourrait potentiellement dériver vers de la prestation de conseil juridique, malgré son entraînement ?

En avoir conscience ne signifie pas pour autant en maîtriser les règles. La jurimétrie en matière de calculs indemnitaires en est un exemple : elle suppose que les données du problème, la qualification juridique ont bien été prises en compte, ce qui n’est pas toujours le cas.

II - Qu’en est-il de l’IA générative ?

Même si de nombreux cabinets d’avocats font déjà appel à des legaltech, l’irruption de systèmes d’IA génératives bouleversent de manière fondamentale leur activité réglementée : tout particulièrement le secret des affaires. Dès lors, il est nécessaire que les legaltech mettent en place une gouvernance des données permettant d’assurer à leur utilisateurs le respect des protections relatives à leurs données. Comment sécuriser le secret professionnel, comment encadrer et contrôler des données en présence de l’IA ? La formation des avocats devient donc essentielle, notamment au travers de futures UV en matière d’IA.

ChatGPT et son accession au grand public a cependant provoqué une nouvelle vision de la justice : l’avènement de ce système d’IA générative permet l'accès à des informations rapides et à une plus grande accessibilité à l’information. Même si les dernières versions de ChatGPT ne sont pas à jour des derniers textes ou jurisprudences, la vitesse d’acquisition des connaissances par le système d’IA est “fulgurante”, particulièrement aux États-Unis.

Deux problèmes sont soulevés s’agissant de ChatGPT (aussi bien GPT-3.5 que GPT-4) : le raisonnement juridique peut souvent être erroné et l'origine des sources n’est jamais soulignée (ChatGPT ne donne pas ses sources).

Enfin, les systèmes d’IA conversationnelles posent évidemment la question de la traçabilité des données et de la gouvernance des données.

III – Entre éthique de l’IA et gouvernance des données : au-delà du RGPD, le respect des droits fondamentaux

La problématique est évoquée d’emblée. Le cadrage de l’IA relève d’intérêts divergents : notamment l’innovation et l’éthique ainsi que l’articulation entre ces deux impératifs.

L’éthique est le “meilleur moyen” pour faire prendre conscience de l’importance des enjeux liés aux systèmes d’IA et sensibiliser à la règlementation européenne à venir (RIA). De plus, la prise en compte de la conformité et de la RSE sont essentielles. En cela, il est important que l’éthique “préfigure” les règles de droit lorsque celles-ci n’existent pas encore (ce qui est le cas actuellement), comme le soulignait justement un rapport de la CNIL en 2017. Beaucoup de pratiques en matière d’IA relèvent d’enjeux sociétaux (impact sur l’environnement, algorithme de l’IA, réutilisation des données, etc.).

En parallèle, la conception de systèmes d’IA doit prendre en considération toutes les éventuelles protections existantes sur les données et nécessaire à cet entraînement. La gouvernance des données devient ainsi un moyen efficace, en vérifiant les impératifs juridiques applicables, de garantir un système d’IA fiable et respectueux des droits personnels des utilisateurs.

De plus, si la mutualisation des données entre différentes entités économiques présente un vrai gain dans certains secteurs (par exemple, l’agriculture), il conviendra d’être vigilant sur des thèmes européens nouveaux tels que “l’altruisme” des données.

Conclusion

Pour conclure les débats et échanges autour de ces questions, la Professeure Célia Zolynski a présenté les actions et les objectifs de l’Observatoire de l'Intelligence artificielle de Paris 1 Panthéon-Sorbonne, lequel fédère les actions autour de l’intelligence artificielle dans toutes les disciplines au sein de l’université.


Lex Inside du 18 avril 2024 :

Lex Inside du 15 avril 2024 :

Lex Inside du 5 avril 2024 :