L’IA peut-elle remplacer un avocat ?

L’IA PEUT-ELLE REMPLACER UN AVOCAT ?

On peut se douter de la réponse à une telle question quand elle est posée à un avocat, pourtant, de manière objective, si la réponse finale est évidente, beaucoup d’éléments permettent d’expliquer pourquoi il faut arriver à une telle conclusion.

  1. L’IA est un outil

L’Intelligence Artificielle n’est pas, par elle-même, spécialiste dans un domaine, mais un outil qu’il convient de maîtriser. On ne peut remplacer un bûcheron par une tronçonneuse ou un médecin par une IRM. Certes, l’utilisation de l’outil permet d’arriver à des résultats impossibles à atteindre autrement, mais cette utilisation nécessite une maîtrise, une connaissance, et des précautions indispensables, au risque, sinon, d’accidents graves.

Tout résultat produit par l’IA, comme toute IRM, doit donc être interprété par un spécialiste, qui peut traduire celui-ci, le comprendre, et, surtout, déduire les implications présentes et futures du résultat. Comment savoir, par exemple, si le testament rédigé par l’IA est conforme au Droit français, ou si les statuts produits par l’IA correspondent véritablement à ce qui était demandé ? Impossible sans le contrôle d’un professionnel.

L’outil sans maîtrise, devient donc plus un danger qu’un atout.

2. L’IA est facétieuse

Les problèmes actuels rencontrés par les utilisateurs d’IA, parmi lesquels se comptent aussi des avocats, concernent notamment les petites plaisanteries, qu’on pourrait qualifier d’involontaires, que font tous les modèles d’IA génératives. Qualifiées souvent d’hallucinations, ce sont des créations complètes, inexistantes, et présentées comme réelles. Ainsi, des décisions de justice imaginaires, des lois rêvées et des interprétations venues d’auteurs fantômes ont égayé les plaidoiries de certains avocats, ou de justiciables voulant se défendre eux-mêmes. Sans un contrôle rigoureux des résultats produits par l’IA, les conséquences peuvent être désastreuses. Les plaisanteries de l’IA nécessitent donc des professionnels qualifiés pour éviter qu’elles ne se retournent contre ceux qui les lisent.

3. L’IA est l’Autre

Parce que peu de personnes connaissent le fonctionnement des modèles d’IA, il est difficile, pour beaucoup, de comprendre comment les résultats sont produits. C’est ce qu’on appelle le phénomène de « boite noire ». Or, tout résultat est produit en fonction de ce qui a, au préalable, nourri le modèle. Ainsi, il est reconnu que les biais, les préjugés, se retrouvent, d’une manière ou d’une autre, lors de la production des résultats. Si l’on ignore cela, les résultats, produits comme par magie, paraissent absolus et incontestables, alors qu’ils ne le sont pas. Il est essentiel d’ouvrir cette boite noire afin de pouvoir analyser les résultats en fonction de leur mode de production. Par exemple, si le modèle d’IA a été entraîné avec des données essentiellement en anglais, les résultats juridiques seront forcément teintés de droit anglo-saxon. Cette information est capitale lors de l’utilisation potentielle en droit français d’un résultat produit par l’IA.

Pour finir, le mieux est encore de laisser à l’IA le dernier mot, si on lui pose la question de savoir si elle peut remplacer un avocat, sa réponse est très claire : « L’intelligence artificielle (IA) ne peut pas totalement remplacer un avocat, mais elle peut assister et compléter leur travail de plusieurs manières. Elle ne peut pas remplacer l’expertise, l’expérience et le jugement humain, surtout dans des affaires complexes ou sensibles. » Comme quoi, il n’y a pas qu’un avocat qui le dit. Nous sommes tous d’accord.