Quand l’IA agit comme un avocat, qui est responsable ?

Par Me Alexandra Kallos

Si l’IA agit comme un avocat, doit-elle en assumer la responsabilité ? Les implications de Nippon c. OpenAI pour l’assurance et le droit

La Nippon Life Insurance Company of America a intenté une poursuite contre OpenAI devant un tribunal fédéral de Chicago. Selon la demande introductive d’instance, ChatGPT aurait aidé un ancien demandeur en invalidité à contester un règlement, à tenter de rouvrir une affaire déjà rejetée et à poursuivre le dépôt de procédures contre l’assureur. Cette affaire soulève une question à la fois simple et fondamentale : lorsqu’un système d’IA est utilisé non seulement comme outil de recherche, mais comme source de conseils juridiques adaptés à une situation précise et de rédaction d’actes de procédure, l’entreprise qui l’exploite peut-elle être tenue responsable ?

Selon Nippon, le différend initial avait été réglé par transaction en janvier 2024. L’assureur soutient que le demandeur a ensuite utilisé ChatGPT pour préparer une requête en réouverture de l’instance, puis pour intenter une nouvelle poursuite et déposer des dizaines d’autres actes, avis, mises en demeure et demandes. La demande allègue également que certains de ces documents présentaient des caractéristiques typiques de l’IA générative, notamment la citation d’une décision inexistante ainsi que la présence d’icônes d’en-tête identiques (« balances de la justice » ou « punaise »), que Nippon affirme être associées à des sorties de ChatGPT. Selon Nippon, le traitement de cet ensemble de procédures lui aurait coûté environ 300 000 $. OpenAI conteste ces allégations.

Ce qui distingue cette affaire tient au fait que la partie poursuivie est le fournisseur d’IA lui-même. Jusqu’à présent, dans les décisions judiciaires les plus médiatisées portant sur des documents juridiques générés par l’IA, l’attention s’est surtout concentrée sur les avocats ou les parties ayant déposé ces documents. Nippon c. OpenAI s’en démarque en cherchant à déplacer la responsabilité de l’utilisateur vers l’entreprise ayant conçu et exploité l’outil. Ce faisant, l’affaire met à l’épreuve la possibilité de tenir directement responsables les développeurs de modèles d’IA à usage général pour exercice illégal de la profession et pour ingérence fautive dans les relations économiques, lorsque leurs systèmes fournissent une stratégie juridique hautement personnalisée, opérationnelle et potentiellement préjudiciable.

La thèse de Nippon peut être résumée ainsi : si une plateforme fournit des conseils juridiques adaptés à une situation particulière, rédige des actes de procédure et aide un utilisateur à faire valoir des prétentions dans le cadre d’un litige en cours, un tribunal pourrait être amené à considérer cette plateforme comme autre chose qu’un simple produit logiciel neutre. La Attorney Act de l’Illinois, à l’instar de nombreux régimes professionnels dans les pays occidentaux, prévoit que nul ne peut exercer la profession d’avocat sans permis. Elle interdit également aux personnes non autorisées de fournir, contre rémunération, des services juridiques ou de se présenter comme telles.

Nippon tente ainsi d’articuler ce cadre avec les principes de responsabilité civile afin de soutenir qu’une plateforme devrait engager sa responsabilité lorsqu’elle fournit une analyse juridique, des conseils ou de la rédaction spécifiquement adaptés à un différend. Même si la thèse fondée sur l’exercice illégal de la profession pourrait s’avérer difficile à établir, la réclamation civile connexe laisse entrevoir une multiplication des recours fondés sur les pertes économiques, l’atteinte aux intérêts commerciaux et le détournement du processus judiciaire. Les entreprises qui conçoivent, utilisent ou déploient des systèmes d’IA dans des contextes réglementés devraient également anticiper une augmentation des réclamations liées aux pertes d’exploitation, à l’atteinte aux droits juridiques et à l’abus de procédure.

Que Nippon obtienne gain de cause ou non, cette affaire témoigne d’un déplacement plus large du débat. Celui-ci s’éloigne des considérations abstraites sur l’IA pour se recentrer sur une question concrète : qui doit supporter les coûts lorsque les résultats produits par l’IA entraînent des frais juridiques, des perturbations commerciales ou un préjudice procédural ? Les tribunaux reconnaîtront-ils une pertinence juridique à une expertise simulée lorsqu’elle contribue à l’inflation des coûts judiciaires et à un préjudice procédural ? Cette poursuite place désormais cette question au cœur du débat.

Partager cette publication