Aperçu juridique : comment gérer l’adoption de l’intelligence artificielle en entreprise

La question n’est plus « est-ce que votre équipe utilise l’intelligence artificielle ? » mais plutôt  «comment votre équipe utilise-t-elle l’intelligence artificielle ? ». Qu’elle soit autorisée ou non, il est probable que quelqu’un, quelque part dans votre organisation, utilise déjà l’intelligence artificielle (ou IA), car de nombreux systèmes différents sont devenus facilement accessibles, tant aux néophytes qu’aux experts.

Comprenez-vous bien alors, l’utilisation de l’IA par votre équipe ? Il est crucial de bien appréhender l’utilisation de l’IA car il s’agit d’un puissant outil entrainant des implications à la fois éthiques et juridiques pour votre organisation. Poursuivez votre lecture pour en savoir plus sur les principaux sujets de préoccupation et sur la façon de les atténuer.

Principaux sujets de préoccupation

1. Confidentialité et sécurité des données : De grandes quantités d’informations sont introduites dans les modèles d’IA pour les entraîner à fournir des résultats en réponse aux requêtes des utilisateurs. Cependant, les utilisateurs eux-mêmes fournissent également des données au modèle d’IA afin d’obtenir des résultats en réponse à des requêtes, et cela est particulièrement préoccupant si les informations fournies sont soumises à des réglementations en matière de confidentialité et de protection des données. Par exemple, un employé du commerce de détail peut utiliser un système d’IA pour aider un client à identifier la taille de pantalon la mieux adaptée, ce qui nécessite des informations telles que l’âge, le poids et la taille pour fournir des recommandations. Ces informations pourraient également être affectées à leur dossier client pour une utilisation future, à condition que leur nom, leur adresse et leur adresse électronique soient également fournis.Cette utilisation banale d’un système d’IA pour fournir un service client efficace est pourtant lourde de violations réglementaires potentielles. Les données fournies par le client sont considérées comme personnelles et, dans certains cas, comme des données sensibles. La collecte de ces données sans informer pleinement les clients de la manière dont ces informations pourraient être utilisées pourrait être considérée comme une violation des réglementations en matière de confidentialité et de protection des données. Demander des identifiants personnels dépassant ce qui est nécessaire pour recommander des tailles de pantalons, par exemple le nom complet et l’adresse résidentielle d’un client, pourrait également exposer l’entreprise à des problèmes réglementaires, sans parler du fait que les informations collectées par les employés doivent être stockées en toute sécurité par l’entreprise et conservées uniquement aussi longtemps que nécessaire pour l’utilisation prévue.

2. Droits de propriété intellectuelle : Parce qu’un modèle d’IA apprend en fonction des informations auxquelles il a été exposé, il existe un risque de violation de la propriété intellectuelle en ce qui concerne les résultats générés par l’IA. Considérez par exemple le nouveau logo que votre stagiaire a fièrement soumis, qui a l’air propre et frais… et qui pourtant parait étrangement semblable à quelque chose que vous ne pouvez pas tout à fait identifier. Se pourrait-il qu’il ait soumis un résultat généré par l’IA, qui pourrait imiter par inadvertance des conceptions ou des styles utilisés comme données d’entrée pendant le processus d’apprentissage ? Si tel est le cas, le logo peut-il être considéré comme une œuvre originale ? Une transformation ? Qui détient le droit d’auteur ? La législation actuelle sur la propriété intellectuelle n’est rédigée qu’en pensant aux créateurs humains, ce qui signifie que les réponses à ces questions, et à bien d’autres, restent floues.

3. Biais et équité : Les systèmes d’IA peuvent perpétuer et amplifier les biais existants, souvent inhérents à leurs ensembles de données d’entraînement. Si le système d’IA est entraîné sur des données eurocentriques, ignorant les cultures non occidentales, le résultat pourrait être biaisé de la même manière. Le biais peut se manifester de manière mineure, avec quelque chose d’aussi simple que l’utilisation par défaut de pronoms masculins dans la sortie de texte (car généralement, les pronoms masculins sont la « valeur par défaut » dans la culture occidentale). Plus préoccupantes, cependant, sont les ramifications importantes que les biais peuvent avoir, en particulier dans des contextes qui peuvent conduire à des contestations judiciaires, comme un modèle d’IA chargé de sélectionner des candidats à des bourses médicales rejetant systématiquement les candidates en raison de biais sexistes historiques dans le domaine.

4. Responsabilité, transparence et connaissances institutionnelles : À mesure que l’IA s’améliore, elle sera intégrée plus profondément dans divers processus d’affaires. Il deviendra plus difficile (et plus important) de comprendre qui – ou quoi – prend des décisions et sur quelle base. Cette politique a-t-elle été revue et modifiée avec des yeux humains et un cœur humain, ou un système d’IA a-t-il suggéré ces « améliorations » ? Avons-nous toujours fait les choses de cette façon, ou notre prise de décision a-t-elle progressivement évolué en fonction d’un algorithme alimenté par un logiciel compatible avec l’IA ? Il est crucial d’identifier le moment où de tels changements se produisent, car cela permet aux organisations de conserver un historique de leur culture d’entreprise et de comprendre les origines de leur expertise et de leurs connaissances.


Stratégies d’atténuation

Bien que la résolution des problèmes ci-dessus nécessite une approche à multiples facettes, il existe un moyen simple de gérer les risques juridiques et éthiques associés à l’adoption croissante de l’IA sur le lieu de travail : élaborer une politique d’IA complète pour votre entreprise et veiller à ce que tous les employés soient informés et formés sur cette politique.

La politique d’IA doit définir clairement la position de l’entreprise sur l’utilisation acceptable de l’IA, tout en tenant compte de la législation applicable et des valeurs professionnelles et éthiques de l’entreprise. Elle doit établir des principes clairs sur la gestion et la confidentialité des données et fournir des principes explicites sur l’utilisation éthique de l’IA. Cela doit comprendre des principes relatif à l’équité et à la transparence, mais aussi relatif à la surveillance des biais, afin d’atténuer ou de prévenir les résultats indésirables tout en fournissant des directives claires sur la création de contenu généré par l’IA, dans le contexte du droit de la propriété intellectuelle. Compte tenu de la vitesse à laquelle la technologie évolue, la politique d’IA doit être revue régulièrement pour suivre le paysage réglementaire, qui devrait changer rapidement.

Si vous avez besoin d’aide pour rédiger une politique d’IA personnalisée pour votre organisation, notre équipe spécialisée se fera un plaisir de vous offrir son assistance. N’hésitez pas à nous contacter !

Par Alexandra Kallos

Partager cette publication