Date
22 juin 2023
Par
Henri de la Motte Rouge
Partager
Dans les médias comme sur les réseaux sociaux, ChatGPT fait le buzz. Si certains s’enthousiasment de cette nouvelle révolution technologique, d’autres tirent la sonnette d’alarme. Ils s’inquiètent notamment de l’intrusion toujours grandissante des robots dans notre quotidien. Pour se protéger des abus et des dérives, un cadre juridique de l’intelligence artificielle (IA)s’impose. Le point avec le cabinet Touati La Motte Rouge.
Pour commencer, attardons-nous sur la définition de l’intelligence artificielle (IA). Contrairement aux idées reçues, il ne s’agit pas d’une technologie en tant que telle. Elle correspond plutôt à un domaine technique, regroupant un certain nombre d’outils, remplissant certains critères.
Le Parlement européen définit ainsi l’IA comme « un outil utilisé par une machine afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». En pratique, ces systèmes techniques ont donc la capacité d’analyser leur environnement et les données qui leur sont transmises. Ils formulent ensuite une réaction adéquate. L’expérience acquise sert aux actions futures. L’IA produit donc des comportements proches de celui des humains.
À ce jour, il existe deux grandes catégories d’IA :
Comme nous l’avons vu, l’IA n’est pas en soi une technologie autonome. Elle est en réalité composée d’un ensemble de logiciels et de bases de données. Sous certaines conditions, ces derniers bénéficient d’une protection accordée par le Code de la propriété intellectuelle.
Le droit d’auteur et les droits voisins couvrent ainsi :
Qu’en est-il des algorithmes ? Ces derniers sont au cœur du fonctionnement de l’IA. Ils déterminent, en effet, les différentes étapes à suivre pour résoudre un problème, à partir d’informations fournies. En premier lieu, le droit d’auteur leur refuse toute protection. Ce principe a été affirmé par la première Chambre civile de la Cour de cassation dans un arrêt du 13 décembre 2005.
Les fonctionnalités d’un logiciel, définies comme la mise en œuvre de la capacité de celui-ci à effectuer une tâche précise ou à obtenir un résultat déterminé, ne bénéficient pas, en tant que telles, de la protection du droit d’auteur, dès lors qu’elles ne correspondent qu’à une idée.
Cette position est confirmée par la directive européenne du 23 avril 2009
Les idées et les principes qui sont à la base des différents éléments d’un programme, y compris ceux qui sont à la base de ses interfaces, ne sont pas protégés par le droit d’auteur.
Enfin, la protection des algorithmes par un brevet semble exclue (article 611-10 du Code de la propriété intellectuelle). Une exception est prévue si celui-ci est intégré à un procédé technique spécifique brevetable. Dans ce dernier cas de figure, la protection est alors indirecte. Elle est, en effet, accordée uniquement dans le cadre de l’invention elle-même.
Face à une technologie toujours plus conquérante, le législateur a bien du mal à suivre le rythme. Quelques avancées sont toutefois à signaler
À l’heure actuelle, il existe un vide juridique en matière d’intelligence artificielle. Aucune loi n’encadre la mise en œuvre de l’IA. En revanche, un certain nombre de chartes, codes de déontologie et autres guides de bonnes pratiques ont été élaborés afin de fournir un cadre éthique à l’IA (ISO 2382-2015 relative aux technologies de l’information par exemple). Ces normes restent toutefois non contraignantes. Aucune sanction particulière n’est prévue en cas de non-respect de leur contenu.
Dès 2016, la loi pour une République numérique a soulevé la question de l’encadrement juridique de l’intelligence artificielle. La Commission Nationale pour l’Information et les Libertés (CNIL) avait alors pour mission d’engager une « réflexion sur les problèmes éthiques et les questions de sociétés soulevés par l’évolution des technologies numériques ». Plus tard, en 2018, le Rapport Villani établissait un certain nombre de recommandations en la matière :
En février 2021, le Conseil économique, social et environnemental (CESE) a rendu son avis intitulé « Économie et gouvernance de la donnée ». Celui-ci contient un certain nombre de propositions concernant notamment l’encadrement de l’AI. Il propose notamment : La mise en place, pour les outils basés sur l’intelligence artificielle, d’une régulation et d’un cadre normatif européens en cohérence avec les principes de transparence, de traçabilité et de contrôle humain permettrait de sécuriser ces enjeux.
L’Union européenne, consciente des enjeux, a déjà engagé des travaux sur la question de la réglementation de l’IA. En avril 2021, la Commission a présenté un projet de Règlement. Son but est de « favoriser le développement et l’adoption, dans l’ensemble du marché unique, d’une IA sûre et licite qui respecte les droits fondamentaux ». Ce texte vise notamment à définir les pratiques interdites et à accroître les exigences pour les systèmes d’Intelligence Artificielle à haut risque. Les interdictions concernent notamment :
En décembre 2022, le Conseil a, à son tour, adopté une position commune concernant la législation sur l’Intelligence Artificielle, clarifiant le projet des parlementaires. Le débat est donc ouvert.
Enfin, le 14 juin 2023, le Parlement européen a finalement adopté un texte sur la régulation de l’Intelligence Artificielle. Le débat avec les États membres va donc pouvoir s’ouvrir. Aucune législation ne devrait toutefois s’appliquer avant 2026.
En premier lieu, parce que l’intelligence artificielle est partout. Notre quotidien regorge d’outils résultant directement de cette révolution technologique. Prenons quelques exemples :
L’intelligence artificielle joue un rôle déterminant dans de nombreux secteurs sensibles :
Santé, transport, sécurité, alimentation, médecine, les domaines concernés par l’intelligence artificielle sont donc infinis. Par ailleurs, dans les années à venir, l’IA va, sans aucun doute, prendre une place encore plus prépondérante dans notre quotidien. Prévoir un cadre juridique pour l’intelligence artificielle, complet et évolutif, est donc un enjeu majeur pour les législateurs.
Ces différents exemples nous permettent de toucher du doigt un autre point essentiel : les risques inhérents au développement de l’IA. Si la vie privée et le traitement des données à caractère personnel demeurent les deux principaux enjeux, d’autres doivent impérativement attirer notre attention.
Notamment, nous devons, dès à présent, réfléchir à la responsabilité de l’intelligence artificielle et des robots. Lorsqu’une voiture autonome provoque un accident, lorsqu’un chatbot tient des propos injurieux ou diffamatoires, qui est responsable ?
Pour le moment, le régime de responsabilité classique est inadapté à l’autonomie et à l’imprévisibilité des robots. Une réflexion doit donc être menée pour encadrer juridiquement les comportements de l’IA.
Dans un arrêt du 19 juin 2013, la Cour de cassation a rejeté la responsabilité de l’exploitant d’un chatbot ayant tenu des propos diffamatoires. Pour prendre une telle décision, la Cour a mis en avant la liberté de choix de l’algorithme. Une telle décision suscite des interrogations. Comment réparer les dommages causés par un robot ? Qui doit les prendre en charge ?
Pour bien comprendre, revenons un instant sur la notion de la responsabilité en droit français. À l’origine, celle-ci repose sur la notion de faute humaine, de dommage et de lien de causalité. Peu à peu, avec le développement des machines industrielles, cette notion a évolué pour donner naissance à la responsabilité du fait des choses et notamment des choses dangereuses. Les progrès techniques ont poussé à élargir la notion de « choses ». C’est ainsi qu’est né, en 1998, la responsabilité des produits défectueux (articles 1386-1 et suivants du Code Civil).
Sur cette base, il est évidemment possible d’identifier des responsabilités, même en matière d’intelligence artificielle. Il suffit alors de considérer l’outil comme une chose. Une faute dans la ligne de code peut, par exemple, engager la responsabilité du programmeur si celle-ci a provoqué un dommage.
Mais que faire si l’usage de la chose est conforme, mais que le robot lui-même est à l’origine de la décision ayant entraîné le préjudice ? Comment engager la responsabilité du concepteuralors même que celui-ci n’a commis aucune faute ? L’autonomie de l’AI pose évidemment question. Voici la position du Parlement européen.
Dans l’hypothèse où un robot puisse prendre des décisions de manière autonome, les règles habituelles ne suffiraient pas à établir la responsabilité du robot, puisqu’elles ne permettent pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés.
La première solution serait d’établir une responsabilité sans faute, au même titre que celle prévue en matière de circulation automobile (loi Badinter). En pratique, le conducteur est responsable des dommages causés aux tiers. L’utilisation conforme ou non de son véhicule n’entre pas en considération. Cette solution a permis d’assurer l’indemnisation des victimes. Elle a toutefois nécessité la mise en place d’une assurance obligatoire et d’un fonds d’indemnisation. Un mécanisme similaire pourrait être envisagé pour les robots. Un rapport européen préconise d’ailleurs cette approche.
Une seconde solution, plus innovante et sans doute plus complexe à mettre en œuvre, consiste à instaurer une personnalité virtuelle pour les robots. Ces derniers seraient alors détenteurs de droits et d’obligations. Ils disposeraient d’un capital social dont le montant pourrait dépendre des risques potentiels qu’ils font encourir aux tiers. Pour le Parlement européen, qui prône pour sa mise en place, « cette personnalité juridique se manifesterait par une immatriculation obligatoire permettant l’identification du robot ».
Mais de nombreuses questions demeurent concernant la personnalité juridique des robots. Se rapproche-t-elle du droit moral des sociétés ou d’avantage d’une curatelle, voire d’une tutelle ? Doit-on prévoir un gérant humain de cette personnalité ? Dans ce cas, qui doit en prendre la charge ? Quelle serait l’étendue des droits accordés aux robots ? Pourraient-ils profiter de droits patrimoniaux ? Quid de leurs droits fondamentaux ? De nombreuses questions restent ouvertes.