Cadre juridique de l’intelligence artificielle : où en sommes-nous ?

Date

22 juin 2023

Par

Henri de la Motte Rouge

Cadre juridique de l’intelligence artificielle : où en sommes-nous ?

Date

22 juin 2023

Par

Henri de la Motte Rouge

Partager

Partager

Dans les médias comme sur les réseaux sociaux, ChatGPT fait le buzz. Si certains s’enthousiasment de cette nouvelle révolution technologique, d’autres tirent la sonnette d’alarme. Ils s’inquiètent notamment de l’intrusion toujours grandissante des robots dans notre quotidien. Pour se protéger des abus et des dérives, un cadre juridique de l’intelligence artificielle (IA)s’impose. Le point avec le cabinet Touati La Motte Rouge.

Qu’est-ce que l’intelligence artificielle ?

Pour commencer, attardons-nous sur la définition de l’intelligence artificielle (IA). Contrairement aux idées reçues, il ne s’agit pas d’une technologie en tant que telle. Elle correspond plutôt à un domaine technique, regroupant un certain nombre d’outils, remplissant certains critères.

Le Parlement européen définit ainsi l’IA comme « un outil utilisé par une machine afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». En pratique, ces systèmes techniques ont donc la capacité d’analyser leur environnement et les données qui leur sont transmises. Ils formulent ensuite une réaction adéquate. L’expérience acquise sert aux actions futures. L’IA produit donc des comportements proches de celui des humains.

À ce jour, il existe deux grandes catégories d’IA :

  • Les logiciels comme les assistants virtuels, les moteurs de recherche ou les systèmes de reconnaissance faciale. ChatGPT en est un exemple parfait. Il s’agit d’un chatbot d’intelligence artificielle capable de comprendre le langage humain et de générer un dialogue naturel ;
  • L’IA « incarnée » à l’image des robots, des voitures autonomes ou encore des drones.

Quelle protection légale pour l’intelligence artificielle ?

Comme nous l’avons vu, l’IA n’est pas en soi une technologie autonome. Elle est en réalité composée d’un ensemble de logiciels et de bases de données. Sous certaines conditions, ces derniers bénéficient d’une protection accordée par le Code de la propriété intellectuelle.

Le droit d’auteur et les droits voisins couvrent ainsi :

Qu’en est-il des algorithmes ? Ces derniers sont au cœur du fonctionnement de l’IA. Ils déterminent, en effet, les différentes étapes à suivre pour résoudre un problème, à partir d’informations fournies. En premier lieu, le droit d’auteur leur refuse toute protection. Ce principe a été affirmé par la première Chambre civile de la Cour de cassation dans un arrêt du 13 décembre 2005.

Les fonctionnalités d’un logiciel, définies comme la mise en œuvre de la capacité de celui-ci à effectuer une tâche précise ou à obtenir un résultat déterminé, ne bénéficient pas, en tant que telles, de la protection du droit d’auteur, dès lors qu’elles ne correspondent qu’à une idée.

Cette position est confirmée par la directive européenne du 23 avril 2009

Les idées et les principes qui sont à la base des différents éléments d’un programme, y compris ceux qui sont à la base de ses interfaces, ne sont pas protégés par le droit d’auteur.

Enfin, la protection des algorithmes par un brevet semble exclue (article 611-10 du Code de la propriété intellectuelle). Une exception est prévue si celui-ci est intégré à un procédé technique spécifique brevetable. Dans ce dernier cas de figure, la protection est alors indirecte. Elle est, en effet, accordée uniquement dans le cadre de l’invention elle-même.

Cadre juridique de l’intelligence artificielle : quel est l’état de la réglementation ?

Face à une technologie toujours plus conquérante, le législateur a bien du mal à suivre le rythme. Quelques avancées sont toutefois à signaler

Des normes incitatives

À l’heure actuelle, il existe un vide juridique en matière d’intelligence artificielle. Aucune loi n’encadre la mise en œuvre de l’IA. En revanche, un certain nombre de chartes, codes de déontologie et autres guides de bonnes pratiques ont été élaborés afin de fournir un cadre éthique à l’IA (ISO 2382-2015 relative aux technologies de l’information par exemple). Ces normes restent toutefois non contraignantes. Aucune sanction particulière n’est prévue en cas de non-respect de leur contenu.

Cadre juridique de l’intelligence artificielle : des discussions au niveau national

Dès 2016, la loi pour une République numérique a soulevé la question de l’encadrement juridique de l’intelligence artificielle. La Commission Nationale pour l’Information et les Libertés (CNIL) avait alors pour mission d’engager une « réflexion sur les problèmes éthiques et les questions de sociétés soulevés par l’évolution des technologies numériques ». Plus tard, en 2018, le Rapport Villani établissait un certain nombre de recommandations en la matière :

  • Amélioration de la transparence des systèmes autonomes et de leur auditabilité ;
  • Réformation de la protection des droits et libertés afin de protéger les citoyens des abus de l’IA ;
  • Instauration d’une responsabilité en cas de préjudice causé par l’IA ;
  • Création d’une instance afin d’assurer la prise en charge des questions et des débats liés à l’IA.

En février 2021, le Conseil économique, social et environnemental (CESE) a rendu son avis intitulé « Économie et gouvernance de la donnée ». Celui-ci contient un certain nombre de propositions concernant notamment l’encadrement de l’AI. Il propose notamment : La mise en place, pour les outils basés sur l’intelligence artificielle, d’une régulation et d’un cadre normatif européens en cohérence avec les principes de transparence, de traçabilité et de contrôle humain permettrait de sécuriser ces enjeux.

Cadre juridique de l’intelligence artificielle : l’Union européenne en ordre de bataille

L’Union européenne, consciente des enjeux, a déjà engagé des travaux sur la question de la réglementation de l’IA. En avril 2021, la Commission a présenté un projet de Règlement. Son but est de « favoriser le développement et l’adoption, dans l’ensemble du marché unique, d’une IA sûre et licite qui respecte les droits fondamentaux ». Ce texte vise notamment à définir les pratiques interdites et à accroître les exigences pour les systèmes d’Intelligence Artificielle à haut risque. Les interdictions concernent notamment :

  • Les systèmes d’IA de notation sociale ;
  • Les systèmes d’identification biométrique à distance « en temps réel » dans des espaces accessibles au public à des fins répressives, sauf dans certains cas restreints ;
  • Certains systèmes visant à exploiter les vulnérabilités d’un groupe de personnes ou utilisant les techniques subliminales, pouvant altérer leur comportement et leur causer un préjudice.

En décembre 2022, le Conseil a, à son tour, adopté une position commune concernant la législation sur l’Intelligence Artificielle, clarifiant le projet des parlementaires. Le débat est donc ouvert.

Enfin, le 14 juin 2023, le Parlement européen a finalement adopté un texte sur la régulation de l’Intelligence Artificielle. Le débat avec les États membres va donc pouvoir s’ouvrir. Aucune législation ne devrait toutefois s’appliquer avant 2026.

Pourquoi est-il indispensable de fournir un cadre juridique à l’intelligence artificielle ?

L’intelligence artificielle : une présence au quotidien

En premier lieu, parce que l’intelligence artificielle est partout. Notre quotidien regorge d’outils résultant directement de cette révolution technologique. Prenons quelques exemples :

  • Le fil d’actualités de vos réseaux sociaux est parfaitement adapté à vos goûts et vos besoins : un robot a justement analysé vos préférences afin de vous proposer du contenu adapté ;
  • Votre application de musique en ligne vous propose une playlist que vous adorez : un logiciel a observé vos choix en la matière pour vous faire découvrir de nouveaux morceaux ;
  • Si votre plateforme de e-commerce favorite vous présente régulièrement des produits qui pourraient vous intéresser, c’est également parce qu’un robot analyse vos achats et anticipe vos envies ;
  • Vos déplacements quotidiens sont largement facilités : les applications intelligentes calculent votre temps de trajet, en tenant compte des aléas de circulation.

L’intelligence artificielle : un acteur clé des domaines sensibles

L’intelligence artificielle joue un rôle déterminant dans de nombreux secteurs sensibles :

  • En matière de santé, l’intelligence artificielle facilite le diagnostic et guide la prise en charge thérapeutique du patient ;
  • En matière de sécurité, l’IA identifie les menaces et les comportements suspects. Elle permet aussi de réduire le temps de réponse des forces de l’ordre ;
  • En matière d’éducation, elle permet le développement de plateformes d’apprentissage adaptatives.

Santé, transport, sécurité, alimentation, médecine, les domaines concernés par l’intelligence artificielle sont donc infinis. Par ailleurs, dans les années à venir, l’IA va, sans aucun doute, prendre une place encore plus prépondérante dans notre quotidien. Prévoir un cadre juridique pour l’intelligence artificielle, complet et évolutif, est donc un enjeu majeur pour les législateurs.

Ces différents exemples nous permettent de toucher du doigt un autre point essentiel : les risques inhérents au développement de l’IA. Si la vie privée et le traitement des données à caractère personnel demeurent les deux principaux enjeux, d’autres doivent impérativement attirer notre attention.

Notamment, nous devons, dès à présent, réfléchir à la responsabilité de l’intelligence artificielle et des robots. Lorsqu’une voiture autonome provoque un accident, lorsqu’un chatbot tient des propos injurieux ou diffamatoires, qui est responsable ?

Quelle responsabilité juridique pour l’intelligence artificielle ?

Pour le moment, le régime de responsabilité classique est inadapté à l’autonomie et à l’imprévisibilité des robots. Une réflexion doit donc être menée pour encadrer juridiquement les comportements de l’IA.

La responsabilité civile en droit français : un régime inadapté à l’IA

Dans un arrêt du 19 juin 2013, la Cour de cassation a rejeté la responsabilité de l’exploitant d’un chatbot ayant tenu des propos diffamatoires. Pour prendre une telle décision, la Cour a mis en avant la liberté de choix de l’algorithme. Une telle décision suscite des interrogations. Comment réparer les dommages causés par un robot ? Qui doit les prendre en charge ?

Pour bien comprendre, revenons un instant sur la notion de la responsabilité en droit français. À l’origine, celle-ci repose sur la notion de faute humaine, de dommage et de lien de causalité. Peu à peu, avec le développement des machines industrielles, cette notion a évolué pour donner naissance à la responsabilité du fait des choses et notamment des choses dangereuses. Les progrès techniques ont poussé à élargir la notion de « choses ». C’est ainsi qu’est né, en 1998, la responsabilité des produits défectueux (articles 1386-1 et suivants du Code Civil).

Sur cette base, il est évidemment possible d’identifier des responsabilités, même en matière d’intelligence artificielle. Il suffit alors de considérer l’outil comme une chose. Une faute dans la ligne de code peut, par exemple, engager la responsabilité du programmeur si celle-ci a provoqué un dommage.

Mais que faire si l’usage de la chose est conforme, mais que le robot lui-même est à l’origine de la décision ayant entraîné le préjudice ? Comment engager la responsabilité du concepteuralors même que celui-ci n’a commis aucune faute ? L’autonomie de l’AI pose évidemment question. Voici la position du Parlement européen.

Dans l’hypothèse où un robot puisse prendre des décisions de manière autonome, les règles habituelles ne suffiraient pas à établir la responsabilité du robot, puisqu’elles ne permettent pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés.

Des pistes de réflexions pour fournir un cadre juridique à l’IA

La première solution serait d’établir une responsabilité sans faute, au même titre que celle prévue en matière de circulation automobile (loi Badinter). En pratique, le conducteur est responsable des dommages causés aux tiers. L’utilisation conforme ou non de son véhicule n’entre pas en considération. Cette solution a permis d’assurer l’indemnisation des victimes. Elle a toutefois nécessité la mise en place d’une assurance obligatoire et d’un fonds d’indemnisation. Un mécanisme similaire pourrait être envisagé pour les robots. Un rapport européen préconise d’ailleurs cette approche.

Une seconde solution, plus innovante et sans doute plus complexe à mettre en œuvre, consiste à instaurer une personnalité virtuelle pour les robots. Ces derniers seraient alors détenteurs de droits et d’obligations. Ils disposeraient d’un capital social dont le montant pourrait dépendre des risques potentiels qu’ils font encourir aux tiers. Pour le Parlement européen, qui prône pour sa mise en place, « cette personnalité juridique se manifesterait par une immatriculation obligatoire permettant l’identification du robot ».

Mais de nombreuses questions demeurent concernant la personnalité juridique des robots. Se rapproche-t-elle du droit moral des sociétés ou d’avantage d’une curatelle, voire d’une tutelle ? Doit-on prévoir un gérant humain de cette personnalité ? Dans ce cas, qui doit en prendre la charge ? Quelle serait l’étendue des droits accordés aux robots ? Pourraient-ils profiter de droits patrimoniaux ? Quid de leurs droits fondamentaux ? De nombreuses questions restent ouvertes.

À la une

Toutes les actualités
Attaque Réputationnelle : quel Droit de Réponse ?

Attaque Réputationnelle : quel Droit de Réponse ?

Apport en nature d’un actif immatériel : le guide complet

Apport en nature d’un actif immatériel : le guide complet

IA et Gestion des Ressources Humaines (IA-RH) : le Guide Complet

IA et Gestion des Ressources Humaines (IA-RH) : le Guide Complet

Digital Service Act (DSA) : Quelles Obligations pour les Plateformes en Ligne ?

Digital Service Act (DSA) : Quelles Obligations pour les Plateformes en Ligne ?

Toutes les actualités