Date
16 octobre 2024
Par
Henri de la Motte Rouge
Comment lutter contre les deepfakes ?
Partager
En 2024, une enquête menée par Regula, expert mondial en solutions de police scientifique et de vérification des identités, révèle un chiffre alarmant : 49 % des entreprises ont déjà été victimes d'escroqueries audio et vidéo. Les personnalités publiques sont également des cibles de choix. Taylor Swift, Michel Cymes, Rihanna, ou encore Joe Biden ont tous été confrontés à ces contenus manipulés, générés par l’intelligence artificielle. Mais ces deepfakes ne se limitent pas aux célébrités ou aux entreprises : de plus en plus de particuliers sont également visés, notamment par des deepfakes pornographiques. En Corée du Sud, par exemple, ces attaques ont même pris une ampleur massive. Alors, que recouvre cette pratique trompeuse ? Quelles en sont les répercussions ? Et surtout, comment s’en protéger ? Le cabinet d'avocats Taouti La Motte Rouge, expert en droit du numérique, vous éclaire sur le sujet.
Qu’est-ce qu’un deepfake ?
Avant de revenir sur les solutions disponibles pour lutter contre les deepfake, arrêtons-nous quelques instants sur la définition et l’ampleur de cette pratique.
Définition du deepfake
Un deepfake est une technique de manipulation numérique qui utilise l'intelligence artificielle pour créer des vidéos, des images ou des enregistrements audio truqués. En pratique, cette technologie permet de superposer le visage d’une personne sur le corps d’un autre ou la voix sur des propos. Ce procédé est si réaliste qu'il devient alors difficile de distinguer le vrai du faux.
Bon à savoir : le terme deepfake vient en réalité de la contraction entre "Deep Learning" et "Fake". Il n’existe pas réellement d’équivalent en français. La traduction littérale "fausse profondeur" ne donne pas de réelle information sur la technologie et son impact. On lui préfère donc le terme d’“hypertrucage”.
À quoi servent les deepfakes et pourquoi sont-ils dangereux ?
À l'origine, les deepfakes étaient principalement utilisés à des fins humoristiques ou artistiques. Certains créateurs de contenus, comme Ctrl Shift Face, en ont même fait leur spécialité. L’industrie du cinéma y a également recours dans des contextes légitimes. Par exemple, dans le film Top Gun : Maverick, l’acteur Val Kilmer, qui a perdu l’usage de sa voix après un cancer de la gorge en 2015, retrouve la parole. Cette prouesse a été rendue possible grâce à la technologie de l’hypertrucage, développée par Sonantic, permettant de recréer sa voix d'autrefois.
Les deepfakes trouvent aussi des applications dans le domaine scientifique. À l'Ircam, par exemple, cette technologie a été utilisée pour "recréer" des moments historiques, comme l’appel du 18 juin du général de Gaulle.
Cependant, l'essor de logiciels, de plus en plus performants et accessibles à tous, a largement favorisé l’apparition de deepfakes malveillants. Aujourd’hui, leur utilisation soulève de nombreuses préoccupations. Parmi les utilisations néfastes les plus répandues, on trouve l'usurpation d’identité. Cette escroquerie courante consiste à imiter une célébrité afin d’inciter les fans à :
- Faire des dons d'argent ;
- S'engager dans des investissements douteux ;
- Voter pour un candidat lors d'une élection ;
- Etc.
Les deepfakes sont d’ailleurs un outil majeur de désinformation. Ils contribuent, en effet, à la diffusion massive de fake news, en particulier via les réseaux sociaux. Cela passe par la création de faux reportages ou de fausses déclarations publiques. Un exemple marquant est celui d’un deepfake mettant en scène Volodymyr Zelensky, Président de l’Ukraine, annonçant la reddition de son pays face à la Russie.
Les deepfakes sont aussi utilisés pour extorquer de l’argent, notamment à travers des hypertrucages pornographiques. Dans ce cas, la victime est menacée : si elle ne paie pas une rançon, la vidéo falsifiée sera diffusée sur les réseaux sociaux ou envoyée à ses proches. Les attaques à la réputation sont également monnaie courante. Les entreprises ne sont pas épargnées non plus par ces pratiques. En février 2024, une entreprise chinoise a perdu 26 millions de dollars après qu'un employé ait été trompé par un deepfake. Pensant assister à une conférence en ligne avec un cadre supérieur, il a transféré des fonds vers des comptes frauduleux.
Ces exemples ne sont qu'une infime partie des centaines de milliers de deepfakes produits chaque année, certains plus dangereux que d'autres. Aucun secteur n’est à l'abri et les conséquences de cette cybercriminalité peuvent être désastreuses. Selon un sondage IFOP selon seul 1 Français sur 3 s’estime capable d’identifier un contenu photo ou vidéo générée par une intelligence artificielle. Bien que la technologie évolue souvent plus vite que la législation, le droit français prévoit heureusement quelques outils pour se protéger contre ces dérives.
Les deepfakes en chiffres
En 2024, les deepfakes vidéo ont augmenté de 20 % par rapport à 2022. Les deepfakes audio enregistrent, quant à eux, une hausse de 12 % sur la même période.
Que dit la loi sur les deepfakes ?
La loi du 21 mai 2024, visant à sécuriser et réguler l’espace numérique (loi SREN), a modifié le Code pénal pour aborder spécifiquement la question de l’intelligence artificielle, et plus particulièrement celle des deepfakes. Cette nouvelle législation s’inscrit dans la mise en œuvre du paquet législatif sur les services numériques européen et notamment le Digital Service Act.
L’article 228-8 du Code pénal sanctionne désormais d’un an d’emprisonnement et de 15 000 euros d’amende “le fait de porter à la connaissance du public ou d’un tiers le contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne” sans l’autorisation de la personne concernée et qui n'apparaît pas à l’évidence comme un contenu généré par IA ou sur lequel l’utilisation de l’IA n’est pas expressément mentionnée. Cette sanction est portée à 45 000 euros d’amende et deux ans d’emprisonnement en cas d’utilisation d’un service de communication en ligne.
Il est important de noter que le législateur n’a pas opté pour une interdiction totale de la création de deepfakes, assortie à des exceptions (comme pour les contenus humoristiques, par exemple). Seuls les contenus diffusés sont concernés par l’interdiction.
Un traitement particulier est réservé aux deepfakes à caractère pornographique. L’article 226-8-1 du Code pénal puni de deux ans d'emprisonnement et de 60 000 euros d'amende :
“le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l'image d'une personne, sans son consentement. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore à caractère sexuel généré par un traitement algorithmique et reproduisant l'image ou les paroles d'une personne, sans son consentement”.
Là encore, il est à noter que seule la diffusion est sanctionnée par le droit. La production du deepfake en elle-même n’est pas condamnable, ce qui, dans ce cas de figure, nous paraît regrettable.
Pour savoir comment lutter contre les deepfakes et vous défendre, contactez TLMR.
Que fait l’Union européenne face aux deepfakes ?
L’Union européenne, avec l'AI Act, a adopté une approche axée sur les risques. Elle distingue quatre niveaux différents et impose des obligations spécifiques adaptées à chacun d’entre eux.
L'une des mesures clés de cette législation est l'obligation de transparence pour ceux qui "déploient un système d'IA". Ces acteurs doivent indiquer clairement lorsqu'un contenu a été généré ou modifié par l'intelligence artificielle. Cependant, cette réglementation présente une limite importante : elle ne s'applique qu'aux professionnels. Or, les deepfakes les plus problématiques sont souvent créés par des particuliers ou des groupes de cybercriminels qui échappent à ces obligations.
Pour pallier cette lacune, l'Union européenne, à travers le DSA (Digital Services Act), impose des règles spécifiques aux 22 très grandes plateformes comme X (anciennement Twitter), TikTok, Facebook, YouTube, Instagram ou encore Snapchat. Ces plateformes ont pour responsabilité "d'évaluer et d'atténuer les risques liés à l'IA", en veillant notamment à "étiqueter clairement les contenus générés par l'intelligence artificielle". Cette approche vise à limiter la propagation de contenus manipulés, en garantissant une meilleure transparence pour les utilisateurs.
Peut-on se protéger des deepfakes ?
Se protéger des deepfakes est un défi de plus en plus complexe, mais des solutions existent pour limiter les risques.
Tout d'abord, la vigilance individuelle est primordiale. Face à une vidéo, une image ou un enregistrement audio qui semble suspect, il est important de vérifier les sources et d'adopter une attitude critique. Des indices permettent souvent d’identifier une vidéo manipulée. C’est le cas, par exemple, de l’absence de clignement des yeux ou de la présence d'une ombre inexplicable.
En cas de doute, des plateformes permettent de vérifier l'authenticité des contenus, via des outils de détection spécialisés dans la reconnaissance des manipulations numériques. De plus en plus performants, ces outils sont basés, eux-mêmes, sur l'intelligence artificielle. Ces solutions permettent d'analyser les fichiers multimédias pour repérer des incohérences invisibles à l’œil nu, comme des anomalies dans les pixels, le manque de synchronisation labiale, ou des erreurs dans la modulation de la voix.
Pour les entreprises, la technologie blockchain apporte également une solution intéressante pour garantir l'authenticité et la traçabilité des contenus. L’horodatage et la cryptographie renforcent la sécurité des données en rendant la falsification pratiquement impossible. En cas de besoin, le hachage permet de détecter immédiatement toute modification apportée à un fichier original.
Enfin, la prévention est sans doute la clé pour lutter contre les deepfakes. Sensibiliser le grand public et les entreprises aux dangers des hypertrucages et aux moyens de s'en protéger est fondamental. Que ce soit par le biais de formations, de campagnes de sensibilisation ou d'une plus grande transparence des plateformes en ligne, plus les utilisateurs seront informés, plus ils seront capables de repérer et de se protéger contre ces contenus manipulés.
Que faire si je suis victime d’un deepfake ?
Si vous êtes victime d'un deepfake, il est essentiel d'agir rapidement. Commencez par faire des captures d'écran des images ou vidéos truquées pour conserver des preuves. Ensuite, déposez plainte immédiatement.
Dans vos démarches, il est fortement recommandé de vous faire accompagner par un avocat spécialisé en droit du numérique.
Si vous êtes concerné, contactez sans tarder le cabinet d’avocats TLMR. Nous sommes à vos côtés pour défendre vos droits et vos intérêts face aux deepfakes.