
Date
4 novembre 2025
Par
Henri de la Motte Rouge
La suppression des contenus illicites en ligne : quelles règles et quels recours ?
Partager
Aujourd’hui, quelques heures suffisent pour qu’un avis Google diffamatoire, une vidéo YouTube mensongère ou un tweet injurieux entachent durablement la réputation d’une entreprise, d’un dirigeant ou d’un particulier. Et cela n’a rien d’anecdotique : selon une étude du MIT Media Lab, les fausses informations circulent six fois plus vite que les vraies. Par ailleurs, 55 % des consommateurs déclarent éviter une marque après avoir lu des avis négatifs en ligne.
Face aux dérives potentielles, les pouvoirs publics ont considérablement renforcé le cadre juridique applicable aux contenus illicites. L’entrée en vigueur du Digital Services Act (DSA) a marqué une étape majeure en renforçant la responsabilité des grandes plateformes et en imposant des mécanismes de signalement plus transparents. Mais il ne s’agit pas du seul texte applicable. Le Code pénal, la loi pour la confiance dans l’économie numérique (LCEN) et la loi du 29 juillet 1881 sur la liberté de la presse continuent de fixer les règles du jeu. Encore faut-il savoir comment les utiliser et comment défendre efficacement ses droits. Explications avec le cabinet TLMR Avocats.
L’essentiel à retenir
- Un contenu illicite en ligne est un contenu publié sur Internet et contraire à la loi (diffamation, incitation à la haine, pédopornographie, escroquerie, etc.).
- Le DSA impose aux plateformes un régime harmonisé de notification et de retrait des contenus illicites.
- Ce texte a notamment remplacé la notion de “contenu manifestement illicite” par une obligation de diligence fondée sur la réception d’une notification conforme.
- En cas d’inaction de la part des plateformes, la procédure accélérée au fond permet d’obtenir le retrait judiciaire du contenu et la réparation du préjudice causé.
- L’accompagnement par un cabinet d’avocats reste déterminant pour améliorer vos chances de succès et obtenir réparation.
Qu’est-ce qu’un contenu illicite en ligne ?
La liberté d’expression constitue un principe fondamental de notre ordre juridique. Elle connaît toutefois des limites fixées par la loi : lorsque les propos, les images ou encore les vidéos portent atteinte à l’ordre public, aux droits d’autrui ou à la dignité humaine, ils deviennent illicites.
Cependant, la frontière entre libre expression et infraction pénale demeure parfois délicate à tracer. C’est pourquoi le législateur a prévu un cadre juridique précis, permettant d’identifier les contenus à retirer et de déterminer les responsabilités des acteurs concernés.
La définition du contenu illicite sur Internet
La notion de contenu illicite trouve son fondement principal dans l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004. Ce texte impose aux hébergeurs et fournisseurs d’accès à Internet de retirer ou de rendre inaccessible tout contenu contraire à la loi dès qu’ils en ont eu connaissance.
Sur Internet, la plupart de ces contenus illicites relèvent :
- de la diffamation et de l’injure publique (articles 29 et 33 de la loi de 1881 sur la liberté de la presse) : c’est le cas, par exemple, d’un avis Google accusant faussement un professionnel d’escroquerie ou d’une vidéo YouTube insinuant des faits non prouvés ;
- de l’incitation à la haine ou à la violence en raison de l’origine, du sexe, de la religion ou de l’orientation sexuelle (article 24 de la loi de 1881) ;
- de l’apologie du terrorisme (article 421-2-5 du Code pénal) ou de la provocation à la discrimination raciale ou religieuse (article 225-1) ;
- de la diffusion de contenus pédopornographiques (article 227-23 du Code pénal) ;
- des escroqueries et des pratiques frauduleuses en ligne (article 313-1 du Code pénal) comme la création de faux sites, les usurpations d’identité ou encore les campagnes de phishing ;
- de la contrefaçon et de l’atteinte aux droits d’auteur (article L. 335-2 du Code de la propriété intellectuelle) comme par exemple, la publication non autorisée d’une œuvre protégée ;
- de l’atteinte au droit à l’image et à la vie privée (articles 9 et 1240 du Code civil), notamment la diffusion d’une photo ou d’une vidéo sans le consentement de la personne concernée.
En pratique, ces infractions peuvent prendre la forme d’un commentaire, d’un tweet, d’un blog, d’une vidéo ou encore d’une campagne Google Adwords visant à nuire à une entreprise ou à une personne physique.
Distinguer un contenu choquant ou déplaisant d’un contenu réellement illicite sur Internet
Tout contenu choquant, gênant ou déplaisant n’est pas nécessairement illicite, et inversement. Sur Internet, comme dans le reste de l’espace public, l’expression d’une opinion, même virulente, bénéficie d’une protection constitutionnelle et conventionnelle.
Mais cette liberté n’est pas absolue. Elle trouve ses limites dans la protection de la réputation, de la dignité humaine, du droit d’auteur et du respect de l’ordre public. C’est cette ligne de crête qui rend parfois difficile la distinction entre un propos simplement excessif, donc légal, et un contenu véritablement illicite.
Prenons l’exemple de l’avis négatif en ligne :
- un client mécontent qui écrit “Le service était décevant” exprime une opinion, protégée par la liberté d’expression ;
- en revanche, un avis affirmant que “Ce professionnel est un escroc”, sans apporter aucune preuve, constitue une diffamation publique, au sens de l’article 29 de la loi du 29 juillet 1881.
Le caractère illégal de certains contenus est bien plus évident. C’est le cas, par exemple, de la pédopornographie, de l’apologie du terrorisme, ou encore de l’incitation à la haine raciale.
La frontière entre liberté d’expression et responsabilité pénale reste donc complexe à appréhender pour un non-juriste. Tout dépend du contexte, du ton employé ou encore du public visé.
Avant toute démarche, il est donc essentiel de faire qualifier juridiquement les faits pour déterminer si le contenu relève réellement d’une infraction. L’accompagnement d’un avocat s’avère ici déterminant. Il saura analyser le contenu litigieux, identifier la base légale applicable et préparer, le cas échéant, une notification de retrait conforme aux textes en vigueur.
Découvrez notre article pour savoir comment lutter contre les deepfakes.

Quelles sont les règles qui encadrent les contenus illicites en ligne ?
Depuis vingt ans, le législateur s’efforce de concilier deux impératifs : la liberté d’expression, et la lutte contre les contenus illicites qui prolifèrent sur Internet. Entre la LCEN adoptée en 2004 et le Digital Services Act (DSA) entré en vigueur en 2024, le cadre juridique a profondément évolué. D’un modèle fondé sur la neutralité et la responsabilité limitée des hébergeurs, on est passé à une logique où les plateformes doivent désormais faire preuve de diligence et de transparence.
Un régime de responsabilité mal adapté
La loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004, transposant la directive européenne 2000/31/CE sur le commerce électronique, a posé les bases du régime de responsabilité des acteurs de l’internet.
Cette loi distingue les éditeurs de contenu, responsables de plein droit de ce qu’ils publient, et les hébergeurs, dont la responsabilité est beaucoup plus limitée.
Pour résumer son propos antérieurement au Digital Services Act, les plateformes n’étaient pas tenues d’exercer une surveillance générale sur les contenus hébergés.
Elles ne pouvaient donc être tenues responsables que si deux conditions étaient réunies :
- le contenu devait être manifestement illicite (pédopornographie, apologie du terrorisme, incitation à la haine raciale, etc.) ;
- l’hébergeur devait en avoir effectivement connaissance, notamment par une notification en bonne et due forme.
La jurisprudence a confirmé cette position puisque la Cour de cassation a, à de nombreuses reprises, rappelé que la responsabilité d’un hébergeur ne pouvait être engagée que s’il avait eu connaissance d’un contenu “manifestement illicite”.
Mais en pratique, cette procédure restait inefficace dans de nombreux cas puisque les plateformes refusaient trop souvent d’agir sans décision de justice. Les hébergeurs préféraient adopter une position de neutralité. En clair, tant que l’illicéité ne sautait pas aux yeux, ils considéraient ne pas avoir à intervenir.
Par ailleurs, ce régime, protecteur pour les intermédiaires techniques, s’est révélé mal adapté à l’ère des réseaux sociaux où les contenus litigieux circulent désormais à vitesse grand V.
Une nouvelle obligation de diligence et de transparence pour les plateformes
Le Digital Services Act a refondu cette logique. Sans instaurer une obligation générale de surveillance, il impose aux plateformes un devoir de diligence active dès qu’elles sont alertées.
Désormais, toute notification complète et motivée (sur laquelle nous reviendrons un peu plus tard dans cet article) doit obligatoirement déclencher un examen du contenu illicite signalé. La plateforme doit agir vite en retirant le contenu litigieux ou en restreignant son accès. Si elle ne le fait pas, elle doit indiquer les raisons de son refus.
Le DSA impose aux plateformes une transparence renforcée quant à l’étude des contenus signalés comme illicites :
- la plateforme doit informer le demandeur de la suite donnée à son signalement ;
- elle doit publier régulièrement un rapport de transparence indiquant le nombre de contenus signalés, retirés ainsi que les délais moyens de traitement ;
- les grandes plateformes, dites VLOPs (Very Large Online Platforms), doivent évaluer chaque année les risques systémiques liés à la diffusion de contenus illégaux et prendre des mesures pour les atténuer.
En clair, les plateformes ne peuvent plus ignorer un signalement complet et motivé sous prétexte que l’illicéité n’est pas “manifestement évidente”. Elles doivent désormais démontrer leur diligence et leur transparence, sous peine de sanctions qui peuvent atteindre 6 % de leur chiffre d’affaires annuel mondial.
Pour en savoir plus sur les obligations des plateformes, consultez notre article sur le Digital Services Act (DSA).
Comment obtenir la suppression d’un contenu illicite en ligne ?
Maintenant que le cadre est fixé, la question de la suppression du contenu illicite se pose. Bien entendu, comme nous venons de le voir, vous pouvez vous adresser à Google, à YouTube ou encore à X, pour supprimer un avis diffamatoire, une vidéo haineuse ou un Twitte mensonger. Mais que se passe-t-il si la plateforme refuse d’agir ? Et comment obtenir réparation des dommages subis du fait de ce contenu illicite ?
Demander la suppression du contenu illicite à l’hébergeur
La première étape consiste à notifier officiellement le contenu litigieux à la plateforme concernée. Cette démarche n’est pas une simple réclamation désordonnée. Elle doit répondre à des exigences légales précises afin d’être recevable.
Vous devez notamment indiquer :
- vos coordonnées (sauf anonymat autorisé par la plateforme) ;
- la description et l’adresse URL exacte du contenu incriminé ;
- les motifs juridiques démontrant son caractère illicite ;
- et, le cas échéant, les éléments de preuve à l’appui (captures d’écran, constats de commissaire de justice, échanges, etc.).
Sachez que les plateformes ont l’obligation de mettre à votre disposition un formulaire de signalement que vous pouvez ou non utiliser pour formuler votre demande.
Quoi qu' il en soit, votre notification doit être rigoureuse. Un signalement incomplet ou mal rédigé pourra être ignoré, sans conséquence juridique pour la plateforme. C’est pourquoi il est fortement recommandé de faire appel à un avocat, afin d’en rédiger votre signalement et d’anticiper une éventuelle action judiciaire.
Bon à savoir : pour les contenus les plus graves, notamment à caractère terroriste, pédopornographique ou incitant à la haine raciale, les signalements doivent être effectués directement sur Pharos, le portail officiel du ministère de l’Intérieur.
Saisir le juge dans le cadre d’une procédure accélérée au fond pour obtenir la suppression du contenu et des dommages et intérêts
La plateforme tarde à agir ? Vous souhaitez obtenir réparation ? Vous pouvez saisir le tribunal dans le cadre d’une procédure accélérée au fond (article 6-3 de la LCEN).
Toute personne, qu’il s’agisse d’un particulier, d’une entreprise ou d’une institution publique, peut recourir à cette procédure lorsqu’elle est victime d’un contenu illicite en ligne.
Cette procédure, à mi-chemin entre le référé et l’action au fond, autorise le juge à procéder à un examen au fond et à ordonner rapidement le retrait du contenu litigieux.
Elle présente plusieurs avantages :
- des délais plus courts qu’une procédure judiciaire classique (souvent quelques semaines entre la saisine et la décision) ;
- la possibilité d’obtenir une astreinte financière pour contraindre la plateforme à retirer le contenu illicite ;
- une publicité limitée de la décision de justice, ce qui protège la réputation du demandeur.
Dans le cadre de cette procédure, vous pouvez demander :
- la suppression du contenu ;
- le blocage de l’accès à certaines pages ou vidéos ;
- la communication des données d’identification de l’auteur présumé ;
- des dommages et intérêts en réparation des dommages subis.
Cette procédure est aujourd’hui la voie juridique la plus efficace pour faire cesser la diffusion d’un contenu illicite en ligne, notamment lorsque la notification n’a pas suffi.
Bon à savoir : le juge peut ordonner une injonction qui vise à empêcher la réapparition du contenu illicite sur d’autres sites ou adresses similaires (sites miroirs). En clair, si le même contenu est remis en ligne ailleurs, la décision s’appliquera automatiquement, sans qu’il soit nécessaire de saisir à nouveau la justice.
Poursuivre l’auteur du contenu illicite en justice
Lorsque le contenu illicite émane d’un auteur identifiable, il est possible de demander au juge d’ordonner à la plateforme, ou au fournisseur d’accès, la communication des données d’identification (adresse IP, e-mail, numéro de compte, etc.).
Cette mesure, encadrée par le Code de procédure civile et la LCEN, doit être proportionnée et justifiée par l’existence d’une atteinte aux droits.
Une fois l’auteur identifié, la victime peut :
- déposer une plainte pénale (pour diffamation, injure, escroquerie, contrefaçon, etc.) ;
- ou intenter une action civile en réparation du préjudice subi.
Là encore, le rôle de l’avocat est déterminant. Il coordonne la stratégie procédurale et sécurise les preuves (captures, constats d’huissier). Il s’assure également de la proportionnalité des demandes pour éviter tout risque d’irrecevabilité.
Bon à savoir : que faire si l’auteur du contenu est anonyme ?
La question de l’anonymat demeure un point sensible dans la lutte contre les contenus illicites. Traditionnellement, les juges refusaient d’ordonner la suppression d’un contenu potentiellement diffamatoire sans débat contradictoire avec son auteur, au nom de la liberté d’expression.
Mais la Cour de cassation, dans un arrêt du 26 février 2025 (1re civ., n° 23-16.762, publié), a opéré une évolution notable. Elle a admis qu’un contenu potentiellement diffamatoire puisse être retiré, même en l’absence de débat contradictoire, lorsque l’auteur est resté volontairement anonyme afin d’échapper à toute mise en cause. Il appartiendra au juge d'apprécier si la suppression de ces propos est proportionnée à l'atteinte subie par les personnes visées.
Dans cette affaire, plusieurs vidéos YouTube accusaient nommément des personnalités publiques de corruption. L’hébergeur, Google Ireland, n’était pas parvenu à identifier l’auteur de ces contenus qui avait volontairement veillé à son anonymat. La Cour a considéré que, dans ce contexte, le juge pouvait ordonner la suppression des propos litigieux, dès lors que cette mesure apparaissait nécessaire et proportionnée au regard de l’atteinte subie.
Cet arrêt consacre une approche pragmatique. L’anonymat ne saurait devenir un bouclier absolu contre toute responsabilité. Il permet aux victimes d’agir même en l’absence d’auteur identifiable, tout en maintenant le contrôle du juge sur la proportionnalité de la mesure ordonnée.
Face à la puissance d’Internet et à la viralité des réseaux sociaux, il est facile de se sentir impuissant. L’information circule à une telle vitesse qu’on peut avoir le sentiment qu’il est déjà trop tard pour agir. Pourtant, les textes de loi offrent aujourd’hui plusieurs solutions pour se défendre et obtenir réparation. Encore faut-il être accompagné par un professionnel du droit du numérique, capable d’analyser rapidement la situation, d’identifier la base légale applicable et de choisir la stratégie la plus efficace.
Le cabinet TLMR Avocats met son expertise au service des particuliers et des entreprises pour protéger leur image, faire cesser la diffusion de contenus illicites et défendre leurs droits sur Internet.
FAQ sur la suppression des contenus illicites sur Internet
Quelle est la différence entre contenu choquant et contenu illicite ?
Un contenu choquant n’est pas nécessairement illégal (et inversement). Seuls les contenus contraires à la loi (diffamation, haine, pédopornographie, etc.) peuvent être retirés en vertu de la législation en vigueur.
Le DSA s’applique-t-il à toutes les plateformes ?
Oui, ce texte s’applique à toutes les plateformes et intermédiaires en ligne qui opèrent sur le territoire de l’Union européenne. En revanche, le niveau d’obligations varie selon leur taille et leur rôle dans l’écosystème numérique. Les très grandes plateformes en ligne (VLOPs) et les très grands moteurs de recherche (VLOSEs) sont soumis au DSA depuis août 2023. Ce sont elles qui supportent les obligations les plus strictes.
Combien de temps prend la procédure accélérée au fond ?
Il faut entre 15 jours et 1 mois selon le tribunal saisi. Cette procédure est plus rapide qu’un procès classique. Mais surtout, elle permet aux juges d’imposer une astreinte à la plateforme afin de l’inciter à agir plus rapidement.
Puis-je signaler un contenu anonymement ?
Alors, en pratique, c’est possible car certaines plateformes le permettent. Toutefois, pour un traitement complet et efficace de votre demande, il est préférable de fournir son identité et ses coordonnées.
Les plateformes peuvent-elles être sanctionnées ?
Oui, le DSA prévoit des amendes jusqu’à 6 % du chiffre d’affaires mondial en cas de manquements répétés à leurs obligations, notamment en matière de contenus illicites.
Dois-je passer par un avocat pour demander la suppression d’un contenu illicite en ligne ?
Ce n’est pas obligatoire, mais cela reste vivement recommandé. Un avocat compétent en diffamation sur Internet et en e-réputation saura formuler le signalement conformément aux exigences de la loi. Il pourra également qualifier juridiquement le contenu et saisir le tribunal si nécessaire. Son accompagnement facilitera vos démarches et augmentera vos chances d’obtenir gain de cause.
À la une

Comment empêcher l’IA d’utiliser vos contenus en ligne ?

Coach santé et exercice illégal de la médecine : comment éviter ce piège ?

La suppression des contenus illicites en ligne : quelles règles et quels recours ?
