Depuis plusieurs années déjà, la plateforme YouTube a instauré un mécanisme de sanctions qui vise à favoriser des comportements responsables et la diffusion de contenus respectueux.
YouTube est une plateforme de partage de vidéos dont l’activité s’articule entre trois acteurs différents. D’une part on identifie les utilisateurs qui constituent le moteur de l’activité de la plateforme. Ces derniers peuvent partager, commenter, aimer les vidéos produites par les créateurs de contenus aussi appelés les « Youtubeurs ». D’autre part, les créateurs qui éditent du contenu sur la plateforme sont mis en relation avec des annonceurs afin de générer des revenus.
En tant qu’intermédiaire technique et plus précisément en tant qu’hébergeur, YouTube doit répondre à un ensemble d’obligations légales afin de lutter contre la diffusion de contenus illicites. (1) Dans cette optique, YouTube déploie donc des moyens de modération et de sanction afin de respecter les obligations légales qui lui incombent.
Dans une autre mesure, la plateforme se réserve également le droit de sanctionner les créateurs qui contreviendraient à son règlement notamment en démonétisant les vidéos de ces derniers. La démonétisation consiste en l’arrêt de la diffusion des publicités sur les vidéos du créateur, entraînant de facto pour ce dernier, la perte de ses revenus (et pour la plateforme).
Dernièrement, la démonétisation des chaînes de deux Youtubeurs a suscité de nouvelles interrogations sur le pouvoir de sanction de plateforme. De plus, le remaniement des outils de modération exerce une pression sur les créateurs de contenu qui tentent de parer la démonétisation de leurs vidéos.
Besoin de l’aide d’un avocat pour un problème de contrefaçon ?
Téléphonez – nous au : 01 43 37 75 63
ou contactez – nous en cliquant sur le lien
Face au développement de ces sanctions, peut-on considérer que la plateforme exerce des sanctions arbitraires à l’égard de ses créateurs de contenus ?
La plateforme YouTube en tant qu’hébergeur est soumise à un ensemble d’obligations légales. En France, la LCEN soumet les intermédiaires techniques tels que les hébergeurs et les fournisseurs d’accès à internet à un régime d’obligations et de responsabilité.
En outre, en tant que plateforme privée, elle se réserve le droit d’établir des règles qui sont les siennes.
L’article 6 de la LCEN précise le régime spécial de responsabilité des hébergeurs. Ainsi un hébergeur ne peut pas voir sa responsabilité civile ou pénale engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services s’il n’avait pas effectivement connaissance de leur caractère illicite ou si, dès le moment où il en a eu cette connaissance, il a agi promptement pour retirer ces données ou en rendre l’accès impossible.
Le même article impose aux hébergeurs ainsi qu’aux FAI une obligation de concourir à la lutte contre la diffusion de certaines infractions, compte tenu de l’intérêt général attaché à la répression de celles-ci. Ces infractions sont les suivantes : l’apologie des crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et leur apologie, l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine.
L’obligation de concourir à la lutte contre les contenus illicites susmentionnés se traduit par la mise en place d’un ensemble de dispositifs de la part des hébergeurs (dispositif de signalement par exemple).
Dans le même temps, en tant qu’intermédiaire technique, la plateforme est donc soumise au principe de neutralité du net consacré par loi n° 2016-1321 du 7 octobre 2016 pour une République numérique (Loi Lemaire). Cette même loi a étendu les compétences de l’Autorité de Régulation des Communications électroniques, des Postes et de la distribution de la presse (ARCEP) à l’application du règlement européen sur l’internet ouvert. (2)
L’ARCEP a donc désormais pour mission de surveiller les pratiques des fournisseurs d’accès internet (FAI) qui pourraient écorner le principe de neutralité, de conduire des enquêtes ou de prononcer des sanctions pouvant atteindre jusqu’à 3 % du chiffre d’affaires des opérateurs (article 40).
Le principe de la neutralité du net repose sur l’idée qu’internet est un support qui doit permettre la communication et la mise à disposition de contenus, sans jugement quant à la nature du contenu, et surtout par les opérateurs techniques. Autrement dit, cela signifie que les données qui transitent sur le réseau doivent être traitées, au plan technique, de manière indiscriminée. Au-delà du point de vue purement technique, la neutralité renvoie par ailleurs à plusieurs enjeux économiques et sociaux essentiels : la liberté d’expression, la capacité d’innovation, la concurrence ouverte, la non-discrimination, la diversité des contenus…
Le partage de contenus illicites doit donc être encadré par la plateforme. Sont donc exclus d’office de la plateforme tous les contenus qui contreviendraient à la loi, c’est d’ailleurs ce que rappelle le règlement mis en place par la plateforme YouTube.
Pour faire face à leur responsabilité, les plateformes telles que YouTube utilisent divers procédés de modération.
Une partie de la modération est relayée à des modérateurs spécialement engagés pour filtrer les contenus. Ces embauches ne vont pas sans poser de problème. Il est possible de citer à titre d’exemple les troubles psychologiques qui en découlent pour les modérateurs exposés en continu à des contenus d’une extrême violence, mais également de l’opacité qui réside autour du travail de ces modérateurs soumis à des clauses de confidentialité très strictes.
Au-delà des opérations de filtrage effectuées par des êtres humains, les plateformes ont également recours à l’intelligence artificielle pour occuper des fonctions de modération. Si la reconnaissance automatique des images violentes ou pornographiques atteint aujourd’hui des scores performants, les dispositifs équivalents en matière d’analyse de discours présentent des marges d’erreur beaucoup plus importantes, multipliant les risques de censure abusive. Les contenus soumis à interprétation, comme c’est le cas des fausses informations ou des discours haineux, s’avèrent, en effet, plus difficiles à traiter par des procédures automatisées, dans la mesure où celles-ci peinent à prendre en considération les contextes de leur énonciation.
En outre, afin de prévenir les potentielles dérives qui pourraient voir le jour, un ensemble de sanctions sont prévues par la plateforme.
Dans un premier temps, les créateurs de contenus qui dérogent « aux règles de la communauté » se voient infliger une mise en garde. La mise en garde se transforme ensuite en avertissement, les sanctions se durcissent et si le créateur reçoit un troisième avertissement au bout de 90 jours, sa chaîne sera définitivement supprimée de la plateforme. (3)
À titre d’exemple, il est possible de citer le youtubeur Logan Paul qui en 2017, avait publié une vidéo dans laquelle il se mettait scène avec des amis dans la forêt japonaise d’Aokigahara tristement célèbre pour ses suicides et y montrait un homme pendu. Véritable scandale, cette vidéo était restée en ligne plus de vingt-quatre heures avant d’être retirée par l’auteur lui-même. Elle a eu le temps de dépasser les six millions de vues et de s’afficher dans les tendances de YouTube, un espace qui met en avant les contenus populaires. (4)
Le vlogueur américain aux seize millions d’abonnés s’était vu adresser un avertissement pour violation des conditions d’utilisation. Cet avertissement ne semble pas avoir suffi au créateur qui postait quelques semaines plus tard une nouvelle vidéo dans laquelle il s’attaquait à des rats morts à coups de taser.
Face à ce nouveau scandale, la plateforme avait donc décidé de démonétiser le Youtubeur mais bien évidemment, la vidéo n’avait pas fait l’objet d’un retrait. Dans un communiqué de presse, la plateforme explique sa décision « Nous avons décidé de suspendre temporairement les publicités sur la chaîne YouTube de Logan Paul. Ce n’est pas une décision facile, toutefois, nous considérons qu’il a fait preuve d’un comportement répétitif dans ses vidéos qui rend sa chaîne inadéquate pour les annonceurs, mais également potentiellement dangereuse pour l’ensemble de la communauté des créateurs. »
Lorsque les vidéos sont démonétisées, elles ne sont plus mises en avant par l’algorithme. Ces sanctions semblent logiques puisqu’elles contribuent à fixer les limites à ne pas dépasser sur la plateforme au regard de la loi, des mœurs et de la liberté d’expression ou encore des dangers que peut constituer le contenu s’il est reproduit.
A la suite de cette affaire, de nombreux internautes et groupes d’action ont mis en exergue le manque de modération de la plateforme et ont dénoncé l’opacité de ce système. Les critères qui président au retrait d’un contenu ne sont pas rendus publics, et les internautes ne disposaient jusqu’à récemment d’aucune voie de recours pour contester un retrait abusif. (5)
L’entrée en vigueur du DMA et du DSA courant 2023 devrait changer la donne.
Plus récemment, deux affaires impliquant deux youtubeurs français mis en examen pour harcèlement, corruption de mineur et viol, ont relancé le débat autour des sanctions prises par la plateforme à l’égard de ces créateurs de contenus. En effet, si jusqu’à présent les créateurs étaient souvent sanctionnés pour des contenus partagés en ligne dérogeant aux règles de la communauté, ce sont à présent les comportements en dehors de la plateforme qui sont visés.
La plateforme dispose d’une page spécifique sur laquelle elle rappelle toutes les règles applicables. Elle y définit « la responsabilité des créateurs », et fait mention du comportement des vidéastes hors de son site. Elle y résume les cas dans lesquels YouTube peut infliger une sanction, on retrouve notamment « Certains comportements sur la plate-forme et ailleurs peuvent également être considérés comme inappropriés et entraîner des sanctions ». Parmi les exemples, on trouve la « participation à des actes abusifs, violents ou cruels » ou encore « un comportement prédateur impliquant des communications au sujet de ou avec des mineurs ».
Il est possible d’interpréter ces sanctions comme une volonté de renforcer la prévention face à la « célébrité » qui peut parfois en amener plus d’un à commettre des faits répréhensibles par la loi.
En effet, YouTube souhaite avant tout garantir la sécurité et la confiance de ses utilisateurs qui représentent le moteur de son activité. En procédant à la démonétisation de la chaîne des créateurs mis en examen, cette dernière donne le ton aux autres créateurs et affiche une tolérance zéro à l’égard de tels comportements sanctionnés par la loi.
Il est aussi possible de s’interroger sur les préjudices d’images que de telles affaires provoquent pour cette dernière. En effet, en adoptant de telles mesures, cherche-t-elle simplement à ne pas entacher son image ? Dans un monde où tout est débat et où tout se sait à « vitesse grand V », les internautes pourraient se retourner contre la plateforme qui « implicitement » cautionnerait les vidéos postées par ces créateurs alors qu’ils font l’objet de poursuites judiciaires.
Il s’agit aussi de proposer aux annonceurs « une sécurité » sur le choix des créateurs et des contenus. En effet, il pourrait être préjudiciable pour certains annonceurs de se trouver associés au contenu d’un créateur mis en examen.
YouTube en tant qu’entreprise privée favorise donc une logique économique qui vise d’une part à protéger ses utilisateurs afin de conserver l’attractivité de la plateforme, mais également à protéger les annonceurs (clients de la plateforme) en ne les associant pas à des personnalités controversées.
La pertinence de certaines sanctions a dernièrement fait l’objet de nombreuses controverses sur la toile. Entre les passe-droits accordés à certains créateurs et la régulation au profit des annonceurs, les créateurs de contenus font face à une pression plus importante.
Dernièrement, comme en témoignent de nombreux créateurs, la plateforme de vidéos en ligne a renforcé son outil de reconnaissance vocale en sanctionnant tous les créateurs prononçant des injures et des grossièretés. Certains d’entre eux ont dû trouver des astuces en ajoutant des bruits de censure ou des bruits d’animaux sur des vidéos déjà publiées afin d’en dissimuler tous les mots vulgaires. Cette réglementation impacte directement les revenus des Youtubeurs. En effet les modifications de ce règlement sont rétroactives et sans préavis : elles s’appliquent donc immédiatement sur toutes les vidéos, y compris celles qui sont déjà en ligne parfois depuis plusieurs années.
Dans son règlement, YouTube indiquait déjà auparavant qu’un contenu pouvait être soumis à une limite d’âge, être supprimé ou avoir un avertissement s’il employait un usage excessif de langage vulgaire. Néanmoins, il semblerait que le durcissement des politiques du langage sur YouTube ne concernerait pas seulement les injures. En effet, sur Twitter, des streamers affirment même que certains mots seraient également bannis même s’ils ne sont pas des gros mots. Ils évoquent notamment les termes “ricains” (pour désigner un américain) ou “bled” (pour parler d’un pays) qui auraient provoqué des démonétisations. (6)
YouTube, de son côté justifie cette nouvelle règle par une meilleure optimisation monétaire du contenu produit sur la plateforme, autrement dit elle a renforcé ses règles d’utilisation, car son modèle économique est fondé sur la vente d’espaces publicitaires aux annonceurs. On parle d’une entreprise ‘Ad tech’, qui met sa technologie et ses algorithmes au service de la vente de publicités. Avec la montée en puissance de TikTok, YouTube travaille à se positionner comme la première plateforme de contenus qui rémunère ses créateurs plus et mieux que les autres plateformes, notamment en partageant ses revenus publicitaires. (7)
En outre, l’adoption du DSA n’a-t-elle pas créé une agitation au sein de la plateforme qui tente désormais de réguler plus sévèrement les contenus illicites afin de se préparer à son entrée en vigueur. (8)
Il est également possible de s’interroger sur les conséquences que ces sanctions peuvent provoquer. Vont-elles nuire à la présomption d’innocence ?
La plateforme a déjà pris des mesures de sanctions contre des vidéastes accusés de viol, de harcèlement et de corruption de mineurs. Or ces accusations n’ont fait l’objet d’aucune poursuite et encore moins l’objet d’une décision de justice permettant de déclarer coupables les créateurs de contenu. Cette décision pourrait influencer l’opinion publique ou causer un ensemble de préjudices financiers et d’image pour les créateurs dans la même situation.
Cependant, ces sanctions amènent d’autres questions. Devra-t-on prendre en compte des anciennes condamnations de créateurs de contenu établis sur la plateforme ?
Il est en effet possible que certains créateurs de contenu aient fait l’objet d’une condamnation judiciaire avant d’entamer des activités sur la plateforme.
Doit-on craindre qu’une forme de discrimination naisse de ces sanctions ? Ou doit-on interpréter ces sanctions comme des répercussions du préjudice d’image causé à la plateforme ?
De plus, qu’en est-il en cas d’erreur judiciaire ? En effet, le créateur qui se trouvera condamné devra-t-il être indemnisé dans le cas d’une erreur de justice ayant mené à ces sanctions sur la plateforme qui aujourd’hui, constitue le fonds de commerce de beaucoup de créateurs.
Les sanctions prises à l’égard des créateurs devraient peut-être se calquer sur les faits qui sont sanctionnés par la justice. En effet, à l’issue du procès qui a opposé Marvel Fitness à d’autres créateurs de la plateforme pour cyberharcèlement en meute, le créateur de contenu a vu sa chaîne démonétisée comme il le confie dans une de ses vidéos.
Enfin il est légitime de se demander si la plateforme cherche à incarner une seconde justice. Doit-on envisager et tolérer une régulation privée ?
Si cette hypothèse reste moins probable, YouTube viendrait infliger à ces créateurs des sanctions complémentaires à leur peine prononcée par la justice. Mais cette régulation privée interpelle, la justice n’est-elle pas du ressort de la compétence des états ?
Doit-on cautionner la mise en place de telles mesures au risque de voir les acteurs privés prendre une part de plus en plus importante dans nos vies ou, au contraire, doit-on envisager que YouTube en tant que plateforme privée puisse établir ses propres « règles du jeu ».
Finalement doit-on considérer que les différentes lois qui imposent des obligations aux plateformes constituent une forme de délégation des pouvoirs de censure depuis les États vers ces grandes plateformes du web.
Pour lire une version plus adaptée de cet article sur les sanctions de youtube, cliquez
ARTICLES QUI POURRAIENT VOUS INTÉRESSER
SOURCES :
Cet article a été rédigé pour offrir des informations utiles, des conseils juridiques pour une utilisation personnelle, ou professionnelle. Il est mis à jour régulièrement, dans la mesure du possible, les lois évoluant régulièrement. Le cabinet ne peut donc être responsable de toute péremption ou de toute erreur juridique dans les articles du site. Mais chaque cas est unique. Si vous avez une question précise à poser au cabinet d’avocats, dont vous ne trouvez pas la réponse sur le site, vous pouvez nous téléphoner au 01 43 37 75 63.
Articles en relation