- Causes Toujours - https://www.gsara.be/causestoujours -

Directive européenne copyright, règlement anti-terroriste : Du surplace pour les auteurs, un pas de géant pour la censure – Entretien avec Félix Tréguer (La Quadrature du Net)

Le 13 février 2019, les représentants des trois institutions européennes ont conclu un accord sur l’adoption de la Directive sur le droit d’auteur [1]. Le texte définitif a été voté en séance plénière du Parlement le 26 mars.

Ce projet comporte deux articles qui ont fait l’objet d’âpres débats et de négociations. D’abord, son article 11, qui oblige les plateformes numériques à vocation commerciale à s’acquitter d’une somme d’argent auprès des éditeurs de presse si elles utilisent, ou qu’elles « citent », en tout ou en partie un article de presse. Ensuite, son article 13 qui impose aux sociétés du net de retirer des contenus qui n’ont pas fait l’objet d’un accord de licence entre l’artiste cité et la plateforme, ce qui suppose la mise en place d’un filtre entre les producteurs de contenus web et les hébergeurs qui bloquera les productions utilisant des contenus dont les droits n’auraient pas été acquis au préalable. Une Directive qui impose donc aux grandes plateformes de négocier des accords de licence avec les ayants droit des contenus.

Félix Tréguer est un des membres fondateurs de la Quadrature du Net, association française de défense des libertés publiques dans l’environnement numérique qui tente de peser sur la législation française mais aussi européenne. En tant qu’analyste juridique, Félix Tréguer s’est penché sur la question controversée du droit d’auteur et de son rapport au numérique, travaillant sur des dossiers tels que la Loi Hadopi en France ou le Traité ACTA en 20121 [2].

Auteur d’une analyse historique2 [3] des droits et des libertés dans les «espaces publics» (en tant que sphères de circulation des idées, des médias et des communications), il a analysé la régulation, le contrôle, mais aussi les formes de résistance qui se développent dans ces espaces en général et sur internet en particulier. Félix Tréguer est aujourd’hui chercheur associé au CNRS, où il travaille sur les mutations de la censure et de la surveillance des communications à l’heure du numérique.

Il y a quelques mois, vous avez publié une tribune dans Le Monde à propos de la directive réformant le droit d’auteur dans l’Union Européenne. Pouvez-vous résumer le point de vue que vous y défendiez ?

Le débat sur le rôle des acteurs d’internet dans la lutte contre la contrefaçon et le partage non autorisé d’œuvres culturelles s’inscrit dans une longue histoire. Le droit d’auteur a souvent été un sujet dans la construction d’un droit répressif de l’internet, notamment en ce qui concerne le statut des hébergeurs. En 2000, la Directive e-commerce a prévu une responsabilité juridique limitée pour les hébergeurs quant aux contenus et aux données qu’ils stockent, dans la mesure où ils ne font que prêter et louer des serveurs. À l’époque, l’idée vraiment importante, c’est de ne pas imposer à ces acteurs d’obligation générale de surveiller les communications des utilisateurs dans le but de détecter, prévenir ou empêcher des échanges de contenus illicites. Cela vise alors à proscrire les formes de surveillance des utilisateurs par ces prestataires techniques et ainsi à protéger un principe fondamental en démocratie: la liberté d’expression. Ainsi, il n’incombait pas à ces prestataires techniques, les hébergeurs, de déterminer si tel ou tel contenu était illicite.

Telle était la situation en 2000. Aujourd’hui, l’émergence des grandes plateformes a complètement transformé l’environnement numérique. Celles-ci centralisent une grande partie des communications sur internet et ont développé des outils de surveillance que la Directive de 2000 était censée proscrire, pour des raisons économiques. Dans le même temps, les États leur imposent toujours plus d’obligations en matière de censure des contenus.

D’autres évolutions étaient possibles. Pour en revenir au droit d’auteur, suite au rejet de l’ACTA par le Parlement européen en 2012, La Quadrature du Net (notamment en son sein Philippe Aigrain et Lionel Maurel) avait fait part de dix propositions pour une refonte du droit d’auteur et tenter de repenser les politiques culturelles à l’heure du numérique3 [4]. À l’époque, nous avions ainsi essayé de sortir le débat politique autour du droit d’auteur de l’angle répressif promu par une partie des lobbys associés au monde de la culture, très actifs dans ces débats (Sacem, Sabam, Sacd, Scam… Les grandes sociétés de gestion de droits d’auteur. – NdA). Nos propositions semblaient de nature à favoriser un meilleur accès à la culture et à faire valoir les droits non seulement des producteurs et des auteurs mais aussi du public. À l’époque, ces propositions ont été accueillies par un silence des autorités européennes. Aujourd’hui, cette nouvelle Directive européenne marque le retour d’approches répressives qui visent à généraliser et à automatiser des mesures de surveillance et de censure.

Il s’agit de micro-mesures demandées en grande partie par les lobbies les plus puissants du secteur de la culture. Cela s’est présenté comme une manière de lutter contre les nouveaux acteurs de l’internet. Mais il s’agit de la recherche d’un compromis acceptable par ces deux parties, au détriment tant des artistes que du public.

D’une part, c’est profondément dangereux, mais en plus, ça passe à côté d’une refonte plus radicale des politiques culturelles. Il s’agit de micro-mesures demandées en grande partie par les lobbies les plus puissants du secteur de la culture. Cela s’est présenté comme une manière de lutter contre les nouveaux acteurs de l’internet. Mais il s’agit de la recherche d’un compromis acceptable par ces deux parties, au détriment tant des artistes que du public.

En quoi l’article 13 serait-il préjudiciable aux artistes et au public comme vous l’affirmez?

À mon sens, ces approches confortent un certain type de partage de la valeur et ne remettent pas du tout en cause les bases d’une économie de la culture profondément inégalitaire et qui condamne beaucoup d’artistes les moins commerciaux à la précarité. L’article 13 incite à forger des partenariats plateformes/ayants-droits/sociétés de gestion et à instaurer des régimes de censure. À travers la Directive copyright, nous ne sommes pas en train de lutter contre le modèle économique de Google ou Facebook, contre le fait qu’ils captent des revenus publicitaires, mais nous tendons à généraliser les formes d’alliances et de partenariats qui ont déjà été expérimentés entre les grands acteurs du monde de la culture.

Selon certains parlementaires européens favorables à ces mesures, l’article 13 serait une garantie de diversité des contenus. Vous dites que cela ne va faire juste que perpétuer un système. Pourquoi la Directive continuerait-elle à maintenir d’une sorte de diversité de façade ?

C’est le mot de ralliement des défenseurs de la Directive : cet argument de la diversité culturelle est sans cesse mis en avant. Derrière ce sempiternel débat, il n’y a jamais de vraie discussion sur la manière dont l’argent collecté est redistribué et employé entre différentes catégories d’artistes. En soi, Internet est déjà une plateforme technique qui permet la circulation d’une grande diversité d’œuvres culturelles. Malheureusement, dans le cadre de ces alliances entre les grands acteurs du monde de la culture et les grands acteurs de l’économie numérique, on renforce des logiques d’attention sans jamais poser la question des formes de redistribution de ces revenus.

L’argument de la diversité avait par exemple été mis en avant en 2011 avec la Directive sur l’extension de la durée des droits voisins4 [5] en matière musicale pour les phonogrammes qui a allongé les droits voisins de 50 à 70 ans. À l’époque, il nous a été expliqué que c’était une manière de garantir la diversité culturelle et que ça permettrait à des artistes précaires en fin de droits d’éviter la pauvreté… Sept ans plus tard, le Parlement européen a publié un rapport qui indiquait qu’aucune évaluation n’existait pour permettre de mesurer cela. En fait, personne ne s’interroge sur les effets réels des mesures prises au nom de la diversité, on ne rentre jamais dans le détail. Selon moi, ce type d’argument permet d’empêcher que ne se tienne un vrai débat sur la diversité culturelle, pour la mise en place d’une économie de la culture plus égalitaire et plus juste.

Au lieu, par exemple, de légaliser le partage d’œuvres culturelles sur les réseaux, de créer des mécanismes de financement associés, tout en étant attentif aux formes de redistribution et à une meilleure répartition des revenus, le monde de la culture participe à conforter et à légitimer le modèle économique des GAFAM (Google, Apple, Facebook, Amazon et Microsoft) pour en récupérer quelques miettes. C’est aussi le cas de la presse, à travers l’article 11 de la Directive par lequel les grands groupes de presse cherchent à capter une partie des revenus de ces grands acteurs. Ils veulent également mettre en place des systèmes de collectes de données personnelles censés rivaliser avec ceux de Google pour pister leurs lecteurs et les exposer à de la publicité ciblée. Il est extrêmement inquiétant de voir le monde de la culture et de la presse consacrer cette surveillance commerciale très lucrative mais aussi profondément liberticide en modèle économique.

Le monde de la culture participe à conforter et à légitimer le modèle économique des GAFAM pour en récupérer quelques miettes.

Dans sa rédaction actuelle, l’article 13 ciblerait plutôt les gros acteurs, communément appelés les GAFAM en leur imposant une forme d’autorégulation, donc un outil type Content ID5 [6] , qui serait appliqué à chacune de ces grandes plateformes. Selon vous, quels sont les problèmes posés par cette autorégulation ? Ce contrôle ne devrait-il pas être confié à des organismes tiers ?

C’est sans doute une option explorée par certains opposants à l’article 13 en l’état, qui pourraient estimer qu’en imposant le contrôle par une autorité publique de ces systèmes de surveillance et de censure mis en place par les grandes plateformes, on pourrait éviter certains des problèmes posés par l’autorégulation. Des dérives existent, par exemple sur YouTube. Certains ayants droit utilisent Content ID5 [7] pour revendiquer des droits sur des œuvres tombées dans le domaine public. Effectivement, on pourrait se dire qu’une supervision d’une autorité publique (reste à savoir laquelle ?) pourrait limiter ce genre d’abus. Mais il faut se rendre compte que cet article 13 de la Directive Copyright arrive au moment où ces filtres automatiques sont en train d’être couronnés et inscrits dans la législation pour censurer des contenus qui n’ont rien à voir avec le droit d’auteur, notamment de la propagande terroriste.

Le 12 septembre dernier, le jour où le Parlement européen adoptait en première lecture la Directive Copyright, la Commission européenne présentait un Règlement européen portant sur l’anti-terrorisme. Celui-ci vise à généraliser là encore des outils de censure automatiques pour surveiller l’ensemble des communications qui passent sur une plateforme, un réseau social ou autre et bloquer les contenus relevant de la propagande terroriste. Ce texte-là concerne tous les acteurs de l’internet, pas uniquement les plateformes. Il s’agit grossièrement de généraliser les systèmes mis en place ces derniers mois à grand renfort d’intelligence artificielle par des acteurs comme Google et Facebook pour lutter contre la propagande terroriste et d’appliquer ces filtres à l’ensemble des acteurs d’internet.

Mais il faut se rendre compte que cet article 13 de la Directive Copyright arrive au moment où ces filtres automatiques sont en train d’être couronnés et inscrits dans la législation pour censurer des contenus qui n’ont rien à voir avec le droit d’auteur, notamment de la propagande terroriste.

Dans ce cadre, nous savons déjà qu’Europol6 [8] ou différentes polices nationales collaborent en grande proximité avec Google ou Facebook. Bref, les germes d’une supervision existent déjà et il se pourrait très bien qu’elle s’étende à l’avenir aux obligations issues de l’article 13 pour le droit d’auteur.

Mais fondamentalement, ce sont les filtres automatiques qui nous posent problème. Après c’est sans doute encore plus grave qu’ils soient maîtrisés par des entreprises privées pour lesquelles il n’y a aucune forme de contrôle collectif. Les autorités publiques ont une légitimité sans doute plus grande pour les paramétrer mais c’est largement insatisfaisant de notre point de vue. En automatisant des formes de censure et en créant des systèmes techniques extrêmement complexes et opaques, nous renonçons aux garanties associées à la liberté d’expression, notamment sa protection judiciaire.

Tyler Menezes : The worst thing about censorship is [9] – (CC BY-SA 2.0)

Selon Lionel Maurel, votre collègue à la Quadrature du net, « l’enjeu n’est pas de chercher à supprimer l’article 13 mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés, lucratifs, procédant à une hiérarchisation des contenus autrement dit, si appliquée en ce sens, la Directive serait un outil de lutte contre la centralisation du web, un moyen de faire pression sur les GAFAM et de voir l’émergence d’alternatives non centralisées et éthiques type hébergeurs alternatifs »7 [10]. Qu’en pensez-vous ?

Pour bien comprendre cette analyse, il faut la réinscrire dans ce principe issu de la Directive de 2000, selon lequel il n’y a pas de responsabilité directe des hébergeurs sur les contenus partagés par leurs utilisateurs. Nous défendons ce principe fondamental, avec nos alliés en Europe et à Bruxelles mais nous perdons du terrain. À chaque fois qu’il y a des débats sur des questions touchant à la lutte contre la propagande terroriste, les discours de haine ou autour du droit d’auteur, cette responsabilité limitée des hébergeurs est sans cesse battue en brèche. On généralise les filtres automatiques, on autorise ces acteurs à se livrer à tout type de censure pour leurs propres impératifs (notamment plaire aux annonceurs)… Dans le cadre du débat sur la Directive copyright, nous avons estimé qu’en limitant cette obligation de l’article 13 aux grosses plateformes qui pratiquent déjà ce type de mécanismes, cela en limitait les effets les plus pervers, soit la généralisation des filtres automatiques à l’ensemble des acteurs de l’internet.8 [11]

Il y a très peu de chances de renverser l’article 13 et il faut arrêter de défendre Google en estimant qu’ils sont de simples hébergeurs. Au contraire, les acteurs qui dominent aujourd’hui l’économie numérique ont bâti un modèle basé sur la surveillance, hiérarchisent les contenus et ne peuvent plus prétendre à un statut d’hébergeur neutre qui leur apportait la protection issue de la Directive de 2000 précitée. Dans ce débat, la priorité de La Quadrature du Net était donc de se concentrer sur la limitation de cette obligation à ces acteurs-là. L’analyse de Lionel Maurel s’inscrit dans un débat stratégique au sein de la société civile européenne sur ces questions. Nous ne pouvons plus être les idiots utiles de ces grands acteurs en disant que l’article 13 équivaut à la fin de l’internet.

On est en train de mettre en place des outils techniques de censure développés par les GAFAM, en partenariat avec les autorités publiques, qui seront ensuite généralisés à l’ensemble de l’internet.

Le problème est tout autre dans le cadre du projet de règlement pour la prévention de la diffusion de contenus à caractère terroriste en ligne9 [12]. Ces obligations de censure automatiques ne concernent pas juste «les plateformes centralisées qui hiérarchisent les contenus dans un but lucratif» mais bien tous les acteurs de l’internet. Ce qui est très clair dans l’intention des pays comme la France ou l’Allemagne – qui défendent ce projet de règlement – c’est que les outils de censure automatique mis en place par Google ou Facebook sont généralisés et vendus à tous les acteurs de l’internet. Autrement dit, on est en train de mettre en place des outils techniques de censure développés par les GAFAM, en partenariat avec les autorités publiques, qui seront ensuite généralisés à l’ensemble de l’internet.

Vous avez un discours plutôt alarmiste, dressant des parallèles entre des logiques de protection anti-terroristes et d’autres pour protéger les auteurs, via une surveillance généralisée. Comment voyez-vous l’évolution de ces systèmes automatisés de censure et de surveillance ?

De fait, les outils utilisés sont les mêmes et les risques pour la liberté d’expression sont similaires. Si les choses continuent en l’état, les filtres automatiques paramétrés par ces grands acteurs, en lien avec les autorités publiques et notamment des polices nationales vont aller en se généralisant. Cela aura pour effet de renforcer la position hégémonique de ces grands acteurs, de les légitimer comme partenaires des Etats membres et des Gouvernements nationaux dans la régulation d’internet. Il s’agit d’une nouvelle alliance entre des acteurs privés et l’État pour censurer Internet au moyen d’outils techniques profondément antagonistes de la liberté d’expression telle qu’elle a été juridiquement protégée depuis la fin du 19ème siècle.

L’article 13 de la directive copyright, et plus encore le règlement anti-terroriste engagent une rupture historique dans l’histoire de la censure.

Nous avons réfléchi à la manière dont pourrait s’appliquer le règlement portant sur l’anti-terrorisme à un mouvement social du type de celui des gilets jaunes en France. La définition du terrorisme en droit européen est très large et concerne même des mesures d’obstruction qui viseraient à faire changer un gouvernement d’opinion sur un sujet, autrement dit une manifestation ou autre forme d’expression d’un contre-pouvoir légitime. Avec ce type de définition du terrorisme et le type d’outil technique que vise à généraliser le projet de règlement portant sur l’anti-terrorisme (et la Directive Copyright dans une moindre mesure), on pourrait très bien envisager que les filtres automatiquessoient paramétrés pour censurer des contenus relatifs au mouvement social des gilets jaunes. Si ce projet était appliqué en l’état, il pourrait ainsi avoir des effets politiques extrêmement significatifs sur la capacité des mouvements sociaux à se faire entendre, à s’organiser et donc au maintien de la démocratie.

L’article 13 de la directive copyright, et plus encore le règlement anti-terroriste engagent une rupture historique dans l’histoire de la censure. Notre discours est peut être alarmiste mais il est à la mesure du manque de prise de conscience de beaucoup d’acteurs dans ces débats, et notamment des médias qui ont partie liée à la liberté d’expression.

Propos recueillis et mis en forme par Olivier Grinnaert

1 [13] Finalement rejeté par le parlement européen, l’Accord Commercial anti-contrefaçon (ACTA), était un projet devant aboutir à la création de critères internationaux de protection de la propriété intellectuelle.

2 [14] Félix Tréguer, Pouvoir et résistance dans l’espace public: une contre-histoire d’internet (XVème – XXIème siècle), thèse soutenue le 2 novembre 2017.

3 [15]Propositions qui comprenaient entre autres:

-Promotion du domaine public avec création d’un statut positif pour les communs.

-Légalisation des usages et des partages non-marchands des œuvres culturelles, notamment sur les réseaux peer to peer.

-Extension des exceptions au droit d’auteur applicables aux pratiques éducatives et de recherche.

Pour consulter l’intégralité du document : https://wiki.laquadrature.net/images/8/85/%C3%89l%C3%A9ments_pour_la_r%C3%A9forme_du_droit_d%27auteur_et_des_politiques_culturelles_li%C3%A9es.pdf [16]

4 [17]. Les droits voisins ont pour objectif de protéger la contribution artistique ou financière investie dans la création littéraire et artistique. Ils bénéficient à trois types de contributeurs : les interprètes, les producteurs de phonogrammes et de films, et les organismes de radiodiffusion (pour leur contenu propre).

5 [18]Content ID est un système de prise d’empreinte numérique développé par l’entreprise Google [19] qui permet d’identifier et de gérer facilement le contenu protégé par le droit d’auteur sur la plateforme d’hébergement de vidéos YouTube [20]. En d’autres termes, il s’agit du filtre à travers lequel passe tout nouveau contenu stocké sur YouTube afin de vérifier si ce nouveau contenu utilise sons, vidéos ou mélodies soumises au droit d’auteur et déjà reconnus par la plateforme.

6 [21] Europol est l’agence européenne qui appuie les autorités policières nationales à combattre la criminalité internationale et le terrorisme.

7 [22]https://scinfolex.com/2018/09/15/la-directive-copyright-nest-pas-une-defaite-pour-linternet-libre-et-ouvert/

8 [23]Finalement, l’accord du 13 février prévoit d’exempter des obligations liées à l’article 13 : « Les entreprises de moins de trois ans d’existence, dont le chiffre d’affaires est inférieur à 10 millions d’euros et visitées par moins de cinq millions d’internautes par mois ».

9 [24] Ce projet institue une obligation pour les hébergeurs de retirer un contenu prônant le terrorisme. La définition de la notion de terrorisme est considérée par certains – dont la Quadrature du Net- comme étant trop large et susceptible d’englober des mouvements contestataires compatibles à notre environnement démocratique.