Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Rapport Racine sur la création : pourquoi les bibliothèques devraient davantage s’y intéresser

En janvier dernier, le rapport « L’auteur et l’acte de création » a été remis par Bruno Racine au Ministère de la Culture. J’avais publié à ce moment un premier billet de réaction, en me focalisant sur un point précis du rapport : le rejet de la proposition du domaine public que j’avais salué. Mais ce document comporte bien d’autres qui méritaient à mon sens de s’y pencher, si possible avec la perspective particulière du bibliothécaire qui est la mienne.

Je n’avais trouvé l’occasion de le faire depuis janvier, mais cette lacune est réparée grâce à l’IFLA (la Fédération Internationale des Associations et Institutions de Bibliothèques) qui avait repéré la parution de ce rapport et qui m’a demandé de répondre à quelques questions à ce sujet. Il en a résulté une interview, publiée cette semaine sur leur site et traduite en anglais (merci à Camille Françoise pour cela !).

Le rapport Racine n’a pas réellement entraîné de réactions de la la part des principales associations de bibliothécaires en France, ce qui est à mon sens un tort. Ce texte constitue un mon sens un des apports les plus importants que l’on ait vu passer ces dernières années sur la question de l’évolution du droit d’auteur. Et je vais même aller plus loin : c’est même sans doute la proposition la plus forte à avoir été faite depuis le projet de réforme – hélas avortée – tentée par Jean Zay en 1936 à l’époque du Front Populaire. Je fais cette comparaison à dessein, car il existe une forme de filiation intellectuelle assez claire entre les deux, notamment sur la question de l’articulation entre la question de la création et celle du travail (sujet que j’ai abordé aussi parfois sur ce blog). A mon sens, Il y a dans le rapport Racine rien de moins que des pistes pour faire advenir un droit d’auteur « post-Beaumarchais » et ce n’est pas exactement rien.

Quel rapport avec les bibliothèques, me direz-vous ? Il en existe – et de nombreux – et je vous propose de lire le texte de l’interview que j’ai donnée à l’IFLA dont je colle ci-dessous la version en français. La crise du coronavirus est hélas survenue au moment où le Ministère de la Culture avait commencé à mettre en oeuvre les premières mesures inspirées du rapport, mais dans une mesure bien insuffisante pour les syndicats d’auteurs professionnels qui poussaient pour une adoption plus large. Depuis, la situation des artistes auteurs s’est encore dramatiquement aggravée et l’urgence ne fait une renforcer encore l’importance de la plupart des préconisations du rapport (voir à ce sujet le site de la Ligue des Auteurs Professionnels).

Il est, à mon sens, impératif que les bibliothèques soutiennent les auteur dans ce combat et elles laisseraient à mon sens passer une chance historique si elles ne le faisaient pas.

23 recommandations sur les droits des créateurs : Quels enjeux pour les bibliothèques et comment elles peuvent contribuer à les soutenir ?

Pourriez-vous nous expliquer ce qu’est le rapport Racine et le contexte de sa production ?

Il s’agit d’un rapport remis au Ministère de la Culture en janvier 2020. Intitulé « L’auteur et l’acte de création », il a été préparé par Bruno Racine, conseiller à la Cour des Comptes, qui a dirigé la Bibliothèque nationale de France de 2007 à 2016. Il comporte 23 recommandations visant à améliorer la situation des artistes-auteurs en adaptant le cadre réglementaire aux nouvelles réalités des métiers de la création.

L’origine de ce rapport est à chercher du côté d’une forte mobilisation des auteurs en France, qui dure depuis plusieurs années, en réaction à une dégradation continue de leurs conditions d’existence. En 2017, une réforme fiscale est intervenue, qui a encore fragilisé une large partie des auteurs luttant déjà contre la précarité. Pour faire face, les artistes-auteurs ont choisi d’agir en s’appuyant sur des syndicats, ce qui est assez nouveau en France. Traditionnellement, les intérêts des auteurs sont en effet plutôt représentés par des sociétés de gestion collective des droits. 

La commande du rapport Racine est intervenue pour essayer de dénouer une situation qui devenait de plus en plus explosive, avec des appels des auteurs professionnels à boycotter de grands salons pour attirer l’attention sur leur situation. Elaboré au terme d’une large consultation, le rapport Racine était très attendu et il dresse un tableau sombre de la situation des auteurs en France. Dans certains secteurs comme la bande dessinée, pourtant économiquement en progression, près d’un tiers des auteurs vivent en dessous du seuil de pauvreté et le taux grimpe à 50% pour les femmes. La France est souvent présentée comme « le pays du droit d’auteur », mais cette réputation dissimule une situation de crise profonde pour les créateurs. 

Quelle analyse peut-on faire des recommandations de ce rapport ? 

Le plus grand apport de ce rapport est de montrer que la subsistance des auteurs ne dépend pas uniquement du seul droit d’auteur, mais d’un dispositif institutionnel beaucoup plus complexe, où les questions de fiscalité et de protection sociale jouent un rôle déterminant. Il montre aussi que les artistes-auteurs ne disposent pas d’un véritable statut professionnel, comme si leur activité ne constituait pas un métier à part entière. Pour remédier à cette lacune, Le rapport Racine propose de créer un tel statut, notamment pour faciliter l’accès des auteurs au bénéfice de droits sociaux (assurance-maladie, formation, retraite, etc.). 

Plus encore, le rapport Racine défend l’idée que les artistes-auteurs ne devraient pas dépendre pour vivre uniquement de l’exploitation de leurs œuvres par les industries culturelles, mais aussi être rémunérés directement pour leur travail. Il propose pour cela la mise en place d’un « contrat de commande » qui obligerait les intermédiaires, comme les éditeurs ou les producteurs, à payer le travail de création en plus du versement de droits d’auteur. 

Cela constituerait un changement profond en France, car depuis l’époque de Beaumarchais et la Révolution française, la loi considère l’auteur comme un propriétaire tirant ses revenus de l’exploitation de son œuvre. Ce système permet certes théoriquement à l’auteur de bénéficier d’une rémunération, mais on est arrivé aujourd’hui au paradoxe que l’œuvre est mieux protégée que l’auteur et c’est elle qui constitue le véritable centre de gravité de la propriété intellectuelle…

Samantha Bailly, une autrice particulièrement impliquée dans les syndicats d’artistes-auteurs qui se sont mobilisés autour du rapport Racine, résume ainsi le changement de perspective que ce texte propose d’opérer : « l’amélioration de nos droits sociaux est liée à la reconnaissance des artistes-auteurs à la fois comme des propriétaires d’œuvres, mais aussi comme des travailleurs. Nous sommes bien des individus, et pas seulement des œuvres — nous avons des corps, nous mangeons, nous nous blessons, tombons malades, etc. C’est ce changement de paradigme que propose le rapport de Bruno Racine. » 

Un autre point essentiel concerne les mécanismes de représentation des auteurs. Le rapport souligne de nombreux dysfonctionnements dans la manière dont les intérêts des artistes-auteurs sont défendus. Généralement, ce sont des sociétés de gestion collective que l’on entend beaucoup dans les débats publics autour de la création, notamment lorsque le droit d’auteur est concerné. Mais le rapport démontre que ces sociétés et les auteurs n’ont pas tout à fait les mêmes intérêts et il demande qu’une partie des sommes collectées par les premières servent à financer les syndicats d’auteurs. Il plaide également pour que ces syndicats soient plus largement associés à la définition des politiques culturelles, notamment à travers les différentes commissions mises en place par le Ministère de la Culture. Ces propositions ont été très mal reçues par les sociétés de gestion collective qui s’y sont vigoureusement opposées, ce qui tend à montrer que le rapport Racine a plutôt raison de souligner une divergence d’intérêts ! 

Les discussions sur le droit d’auteur seraient sans doute différentes si les créateurs pouvaient faire entendre leur voix plus directement. En 2018, une affaire a eu lieu en France s’est révélée très instructive. Une société de droits dans le domaine de l’édition a essayé de faire payer les lectures publiques en bibliothèque, y compris les Heures du Conte à destination des enfants. Cela a déclenché une forte opposition des bibliothécaires, mais aussi d’une partie des auteurs eux-mêmes qui, par le biais de syndicats, ont fait savoir qu’ils souhaitaient que ces usages en bibliothèque restent gratuits. Grâce à cette intervention directe des auteurs dans le débat, le projet des éditeurs a été abandonné. 

Quelles sont les principaux enjeux de ce rapport pour les bibliothèques ? 

A première vue, ce rapport paraît assez éloigné de l’activité des bibliothèques, mais celles-ci devraient s’y intéresser de près, car ses recommandations pourraient modifier en profondeur le paysage de la création. 

Depuis plus de 20 ans, les bibliothèques sont mobilisées pour faire évoluer la règlementation sur le droit d’auteur, notamment par la reconnaissance de nouvelles exceptions adaptées à Internet et aux usages numériques. Que ce soit au niveau mondial ou international, ces débats sont très difficiles et les progrès restent lents, car les bibliothèques se heurtent à une opposition, menée surtout par des sociétés de gestion collective ou des représentants de gouvernement, qui soutiennent que ces exceptions menaceraient les auteurs dans leur capacité à vivre de la création.

Or le rapport Racine démontre de manière très claire que les vrais problèmes des auteurs sont ailleurs : ils résident surtout dans le déséquilibre du rapport de force avec des intermédiaires comme les éditeurs ou les producteurs, qui conduit à une répartition inéquitable de la valeur au sein même des filières culturelles. La précarité des auteurs découle aussi du fait que leur travail n’est pas bien reconnu, et donc pas bien rémunéré, car il est « invisibilisé » d’une certaine manière par la propriété intellectuelle sur laquelle les lois se focalisent. 

A aucun moment le rapport Racine ne pointe la question du piratage des œuvres sur Internet comme la cause de la paupérisation des auteurs, pas plus qu’il n’indique que les exceptions au droit d’auteur fragiliseraient leur situation. En revanche, il adresse des critiques au fonctionnement des sociétés de gestion collective, en pointant par exemple les salaires trop élevés de leurs dirigeants ou le fait qu’elles redistribuent l’argent collecté à un trop petit nombre d’auteurs. 

Ces conclusions intéressent en réalité directement les bibliothèques, car elles ouvrent la voie à de nouvelles discussions sur la réforme du système. Il est significatif qu’aucun des points discutés dans le rapport Racine n’ait réellement été débattu lors de l’élaboration de la nouvelle directive sur le droit d’auteur adoptée en 2019 par le Parlement européen. Les débats se sont encore une fois focalisés sur le renforcement de la propriété intellectuelle et sur la critique des nouvelles exceptions au droit d’auteur. Mais ce n’est pas ce texte qui permettra de rééquilibrer les relations entre les auteurs et les intermédiaires, comme le demande le rapport Racine…

Un point figure dans le rapport qui illustre très bien les fausses questions dans lesquelles les débats sur le droit d’auteur tombent souvent. En France, revient régulièrement dans le débat public l’idée d’instaurer un « domaine public payant » pour établir une sorte de taxe sur les utilisations commerciales des œuvres appartenant au domaine public. Le domaine public est un mécanisme qui bénéficie au premier chef aux bibliothèques et à leurs usagers, notamment à travers la numérisation des collections patrimoniales. Or le rapport Racine écarte sans ambiguïté cette idée du domaine public payant, en montrant qu’il rapporterait très peu aux auteurs tout en restreignant les usages et la diffusion de la culture. En revanche, le rapport pointe le fait qu’une part trop faible des aides à la création versées par le Ministère de la Culture ou les sociétés de gestion collective bénéficient directement aux artistes-auteurs. Ce n’est qu’un exemple parmi d’autres montrant comment de faux débats cachent souvent les vraies questions… 

Quelles sont les premières étapes pour les bibliothèques pour soutenir ces principes au niveau national et international ?   

Il est assez frappant de constater que les bibliothèques sont absentes du rapport Racine, alors pourtant qu’elles constituent aussi une source de revenus pour les auteurs. A travers les acquisitions de supports, les abonnements à des ressources numériques, mais aussi avec les sommes versées au titre du droit de prêt, les bibliothèques contribuent à la rémunération des créateurs. En France, il existe même un lien direct entre le droit de prêt et les droits sociaux des auteurs, car une partie des sommes versées par les bibliothèques au titre du droit de prêt sert à financer la retraite des auteurs de l’écrit. 

Il est dommage – mais aussi très significatif – que le rapport Racine n’ait pas pris en compte ce lien, car cela révèle une certaine forme d’invisibilité des bibliothèques dans l’économie de la création. Trop souvent, les bibliothèques sont accusées de fragiliser le marché de la Culture en « cannibalisant les ventes », alors qu’aucune étude économique sérieuse n’a jamais démontré un tel phénomène. Bien au contraire, les bibliothèques pourraient contribuer plus largement au financement de la création si elles étaient mieux intégrées dans les systèmes de rémunération. Par exemple, le livre numérique se développe aujourd’hui de plus en plus en bibliothèque, mais sur des bases juridiquement fragiles, puisque la législation sur le prêt du livre papier ne s’applique pas et il a fallu réorganiser le système autour de négociations contractuelles avec les éditeurs. Du coup, l’offre à destination des bibliothèques reste lacunaire, mais surtout, le système légal du droit de prêt est mis de côté, ce qui ne permet pas de contribuer à financer les droits sociaux des auteurs…

On pourrait imaginer une refonte du système, de manière à ce que les bibliothèques puissent mettre à disposition plus facilement des contenus pour leurs utilisateurs, comme le propose par exemple le traité sur les bibliothèques défendu par l’IFLA auprès de l’OMPI. En contrepartie, de nouvelles rémunérations seraient logiquement versées aux ayants droit. Mais si l’on suit le rapport Racine, il faudrait être très attentif à ce que ces sommes aillent bien aux auteurs et qu’une partie soit utilisée pour financer leurs droits sociaux et leurs organisations syndicales.

Ce rapport ouvre en réalité la voie à de nouvelles discussions entre les auteurs et les bibliothèques. Pour cela, il faudrait mieux faire connaître le rôle que les bibliothèques jouent déjà pour soutenir la création et réfléchir à de nouvelles manières dont les activités des bibliothèques pourraient directement soutenir les créateurs dans l’exercice de leurs droits. On a trop souvent opposé les droits des auteurs et ceux des utilisateurs, comme s’ils étaient incompatibles. Le temps est venu à présent de trouver des articulations qui permettront de les renforcer mutuellement. 

StopCovid, la subordination sociale et les limites au « Consent Washing »

Mardi dernier, lors de l’annonce du plan de déconfinement à l’Assemblée nationale, le premier Ministre Édouard Philippe a reconnu qu’il « ne savait pas si l’application Stopcovid fonctionnera » et a préféré repousser en conséquence le débat parlementaire à un moment ultérieur en promettant qu’un vote spécifique aurait lieu sur la question. Cette décision fait suite à des semaines d’intense polémique à propos de cette application de traçage numérique. Le même jour, la Commission nationale consultative des droits de l’homme publiait d’ailleurs un avis estimant que « du point de vue des libertés fondamentales, ce système est dangereux » et hier c’est le Conseil de l’Europe qui déclarait à propos de des dispositifs de backtracking: « Compte tenu du manque de preuves au sujet de leur efficacité, les promesses valent-elles les risques sociaux et juridiques ?« …

Dessin par Allan Barte

J’ai déjà eu l’occasion dans un précédent billet de dire tout le mal que je pensais de StopCovid et je ne vais pas en rajouter à nouveau dans ce registre. Je voudrais par contre prendre un moment sur la délibération que la CNIL a rendue en fin de semaine dernière à propos du projet d’application, car elle contient à mon sens des éléments extrêmement intéressants, en particulier sur la place du consentement en matière de protection des données personnelles.

Consentir ou ne pas consentir, telle est la question…

On a pu lire que la CNIL avait validé le projet StopCovid dans sa délibération (n’est-ce pas Cédric O ?), mais les choses sont en réalité beaucoup plus subtiles que cela. Je vous renvoie pour le comprendre à l’excellente analyse que l’avocat Jean-Baptiste Soufron a publiée sur son blog. Il met notamment en avant un point important sur lequel je vais m’attarder : la CNIL s’est prononcée sur ce que l’on appelle la « base légale de traitement » sur laquelle l’application devrait s’appuyer pour exploiter les données collectées à partir des smartphones des utilisateurs. Ce concept est issu du RGPD (Règlement Général de Protection des Données) et il impose aux responsables de traitement de choisir parmi six bases légales différentes lorsqu’ils collectent et utilisent des données personnelles (voir tableau ci-dessous). Ce choix est très important, car selon la base retenue, le cadre juridique applicable varie substantiellement avec plus ou moins de garanties pour les personnes et plus ou moins de marges de manœuvre pour le responsable de traitement.

Source : blog Questio.

Le gouvernement n’avait eu de cesse de répéter pour légitimer son projet que le téléchargement de l’application resterait strictement volontaire et que StopCovid fonctionnerait sur la base du consentement des individus. Pourtant la CNIL écarte cette hypothèse et elle préfère se référer à une nécessité liée à une « mission d’intérêt public » comme base légale pour le fonctionnement de StopCovid :

En l’espèce, le gouvernement s’interroge sur la possibilité de fonder l’application StopCovid sur la base légale du consentement de ses utilisateurs ou, à défaut, sur l’existence d’une mission d’intérêt public de lutte contre l’épidémie de COVID-19.

[…] La Commission relève que la lutte contre l’épidémie de COVID-19 constitue une mission d’intérêt général dont la poursuite incombe en premier lieu aux autorités publiques. En conséquence, elle estime que la mission d’intérêt public […] constitue la base légale la plus appropriée pour le développement par l’autorité publique de l’application StopCovid.

Contrairement à ce que l’on a pu également lire, la CNIL n’a pas dit ici que l’application StopCovid présentait nécessairement un intérêt dans la lutte contre le coronavirus. Elle dit seulement que si le gouvernement décide de la mettre en circulation, alors il devra s’appuyer sur une mission d’intérêt public et il lui faudra démontrer que l’application est bien nécessaire pour l’accomplissement de cette mission. La CNIL le dit explicitement un peu loin en indiquant que : »Le RGPD requiert néanmoins que les finalités du traitement en cause soient nécessaires à la mission d’intérêt public en cause« . Cela revient donc, non pas à valider a priori le projet, mais au contraire à suspendre au-dessus de lui une redoutable épée de Damoclès, car la charge de la preuve pèse à présent sur le gouvernement. Il lui sera sans doute très difficile de prouver que le recours à cette application est réellement nécessaire, alors qu’il n’existe aucun consensus sur ce point, ni parmi la communauté scientifique, ni chez les juristes et encore moins dans la société civile. Autant dire que la CNIL a offert sur un plateau d’argent un argument à tous les opposants à StopCovid qui pourront l’invoquer, devant elle et/ou en justice, sitôt que l’application sera rendue disponible…

StopCovid ou l’impossible consentement ?

Ce choix de la CNIL de se tourner vers la mission d’intérêt public plutôt que vers le consentement individuel pourrait paraître à première vue surprenant.

En effet, même si dans le RGPD les six bases légales ne sont pas hiérarchisées entre elles, la Commission tend quand même à accorder au consentement une certaine priorité, au nom du respect du droit à « l’autodétermination informationnelle ». Ce concept postule que l’individu est le mieux placé pour décider ce que l’on peut faire ou non avec les données le concernant et que c’est à cette échelle « micro » que l’essentiel de la régulation devrait être réalisée. La CNIL est généralement attachée à ce principe et cela tend à lui faire privilégier le consentement comme base de traitement (voir ici par exemple, dans un document à propos des traitements à des fins de recherche : « le consentement des personnes constitue le premier fondement légal à envisager en application du principe général d’autodétermination informationnelle« ).

Néanmoins pour l’application StopCovid, les opposants avaient justement souligné les limites de cette approche en dénonçant une instrumentalisation possible du consentement des personnes, dans un contexte de crise où des pressions de toutes sortes vont nécessairement s’exercer pour pousser les gens à utiliser ce dispositif. Voyez par exemple ce qu’en dit la Commission Nationale Consultative des Droits de l’Homme dans une partie de son avis intitulé « Un consentement libre et éclairé sujet à caution » :

La CNCDH s’interroge sur l’authenticité d’un consentement libre dans le contexte actuel. Comme le soulignait la présidente de la CNIL devant les députés, « le refus de consentir ne doit pas exposer la personne à des conséquences négatives ». Le gouvernement ne paraît manifestement pas conditionner le déconfinement des personnes à l’utilisation de l’application. La CNCDH souligne que cela s’oppose également à ce qu’un employeur impose à son salarié de télécharger et d’utiliser l’application, ou que cette dernière conditionne l’accès à l’espace public. D’autres facteurs de contrainte sont néanmoins à craindre, tenant notamment aux risques de pression sociale, tant à titre individuel que familial ou professionnel, pouvant s’exercer dans un contexte de crise sanitaire particulièrement aigüe. L’impératif de santé publique, la lutte contre la propagation du Covid-19, la préservation du personnel soignant, sans doute invoqués à l’appui de la mise en place de l’application, constitueront autant de leitmotivs qui pèseront sur le choix des individus, appelés à agir en citoyens responsables. Par ailleurs, la CNCDH craint des risques de stigmatisation et de harcèlement à l’égard de tout individu qui refuserait d’adhérer à ces mesures de suivi.

Il y a dans ce passage des arguments qui relèvent de deux plans très différents. On nous dit en effet d’un côté que le consentement est valide uniquement si l’on n’attache aucune conséquence négative en cas de refus. C’est la condition fixée par le RGPD pour que le consentement soit considéré comme « libre » et dans ce cas, on est bien dans la dimension protectrice de la base légale du consentement. Cet aspect est important, car dans d’autres pays qui ont déjà déployé des applications de traçage, comme l’Italie, on commence déjà à voir des dérives, avec des pressions mises en place par le gouvernement pour pousser les personnes à utiliser l’appli :

Mais la CNCDH nous dit aussi quelque chose de très différent : même sans mesure de rétorsion plus ou moins appuyée exercée par le gouvernement, le consentement des personnes pourrait rester très ambigu, en raison des pressions sociales que les individus vont subir en cette période de crise sanitaire. Ce point est intéressant, car il tend à montrer que le consentement individuel est en réalité toujours plus ou moins une forme de fiction, l’humain étant un être social, soumis à diverses déterminations exercées par son environnement. Comme toutes les fictions juridiques, le consentement individuel peut être utile, mais on doit aussi lui fixer des limites pour éviter que la fiction perde pied face à la réalité. Or c’est exactement ce qui est en train de se passer dans un contexte de crise comme celui que nous traversons : on voit bien qu’un concept comme celui de « l’auto-détermination informationnelle » touche à ses limites et qu’il pourrait même finir par devenir dangereux si on continuait à le prendre pour argent comptant.

La CNIL ne l’abandonne pas complètement dans sa délibération, mais elle le fait de manière nuancée, en introduisant une distinction subtile, mais importante, entre le consentement et le volontariat. La Commission considère en effet comme essentiel que l’adoption de l’application reste basée uniquement sur le volontariat et elle met même en garde le gouvernement contre toute volonté de l’imposer :

Le volontariat signifie aussi qu’aucune conséquence négative n’est attachée à l’absence de téléchargement ou d’utilisation de l’application. Ainsi, l’accès aux tests et aux soins ne saurait en aucun cas être conditionné à l’installation de l’application. L’utilisation d’une application sur la base du volontariat ne devrait pas conditionner ni la possibilité de se déplacer, dans le cadre de la levée du confinement, ni l’accès à certains services, tels que par exemple les transports en commun. Les utilisateurs de l’application ne devraient pas davantage être contraints de sortir en possession de leurs équipements mobiles. Les institutions publiques ou les employeurs ou toute autre personne ne devraient pas subordonner certains droits ou accès à l’utilisation de cette application. Ceci constituerait en outre, en l’état du droit et selon l’analyse de la Commission, une discrimination.

La CNIL aurait dit exactement la même chose si elle avait retenu la base légale du « consentement libre et éclairé » pour l’application StopCovid. Mais en l’espèce, comme on l’a vu, elle préfère lui donner comme fondement la nécessité liée à une mission d’intérêt public. Cela montre que, même dans un tel cadre, le respect du volontariat des personnes peut être exigé, tout en ne servant pas de base légale au traitement. Cela mérite que l’on s’y arrête et je vais tenter d’interpréter cet aspect du raisonnement de la CNIL en l’articulant avec la question de la subordination.

Subordination hiérarchique et subordination sociale

Le caractère particulier de la relation de subordination est en effet pris en compte dans le RGPD, qui considère que ce type de rapports déséquilibrées empêche normalement de se baser sur le consentement des personnes pour traiter des données personnelles (voir Considérant 43):

Pour garantir que le consentement est donné librement, il convient que celui-ci ne constitue pas un fondement juridique valable pour le traitement de données à caractère personnel dans un cas particulier lorsqu’il existe un déséquilibre manifeste entre la personne concernée et le responsable du traitement, en particulier lorsque le responsable du traitement est une autorité publique et qu’il est improbable que le consentement ait été donné librement au vu de toutes les circonstances de cette situation particulière.

Il en découle que le consentement ne doit pas être retenu dans les relations de travail, entre un employeur et des employés à cause du lien de subordination, tout comme il doit être écarté dans les relations entre administrations et administrés dès lors que les premières utilisent leurs prérogatives de puissance publique. On comprend que dans de telles circonstances, un consentement « libre » ne peut plus être exprimé par les individus et c’est donc « structurellement » que le consentement est écarté au profit d’une autre base légale.

Sans le dire explicitement, on peut considérer que la CNIL a raisonné d’une manière un peu similaire dans sa délibération sur l’application StopCovid : si l’usage de l’application reste volontaire, les individus ne sont certes pas dans une relation de subordination avec la puissance publique, mais quand bien même, les pressions qu’ils vont nécessairement subir de la part du corps social dans lequel ils sont immergés matérialisent une forme de « subordination sociale » qui rendrait très problématique le fait de retenir la base légale du consentement. La situation rend donc « structurellement » impossible de se placer dans le cadre du libre consentement, tout comme cela doit être exclu dans les rapports plus classiques de subordination au travail.

La question va d’ailleurs sans doute rapidement se poser dans les entreprises, car on commence déjà à voir des acteurs privés qui envisagent de développer leurs propres applications de traçage numérique pour faciliter la reprise d’activité. C’est le cas par exemple du Crédit Agricole qui a fait une annonce en ce sens cette semaine. Ici aussi, ces entreprises ne pourront sans doute pas se baser sur le consentement des personnes, même si le recours à ces outils reste volontaire, eu égard au cadre de subordination hiérarchique dans lequel ce dispositif est déployé. Les conséquences juridiques ne sont pas anodines, car les entreprises devront alors se replier vers une autre base légale figurant dans le RGPD – l’intérêt légitime de l’entreprise – qui est sans doute l’une des plus fragiles, car il ne peut être invoqué que dans la mesure où « les intérêts ou les libertés et droits fondamentaux de la personne ne prévalent [pas] compte tenu des attentes raisonnables des personnes concernées fondées sur leur relation avec le responsable de traitement« . Cela ouvre donc tout un champ de contestation possible pour les salariés, mais aussi (et surtout) pour les syndicats qui pourraient trouver là une excellente manière d’affirmer leur rôle de gardiens des données personnelles des employés.

Le parallèle avec StopCovid est intéressant à souligner, car tout comme les entreprises devront prouver qu’elles ont un intérêt légitime à déployer des applications de traçage (avec le risque que leur soit opposé les libertés et intérêts de leurs salariés), l’État va devoir prouver que StopCovid constitue une nécessité pour exercer une mission d’intérêt public. Et dans les deux cas, c’est l’existence d’un contexte de subordination – directe et hiérarchique dans un cas ; indirecte et sociale dans l’autre – qui justifie que l’on se place sur ce terrain juridique plutôt que sur le consentement individuel et la fiction – devenue insoutenable – de la prétendue « liberté » de choisir.

En finir avec le « Consent Washing »

Une des choses que je retiendrai de cette crise du coronavirus est la manière dont cette question du « consentement » a pu être instrumentalisée jusqu’à l’outrance et complètement intégrée dans les rouages de la gouvernementalité oppressive que nous subissons. Cela permet par exemple au gouvernement d’annoncer, en restant droit dans ses bottes, qu’il envisage de mettre en place un système de bracelet électronique pour les malades du Covid-19 pendant la période de déconfinement, mais rassurez-vous, citoyens, on ne le fera bien entendu qu’avec le consentement des personnes !

Le gouvernement français ne ferme pas la porte à l'éventualité d'une mise en place de bracelets électroniques pour suivre les malades du #covid19 lors du déconfinement https://t.co/JjPmzjepm9

— RTL France (@RTLFrance) April 23, 2020

Allons plus loin : le retour à l’école des enfants, qui fait lui aussi tant polémique, se fera également – comme par hasard – sur la base du « volontariat ». Grossière farce que voilà ! Car il est bien clair que ce volontariat sera à géométrie extrêmement variable, selon que les foyers seront nantis ou modestes et que les parents pourront ou pas continuer à bénéficier du télé-travail et de conditions sociales favorables (appartement spacieux ou pas, recours à des gardes d’enfants à domicile, etc.). En surface, tout le monde pourra exercer un « consentement libre » et « s’autodéterminer » pour décider si les enfants doivent retourner à l’école. Mais dans la réalité crue, loin des abstractions juridiques, ce seront comme par hasard les plus pauvres qui devront prendre le risque de contaminer leurs enfants et de se contaminer eux-mêmes, et – histoire de joindre l’insulte à la blessure – on fera en sorte de leur faire porter la responsabilité d’avoir fait ce soit-disant « choix » par le biais duquel ils auront exprimé un « libre consentement » !

Le passage ci-dessus permet, je pense, de montrer assez clairement le fond ignoble de saloperie dans lequel baigne toujours plus ou moins un concept comme celui de « libre consentement » et « d’auto-détermination individuelle ». Ces fictions sont en réalité parfaitement compatibles avec l’idéologie néolibérale, dont le rêve ultime consiste précisément à enrober toutes les relations de domination derrière un voile bien commode de consentement. Dans son « Post-scriptum sur les sociétés de contrôle« , Gilles Deleuze avait déjà parfaitement anticipé que nous étions en réalité peu à peu sortis des sociétés disciplinaires, dont la gouvernementalité s’exerce à travers la contrainte, pour glisser vers des sociétés de contrôle aux dispositifs beaucoup plus fluides. Leur objectif est de contrôler les individus « de l’intérieur » par des systèmes de pilotage cybernétique, impliquant envois de signaux et rétroactions. Le numérique aura permis de donner complètement corps à cette vision qui n’est, ni plus ni moins, qu’une « gouvernementalité par le consentement ».

J’ai déjà eu l’occasion de dire que tout ceci avait de lourdes implications en matière de protection des données personnelles. D’autres que moi, comme Helen Nissenbaum, ont déjà dénoncé ce qu’elles appellent la « farce du consentement » à l’œuvre sur Internet et d’autres encore ont fait le lien avec la dénonciation de la « fabrique du consentement » déjà mise en avant par Noam Chomsky. Voyez par exemple cette interview récemment donnée par Christophe Masutti à l’occasion de la sortie de son livre sur le « Capitalisme de surveillance » dont ce passage m’a frappé :

[Le RGPD] prouve que nos institutions veulent agir, c’est une marque de bonne volonté. Mais le RGPD ne fait que formaliser le don du consentement […]. Notre société de surveillance émane aussi de notre propre culture, de notre acculturation à l’informatique et donc à la surveillance. Notre consentement, nous l’avons fabriqué.

Le drame est que le « consentement libre » du RGPD est doté d’une certaine efficacité contentieuse, qui pourrait faire croire qu’il s’agit encore d’un moyen sur lequel miser pour parvenir à réguler le système. Il a en effet déjà permis à la CNIL de sanctionner quelques abus, notamment en matière de géolocalisation à des fins publicitaires. Je peux donc comprendre que l’on s’y accroche à des fins tactiques, mais j’ai peur que l’on finisse par confondre le niveau de la tactique avec celui de la stratégie, sans voir que la bataille de libertés ne peut pas être gagnée sur le terrain du « libre consentement », car c’est une notion déjà complètement intégrée aux rouages de l’idéologie néolibérale.

Il faut donc en finir avec le « Consent Washing », à commencer en nous-mêmes, ce qui risque d’être extrêmement complexe… C’est pourtant nécessaire, car que se passera-t-il lorsque les efforts déployés à la fois par la propagande gouvernementale et par les puissances privées du capitalisme de données auront réussi à convaincre la population des bienfaits des technologies de surveillance (« la bien(sur)veillance« , comme dit Cynthia Fleury) ? Les individus finiront par « consentir librement » aux pires menaces à leurs libertés, sans même qu’il soit besoin d’agiter des sanctions, et le levier juridique que l’on aura cru pouvoir saisir pour se protéger aura achevé sa transformation en une arme redoutable retournée contre les personnes pour les faire participer à leur propre asservissement.

🙏🙏🙏 "On peut applaudir des lois incroyablement liberticides si elles prétendent sécuriser notre rapport à la mort."https://t.co/m2PMVck3rK

— Siℓvè𝐫ε ᵐ𝑒ʳ𝐂i𝒆r (@Silvae) April 29, 2020

J’ai néanmoins l’impression que cette crise du coronavirus et la surenchère sécuritaire dans laquelle elle nous entraîne sont en train de jouer comme un accélérateur de prise de conscience sur ce rapport trouble que nous entretenons avec la notion de consentement. J’ai noté par exemple cette phrase dans une tribune contre l’application StopCovid publiée par Jean-Baptiste Soufron dans Libé :

Le consentement n’est pas un sésame pour toutes les atteintes aux libertés, et ce encore moins quand il est contraint par la peur de l’épidémie, ou par la coercition directe ou indirecte à travers des sanctions plus ou moins informelles – pense-t-on par exemple à la possibilité que l’application soit imposée aux salariés par des employeurs ou à des étudiants par leurs établissements d’enseignement ?

Autant les coercitions directes ou indirectes sont illégales sur la base du RGPD, parce qu’elles violeraient la condition du « consentement libre » et/ou l’interdiction des discriminations, autant cette notion sera de peu d’intérêt pour nous protéger des effets de la simple peur de l’épidémie ou d’une propagande bien orchestrée du gouvernement qui viendrait habilement « fabriquer un libre consentement »…

Dès lors, je trouve intéressant le raisonnement de la CNIL dans sa délibération, qui a préféré écarter la base légale du consentement en commençant à reconnaître l’incidence des contextes de « subordination sociale ». Car nous pourrons dire : « Opprimez-nous, exploitez-nous, avilissez-nous, Messieurs les dominants, mais au moins, ne prétendez pas le faire avec notre consentement« .

Pourquoi diffuser des travaux de recherche sous licence « Pas de modification » n’est pas une bonne idée

Je vous propose ci-dessous la traduction en français, réalisée par mes soins, d’un article du blog de Creative Commons international écrit par Brigitte Vézina et intitulé : « Why Sharing Academic Publications Under “No Derivatives” Licenses is Misguided« .

L’idée de réaliser cette traduction m’est venue suite aux abondants débats qui ont eu lieu l’an dernier à propos du fameux Plan S préparé par une coalition d’agences de financement de la recherche et qui devrait entrer à présent en vigueur en 2021. Outre l’exigence de diffusion immédiate en Open Access des publications, le Plan S demande que les chercheurs les placent préférentiellement sous licence Creative Commons CC-BY.

Le logo de la licence CC-BY-ND

La systématisation de l’usage des licences Creative Commons est essentielle dans la stratégie du Plan S, puisqu’elle fera enfin sortir le processus de publications scientifique du système délétère des cessions exclusives de droits aux éditeurs. C’est un nouveau paradigme qui se mettra ensuite en place dans lequel l’édition pourra redevenir ce qu’elle n’aurait jamais dû cessé d’être : un service rendu aux communautés de recherche et non un processus d’accumulation de droits de propriété intellectuelle.

Mais cette disposition a pourtant fait l’objet de nombreux commentaires, faisant valoir qu’une diffusion plus restreinte, s’appuyant notamment sur des licences « ND » (No Derivative – Pas de modification) pourrait se justifier, en particulier pour préserver l’intégrité des résultats de la recherche. Je dois dire que j’ai toujours été très dubitatif devant ce type d’arguments et je me suis réjouis de voir que la Coalition S n’est pas significativement revenue sur sa volonté initiale dans la dernière version du Plan S.

Premier principe du Plan S, qui met en avant la question des licences

La licence CC-BY est donc toujours celle sous laquelle les publications doivent être diffusées par défaut, avec possibilité d’utiliser également les licences CC-BY-SA et CC0. Les licences comportant une clause ND ne pourront être utilisées qu’à titre exceptionnel et uniquement sur demande expresse des chercheurs adressée aux agences de financement., s’appuyant sur un motif légitime invoqué au cas par cas.

Dans son article, Brigitte Vézina démontre précisément qu’il ne devrait exister que très peu de cas dans lesquels l’utilisation d’une licence ND pourra s’appuyer sur un tel motif légitime.

Voire même aucun, si on va jusqu’au bout de la logique présentée dans ce texte.

Je précise que si j’ai pu procéder à cette traduction, c’est justement parce que le billet original était placé sous une licence CC-BY – donc sans clause ND – ce qui m’a permis de réaliser cette adaptation de l’oeuvre librement, mais dans le strict respect du principe de paternité.

Pourquoi diffuser des travaux de recherche sous licence « Pas de modification » n’est pas une bonne idée

Les bénéfices du Libre Accès sont indéniables et ils deviennent de plus en plus évidents dans tous les champs de la recherche scientifique : rendre les publications académiques librement accessibles et réutilisables procure une meilleure visibilité aux auteurs, garantit un meilleur emploi des crédits publics aux financeurs et un accès plus large aux connaissances pour les autres chercheurs et le grand public. Et pourtant, en dépit de ces avantages évidents du Libre Accès, certains chercheurs choisissent de publier leurs travaux sous des licences restrictives, sur la base de l’idée fausse qu’elles préserveraient mieux l’intégrité scientifique que les licences plus ouvertes.

La fraude académique, qu’elle prenne la forme du trucage des résultats, du plagiat ou du recours à des officines spécialisées pour rédiger ses travaux, est sans aucun doute un problème sérieux dans la communauté académique, partout dans le monde. Néanmoins, il s’agit d’un problème ancien, qui existait bien avant l’avènement des technologies numériques et des licences libres (comme les Creative Commons). Il est clair que le Libre Accès n’est pas la cause de la fraude académique, pas plus qu’il ne l’encourage ou l’aggrave.

Dans ce billet de blog, nous expliquons que l’utilisation de licences restrictives pour la diffusion des travaux académiques constitue une approche peu judicieuse pour résoudre les questions d’intégrité scientifique. Plus précisément, nous démontrons qu’utiliser une licence Creative Commons « Pas de modification » (No Derivative – ND) sur des publications académiques est non seulement peu pertinent pour juguler la fraude académique, mais aussi et surtout susceptible d’avoir un effet négatif sur la diffusion des résultats de la recherche, spécialement lorsqu’ils sont financés par des crédits publics. Nous mettons également en lumière que les garanties associées aux licences réellement ouvertes (comme la CC-BY ou la CC-BY-SA) sont à même d’enrayer les pratiques malveillantes, en plus des autres recours existants en cas de fraude académique et d’abus similaires.  

Les licences « Pas de modification » (CC-BY-ND et CC-BY-NC-ND) permettent aux utilisateurs de copier et de rediffuser une œuvre, mais interdisent de l’adapter, de la remixer, de la transformer, de la traduire, de la mettre à jour, de manière à produire une œuvre seconde. En résumé, elles interdisent de réaliser des œuvres dérivées ou des adaptations.

Les chercheurs font tous du remix

Les chercheurs publient pour être lus, pour avoir un impact et pour rendre le monde meilleur. Pour atteindre ces objectifs importants, il est préférable que les chercheurs autorisent la réutilisation et l’adaptation de leurs publications et de leurs données de recherche. Ils devraient également pouvoir réutiliser et adapter les publications et les données des autres chercheurs. Isaac Newton, un des scientifiques les plus influents de tous les temps, est l’auteur de cette citation célèbre : « Si j’ai vu plus loin, c’est en me tenant sur les épaules des géants », ce qui signifie que la production de nouvelles connaissances ne peut advenir que si les chercheurs peuvent s’appuyer sur les idées et les publications de leurs pairs et de leurs prédécesseurs, pour les revisiter, les réutiliser et les transformer, en ajoutant couche après couche de nouvelles connaissances. Les chercheurs sont des remixeurs par excellence : le Libre Accès est le moyen par excellence de favoriser le remix.

Les publications sous licence ND ne sont pas en Libre Accès

Les articles placés sous une licence ND ne peuvent pas être considérées comme en Libre Accès, si l’on se base sur la définition originelle établie en 2012 par l’initiative de Budapest pour le Libre Accès et les recommandations qui s’en sont suivies. Les licences ND restreignent de manière excessive la réutilisation des contenus par les collègues chercheurs et limitent leur possibilité de contribuer à l’avancement des connaissances. C’est la principale raison pour laquelle il est déconseillé d’appliquer des licences ND aux publications universitaires. Bien que les licences ND soient utilisées pour certains types de contenu, tels que les documents officiels qui ne sont pas censés être modifiés de manière substantielle, leur utilisation pour interdire les adaptations de publications universitaires va à l’encontre de l’éthique de la recherche universitaire. En fait, la clause ND nuit aux chercheurs.

Par exemple, les licences ND empêchent les traductions. Dès lors, puisque l’anglais est la langue dominante dans la recherche, les licences ND entravent l’accès à la connaissance pour les publics ne parlant pas anglais et limite la diffusion de la recherche au-delà de la sphère anglophone. Les licences ND empêchent aussi l’adaptation des graphiques, des images et des diagrammes inclus dans les articles de recherche (à moins qu’ils ne soient placés sous des licences distinctes permettant l’adaptation), qui sont souvent essentiels pour favoriser une diffusion plus large des idées sous-jacentes.

Les réutilisations peuvent aussi être découragées du fait des différences à la manière dont les « adaptations » sont définies dans les lois sur le droit d’auteur dans différents pays et des variations dans la façon dont les différentes exceptions et limitations au droit d’auteur peuvent s’appliquer. Un exemple significatif concerne la fouille et exploration de textes et de données (Text and Data Mining) utilisée pour produire de nouvelles connaissances à partir de matériaux pré-existants. Certains lois sont très claires à propos de la possibilité pour les chercheurs de faire du TDM sur la base d’une exception au droit d’auteur, même lorsqu’une adaptation intervient au cours du processus de TDM et lorsque le résultat produit peut être considéré comme une adaptation des matériaux de base. Le recours à une licence ND peut alors être interprété par erreur comme interdisant des activités pourtant parfaitement légales par ailleurs et constituent alors une nouvelle entrave à l’avancement de la Science.

Certains remix restent de toutes façons possibles malgré les licences ND

Quoi qu’il en soit, les licences ND ne suppriment pas complètement la possibilité de réutiliser ou d’adapter des publications académiques. D’abord, les licences ne limitent pas les droits dont les utilisateurs peuvent disposer grâce aux exceptions et limitations au droit d’auteur, comme la citation, l’analyse et la critique et le bénéfice du fair dealing ou du fair use. De plus, la Foire Aux Questions de notre site précise qu’en règle générale, le fait de prendre un extrait dans une œuvre pour illustrer une idée ou fournir un exemple au sein d’une autre œuvre ne produit pas une œuvre dérivée. Il s’agit alors d’un acte de reproduction et non pas une amélioration de l’œuvre préexistante qui seule pourrait être considérée comme une violation de la licence ND. Or toute les licences Creative Commons donnent le droit de reproduire l’œuvre, a minima dans un cadre non-commercial et parfois au-delà (en fonction de la licence retenue).

Toutefois, une personne qui souhaite adapter une publication placée sous licence ND peut demander l’autorisation de le faire à l’auteur, qui peut alors lui accorder une licence individuelle. Mais cela ajoute des coûts de transaction inutiles qui pèsent sur les réutilisateurs, lesquels peuvent choisir de de tourner vers d’autres sources plutôt que d’affronter le processus souvent fastidieux de la demande d’autorisation.

Bien qu’il existe des moyens légaux de réutiliser une œuvre sous licence ND, ils s’avèrent souvent mal adaptés au contexte de la recherche universitaire.

Toutes les licences Creative Commons imposent de respecter la paternité

De multiples protections contre les risques d’appropriation et de détournement sont incorporées dans toutes les licences CC, qui disposent à présent d’un solide historique d’application contre des réutilisateurs qui violeraient les termes des licences. Ces garanties, qui viennent s’ajouter et pas remplacer les pratiques et règles en vigueur dans le monde académique, procurent une couche supplémentaire de protection pour la réputation des auteurs originaux qui devraient les rassurer contre le risque de voir des modifications apportées à leurs œuvres leur être attribuées à tort :

  • Le respect de la paternité de l’auteur est prévu dans les six licences Creative Commons. L’attribution de l’œuvre à l’auteur (que l’on appelle souvent « citation » dans le monde académique) doit être effectuée dans la mesure où elle peut raisonnablement être opérée compte tenue des moyens, du média et du contexte de la réutilisation et à moins que l’auteur demande de ne pas le faire (droit de non- paternité qui existe également).
  • Les réutilisateurs n’ont pas le droit d’utiliser l’attribution de l’œuvre à l’auteur pour faire endosser à celui-ci les vues et opinions qu’ils expriment à l’occasion de la réutilisation.
  • Les modifications apportées à l’œuvre originale doivent être identifiées par le réutilisateur et un lien vers l’œuvre originale doit être effectué. Cela permet au public de voir ce qui a été modifié et, ainsi, de discerner ce qui doit être attribué au réutilisateur et non à l’auteur original. Pour plus de précisions voyez la section 3.a du contrat de la licence CC-BY 4.0.

Le droit d’auteur n’est pas le meilleur outil pour faire respecter l’intégrité de la recherche scientifique

Au final, les lois sur le droit d’auteur et les licences Creative Commons qui sont basées sur elles ne constituent pas le cadre le plus approprié pour régler les problèmes de respect de l’intégrité de la recherche. De meilleurs résultats peuvent être atteints à travers la définition et l’application de normes sociales, de principes éthiques et de codes de conduite pertinents et bien établis, reconnus par des institutions. Tout compte fait, les chercheurs ne se rendent pas service à eux-mêmes lorsqu’ils utilisent une licence ND pour diffuser leurs travaux. Pour optimiser la diffusion et accroitre leur impact social, nous recommandons le partage des publications académiques selon les conditions les plus ouvertes possibles, en utilisant la licence CC-BY pour les articles et la CC0 pour les données.

Low Tech, logiciels libres et Open Source : quelles synergies à développer ?

Le mois dernier l’association Ritimo a publié un numéro de sa collection Passerelle consacré à la question du Low Tech (consultable en libre accès). Dans ce cadre, l’association m’a demandé de contribuer par un article sur les liens entre le Low Tech, les logiciels libres et l’Open Source. Je me suis efforcé de m’acquitter de cette tâche en montrant que les rapports entre le Low Tech (ou « basses technologies ») et le Libre étaient sans doute plus ambivalents qu’il n’y paraît, tout en montrant que les synergies entre ces courants étaient également évidentes.

Je vous invite vivement à consulter les autres articles de ce numéro très riche qui éclairent différentes dimensions – techniques, philosophiques, politiques, etc. – des Low Techs. Je colle ci-dessous la présentation générale du document, ainsi que l’introduction de mon article (le texte complet est disponible en Libre Accès sur HAL).

Depuis les années 2000 et la massification des « high tech », le monde a indubitablement changé de visage. Alors qu’elles sont présentées comme facilitant le quotidien, les technologies numériques posent de nouveaux problèmes en termes d’accès aux droits, de justice sociale et d’écologie. Consommation énergétique, extractivisme, asservissement des travailleur·ses du « numérique », censure et surveillance généralisées, inégalités face au numérique… autant de domaines dans lesquels les outils que nous utilisons, individuellement et collectivement, pèsent sur l’organisation des sociétés et sont au cœur de débats de vitale importance.

C’est donc en ce sens que cette publication explore le domaine des low tech (« basses-technologies », c’est-à-dire techniques simples, accessibles et durables) –par opposition aux high tech. En effet, questionner la place des technologies dans la société implique tout d’abord de poser un certain nombre de constats et d’analyses sur les problèmes que posent ces high tech, et qui ne sont pas toujours mis en évidence. Face à cela, comment penser des technologies numériques utiles et appropriables par le plus grand nombre, tout en étant compatibles avec un projet de société soutenable dans un contexte de crise environnementale et climatique qui s’accélère ?

Les technologies conçues et utilisées par les sociétés sont le reflet exact de la complexité de leur organisation interne, de leur mode de prise de décision et de leur relation avec le monde qui les entoure. Se réapproprier collectivement, démocratiquement et le plus largement possible les technologies afin d’en maîtriser les coûts et d’en mutualiser les bénéfices, tel est l’enjeu dans un monde où la crise politique, sociale et écologique se fait de plus en plus pressante. Ce nouveau numéro de la collection Passerelle se veut, en ce sens, un espace de réflexion sur les problématiques et les expérimentations d’alternatives autour des technologies numériques.

Low Tech, logiciels libres et Open Source : quelles synergies à développer ?

Qu’est-ce qu’un « matériel libre » ? Juste une technologie physique développée selon les principes des « ressources libres » (open source). Il regroupe des éléments tangibles — machines, dispositifs, pièces — dont les plans ont été rendus publics de façon que quiconque puisse les fabriquer, les modifier, les distribuer et les utiliser.

[…] De nombreux logiciels et matériels libres existent déjà (et même des réseaux sociaux libres). L’enjeu semble surtout (mais c’est complexe) de les associer et de les articuler intelligemment, de tracer une ligne pure et libre qui aille du zadacenter au traitement de texte où je taperai ces mots. C’est un bel horizon à atteindre pour s’émancyber là où aujourd’hui on cyberne dans nos hivers numériques, en se faisant berner.

Alain Damasio. Matériel Libre, Vie Libre ! Zadacenters & Rednet ! Lundimatin, 9 mai 2017[1].

Dans le texte ci-dessus, l’auteur Alain Damasio défend l’idée que la lutte pour les libertés et l’émancipation passe aujourd’hui par la réappropriation de la couche matérielle dont dépendent nos pratiques numériques. Une telle perspective ne relève pas uniquement de la Science-Fiction, puisque depuis plusieurs années, le mouvement de l’Open Hardware applique au matériel les mêmes procédés qui ont permis, depuis plus de 20 ans, le développement du logiciel libre et de l’Open Source[2].

De la même manière que l’on peut publier les sources d’un logiciel pour garantir des libertés aux utilisateurs, en favorisant le partage des connaissances et le travail collaboratif, on peut diffuser les plans de machines sous licence libre pour permettre à d’autres de les construire et de les améliorer. Là où la propriété intellectuelle sert traditionnellement à garantir des exclusivités et imposer des restrictions, les licences libres favorisent des approches inclusives qui étendent les usages. Transposée du logiciel au matériel, on a ainsi vu ces dernières années cette logique du Libre et de l’Open Source s’appliquer à des micro-contrôleurs (Arduino), des prothèses médicales (Bionicohand), des voitures (Wikispeed), des smartphones (Fairphone), du matériel agricole (Open Source Ecology), des imprimantes 3D (RepRap) etc[3].

Ces projets ne se rattachent pourtant pas toujours aux Low Tech – ces « basses technologies » entendant apporter une réponse à la crise écologique par le recours à des solutions simples, conviviales et peu consommatrices en ressources et en énergie[4]. En effet, les principes du logiciel libre et de l’Open Source peuvent tout aussi bien être mobilisés par les High Tech que les Low Tech. A l’origine, le logiciel libre est issu de communautés de « hackers » : des bidouilleurs amateurs qui souhaitent proposer des alternatives aux grands firmes informatiques, type Microsoft. Mais paradoxalement, l’efficacité du développement en Open Source a séduit peu à peu les entreprises technologiques, au point que celles-ci jouent à présent un rôle important dans cette dynamique.

En 2014, la société Tesla d’Elon Musk a ainsi décidé d’abandonner les brevets qu’elle détenait pour favoriser la diffusion des batteries électriques et des stations de rechargement, afin de pousser davantage de constructeurs automobiles à adopter l’énergie électrique[5]. En mettant de côté l’exclusivité liée à la propriété intellectuelle, cet exemple s’inscrit certes dans la philosophie de l’Open Source, mais sans pour autant se rattacher au mouvement des Low Tech. Tesla fait même partie de ces acteurs prônant l’idée inverse que c’est grâce à une technologie toujours plus poussée que l’on pourra répondre aux problèmes écologiques.

Il n’y a donc pas d’association systématique et nécessaire entre logiciels libres, Open Source et Low Tech. Néanmoins, on peut montrer que le développement des Low Tech gagnerait à s’appuyer sur les principes du Libre et de l’Open Source, et l’on peut déjà citer un certain nombre d’exemples œuvrant dans ce sens. De la même manière, le Libre et l’Open Source gagneraient sans doute aussi à se lier davantage aux Low Tech pour renouer avec leur philosophie originelle, diminuer leur dépendance aux grandes entreprises et mieux prendre en compte les enjeux écologiques.

Retrouver la suite de l’article sur le site de l’association Ritimo.


[1] https://lundi.am/Contribution-Damasio-a-l-appel-de-Lundi-matin-8-mai

[2] Voir Camille Paloque-Berges et Christophe Masutti (dir.). Histoires et cultures du Libre. Framabook, 2013 : https://framabook.org/histoiresetculturesdulibre/

[3] Voir l’entrée matériel libre sur Wikipédia : https://fr.wikipedia.org/wiki/Mat%C3%A9riel_libre

[4] Voir Philippe Bihouix. L’âge des Low Tech : vers une civilisation techniquement soutenable. Seuil, Anthropocène, 2014.

[5] Elon Musk offre les brevets de Tesla en Open Source. Economie matin, 14 juin 2014 : http://www.economiematin.fr/news-tesla-brevets-open-source-voiture-electrique

Leurs Communs numériques ne sont (toujours) pas les nôtres !

En 2017, j’ai déjà écrit un billet intitulé : « Les biens communs d’Emmanuel Macron ne sont pas les nôtres !« . Quelques mois après son accession à la fonction présidentielle, Macron s’était en effet essayé à glisser régulièrement des allusions aux « biens communs » dans ses discours, notamment au sujet de sa stratégie en matière de numérique. Mais il le faisait en donnant à cette expression un sens très différent de celui employé par les militants des Communs numériques et j’avais éprouvé alors le besoin de rappeler quelques fondamentaux…

Depuis, les tentatives de récupération politique des Communs se sont multipliées, à tel point que le Commons Washing semble en passe de devenir un nouveau sport national. Au cours de la campagne des municipales, par exemple, une multitude de listes « Par-ci en commun » ou « Par-là en commun » sont apparues en s’essayant, avec plus ou moins d’habileté (et/ou de cynisme), à cette pratique du recyclage opportuniste.

Mais cette semaine, je suis tombé par hasard sur un usage particulièrement osé du terme de « Commun numérique » qui mériterait sans doute un Commons Washing Award, si une telle anti-distinction existait (une idée d’ailleurs à garder de côté…).

Les Communs numériques, selon Sibeth NDiaye

L’ineffable Sibeth NDiaye, la porte-parole du gouvernement bien connue pour ses sorties explosives, était l’invitée jeudi du « 8h30 » de FranceInfo et elle a passé en revue un certain nombre de sujets liés à la crise du coronavirus. Parmi ceux-ci figurait la question de StopCovid, l’application de traçage numérique (backtracking) envisagée en ce moment par le gouvernement comme un des moyens d’accompagner le déconfinement, en soulevant au passage un débat houleux sur les atteintes potentielles aux libertés et les conséquences sociales d’un tel dispositif.

Voyez ici l’enregistrement, à partir de 17’20, et je retranscris ses propos à la suite :

Question du journaliste : Un mot sur le traçage des malades : quelles sont les limites que vous fixez à cette stratégie en terme de respect des libertés ? (…) Ces applications existent déjà, je pense notamment à celle utilisée à Singapour (…) qui prévoit non pas de stocker les données de géolocalisation contenues dans les téléphones, mais sur la base du volontariat, d’enregistrer dans son propre appareil, les identifiants des personnes que l’ont a croisées pendant plusieurs semaines et, si on a été en contact avec un malade de recevoir une alerte. Est-ce que ce système vous semble réalisable en France ?

Réponse : C’est effectivement un principe similaire auquel nous pensons, en tenant compte de ce que sont les piliers de la protection des données, dans le cadre européen, mais aussi de la protection des libertés publiques. L’application que nous envisageons ne peut être proposée que sur la base du volontariat et d’une anonymisation des données et de leur conservation temporaire, le temps que cela utile au suivi épidémiologique (…).

Cette application peut constituer un appui, mais aujourd’hui nous n’avons pas le recul suffisant pour savoir avec certitude si elle sera utile d’un point de vue sanitaire. On se met donc en situation de pouvoir chercher, y compris avec des partenaires européens, l’Allemagne, la Suisse ; que ce soit un code ouvert, ce qu’on appelle l’Open Source, qui permettra à chacun de vérifier que ce qui est fait dans l’application est bien réalisé dans l’application, qui permettra aussi d’avoir un Commun numérique, c’est-à-dire que c’est une application qui pourrait être disponible de manière gratuite dans tous les pays qui souhaiteraient l’utiliser.

J’aimerais beaucoup savoir par quels détours la notion de « Communs numériques » est arrivée jusque dans la bouche de Sibeth NDiaye, qui a bien pu lui souffler de l’utiliser dans un tel contexte et quelle réunion sur les « éléments de langage » a pu accoucher de l’idée qu’il était pertinent de présenter cette application de backtracking comme un Commun… Il est vrai que l’équation simpliste « Open Source = Communs » est déjà fort en vogue dans certains cercles qui s’occupent du numérique au niveau de l’État et on a déjà pu voir ce type de réductionnisme sévir à propos d’autres sujets (voir, par exemple, la saga édifiante du Pass Culture, qui devait lui aussi être « formidable-parce-qu’en-Open-Source », et qui a terminé d’une manière particulièrement navrante, à mille lieux de ce que peut être un Commun).

StopCovid, un Commun numérique ? Vraiment ?

Entendons-nous bien : je ne suis pas en train de critiquer le fait que l’État envisage de développer cette appli en Open Source. C’est même le minimum minimorum à attendre d’un outil qui soulève par ailleurs de lourdes craintes quant à ses répercussions potentielles pour la vie privée et les libertés. Notons d’ailleurs que l’État ne devrait en retirer aucun mérite, car depuis 2016 et la loi République Numérique TOUS les logiciels développés par les administrations devraient être diffusés par défaut en Open Source. Sauf que cette obligation légale est encore très largement ignorée – ou bafouée sciemment – et les administrations continuent donc à choisir ce qu’elles ouvrent ou ce qu’elles ferment, ruinant la capacité de l’Open Source à contribuer au contrôle citoyen de l’action de l’État.

Ce que je conteste, c’est qu’il suffise de diffuser un logiciel en Open Source pour que l’on puisse en parler comme d’un « Commun numérique » et on s’en rend rapidement compte en lisant quelques uns des papiers parus ces derniers jours à propos de StopCovid. Allez lire notamment la déclaration de l’OLN (Observatoire des Libertés et du Numérique, regroupant la Ligue des Droits de l’Homme, le Syndicat de la Magistrature, le Syndicat des Avocats, La Quadrature du Net, etc.) : « La crise sanitaire ne justifie pas d’imposer des technologies de surveillance » :

Concernant les applications de suivi des contacts, elle sont présentées comme peu dangereuses pour la confidentialité des données personnelles puisqu’il y aurait peu de collecte de données, mais essentiellement des connexions par Bluetooth d’un téléphone à un autre. C’est oublier que la notion de consentement libre, au cœur des règles de la protection des données, est incompatible avec la pression patronale ou sociale qui pourrait exister avec une telle application, éventuellement imposée pour continuer de travailler ou pour accéder à certains lieux publics. Ou que l’activation de ce moyen de connexion présente un risque de piratage du téléphone. Il est par ailleurs bien évident que l’efficacité de cette méthode dépend du nombre d’installations (volontaires) par les personnes, à condition bien sûr que le plus grand nombre ait été dépisté. Si pour être efficaces ces applications devaient être rendues obligatoires, « le gouvernement devrait légiférer » selon la présidente de la CNIL. Mais on imagine mal un débat parlementaire sérieux dans la période, un décret ferait bien l’affaire ! Et qui descendra manifester dans la rue pour protester ?

Des débats sans fin ont lieu actuellement pour savoir s’il est possible de produire une application respectant les principes du « Privacy By Design », en utilisant la technologie bluetooth qui évite d’avoir à stocker des données de manière centralisée. C’est un point important, mais j’ai tendance à penser qu’il ne constitue pas le coeur du problème. Hubert Guillaud a parfaitement montré dans un papier paru cette semaine que même une application parfaitement respectueuse de la vie privée soulèverait encore des difficultés redoutables :

L’application — pourtant “privacy by design” — n’est pas encore déployée que déjà on nous prépare aux glissements, autoritaires ou contraints ! Le risque bien sûr est de passer d’un contrôle des attestations à un contrôle de l’application ! Un élargissement continu de la pratique du contrôle par la police qui a tendance à élargir les dérives… Ou, pour le dire avec la force d’Alain Damasio : “faire de la médecine un travail de police”.

Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !

Le risque du glissement, c’est de croire qu’en lançant StopCovid nous pourrons toujours l’améliorer. C’est de croire, comme toujours avec le numérique, qu’il suffit de plus de données pour avoir un meilleur outil. C’est de continuer à croire en la surenchère technologique, sans qu’elle ne produise d’effets autres que la fin des libertés publiques, juste parce que c’est la seule solution qui semble rationnelle et qui s’offre à nous !

Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?

Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !

Il ne peut dès lors être question de parler de « Commun numérique » à propos du délire techno-solutionniste que constitue cette application, parce qu’elle s’attaque aux principes mêmes qui permettent à tous les Communs d’exister. Elinor Ostrom affirmait qu’aucun Commun ne peut émerger sans s’enraciner dans deux éléments capitaux : la confiance et la réciprocité. En nous transformant potentiellement tous en agents de police sanitaire, cette application constituerait une étape supplémentaire vers cette « société de la défiance » généralisée, qu’Emmanuel Macron a déjà appelée de ses voeux en employant les termes plus lisses de « société de vigilance« .

J’ai beaucoup aimé dans cet esprit la tribune publiée par Arthur Messaud, juriste à la Quadrature du Net, intitulée « Devenir des robots pour échapper au virus« . Il montre bien les risques de déshumanisation liés au déploiement massif de technologies de surveillance auquel nous sommes en train d’assister à la faveur de cette crise, en soulignant en contrepoint le rôle majeur que devrait continuer à jouer la confiance :

Les enjeux de santé publique exigent de maintenir la confiance de la population, que celle-ci continue d’interagir activement avec les services de santé pour se soigner et partager des informations sur la propagation du virus. Les technologies de surveillance, telle que l’application envisagée par le gouvernement, risquent de rompre cette confiance, d’autant plus profondément qu’elles seront vécues comme imposées.

(…) Pour éviter une telle situation, plutôt que de prendre la voie des robots — tracés et gérés comme du bétail —, nous devons reprendre la voie des humains – solidaires et respectueux. Tisser et promouvoir des réseaux de solidarité avec les livreurs, les étrangers, les sans-abris, les soignants, augmenter le nombre de lits à l’hôpital, de masques pour le public, de tests pour permettre aux personnes malades de savoir qu’elles sont malades, de prendre soin d’elles-mêmes et de leur entourage, en nous faisant confiance les-unes les-autres – voilà une stratégie humaine et efficace.

Vous comprendrez dès lors que je puisse voir rouge en entendant parler de cette application comme d’un potentiel « Commun numérique », juste parce que le code sera mis à disposition. C’est d’ailleurs un problème qui affecte plus généralement l’Open Source et le logiciel libre : ces outils ont été mis en place sur la base d’une certaine philosophie qui ne se préoccupe que du statut juridique du logiciel (certifié par l’apposition d’une licence), mais pas des finalités, et qui, dans une certaine mesure, rend même impossible toute discussion sur les finalités.

J’en avais déjà parlé dans un billet l’an dernier, en soulignant mes doutes à propos de « l’agnosticisme du Libre » :

En réalité, le logiciel libre repose sur une conception libertarienne de la liberté, impliquant une suspension du jugement moral et un agnosticisme strict quant aux fins poursuivies (…). Cela laisse entière la question de savoir à quoi le logiciel est utilisé : servira-t-il à faire marcher un drone de guerre ou un appareil médical destiné à sauver des vies ? Une licence libre s’interdit absolument de porter ce type de jugement.

On voit ici très bien la limite de cette approche et il ne faut pas s’étonner ensuite que l’aveuglement revendiqué vis-à-vis des fins ouvre la porte aux récupérations politiques, en transformant l’Open Source en argument commode pour « commons-washer » quelque chose d’aussi problématique qu’une application de backtracking.

Et pourtant, ils tournent (les Communs numériques !)

Est-ce à dire néanmoins que les Communs numériques n’ont joué aucun rôle dans cette crise du coronavirus et qu’il faut s’interdire de recourir à cette notion pour décrire ce qui s’est passé ? Certainement pas ! Mais ce n’est (hélas) pas vers l’État qu’il faut se tourner pour apercevoir ce que les Communs numériques ont pu apporter pour surmonter les épreuves auxquelles nous sommes confrontés. Depuis le début de la crise, c’est sans doute du côté du mouvement des Makers et des FabLabs qu’il faut aller voir pour comprendre le rôle joué par les Communs numériques dans un tel contexte.

C’est ce qu’explique ce communiqué de presse publié cette semaine par le Réseau Français des Fablabs :

Depuis le début de la crise sanitaire, les Makers français se mobilisent pour lutter contre la propagation du COVID 19 en mettant leurs compétences et leurs outils au service de la société civile.

En quelques jours, notre action, c’est plus de :

– 5 000 bénévoles mobilisés et 100 fablabs en action,

– 50 prototypes (masque, visière, respirateur, pousse-seringue…),

– Des outils collaboratifs de communication (Discord, Facebook, YouTube…),

– 10 000 masques de protection en tissu,

– 100 000 visières antiprojections.

Les Makers appliquent un monde de savoir-faire et de connaissances techniques et scientifiques locales et globalement connectées : les Communs.

Dynamiques itératives et ouvertes de prototypage, recherche et développement collectifs, validation de concepts et de financement sur des temps extrêmement courts, ils sont tous engagés dans l’effort collectif. Ils montrent leur pertinence et leur capacité à déployer cette connaissance ouverte en tous points des territoires.

Si aujourd’hui, ils ont réussi à produire dans l’urgence du matériel médical, c’est grâce à leur culture et à leurs pratiques des Communs. En produisant des modèles Open Source et en les faisant circuler dans le monde entier, ils ont permis de fabriquer très vite des équipements performants et utilisables par le personnel soignant et la société civile.

La manière dont les Makers ont réagi pendant cette crise correspond tout à fait à ce que Michel Bauwens, penseur important du mouvement des Communs, appelle la « Cosmo-localisation ». En appliquant l’adage « Tout ce qui est léger doit monter et tout ce qui est lourd doit descendre« , on pourrait réorganiser notre système de production en mutualisant les connaissances partagées sous licence libre et en relocalisant la production au plus proche, au sein de petites unités agiles dont les FabLabs offrent le modèle. Les réalisations des Makers montrent que cette vision n’est pas seulement une utopie, mais pourrait servir à réorganiser notre économie dans le cadre d’une « Société des Communs ».

Pourtant, il semblerait que cette contribution des « commoners » à la situation de crise reste encore assez largement dans l’angle mort des pouvoirs publics. Un article publié en début de semaine sur le site Makery montre bien l’étendue du problème : « Covid-19 : la mobilisation des makers français est sans précédent, il serait temps que l’État s’en rende compte« . Alors même que l’action des Makers commence à être reconnue par les hôpitaux et que des formes de collaboration s’organisent, comme la plateforme « Covid3D » de l’APHP, les appels lancés aux pouvoirs publics par la communauté pour obtenir du soutien restent pour l’instant sans réponse.

Le fait que d’un côté l’État instrumentalise à son avantage la notion de Communs numériques tout en ignorant de l’autre les acteurs de terrain qui s’inscrivent dans cette démarche est tout à fait cohérent. Le meilleur moyen d’invisibiliser des émergences au sein d’une société consiste précisément, non seulement à ne pas les soutenir matériellement, mais à les dépouiller symboliquement de leur propre langage pour mieux brouiller le sens et semer la confusion. Dit autrement : il ne faut jamais oublier d’ajouter l’injure à la blessure et c’est de cette basse besogne dont Sibeth NDiaye s’est chargée sur FranceInfo, alors que, quelques temps auparavant, une lettres ouverte envoyée par le Réseau des Fablabs au Président Macron recevait une simple réponse-type de « courtoisie »…

C’est pourtant à travers la mise en place de « partenariats Publics-Communs« , équilibrés et réciproques, que l’on pourra réussir à libérer le potentiel des Communs et à en faire un élément de transformation sociale. L’État fait déjà pleuvoir les milliards pour sauver les gros mastodontes du monde industriel et remettre en marche le plus vite possible l’économie en mode « business as usual« . Mais peut-être d’autres acteurs publics, du côté des collectivités locales, par exemple, finiront-ils par comprendre qu’il faut changer de rail et qu’une des manières de le faire passe par la reconfiguration des rapports entre Communs et action publique.

De l’urgence à (re)penser les « Communs d’après »

Il faudra aussi un jour s’attaquer frontalement à ce problème de la récupération politique du discours sur les Communs et cela impliquera sans doute une révision très profonde de la manière de les conceptualiser. En simplifiant trop le propos pour le diffuser, nous avons en effet sans doute nous-mêmes ouverts la porte au Commons Washing

Le tryptique réducteur (Un commun, c’est une ressource, une communauté et une gouvernance) – que j’appelle désormais Vulgate des Communs – est trop pauvre pour rendre compte de la complexité de l’approche par les Communs et il comporte par ailleurs de nombreux sous-entendus problématiques. Dans le monde du logiciel libre et de l’Open Source, l’indifférence aux fins poursuivies est tout simplement devenue insupportable et les Communs numériques ont hérité d’une véritable « tare » dont les licences libres étaient déjà porteuses. Cela devrait nous inciter urgemment à prêter attention à des projets alternatifs comme l’Hypocratic Licence, qui remet la question des fins et de la protection des droits fondamentaux au cœur du dispositif.

Certains en France, comme Geneviève Fontaine avec ses précieux « Communs de capabilités », ont proposé des pistes pour rendre les Communs indissociables de valeurs comme la justice sociale. Et pour ce qui est des rapports entre Communs et Numérique, il faudra également conduire un travail de fond pour faire en sorte que les Communs ne puissent plus être enrégimentés au service de l’idéologie techno-solutionniste, dont l’application StopCovid constitue une incarnation caricaturale. Peut-être que pour ce faire, une notion comme celle des « Communs négatifs » pourrait s’avérer utile, en réinterrogeant de manière critique la possibilité d’utiliser le numérique à des fins d’émancipation ?

Bref, s’il s’agit de penser un « monde d’après », encore faut-il pouvoir disposer de notions qui ne puissent pas si facilement être détournées par ceux qui cherchent, à toute force, à faire revenir le « monde d’avant ». Et il nous faudra donc pour cela arriver à (re)penser les « Communs d’après ». Sans tarder.

Crise ou pas crise, nous avons besoin tout le temps d’un savoir ouvert !

Avec Silvère Mercier et Julien Dorra, nous co-signons ce texte, publié ce jour sur le Framablog. Il appelle à titrer les conséquences de cette crise du coronavirus sur les questions de diffusion des connaissances, en demandant la mise en place d’un Plan National pour la Culture Ouverte, l’Education Ouverte et la Santé Ouverte.

Merci à l’équipe de Framasoft pour ses relectures et pour nous avoir accueilli sur le Framablog. Et si vous êtes d’accord avec les idées exprimées dans ce texte, n’hésitez pas à le diffuser autour de vous largement ! Nous vous proposons d’ailleurs à cet effet un kit de repartage du texte (cliquez ici).

Les instruments de la connaissance. Détail du tableau Les Ambassadeurs d’Hans Holbein. Domaine Public. Wikimedia.

Pour un Plan National pour la Culture Ouverte, l’Education Ouverte et la Santé Ouverte !

La crise sanitaire du coronavirus nous oblige à réévaluer ce qui est fondamental pour nos sociétés. Les personnes essentielles sont bien souvent celles qui sont invisibilisées et même peu valorisées socialement en temps normal. Tous les modes de production sont réorganisés, ainsi que nos formes d’interaction sociale, bouleversées par le confinement.

Dans ce moment de crise, nous redécouvrons de manière aigüe l’importance de l’accès au savoir et à la culture. Et nous constatons, avec encore plus d’évidence, les grandes inégalités qui existent parmi la population dans l’accès à la connaissance. Internet, qui semble parfois ne plus être qu’un outil de distraction et de surveillance de masse, retrouve une fonction de source de connaissance active et vivante. Une médiathèque universelle, où le partage et la création collective du savoir se font dans un même mouvement.

Face à cette situation exceptionnelle des institutions culturelles ou de recherche, rejointes parfois par des entreprises privées, font le choix d’ouvrir plus largement leurs contenus. On a pu ainsi voir des éditeurs donner un accès direct en ligne à une partie des livres de leur catalogue. En France, plusieurs associations de bibliothèques et d’institutions de recherche ont demandé aux éditeurs scientifiques de libérer l’intégralité des revues qu’ils diffusent pour favoriser au maximum la circulation des savoirs et la recherche. Aux États-Unis, l’ONG Internet Archive a annoncé le lancement d’une National Emergency Library libérée de toutes les limitations habituelles, qui met à disposition pour du prêt numérique 1,4 millions d’ouvrages numérisés.

« Personne ne doit être privé d’accès au savoir en ces temps de crise », entend-on. « Abaissons les barrières au maximum ». L’accès libre et ouvert au savoir, en continu, la collaboration scientifique et sociale qu’il favorise, ne représente plus seulement un enjeu abstrait mais une ardente nécessité et une évidence immédiate, avec des conséquences vitales à la clé.

Il aura fallu attendre cette crise historique pour que cette prise de conscience s’opère de manière aussi large. Mais cet épisode aura aussi, hélas, révélé certaines aberrations criantes du système actuel.

Ainsi, le portail FUN a décidé de réouvrir l’accès aux nombreux MOOC (Massive Online Open Courses) qui avaient été fermés après leur période d’activité. Ces MOOC « à la française » n’avaient donc, dès le départ, qu’une simple étiquette d’ouverture et vivent selon le bon vouloir de leurs propriétaires.

Pire encore, le Centre National d’Enseignement à Distance (CNED) s’est opposé à la diffusion de ses contenus en dehors de son propre site au nom de la « propriété intellectuelle ». L’institution nationale a adressé des menaces à ceux qui donnaient accès à ses contenus, alors que ses serveurs étaient inaccessibles faute de soutenir l’affluence des visiteurs. Voici donc mise en lumière l’absurdité de ne pas diffuser sous licence libres ces contenus pourtant produit avec de l’argent public !

Quelques semaines avant le développement de cette crise, le syndicat CGT-Culture publiait une tribune… contre la libre diffusion des œuvres numérisées par la Réunion des Musées Nationaux. On voit au contraire à la lumière de cette crise toute l’importance de l’accès libre au patrimoine culturel ! Il faut que notre patrimoine et nos savoirs circulent et ne soient pas sous la dépendance d’un acteur ou d’un autre !

Ces exemples montrent, qu’au minimum, une équation simple devrait être inscrite en dur dans notre droit sans possibilité de dérogation :

Ce qui est financé par l’argent public doit être diffusé en accès libre, immédiat, irréversible, sans barrière technique ou tarifaire et avec une liberté complète de réutilisation.

Cela devrait, déjà, s’appliquer aux données publiques : l’ouverture par défaut est une obligation en France, depuis 2016 et la Loi République Numérique. Cette obligation est hélas largement ignorée par les administrations, qui privent ainsi des moyens nécessaires ceux qui doivent la mettre en œuvre dans les institutions publiques.

Mais toutes les productions sont concernées : les logiciels, les contenus, les créations, les ressources pédagogiques, les résultats, données et publications issues de la recherches et plus généralement tout ce que les agents publics produisent dans le cadre de l’accomplissement de leurs missions de service public.

Le domaine de la santé pourrait lui aussi grandement bénéficier de cette démarche d’ouverture. Le manque actuel de respirateurs aurait pu être amoindri si les techniques de fabrications professionnelles et des plans librement réutilisables avaient été diffusés depuis longtemps, et non pas en plein milieu de la crise, par un seul fabricant pour le moment, pour un seul modèle.

Novel Coronavirus SARS-CoV-2
Image colorisée d’une cellule infectée (en vert) par le SARS-COV-2 (en violet) – CC BY NIAID Integrated Research Facility (IRF), Fort Detrick, Maryland

Ceci n’est pas un fantasme, et nous en avons un exemple immédiat : en 2006, le docteur suisse Didier Pittet est catastrophé par le coût des gels hydro-alcooliques aux formules propriétaires, qui limite leurs diffusions dans les milieux hospitaliers qui en ont le plus besoin. Il développe pour l’Organisation Mondiale de la Santé une formule de gel hydro-alcoolique libre de tout brevet, qui a été associée à un guide de production locale complet pour favoriser sa libre diffusion. Le résultat est qu’aujourd’hui, des dizaines de lieux de production de gel hydro-alcoolique ont pu démarrer en quelques semaines, sans autorisation préalable et sans longues négociations.

Beaucoup des barrières encore imposées à la libre diffusion des contenus publics ont pour origine des modèles économiques aberrants et inefficaces imposés à des institutions publiques, forcées de s’auto-financer en commercialisant des informations et des connaissances qui devraient être librement diffusées.

Beaucoup d’obstacles viennent aussi d’une interprétation maximaliste de la propriété intellectuelle, qui fait l’impasse sur sa raison d’être : favoriser le bien social en offrant un monopole temporaire. Se focaliser sur le moyen – le monopole – en oubliant l’objectif – le bien social – paralyse trop souvent les initiatives pour des motifs purement idéologiques.

La défense des monopoles et le propriétarisme paraissent aujourd’hui bien dérisoires à la lumière de cette crise. Mais il y a un grand risque de retour aux vieilles habitudes de fermeture une fois que nous serons sortis de la phase la plus aigüe et que le confinement sera levé.

Quand l’apogée de cette crise sera passé en France, devrons-nous revenir en arrière et oublier l’importance de l’accès libre et ouvert au savoir ? Aux données de la recherche ? Aux enseignements et aux manuels ? Aux collections numérisées des musées et des bibliothèques ?

Il y a toujours une crise quelque part, toujours une jeune chercheuse au Kazakhstan qui ne peut pas payer pour accéder aux articles nécessaires pour sa thèse, un médecin qui n’a pas accès aux revues sous abonnement, un pays touché par une catastrophe où l’accès aux lieux physiques de diffusion du savoir s’interrompt brusquement.

Si l’accès au savoir sans restriction est essentiel, ici et maintenant, il le sera encore plus demain, quand il nous faudra réactiver l’apprentissage, le soutien aux autres, l’activité humaine et les échanges de biens et services. Il ne s’agit pas seulement de réagir dans l’urgence, mais aussi de préparer l’avenir, car cette crise ne sera pas la dernière qui secouera le monde et nous entrons dans un temps de grandes menaces qui nécessite de pouvoir anticiper au maximum, en mobilisant constamment toutes les connaissances disponibles.

Accepterons-nous alors le rétablissement des paywalls qui sont tombés ? Ou exigerons nous que ce qui a été ouvert ne soit jamais refermé et que l’on systématise la démarche d’ouverture aujourd’hui initiée ?

Photographie Nick Youngson – CC BY SA Alpha Stock Images

Pour avancer concrètement vers une société de l’accès libre au savoir, nous faisons la proposition suivante :

Dans le champ académique, l’État a mis en place depuis 2018 un Plan National Pour la Science Ouverte, qui a déjà commencé à produire des effets concrets pour favoriser le libre accès aux résultats de la recherche.

Nous proposons que la même démarche soit engagée par l’État dans d’autres champs, avec un Plan National pour la Culture Ouverte, un Plan National pour l’Éducation Ouverte, un Plan National pour la Santé Ouverte, portés par le ministère de la Culture, le ministère de l’Education Nationale et le ministère de la Santé.

N’attendons pas de nouvelles crises pour faire de la connaissance un bien commun.

Ce texte a été initié par :

  • Lionel Maurel, Directeur Adjoint Scientifique, InSHS-CNRS ;
  • Silvère Mercier, engagé pour la transformation de l’action publique et les communs de capabilités ;
  • Julien Dorra, Cofondateur de Museomix.

Nous appelons toutes celles et tous ceux qui le peuvent à le republier de la manière qu’elles et ils le souhaitent, afin d’interpeller les personnes qui peuvent aujourd’hui décider de lancer ces plans nationaux : ministres, députés, directrices et directeurs d’institutions. Le site de votre laboratoire, votre blog, votre Twitter, auprès de vos contacts Facebook ou Mastodon : tout partage est une manière de faire prendre conscience que le choix de l’accès et de la diffusion du savoir se fait dès maintenant.

Ni complot, ni châtiment : penser la crise du coronavirus au-delà du dualisme

Ce billet va faire suite à un premier que j’ai publié la semaine dernière à propos de la crise du coronavirus, dans lequel j’ai essayé de mettre en perspective cet événement en l’interprétant à l’aune de la remise en question de la séparation entre Nature et Culture, dans le sillage d’auteurs comme Bruno Latour, Philippe Descola, Isabelle Stengers, Anna Tsing ou Donna Haraway.

Depuis le début du confinement, il y a quinze jours, les réactions se sont multipliées et je suis assez frappé de voir à quel point de nombreux points de vue qui s’expriment restent comme « prisonniers » du paradigme dualiste, conduisant souvent à des visions caricaturales et/ou problématiques.

Complot humain…

Prenons pour commencer les résultats d’un sondage qui ont beaucoup tourné ces derniers jours, selon lesquels plus d’un quart des français penseraient que le coronavirus a été créé en laboratoire (plus exactement, 17% estiment qu’il a été développé intentionnellement et 9% par accident). Il est assez logique qu’un événement dramatique comme la crise du coronavirus avive les tendances complotistes déjà largement présentes dans la population. Mais ce penchant à croire dans un scénario « à la X-Files » me paraît aussi typiquement une manifestation du paradigme de la séparation entre Nature et Culture, que l’on pourrait nommer « artificialisme » ou « créationnisme ». Il procède non seulement du dualisme, mais aussi d’une hiérarchisation entre Nature et Culture, qui place la seconde au-dessus de la première.

Une caricature parue dans Jeune Afrique.

Au prisme de cette ontologie, le coronavirus devient un « artefact », parce que les éléments naturels sont censés rester un « environnement », c’est-à-dire quelque chose d’extérieur à la sphère humaine et sociale. Si notre société est bouleversé par un phénomène, alors celui-ci ne peut être un simple virus : il faut qu’il ait été créé par des humains, puisque les choses humaines sont affectées seulement par d’autres choses humaines. La croyance complotiste en une création du virus en laboratoire agit donc comme ce que Bruno Latour appelle « un processus de purification », qui rétablit la distinction entre Nature et Culture lorsque celle-ci menace d’être brouillée. En un sens, on est face à la même logique que celle du climatoscepticisme niant l’implication des activités humaines dans le réchauffement climatique et il n’est pas étonnant que Donald Trump, pape mondial du climatoscepticisme, ait d’abord fait courir le bruit que le coronavirus était une « fake news » des Démocrates destinée à perturber les élections présidentielles…

On est ici un peu dans le même genre de délire « créationniste » que celui dans lequel Ridley Scott est tombé dans son préquel à Alien (Prometheus/Covenant), qui l’a poussé à imaginer que sa mythique créature – dont toute l’aura tenait au mystère de ses origines -, avait en réalité été produite comme une expérience par un androïde, lui-même construit par un milliardaire fou…

Châtiment naturel

A l’inverse, je vais citer un autre type de réactions, se raccrochant également selon moi au paradigme dualiste, mais qui constitue le reflet inversé de « l’artificialisme », hiérarchisant cette fois la Nature au-dessus de la Culture tout en maintenant la distinction. Caractéristique de cette veine, Nicolas Hulot a été interviewé ces derniers jours à propos de la pandémie et il a déclaré à ce sujet : « Je crois que nous recevons une sorte d’ultimatum de la Nature« .

Je veux rester rationnel, mais je pense que la Nature nous envoie un message. Elle nous teste sur notre détermination. Quand je parle d’un ultimatum, je pense que c’est un ultimatum au sens propre comme au sens figuré. On a eu beaucoup de signaux, mais tant que nous n’avons pas le danger palpable, on ajourne, on reporte.

Vous noterez que Nicolas Hulot commence cette tirade un brin étrange en disant « Je veux rester rationnel », pour poursuivre en présentant le virus comme un messager envoyé par « La Nature » qui nous mettrait à l’épreuve en nous sommant – une dernière fois – de changer nos comportements. Il y a évidemment de la figure de style et de la métaphore employée ici pour frapper les esprits lors d’un passage au JT. Mais à mon sens, pas seulement.

Là où le complotisme réduit le coronavirus à un artefact humain, nous avons ici un « naturalisme » qui érige la Nature en une entité anthropomorphisée et dotée d’intentions. Le complot humain de la thèse précédente fait ici place à une sorte de « complot non-humain » et, une nouvelle fois, l’effet symbolique produit est celui de rétablir la grande séparation entre Nature et Culture. C’est une impasse dans laquelle une certaine écologie – disons-là « environnementaliste » – s’est souvent perdue et il n’est pas très étonnant de voir Nicolas Hulot s’illustrer dans ce registre…

On trouve d’autres manifestations encore plus caricaturales de cette rémanence du « Grand Partage », même chez des militants écologistes pourtant souvent présentés comme les plus radicaux. Pablo Servigne, connu pour avoir popularisé en France les thèses sur l’effondrement et la collapsologie, a publié, il y a quelques jours, une sorte de « fable » qui a beaucoup fait réagir sur les réseaux. Elle met en scène un dialogue où le coronavirus, présenté comme un personnage, se rend auprès de « l’Univers » pour le questionner et lui demander pourquoi il l’a envoyé aux humains.

Le statut Facebook de Paolo Servigne sur le #Coronavirus est l'illustration caricaturale de ce @Gemenne et quelques autres craignaient à propos des conséquences de la pandémie sur la sensibilisation à la cause écologiste… pic.twitter.com/vEtRamLlTM

— Setni Baro (@Baro75020) March 26, 2020

Corona : tu es dur Univers, tu aurais pu alerter avant de taper aussi fort…

Univers : mais corona, avant toi j’ai envoyé plein d’autres petits … mais justement c’était trop localisé et pas assez fort…

Corona : tu es sûr que les hommes vont comprendre cette fois alors ?

Univers : je ne sais pas corona… je l’espère… mère terre est en danger… si cela ne suffit pas, je ferai tout pour la sauver, il y a d’autres petits qui attendent … mais j’ai confiance en toi Corona… et puis les effets se feront vite sentir … tu verras la pollution diminuera et ça fera réfléchir, les hommes sont très intelligents, j’ai aussi confiance en leur potentiel d’éveil… en leur potentiel de création de nouveaux possibles … ils verront que la pollution aura chuté de manière exceptionnelle, que les risques de pénurie sont réels à force d’avoir trop délocalisé, que le vrai luxe ce n’est plus l’argent mais le temps… il faut un burn out mondial petit car l’humanité n’en peut plus de ce système mais est trop dans l’engrenage pour en prendre conscience… à toi de jouer…

Univers : merci Univers… alors j’y vais …

Dans cette vision, le coronavirus n’est plus seulement un signe ou un message (ultimatum) que la Nature nous envoie, il devient une forme de « châtiment naturel », calqué sur un châtiment divin. Certes, on est ici à nouveau devant une figure de style – la prosopopée – dont l’emploi est immémorial. Mais cette anthropomorphisation de l’Univers et du Virus me paraît tout sauf innocente, car elle reste profondément tributaire du paradigme de la séparation entre Nature et Culture. Que l’on soit dans la thèse de l’artefact humain ou du châtiment naturel, on stagne en définitive d’un côté ou de l’autre du Grand Partage, mais jamais on ne le dépasse pour essayer de penser l’événement au-delà.

Penser les réseaux hybrides

Pablo Servigne mentionne dans son post la « Terre Mère » qui serait en danger, référence à la Pachamama des populations autochtones dans les Andes, qui sert à personnifier la Nature. Mais la réception qu’il fait dans son post du concept est complètement déformée par le prisme dualiste, car pour les peuples andins, la Pachamama est au contraire la représentation de l’idée d’une inséparabilité fondamentale entre Humains et Non-Humains, formant ce que Bruno Latour appelle des « collectifs hybrides ». Voyez par exemple cet article qui montre que la Pachamama n’a rien à voir avec ce que les Modernes appellent « Nature » : :

Le concept andin de communauté se distingue lui-même de l’acception occidentale. Alors que la communauté est appréhendée en Occident comme une catégorie sociale, qui figure un groupe de personnes ayant des relations étroites les unes avec les autres, ou encore qui se sentent liées à un même territoire, la conception andine est bien plus vaste. Elle englobe en effet les personnes, mais aussi les êtres vivants non humains, tels que les animaux ou les plantes, ainsi que certains éléments non vivants, en particulier les monts et montagnes ou encore les esprits des défunts. Ces communautés sont en outre propres à un territoire donné, qui les définit et auquel il est accordé des attributs spécifiques. Ainsi, les conceptions originelles de la Pacha Mama permettent de la représenter comme une manière de se penser comme faisant partie d’une vaste communauté sociale et écologique, elle-même insérée dans un contexte environnemental et territorial. La Pacha Mama n’est donc pas un simple synonyme, ou une idée analogue à la conception occidentale de la nature : il s’agit d’une vision plus ample et plus complexe.

Dans mon billet précédent, j’avais inséré comme illustration ce schéma, tiré du livre « Nous n’avons jamais été modernes » de Bruno Latour, qui représente la séparation entre Nature et Culture, et ce qui lui est opposé, à savoir le réseau des relations entre humains et Non-Humains, formant des « réseaux hybrides » :

Penser la crise du coronavirus au-delà de la séparation entre Nature et Culture, c’est se donner la possibilité de sortir des deux thèses absurdes (et jumelles) du complot et du châtiment, pour arriver à se situer dans la partie inférieure du schéma, c’est-à-dire dans ce que Donna Haraway appelle les « enchevêtrements » (entanglements).

Parce que nous sommes immergés dans l’ontologiste dualiste qui a forgé notre conception du monde, il nous est très difficile de nous tenir mentalement dans cette zone des enchevêtrements et le dualisme finit souvent par nous rattraper même quand nous essayons d’en sortir. J’en ai eu une preuve intéressante dimanche soir en écoutant « Les Informés » de France Info, dont les éditorialistes commentaient la disparition de Patrick Devedjian, emporté ce week-end par le coronavirus. L’un des invités expliquait que pour lui, cette mort d’un homme politique démontrait que le virus n’avait pas la carte d’un parti politique en particulier et qu’il pouvait frapper à gauche comme à droite toutes les classes de la société, personne ne pouvant se dire à l’abri.

Cela peut paraître juste lorsqu’on considère un cas isolemment, mais c’est en réalité faux statistiquement car, comme toujours, la létalité du virus va jouer à travers des facteurs économiques et sociaux. Les couches les plus pauvres et les travailleurs précaires sont déjà ceux qui sont les plus exposés au risque de la contamination et ce déséquilibre va être encore accentué dans un pays comme les États-Unis où les inégalités d’accès au système de santé vont avoir un effet amplificateur dramatique. Sans parler des pays les plus défavorisés, notamment en Afrique ou en Inde, où le coronavirus risque de constituer un fléau terrible vu les conditions de vie des populations les plus pauvres.

Il est donc tout à fait faux d’affirmer que le coronavirus ignorerait les classes sociales. Ce qui tue, ce n’est pas le virus lui-même, mais précisément un « enchevêtrement » ou une « association » dans lequel ce Non-Humain se lie à des facteurs humains, comme les niveaux d’inégalité sociale.

Redistribuer l’agentivité

Pour penser ces « associations » ou « agencements », nous disposons de certains outils et concepts, notamment ceux forgés dans le sillage de Madeleine Akrich, Bruno Latour et Michel Callon par la sociologie de la traduction et la théorie de l’acteur-réseau. Son but est précisément de faire de la sociologie en dépassant la séparation entre Nature et Culture pour se donner la possibilité de penser des « collectifs hybrides » en tant qu’acteurs :

Le social est appréhendé comme étant un effet causé par les interactions successives d’actants hétérogènes, c’est-à-dire de l’acteur-réseau. Tout acteur est un réseau et inversement. L’action d’une entité du réseau entraîne la modification de ce dernier ; toute action impliquant l’ensemble du réseau a une incidence sur les composantes du réseau

La pensée dualiste partage le monde entre des sujets, toujours humains, et des non-humains, toujours objets. Les premiers sont les seuls regardés comme des « acteurs », c’est-à-dire à être dotés d’une puissance d’agir. Dans cette perspective, les Non-Humains restent passifs et forment comme un décor de théâtre, extérieur à la situation que seules des actions humaines font avancer. C’est la raison pour laquelle, lorsque des Non-Humains font irruption sur la scène sociale (où ils ne sont pas censés apparaître) – comme le fait actuellement le coronavirus -, la tendance est de les dépeindre caricaturalement comme des sujets anthropomorphisé doués d’intentions (ce que fait Servigne dans sa Fable) ou de les présenter comme des artefacts produits par des humains (comme le pensent les complotistes). Dans les deux cas, ces visions traduisent une incapacité à considérer que l' »acteur », c’est toujours un agencement d’Humains et de Non-humains, au sens d’une combinaison de puissances d’agir.

Sur le média AOC, Bruno Latour a publié un court texte excellent, dans lequel il dresse en quelques lignes le portrait du collectif hybride agissant qui s’est enchevêtré à la faveur de la crise du coronavirus et qui constitue un acteur-réseau :

[…] il n’y a pas que les multinationales ou les accords commerciaux ou internet ou les tour operators pour globaliser la planète : chaque entité de cette même planète possède une façon bien à elle d’accrocher ensemble les autres éléments qui composent, à un moment donné, le collectif. Cela est vrai du CO2 qui réchauffe l’atmosphère globale par sa diffusion dans l’air ; des oiseaux migrateurs qui transportent de nouvelles formes de grippe ; mais cela est vrai aussi, nous le réapprenons douloureusement, du coronavirus dont la capacité à relier « tous les humains » passe par le truchement apparemment inoffensif de nos divers crachotis. A globalisateur, globalisateur et demi : question de resocialiser des milliards d’humains, les microbes se posent un peu là !

Arriver à tenir cette ligne, au-delà du dualisme, est très difficile et nous sommes constamment confrontés au risque d’y retomber. Dans Les Echos par exemple, Inès Leonarduzzi, PDG de « Digital for the Planet » (tout un programme…), publie une tribune intitulée « Coronavirus : les pangolins n’y sont pour rien« , dans laquelle elle souligne les responsabilités humaines dans le drame qui est en train de se dérouler. Elle explique notamment comment la déforestation des habitats naturels pousse des animaux à entrer en contact avec des humains, avec un risque accru de transmission de maladies infectieuses.

Si l’on en croît les scientifiques, c’est parfaitement vrai, mais pour autant, les pangolins et les chauve-souris n’y sont pas « pour rien » : ces animaux ont été des acteurs à part entière de la situation et la décrire correctement, c’est aussi leur restituer leur rôle « d’actants » ou « d’animés », qualité que Bruno Latour reconnaît à tous les « Terrestres ». Pointer les responsabilités humaines est bien entendu crucial, mais à condition de ne pas tomber dans des processus de purification qui re-séparent bien proprement les Humains des Non-humains. Dans une situation comme celle-ci, nous avons besoin de penser les enchevêtrements, ce qui implique de parvenir à « distribuer l’agentivité », de part et d’autre de la distinction.

Déchirure du réel

Dans son ouvrage « La Pensée Écologique », le philosophe Timothy Morton emploie une image intéressante pour donner à voir ce que serait une sortie de l’ontologie dualiste pour aller vers son opposé, à savoir une ontologie relationnelle. Il parle à ce sujet du « Maillage » (The Mesh), c’est-à-dire du réseau infini des relations unissant tous les êtres les uns aux autres, en soulignant qu’il est particulièrement dérangeant pour l’esprit de l’appréhender :

Le maillage consiste en des connexions infinies (…). Chaque être du maillage interagit avec les autres. Le maillage n’est pas statique. Nous ne pouvons arbitrairement qualifier telle ou telle chose de peu pertinente. S’il n’y a pas d’arrière-plan et par conséquent pas de premier plan, où sommes-nous alors ? Nous nous orientions au gré des arrière-plans sur lesquels nous nous tenons. Il y a un mot pour désigner un état qui ne distingue pas l’arrière-plan du premier plan : la folie.

[…] La conscience du maillage ne révèle pas le meilleur des gens. Il y a une joie terrifiante à prendre conscience de ce que H.P. Lovecraft appelle le fait de « n’être plus un être déterminé distinct des autres ». Il est important de ne pas paniquer et, chose étrange à dire, de ne pas surréagir à la déchirure du réel […] La schizophrénie est une défense, une tentative désespérée de restaurer un sentiment de cohérence et de solidité.

Les thèses du complot (avec leur virus-artefact), tout comme les thèses du châtiment (où le virus devient un message ou une punition envoyés par « La Nature ») sont toutes les deux des « surréactions » liées à la peur panique saisissant les esprits dualistes face à ce qui nous arrive : des tentatives désespérées de rétablir une orthodoxie ontologique dont nous devrions précisément nous débarrasser pour oser plonger dans la trame infinie des relations.

La guerre au coronavirus ou le grand rituel de purification

L’ouvrage Nous n’avons jamais été modernes de Bruno Latour est connu pour avoir mis en lumière le Grand Partage entre Nature et Culture qui traverse la pensée occidentale depuis l’avènement de la Modernité. On y trouve ce passage consacré à ce que l’auteur appelle les processus de « traduction » et de « purification » qui résonne d’une manière toute particulière aujourd’hui :

Le mot « moderne » désigne deux ensembles de pratiques entièrement différents qui, pour rester efficaces, doivent demeurer distinctes mais qui ont cessé récemment de l’être.

Le premier ensemble de pratiques crée, par « traduction », des mélanges d’êtres entièrement nouveaux, hybrides de nature et de culture. Le second crée, par « purification », deux zones ontologiques entièrement distinctes, celle des humains d’une part, celle des non-humains de l’autre […] Le premier [ensemble] lierait en une chaîne continue la chimie de la haute atmosphère, les stratégies savantes et industrielles, les préoccupations des chefs d’État, les angoisses des écologistes ; le second établirait une partition entre un monde naturel qui a toujours été là [et] une société aux intérêts et aux enjeux prévisibles […].

C’est là tout le paradoxe des modernes : si nous considérons les hybrides, nous n’avons affaire qu’à des mixtes de nature et de culture ; si nous considérons le travail de purification, nous sommes en face d’une séparation totale entre la nature et la culture […]

Tant que nous considérons séparément ces deux pratiques, nous sommes modernes pour de vrai, c’est-à-dire que nous adhérons de bon coeur au projet de la purification critique, bien que celui-ci ne se développe que par la prolifération des hybrides. Dès que nous faisons porter notre attention à la fois sur le travail de traduction et sur celui d’hybridation, nous cessons aussitôt d’être tout à fait modernes, notre avenir se met à changer.

Drôle de guerre…

Depuis une semaine, notre avenir a en effet radicalement changé, puisqu’il paraît – si l’on en croit Emmanuel Macron – que « Nous sommes en guerre ! ». Le président n’a pas prononcé le mot confinement pendant son allocution de lundi dernier, mais il martelé cette expression six fois dans son discours, comme si c’était le cœur du message qu’il voulait faire passer :

Nous sommes en guerre, en guerre sanitaire certes. Nous ne luttons ni contre une armée ni contre une autre nation, mais l’ennemi est là, invisible, insaisissable, et qui progresse. Et cela requiert notre mobilisation générale. Nous sommes en guerre.

Même si les sondages ont montré que les français avaient sur le coup majoritairement adhéré à ce discours, de nombreuses voix se sont élevées depuis pour dénoncer le recours à cette rhétorique militaire, et j’ai particulièrement apprécié le court texte publié par la médecin urgentiste Sophie Mainguy :

Nous ne sommes pas en guerre et n’avons pas à l’être.

Il n’y a pas besoin d’une idée systématique de lutte pour être performant. L’ambition ferme d’un service à la vie suffit. Il n’y a pas d’ennemi. Il y a un autre organisme vivant en plein flux migratoire et nous devons nous arrêter afin que nos courants respectifs ne s’entrechoquent pas trop […]

Les formes de vie qui ne servent pas nos intérêts (et qui peut le dire ?) ne sont pas nos ennemis. Il s’agit d’une énième occasion de réaliser que l’humain n’est pas la seule force de cette planète et qu’il doit – ô combien- parfois faire de la place aux autres. Il n’y a aucun intérêt à le vivre sur un mode conflictuel ou concurrentiel.

Notre corps et notre immunité aiment la vérité et la PAIX. Nous ne sommes pas en guerre et nous n’avons pas à l’être pour être efficaces. Nous ne sommes pas mobilisés par les armes mais par l’Intelligence du vivant qui nous contraint à la pause.

Exceptionnellement nous sommes obligés de nous pousser de coté, de laisser la place. Ce n’est pas une guerre, c’est une éducation, celle de l’humilité, de l’interrelation et de la solidarité.

Je me sens tout à fait en phase avec cette vision des choses et nous aurions tout intérêt aujourd’hui à nous rappeler ce que disait Jean-Luc Godard à propos de la guerre : « La Guerre, c’est simple : c’est faire rentrer un morceau de fer dans un morceau de chair ». Il ne s’agit pas de nier les souffrance des malades et des familles des victimes, ni le courage des soignants qui leur portent secours en mettant en péril leur vie, mais l’expérience que nous traversons n’a rien à voir avec celle, par exemple, qu’endure le peuple syrien dont le pays connaît la guerre – la vraie – depuis presque dix ans. Et si vous vous pensez en guerre, allez donc feuilleter quelques gravures des Désastres de la guerre de Goya pour vous rendre compte à quel point nous en sommes loin !

Parler de guerre à propos de cette pandémie, c’est employer une métaphore particulièrement trompeuse, dont il faut néanmoins essayer de comprendre la signification qui dépasse un simple effet de manche d’un pouvoir politique poussé dans les cordes par la situation et pour qui la guerre constitue – comme toujours ! – son ultime « panic button » lorsqu’il se sent menacé.

Conflit d’ontologies

Entre la vision de la « guerre au virus » et celle formulée par Sophie Mainguy, il y a en réalité plus qu’un désaccord. Ce qui les oppose, c’est un conflit d’ontologies, au sens où l’anthropologue Philippe Descola entend cette expression comme les « manières de composer le monde », à travers des conceptions différentes des rapports entre les humains et les non-humains. A côté de l’ontologie dualiste ou naturaliste des occidentaux, qui sépare Nature et Culture, il existe des ontologies relationnelles capables de penser ce que Bruno Latour appelle des « collectifs hybrides ».

L’épisode tout à fait exceptionnel que nous traversons constitue une occasion unique de prendre conscience de ces réseaux denses de relations associant inextricablement humains et non-humains. C’est ce qu’explique de manière saisissante Frédéric Keck, anthropologue lui-aussi, dans cette interview donnée jeudi à Médiapart, intitulée : « Les chauve-souris et les pangolins se révoltent » :

Qu’on en arrive à confiner les populations humaines et à arrêter toute l’économie pour se protéger d’un virus respiratoire dit beaucoup du capitalisme avancé contemporain. On n’est plus dans la même situation que dans les années 1990, où un capitalisme encore très confiant pensait que les maladies animales pouvaient être traitées comme des défauts de marchandises qu’on pouvait envoyer à la casse, comme ce fut le cas lors des abattages massifs de bovins ou de volailles pendant les crises de la vache folle ou la grippe aviaire.

Aujourd’hui, les chauves-souris et les pangolins se révoltent et c’est nous qui risquons de partir à la casse […] Les animaux nous donnent des biens : nourriture, cuir, force de labeur… Mais, si nous les traitons mal, ils nous donnent aussi des virus et des bactéries. […]

La question essentielle est aujourd’hui de savoir comment penser une solidarité internationale, entre humains, et entre humains et non-humains, alors que chaque État est en train de se calfeutrer derrière ses frontières en affirmant que le voisin n’en fait pas assez. Cette logique de la surenchère dans les mesures de confinement est insupportable. Le confinement ne doit être vu que comme une étape, avant de discuter comment réorganiser en profondeur les collectifs d’humains et de non-humains.

Bruno Latour montre bien qu’il y a quelque chose qui relève du refoulement dans la manière dont fonctionne la modernité. Nos possibilités technologiques et organisationnelles nous ont permis en effet de former, par « traduction », des réseaux d’hybrides de nature et de culture de plus en plus longs, jusqu’à embrasser la planète entière au terme de la dynamique de mondialisation. Mais dans le même temps, les modernes ont maintenu, par « purification », la fiction du Grand Partage et fait « comme si » humains et non-humains relevaient de deux sphères séparées. Ces deux mouvements sont au coeur de ce que Latour appelle « La Constitution des Modernes ».

Dans un moment comme celui que nous traversons, l’ontologie dualiste qui fonde notre conception du monde est prise de panique, car la fiction sur laquelle elle repose se retrouve brutalement éventée et c’est soudain tout le réseau de ces relations dissimulées en temps normal qui apparaît au grand jour. Cette irruption de ce-qui-devait-rester-caché est insupportable et tel est le véritable sens de cette « guerre au virus » qui a été déclarée par l’appareil institutionnel la semaine dernière. Désigner le virus comme l’ennemi constitue une tentative désespérée du système dualiste pour rétablir le Grand Partage, en rangeant d’un côté tous les humains face à ce non-humain qui a investi notre monde social, en déstructurant tous nos repères sur son passage.

Rien ne correspond plus à cet appel à la mobilisation générale que la figure du Léviathan de Thomas Hobbes : l’État, dans sa version la plus autoritaire, nous demande de faire bloc ensemble pour rétablir le contrat social qui le fonde et qui, bien davantage que sur la volonté des humains, repose sur la fiction d’une séparation avec les non-humains.

Sombres vertiges

La panique qui monte peu à peu dans le pays n’est pas uniquement l’effet des circonstances alarmantes que nous traversons : elle est aussi la traduction d’un véritable « vertige ontologique » qui nous a saisi et qui gagne nos institutions. Pour rendre compte de ce vacillement, on peut se référer à ce que le philosophe Timothy Morton appelle la Dark Ecology – l’écologie sombre. Pour lui, la pensée écologique doit aller jusqu’à remettre en question nos systèmes de représentation et lorsqu’elle parvient à le faire, elle nous expose à une expérience particulièrement dérangeante.

Sortir de l’ontologie dualiste, c’est se confronter à ce que Morton appelle « l’étrange étrangeté » : de nouvelles relations avec les non-humains qui brouillent profondément nos identités. L’épreuve d’une contamination de masse par un virus constitue sans doute une des expériences les plus extrêmes qui soient de Dark Ecology, avec ce risque de voir nos corps envahis, la rupture de nos relations sociales provoquées par le confinement et la destructuration violente des institutions qui confèrent en temps normal une stabilité à notre monde.

Pourtant, ce vertige ontologique devrait constamment nous habiter, et pas seulement dans ce moment exceptionnel. Comme le montre l’épisode ci-dessous de l’excellente série « Une espèce à part » (qui vise à remettre en question l’anthropocentrisme), nous sommes en effet continuellement en relation avec des virus et des bactéries, qui font intégralement partie de notre monde, et c’est vrai au point où notre corps en contient davantage que de cellules. Plus encore, notre ADN comporte des fragments de séquences génétiques issues de virus qui voyagent avec nous et en nous, au coeur de notre intimité, en participant au codage de notre identité. Nous sommes virus et les virus sont nous, même s’il est extrêmement désagréable pour nous de l’admettre.

Ce type de révélations peut provoquer la peur ou susciter du dégoût, un peu comme le ferait la lecture d’une nouvelle de H.P. Lovecraft, avec son cortège d’horreurs cosmiques innommables défiant la raison. Elles provoquent le trouble, mais comme l’explique Donna Haraway, il faut justement être capable de « rester avec le trouble » (titre d’un de ses ouvrages : Staying With The Trouble) et elle propose d’ailleurs de rebaptiser « Chthulucène » ce que d’autres appellent l’Anthropocène, pour insister, comme le fait Timothy Morton avec son concept de Dark Ecology, sur cette épreuve du vertige ontologique que nous devons accepter de traverser pour être en mesure de changer notre système de représentation.

Avec ses allures de « Couleur tombée du Ciel », l’épidémie de coronavirus peut être regardée comme la première expérience de masse d’entrée dans le Chthulucène et on comprend dès lors que les institutions aient entrepris de mettre en branle un grand rituel de purification pour tenter en catastrophe de rétablir l’orthodoxie ontologique. Mais après un choc symbolique d’une telle ampleur, il n’est pas certain que les consciences puissent rentrer si facilement dans le rang dualiste et l’épisode marquera sans doute profondément la manière de voir le monde d’une partie substantielle de la population. Une fois que Cthulhu a été invoqué, on sait qu’il est extrêmement difficile de le renvoyer dans sa dimension hors du monde…

Know your ennemy

En cela, le coronavirus, malgré ses conséquences dramatiques, n’est pas notre ennemi, et il pourrait même s’avérer être un allié extrêmement précieux. Il est déjà parvenu à faire une chose à peine pensable, que beaucoup d’humains ont cherché à accomplir sans y parvenir ces dernières années : bloquer la machine folle de l’économie. Ce que ni Nuit Debout, ni le mouvement d’opposition à la loi Travail, ni le cortège de tête des autonomes, ni les zadistes, ni les Gilets Jaunes, ni les grèves contre la réforme des retraites, ni eXtinction Rebellion n’ont réussi à faire, le coronavirus nous l’a offert.

Comme le dit Benoît Borrits, il aura fallu qu’un virus nous mette au pied du mur pour que nous nous apercevions que c’était seulement possible :

Cette pandémie, dont on ne connaît pas encore le dénouement, a ceci d’extraordinaire qu’elle réalise ce que tout le monde savait. Le confinement et les ruptures de chaînes d’approvisionnement provoquent une baisse brutale de la production. Voilà que nous découvrons avec cette récession que Venise retrouve ses eaux claires et ses poissons, que les émissions de gaz à effet de serre ont été réduites de 25 % en Chine au début de l’année), que l’air devient plus respirable. Il est terrible d’avoir attendu cette crise sanitaire et cette succession dramatique de décès pour prendre conscience de ces évidences.

Chaque jour, tombent de nouvelles informations proprement incroyables, il y a quelques semaines encore : Le pétrole, or noir d’hier, n’a subitement presque plus de valeur ; l’Union européenne autorise enfin les États à s’affranchir de la maudite règle des 3% de déficit budgétaire ; l’Italie annonce l’arrêt de toutes les activités de production non-essentielles (ce qui permettra justement de voir à nouveau où est l’essentiel…) ; les Philippines décident de fermer la Bourse ; et ce matin encore, à la radio, le président du MEDEF se disait favorable à la nationalisation de certaines entreprises ! Hallelujah !

Dans cette affaire, notre véritable ennemi n’est pas le virus, mais ce que Bruno Latour appelle dans Où Atterir ? le « système de production », celui-là même qui a besoin pour fonctionner que les non-humains soient réduits à l’état d’objets et de ressources et qu’il oppose au « système d’engendrement, qui « ne s’intéresse pas à produire pour les humains des biens à partir de ressources, mais à engendrer les terrestres – tous les terrestres et pas seulement les humains. » C’est ce « système de production » qui a cherché à transformer les hôpitaux en entreprises et les infirmières en « bed managers » ; c’est lui qui est responsable aujourd’hui des morts que nous comptons chaque jour. Et c’est pour protéger ce « système de production » à tout prix que les dirigeants, en Angleterre, aux Etats-Unis, mais aussi en France, ont parié pendant longtemps sur la stratégie irresponsable de l’immunisation collective pour éviter d’avoir à ralentir l’activité économique.

Ce système de production est tellement grotesquement éloigné d’un système d’engendrement que, dans le même temps où il s’avère incapable de produire en nombre suffisant les masques qui sont devenus si essentiels, il reste en mesure de fabriquer et de faire livrer à domicile par un coursier un Kinder Bueno ! Et il arrive encore – et surtout – à produire l’individu indigne qui a passé cette commande de la honte !

La sous-merde intégrale, faire risquer la vie d'un être humain juste pour ce faire livrer un kinder bueno, c'est ça la fameuse solidarité tant vanté par notre chère président. https://t.co/Ipf58Hex4U

— En marche ou grève, travail, famine, pâte riz. (@nainssoumis) March 20, 2020

Le coronavirus est parvenu à réaliser l’impensable, tel un Hercule accomplissant un de ses légendaires travaux : arrêter la mégamachine décrite par Günther Anders de manière si glaçante – le monde devenu machine et la machine devenue monde, dont nous étions les rouages. Le Comité Invisible nous avait appris que « le pouvoir est logistique » et que pour déclencher une véritable insurrection, il fallait « tout bloquer ». La belle affaire ! Car jusqu’à présent, les humains s’étaient avérés incapables de le faire par eux-mêmes et le Grand Soir paraissait indéfiniment relégué dans les limbes des illusions romantiques. Maintenant, grâce au virus, tout est bloqué et la question cruciale n’est pas de relancer la machine infernale, comme s’y emploient tous les gouvernements, mais de faire en sorte au contraire qu’elle ne reparte surtout pas.

C’est ce qu’invitent à envisager les rédacteurs de la belle pétition « Covid-entraide » qui refusent eux-aussi de faire la guerre au virus en nous appelant à « retourner la stratégie du choc en déferlante de solidarité » :

Ne restons pas sidéré.e.s face à cette situation qui nous bouleverse, nous enrage et nous fait trembler. Lorsque la pandémie sera finie, d’autres crises viendront. Entre temps, il y aura des responsables à aller chercher, des comptes à rendre, des plaies à réparer et un monde à construire. À nous de faire en sorte que l’onde de choc mondiale du Covid-19 soit la « crise » de trop et marque un coup d’arrêt au régime actuel d’exploitation et de destruction des conditions d’existence sur Terre. Il n’y aura pas de « sortie de crise » sans un bouleversement majeur de l’organisation sociale et économique actuelle.

Activons cet enchevêtrement !

Regarder le virus comme un allié pourra sans doute en choquer certains. Mais cette perspective correspond à ce que l’anthropologue Anna Tsing veut dire lorsqu’elle parle dans son ouvrage Le Champignon de la fin du monde « d’activer politiquement les enchevêtrements » (entanglements). Cette expression peut paraître sibylline, mais elle prend tout son sens dans une période comme celle-ci. La lutte implique aujourd’hui de mobiliser au-delà des seuls humains en comptant avec les puissances d’agir des non-humains, pour former des collectifs politiques hybrides pouvant prendre la forme de « Communs latents » :

Les assemblages, dans leur diversité, font apparaître ce que je vais appeler des « communs latents », c’est-à-dire des enchevêtrements qui pourraient être mobilisés dans des causes communes. Parce que la collaboration est toujours avec nous, nous pouvons manœuvrer au sein de ses possibilités. Nous aurons besoin d’une politique dotée de la force de coalitions diverses et mobiles et pas seulement entre humains.

Il y a un mois il était encore plus simple de concevoir la fin du monde que la fin du capitalisme et aujourd’hui, des pangolins et des chauve-souris ont mis sur pause une grande partie de l’économie mondiale. Tel est l’enchevêtrement qui reste encore à « activer » politiquement !

Vu dans la rue. Nantes. pic.twitter.com/HSaK2wOh7c

— Contre Attaque (@ContreAttaque_) March 21, 2020

Ces derniers jours, j’ai relu certains passages du livre La Condition Ouvrière écrit par la philosophe Simone Weil à propos des grandes grèves de 1936, survenues au moment de l’avènement du Front populaire. Il est très troublant de voir comment la pandémie et le confinement généralisé qui l’accompagne constituent une sorte de miroir inversé de cet épisode historique. En 1936, les travailleurs occupaient les usines et les bloquaient. Simone Weil raconte leur joie « d’habiter » enfin leur lieu de travail, de pouvoir y emmener leur famille et de s’y assembler pour refaire le monde. Aujourd’hui, nous sommes confinés à domicile, empêchés en très grand nombre de rejoindre notre lieu de travail et réduits à des échanges virtuels pour maintenir nos liens sociaux. En 1936, l’espace public avait débordé partout et pénétré par effraction dans les usines. Aujourd’hui, nous avons au contraire perdu l’espace public et nous sommes enfermés dans nos espaces privés et c’est le travail, pour beaucoup, qui a envahi le lieu d’habitation.

Mais la plus grande différence, c’est qu’en 1936, il s’agissait d’un mouvement social au sens propre du terme, c’est-à-dire exclusivement humain, preuve que cette grève générale se déroulait encore dans l’Holocène, avec une société proprement séparée de son environnement. Nous vivons aujourd’hui, à l’âge de l’Anthopocène, quelque chose de complètement singulier, qui traduit l’effondrement du Grand Partage, et que nous pourrions transformer en une « grève plus qu’humaine » pour faire naître le premier « mouvement bio-social » de l’histoire.

***

Une telle opportunité politique ne s’est pas présentée depuis des décennies et, en refusant de nous prêter au grand rituel de purification de la « guerre au virus », nous aurons peut-être une chance de la saisir pour la transformer en une expérience révolutionnaire d’un nouveau genre.

L’hypothèse, également trop énorme, est qu’il va falloir ralentir, infléchir et régler la prolifération des monstres en représentant officiellement leur existence. Une autre démocratie deviendrait-elle nécessaire ? Une démocratie étendue aux choses ?

Bruno Latour.

Et si l’Open Access était une question de Digital Labor ?

Le Consortium Couperin a publié récemment les résultats d’une enquête sur les « Pratiques de publication et d’accès ouvert des chercheurs français« , qui se démarque par son ampleur (plus de 11 000 réponses de chercheurs, soit 10% de la communauté scientifique française) et l’étendue des questions abordées. Beaucoup de points mériteraient d’être commentés, mais je voudrais me concentrer sur un seul aspect qui m’a particulièrement frappé.

On peut en effet lire cette phrase dans la synthèse effectuée par Couperin à partir des résultats :

Les chercheurs sont globalement favorables à l’accès ouvert et en comprennent l’enjeu majeur : la diffusion des résultats de la science de façon libre et gratuite. Néanmoins, cet objectif doit pour eux être réalisé sans effort, de manière simple, lisible et sans financement direct des laboratoires, le tout en ne bousculant pas trop le paysage des revues traditionnelles de leur discipline auxquelles ils sont attachés.

J’ai souligné les mots « sans effort », car ils me paraissent intéressants à relever. En gros, les chercheurs sont favorables au Libre Accès, à condition qu’il n’entraîne pour eux aucun surcroît de travail à effectuer. Si, d’après l’enquête, la méconnaissance des questions juridiques liées au Libre Accès reste le premier obstacle au dépôt en archives ouvertes, on trouve en seconde position des arguments du type : « Je n’ai pas le temps » ou « le dépôt est trop laborieux ». L’archive ouverte HAL attire encore souvent ce genre de critiques, et ce alors même que la procédure de dépôt a été grandement simplifiée ces dernières années (ajout de fichiers en glissé-déposé, diminution des champs obligatoires, possibilité de récupérer automatiquement les métadonnées via un DOI, etc.).

En réalité, les positions exprimées par les chercheurs à propos des archives ouvertes sont assez paradoxales. Une majorité d’entre eux trouvent en effet que le dépôt est « rapide » et « simple » (voir ci-dessous), ce qui paraît contradictoire avec l’argument du manque de temps ou des interfaces trop complexes.

L’enquête permettait aux chercheurs de laisser des commentaires libres, qui montrent que le vrai problème se situe sans doute ailleurs que dans l’ergonomie des plateformes. Une partie des chercheurs tendent en effet à considérer que ces tâches de dépôt – même simples et rapides à effectuer – ne correspondent pas à l’image qu’ils se font de leur travail :

« Ce n’est pas mon travail, je suis déjà très pris par des charges administratives je ne vais pas en plus faire ce type de tâches. »

« Ceci n’est pas du ressort d’un enseignant-chercheur dont on demande de plus en plus de tâches administratives ou « transversales » en plus de son travail d’enseignement et de recherche. Donc, j’estime que le dépôt sous HAL doit être assuré par des personnels archivistes dont c’est effectivement le métier ! Tant que les moyens ne seront pas mis pour ouvrir des postes à ces personnels, je refuserai de faire ce travail sous HAL. »

« Je dépose les références minimales, pour l’évaluation HCERS mais pas les articles.De mon point de vue, c’est l’institution qui doit se charger de la mise en ligne des notices et des articles (après obtention accord de l’auteur) et comme elle ne s’en charge pas… Je fais donc le minimum. »

Dans ce billet, je voudrais essayer d’éclairer ces positions ambivalentes en utilisant la notion de Digital Labor (travail numérique). Pour ce faire, je ne vais pas me référer à l’acception la plus courante du terme « Digital Labor », telle que l’utilise notamment Antonio Casilli dans ses travaux sur les plateformes numériques et l’intelligence artificielle. Je vais me tourner vers une conception plus large, que j’ai découverte dans l’ouvrage (remarquable) du sociologue Jérôme Denis : « Le travail invisible des données. Éléments pour une sociologie des infrastructures scripturales« .

Omniprésence et invisibilité du travail des données

Pour Jérôme Denis, le « travail des données » n’est pas un phénomène récent et il dépasse très largement les situations où les internautes sont « mis au travail » à leur insu par des plateformes comme Facebook ou Amazon. Il s’agit plutôt d’une caractéristique générale de toutes les organisations – publiques comme privées – qui ont besoin de produire et de faire circuler de l’information pour fonctionner. Sans cette capacité à organiser des flux de données standardisées, ni les entreprises, ni les administrations ne pourraient exister, dès lors qu’elles atteignent une certaine taille et se bureaucratisent. Jérôme Denis ajoute que, bien que ce « travail des données » soit absolument vital pour ces organisations, il a pourtant constamment été minimisé, dévalorisé et même invisibilisé. En témoigne la manière dont ces tâches ont été déléguées à des personnels généralement considérés comme subalternes – les secrétaires, par exemple – et il n’est pas anodin que les professions liées à l’information furent traditionnellement – et sont en grande partie toujours – exercées majoritairement par des femmes (c’est vrai des secrétaires, mais aussi des bibliothécaires ou des documentalistes).

Paradoxalement là encore, l’informatisation des organisations est venue aggraver ce phénomène de dépréciation et d’invisibilisation. Le déploiement des ordinateurs en réseau s’est accompagné d’une croyance en vertu de laquelle l’information pourrait se propager avec la facilité et la rapidité du courant électrique, comme des impulsions le long d’un système nerveux. Ce mythe est lié au fantasme de la « dématérialisation » qui, en libérant (soit-disant) l’information de ses supports physiques, lui permettrait de circuler comme un fluide parfait. Pourtant, et c’est une chose que le livre de Jérôme Denis montre remarquablement bien, le numérique ne supprime pas en réalité le « travail des données ». Bien au contraire, l’information reste largement dépendante de supports matériels (claviers, écrans, etc.) et la numérisation tend même à intensifier et à complexifier le travail informationnel (songeons par exemple au temps invraisemblable que nous passons à gérer nos boîtes mail professionnelles et à la pénibilité que cela engendre).

Un des avantages de cette conception large du « travail des données » est qu’elle permet d’embrasser et d’éclairer tout un ensemble de situations auxquelles nous sommes quotidiennement confrontés. Pour illustrer son propos, Jérôme Denis prend notamment un exemple tiré de son expérience personnelle que j’ai trouvé particulièrement frappant. Il raconte en effet comment, après la mort de son père, il a été obligé d’effectuer avec sa famille pendant des mois de laborieuses démarches pour « pousser » l’information du décès vers de nombreuses organisations : administrations en tout genre, banques, assurances, boutiques en ligne, fournisseurs d’accès Internet, etc. Rien ne paraît pourtant plus élémentaire que l’annonce de la disparition d’une personne (vie/mort ; 0/1) et on pourrait penser à l’heure du numérique qu’une telle mise à jour des systèmes d’information est relativement simple à effectuer. Mais il n’en est rien et malgré l’interconnexion croissante des bases de données, une part importante du travail doit encore être effectué « à la main » par l’administré/client, en saisissant l’information dans des interfaces et en remplissant des formulaires.

Il existe donc une sorte « viscosité » de l’information que le numérique n’a pas fait disparaître et ne supprimera sans doute jamais complètement, sachant qu’il engendre sa propre part de « frictions » dans la production et la circulation des données.

Quelle perception du « travail des données » chez les chercheurs ?

La question n’est donc pas tant de chercher à faire disparaître le « travail des données » que de savoir quel statut et quelle reconnaissance on lui donne. La perception de la « pénibilité » de ce travail varie en outre grandement d’un contexte à un autre, non pas tellement en fonction de caractéristiques objectives, mais plutôt par rapport à la représentation que les individus s’en font.

Si l’on revient à la question de l’Open Access, j’ai toujours trouvé qu’il existait une forme de dialogue de sourds entre chercheurs et bibliothécaires/documentalistes à propos du dépôt des publications en archives ouvertes. Pour ces derniers, qui sont des professionnels de l’information, le dépôt des publications paraît quelque chose de simple, en partie parce que le travail des données est inhérent à leur métier et n’est pas déprécié symboliquement à leurs yeux. A l’inverse pour la majorité des chercheurs, un tel travail – même léger – suscitera un rejet mécanique, parce qu’il fait apparaître ce qui devrait rester invisible. Ce qui est intéressant, c’est que les mêmes chercheurs qui refusent d’effectuer les tâches de dépôt en archives ouvertes réalisent pourtant des opérations assez similaires dans leur pratique des réseaux sociaux académiques (type Researchgate ou Academia). C’est précisément le coup de génie (maléfique !) de ces plateformes d’avoir réussi à « mettre au travail » les chercheurs sans lever le voile d’invisibilité qui rend ce travail des données indolore (et pour le coup, on rejoint ici la thématique classique du Digital Labor comme exploitation des utilisateurs).

Researchgate, presque autant utilisé que les sites de laboratoire par les chercheurs pour donner de la visibilité à leurs travaux…

S’agissant des chercheurs, les choses sont encore compliquées par le fait qu’ils entretiennent traditionnellement un rapport ambigu avec la question des données. S’appuyant sur les apports des science studies, Jérôme Denis souligne le fait que ce sont les articles de recherche qui sont considérés depuis des siècles par les scientifiques comme les objets chargés de la plus haute valeur symbolique. Il en est ainsi car les articles, une fois mis en forme à l’issue du processus éditorial, deviennent des « mobiles immuables », c’est-à-dire des objets doués de la capacité de circuler, mais tout en gardant une forme fixe. Ils assurent ainsi la communication entre pairs des résultats de la recherche et c’est à partir d’eux quasi exclusivement que s’effectue l’évaluation de la recherche et des chercheurs. Dans un tel contexte, il est logique que le travail d’écriture des articles – celui qui assure justement cette stabilisation de la forme – soit considéré comme la partie la plus noble du travail des chercheurs, tandis que, par contraste, ce qui touche aux données – réputées instables, informes et volatiles – est rejeté dans l’ombre. A la mise en lumière des articles s’oppose la « boîte noire » du laboratoire, où le travail sur les données reste considéré comme quelque chose d’obscur, et même un peu « sale », dont traditionnellement on ne parle pas.

Certes, les choses sont en train de changer, car les données de recherche, à la faveur des politiques de Science Ouverte, gagnent peu à peu leurs lettres de noblesse, en tant qu’objets possédant intrinsèquement une valeur et méritant d’être exposés au grand jour. Mais nul doute qu’il faudra du temps pour que les représentations évoluent et l’enquête de Couperin montre d’ailleurs que si les chercheurs sont aujourd’hui globalement favorables à l’Open Access aux publications, ils restent plus réticents en ce qui concerne le partage des données.

Du coup, le travail des données est doublement dévalorisé au sein des populations de chercheurs. Il subit d’abord la dépréciation générale qui le frappe au sein des organisations modernes, mais cet effet est redoublé par la hiérarchie traditionnelle établie par les chercheurs entre travail rédactionnel et travail informationnel. Or le dépôt en archives ouvertes est précisément ce moment où le travail des données qu’on voudrait pouvoir oublier resurgit. « Cachez ces métadonnées que je ne saurais voir », alors qu’elles sont indispensables pour contextualiser les documents archivés et leur donner du sens…

Changer le statut du travail des données pour promouvoir le Libre Accès

Établir un lien entre Open Access et Digital Labor (au sens large de « travail des données ») est à mon sens important pour mieux comprendre le rapport conflictuel que les chercheurs entretiennent avec les archives ouvertes et leur demande que le Libre Accès s’effectue « sans effort ». Il me semble que cela pourrait au moins s’avérer utile pour identifier quelques « fausses bonnes idées » :

  1. Croire qu’en améliorant techniquement les interfaces des archives ouvertes, on pourra un jour supprimer complètement le « travail des données » lié au dépôt des publications et le rendre indolore. On trouve aujourd’hui des discours qui nous promettent la mise en place d’interfaces « seamless » (i.e. « sans couture ») qui permettraient une expérience utilisateur parfaitement fluide. On peut certes faire des progrès en matière d’ergonomie, mais il restera toujours à mon sens une part de « travail du clic » à effectuer et tant qu’il sera frappé d’une dépréciation symbolique, il suscitera une forme de rejet par les chercheurs.
  2. Proposer aux chercheurs d’effectuer l’intégralité de ce travail des données à leur place. C’est certes une demande que certains formulent (« ce n’est pas mon métier ; que l’on embauche des documentalistes pour le faire à ma place »). Mais outre qu’il paraît improbable de recruter un nombre suffisant de personnels d’appui pour effectuer l’intégralité de ce travail, cela ne ferait que participer encore à l’invisibilisation du travail des données et à sa dévalorisation. Les bibliothécaires qui s’engagent dans cette voie se livrent à mon sens à un calcul à court terme qui risque de s’avérer préjudiciable à long terme pour tout le monde.
  3. Faire effectuer ce travail des données par les éditeurs. C’est à mon sens la pire des solutions possibles et le dernier accord Couperin-Elsevier a bien montré les dangers que pouvait comporter l’idée de « sous-traiter » l’alimentation des archives ouvertes aux éditeurs. C’est aussi parce qu’il garantit justement le plein contrôle des interfaces et des données que le principe d’une alimentation des archives ouvertes par les chercheurs eux-mêmes reste absolument crucial.

Au final pour développer la pratique de l’Open Access, c’est le statut de ce « travail des données » qu’il faudrait faire évoluer au sein des communautés scientifiques pour qu’il regagne ses lettres de noblesses, lui donner la visibilité qu’il mérite et le faire apparaître comme partie intégrante de l’activité de publication. La question ne concerne d’ailleurs pas que le Libre Accès aux publications, mais aussi les données de la recherche qui gagnent peu à peu en importance. Néanmoins, cette dernière thématique étant en train de devenir « à la mode », elle va sans doute faire l’objet d’une revalorisation symbolique, tandis que l’on peut craindre que le travail informationnel à effectuer pour alimenter les archives ouvertes reste encore longtemps frappé d’indignité.

Dans l’enquête Couperin, on voit bien par exemple que les communautés de mathématiciens et d’informaticiens sont celles qui ont le plus recours aux archives ouvertes et ce sont justement aussi celles qui ont le moins « externalisé » le travail informationnel, puisque les chercheurs dans ces disciplines effectuent eux-mêmes une large partie du travail de mise en forme des publications (avec LaTeX) et de dépôt des préprints sur ArXiv.

Les Communs, source de nouveaux usages ? (Intervention CNAM – séminaire « Design with Care »)

Il y a quinze jours, j’étais invité à intervenir au CNAM dans le cadre du séminaire « Design with Care » proposé par Cynthia Fleury et Antoine Fenogli pour explorer les rapprochements entre design, éthique et philosophie.

On m’avait demandé de traiter dans le cadre d’une conférence le sujet « Les Communs, sources de nouveaux usages ? », à travers une série de questions que l’équipe du séminaire m’avait adressées.

Vous pouvez trouver ci-dessous l’enregistrement vidéo de l’intervention.

Voici un timecode pour accéder directement aux différentes parties de l’intervention :

  • Rappel historique sur les Communs (5m46) ;
  • Retour des Communs à partir des travaux d’Elinor Ostrom (20m42) ;
  • Quel types de ressources ? L’extension aux Communs de la Connaissance (42m24) ;
  • Quels liens entre Communs et action publique ? La question des Communs urbains (1h09) ;
  • Des Communs ouverts aux Non-Humains ? (1h37).
  • Penser des Communs négatifs (1h55).

Ci-dessous l’enregistrement sonore pour une écoute en podcast :

J’ajoute le support de présentation sur lequel je me suis appuyé :

Et enfin, une prise de note collaborative réalisée pendant la séance par des participants (merci aux contributeurs !). Cliquez sur l’image pour y accéder.

Il est rare de disposer d’autant de temps pour traiter le sujet complexe et polymorphe que constituent les Communs. Merci également au public pour ces excellentes remarques et questions qui m’ont permis de développer certains aspects que je n’avais pas initialement prévu d’aborder.

Je termine en signalant que le 26 février prochain, le séminaire « Design with Care » accueillera Alexandre Monnin pour traiter du sujet : « Hériter et prendre soin d’un monde en train de se défaire : quel rôle pour le design ?« . Une occasion de prolonger certains des points que j’ai développés à la fin de mon intervention, comme les rapports entre Humains et Non-Humains ou la question des Communs négatifs, notion que l’on doit à Alexandre.

Rapport Racine : le domaine public payant une nouvelle fois écarté

Cette semaine a été rendu public le rapport « L’auteur et l’acte de création« , remis par Bruno Racine, ex-directeur de la Bibliothèque nationale de France, au Ministère de la Culture. C’est la fin d’un long suspens, puisque cette publication tardait à intervenir, alors qu’elle était vivement réclamée par les organisations représentant les auteurs professionnels. A l’approche du salon de la BD d’Angoulême, la tension devenait de plus en plus forte, après plusieurs années marquées par une précarisation croissante des conditions de vie des créateurs en France, les ayant conduit à se mobiliser pour demander une intervention des pouvoirs publics.

Ce rapport Racine marquera sans doute un tournant, dans la mesure où il s’écarte de la doxa dominante à travers laquelle la question des conditions de soutenabilité de la création est abordée généralement dans notre pays. Il propose en effet la mise en place d’un véritable « statut professionnel des auteurs » pour que ces derniers puissent vivre de leur travail de création, et pas uniquement de l’exploitation de la propriété intellectuelle attachée à leurs œuvres. Défendre une telle approche revient à admettre ce que l’on sait en réalité depuis longtemps : si l’on excepte une toute petite minorité, le droit d’auteur n’est pas suffisant à lui seul pour faire vivre les créateurs. Leur subsistance repose plutôt sur une combinaison complexe et fragile de dispositifs : droits sociaux, financements mutualisés, subventions publiques, revenus complémentaires issus de la pluri-activité, etc. Tout en conservant une place au droit d’auteur, le rapport préconise de renforcer et de mieux articuler ces éléments entre eux, tout en rééquilibrant le rapport de force entre les auteurs et les intermédiaires de la création, type éditeurs, pointés du doigt comme un problème majeur.

Rien que pour cela, le rapport Racine est important et pour mieux comprendre les 23 mesures qu’il comporte, je vous recommande la lecture de cette analyse réalisée sur Twitter par l’autrice Samantha Bailly, engagée depuis longtemps sur ces sujets :

{DÉCRYPTAGE À CHAUD DU #RAPPORTRACINE} Avant l'analyse officielle de la Ligue, mes impressions d'autrice après tout ce parcours du combattant en 3 threads thématiques. PS : J'adore ce gif de @Coliandre 👇@franckriester @MinistereCC @Ecrivains_QC @CharteAuteurs @LigueAuteursPro pic.twitter.com/vQXnhaOlNk

— Samantha Bailly (@Samanthabailly) January 23, 2020

L’éternel retour du domaine public payant

Je voudrais de mon côté revenir dans ce billet, non pas sur une des propositions du rapport, mais au contraire sur une des mesures qu’il déconseille d’adopter.

Ces derniers temps à la faveur de la crise que traversent les auteurs, on a vu en effet réapparaître dans le débat public l’idée d’instaurer ce que l’on appelle un « domaine public payant » pour améliorer la condition des créateurs. Cette proposition, dont on attribue (assez abusivement) la paternité à Victor Hugo, consisterait à établir une sorte de taxe sur l’usage commercial des œuvres appartenant au domaine public, qui serait collectée par des sociétés de gestion collective pour être reversée à leurs membres. Aujourd’hui, l’auteur et ses ayant droits bénéficient de droits patrimoniaux durant 70 ans après la mort de l’auteur, mais à l’issue de cette période, les oeuvres deviennent librement réutilisables, sans autorisation à demander, ni redevance à payer.

J’ai déjà eu l’occasion maintes fois ces dernières années d’expliquer sur ce blog (voir ici ou ) à quel point la mise en place d’un domaine public payant constituerait une très mauvaise idée pour la création culturelle, sans apporter de réelle solution aux problèmes de subsistance des auteurs. Le fait que les droits d’auteur soient limités dans le temps permet en effet de constituer un vaste ensemble d’oeuvres dans lequel les auteurs peuvent aller puiser pour trouver de l’inspiration et créer à nouveau. Ce cycle de la création rendu possible par la liberté offerte par le domaine public profite donc en réalité d’abord aux auteurs eux-mêmes et les usages commerciaux des oeuvres anciennes constituent en outre une façon de diffuser et de réactualiser ce patrimoine commun dans la mémoire collective. Entraver par une taxe la faculté de rééditer des livres, de traduire des textes, d’adapter des histoires en films, de réenregistrer de nouvelles interprétations de morceaux, etc., cela revient à méconnaître la part essentielle du domaine public dans la dynamique même de la création.

Mais à chaque fois qu’une réforme du droit d’auteur se profile en France, on peut être certain que, telle les têtes de l’hydre de Lerne, l’idée du domaine public payant va refaire son apparition dans le débat. Quelques jours seulement avant la parution du rapport Racine, le nouveau président de la SGLD (Société des Gens de Lettres) – Mathieu Simonet – a d’ailleurs fait paraître dans L’Obs une tribune intitulée : « Victor Hugo avait une idée pour sortir les auteurs de la précarité. Il faut s’en inspirer« , vantant les vertus du domaine public payant.

J’avais quelques craintes concernant ce que l’on allait trouver dans le rapport final à ce sujet, sachant que Bruno Racine, du temps où il fut président de la BnF, a laissé de cuisants souvenirs aux défenseurs du domaine public. On lui doit notamment d’avoir mis en place des conditions d’utilisation restreignant l’usage du domaine public pour les images de Gallica, la bibliothèque numérique de la BnF et, pire encore, d’avoir conclu des partenariats public-privé de numérisation avec des entreprises ayant conduit à une véritable privatisation du domaine public.

Écarté en huit lignes…

C’est donc avec une certaine fébrilité que je me suis plongé dans le rapport Racine cette semaine en quête d’un passage qui traiterait de cette question du domaine public payant. On en trouve un à la page 68 dans la partie intitulée : « La création de nouvelles taxes n’est pas la piste la plus prometteuse » :

Il a été envisagé de mettre en place un mécanisme de solidarité entre les artistes-auteurs du domaine public et les auteurs vivants. L’idée, déjà avancée par Victor Hugo, apparaît séduisante à première vue. En effet, l’exploitation des œuvres du domaine public ne donne, par définition, pas lieu au paiement de droits d’auteur. Ce mécanisme de solidarité entre les artistes auteurs aurait du sens mais il nécessiterait une augmentation significative du prix des œuvres relevant du domaine public, si le but est de dégager une ressource notable. En outre, l’adjonction de préfaces ou de notes ferait de ces éditions des œuvres protégées sortant du champ d’une telle taxe.

Et c’est tout…

Exit l’idée du domaine public payant qui occupe donc huit lignes dans ce rapport de 140 pages. Bruno Racine ne se place – hélas – pas sur le plan des principes, mais il n’en avance pas moins un argument important à prendre en considération : une telle taxe sur l’usage des oeuvres du domaine public rapporterait des montants très faibles, sauf à la fixer à un niveau qui viendrait entraver la réutilisation des œuvres et freinerait l’accès au patrimoine à travers ses rééditions et adaptations commerciales. C’est en réalité quelque chose que les défenseurs du domaine public se tuent à expliquer depuis longtemps, en ajoutant que le domaine public gratuit est la garantie de l’accès du plus grand nombre à la connaissance et à la culture.

Et si on parlait (enfin) d’autre chose ?

Mais le plus intéressant (ou le plus cocasse) est la partie qui vient dans le rapport juste après celle consacrée au domaine public payant. Elle est en effet intitulée : « Les aides aux auteurs pourraient en revanche bénéficier d’un soutien accru des organismes de gestion collective« . On y apprend que les sociétés de gestion collective (type SACEM, SACD, SOFIA, SCAM, et autres) pourraient soutenir davantage les auteurs par le biais d’aides directes à la création et le rapport va même jusqu’à préconiser de modifier le Code de Propriété Intellectuelle pour garantir un taux minimum de retour aux artistes sur ces sommes. Sont visés notamment les rentrées massives que les sociétés collectives collectent via la redevance pour copie privée et les fameux « irrépartissables », ces redevances qu’elles n’arrivent pas à distribuer à leurs membres, mais qu’elles conservent comme un trésor de guerre pour financer leurs propres actions (de lobbying notamment…).

On pourra donc se souvenir du rapport Racine comme celui qui aura écarté l’idée du domaine public payant, tout en montrant que le problème de la précarité des auteurs réside dans la fragilité de leur position, à la fois face à des intermédiaires comme des éditeurs, mais aussi face à ces sociétés de gestion collective qui se présentent pourtant comme leurs représentants légitimes. Plus largement, le rapport met en lumière les dysfonctionnements des institutions, et notamment du Ministère de la culture. Ses représentants aiment en effet à se présenter dans leur interventions publiques comme « le Ministère du droit d’auteur », mais le rapport montre qu’il devrait d’abord se préoccuper de devenir un « Ministère du droit des auteurs » – ce qui n’est pas la même chose – et le Service du Livre et de la Lecture est particulièrement pointé du doigt.

Il est également ironique de constater qu’aucune des 23 mesures préconisées par le rapport pour améliorer la condition des auteurs n’a seulement été discutée lors des débats ayant conduit à l’adoption de la dernière directive européenne sur le droit d’auteur. On a pourtant beaucoup entendu à cette occasion des acteurs comme le Ministère de la Culture, les sociétés de gestion collective ou les éditeurs, qui prétendaient représenter les intérêts des créateurs et porter leur voix. Pourtant à la lecture du rapport Racine, on se rend compte que l’essentiel de ses propositions visent à assurer une meilleure représentativité des créateurs et à leur redonner du pouvoir dans leurs rapports avec le Ministère de la Culture, les éditeurs ou les sociétés de gestion collective.

Étonnant, n’est-il pas ?

Un soulagement, mais la vigilance reste de mise…

On peut donc être soulagé à la lecture du rapport Racine, mais il convient de ne pas baisser la garde trop vite. Il est possible – et ce serait même hautement souhaitable pour les auteurs – qu’un chantier législatif soit ouvert pour traduire dans la loi tout ou partie de ces 23 préconisations. Mais si le Code de Propriété Intellectuelle venait à être modifié – on sait que ce sera le cas bientôt pour transposer justement la fameuse directive européenne sur le droit d’auteur – on peut s’attendre à ce que l’idée du domaine public payant ressorte tout de même du bois.

Les députés de la France Insoumise ont par exemple déjà pris les devants en utilisant leur niche parlementaire pour proposer la mise en place d’un Fonds pour la Création qui serait alimenté par un domaine public payant. Depuis plusieurs années, la France Insoumise se fourvoie en effet dans l’idée que le domaine public payant constituerait une sorte de Deus Ex Machina pour sortir les auteurs de la précarité, au point que la proposition figurait même dans le programme du candidat Mélenchon. Il faut espérer que le rapport Racine leur fasse réaliser que le vrai combat à mener pour améliorer la condition des créateurs est ailleurs, notamment dans cette idée prometteuse de mettre en place un « statut professionnel des auteurs ».

Si l’on regarde lucidement les choses, le domaine public payant a toujours constitué une proposition hautement idéologique, habilement poussée par des maximalistes du droit d’auteur qui y voient l’occasion de revenir sur le principe de la durée limitée des droits patrimoniaux dans le temps. Le drame est qu’ils aient réussi à séduire une partie des auteurs, mais espérons que le rapport Racine nous aide à enterrer cette fausse solution.

capture-6

calimaq

La diffusion des thèses électroniques à l’heure de la Science Ouverte

L’an dernier, j’ai eu l’occasion de participer comme membre du Jury au premier prix Open Thèse, créé par l’association Open Law, qui avait pour but de récompenser des thèses en droit diffusées en Libre Accès par leurs auteurs. La remise des prix a eu lieu en décembre dernier et trois lauréats ont vu couronnés leurs efforts pour faire progresser la Science Ouverte.

Les sciences juridiques ne constituent pas une discipline réputée particulièrement favorable au Libre Accès et l’initiative de ce prix Open Thèse constitue donc un moyen intéressant de changer progressivement le regard porté sur la diffusion en ligne des résultats de recherche. Il s’adresse en outre aux chercheurs en début de carrière, c’est-à-dire à ceux qui sont les plus à même de faire évoluer les pratiques dans l’avenir. Une telle démarche gagnerait sans doute à être répliquée dans d’autres disciplines, notamment celles où la Science Ouverte progresse le plus lentement.

73% de thèses en Libre Accès

La question pourrait d’ailleurs se poser de savoir où en sont les pratiques des doctorants concernant la diffusion de leur thèse. Il faut savoir qu’un arrêté du 25 mai 2016 réserve aux doctorants la faculté de décider s’ils souhaitent publier leur thèse en accès libre sur Internet ou la laisser en accès restreint. L’ABES (Agence Bibliographique de l’Enseignement Supérieur) a publié en février 2019 les résultats d’une enquête – à côté de laquelle j’étais passé – contenant des informations très intéressantes quant à la manière dont les doctorants font usage de cette faculté de choix.

On y apprend notamment ceci :

Au 1er janvier 2019, sur les 85000 thèses soutenues et traitées par les établissements, on dénombrait quelques 23000 thèses électroniques en accès restreint, soit 27% du corpus, avec un ratio de 26,6% pour les thèses soutenues en 2016 et de 22% pour les thèses soutenues en 2017 (sachant que 2 500 thèses sont en attente de traitement pour 2017).

Je dois dire que j’ai dû relire ces chiffres plusieurs fois pour vérifier si j’avais bien compris. Car si 27% du corpus global des thèses est encore en accès restreint, on peut en déduire que 73% sont diffusées en ligne en libre accès, ce qui constitue un chiffre somme toute assez considérable, si on considère que les doctorants sont libres de prendre cette décision. Et la proportion semble progresser dans le temps, puisqu’elle augmente jusqu’à 78% pour la dernière année considérée par l’enquête (2017).

On dit que les doctorants sont parfois dissuadés de mettre leur thèse en ligne à cause de la peur du plagiat ou parce que la diffusion en Libre Accès leur ferait perdre l’opportunité de publier leur thèse chez un éditeur. Il semblerait que ce type d’arguments perdent peu à peu de leur puissance, vu que près de quatre doctorants sur cinq font à présent le choix de la mise en ligne. Il serait néanmoins intéressant d’avoir des chiffres plus détaillés, notamment pour connaître l’état des pratiques par discipline, car il doit exister des contrastes selon les branches de la Science.

A titre de comparaison, le Baromètre de la Science Ouverte indique une moyenne de 41% d’Open Access pour les articles publiés par les chercheurs français. On ne peut toutefois comparer complètement les thèses et les articles, car pour les thèses ne sont pas des documents édités et le choix de la mise en ligne peut s’opérer de manière plus autonome.

Quelle diffusion pour les thèses en accès restreint ?

Un autre point intéressant dans l’enquête de l’ABES concerne les pratiques des bibliothèques universitaires à propos de la mise à disposition des thèses, lorsque le doctorant a opté pour un accès restreint. En effet, l’arrêté de 2016 permet aux auteurs de ne pas diffuser leur thèse en ligne, mais il prévoit que les thèses en accès restreint reste néanmoins communicables dans le périmètre suivant :

Sauf si la thèse présente un caractère de confidentialité avéré, sa diffusion est assurée dans l’établissement de soutenance et au sein de l’ensemble de la communauté universitaire. La diffusion en ligne de la thèse au-delà de ce périmètre est subordonnée à l’autorisation de son auteur, sous réserve de l’absence de clause de confidentialité.

Il faut savoir que cette nouvelle version de l’arrêté sur le doctorant a élargi ces conditions de diffusion (j’avais d’ailleurs écrit un billet à ce sujet en 2016). En effet auparavant, les bibliothèques universitaires ne pouvaient communiquer les thèses électroniques en accès restreint que dans le périmètre de l’établissement de soutenance. En ajoutant que la diffusion était possible « au sein de l’ensemble de la communauté universitaire« , le nouvel arrêté laissait présager la possibilité d’une communication à distance, à condition de l’effectuer de manière sécurisée. Mais le texte restait flou sur les modalités que pourraient prendre une telle diffusion élargie.

L’enquête de l’ABES montre que ces incertitudes ont hélas plutôt joué en défaveur de la diffusion, puisque 2/3 des établissements n’autorisent pas le PEB (Prêt Entre Bibliothèques) pour les thèses électroniques en accès restreint. Les situations sont très variables en fonction des établissements : dans la plupart des cas, les thèses sont quand même accessibles via un intranet, mais uniquement aux membres de l’établissement et non à « l’ensemble de la communauté universitaire« .

État des pratiques concernant la diffusion sur Intranet des thèses en accès restreint d’après l’étude de lABES

Pour une « FAIRisation » de la diffusion des thèses

L’ABES recommande à la fin de son enquête la mise en place d’un dispositif au niveau national pour permettre l’accès aux thèses en accès restreint. Cette idée a son intérêt, mais il me semble que les enjeux vont graduellement se déplacer à l’avenir.

Si l’on en croît la dynamique des chiffres, cette question de la diffusion des thèses en accès restreint risque en effet de perdre peu à peu en importance dans le temps, puisque la plupart des thèses seront accessibles en ligne. Il restera néanmoins toujours une proportion de thèses pour lesquelles l’accès devra continuer à s’effectuer de manière sécurisée, indépendamment de la volonté du doctorant. Cela découle de motifs légitimes de confidentialité ou de la nécessité de protéger des secrets reconnus par la loi (protection de la vie privée, secret industriel et commercial, secrets administratifs, etc.).

Si on extrapole un peu à partir de la situation actuelle, on arrive à un schéma proche de celui qui prévaut actuellement en droit pour les données de la recherche, à savoir un principe d’ouverture par défaut, accompagné d’une série d’exceptions fixées par la loi. On pourrait donc à terme envisager une refonte de l’arrêté sur le doctorat pour acter cet état de fait et mettre complètement en phase les règles de diffusion des thèses avec les principes de la Science Ouverte. Cela conduirait quelque part à évoluer vers ce que j’appellerai une « FAIRisation » de la logique de diffusion des thèses.

Je fais référence par là aux principes FAIR, mis en place initialement par la Commission européenne pour les données de recherche, dont l’esprit général est résumé par la phrase : « Aussi ouvert que possible, aussi fermé que nécessaire« . Cet adage traduit l’idée que l’ouverture ne doit plus dépendre d’une décision d’opportunité ou d’un choix discrétionnaire, mais plutôt d’un diagnostic, devant s’attacher à vérifier si des obstacles juridiques à la mise en ligne existent ou non. Au cas où aucun de ces obstacles n’est identifié, alors c’est le principe général qui s’applique et la mise en ligne doit être opérée.

Il me semble qu’il serait important que les doctorants soient d’emblée familiarisés avec cette logique FAIR, car ils seront désormais amenés de plus en plus souvent dans la suite de leur carrière de chercheur à devoir appliquer ces principes d’ouverture par défaut. C’est en effet la volonté du Plan National pour la Science Ouverte, adopté en 2018, de promouvoir l’ouverture systématique des résultats de la recherche financée par des fonds publics. Il serait donc assez cohérent que les doctorants qui reçoivent un financement public pour réaliser leurs thèses doivent en contrepartie publier celle-ci en ligne, à moins qu’un obstacle juridique ne s’y oppose (ouverture par défaut). Une telle règle semble d’ailleurs se dessiner au Royaume-Uni pour les thèses financées par l’équivalent de leur ANR (voir ci-dessous).

La politique d'ouverture des thèses financées par UKRI et des publications associéeshttps://t.co/ZU6KlSPEa5 pic.twitter.com/nLD9V78iFw

— Mathieu Saby (@27point7) December 28, 2019

On pourrait même aller plus loin dans cette idée de « FAIRisation » de la diffusion des thèses en prenant en compte également les données de recherche associées. Il importe en effet de considérer les thèses comme des objets « hybrides », composés certes d’un texte, mais aussi des données sous-jacentes, qui en sont indissociables. La période du doctorat constitue d’ailleurs le premier moment où les chercheurs sont confrontés aux problématiques de production et de gestion de données de recherche et c’est donc un moment crucial pour l’acquisition des compétences de bonnes pratiques. Or de la même manière que les lauréats des projets ANR ou H2020 sont désormais tenus de réaliser des plans de gestion des données (DMP / Data Management Plan), on pourrait imaginer que les doctorants doivent faire de même.

Un tel plan de gestion de données, qui devrait idéalement comporter trois volets (en début de thèse, à mi-parcours, à la fin), permettrait justement d’anticiper la question de la diffusion et d’établir si des obstacles juridiques à l’ouverture existent ou non. Pour que la cohérence soit complète, de la même manière qu’un doctorant ne peut aujourd’hui soutenir sa thèse sans avoir déposé la version électronique du texte à la bibliothèques universitaire, on pourrait imaginer que les doctorants ne puissent se présenter à la soutenance sans avoir déposé les données associées, conformément à un Plan de Gestion de Données établi à l’avance. Et pour que ces principes aient une portée réelle, c’est l’arrêté sur le doctorat qui devrait être modifié pour établir de telles règles.

***

Le Plan National pour la Science Ouverte prévoyait déjà la création d’un « Label Science Ouverte » pour les écoles doctorales et lors des dernières Journées Nationales de la Science Ouverte qui se sont tenues à Paris en novembre dernier, il a été annoncé la production d’un « Vade-mecum de la Science Ouverte » à destination des écoles doctorales. Les propositions finales que j’ai fait figurer dans ce billet vont plus loin, mais si 73% des thèses sont déjà en Libre Accès, le pas à franchir pour établir un principe d’ouverture par défaut est assez ténu. Les principes mêmes de la Science Ouverte conduiront sans doute tôt ou tard à une généralisation de la logique du FAIR et il y aurait du sens à ce que les thèses soient diffusées dans cet esprit, aussi bien en ce qui concerne le texte que les données.

capture-2

calimaq

Un « RGPD californien » qui transforme les données personnelles en marchandises fictives…

Depuis le 1er janvier, le CCPA (California Consumer Privacy Act) est entré en vigueur aux États-Unis. Ce texte adopté en 2018 par l’État de Californie en réaction au scandale Cambridge Analytica a fait l’objet d’une large couverture par la presse américaine, qui en souligne l’importance en le comparant à notre RGPD (Règlement Général sur la Protection des Données) dont il serait inspiré. Il est vrai que les deux textes présentent certaines similarités (voir ici par exemple pour une comparaison détaillée sous forme de tableau). Mais ils comportent aussi des différences notables, parce qu’ils ne relèvent pas de la même philosophie et n’ont pas la même façon de concevoir la nature des données personnelles.

Le CCPA va-t-il réellement permettre une meilleure protection des droits des citoyens californiens ou s’agit-il d’un texte en trompe-l’oeil ?

En effet, là où le RGPD protège les données personnelles comme un aspect de la personnalité des citoyens européens, le CCPA s’intègre au droit commercial et vise à encadrer la relation entre consommateurs et entreprises. Or ce rattachement à la logique mercantile va assez loin puisque, même si le texte va indéniablement apporter un surcroît de protection de la vie privée en Californie, il acte aussi que les données personnelles constituent par défaut des biens marchandisables, ce qui ne correspond pas à l’approche européenne en la matière.

Avant l’adoption du RGPD, le Parlement européen avait d’ailleurs adopté en 2017 une résolution dans laquelle il affirmait que :

les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises.

Comme nous allons le voir, le CCPA traite cette question de la marchandisation des données personnelles d’une manière très paradoxale. En apparence, il donne aux individus des moyens de se protéger contre de telles transactions, mais dans les faits, il instaure cette protection comme une simple dérogation à un principe général de « commercialité des données ».

Plusieurs articles de presse insistent sur le fait que les grandes entreprises du numérique (Google, Facebook, Amazon, etc.), dont le siège est d’ailleurs souvent implanté en Californie, se sont opposées à l’adoption de ce texte en le dénonçant comme trop contraignant. Mais il me semble qu’en transformant les données personnelles en « marchandises fictives », le CCPA va fragiliser la position des individus face aux entreprises et, sans le dire explicitement, il pose les bases d’une consécration juridique de la « patrimonialisation » des données personnelles.

Des ressemblances superficielles avec le RGPD

Le CCPA confère aux consommateurs californiens une série de droits nouveaux :

  • Droit de connaître leurs données personnelles collectées par des entreprises ;
  • Droit de savoir si leurs données personnelles sont vendues ou transmises à des tiers ;
  • Droit de s’opposer à la vente de leurs données personnelles ;
  • Droit d’accès aux données personnelles collectées ;
  • Droit de demander la suppression des données personnelles collectées ;
  • Droit à ne pas être discriminé lorsqu’il est fait exercice de ces droits.

Ces prérogatives (droit à l’information, droit d’accès, droit d’opposition droit à l’effacement, etc.) ressemblent à ce que l’on appelle les « droits des personnes » qui figurent dans le RGPD (voir ci-dessous).

Néanmoins, il existe aussi des différences importantes dans le périmètre d’application de ces droits. Par exemple, comme le CCPA est un texte de droit de la consommation, il s’applique uniquement vis-à-vis des entreprises, mais pas dans les relations avec les administrations publiques, alors que le RGPD embrasse l’ensemble des rapports entre les individus et les responsables de traitement de données personnelles.

Mais la divergence la plus significative entre le RGPD et le CCPA réside à mon sens dans la place qu’ils accordent respectivement au consentement des individus.

Un rôle résiduel dévolu au consentement

Depuis le 1er janvier 2020, beaucoup de sites commerciaux américains ont ajouté sur leur page d’accueil un bouton « Do Not Sell My Data » (Ne vendez pas mes données) pour permettre aux internautes californiens de faire jouer le droit d’opposition que le texte leur reconnaît. Ils doivent pour cela activement faire savoir à l’entreprise qu’ils ne souhaitent pas que leurs données soient revendues en remplissant un formulaire. C’est à la fois la conséquence la plus visible de l’entrée en vigueur du texte et celle que je trouve la plus ambigüe.

Une page « Do Not Sell My Data » sur le site de l’entreprise ShareThis.

Cela constitue à première vue un mécanisme de protection intéressant contre la marchandisation de données, mais il faut bien voir qu’il s’agit uniquement d’un « opt-out » (une option de retrait) et que, par défaut, si l’internaute ne fait rien, ses données pourront d’office être revendues. Et c’est là où je trouve que le CCPA est problématique, car sous couvert de protéger la vie privée, il acte surtout que les données personnelles constituent structurellement des marchandises, à moins que l’individu ne se manifeste, entreprise par entreprise, pour s’y opposer.

Imaginons un instant une loi qui prétendrait « protéger les malades » en instaurant cette règle : si vous ne voulez pas que les hôpitaux prélèvent votre sang quand vous allez vous faire soigner et le commercialisent ensuite, il vous suffit de leur indiquer en remplissant un formulaire « Ne vendez pas mon sang ». Par défaut, si vous ne le faites pas, vous serez saigné d’office et votre sang sera vendu. Tout le monde hurlerait au scandale et dénoncerait cette soit-disante « protection », mais c’est pourtant exactement ce que fait le CCPA avec les données…

Par ailleurs, dans cet article, on apprend qu’une société ayant mis en place le bouton « Do Not Sell My Data » au mois de décembre pour procéder à un test anticipé a constaté que 4% seulement des internautes avaient fait jouer leur droit d’opposition, ce qui signifie donc a contrario que 96% d’entre eux a tacitement accepté la marchandisation de leurs données, peut-être même sans s’en rendre compte…

La logique est inverse dans le RGPD, car les traitements de données personnelles doivent s’appuyer sur une des six bases légales prévues par le texte pour être licites. Dans un grand nombre d’hypothèses, les entreprises ont l’obligation de recueillir le « consentement libre et éclairé » des personnes pour collecter, traiter et transmettre des données à des tiers. Or dans le RGPD, ce consentement doit être explicite et prendre la forme d’un « opt-in », c’est-à-dire qu’à défaut d’une manifestation de volonté prenant la forme d’un acte positif, les individus sont réputés ne pas acquiescer aux traitements. C’est l’inverse dans le CCPA où l’opt-out est la règle et l’opt-in uniquement l’exception, le texte prévoyant notamment un consentement explicite pour le partage des données des enfants de moins de 15 ans.

L’ambiguïté de la notion de « vente de données »

Une autre question qui se pose avec le CCPA est de savoir à quoi renvoie exactement la notion de « vente de données ». Lorsqu’on parle de revente de données personnelles, on pense rapidement aux Data Brokers, ces véritables « courtiers de données personnelles », qui se sont faits une spécialité de rassembler de vastes ensembles d’informations – souvent dans des conditions assez douteuses – pour les revendre. Mais ce modèle est assez spécifique et il ne correspond pas exactement à ce que font des entreprises spécialisées dans la publicité ciblée, comme Facebook ou Google. Ces derniers ne « vendent » pas directement les données, au sens où ils les transfèreraient à des tiers, mais ils permettent à des annonceurs d’envoyer des publicités à des catégories déterminées d’usagers, à partir de profils constitués par la plateforme. Dans ces cas-là, peut-on parler de « vente » au sens propre du terme ?

Face à ces questions, le CCPA a choisi de retenir une définition large de l’acte de vente :

 “Sell,” “selling,” “sale,” or “sold,” means selling, renting, releasing, disclosing, disseminating, making available, transferring, or otherwise communicating orally, in writing, or by electronic or other means, a consumer’s personal information by the business to another business or a third party for monetary or other valuable consideration.

« Vendre », « vente », « vendu » signifie vendre, louer, communiquer, divulguer, diffuser, transférer ou toute autre forme de communication orale, écrite, électronique ou autre des informations d’un consommateur par l’entreprise à une autre entreprise ou à un tiers en échange d’une contrepartie monétaire ou d’une autre forme d’avantage.

On voit donc que la définition est plus large que ce que le terme « vente » sous-entend couramment et elle englobe plutôt toutes les formes d’exploitation commerciale de données impliquant deux entités économiques. Mais cela n’empêche pas Facebook par exemple d’annoncer qu’il ne mettra pas en place le bouton « Do Not Sell My Data », car pour eux, leur modèle ne repose pas techniquement sur une vente de données. On peut s’attendre sur ce point à des recours en justice qui donneront lieu à des interprétations du texte par les juges.

Mais sur le fond, je trouve que c’est une erreur pour le CCPA d’accorder autant de place à la notion de « vente des données ». Car le recours à un tel terme a aussi une portée symbolique et si la loi se met à parler de « vente de données personnelles », alors elle sous-entend aussi que celles-ci sont des biens susceptibles de faire l’objet d’une propriété (même si les termes « propriety » ou « ownership » n’apparaissent pas explicitement dans le texte). Le terme de « vente » attire nécessairement le texte vers le terrain de la patrimonialité des données et c’est à mon sens une pente dangereuse.

Une porte ouverte à l’auto-marchandisation des données personnelles

En parlant de « vente de données personnelles », le CCPA admet donc que des entreprises puissent s’échanger des données comme des marchandises. Mais d’autres passages du texte vont même plus loin, en autorisant des transactions entre les plateformes et les individus eux-mêmes au sujet de leurs données. On glisse alors vers ce que certains appellent la « patrimonialisation des données personnelles« , c’est-à-dire le fait de reconnaître aux individus un droit de propriété sur leurs données personnelles pour leur permettre de les vendre aux sites Internet en échange d’une rémunération. C’est notamment une thèse défendue en France par certains cercles ultralibéraux, qui en ont fait un de leurs sujets de prédilection.

#Facebook, #Google et les géants du numérique doivent payer les citoyens européens quand ils exploitent leurs données ! #patrimonialité #LEuropeJELAGARDE pic.twitter.com/WiBv51cMi3

— Jean-Christophe Lagarde (@jclagarde) March 20, 2019

Pour protéger les consommateurs, le CCPA indiquent que les entreprises n’ont pas le droit de « discriminer » les clients qui font valoir vis-à-vis d’elles les droits que le texte leur reconnaît, notamment le droit d’opposition à la vente des données. Il est précisé que l’entreprise ne peut pas dans ce cas appliquer un prix différent pour les individus qui feraient jouer l’opt-out ou leur fournir une qualité de service dégradée. Ce sont des dispositions importantes, car on sait que Facebook, par exemple, a déjà envisagé de mettre en place une version payante de son service pour les utilisateurs ne souhaitant pas recevoir de publicités ciblées. Cela rejoint aussi pour le coup le RGPD, puisque les entreprises ne peuvent prétendre en Europe recueillir le consentement « libre » des personnes si elles les exposent à des conséquences négatives en cas de refus.

Mais si le CCPA interdit aussi les conséquences négatives, il admet les conséquences « positives », en prévoyant que les entreprises pourront prévoir des « incitations financières » pour encourager les individus à les autoriser à leur céder leurs données personnelles :

A business may offer financial incentives, including payments to consumers as compensation, for the collection of personal information, the sale of personal information, or the deletion of personal information.

Une entreprise peut offrir des incitations financières, y compris des paiements, aux consommateurs à titre d’indemnisation, pour la collecte d’informations personnelles, la vente de données personnelles ou la suppression de données personnelles.

De telles pratiques ont déjà cours aux États-Unis, puisque Facebook a déjà proposé de payer des utilisateurs 20 dollars par mois à condition d’installer un VPN (Facebook Research) qui constituait en réalité un mouchard et Google avait fait de même avec une application appelée Screenwise Meter. Le CCPA va donner une base légale à telles pratiques et les légitimer, en incitant d’autres entreprises à proposer des transactions à des utilisateurs pour récupérer leurs données contre paiement.

Là encore, la philosophie du RGPD est très différente, car comme j’avais eu l’occasion de le montrer dans un billet publié en 2018, il est difficile d’organiser sur la base du RGPD une vente par les individus de leurs données contre rémunération. Cela tient notamment au fait que les individus ne perdent jamais le droit à contrôler les finalités pour lesquelles les données ont été collectées et qu’ils peuvent toujours retirer leur consentement une fois qu’ils l’ont donné. Dans ce contexte, une « vente » restera toujours forcément très fragile et il est sans doute plus juste de dire que le RGPD ne permet pas de faire comme si les données personnelles étaient des biens pouvant être marchandisés.

En route vers les données comme « marchandises fictives »

Vous l’aurez compris, je reste assez dubitatif vis-à-vis de ce California Consumer Privacy Act. Il est sans doute intéressant de voir un État aussi important que la Californie adopter un texte pour mieux protéger les données personnelles et cela peut contribuer à ce qu’une législation soit un jour votée au niveau fédéral. Mais la Californie n’est précisément pas n’importe quel État : c’est là qu’on trouve le siège de la plupart des grandes entreprises géantes du numérique et où s’est forgé l’esprit de « l’utopie numérique » dont a si bien parlé Fred Turner. L’ambiance intellectuelle de la Silicon Valley est imprégnée de « cyber-libertarianisme« , une idéologie formant un terreau tout à fait compatible avec la patrimonialité des données personnelles. Ce n’est d’ailleurs sans doute pas un hasard si Jaron Lanier – un des principaux défenseurs de cette thèse – est une figure éminente de ce paysage californien.

On me répondra peut-être que la différence entre le CCPA et le RGPD est en pratique assez ténue. En Californie, il faudra désormais que les internautes cliquent sur le bouton « Do Not Sell My Data » pour s’opposer à la commercialisation de leurs données. Chez nous – où règne en principe l’opt-in et pas l’opt-out -,nous passons désormais notre temps à cliquer sur les bandeaux « J’accepte » que les sites internet utilisant des cookies publicitaires ont mis en place pour gérer cette question du consentement préalable (la plupart ayant d’ailleurs recours aux services de l’entreprise américaine QuantCast dont le siège est à… San Francisco !). Est-on bien certain que plus de 4% des citoyens européens n’acceptent pas activement les cookies publicitaires ? Il serait intéressant (mais sans doute aussi déprimant…) d’avoir des chiffres à ce sujet.

Une de ces fameuses bannières Quantcast qui ont fleuri partout sur Internet après l’entrée en vigueur du RGPD.

L’opt-out est même d’ailleurs parfois carrément bafoué par certains sites Internet, qui ne laissent pas le choix aux internautes que d’accepter les cookies publicitaires (voir un exemple ci-dessous), avec la complaisance de la CNIL qui a décidé de reporter d’un an les règles prévues par le RGPD en matière d’acceptation des cookies

Vous êtes sérieux @LeHuffPost ? #RGPD pic.twitter.com/5rqV67lPst

— Guillaume Champeau (@gchampeau) January 6, 2020

Mais pour moi, la différence essentielle est ailleurs. Que les données personnelles – en Europe comme aux États-Unis – fassent l’objet d’une exploitation économique débridée, dans des conditions souvent choquantes, c’est une réalité indéniable. Mais le RGPD constitue encore une sorte de « digue symbolique », qui continue à reconnaître la protection des données comme un droit fondamental de la personne. Le CCPA, au contraire, fait sauter cette digue, en admettant pleinement le paradigme des données comme marchandises. En cela, il institue les données personnelles comme « marchandises fictives » et c’est tout sauf anodin.

Cette expression de « marchandises fictives » nous vient de l’historien Karl Polanyi qui, dans son ouvrage « La Grande Transformation » explique comment l’avènement du capitalisme industriel a eu lieu au début du 19ème siècle lorsque trois facteurs de production ont été instaurés par le droit comme des « marchandises fictives » : la Terre, le Travail et la Monnaie. Cette étape fut décisive pour constituer l’économie de marché en une sphère autonome, à même de se « désencastrer » des normes sociales qui la contenaient. Depuis, le capitalisme industriel s’est transformé en capitalisme cognitif et ce dernier a dégénéré en un capitalisme de surveillance, dont les grandes entreprises numériques sont les instruments avec la complicité des États. Assez logiquement, la nouvelle frontière que ce système cherche à atteindre consiste en la transformation des données personnelles en « marchandises fictives », ce qui ne peut s’opérer que si le droit organise cette fiction.

De ce point de vue, alors que le RGPD – malgré ses lourdes imperfections – constitue au moins encore une forme de résistance au développement du capitalisme de surveillance, ce n’est pas le cas du CCPA, qui s’apparente plutôt à une simple mesure d’accompagnement et à une résignation face à sa logique.

calimaq

L’affaire Jamendo et les Creative Commons : où est (exactement) le problème ?

En début de semaine, une décision de justice rendue par la Cour de Cassation le 11 décembre dernier a suscité un certain émoi en ligne, après que des sites d’information comme Next INpact ou ZDNet s’en soient faits l’écho. Ce jugement était d’importance, car il portait sur les licences Creative Commons et, plus précisément, sur leur articulation avec les mécanismes de gestion collective du droit d’auteur et des droits voisins. Depuis leur création en 2001, les licences Creative Commons n’avaient jamais fait encore l’objet d’une décision de justice en France et on comprend donc que cet arrêt de la Cour de Cassation était très attendu.

Sans entrer dans les détails, les faits portaient sur un conflit entre l’enseigne des magasins Saint Maclou et deux sociétés de gestion collective (SACEM et SPRE) à propos du versement d’une redevance prévue par la loi pour la diffusion publique de musique enregistrée. Le Code de Propriété Intellectuelle prévoit en effet que les lieux publics souhaitant sonoriser leurs espaces avec des « phonogrammes publiés à des fins de commerce » doivent verser une redevance – dite rémunération équitable – destinée aux titulaires de droits voisins sur la musique, c’est-à-dire les artistes-interprètes et les producteurs. Cette rémunération est collectée d’abord par la SACEM qui la reverse à la SPRE, à charge pour elle de la répartir in fine aux-dits ayants droit. Cette redevance ne concerne que les droits voisins, la rémunération au titre du droit d’auteur étant gérée directement par la SACEM via l’application de ses forfaits.

Dans cette affaire, l’enseigne Saint Maclou a préféré pour sonoriser ses magasins utiliser l’offre fournie par la plateforme Jamendo, qui propose à des artistes indépendants de diffuser leurs musiques sous licence Creative Commons. Ces créateurs peuvent choisir d’activer une option pour rentrer dans le programme Jamendo Licensing, autorisant ensuite la société à proposer des bouquets de titres pour des réutilisation commerciales moyennant des royalties à payer. Il peut s’agir par exemple de l’utilisation de musiques de fond pour agrémenter une vidéo ou de la sonorisation d’espaces commerciaux. Jamendo établit alors des tarifs calculés selon un barème et il se charge ensuite de reverser 65% des recettes aux artistes participant au programme. Il s’agissait donc d’un service, s’appuyant sur les licences Creative Commons, pour proposer une alternative au catalogue de la SACEM.

Néanmoins, la SACEM et la SPRE ont considéré que Saint Maclou, bien qu’ayant décidé de recourir aux services de Jamendo, devait tout de même s’acquitter du paiement de la rémunération équitable pour une somme équivalent à 120 000 euros. Pour ces sociétés, le mécanisme de licence légale s’applique quelle que soit l’origine des morceaux utilisés pour sonoriser des lieux publics et la loi leur confère une forme de monopole que Jamendo ne saurait contourner.

Par trois fois – en première instance, appel et cassation -, les tribunaux ont choisi de faire droit aux prétentions de la SACEM et de la SPRE, ce qui signifie que Saint Maclou sera bien contraint de payer ces 120 000 euros, en pouvant se retourner pour cela contre Jamendo qui sera obligé de verser cette somme à son client.

C’est assurément un coup dur porté aux licences Creative Commons et une limite sévère à la possibilité de construire des alternatives en s’appuyant sur ces instruments. Néanmoins, je voudrais apporter quelques précisions pour essayer de cerner exactement où se situe le problème avec cette décision de la Cour de Cassation. Next INpact titre en effet son commentaire du jugement de la manière suivante : « La Cour de Cassation confirme la redevance sur la musique libre diffusée en magasin« . ZDNet va dans le même sens :

Vous écrivez et jouez une musique et la mettez sous licence libre pour qu’elle soit librement écoutée, reprise, diffusée? Eh bien, son usage dans un lieu commercial comme un magasin sera quand même assujetti à redevance.

C’est aussi sur ce mode que plusieurs organisations de la Culture Libre ont réagi, en faisant le lien entre cette décision et les licences libres, comme par exemple Wikimédia France ci-dessous :

Terrible coup porté aux licences libres et à la volonté des créateurs. https://t.co/u2wCVzNlK6

— Wikimédia France (@Wikimedia_Fr) December 30, 2019

En réalité, et c’est ce que je voudrais montrer dans ce billet, les choses sont plus nuancées, car cet arrêt de la Cour de Cassation ne concerne pas des morceaux sous licence libre, à proprement parler. Ce n’est certes pas une bonne nouvelle pour les Creative Commons, mais l’effet néfaste sera limité à un périmètre précis qu’il convient de bien appréhender.

Le modèle de Jamendo Licensing et l’ambiguïté du « Libre de droits »

En réalité, c’est d’abord l’ambiguïté de Jamendo dans sa manière de présenter son service qui ne facilite pas l’interprétation de la décision de la Cour de Cassation. La société présente en effet son offre de sonorisation comme constituée par « 220 000 titres libres de droits« . Or cette expression est toujours très délicate à manier et même souvent trompeuse. Par « libre de droits », Jamendo entend « libre de rémunération équitable à payer » et c’était ce qui faisait tout l’intérêt du service offert aux magasins. Mais cela ne voulait pas dire pour autant que cette offre était gratuite, par Jamendo pratiquait bien un tarif, sans doute inférieur à celui de la SACEM pour que son offre soit attractive. Il ne s’agissait donc pas de musique « sous licence libre » à proprement parler et encore moins de musique « libre de droits », si l’on entend par là des oeuvres appartenant au domaine public.

Quel est alors le statut juridique exact des enregistrements musicaux figurant dans le catalogue de Jamendo Licensing ? En réalité, la plateforme propose aux artistes recourant à ses services pour se diffuser de choisir par les six licences Creatives Commons possibles qui, comme on le sait, sont plus ou moins ouvertes par le biais d’un système d’options. Or parmi ces licences, seules certaine sont des licences « libres » au sens propre du terme (CC-BY, CC BY-SA, CC0), mais toutes les autres licences – celles comportant des clauses NC (pas d’usage commercial) ou ND (pas de modification) – ne sont pas des licences libres au sens de la définition établie par la Free Software Foundation. Il s’agit de licences dites « de libre diffusion« , qui permettent certes des usages plus étendus que l’application par défaut du droit d’auteur, mais tout en maintenant certaines restrictions (c’est d’ailleurs tout le sens du slogan des Creative Commons « Some Rights Reserved » par rapport au classique « All Rights Reserved »).

Seules les licences CC dans la zone verte peuvent être dites « libres » au sens propre du terme.

Or par définition, pour pouvoir participer au service Jamendo Licensing, les artistes doivent nécessairement choisir une licence avec une clause NC (Pas d’usage commercial). Cela leur permet de continuer à réserver le droit patrimonial d’exploitation commerciale sur leur musique et de l’utiliser pour conclure un contrat avec Jamendo en vue de conférer à cet intermédiaire la faculté de proposer des tarifs pour la sonorisation des espaces de magasins.

C’est un principe majeur du droit que les juges ne peuvent statuer au-delà du cas qui leur est soumis (Non ultra petita). Donc à proprement parler, la décision de la Cour de Cassation n’affecte pas – et n’affectera pas à l’avenir – l’usage des oeuvres sous licence libre. Un magasin pourra très bien continuer à utiliser des morceaux sous CC0, CC-BY ou CC-BY-SA pour sonoriser des espaces sans avoir à payer la fameuse rémunération équitable, qu’il le fasse à partir de morceaux diffusés par Jamendo ou un autre site où de tels contenus figurent (par exemple Dogmazic, Internet Archive, Soundcloud, etc.). La Cour de Cassation (et les juges antérieurs qui ont été saisis par cette affaire) prennent en effet bien le soin de vérifier que les « phonogrammes » ont été publiés « à des fins de commerce » et ils déduisent cette qualité du fait justement que les artistes sont entrés dans ce mode de relation particulier avec Jamendo pour faire exploiter leur musique contre rémunération. Mais a contrario, on peut en déduire que les autres artistes qui ont fait le choix de licences libres au sens propre du terme ne sont pas concernés par cette décision.

Cette précision est à mon sens importante, car il aurait été gravissime que la diffusion de musique libre dans les espaces publics soit assujettie au paiement d’une redevance perçue par des sociétés de gestion collective classiques. Cela aurait conduit à bafouer la volonté même des auteurs choisissant les licences libres pour diffuser leur création, en les forçant quelque part à être rémunérés alors même qu’ils avaient autorisé l’usage gratuit de leurs oeuvres.

Où est alors le problème exactement ?

Attention, je ne suis pas en train de dire que cette décision de la Cour de Cassation n’est pas problématique, mais il me paraît essentiel de ne pas lui donner une portée qu’elle n’a pas et d’indiquer qu’elle laisse intacte la possibilité de réutiliser les œuvres musicales sous licence libre, sans être soumis à un paiement.

Néanmoins, le fait est que ce jugement va tout de même concerner des oeuvres sous Creative Commons avec une clause NC et cela va suffire à provoquer tout un ensemble de conséquences négatives. La première est que le modèle économique de Jamendo est gravement compromis. Si les magasins sont assujettis au paiement de la rémunération équitable à la SACEM, l’offre de Jamedo Licensing perd quasiment tout intérêt. Sachant que Jamendo se finançait principalement grâce à ces royalties, on peut considérer que cela compromet l’avenir de la plateforme (à moins qu’elle n’arrive à maintenir son chiffre d’affaire en dehors de la France ?).

Mais le plus aberrant va être les conséquences pour les artistes et les producteurs qui étaient en affaire jusqu’à présent avec Jamendo Licensing et qui touchaient 65% des recettes générées. A présent, ils vont devoir se tourner vers la SPRE pour toucher la part de la rémunération équitable versée par les magasins en affaire avec Jamendo et qui devrait logiquement leur revenir. Or ces artistes ne sont pas membres des sociétés de gestion collective classiques et on en est certain, car Jamendo exige que les artistes lui certifie ne pas appartenir à de telles sociétés pour pouvoir entrer dans son programme Jamendo Licensing. La Cour de Cassation estime que ces artistes peuvent néanmoins se tourner à présent vers ces sociétés de gestion collective pour réclamer leur part de rémunération équitable, mais il est hautement improbable que tous le fassent et pas certain non plus que ces sociétés ne leur imposent pas de devenir membres pour pouvoir prétendre toucher leur rémunérations…

Au final, l’effet le plus probable de l’arrêt de la Cour est que les artistes qui passaient par Jamendo ne verront jamais la couleur de cet argent qui leur est pourtant légitimement dû et ces sommes finiront dans ce que les sociétés de gestion collective appellent leurs « irrépartissables » pour aller gonfler les budgets qu’elles consacrent à leurs actions propres (y compris d’ailleurs le lobbying assidu qu’elles exercent pour inciter constamment le législateur à renforcer le droit d’auteur…).

Donc oui, sur ce point, la décision de la Cour de Cassation est proprement scandaleuse et c’est un épisode de plus dans la dégénérescence des droits de propriété intellectuelle qui devraient toujours rester des droits ouverts aux artistes pour assurer leur subsistance et non venir engraisser des intermédiaires.

Des menaces supplémentaires à venir ?

D’autres conséquences néfastes pourraient également découler de cette décision, si on réfléchit à plus long terme. La Cour de Cassation nous dit en effet que des mécanismes légaux, type licence légale ou gestion collective obligatoire, peuvent prévaloir sur des licences type Creative Commons. A vrai dire, cela a toujours constitué une faille de ces instruments juridiques, qui ne sont que des contrats et restent donc soumis aux normes supérieures, parmi lesquelles figurent la loi. Le texte des licences Creative Commons consacre d’ailleurs explicitement un point à la question de l’articulation avec les mécanismes de gestion collective :

Dans la mesure du possible, le Donneur de licence renonce au droit de collecter des redevances auprès de Vous pour l’exercice des Droits accordés par la licence, directement ou indirectement dans le cadre d’un régime de gestion collective facultative ou obligatoire assorti de possibilités de renonciation quel que soit le type d’accord ou de licence. Dans tous les autres cas, le Donneur de licence se réserve expressément le droit de collecter de telles redevances.

Or tout le problème réside dans ce morceau de phrase : « Dans la mesure du possible« . Pour ce qui est de la rémunération équitable, on a vu qu’il était en réalité impossible à un artiste publiant un phonogramme à des fins de commerce de renoncer à cette redevance : elle sera mécaniquement perçue par la SACEM et la SPRE, qu’il le veuille ou non et qu’il vienne ensuite la réclamer ou non, peu importe même qu’elle finisse en bout de course dans les poches de quelqu’un d’autre…

Mais le plus dangereux serait qu’un mécanisme de gestion collective vienne s’imposer, non pas seulement à des oeuvres sous Creative Commons avec une clause NC, mais aussi à des oeuvres sous licence libre au sens propre du terme. Car cela viendrait alors interdire les usages gratuits que ces licences ont précisément pour but de favoriser, sachant qu’interdire la gratuité est un vieux fantasme de certains ayants droit français… Et une telle menace n’est pas uniquement théorique.

On a vu par exemple en 2016 une « taxe Google Images » instaurée par le législateur français pour faire payer aux moteurs de recherche la possibilité d’indexer les images en ligne. Ce mécanisme avait l’énorme désavantage d’englober toutes les images diffusées sur Internet, sans faire d’exception pour les images sous licence libre, avec un paiement à verser à une société de gestion collective qui aurait alors empoché ces sommes sans être en mesure de les reverser aux auteurs effectifs de ces oeuvres.

Cette gestion collective obligatoire – qui s’apparente à une sorte d’expropriation « à l’envers » – n’a cependant jamais vu le jour, car le gouvernement a fini par se rendre compte, une fois la loi votée, que de gros risques d’incompatibilité avec le droit européen pouvaient survenir. Mais avec l’adoption de la directive Copyright l’an dernier, le contexte a changé et il est quasiment certain que cette taxe Google Images fera son retour à l’occasion de la transposition de la directive, annoncée pour le début d’année. De ce point de vue, la décision de la Cour de Cassation n’est pas encourageante, car elle entérine le principe d’une prédominance des mécanismes légaux de gestion collective sur les licences.

Si les licences libres sont pour l’instant préservées suite à cette décision Jamendo, il n’est donc pas certain qu’elles le restent encore longtemps si le législateur ne prend pas soin de les exclure explicitement du champ des mécanismes de gestion collective qu’il mettra en place à l’avenir.

licences-creative-commons1

calimaq

Et S.I.Lex devint un livre…

L’information a déjà un peu tourné sur les réseaux sociaux, il y a quelques jours, mais je tenais à la diffuser également sur ce blog, in extremis avant que l’année ne s’achève. En février 2018, j’avais écrit un billet pour relayer un appel à contributions lancé par les Presses de l’ENSSIB (Ecole Nationale Supérieure des Sciences de l’Information et des Bibliothèques). Le projet, initié par Muriel Amar, directrice de la collection La Numérique, consistait à réaliser un livre à l’occasion des 10 ans de ce blog, mais en faisant appel non pas à son auteur, mais à ses lecteurs. La démarche m’avait paru excellente, notamment parce qu’elle utilisait pleinement la liberté de réutilisation que j’offre en publiant les contenus de ce site sous licence libre (CC0). Un certain nombre de personnes ont manifesté leur intérêt pour cette entreprise et une équipe s’est rassemblée pour réaliser l’ouvrage, sous la direction de Mélanie Leroy-Terquem et Sarah Clément. Un an et demi plus tard, le pari a été tenu et le livre « S.I.Lex, le blog revisité. Parcours de lectures dans le carnet d’un juriste et bibliothécaire » est paru au mois de décembre dernier.

Le principe de la collection La Numérique étant de proposer des ouvrages au format électronique uniquement et en Libre Accès, vous pouvez accéder gratuitement au livre à la fois sur le site de l’ENSSIB et sur la plateforme OpenEdition. Je vous recommande aussi d’aller lire cet article « Comment refaire collectif à partir d’un Commun ? » publié par Muriel Amar dans la revue Sens Public, qui explique la démarche ayant conduit à ce projet (et qui aurait d’ailleurs pu figurer dans le livre).

Il est extrêmement difficile pour moi d’écrire à propos de cet ouvrage, car c’est une expérience vraiment très étrange de lire un livre dont on est soi-même le sujet, qui plus est à travers le regard de lecteurs dont je connais personnellement une bonne moitié pour les avoir croisés au cours de ces dix dernières années, à la faveur de rencontres souvent déclenchées par ce blog… Je me retrouve dans une situation un peu vertigineuse de mise en abîme qui ne me place pas dans la meilleure des positions pour émettre un jugement et je préfère confier cet exercice à d’autres lecteurs qui auront la curiosité d’aller voir cet ouvrage.

Je saluerai simplement le choix d’avoir réalisé un ouvrage « hybride » qui n’est pas une simple compilation de billets tirés de ce blog, mais des regroupements opérés par une quinzaine de lecteurs qui commentent leur choix en l’expliquant par le biais d’un texte original. Cela aboutit à créer autant de « chemins de traverses » à l’intérieur des contenus de ce blog, en respectant la logique hypertextuelle du matériau d’origine. On aurait pu aller plus loin encore et ne faire figurer les billets que sous la forme de liens renvoyant vers les textes sur S.I.Lex. Mais l’équipe a choisi de les inclure dans le corps même de l’ouvrage et cette option me paraît intéressante, car outre que les billets sont ainsi « redocumentarisés » sous une nouvelle forme, les éditeurs ont décidé de garder in extenso les commentaires qui les accompagnaient. Je trouve que c’est un choix très cohérent pour un projet qui met finalement autant en avant l’auteur que ses lecteurs, sachant que la discussion sous les billets a toujours été un des aspects importants de la vie de ce blog.

Comme je l’avais expliqué dans le billet relayant l’appel à contributions de l’ENSSIB, il a toujours existé une forme de « malédiction » à propos du lien entre ce blog et le livre comme support. Au cours de ces 10 dernières années, on a bien dû me proposer quatre ou cinq fois de réaliser un livre à partir des contenus de ce site, soit sous forme de compilation, soit avec une autre formule. Mais aucun de ces projets n’a pu aboutir, d’abord parce que je n’ai jamais réussi à dégager le temps nécessaire pour les réaliser et ensuite, parce qu’il y avait chez moi une vraie réticence à opérer ce changement de format, sans doute liée à une méfiance viscérale vis-à-vis du processus éditorial lui-même. C’est donc avec une forme de soulagement que je vois à présent ce projet de livre se concrétiser en me disant que le « signe indien » a été conjuré et, finalement, confier la réalisation de ce livre à ses lecteurs était la bonne solution, car la plus en phase avec les valeurs que j’ai essayées de défendre sur ce blog durant ces dix dernières années. Pour parodier le titre d’un (excellent) film sorti récemment, ce livre n’est pas une « oeuvre sans auteur », mais une « oeuvre sans l’auteur » et c’est très bien ainsi !

Par ailleurs, je tiens à saluer Muriel Amar, Mélanie Leroy-Terquem et Sarah Clément pour avoir respecté le souhait que j’avais émis de ne pas être directement associé à la réalisation de ce livre. C’était pour moi extrêmement important, étant donné que j’ai choisi pour mes textes la licence CC0 (Creative Commons Zero) qui implique une liberté totale de réutilisation et un renoncement de l’auteur à exercer ses droits, y compris le droit moral. Je voulais que ce blog appartienne dès l’origine au Domaine Public Vivant et c’est bien à partir du Domaine Public Vivant que ce livre est né. J’ai certes eu des échanges avec les initiateu-rices du projet ou certain-e-s des contributeu-rices lors des derniers mois, mais tout le monde a joué le jeu et j’ai eu le plaisir de découvrir les contenus comme tout le monde lors de la publication en ligne du livre.

Je vais terminer en disant quelques mots de l’avenir de ce blog, puisque que les lecteu-rices attentif-ves n’auront pas manqué de remarquer que l’année 2019, qui était donc celle des dix ans de S.I.Lex, aura été un peu particulière. Je n’ai écrit en effet que 14 billets cette année sur ce blog, chiffre le plus bas depuis sa création, avec une parution complètement irrégulière, qui s’est même interrompue complètement depuis 6 mois. Plusieurs personnes m’ont d’ailleurs écrit pour prendre des nouvelles et me demander si j’allais bien, ce que j’ai trouvé assez touchant.

Il s’avère en réalité que l’année 2019 aura été pour moi assez complexe pour plusieurs raisons. La principale est que depuis maintenant plus d’un an, j’ai quitté le monde des bibliothèques où je travaillais auparavant pour devenir directeur adjoint scientifique de l’Institut des Sciences Humaines et Sociales du CNRS. Cette nouvelle fonction – passionnante, mais particulièrement exigeante – a bouleversé l’équilibre fragile qui permettait à S.I.Lex d’exister jusqu’alors, sans que je trouve jusqu’à présent le moyen de me redonner la marge nécessaire pour poursuivre l’alimentation de ce blog. La grande différence entre ce poste et les précédents que j’ai pu occuper est qu’il a provoqué chez moi une forme de « réalignement des planètes » puisque j’ai eu la chance de rejoindre le CNRS au moment où se déploie en France depuis plus d’un an une politique de Science Ouverte qui rejoint par de nombreux aspects des combats antérieurs que j’ai pu mener en faveur des Communs de la Connaissance. C’est en réalité la première fois que j’ai l’occasion de travailler au sein d’une institution et dans un contexte qui me permettent la mise en cohérence de ces différentes facettes qui restaient jusqu’à présent dissociées.

L’autre raison qui a rendu plus difficile l’alimentation de ce blog, c’est que l’année 2019 aura constitué une période de questionnements et de remises en question assez radicales. J’avais déjà commencé en 2017 et 2018 à élargir les sujets que je traitais sur S.I.Lex, notamment en abordant des thématiques comme celle de la protection des données personnelles, des droits culturels ou du droit social. En 2019, j’ai commencé pour la première fois à aborder des questions écologiques, avec une série de billets consacrée en début d’année aux relations entre les Communs et les Non-Humains (que je n’ai hélas pas pu terminer en tant que telle, mais à laquelle j’ai pu apporter des compléments en conférence notamment. Voir ici). Ces premiers essais m’ont fait prendre conscience que j’avais besoin de réexaminer en profondeur la manière dont je concevais la question des Communs, qui constitue en réalité le fil conducteur unissant toutes les thématiques que je traite sur S.I.Lex.

Il est difficile de continuer à écrire lorsque l’on sent que les bases sur lesquelles on s’appuie sont devenues plus fragiles ou que l’on éprouve le besoin d’en changer. C’est d’autant plus vrai que l’écriture à flux tendu n’est pas réellement compatible avec l’étude et j’ai eu besoin en 2019 de faire des lectures qui manquaient dans mon parcours et qui m’ont aidé à y voir plus clair dans les questions que je me posais. Je ne dirais pas que je suis venu à bout de cette démarche de renouvellement de la conception des Communs, mais disons que je pense avoir pu poser quelques repères pour retrouver un sol plus stable (et je n’emploie pas cette métaphore complètement au hasard ;-).

Qu’en sera-t-il pour S.I.Lex l’année prochaine ? Je ne veux pas me lancer dans des promesses ou me mettre à énoncer de bonnes résolutions de saison que je ne pourrai pas tenir ensuite. J’ai néanmoins parfois comparé l’écriture sur un blog à la pratique d’un sport intensif. S’interrompre six mois n’est pas quelque chose d’anodin et la difficulté de la reprise est toujours proportionnelle à la longueur de l’arrêt. Mais ma volonté est bien de reprendre l’an prochain une publication régulière sur ce blog, car je reste persuadé que cette forme d’expression est importante et qu’elle mérite d’être perpétuée. C’est surtout vrai dans ce moment assez sombre que traverse Internet, travaillé par des processus de recentralisation et de plateformisation qui l’amènent aujourd’hui à un point critique (et peut-être de non-retour ?). « To Blog Or Not To Blog ? » n’est donc pas uniquement une question de convenance personnelle, mais aussi une affaire de principe.

D’une certaine manière, le fait qu’un livre tiré de S.I.Lex soit paru en cette fin d’année me donne l’impression d’un cycle qui se ferme, mais aussi l’envie d’en ouvrir un autre. Reprendre l’écriture ici me demandera une grande réorganisation et une sacrée discipline, mais même en 2019, je ne vois rien qui puisse se substituer à ce qu’un blog apporte, à la fois pour l’auteur et pour les lecteurs. Cela nécessitera peut-être que j’apprenne à revenir aux formats des origines et que j’arrive à nouveau à « bloguer léger », ce qui m’a toujours été difficile. Mais un blog ne peut sans doute pas être une revue académique unipersonnelle ou – du moins -, il ne peut pas le rester éternellement. J’espère donc arriver à renouer avec les formes plus courtes que j’arrivais à produire durant les premières années de ce blog, mais dont je me suis sans doute trop écarté par la suite. Less is more, adage profond, qu’il va falloir me répéter comme un mantra en 2020 !

Je voudrais terminer en remerciant sincèrement l’ensemble des contributeu-rices qui ont participé à ce livre publié aux Presses de l’ENSSIB. Pour ceux que je connais déjà, j’espère que l’année 2020 sera l’occasion de nous recroiser et de prolonger nos échanges et nos actions communes. Pour ceux que je ne connais pas encore, j’espère pouvoir vous rencontrer pour échanger de vive voix, car vos contributions m’ont surtout donné envie de discuter avec vous.

A noter que l’ENSSIB organise le 13 janvier prochain une rencontre-débat autour de la publication de l’ouvrage, à laquelle je participerai et qui me donnera le grand plaisir de vous croiser si vous avez un intérêt pour ce projet.

Capture

calimaq

❌