Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierNumeribib

Ce que nous dit la COVID de l'édition scientifique

20 avril 2021 à 01:13

Voilà plus d'un an maintenant que la pandémie de la COVID-19 se propage dans le monde avec les ravages que l'on connaît. Effet secondaire du virus : depuis que l'Organisation Mondiale de la Santé a déclaré la COVID-19 comme une urgence de santé publique de portée internationale le 30 janvier 2020, la pandémie a fait naître un tsunami de publications scientifiques. Le phénomène est si important qu'en mai de l'an passé, un éditorialiste de la revue Science s'inquiétait : "Les scientifiques se noient dans les articles sur le COVID-19. De nouveaux outils peuvent-ils les maintenir à flot ?"

Même si la masse des publications est démesurée, même si elle semble résister à toute analyse, il semble possible, en surfant à la surface de la vague, de tirer quelques leçons de l'observation de ce phénomène sans précédent. Ce que la COVID met en lumière, ce sont certaines failles structurelles de l'édition scientifique. Elles préexistaient à la pandémie, mais cette dernière les exacerbe tout en leur procurant un surcroît de visibilité. On voit cependant émerger de nouveaux mécanismes de contrôle qui permettent d'accompagner l'accélération de la diffusion des travaux sans le céder à la qualité ou l'intégrité.


Nicholas M Fraser. https://github.com/nicholasmfraser/covid19_preprints CC0. Source : Github.


Une crise de confiance dans l'édition scientifique

Ce qui va suivre est une sorte de compendium de ce que l'édition dite scientifique peut produire de pire. Les cas de figure examinés préexistaient à la COVID, et ils lui survivront. Ils sont autant de symptômes constitutifs d'un syndrome  multifactoriel, dû aussi bien au dévoiement de certaines maisons d'édition, qu'aux modèles mêmes de financement public de la recherche médicale, ou qu'à l'inconduite de certains auteurs.

1. Les éditeurs "prédateurs"

C'est l'un de ces innombrables canulars scientifiques qui ont tant fait rire : des chercheurs ont soumis à divers comités éditoriaux de revues un papier truffé de jeux de mots et de plaisanteries, de sorte qu'il suffisait d'en lire ne serait-ce qu'une ou deux lignes pour comprendre immédiatement que le papier entier était une gigantesque supercherie. Construit en écho à une sentence censément prophétique (ou pas) du Pr Didier Raoult, ledit papier se proposait d'évaluer le potentiel d'une combinaison d'hydroxychloroquine et d'azithromycine pour la prévention des accidents de trottinettes".  Le brillant article était cosigné par Willard Oodendijk [«Bite en bois» en néerlandais] (Belgian Institute of Technology and Education (BITE), Couillet, Belgique), le célèbre chien Némo Macron (Palais de l'Elysée, Paris, France), Florian Cova (Institut de la Science à l'Arrache, Neuneuchâtel, Suisse), Sylvano Trottinetta (Collectif Laissons les Vendeurs de Trottinette Prescrire, France), Otter F. Hantome (Université de Melon, Melon, France). L'article se concluait doctement par cette analyse impeccable :

Dans notre étude, l'hydroxychloroquine est associée à un risque diminué d'accidents de trottinette.Il est urgent de prescrire de l'hydroxychloroquine à tous les usagers de trottinette. Est-ce que nous pouvons publier quoi que ce soit tout de suite ? Je crois que la question, elle est vite répondue,et la revue par les pairs n'a jamais été une méthode scientifique, de toute façon.

Eh bien, aussi stupéfiant que cela puisse paraître, cet article a été accepté et publié tel quel dans la revue Asian Journal of Medicine and Health (article rétracté après la révélation du canular). Pourquoi ? Parce qu'il s'agit d'une revue qui appartient à l'un de ces éditeurs dits "prédateurs", prêts à publier sur leurs plateformes n'importe quoi en accès libre sans contrôle de la qualité ou de l'intégrité. La seule motivation de ces "revues" est la source lucrative que constitue le paiement par les auteurs de frais de publication (Article Processing Charges). 

A la fin de l'année 2019, des chercheurs et éditeurs de dix pays se sont mis d'accord sur une définition de l'édition prédatrice :

"Les revues et les éditeurs prédateurs sont des entités qui privilégient l’intérêt personnel au détriment de la recherche et se caractérisent par des informations fausses ou trompeuses, un non-respect des bonnes pratiques éditoriales et de publication, un manque de transparence et/ou l’utilisation de pratiques de démarchage agressives et sans discernement." [Traduction de Marlène Delhaye]

La revue Asian Journal of Medicine and Health n'est hélas pas un cas isolé. Les revues publiées par des éditeurs prédateurs sont légions. On peut s'en rendre compte en allant sur des sites dédiés listant les revues motivées par l'appât du gain : la Beall's list (arrêtée en janvier 2017 à la suite de menaces de poursuites judiciaires venant de différents éditeurs), Stop Predatory Journals, et la liste de Cabells (sous paywall). Le Directory of Open Access Journals a également dressé une liste noire.

Dernier (gros) éditeur prédateur repéré récemment : MDPI, éditeur multi-disciplinaire et nativement Open Access. Paolo Crosatto, chercheur en économie à l’INRAE, a fait part sur le réseau social Twitter, de sa dernière étude sur la façon dont MDPI grossit artificiellement ses chiffres en créant des milliers de numéros spéciaux raccrochés à des revues phares :

Updated 2021 data on @MDPI special sssues.

8 journals have more than 1000 open special issues.

35 have more than 1 *per day*.

Sustainability has 8.7 *per day*.

This is predatory publishing.

Stand clear of them. pic.twitter.com/1KaVLm2POj

— Paolo Crosetto (@PaoloCrosetto) March 12, 2021

MDPI develops good journals. Once this is done, they open ten, fifty, a thousand special issues to that journal. These are of varied quality but out of the control of the original editors.

And in general how do you keep high quality of you publish a special issue every 3 hours?

— Paolo Crosetto (@PaoloCrosetto) March 13, 2021


2. les " usines à articles"

Eilzabeth Bik est une biologiste qui s'est spécialisée en intégrité scientifique à partir de 2013. En février 2021, elle a mis au jour une "usine à articles" chinoise. Voici la définition qu'elle en propose dans son billet de blog :

Une  usine à articles [paper mill] est une entreprise louche qui produit des papiers scientifiques à la demande. Elle vend ces articles à des médecins chinois, par exemple, qui ont besoin de publier un article scientifique dans une revue internationale pour obtenir leur diplôme de médecine, mais qui n'ont pas le temps de faire de la recherche dans le cadre de leur programme de formation. Les droits d'auteur sur des articles prêts à être soumis ou déjà acceptés sont vendus aux étudiants en médecine pour des sommes considérables, comme le décrit par exemple Mara Hvistendahl dans "China's Publication Bazaar" dans Science, 2013. Il n'est pas certain que les expériences décrites dans ces articles aient réellement été réalisées. Certaines de ces usines à articles peuvent avoir des laboratoires qui produisent des images ou des résultats réels, mais ces images peuvent être vendues à plusieurs auteurs pour représenter différentes expériences. Ainsi, les données incluses dans ces articles sont souvent falsifiées ou fabriquées.

Au final, l'usine à articles en question a produit plus de 560 articles à partir de la même photographie initiale de bandes de western blot. La plupart ont été publiés entre 2018 et 2020, les plus anciens remontent à 2016. D'après les données de l'étude mises à jour, les principales revues ayant accepté ces papiers sont les suivantes :

 On s'aperçoit donc qu'un grand nombre de manuscrits ont été acceptés, passant sans difficulté apparente l'épreuve de l'examen par les pairs. Cela n'est pas sans susciter quelques interrogations sur les défaillances manifestes du contrôle effectué par les comités de lecture.

3. SIGAPS : tu publies ou tu trépasses...

Au sein des CHU, le volume de publications conditionne le montant des budgets de financement des laboratoires hospitaliers ; par conséquent, qu'importe la qualité des papiers, qu'importent également les montants des frais de publication,  du moment que la publication des articles déclenche la perception de crédits de fonctionnement... Voilà résumée la philosophie du système SIGAPS, acronyme désignant le Système d’Interrogation, de Gestion et d’Analyse des Publications Scientifiques. Conçu par le CHRU de Lille et étendu à l'ensemble des CHU en 2007, le logiciel est destiné à recenser et évaluer les publications scientifiques au sein des centres hospitaliers.

Ces publications rapportent des "points SIGAPS" à l'établissement dont dépend le laboratoire. La détermination du nombre de points obtenus pour chaque publication tient compte de deux paramètres principaux : le classement de la revue en fonction de son facteur d'impact dans le Journal Citation Report, et le positionnement du chercheur dans l'ordre des cosignataires. Le mécanisme de calcul est très bien expliqué sur cette page du Laboratoire Commun RISCA (Nantes) :

 

Chaque point SIGAPS est indexé sur une valeur monétaire réévaluée tous les 4 ans. Par ailleurs, ces mêmes points jouent sur l'avancement de carrière des personnels hospitalo-universitaires :

 

On ne peut que s'étonner d'un tel mécanisme d'évaluation adossé quasi exclusivement au calcul du facteur d'impact, lequel est largement décrié depuis la déclaration DORA de 2012 sur l'évaluation de la recherche,  notamment pour son manque de valeur scientifique et l'opacité des méthodes de calcul ("les données utilisées pour calculer les facteurs d’impact ne sont ni transparentes ni ouvertement accessibles au public").

Par ailleurs, depuis l'article en 1968 de Robert K. Merton consacré à l'Effet Matthieu, on sait très bien qu'en pratique, l'ordre des auteurs dépend très souvent d'arrangements internes, la première place ou la dernière étant le plus souvent allouée au directeur de laboratoire, quand bien même ce dernier n'a participé que marginalement (ou pas du tout) à la rédaction de l'article.

Au final, SIGAPS encourage les chercheurs à publier le plus possible quelle que soit la qualité des revues. On l'a vu : même une revue non classée rapporte 1 point SIGAPS. On comprend mieux pourquoi un chercheur comme Didier Raoult en arrive au score stratosphérique de 2018 articles publiés entre 1979 et 2018, comme nous l'apprend une étude menée en 2019 par un chercheur de Stanford à partir d'un dépouillement de la base Scopus.

, et
Extrait du tableau "Table_S4_career_2018.xlsx" avec tri décroissant et
filtre sur les auteurs rattachés à des institutions françaises

4. Le poids des réseaux d'influence

Le druide des calanques ne cesse de se targuer d'avoir cosigné un nombre très conséquent d'articles. Or cette propension à publier rapidement s'explique pour partie par les liens de proximité avec les membres des comités éditoriaux.

Comme le remarque le journaliste scientifique David Larousserie, en mars 2020, "Didier Raoult a publié dans l'International Journal of Antimicrobial Agents un article cosigné par son collègue Jean-Marc Rolain… éditeur en chef du journal (qui compte aussi trois autres chercheurs de Marseille)".

D'autres articles de Didier Raoult sont parus dans la revue New Microbes and New Infections, diffusée sur la plateforme sciencedirect de l'éditeur Elsevier. Yves Gingras et Mahdi Khelfaoui ont effectué une étude bibliométrique portant sur la revue.

Penchons-nous à présent sur ces publications françaises. On observe d’abord que 337 contiennent au moins une adresse institutionnelle de chercheurs basés à Marseille, soit 90 % du total français. En augmentant la focale, on trouve ensuite que 234 d’entre-elles, soit les deux-tiers, sont co-signées par le chercheur Didier Raoult.
Cette hégémonie des adresses institutionnelles marseillaises se comprend mieux à la lumière de l'examen de la composition du comité éditorial :

Le rédacteur en chef est basé à Marseille, et parmi les six autres membres français du comité éditorial associé, composé de quinze membres, on retrouve cinq chercheurs de Marseille et un de Paris. (...) Bien que toutes les publications soient censées être évaluées par des spécialistes indépendants et extérieurs, mais choisis par les responsables de la revue, il demeure que la forte composant locale – soit près de la moitié du total – du comité de direction de la revue, peut contribuer à expliquer la domination des publications très locales dans cette revue dite « internationale ».
Créer de toutes pièces une revue destinée à véhiculer principalement les travaux d'une seule institution, et composer un comité éditorial assez peu représentatif du caractère international du domaine de recherche envisagé, mais composé majoritairement de chercheurs attachés localement à la même tutelle, de façon à publier in fine "des articles refusés par les autres revues" (selon les termes peu amènes d'une évaluation HCERES de 2017) : voilà résumée la méthode employée par certains chercheurs pour contrôler une revue et y publier ce que bon leur semble, avec la complaisance des membres du comité éditorial.

5. De la falsification artisanale à la falsification algorithmique

Revenons aux travaux d'Elizabeth Bik. En 2015, nous rapporte le Times Higher Education, "elle et d'autres universitaires ont scanné les images de plus de 20 000 articles provenant de 40 revues. Ils ont constaté que 782 articles, soit 3,8 %, posaient problème. Depuis lors, 10 % de ces articles ont été rétractés, et 30 % ont été corrigés. Mais 60 % sont restés inchangés."

Didier Raoult l'a traitée de "cinglée" devant le Sénat en septembre 2020... Il n'aurait pas dû... Depuis, Elizabeth Bik, ne cesse d'examiner une à une les publications du Panoramix de l'HCQ, et le fait est qu'il lui donne beaucoup de grain à moudre. Dernière fraude détectée : les illustrations d'un article paru en 2010 dans la revue Frontiers in Biology procèdent par retouches successives à partir du copié-collé d'une image datée de 2005 et provenant... de Wikipedia.

#ImageForensics
Two sets of API tests (used for the identification of bacterial species by looking at which enzymatic reactions they can perform).

* Top: Escherichia coli.
* Bottom: Shigella dysenteriae

Published by that famous French microbiologist.

Tell me what you see. pic.twitter.com/alnfivgtwp

— Elisabeth Bik 💉1/2 (@MicrobiomDigest) March 18, 2021

Bonjour, je confirme que l’image de la galerie API, a été faite par mes soins et placée sur Wikipedia le 5 février 2007, et prise le 7 octobre 2005.

— Jean-Louis Philippin (@phijl48) March 24, 2021

Ce genre de pratique dont le pré-requis consiste en une maîtrise sommaire du logiciel Photoshop, est monnaie courante, y compris au sein de l'ancienne équipe de recherche de l'actuelle Ministre de l'Enseignement Supérieur et de la Recherche...

La fraude peut également résulter du recours à des logiciels conçus pour générer aléatoirement des papiers, dont le texte est grammaticalement correct mais dépourvu de sens. Or il se trouve que certains sont parfois acceptés pour publication.

SCIgen et Mathgen sont deux logiciels conçus pour générer aléatoirement et automatiquement des papiers scientifiques dépourvus de sens.

Le plus connu, SCIgen (pour Science Generator) trouve son origine dans un canular : des chercheurs du Massachusetts Institute of Technology (MIT) l'ont créé pour prouver que les conférences accepteraient des articles dénués de sens - et, comme ils l'ont dit, "pour maximiser l'amusement". Moins connu, le logiciel Mathgen a été conçu à partir du code de SCIgen, et dans le même état d'esprit. Le logiciel Automatic SBIR Proposal Generator propose un service similaire. Ces logiciels sont souvent utilisés à mauvais escient pour générer de faux articles acceptés par des maisons d'édition.

Depuis les travaux pionniers en 2012 de Cyril et Dominique Labbé, il ne se passe pas un jour sans que les chercheurs ne décèlent un nouvel article généré automatiquement grâce à ces logiciels. La plateforme SCIgen detection mise au point par Cyril Labbé, permet de vérifier si un article dont le sens paraît suspect, a été écrit partiellement ou totalement par un logiciel. D'autres travaux plus récents ont permis d'élaborer l'outil Seek & Blastn, permettant de détecter finement des séquences de nucléotides suspectes dans des publications en sciences de la vie en les comparant à une base de données génomique.

La plupart des articles détectés comme suspects sont ensuite généralement listés et "flaggés" sur le site PubPeer, dont nous reparlerons un peu plus loin.


Une vague de publications sans précédent


1. La double dynamique des publications et des preprints

Durant les premiers mois de la pandémie, les publications dans des revues à comité de lecture n'ont cessé de paraître à un rythme de plus en plus accru.  De février à mai 2020, les soumissions aux revues Elsevier ont augmenté de 92% pour les titres de santé et de médecine. Dans le même temps, certains éditeurs publiant des revues dans le domaine biomédical, ont pris la décision d'accélérer le processus de relecture par les pairs. Comme le note une étude très documentée, un certain nombre de revues ont annoncé clairement sur leur site leur décision d'accélérer le traitement éditorial des articles relatifs à la COVID-19, notamment PLOS, certaines revues Wiley, certaines revues Elsevier, certaines revues Sage et les revues PeerJ.

Le délai médian entre la réception et l'acceptation des articles COVID-19 s'est considérablement accéléré, passant à 6 jours, ce qui n'avait été jamais vu jusque là :

En moyenne, 367 articles COVID-19 ont été publiés par semaine, tandis que le délai médian entre la soumission et l'acceptation des articles COVID-19 était de 6 jours seulement. En comparaison, quatre articles ont été publiés par semaine sur Ebola, alors que le délai médian d'acceptation des articles était plus de deux fois plus long, soit 15 jours. Le délai médian d'acceptation était beaucoup plus lent pour les articles sur les MCV, soit 102 jours, et seuls 374 articles (3 %) ont été acceptés dans la semaine suivant leur soumission, contre 1 250 articles pour COVID-19 (59 %)

Le délai entre la soumission et la publication s'est également considérablement réduit :

Depuis le début de la pandémie, par exemple, 14 revues médicales publiant le plus de contenu COVID-19 ont réduit de moitié le délai moyen entre la soumission et la publication, le ramenant de 177 à 60 jours, selon les recherches de Serge Horbach de l'Université Radboud.

Une étude postérieure de plus grande ampleur indique que les preprints COVID-19 de MedRxiv sont parus dans des revues à comité de lecture après un temps d'examen médian de 72 jours, soit deux fois plus vite que les preprints du serveur sur d'autres sujets. 

Concernant le volume de manuscrits relatifs à la COVID-19 apparus à compter de février 2020, on peut dire qu'on a assisté à une vague de preprints sans précédent. D'après une étude diffusée sur bioRxiv en février 2021 :

10 232 préprints liés à COVID-19 ont été publiés sur bioRxiv et medRxiv au cours des 10 premiers mois de la pandémie ; en comparaison, seuls 78 preprints liés au virus Zika et 10 preprints liés au virus Ebola ont été postés sur bioRxiv pendant toute la durée de l'épidémie respective du virus Zika (2015-2016) et de l'épidémie du virus Ebola en Afrique de l'Ouest

Pour autant, il serait totalement abusif de dire que la vague des preprints a détrôné les publications dans des revues à comité de lecture. Pour une raison simple : la majorité des preprints finissent par être pris en charge par des maisons d'édition pour être relus et publiés ultérieurement. D'après les données fournies par la plateforme Dimensions (consultée le 17 avril), les articles publiés représentent 79,9% du corpus relatif à la COVID-19, tandis que les preprints représentent seulement 11,5%.

COVID-19 Report. Source : Dimensions.

Où trouve-t-on les preprints relatifs à la COVID-19 ? D'après une étude parue en décembre 2020, "plus de la moitié des preprints sont parus sur l'un des trois sites suivants : medRxiv, SSRN et Research Square. (...) Plus des 2/3 de tous les preprints postés sur medRxiv, qui n'a été lancé qu'en juin de l'année dernière, concernaient COVID-19."

L'étude de février 2021 déjà citée complète le panorama :

Bien qu'il s'agisse de l'un des serveurs de prépublications les plus récents, medRxiv a hébergé le plus grand nombre de preprints (7 882) ; viennent ensuite SSRN (4 180), Research Square (4 089), RePEc (2 774), arXiv (2 592), bioRxiv (2 328), JMIR (1 218) et Preprints.org (1 020) ; tous les autres serveurs de prépublications ont hébergé moins de 1.000 preprints.

La même étude démontre que les preprints COVID-19 "ont reçu une attention significative de la part des scientifiques, des organismes de presse, du grand public et des organes de décision, ce qui représente un changement par rapport à la façon dont les prépublications sont normalement partagées (compte tenu des modèles observés pour les prépublications non COVID-19)".


2. Nécessité de l'évaluation 

 2.1 évaluation post-publication

L'accélération du processus de publication n'est pas sans susciter des inquiétudes quant à l'intégrité scientifique. L'affaire dite du "Lancetgate" en est un bon exemple. On en connaît les grandes lignes. Deux études parues coup sur coup dans deux des plus prestigieuses revues de médecine, le New England Journal of Medicine (le 1er mai 2020) et le Lancet (le 22 mai), abordaient la question des traitements de la COVID-19 en se fondant sur les données fournies par les dossiers médicaux de 169 hôpitaux dans 11 pays. Ce jeu de données était fourni par la société Surgisphere, propriété de Sapan Desai, l'un des co-auteurs des deux articles. Or Surgisphere n'a jamais été en mesure de fournir la preuve de l'existence de ces fichiers.

Le 28 mai, une lettre ouverte lancée par l'épidémiologiste James Watson et cosignée  par 200 chercheurs est adressée aux auteurs de l'article paru dans le Lancet ainsi qu'à son directeur, Richard Horton, pour soulever dix questions portant sur l'intégrité et l'éthique des travaux.

Comme la société Surgisphere n'est pas en mesure de fournir les données sources, faisant valoir des accords de confidentialité la liant aux hôpitaux, les deux articles sont finalement retirés le 4 juin.

Plusieurs enseignements peuvent être tirés de ce cas d'école. Tout d'abord, l'inconduite scientifique des auteurs n'a en aucune façon été repérée par les reviewers, censés contrôler les manuscrits, les relire et les valider. Le #Lancetgate met donc au jour des failles au niveau du contrôle par les pairs. Par ailleurs, c'est probablement le contexte particulier de l'urgence sanitaire qui a pu expliquer que ces deux articles aient pu passer l'étape de la relecture : la crise sanitaire a, semble-t-il, accru les chances qu'un article relatif à la COVID soit publié, quelle qu'en soit la qualité. Plus fondamental : il n'y aurait jamais eu de "Lancetgate" si les données sources de Surgisphere avaient été d'emblée partagées. Le comité éditorial du Lancet aurait dû rendre obligatoire le partage des données de recherche, conformément aux grands principes de la Science Ouverte. Enfin, pour en revenir à notre propos sur l'évaluation post-publication, une leçon optimiste peut malgré tout être tirée de cette sinistre affaire : il faut souligner l'extrême réactivité dont a fait preuve la communauté scientifique pour mettre en doute les résultats des deux études, une fois qu'elles ont été publiées. L'article du NEJM sera resté en ligne moins de 5 semaines, celui du Lancet moins de deux semaines. C'est donc grâce à une très forte réactivité de la communauté scientifique que les publications frauduleuses ont pu être rapidement retirées. L'évaluation post-publication devient un élément-clé du contrôle de l'intégrité scientifique. Même si ce type d'évaluation ex-post n'est pas nouveau, ce qui frappe est la vitesse avec laquelle la fraude ou l'inconduite peuvent être détectées. Cette vitesse s'explique en grande partie par la force des réseaux sociaux, de Tweeter en particulier, comme on le verra un peu plus loin.


2.2. Contrôle préalable des preprints et évaluation

Contrairement à une idée reçue, la plupart des plateformes de preprints mettent en œuvre des mesures de filtrage de façon à écarter des manuscrits véhiculant de façon manifeste de fausses informations. C'est ainsi que bioRxiv dispose d'un filtre bloquant la mise en ligne de travaux de prédiction de médicaments in silico, c'est-à-dire de "médicaments" dont la composition est entièrement déterminée par une modélisation informatique (d'où la référence au silicium des composants d'ordinateurs), sans le moindre essai in vivo. La journaliste scientifique Diana Kwon recense en ces termes une étude consacrée au filtrage des serveurs de preprints :

Une analyse de 44 serveurs a révélé que la plupart d'entre eux disposent de systèmes de contrôle de la qualité. Soixante-quinze pour cent d'entre eux ont fourni publiquement des informations sur leurs procédures de filtrage, et 32 % ont fait participer les chercheurs à l'examen des articles selon des critères tels que la pertinence du contenu. (...) BioRxiv et medRxiv ont un processus de vérification à deux niveaux. Dans un premier temps, les articles sont examinés par le personnel interne qui vérifie les problèmes tels que le plagiat et le caractère incomplet. Ensuite, les manuscrits sont examinés par des universitaires bénévoles ou des spécialistes en la matière qui recherchent les contenus non scientifiques et les risques pour la santé ou la biosécurité. BioRxiv utilise principalement des chercheurs principaux ; medRxiv utilise des professionnels de la santé. Parfois, les examinateurs signalent les articles pour un examen plus approfondi par Sever et d'autres membres de l'équipe de direction. Sur bioRxiv, cet examen est généralement effectué dans les 48 heures. Sur medRxiv, les articles sont examinés de plus près car ils peuvent avoir un rapport plus direct avec la santé humaine, et le délai d'exécution est donc généralement de quatre à cinq jours.

Pour autant, le filtrage a priori des preprints est insuffisant pour repérer tout type de fraude scientifique. C'est pourquoi, l'évaluation plus approfondie des preprints se fera le plus souvent ailleurs, par le biais de commentaires directement sur les plateformes de preprints ou bien sur les réseaux sociaux. Ainsi de ce preprint qui affirmait que quatre insertions dans le virus COVID-19 étaient similaires au virus de l'immunodéficience humaine-1. Les critiques de ce document sur Twitter, ainsi que sur bioRxiv ont conduit à son retrait rapide

Pour désengorger les comités éditoriaux des revues, les presses du MIT ont créé une revue "superposée" (overlay journal) intitulée Rapid Reviews : COVID-19 (RR:C19). Elle propose des relectures rapides des preprints qui lui sont soumis, et permet ainsi d'accélérer l'examen par les pairs des recherches liées au COVID-19 tout en fournissant "des informations scientifiques vérifiées en temps réel que les décideurs politiques et les responsables de la santé pourront utiliser." Avec le soutien de la fondation britannique Wellcome, d'autres chercheurs ont lancé la plateforme de reviewing rapide Outbreak Science Rapid PREreview ; les critiques y sont ouvertes, mais les commentateurs peuvent rester anonymes s'ils le souhaitent. A partir du moment, où, sous le coup de l'urgence sanitaire, l'activité de relecture par les pairs est sous-traitée partiellement par des plateformes indépendantes, la raison d'être des éditeurs paraît sérieusement écornée. Les preprints gagnent en légitimité et sont davantage recensés dans les corpus relatifs à la COVID-19. Les avis des pairs, s'ils sont positifs, consacrent les manuscrits comme des travaux qui pourraient être cités et diffusés quasiment avec la même légitimité que des articles publiés dans des revues à comité de lecture. Cependant, l'usage de ces plateformes ne doit pas être surévalué.

 

2.3. Twitter, PubPeer : Pour le meilleur et le PubPeer

Décrié par certains comme outil de délation, parce qu'il a permis de mettre en cause, parfois par le biais de l'anonymat, les travaux de chercheurs renommés ou connus (en France : Olivier Voinnet, Catherine Jessus, Anne Peyroche...), PubPeer ("The online Journal club") est une plateforme créée en 2012 dans le but d'offrir un forum de discussion aux chercheurs pour commenter, voire critiquer les articles publiés. PubPeer organise donc une évaluation par les pairs après publication.

PubPeer met également en cause indirectement la qualité du contrôle par les pairs dans les revues dans lesquelles les articles détectés ont été publiés. Mais il se pourrait que PubPeer soit un mal nécessaire, dans la mesure où ces commentaires aident "à assainir la littérature scientifique", comme l'admet Olivier Voinnet.

Le double bandeau vert de PubPeer est souvent vécu comme infamant par les auteurs de l'article incriminé. Une fois installée l'extension PubPeer sur votre navigateur, le double bandeau s'affiche automatiquement dès lors que l'article en question a été commenté et signalé sur PubPeer comme étant problématique



PubPeer participe pleinement d'une évaluation ouverte, la plupart des commentaires étant rédigés par des scientifiques peu ou prou au fait des connaissances sur les sujets abordés dans les articles examinés. PubPeer accueille des commentaires portant aussi bien sur des publications que des preprints.

Twitter est également investi par la communauté scientifique pour partager des commentaires ou des doutes sur tel ou tel preprint ou telle ou telle publication. L'utilisation de Twitter pour évaluer les publications ou les manuscrits fournit un examen public supplémentaire qui peut compléter ou corriger le processus traditionnel d'évaluation par les pairs, plus opaque et plus lent. Au regard des statistiques, Twitter est de loin le réseau social le plus utilisé pour commenter des articles, même si, comme l'indiquent les auteurs du graphe ci-dessous, les chiffres doivent être nuancés, dans la mesure où un grand nombre d'articles sont partagés sur Twitter par des robots.

Source : "Open Science Saves Lives: Lessons from the COVID-19 Pandemic". 30/10/2020. bioRxiv


3. Un paywall en recul

Contrairement aux prévisions de chercheurs qui concluaient qu'au 1er juin 2020, "près de la moitié de tous les articles de l'étude COVID-19 pourraient se trouver derrière des murs payants si la tendance actuelle se poursuit", d'après les données fournies par la plateforme Dimensions, la part des articles relatifs à la COVID-19 sous paywall se monte à 25,7 % à la mi-avril 2021. Cette érosion apparente de la part des articles accessibles uniquement par achat ou abonnement, est à mettre en regard de la part des articles diffusés selon le modèle "bronze" (26,3%). La terminologie "bronze" désigne l'ensemble des publications librement disponibles sur le site web d'un éditeur, mais sans licence ouverte. Il s'agit donc d'un ensemble assez instable : à tout moment l'éditeur peut décider de remettre ces contenus sous paywall. Il n'en reste pas moins que, dans le contexte de la pandémie, bon nombre d'éditeurs ont supprimé la barrière de l'accès payant pour les corpus d'articles relatifs à la COVID-19 : British Medical Journal, Cambridge University Press, Elsevier, Journal of The American Medical Association, New England Journal of Medicine, Oxford University PressProceedings of the National Academy of Sciences, Sage Publishing, Springer Nature, Taylor&Francis, Wiley, Wolters Kluwer et bien d'autres éditeurs encore.

COVID-19 Report. Source : Dimensions.
 

4. Echange de bons procédés

Au final, il apparaît qu'au cours de cette "course effrénée à la publication", un cercle vertueux s'est créé par lequel l'article publié dans une revue à comité de lecture et le manuscrit ont échangé partiellement  l'un l'autre leurs qualités, par effet de miroir. Les revues à comité de lecture ont opté pour le raccourcissement des délais de soumission-acceptation et aceptation-publication, la suppression temporaire des paywalls, et le reviewing a été renforcé par l'évaluation post-publication. Les preprints, eux, ont été filtrés en amont (double voire triple contrôle manuel pour medRxiv et bioRxiv) et sont de plus en plus soumis à des évaluations par des pairs en temps réel, lesquelles sont la garantie d'une meilleure qualité en cas de publication ultérieure.

 


filtrage préalable délai entre soumission et acceptation délai entre acceptation et publication peer reviewing commentaire post publication paywall (revues accessibles sur abonnement)
articles filtrage fréquent délai raccourci délai raccourci systématique de plus en plus fréquent (PubPeer, réseaux sociaux...) Souvent levé temporaire-ment (revues bronze)
preprints filtrage manuel ou algorithmique pour la majorité des serveurs de preprints sans objet sans objet de plus en plus fréquent : PubPeer, Zenodo, ASAPbio, Review Commons, Twitter, revues "superposées" (overlay journals) comme  RR:C19, plateformes de reviewing accéléré comme OutbreakScience PREreview
sans objet
sans objet

 

5. Comment suivre le cycle de vie des preprints ?


Au milieu de ce tsunami de papiers, comment assurer le suivi du cycle de vie des articles, du preprint à la publication ?

Partons de ce chiffre : "au début du mois de décembre 2020, près d'un quart des preprints de medRxiv liés à COVID avaient été publiés dans des revues." Comment tracer le parcours de ces publications, surtout si le lien preprint-publication fourni par medRxiv n'est pas systématiquement indiqué ?

Non seulement les serveurs de preprints ne font pas systématiquement le lien avec la version publiée, mais les revues elles-mêmes ne pointent que rarement vers le preprint. Le risque est de compter deux fois ou plus un même article :

Un autre problème est que les preprints peuvent amener des chercheurs extérieurs à compter deux fois les résultats. Si un chercheur tente de rassembler des recherches dans le cadre d'une synthèse narrative ou quantitative et qu'il compte un article évalué par des pairs, il doit ignorer le preprint associé pour éviter de surpondérer cette cohorte. Idéalement, les serveurs de prépublications identifient le moment où l'article est publié, mais ce lien automatique dépend du fait que le titre et les auteurs restent les mêmes, et peut échouer si ceux-ci changent entre la prépublication et l'examen par les pairs. De même, le journal concerné devrait identifier la version préimprimée comme faisant partie de l'enregistrement de la publication, ce qui devrait être le cas, mais ne l'est pas toujours.

L'enjeu n'est pas simplement d'ordre bibliométrique, mais de santé publique : "L'établissement d'un lien entre les prépublications et les publications est de la plus haute importance, car il permet aux lecteurs de disposer de la dernière version d'un travail désormais certifié. (...) Le fait de négliger les preuves publiées se traduit par des examens systématiques partiels, voire inexacts, sur des questions liées à la santé, par exemple".

L'étude du cas de la plateforme COVID19 Preprint Tracker fournit des éléments de réponse à ces problématiques. Le contexte de sa conception est le suivant : des épidémiologistes du CRESS (UMR 1153 INSERM) réalisent depuis début 2020 une revue en temps réel de la littérature scientifique du COVID19. Leurs résultats sont diffusés sur la plateforme COVID-NMA et exploités par l’Organisation Mondiale de la Santé. La sélection des preprints est donc faite manuellement. S'est alors posé un problème de taille : comment suivre en temps réel la mise à jour des preprints (versioning)  et leur publication éventuelle ? La tâche de suivi était effectuée manuellement, et était devenue insoutenable avec l'augmentation du nombre de manuscrits.
D'où l'idée de recourir à un algorithme adossé à la base mondiale CrossRef pour automatiser l'enrichissement des métadonnées du corpus. C'est le principe même de fonctionnement de la plateforme COVID19 Preprint Tracker, mise au point par le chercheur en sciences de l'information Guillaume Cabanac :

[Les algorithmes] identifient les nouvelles versions au jour le jour et relient les preprints publiés aux articles qui en résultent, dès leur parution. Les articles et preprints sont également contextualisés par des indicateurs de citation dans la sphère académique et de mise en visibilité dans la sphère publique (indicateur d’attention Altmetrics et indicateurs PubPeer permettant de détecter les controverses scientifiques et les lanceurs d’alerte). Ces éléments sont centralisés sous forme d’un tableau de bord en ligne mis à jour quotidiennement et utilisé quotidiennement par les épidémiologistes.
Les métadonnées de chaque preprint repéré par des épidémiologistes sont automatiquement enrichies par les algorithmes au fur et à mesure de la progression du manuscrit dans les étapes du cycle de vie de l'édition, depuis les premières mises à jour jusqu'à la publication. L'outil permet également de compléter les métadonnées défectueuses des serveurs de preprints. D'après un test réalisé sur un échantillon de 343 preprints, les serveurs de preprints ne fournissent le lien preprint-publication que dans 39,7% des cas, tandis que  COVID19 Preprint Tracker permet de rehausser le score à près de 91,5 %.

Capture d'écran. COVID19 Preprint Tracker


 ***


"La Science Ouverte sauve des vies : leçons de la pandémie de COVID-19"

Tel est le titre d'un preprint déposé sur bioRxiv le 30 octobre 2020 et qui fera probablement date. Co-signé par 371 chercheurs en sciences biomédicales, le texte tire les leçons de la pandémie : si les principes de la Science Ouverte étaient pleinement mis en œuvre, du temps et de l'énergie pourraient être gagnés :

L'adoption pleine et entière des principes de la science ouverte aurait pourtant permis d'économiser de précieuses ressources de recherche : l'examen ouvert par les pairs aurait permis de détecter les conflits d'intérêts éditoriaux et de savoir si les manuscrits avaient fait l'objet d'un examen approfondi ; l'adoption de rapports enregistrés aurait renforcé la conception des études et les plans d'analyse des données ; l'utilisation correcte et contrôlée des preprints aurait facilité la communication des premiers résultats entre les chercheurs ; le renforcement des politiques de partage ou d'examen des données brutes aurait pu éviter le scandale de Surgisphere ; et le plein accès ouvert aurait pu accélérer la recherche de solutions à la pandémie dans les contextes médical et socio-économique. En outre, l'examen des statistiques aurait pu contribuer à rendre les études et leurs résultats plus robustes et à limiter l'impact de l'exagération ou de la mauvaise interprétation des résultats. 

L'évaluation des chercheurs doit être également réformée : elle doit être qualitative plus que quantitative. Il n'est que de songer au système abominable de points SIGAPS qui poussent les chercheurs hospitalo-universitaires à publier toujours davantage, si possible dans une revue ayant un facteur d'impact élevé, pour étoffer les dotations budgétaires de leur établissement.

Les chercheurs ont fait valoir que l'adoption de la transparence devrait être couplée à l'adoption d'un ensemble plus diversifié de paramètres pour évaluer les chercheurs ou au rejet pur et simple des paramètres afin de limiter réellement les pratiques de recherche douteuses. Une adoption plus large de ces principes de la science ouverte ne peut être réalisée sans l'aval et le soutien des institutions, des éditeurs et des organismes de financement. Des initiatives internationales, telles que la Déclaration sur l'évaluation de la recherche (DORA), ont été mises en place pour réformer le processus d'évaluation et de financement de la recherche, en favorisant la qualité de la recherche plutôt que la quantité de résultats. Les universitaires de haut niveau ont également été identifiés comme des agents clés dans le soutien de la recherche ouverte. Pour que les principes de la Science Ouverte soient clairement et largement adoptés, tous les acteurs de la communauté scientifique ont un rôle à jouer : les chercheurs établis devraient encourager une transition vers une recherche transparente ; les institutions et les agences de financement devraient diversifier les évaluations de la recherche ; les revues, les comités éditoriaux et les agences de financement devraient faire de toutes les pratiques de la Science Ouverte la norme de facto pour les soumissions (en particulier les données ouvertes et les rapports enregistrés) ; les éditeurs devraient s'efforcer de rendre tous les articles en Accès Ouvert ; et les décideurs politiques et les comités d'examen internationaux devraient envisager d'ouvrir les données sensibles aux examinateurs ou aux parties de confiance pour une validation externe.
Et si ces réformes sont nécessaires, c'est que "la Science Ouverte sauve des vies"... On n'a jamais lu meilleur argument. Espérons que les auteurs de ce vibrant plaidoyer seront entendus.

 

 

 

 

Vers un accroissement de l’ouverture et du partage des données de la recherche ?

9 septembre 2014 à 15:07
Mise à jour du 11 septembre. L'ADBU a mis en ligne sur son site trois dépêches de l'agence AEF, dont la dernière précise les contours de l'intervention d'Alain Bensoussan lors du récent congrès ADBU. Le CNRS, l’ADBU et le réseau international d’avocats Lexing soutiennent le projet de rédaction d'une "charte universelle de l'open science". Le scénario d'une simple exception au droit d'auteur n'est pas retenu, dans la mesure où une exception ne fait que confirmer la règle, à savoir le maintien des résultats de la recherche dans le pré carré des éditeurs. Il s'agit de fonder un droit de l'open science en écrivant "une charte, puis une loi, puis une convention mondiale”.


Le 15 octobre prochain, aura lieu à Toulouse, dans le cadre de la Novela, une Rencontre Interdisciplinaire de l’Académie des Sciences Inscriptions et Belles Lettres de Toulouse, à laquelle je participerai. Intitulée «Démarches Scientifiques : Le numérique bouleverse la donne», la rencontre se fixera pour enjeu d'analyser les impacts du numérique sur la démarche scientifique elle-même. Plusieurs acteurs du monde de la recherche en sciences "dures" ou en sciences humaines et sociales y participeront. Voici le fascicule provisoire de présentation de l'événement :



Avec l'aimable accord d'Alain-Michel Boudet, organisateur de la rencontre, et Professeur Émérite au Laboratoire en Recherche en Sciences Végétales de Toulouse, je publie avec plus d'un mois d'avance la trame de mon intervention.

***

Le colloque porte sur les impacts du numérique sur la démarche scientifique elle-même. En ce qui concerne les archives ouvertes et l’open access, on serait tenté de répondre, en première analyse, que le numérique n’a pas d’impact sur ces domaines précis. En effet, les notions d’archive ouverte et d’open access ne préexistent pas au numérique, elles en sont au contraire l’émanation : sans numérique, pas d’archives ouvertes et pas d’open access. Les premières archives ouvertes sont issues d’un mouvement mondial parti des physiciens avec la création d’ArXiv sous l’impulsion de Paul Ginsparg. D’un strict point de vue chronologique, la naissance d’ArXiv date du 14 août 1991, soit 8 jours seulement après que Tim Berners-Lee a rendu public le projet WorldWideWeb [1]. On pourrait donc considérer, au mieux, la naissance des archives ouvertes et celle du World Wide Web comme quasi-contemporaines. Cependant l’adoption du mot « Internet » et du protocole TCP/IP datent de 1983. On ne se trouve donc pas dans une situation où le numérique vient modifier un domaine préexistant.

Une seconde approche révèle qu’il n’en reste pas moins que le numérique bouleverse de fond en comble les principales dimensions indissociables de l’ouverture des données de la recherche : la «chaîne éditoriale» classique, les coûts de publication, le partage des résultats et le droit d’auteur.

La question de la désintermédiation dans la chaîne éditoriale est l’occasion de balayer une idée reçue selon laquelle les publications en open access ab initio seraient de moins bonne qualité scientifique que les publications d'abord publiées par des éditeurs scientifiques [2]. Trois cas nous permettent de battre en brèche ce préjugé.
a) Les épi-revues sont des revues à comité de lecture dont les articles sont déposés intégralement en archives ouvertes. Le Centre pour la communication scientifique directe (CCSD) a mis en ligne en janvier 2013 une plate-forme baptisée Episciences qu’il présente ainsi : « Les comités éditoriaux des épi-revues organisent l'activité d'évaluation et de discussion scientifique des prépublications soumises ou sélectionnées. Les épi-revues peuvent ainsi être considérées comme une « sur-couche » aux archives ouvertes ; ils y apportent une valeur ajoutée en apposant la caution scientifique d’un comité éditorial à chaque article validé.» Hélas, à l'heure actuelle, seule une revue est publiée par le biais d'Episciences : le Journal of Data Mining and Digital Humanities.
b) PLOS (Public Library of Science) est un projet américain à but non lucratif basé sur le modèle de l’auteur-payeur. Au départ, en 2001, PLOS est une pétition invitant les chercheurs à boycotter les éditeurs qui imposent un embargo supérieur à 6 mois pour l’accès libre et gratuit aux articles publiés. Soutenu par le Prix Nobel Harald Varmus, le projet PLOS devient une entreprise d’édition scientifique de revues en biologie et en médecine. En 2003, la revue scientifique à comité de lecture PLOS Biology voit le jour. Paraîtront ensuite PLOS Medicine, PLOS Computational Biology, PLOS Genetics et PLOS Pathogens. En 2006 s’ajoute PLOS One, revue ouverte à tous les domaines scientifiques et pas simplement la médecine et la biologie.
c) Le projet hybride porté par le CERN, SCOAP3, (Sponsoring Consortium for Open Access Publishing in Particle Physics), opérationnel depuis janvier 2014, permet de « libérer » en open access dix des revues les plus prestigieuses en physique des hautes énergies. Les éditeurs ne sont pas pour autant écartés du processus de relecture et de validation. Ils continuent à organiser le peer-reviewing.

Par ailleurs, les éditeurs scientifiques ne sont pas exempts de tout reproche en ce qui concerne la qualité des articles publiés. Récemment encore, un article paru dans la revue Nature révélait que Cyril Labbé, chercheur en informatique à l’Université Joseph Fourier de Grenoble, avait repéré parmi les revues publiées entre 2008 et 2013 par les principaux éditeurs scientifiques, la présence d’articles générés par ordinateur. 16 de ces articles provenaient de l’éditeur Springer et plus de 100 de l’éditeur américain Institute of Electrical and Electronic Engineers (IEEE).

Concernant les coûts de publication, ils ont fortement diminué avec le développement exponentiel de la diffusion en ligne des revues, mais le coût des abonnements institutionnels a augmenté dans le même temps. C'est cette considération qui a motivé principalement l'appel au boycott d'Elsevier lancé par le mathématicien Timothy Gowers en 2012. S'ajoutait également la prise en considération du fait qu'Elsevier soutenait le Research Work Act, projet de loi américain dont certaines clauses visaient à interdire le libre accès aux publications scientifiques financées par l'État.

C’est surtout sur le partage des travaux de recherche et le droit d'auteur que nous nous arrêterons. Avec le numérique, ce n’est pas seulement la question de l’accès aux données de la recherche qui est revisitée, mais aussi celle de leur réutilisation. En effet, si les conditions de réutilisation ne sont pas prévues expressément, les données de la recherche sont susceptibles de faire l'objet de prédations de toutes sortes : via les réseaux sociaux scientifiques (MyScienceWork, Mendeley, Academia.Edu...), via les pressions exercées sur les auteurs pour renoncer à leurs droits moraux, notamment le droit à la paternité, via les clauses limitant les possibilités de Text and Data Mining, ou bien encore via la promotion récente par STM, (association internationale des éditeurs en Sciences-Techniques-Médecine), d’une série de nouvelles licences prétendument ouvertes.

Les licences Creative Commons constituent un outil efficace permettant aux auteurs de préciser les conditions de réutilisation de leurs travaux. La Déclaration « Open Access Initiative » de Budapest en 2002 encourageait le développement des publications sous licence libre. Dix ans plus tard, la nouvelle Déclaration de Budapest, BOAI 10, fait de la licence CC-BY (licence Creative Commons avec mention de la paternité) la licence par excellence du mouvement open access. C’est seulement en 2014 que les archives ouvertes commencent à intégrer les licences Creative Commons. La nouvelle version de HAL, qui sera mise en ligne en octobre 2014, en est une bonne illustration.

SavoirsCom1, collectif qui milite pour la défense des communs de la connaissance et notamment pour l'ouverture des données de la recherche, insiste sur la résultante de cette évolution trop lente :
"Comme, en France ou ailleurs, ce point précis de la Déclaration de Budapest est resté longtemps non suivi d’effets [3], le paysage contemporain des archives ouvertes présente une situation paradoxale : l’usage des licences Creative Commons est bien moins fréquent du côté de la « Voie verte » des archives ouvertes, que du côté de la « Voie dorée », c’est-à-dire du modèle controversé auteur/payeur, proposé par de grands éditeurs comme Springer et Elsevier." 
Il est vrai que les chercheurs se sentent bien souvent noyés sous la masse des clauses juridiques dont se composent les contrats d'édition. L'organisation à but non lucratif Science Commons propose des modèles d'addenda leur permettant d'aménager ces contrats de façon à pouvoir déposer leurs travaux dans une archive ouverte avec une licence libre.

La question ultime qui se pose est : faut-il légiférer sur le libre accès ? Les exemples américain, allemand, anglais et mexicain nous y invitent. Les sceptiques se diront qu'on en est encore loin, puisque, au niveau européen, la Directive PSI (Public Sector Information) de 2013, qui porte sur la réutilisation des informations du secteur public, exclut les données de la recherche de son champ d’application.

On sent pour autant les lignes bouger en France. Lors du dernier congrès ADBU (Association des Directeurs et personnels de direction des Bibliothèques Universitaires et de la Documentation), l'avocat Alain Bensoussan, spécialisé en droit du numérique, est venu plaider dans une allocution intitulée « Droit des plateformes et open science », pour la fondation d'un "droit de la science ouverte". Émancipé du cadre juridique trop restreint de la Propriété Littéraire et Artistique et du double écueil que peut constituer la revendication de droits tant du côté des éditeurs que des auteurs, ce "droit de l'open science" aurait pour visée d'assurer "un libre partage et une libre réutilisation" des données de la recherche (je me base ici sur le LiveTweet assuré par @lamateur37, que je remercie). La position prônée par Christophe Perales, président de l'ADBU, au congrès ou sur son blog, semble aller dans le même sens, et l'on ne peut que s'en réjouir.

L'idéal à terme serait sans doute (rêvons un peu) la consécration inter-étatique d'un domaine public de l'information ou "indivis mondial de l'information", tel que défini par l'UNESCO en 2011. Mais de quoi s'agit-il exactement ? Constitué intégralement d'informations et de données, et non d’œuvres marquées par l'empreinte de l'originalité d'un auteur, le domaine public de l'information serait autonome par rapport aux règles régissant la Propriété Intellectuelle. Il serait immédiatement réutilisable et partageable. Le droit moral serait ou bien inexistant (l'équivalent d'une licence CC0...) ou bien réduit à sa portion congrue: le droit à la paternité (l'équivalent d'une licence CC-BY...); de sorte que le droit moral ne constituerait pas un obstacle à la dissémination et à la réutilisation des contenus.

***

[1] En fait, Paul Ginsparg a appris l’existence du programme WorldWideWeb en 1992. Il l’a réutilisé quasi-immédiatement pour faire d’Arxiv l’un des premiers serveurs web :
In the fall of 1992, a colleague at CERN emailed me: ‘Q: do you know the worldwide-web program?’ I did not, but quickly installed WorldWideWeb.app, serendipitously written by Tim Berners-Lee for the same NeXT computer that I was using, and with whom I began to exchange emails. Later that fall, I used it to help beta-test the first US Web server, set up by the library at the Stanford Linear Accelerator Center for use by the high-energy physics community. Use of the Web grew quickly after the Mosaic browser was developed in the spring of 1993 by a group at the National Center for Supercomputer Applications at the University of Illinois (one of those supercomputer sites initiated a decade earlier, but poised to be replaced by massive parallelism), and it was not long before the Los Alamos ‘physics e-print archive’ became a Web server as well.” Paul GINSPARG, “It was twenty years ago today”, http://arxiv.org/abs/1108.2700

[2] Préjugé véhiculé par exemple dans un article du 4 octobre 2013 de la revue Science : John BOHANNON, « Who’s afraid of Peer Review ? », Science, http://www.sciencemag.org/content/342/6154/60.full. Pour une réfutation de la méthodologie employée par Bohannon, se reporter à l’article de Sylvain DEVILLE, « Articles bidons dans les revues : non, ce n’est pas la faute à l’Open Access », Rue89, 5 octobre 2013. http://rue89.nouvelobs.com/2013/10/05/articles-bidons-les-revues-non-nest-faute-a-lopen-access-246324

[3] Il existe bien sûr des exceptions. Les revues publiées par l'European Geosciences Union sont placées sous Creative Commons depuis 2008. Ces revues sont actuellement au nombre de 16. Merci à Manuel Durand-Barthez de m'avoir signalé ce cas.

Archéologie du commun

6 juin 2014 à 19:49
Dans un ouvrage important paru récemment, Pierre Dardot et Christian Laval étudient les fondements de l'émergence des nombreux mouvements politiques qui revendiquent les "communs" contre les nouvelles formes d'appropriation privée et étatique. Les auteurs refusent d'employer le terme de "biens communs", source d'ambiguïtés selon eux, parce que l'expression présente l'inconvénient de réifier les communs. Ils préfèrent parler "du commun". Non seulement le commun ne recouvre pas que des éléments donnés par nature comme l'eau, la terre ou l'air. Mais surtout, le commun se définit comme la résultante d'une activité commune de co-construction. L'institution précède l'essence, en quelque sorte.
Pour étayer la thèse, les auteurs mènent une enquête archéologique. L'enjeu est de retrouver dans l'Histoire du droit et des institutions les linéaments d'un concept du commun comme pensée de la mise en commun, qui aurait été occulté par une relecture rétrospective menée au travers du prisme déformant du paradigme propriétaire.



Les res communes : une notion en lisière du juridique


En droit romain, on distingue traditionnellement les res communes, les choses communes, ("l'air, l'eau courante, la mer et le rivage de la mer" [1]) qui sont inappropriables et les res nullius (biens sans maître), biens "simplement inappropriés et, par là même, appropriables par le premier occupant" [2] : "animaux sauvages qui se chassent et se pêchent, pierres ou perles ramassées sur la grève, trésors inventés."[3]

Il existe cependant une deuxième catégorie de res nullius, les res nullius in bonis, ou choses publiques ("les fleuves, les routes, les places et les théâtres" p. 35). Or il y a une certaine difficulté à opérer une distinction entre "choses publiques" (res nullius in bonis) et choses communes (res communes). Choses publiques et choses communes ne se distinguent pas par l'usage: elles sont affectées à l'usage de tous. De plus, choses publiques et choses communes sont pareillement inappropriables. 

La différence tient à l'acte de qualification qui institue les choses publiques. Celles-ci sont rendues inappropriables en vertu d'une décision institutionnelle visant à les retrancher de la sphère de la propriété, alors que les res communes sont considérées comme inappropriables par nature. Ne relevant pas d'un acte instituant, les res communes ne s'intègrent pas vraiment dans le droit romain, elles forment un "enclos pré-juridique"[4]. Pour le dire autrement, la notion de chose commune n'est pas une notion pleinement juridique au regard du droit romain, dans la mesure où son caractère d'inappropriabililité est défini en fonction d'un donné naturel. Inversement, les choses publiques ou les choses de droit divin sont rendues inappropriables par un acte de droit public ou un acte sacral.

La notion de choses communes par nature est d'autant plus située dans une zone en marge du droit romain, qu'elle est très éloignée dans sa conception du concept de res. Initialement, ce dernier ne désigne pas un objet par opposition à un sujet, mais définit plutôt un processus :
"le noyau sémantique de la notion [de res] renvoie d'abord et avant tout au procès, à l'affaire à débattre, et c'est à partir de ce noyau qu'on est passé de l' "affaire" contestée à la "chose" qui est  l'origine du conflit" (p. 36)
La conclusion de Dardot et Laval est sans appel :
"Il y a donc peu d'enseignements à tirer de cette catégorie située à la limite du juridique. Aussi ne doit-on pas étendre la notion de "choses communes" que nous avons héritée du droit romain. Bien plutôt convient-il de l'abandonner et de renoncer une fois pour toutes à l'idée qu'il existe des choses par nature inappropriables pour fonder vraiment et entièrement en droit l'inappropriabilité." (p. 37)
Dardot et Laval en viennent à mettre en question certains des fondements de la théorie économique des biens communs. Adosser la philosophie des communs à la distinction entre biens rivaux et exclusifs (les biens purement privés, telles les marchandises), biens non rivaux et non exclusifs (biens purement publics, tels l'éclairage public, la défense nationale, l'éclairage des phares, etc.), biens exclusifs et non rivaux (biens de club tels les autoroutes à péage ou spectacles sportifs payants), biens non exclusifs mais rivaux, (les biens communs, tels les zones de pêche, les pâturages ouverts, les systèmes d'irrigation...), c'est encore et toujours faire dépendre le commun "des qualités intrinsèques des biens eux-mêmes". C'est en rester à "un naturalisme qui voudrait classer les biens selon leurs caractères intrinsèques" (p. 157)

Le commun doit être bien plutôt conçu comme la résultante d'une praxis : "c'est seulement l'activité pratique des hommes qui peut rendre des choses communes" (p. 49). Dardot et Laval décèlent les linéaments de cette pensée dans Les Politiques d'Aristote. Ils en déduisent par là même une redéfinition du commun à rebours de l'illusion naturaliste :
"Voilà ce qui éclaire singulièrement ce que nous appelons le "renversement dans la méthode" par lequel il faut remonter à l'agir commun comme étant au principe de tout commun au lieu de présenter le commun comme un donné naturel indépendant de l'agir humain (p. 239)
Le commun doit résulter d'un acte de mise en commun. Mais à quel horizon se déploie-t-il ? Le commun échappe-t-il à la sphère de la propriété ?

Instituer le commun comme inappropriable


La Summa Divisio  (division du droit entre le droit public et le droit privé) est considérée en droit comme la mère de toutes les divisions. Elle structure l'espace juridique autour de deux propriétés: la propriété publique et la propriété privée. C'est dire que la Summa Divisio arrime le droit tout entier à la propriété, perçue comme le substrat sur lequel se déploient les racines du droit. Le droit de propriété est "fondé comme droit exclusif et absolu" (p. 231) et il n'est pas possible de sortir de l'alternative: propriété publique ou propriété privée.

Selon une idée répandue, la bipartition droit public/droit privé serait un héritage direct du droit romain. Il s'agirait d'un héritage continu et intangible. Et non seulement la doctrine juridique majoritaire présente cette structuration comme indépassable, mais les théoriciens du néo-libéralisme invoquent sa prétendue immuabilité pour l'instituer comme justification des accords de mondialisation les plus récents, fondés sur la prévalence du contrat (droit privé) sur les législations étatiques (droit public).

Laval et Dardot se demandent si cette structuration juridique a toujours été insurmontable, si elle relève véritablement d'une continuité quasi atemporelle. En fait, la division du droit public et du droit privé est une distinction assez récente, puisque sa première expression date du XVIe siècle, au moment de l'émergence d'un "individualisme propriétaire"Et si la nécessité d'une Summa Divisio ne s'est pas fait sentir avant ce moment, c'est qu'initialement, le droit romain n'était pas scindé entre deux types de propriétés, la propriété publique et la propriété privée. Le droit était le lieu d'un clivage d'une toute autre nature: entre l'appropriable et l'inappropriable. D'un côté, les biens sans maître (res nullius), parties intégrantes d'un patrimoine public, et susceptibles à ce titre de faire l'objet d'une appropriation par le premier occupant. De l'autre, les choses publiques (res nullius in bonis) affectées à un usage public, rendues inappropriables en vertu d'un acte instituant.

Tirant la leçon de ce détour qui est en même temps une relecture de l'histoire des institutions et des faits sociaux, les auteurs prônent la refondation du commun sur la base d'un acte instituant de mise en commun, contre et hors de la sphère de la propriété. Il faut opposer le droit d'usage à la propriété :
L'usage instituant des communs n'est pas un droit de propriété, il est la négation en acte du droit de propriété sous toutes ses formes parce qu'il est la seule forme de prise en charge de l'inappropriable (p. 480)
***

Le livre de Dardot et Laval recèle bien d'autres analyses et il me faudrait plusieurs autres billets pour tenter d'en faire le tour. Je ne peux que vous inviter à vous y plonger...


Notes :
Dans leur enquête archéologique, les auteurs s'appuient principalement sur trois sources :
[1] et [2] Marie-Alice CHARDEAUX, Les choses communes, LGDJ, Paris, 2006.
[3] Yan THOMAS, "La valeur des choses. Le droit romain hors la religion", Annales. Histore, Sciences sociales, 2002/6, pp. 1431-1462.
[4] Yan THOMAS, "Res, chose et patrimoine. Note sur le rapport sujet-objet en droit romain." Archives de philosophie du droit, n°25, 1980.



EoD : quand les bibliothèques numérisent et diffusent des œuvres du domaine public

28 mai 2014 à 11:18
Cet article est conçu comme un complément au récent article de @Silvae, publié sur Bibliobsession : Quand bibliothèques et éditeurs financent des contenus sous licence Creative Commons.

La perspective ici est un peu différente : le but visé n'est pas de permettre la libre diffusion de contenus sous droits, mais de garantir la libre diffusion du produit de la numérisation d’œuvres du domaine public. Lancé en 2006 dans le cadre du projet « Numérisation à la demande » cofinancé par le Programme eTEN, et bénéficiant du financement de la Communauté européenne dans le cadre du Programme Culture, le programme eBooks on Demand (EoD) porte sur la numérisation de tout livre publié entre 1500 et 1900, autrement dit de toute œuvre appartenant de façon indubitable au domaine public. Actuellement, 36 bibliothèques européennes participent au programme.



Le principe de fonctionnement est simple. Un usager repère un ouvrage papier publié entre 1500 et 1900 sur le catalogue en ligne d'une bibliothèque partenaire du programme EoD. S'il souhaite que le contenu soit numérisé, il a la possibilité de cliquer sur l'icône EoD figurant dans la notice : il accède ainsi à un formulaire, lui permettant de demander à la bibliothèque de numériser l'exemplaire en sa possession. Le tarif, à la charge de l'usager, est fixé par la bibliothèque.


Voilà pour le processus en amont de la numérisation. Mais qu'en est-il des conditions de diffusion du produit de la numérisation ? L'ouvrage dans sa version numérique sera-t-il disponible seulement et uniquement pour l'usager, avec interdiction pour lui de partager l'œuvre en dehors du cercle de famille (copie privée)? Ou bien le produit de la numérisation devient-il librement accessible, partageable  et réutilisable pour tout un chacun, une fois exaucée la première demande de numérisation ?

La première phrase de la réponse donnée par EoD dans la Foire aux Questions d'EOD est très claire :
Y a-t-il des restrictions pour utiliser les eBooks EOD ? 

Non, il n’existe aucune restriction pour utiliser les fichiers de documents tombés dans le domaine public.
Rien que de très normal dans la réponse d'EoD. La numérisation d’œuvres du domaine public ne fait pas renaître des droits. Le Ministère de la Culture l'explique bien sur son site :
Les opérations de numérisation de documents ne confèrent à la bibliothèque aucun droit de propriété littéraire et artistique sur les œuvres ainsi reproduites 
Par conséquent, il n'y a pas lieu de restreindre par une quelconque licence les conditions de réutilisation des fichiers issus de la numérisation d’œuvres du domaine public.

***

Seulement, dans la FaQ d'EoD, la réponse citée plus haut se poursuit ainsi :
Néanmoins, les législations locales et nationales varient légèrement. Pour connaître le détail, cliquez ici
Non seulement, le principe de non-restriction de la réutilisation des œuvres du domaine public numérisées est susceptible d'être mis à mal par la surimposition de législations nationales voire locales, mais EoD autorise chaque bibliothèque à fixer elle-même ses propres conditions de réutilisation. De fait, on constate que la majeure partie des bibliothèques partenaires du programme EoD verrouillent par le biais de clauses contractuelles la réutilisation des œuvres numérisées. Parmi les 36 bibliothèques partenaires, 27 (sans doute 29 si l'on inclut la Bibliothèque de l’Académie Hongroise des Sciences et la Bibliothèque Universitaire de Vienne pour lesquelles une impossibilité d'accès ne permet pas de connaître exactement les conditions d'utilisation) imposent comme la Bibliothèque Universitaire de Bratislava, la condition que la réutilisation des fichiers numérisés doit être personnelle et non commerciale. La clause-type qui revient le plus souvent est la suivante :
Unless agreed otherwise, the Customer is granted the right to use the delivered products for his/her own purposes on any hardware to be provided by the Customer. All uses in excess thereof are subject to separate written agreement. The Customer is only entitled to use the products within the scope of these General Terms and Conditions. He/She is not entitled to make products available to third parties, whether for consideration or free of charge.
Le client n'a le droit que de télécharger l’œuvre numérisée sur son disque dur. Tout autre usage doit être soumis à un accord écrit séparé. Le client n'est pas autorisé à rendre le produit de la numérisation disponible pour des parties tierces, que ce soit pour une exploitation commerciale ou pour une mise à disposition gratuite. La clause est tellement restrictive, qu'on peut se demander si elle ne fait pas barrage à l'application de l'exception pour copie privée.

Cette restriction d'usage est plus que problématique. La pratique qui consiste à imposer des restrictions d'utilisation allant au-delà de ce que la loi permet a un autre nom : le "Copyfraud", tel que défini par le juriste Jason Mazzone.

Elle paraît d'autant plus incompréhensible que les mêmes bibliothèques précisent systématiquement, par une autre clause-type, que les fichiers de la numérisation sont importés dans des dépôts numériques dédiés, et bénéficient ainsi d'un archivage pérenne (voir par exemple ici : "Public domain books or books for which we receive a declaration of consent from the author or publishing houses are imported by us into the digital library of the Library Am Guisanplatz and are thus globally available and also preserved for the long term.) On retombe dans un cas de schizophrénie bien connu des lecteurs assidus comme moi du blog de @Calimaq : dans le même temps où ces bibliothèques mettent en ligne des œuvres du domaine public, elles en restreignent la réutilisation, niant par là même la notion même de domaine public.

***

Au contraire, d'autres bibliothèques partenaires du programmes EoD jouent le jeu de la libre réutilisation. Six bibliothèques apposent au produit de la numérisation la licence Public Domain Mark. Il s'agit de la Bibliothèque Universitaire de l'Académie des Beaux-Arts de Vienne, de la Bibliothèque Universitaire et Régionale du Tyrol, de la Bibliothèque Centrale de Zurich, de la Bibliothèque Royale du Danemark, de la Bibliothèque Universitaire de Berne et de la Bibliothèque Nationale de Suède.

Quant à la Bibliothèque Interuniversitaire de Santé (BIUS),elle a fait le choix de la Licence Ouverte/Open Licence élaborée par la mission Etalab. Bien que garantissant une libre réutilisation du produit de la numérisation, cette licence paraît moins appropriée que la licence Public Domain Mark, conçue pour garantir une protection contre les enclosures informationnelles. Mais l'essentiel, c'est que la BIUS libère au lieu d'emprisonner par le biais de clauses abusives, le produit de la numérisation des œuvres du domaine public

***
En résumé, il n'est parfois pas de pire ennemi à la diffusion des œuvres du domaine public que les bibliothèques elles-mêmes. Les bibliothèques qui souhaitent adopter une démarche de dissémination des œuvres du domaine public, doivent réfléchir non pas simplement aux conditions techniques et logistiques de la numérisation, mais aux conditions juridiques de la réutilisation du produit de la numérisation des œuvres du domaine public.



Post Scriptum du 29 mai 2014. Suite à la publication de cet article, deux personnes m'ont signalé via le réseau qui gazouille, deux initiatives visant la même finalité que le programme EoD :

1) @Calimaq me signale le site de réédition à la demande Numalire.
Lancé en septembre 2013 par la société YABé, Numalire repose sur un partenariat construit avec des bibliothèques patrimoniales. Actuellement, ces bibliothèques sont au nombre de huit : la Bibliothèque Sainte Geneviève, la Bibliothèque des Arts Décoratifs, la Bibliothèque Historique de la Ville de Paris (BHVP, la Bibliothèque de l’Hôtel de Ville de Paris (BHdV), la Bibliothèque Forney, la Bibliothèque Marguerite Durand, la Bibliothèque de l'Académie Nationale de Médecine et la Bibliothèque de l'INRA. Le financement repose sur le principe du crowdfunding : un lecteur souhaite voir numérisée une oeuvre du domaine public ; il demande à Numalire un devis ; une fois le devis établi, il lance par le biais de Numalire une souscription, afin de solliciter la participation d'autres personnes. Le montant minimum de participation est de 10€. Si la souscription aboutit, les contributeurs obtiennent la possibilité de télécharger un exemplaire en format pdf –copie conforme de l’original - sous licence Public Domain Mark 1.0.

2) @LAlbaret m'indique que le Service Interétablissement de la Documentation SID2 Grenoble a mis en place un service gratuit et ouvert à tous de numérisation à la demande pour les œuvres du domaine public. Le produit de la numérisation est diffusé sous licence CC0. Bravo au SID2 !

Le jour où HAL sera une archive vraiment ouverte...

24 décembre 2013 à 05:26
Mise à jour du 17 juin 2014 . Les Creative Commons seront implémentées sur la version 3 de HAL, qui devrait être mise en production à compter d'octobre. Pour les fichiers auteur, les déposants auront la possibilité d'apposer la licence de leur choix. Même si aucune licence ne sera proposée par défaut, l'implémentation des CC constitue une avancée majeure pour les archives ouvertes françaises. Pour se faire une idée des autres nouveautés, se reporter à ce storify réalisé par @freddie2310 
View "undefined" on Storify
Le bruit court depuis quelques jours : à l'avenir, une licence Creative Commons par défaut sera bientôt disponible sur HAL.




La garantie d'une véritable ouverture


Voilà une perspective qui, si elle était mise en application, permettrait à HAL de devenir une archive pleinement ouverte. Rappelons en effet que, actuellement, la licence par défaut qui s'applique aux articles déposés dans HAL relève du droit d'auteur "classique". Cela signifie qu'aucune réutilisation des articles n'est possible sans l'accord exprès des auteurs. Ce que l'on traduit souvent par la mention "tous droits réservés" [au bénéfice des auteurs]. Il s'agit d'une ouverture des données en trompe-l’œil : HAL a beau être qualifiée d'archive "ouverte", la réutilisation des articles est bloquée. L'archive HAL a été  conçue pour une "communication scientifique directe", non pour une réutilisation directe, et ce, en dépit du principe d'ouverture des données, maintes fois réaffirmé depuis la déclaration de la "Budapest Open Access Initiative" de 2001.
Les licences Creative Commons constituent un renversement de la logique du droit d'auteur. Ce n'est plus une interdiction de réutilisation qui s'exprime a priori, c'est au contraire une autorisation donnée par l'auteur, moyennant le respect de certaines clauses. Ce que l'on traduit souvent par la mention "certains droits réservés". L'autorisation de réutilisation devient la règle, les interdictions l'exception. Les licences Creative Commons constituent donc un outil parfaitement adapté pour garantir une véritable ouverture des données.

Deux questions centrales entourent la perspective d'une implémentation des licences Creative Commons au sein de HAL. L'une de nature juridique, l'autre de nature politique.

CC-BY-NC ou CC-BY-SA ?


Quelle licence Creative Commons est à privilégier ? CC-BY-NC ou CC-BY-SA?
La clause "NC" ("Non Commercial") a pour finalité de bloquer les réutilisations commerciales. Dans un article récent, Pierre-Carl Langlais démontre bien qu'il est assez illusoire de prévenir un  tel type de réutilisation. Car l'exploitation commerciale est protéiforme et ne se laisse pas appréhender par une définition simple. Elle ne se traduit pas nécessairement par une transaction financière. Dans le cas des réseaux sociaux scientifiques, (Researchgate, OpenScience, MyScienceWork, etc), l'inscription est gratuite et les membres déposent ou consultent des articles moyennant la fourniture de données personnelles. On  connaît la formule: "si c'est gratuit, c'est vous le produit". Mais si c'est gratuit, s'agit-il bien d'une exploitation commerciale ?
Dans le même article, Pierre-Carl Langlais opte pour la licence CC-BY-SA. La clause  "SA" ("Share Alike": partage à l'identique) impose aux réutilisateurs d'apposer la même licence ouverte sur les contenus réutilisés. Ne nous méprenons pas: la licence CC-BY-SA ne freine pas davantage la réutilisation commerciale... Prenons le cas de Wikipedia. Tous les articles sont diffusés sous licence CC-BY-SA. Ce qui n'empêche aucunement la société Orange de les réutiliser à des fins commerciales (par le rajout de logos et de publicités) sur ses portails wikipedia.orange.fr et encyclo.voila.fr.  
Alors, à quoi sert la clause de partage à l'identique ? Sa véritable finalité est autre. Il ne s'agit pas de bloquer les réutilisations commerciales mais de garantir le maintien d'une véritable ouverture des données. Ainsi, pour reprendre l'exemple d'Orange, les articles de Wikipedia réutilisés sur les sites miroirs se voient apposer la même licence que les articles originaux, et Orange est dans l'impossibilité de revendiquer un droit de paternité sur les contenus, ou de bloquer leur réutilisation. La licence CC-BY-SA est un frein aux "enclosures informationnelles". Le réutilisateur ne peut ajouter des mentions légales ou une fausse déclaration de droit d'auteur bloquant la réutilisation des contenus.

Et la question du politique, là-dedans ?


L'autonomie des chercheurs est un principe intangible (en France). Il est donc hors de question d'imposer une licence-type pour tous les contenus déposés sur HAL.
Imposer à tous les chercheurs un type de licence ouverte unique ne serait envisageable que sur la base d'une législation ad hoc. L'Allemagne a récemment légiféré en ce sens.
Mais plutôt que d'attendre une hypothétique modification du cadre législatif, ou du moins l'affichage d'un engagement ministériel clair,  il existerait un moyen simple pour le CCSD d'inciter les chercheurs à déposer leurs articles dans HAL sous une licence Creative Commons.

Partons d'un exemple. Les cours de l'école d'ingénieurs Telecom Bretagne sont tous proposés sous licence CC-BY-NC-SA. Il s'agit d'une licence par défaut. Comme l'explique Michel Briand, "chaque auteur de contenus pédagogique est maître du choix de la diffusion ou pas. Il est intéressant de constater qu'aucun des 10 % d'Enseignants-Chercheurs qui mettent leur cours en ligne (100% le sont en intranet) n'a refusé la licence Creative Commons et que seuls quelques Enseignants-Chercheurs ont élargi les clauses de réutilisation (CC-BY ou CC-BY-SA)."
On a vu plus haut les limites de la clause NC. Cela dit, la méthode choisie par Telecom Bretagne est d'une remarquable simplicité: il s'agit de proposer un type de licence aux déposants sans l'imposer... N'est-ce pas la voie à suivre ?

En s'inspirant de ce modèle, il faudrait imaginer qu'HAL non seulement intègre les licences Creative Commons (comme le fait déjà MediHAL), mais propose par défaut une licence CC-BY-SA, tout en laissant la possibilité aux chercheurs de modifier les clauses de la licence Creative Commons, voire d'opter pour un retour au droit d'auteur "classique". Il s'agirait donc d'une mesure d'incitation, dotée d'une grande efficacité sans que cela se traduise par une quelconque forme de violence, puisque les chercheurs auraient toute latitude pour modifier les termes de la licence.

La résistible désintégration de l'État de droit à la française

16 avril 2020 à 19:00
En cette période noire de pandémie, il ne se passe pas un jour sans que des constitutionnalistes, avocats et magistrats engagés dans la défense des libertés publiques, ne publient un billet, un article ou une tribune pour s'inquiéter des menaces qui pèsent sur les droits et libertés fondamentaux au lendemain de l'instauration brutale et précipitée de l'état d'urgence sanitaire. L'entrée en scène des gardiens de la Constitution et des libertés publiques pourrait être le symptôme d'une maladie profonde affectant l'ossature même de l’État de droit.

Car on a assisté ces dernières semaines à l'action hâtive et fiévreuse d'un gouvernement aux abois qui n'hésite pas à piétiner le texte de la Constitution de 1958, avec l'aval et ce point est tout aussi choquant du Conseil Constitutionnel et du Conseil d’État. La pandémie met au jour plus que jamais le déséquilibre et l'insuffisante séparation des pouvoirs inhérents à la Vème République, autant qu'elle exacerbe les tentations du tout-sécuritaire ou du tout-surveillance au détriment des libertés publiques.

Le gouvernement dépassé par l'état d'urgence sanitaire (Allégorie)
Théodore Géricault. Domaine Public. Source : Wikimedia Commons.

Le péché originel : le non-respect des règles de procédure constitutionnelle au nom de l'urgence


L'article 46 de la Constitution énonce, à propos de l'adoption des lois organiques, que : "si la procédure accélérée a été engagée (…), le projet ou la proposition ne peut être soumis à la délibération de la première assemblée saisie avant l'expiration d'un délai de quinze jours après son dépôt". Ce délai, comme le rappelle Paul Cassia, citant les propos de l'un des rédacteurs oubliés de la Constitution de 1958, Jérôme Solal-Céligny, était "destiné à éviter que l’on ne vote une telle loi, en quelque sorte, à la sauvette. Et aussi, éventuellement, pour que l’opinion publique puisse s’emparer de la question et faire connaître aux parlementaires ses inquiétudes, au moins par la voie de la presse."

Or la procédure accélérée engagée le 18 mars et ayant abouti à la loi organique du 30 mars, a eu précisément pour effet de conduire à l'adoption d'un texte bâclé et de museler toute velléité de débat public. 24 h ont séparé le dépôt par le ministère du texte au Sénat le 18 mars et son vote par le Sénat... Et le Conseil Constitutionnel a rendu le 26 mars, une décision validant a posteriori cette violation manifeste du texte de la Constitution :
"Compte tenu des circonstances particulières de l'espèce, il n'y a pas lieu de juger que cette loi organique a été adoptée en violation des règles de procédure prévues à l'article 46 de la Constitution". 
Curieuse décision par laquelle le Conseil Constitutionnel s’auto-déssaisit. Il renonce à juger, bref il abdique : "il n'y a pas lieu de juger".

Premier fait, donc : on dira ou bien que "le passage de l’état ordinaire des choses à l’état d’urgence s’est fait «à côté» du droit", ou bien, ce qui revient au même, que le texte de la Constitution a été "déchiré" par le gouvernement, selon l'expression de Paul Cassia. Et ce, avec l'aval du Conseil Constitutionnel, pourtant censé être le garant de la Constitution et contenir les velléités autoritaristes du pouvoir exécutif...

Voilà pour la forme. Encore cette violation des règles procédurales n'est-elle que le premier signe de la débâcle de ce gouvernement et du délabrement des institutions qui sont censées exercer un contre-pouvoir... Examinons maintenant le fond...

Deux institutions aux ordres du gouvernement


La loi organique votée définitivement et "à la sauvette" par l'Assemblée Nationale le 22 mars et promulguée le 30, comporte un article unique portant sur la suspension jusqu'au 30 juin des délais de traitement des Questions Prioritaires de Constitutionnalité (QPC).  Ceux-ci sont  normalement de 3 mois pour le délai de transmission par le Conseil d’État et la Cour de cassation au Conseil constitutionnel, ainsi que de 3 mois supplémentaires pour le délai de jugement par ce dernier, avec transmission automatique des QPC passé le premier délai de 3 mois.

Cette loi organique, (qui est placée dans la hiérarchie des normes au-dessous de la Constitution mais au-dessus des lois ordinaires) a une portée symbolique aussi forte qu'elle est inutile en pratique. Car d'une part, le Conseil Constitutionnel a précisé que la suspension des délais ne met pas en cause l'exercice de la QPC, et d'autre part, la durée ordinaire cumulée maximum (3+3=6 mois) laissée à la Cour de Cassation ou au Conseil d’État puis au Conseil Constitutionnel pour traiter d'une QPC aurait de toute façon très largement excédé la durée de 3 mois entre le 30 mars et le 30 juin (à moins que, par prorogations successives de mois en mois, l'état d'urgence finisse par durer plus d'un semestre ?) Mais elle en dit long sur la complaisance du Conseil Constitutionnel envers le gouvernement : prêts à tout pour ne pas entraver ou faire dévier l'action du gouvernement, les Sages ne voient rien à redire à une mesure visant à ralentir la mise en oeuvre de leur pouvoir de contrôle, au moment où ce dernier, en cette période de crise, est au contraire plus que jamais nécessaire. Comme le dit très bien Véronique Champeil-Desplats
"Alors que l’on pourrait s’attendre à ce que les périodes exceptionnelles conduisent à l’intensification du contrôle des juges, les clés de la garantie de l’État de droit leur étant en quelque sorte remises là où le parlement essaie de garder celles de la démocratie, c’est l’inverse qui se donne à voir".

L'entrée en vigueur de l’état d'urgence sanitaire pour 2 mois, (loi d'habilitation du 23 mars) s'est accompagnée d'une avalanche de référés liberté et suspension auprès du Conseil d’État en contestation des ordonnances, décrets et arrêtés pris en application de l’état d'urgence. Mais le Conseil d’État "a fait preuve d’une certaine déférence à l’égard du Gouvernement", rejetant en bloc la quasi-totalité des référés. Paul Cassia y voit quatre explications :

  1. l'inadaptation et l'inefficacité des référés-liberté et des référés-suspension dans le contexte de l'état d'urgence 
  2. "le conservatisme structurel du Conseil d’État tenant à sa dualité fonctionnelle" : étant à la fois juge et conseiller de l'exécutif (il examine les projets de lois et d'ordonnances, avant que ceux-ci ne soient soumis au conseil des ministres), le Conseil d’État est peu enclin à porter un jugement négatif sur des textes qu'il a lui-même validés avant leur promulgation. 
  3. une forme d'endogamie entre le gouvernement et le Conseil d’État, car les conseillers d’État ne cessent de faire des allers-retours entre l'administration et la juridiction. 
  4. le Conseil d’État est toujours disposé à rejeter les recours contentieux contre les carences de l'exécutif sur la foi de simples déclarations du gouvernement.

C'est ce conservatisme structurel du Conseil d'Etat qui explique qu'il ait refusé le 11 avril de transmettre au Conseil Constitutionnel une QPC  contestant l'insuffisante protection par la loi du 23 mars des personnes en situation de précarité, ou bien ait cassé un arrêt du tribunal administratif de Martinique qui avait fait droit à la demande de founiture de masques à destination des détenus dans un contexte de surpopulation carcérale.

Il faut vraiment lire en entier le billet de Paul Cassia pour prendre la mesure de l'impéritie de la plus haute juridiction administrative qui, à l'évidence, n'exerce que très partiellement son rôle de contrôle de l'exécutif.

Ajoutons à cela un Parlement plus que jamais exsangue, ne pouvant exercer de réel contrôle, et limitant son rôle à celui de double chambre d'enregistrement. L’Assemblée nationale a bien acté la création d'une mission d’information sur la gestion de l’épidémie, mais elle sera présidée par un proche du chef de l’Etat, Richard Ferrand, dont on peut sérieusement douter de l'impartialité.

On obtient au final la recette d'un État de droit au bord de l'implosion :
"En France, où il existe un déséquilibre en faveur du pouvoir exécutif, on voit que l’état d’urgence confère plus de pouvoir au premier ministre et au ministre de l’intérieur, alors que le Parlement se borne à une fonction d’information et de contrôle. Le conseil d’État est débordé par les référés à propos des décisions administratives, parce que la voie juridique reste le palliatif à l’absence de possibilité politique de contrôler les gouvernements". (Véronique Champeil-Desplat)

La restriction des libertés publiques et du droit social

 

La loi du 23 mars octroie au Premier Ministre des prérogatives de police administrative étendue.  L'article 2 lui permet d'organiser le confinement (restreindre ou interdire la circulation des personnes, interdire aux personnes de sortir de leur domicile, ordonner la fermeture provisoire d'une ou plusieurs catégories d'établissements recevant du public, limiter ou interdire les rassemblements sur la voie publique...) : ce "régime d’exception, par nature, a observé le Syndicat de la magistrature, bouscule les règles fondamentales d’un État de droit".

L'article 11 l'autorise à prendre par ordonnances une série de mesures de nature à modifier les règles du droit du travail :
"Il permet de remettre en cause certains principes du droit du travail, en particulier l’acquisition des congés payés, leur modification unilatérale par l’employeur, la réduction du temps de travail (RTT), ou encore la durée hebdomadaire du travail et le repos dominical au sein des entreprises de secteurs particulièrement nécessaires à la sécurité de la Nation ou à la continuité de la vie économique et sociale. Ces remises en cause, aujourd’hui motivées par la situation de crise, ne sont nullement limitées dans le temps." (Jean-Philippe Derosier)
Dans la foulée du vote de la loi d'état d'urgence sanitaire, le gouvernement, conformément à l'article 38 de la Constitution, a adopté une quarantaine d'ordonnances, dont une en matière de procédure pénale, qui porte une atteinte manifeste aux principe le plus élémentaire de la présomption d'innocence :
L’ordonnance de la Ministre de la Justice du 25 mars 2020, relative à la procédure pénale. Son article 16 prolonge de plein droit la durée de la détention provisoire de deux ou trois mois en matière correctionnelle et de six mois en matière criminelle, sans la moindre intervention d’un juge. Rappelons que la détention provisoire concerne des prévenus au cours de la phase d’instruction ou avant l’audiencement, donc avant toute condamnation : elle concerne ainsi des personnes présumées innocentes. (Jean-Philippe Derosier)
Cette disposition relative aux libertés fondamentales a un effet rétroactif et s'est imposée sans l'ombre d'un débat (hormis dans le cadre parlementaire du vote de la loi d'habilitation). Plusieurs syndicats et associations ont formé des référés-liberté contre cette ordonnance et la circulaire qui l'accompagnait  au nom de l'atteinte aux articles 5 et 6 de la Convention européenne des droits de l’homme et à l’article 66 de la Constitution. Le Conseil d’État les a rejetés sèchement (voir la brillante analyse de Jean-Baptiste Perrier), sans audience, car le texte de l'ordonnance est conforme aux dispositions l'article 11 de la loi d'habilitation du 23 mars.

Quant à la mise en oeuvre des contraventions pour récidives liées au non-respect du confinement, elle s'appuyait sur un fichier numérique détourné de ses finalités, le fichier ADOC destiné au stockage numérique des contraventions routières, de sorte qu'un avocat a pu obtenir la nullité des poursuites pour son client. Le Ministère de la Justice vient de modifier en catastrophe l'arrêté de 2004 créant le fichier ADOC.

Du côté des préfectures et des mairies, on assiste à un festival d'arrêtés visant au durcisssement des mesures de confinement, une véritable course à l'échalote de la mesure la plus restrictive et la plus digne du Père Ubu. Le préfet de l'Aisne interdit la consommation d'alcool dans son département avant de se rétracter. Le préfet de Seine-et-Marne prend un arrêté de réquisition des chasseurs et gardes-chasse pour faire respecter le confinement avant de l'abroger.  Moins drôle, le maire de Montgeron invite ses concitoyens à la délation...

Quant à la liste des dérogations sur attestation, sa rédaction en a été si bâclée, que son application dépend pour partie du caractère raisonnable ou délirant de l'interprétation qu'en font les forces de l'ordre, que les zones grises du texte investissent de fait d'un pouvoir discrétionnaire.

https://www.franceinter.fr/justice/confinement-un-homme-contraint-de-faire-demi-tour-alors-qu-il-allait-voir-son-pere-mourant

Un retraité achète :
👉Un sandwich 🥪
👉Deux boites de conserves 🥫
👉Des yaourts 🐮
👉Du sopalin 🧻
Achats jugés "insuffisants" par le 👮
135 euros d'amende, rapporte le sénateur André Chassaigne.
-> https://t.co/9whY0tz8x8 #confinement #attestationdedeplacement pic.twitter.com/qiVEm1Eszp
— marc rees (@reesmarc) April 14, 2020



Le pistage au lieu du dépistage

 

Les interrogations sur les moyens de juguler la pandémie ont mené à chercher, à défaut de réponse médicale et en l'absence de stocks suffisants de masques et de tests, des réponses sur le versant policier, en termes de surveillance déclinée sous trois formes :
- Une forme classique dite analogique : la systématisation des contrôles de police, censés pallier la pénurie des stocks de masques et de tests. La réponse policière est d'autant plus forte que les stocks de protection sont vides. Comme le dit très bien Alain Damasio : "la médecine n'est pas, ou ne devrait pas être un travail de police".

Parfois de bons slogans valent bien mieux que de longs discours !!! 👍👌 pic.twitter.com/3Z9Ekxr3cx
— Le jour viendra où le peuple vaincra (@NaphtalineLeBon) April 1, 2020
- Les drones commencent depuis peu à faire leur apparition dans le ciel dépollué des grandes villes. Le gouvernement vient même de publier le 13 avril un appel d'offres pour la commande de "micro-drones du quotidien", façon plus ou moins maladroite de consacrer en l'euphémisant le recours problématique aux drones.
- Enfin, ce qu'on pourrait appeler avec Evgeni Morozov, le "solutionnisme technologique" : le gouvernement français a validé la mise en place d'une solution de "back-tracking" : méthode de traçage des citoyens par le biais d'une application pour smartphone adossée à la technologie bluetooth et censée protéger la confidentialité des données personnelles (il existe maintenant un consensus dans la communauté des informaticiens pour dire que l'anonymisation complète des données personnelles est un mythe). L'Observatoire des Libertés et du Numérique démontre parfaitement comment cette "solution" n'en est pas une : non-respect du consentement, pression patronale ou sociale, violation du secret médical, risque de discrimination des personnes non-équipées de smartphones...

 Sur cette nouvelle solution baptisée "StopCovid", le Parlement, décidément la dernière roue du carrosse en période d'état d'urgence, n'aura qu'un droit de regard limité: il y aura bien un débat parlementaire, mais sans vote...

"Les crises se multipliant, celle-ci semble être un laboratoire du futur. Certaines mesures, comme le tracking, resteront sans doute." (Serge Slama). Car, et ce sera notre dernier point, certaines des mesures expérimentées à l'occasion de l'état d'urgence sanitaire pourraient intégrer le droit commun au-delà de la crise sanitaire.

 

Un arsenal de mesures qui pourrait être pérennisé

 

Les juristes gardent en mémoire la loi antiterroriste qui a suivi l'état d'urgence sécuritaire de 2015-2016 : bon nombre de mesures ont été conservées pour être intégrées au droit commun. Comme le rappelle cet article du Monde :
L’état d’urgence en matière terroriste de 2015, décidé après les attentats de Paris et de Saint-Denis, a été prolongé à six reprises, à chaque fois pour plus d’un mois, jusqu’à ce que le gouvernement le verse dans le droit commun avec la loi SILT du 30 octobre 2017 : un « effet de contamination » classique, qui veut que le législateur revienne rarement à une législation moins contraignante en matière de libertés publiques.
Le spectre du maintien de certaines des dispositions les plus controversées de l'état d'urgence sanitaire, à commencer par le projet de système de surveillance généralisée par le traçage, plane sur les débats. La catastrophe sanitaire se doublera-t-elle d'une régression catastrophique des libertés publiques ?


***


En ce moment-même, "l’incubateur de start-up d’État" est en train de travailler à la création d'un nouvel outil de traçage. Il ne faut pas attendre la période du déconfinement pour agir. De notre réaction présente dépend l'avenir de nos libertés publiques. C'est dès à présent qu'il faut donc dire, de concert avec l'Observatoire des Libertés et du Numérique, que "la crise sanitaire ne justifie pas d'imposer les technologies de surveillance".








Pour un plan national pour la culture ouverte, l’éducation ouverte et la santé ouverte

4 avril 2020 à 16:08
 Je republie ici le texte paru sur le site Framasoft et co-signé par Lionel Maurel, Silvère Mercier et Julien Dorra.

 Crise ou pas crise, nous avons tout le temps besoin d’un savoir ouvert

La crise sanitaire du coronavirus nous oblige à réévaluer ce qui est fondamental pour nos sociétés. Les personnes essentielles sont bien souvent celles qui sont invisibilisées et même peu valorisées socialement en temps normal. Tous les modes de production sont réorganisés, ainsi que nos formes d’interaction sociale, bouleversées par le confinement.
Dans ce moment de crise, nous redécouvrons de manière aigüe l’importance de l’accès au savoir et à la culture. Et nous constatons, avec encore plus d’évidence, les grandes inégalités qui existent parmi la population dans l’accès à la connaissance. Internet, qui semble parfois ne plus être qu’un outil de distraction et de surveillance de masse, retrouve une fonction de source de connaissance active et vivante. Une mediathèque universelle, où le partage et la création collective du savoir se font dans un même mouvement.
Face à cette situation exceptionnelle des institutions culturelles ou de recherche, rejointes parfois par des entreprises privées, font le choix d’ouvrir plus largement leurs contenus. On a pu ainsi voir des éditeurs donner un accès direct en ligne à une partie des livres de leur catalogue. En France, plusieurs associations de bibliothèques et d’institutions de recherche ont demandé aux éditeurs scientifiques de libérer l’intégralité des revues qu’ils diffusent pour favoriser au maximum la circulation des savoirs et la recherche. Aux États-Unis, l’ONG Internet Archive a annoncé le lancement d’une National Emergency Library libérée de toutes les limitations habituelles, qui met à disposition pour du prêt numérique 1,4 millions d’ouvrages numérisés.
« Personne ne doit être privé d’accès au savoir en ces temps de crise », entend-on. « Abaissons les barrières au maximum ». L’accès libre et ouvert au savoir, en continu, la collaboration scientifique et sociale qu’il favorise, ne sont plus seulement un enjeu abstrait mais une ardente nécessité et une évidence immédiate, avec des conséquences vitales à la clé.
Il aura fallu attendre cette crise historique pour que cette prise de conscience s’opère de manière aussi large.
Cet épisode aura aussi, hélas, révélé certaines aberrations criantes du système actuel.
Ainsi, le portail FUN a décidé de réouvrir l’accès aux nombreux MOOC (Massive Online Open Courses) qui avaient été fermés après leur période d’activité. Ces MOOC « à la française » n’avaient donc, dès le départ, qu’une simple étiquette d’ouverture et vivent selon le bon vouloir de leurs propriétaires.
Pire encore, le Centre National d’Enseignement à Distance (CNED) s’est opposé à la diffusion de ses contenus en dehors de son propre site au nom de la « propriété intellectuelle ». L’institution nationale a envoyé des courriers de menaces à ceux qui donnaient accès à ses contenus, alors que ses serveurs étaient inaccessibles faute de soutenir l’affluence des visiteurs. Voici donc mise en lumière l’absurdité de ne pas diffuser sous licence libres ces contenus pourtant produit avec de l’argent public.
Quelques semaines avant le développement de cette crise, le syndicat CGT-Culture publiait une tribune… contre la libre diffusion des œuvres numérisées par la Réunion des Musées Nationaux. On voit au contraire à la lumière de cette crise toute l’importance de l’accès libre au patrimoine culturel ! Il faut que notre patrimoine et nos savoirs circulent et ne soient pas sous la dépendance d’un acteur ou d’un autre !
Ces exemples montrent, qu’au minimum, une équation simple devrait être inscrite en dur dans notre droit sans possibilité de dérogation :
Ce qui est financé par l’argent public doit être diffusé en accès libre, immédiat, irréversible, sans barrière technique ou tarifaire et avec une liberté complète de réutilisation.
Cela devrait, déjà, s’appliquer aux données publiques : l’ouverture par défaut est une obligation en France, depuis 2016 et la Loi République Numérique. Cette obligation est hélas largement ignorée par les administrations, qui privent ainsi des moyens nécessaires ceux qui doivent la mettre en œuvre dans les institutions publique.
Mais toutes les productions sont concernées : les logiciels, les contenus, les créations, les ressources pédagogiques, les résultats, données et publications issues de la recherches et plus généralement tout ce que les agents publics produisent dans le cadre de l’accomplissement de leurs missions de service public.
Le domaine de la santé pourrait lui aussi grandement bénéficier de cette démarche d’ouverture. Le manque actuel de respirateurs aurait pu être amoindri si les techniques de fabrications professionnelles et des plans librement réutilisables avaient été diffusés depuis longtemps, et non pas en plein milieu de la crise, par un seul fabricant pour le moment, pour un seul modèle.
Novel Coronavirus SARS-CoV-2
Image colorisée d’une cellule infectée (en vert) par le SARS-COV-2 (en violet) – CC BY NIAID Integrated Research Facility (IRF), Fort Detrick, Maryland
Ceci n’est pas un fantasme, et nous en avons un exemple immédiat : en 2006, le docteur suisse Didier Pittet est catastrophé par le coût des gels hydro-alcooliques aux formules propriétaires, qui limite leurs diffusions dans les milieux hospitaliers qui en ont le plus besoin. Il développe pour l’Organisation Mondiale de la Santé une formule de gel hydro-alcoolique libre de tout brevet, qui a été associée à un guide de production locale complet pour favoriser sa libre diffusion. Le résultat est qu’aujourd’hui, des dizaines de lieux de production de gel hydro-alcoolique ont pu démarrer en quelques semaines, sans autorisations préalables et sans longues négociations.
Beaucoup des barrières encore imposées à la libre diffusion des contenus publics ont pour origine des modèles économiques aberrants et inefficaces imposés à des institutions publiques, forcées de s’auto-financer en commercialisant des informations et des connaissances qui devraient être librement diffusées.
Beaucoup d’obstacles viennent aussi d’une interprétation maximaliste de la propriété intellectuelle, qui fait l’impasse sur sa raison d’être : favoriser le bien social en offrant un monopole temporaire. Se focaliser sur le moyen – le monopole – en oubliant l’objectif – le bien social – paralyse trop souvent les initiatives pour des motifs purement idéologiques.
La défense des monopoles et le propriétarisme paraissent aujourd’hui bien dérisoires à la lumière de cette crise. Mais il y a un grand risque de retour aux vieilles habitudes de fermeture une fois que nous serons sortis de la phase la plus aigüe et que le confinement sera levé.
Quand l’apogée de cette crise sera passée en France, devrons-nous revenir en arrière et oublier l’importance de l’accès libre et ouvert au savoir ? Aux données de la recherche ? Aux enseignements et aux manuels ? Aux collections numérisées des musées et des bibliothèques ?
Il y a toujours une crise quelque part, toujours une jeune chercheuse au Kazakhstan qui ne peut pas payer pour accéder aux articles nécessaires pour sa thèse, un médecin qui n’a pas accès aux revues sous abonnement, un pays touché par une catastrophe où l’accès aux lieux physiques de diffusion du savoir s’interrompt brusquement.
Si l’accès au savoir sans restriction est essentiel, ici et maintenant, il le sera encore plus demain, quand il nous faudra réactiver l’apprentissage, le soutien aux autres, l’activité humaine et les échanges de biens et services. Il ne s’agit pas seulement de réagir dans l’urgence, mais aussi de préparer l’avenir, car cette crise ne sera pas la dernière qui secouera le monde et nous entrons dans un temps de grandes menaces qui nécessite de pouvoir anticiper au maximum, en mobilisant constamment toutes les connaissances disponibles.
Accepterons-nous alors le rétablissement des paywalls qui sont tombés ? Ou exigerons nous que ce qui a été ouvert ne soit jamais refermé et que l’on systématise la démarche d’ouverture aujourd’hui initiée ?
Photographie Nick Youngson – CC BY SA Alpha Stock Images
Pour avancer concrètement vers une société de l’accès libre au savoir, nous faisons la proposition suivante :
Dans le champ académique, l’État a mis en place depuis 2018 un Plan National Pour la Science Ouverte, qui a déjà commencé à produire des effets concrets pour favoriser le libre accès aux résultats de la recherche.
Nous proposons que la même démarche soit engagée par l’État dans d’autres champs, avec un Plan National pour la Culture Ouverte, un Plan National pour l’Éducation Ouverte, un Plan National pour la Santé Ouverte, portés par le ministère de la Culture, le ministère de l’Education Nationale et le ministère de la Santé.
N’attendons pas de nouvelles crises pour faire de la connaissance un bien commun.
Ce texte a été initié par :
  • Lionel Maurel, Directeur Adjoint Scientifique, InSHS-CNRS;
  • Silvère Mercier, engagé pour la transformation de l’action publique et les communs de capabilités;
  • Julien Dorra, Cofondateur de Museomix.
Nous appelons toutes celles et tous ceux qui le peuvent à le republier de la manière qu’elles et ils le souhaitent, afin d’interpeller les personnes qui peuvent aujourd’hui décider de lancer ces plans nationaux: ministres, députés, directrices et directeurs d’institutions. Le site de votre laboratoire, votre blog, votre Twitter, auprès de vos contacts Facebook: tout partage est une manière de faire prendre conscience que le choix de l’accès et de la diffusion du savoir se fait dès maintenant.

To blog or not to blog

15 mars 2020 à 18:42
Le Département Documentation, Archives, Médiathèque et Édition m'a invité à participer aux journées d'études des 12 et 13 mars consacrées à "La Médiation et les métiers de la documentation du livre et des archives : entre permanence et renouvellement, enjeux et prospectives".

J'étais invité à proposer une réflexion à propos de l'état de l'art en matière de blogs en sciences de l'information. Or il se trouve que je n'ai pas alimenté le présent blog depuis plus d'un an, de sorte qu'une telle présentation ne pouvait selon moi, faire l'économie d'un questionnement sur la nécessité ou non de continuer en 2020 à tenir un blog.

Ce billet, qui inclut une présentation explicitant pourquoi ce blog a été mis en silence,  est donc en soi une jolie contradiction performative.


J'aimerais ici revenir sur quelques éléments de réflexion, et notamment dissiper certains malentendus. Tout d'abord, le constat que je fais d'un certain déclin des blogs n'est pas étayé par la compilation préalable d'un ou plusieurs travaux de recherche sur le sujet. Je revendique en la matière une analyse subjective de la question des interactions, des entrecroisements et des jeux de substitutions entre blogs et réseaux sociaux (pour la clarté du propos, j'ai fait comme si le blog n'était pas un réseau social, pour mieux le distinguer des réseaux sociaux proposés par les grandes plateformes centralisées: Facebook, Twitter, Instagram, etc). 

Ensuite, comme me l'a fait remarquer très justement une personne dans la salle, je n'ai pas envisagé certains aspects de l'articulation entre blogs et réseaux sociaux : on trouve fréquemment sur les réseaux sociaux des messages brefs comportant un lien invitant à continuer la lecture sur un blog. Dans ce cas, l'antagonisme s'efface au profit d'une complémentarité.

Enfin, puisque la question m'a été posée et que je pense ne pas y avoir répondu assez nettement et assez clairement, j'aimerais dire ici que oui, le blog, bien plus que les réseaux sociaux, est un espace adapté à l'expression d'une réflexion construite et approfondie, et en cela, l'hypothèse inverse selon laquelle les blogs ont un bel avenir, n'est pas à exclure. Ma réflexion consistait à mettre en doute la visibilité et la pérennité des blogs en général à l'ère de l'hégémonie des réseaux sociaux centralisés ; il n'en reste pas moins que subsiste actuellement un espace pour les blogs écrits à des fins journalistiques ou scientifiques ou bien pour tous autres types de blogs bénéficiant d'une large audience (blogs culinaires pas exemple, ou en sciences de l'information...). C'est seulement dans quelques années qu'on saura précisément si les blogs ont survécu au rouleau compresseur des réseaux sociaux, ou bien si un nouveau médium les a remplacés. Tel le chat de Schroedinger, les blogs sont simultanément morts et non-morts...

Ma première thèse consistait à montrer comment la conversation s'était déplacée des blogs aux réseaux sociaux.  La seconde consistait à montrer comment le rêve d'un web émancipateur, libre et ouvert s'était brisé sur les récifs du capitalisme de surveillance et que le droit n'a plus prise sur la réalité du web des plateformes centralisées. "Move fast and break things", disait Mark Zuckerberg en 2009. Avancer vite, quitte à faire éclater les cadres législatifs et démocratiques. 

Au passage, je montrais, au travers du cas emblématique du scandale Clearview, comment la reconnaissance artificielle n'est au fond que l'excroissance hypertrophiée du web centralisé : non seulement la base de données de 3 milliards d'images s'est constituée en siphonnant les contenus des principales plateformes de réseaux sociaux (Facebook, YouTube, Twitter, Instagram, Snapchat, etc), mais l'un des premiers soutiens financiers de la firme n'est autre que Peter Thiel, également actionnaire de  Facebook.

C'est là que ça devient croustillant : qui retrouve-t-on parmi les premiers soutiens financiers de Clearview ? Peter Thiel, l'argentier conservateur de la Silicon Valley, cofondateur de PayPal et de Palantir, membre du conseil d'administration de... Facebook. pic.twitter.com/hZEj08NJn8
— Olivier Tesquet (@oliviertesquet) January 18, 2020

J'ai fait ma présentation le 12 mars... quelques heures avant l'allocution présidentielle au sujet du coronavirus. Il y a comme un avant et un après... Un trait qui me semble frappant dans le traitement préventif appliqué au coronavirus est la façon dont il s'accommode bien du recours aux technologies du capitalisme de la surveillance. 

L'arsenal de technologies mises en œuvre pour répondre à la propagation du virus permet, comme le dit très bien Olivier Tesquet, d'évaluer les modalités de notre soumission à la surveillance. Ou pour le dire autrement, les mesures prophylactiques sont le prétexte d'un déploiement toujours plus étendu des cybertechnologies de la surveillance. 

En Chine, la lutte contre le coronavirus a trouvé à se matérialiser par le recours aux drones, à la vidéo-surveillance et à une application pour smartphones qui décide en temps réel "si quelqu'un présente un risque de contagion [et] partage les informations avec la police, établissant un modèle pour de nouvelles formes de contrôle social automatisé".  En Israël, le Shin Bet, le service de sécurité intérieure, projette de mettre en œuvre "le suivi en temps réel des téléphones portables des personnes infectées pour repérer les violations de la quarantaine et le traçage a posteriori des déplacements grâce à des métadonnées pour savoir où elles ont été et qui elles ont contacté." Un pareil dispositif est déjà mis en œuvre à Singapour et en Corée du Sud. Des entrepreneurs avides aux aguets poussent à faire de même en Belgique. A Moscou, c'est la reconnaissance faciale qui est mobilisée. Les Etats-Unis s'apprêteraient à proroger le Patriot Act au nom de la menace de santé publique.

Et en France ? Les politiques tâtent le terrain. Le terreau a déjà été préparé par la menace sécuritaire liée aux attentats. Car au fond, la mise en œuvre d'un nouvel arsenal de cybertechnologies est toujours déclenché par une peur, qu'elle soit liée à une menace purement humaine ou virale. Le 8 octobre 2019, le président de la République en appelait à une "société de vigilance", que Mireille Delmas-Marty qualifie de "nouveau coup d’accélérateur aux glissements de l’Etat de droit vers un Etat de surveillance [voire à une] surveillance sans Etat", à l'heure du déploiement de contrats entre municipalités et partenaires privés. On pense notamment au projet SafeCity à Nice, issu d'une convention entre la municipalité et la société Thalès. Dans la foulée des propos du président, Cédric O, secrétaire d’État au numérique, a appelé de ses vœux, et appelle toujours, à l'expérimentation de la reconnaissance faciale. Est-ce bien cela que nous voulons ?



PS : Merci à X. pour son écoute attentive, ses conseils avisés et sa patience.



Direct2AAM : un tutoriel à destination des chercheurs pour retrouver leurs postprints

25 novembre 2018 à 20:28

C'est parfois avec des idées simples qu'on fait progresser une grande cause. L'équipe qui œuvre au projet "Open Access Button" vient d'en donner une éclatante illustration, en annonçant le 21 novembre, la mise en ligne d'un tutoriel (en cours de finalisation) expliquant aux chercheurs comment récupérer leurs postprints en se loguant sur les plateformes d'outils d'édition : Editorial Manager, ScholarOne, eJournal Press, etc. Le tutoriel est dénommé Direct2AAM, AAM étant l'acronyme de "Author Accepted Manuscript".

https://docs.google.com/document/d/1E8nSWyMwCHyJgiKpwDS6dYK14Efm99Fa2LZ97TG0NXw/edit#heading=h.clbvz43nrm75

Un tutoriel pour faire avancer la cause de l'open access 


La Loi République Numérique, promulguée le 7 octobre 2016, consacre un droit d'exploitation secondaire des articles scientifiques au bénéfice de leurs auteurs. Ces derniers, moyennant le respect d'un certain nombre de conditions cumulatives (financement au moins pour moitié sur fonds publics, parution dans un périodique,  accord des co-auteurs...) sont en droit de mettre à disposition gratuitement, passé un délai de 6 mois (en sciences, techniques, médecine) ou de 12 mois (en sciences humaines et sociales) après la première date de publication, la dernière version de leur papier acceptée avant publication :

Art. L. 533-4.-I.-Lorsqu'un écrit scientifique issu d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales ou des établissements publics, par des subventions d'agences de financement nationales ou par des fonds de l'Union européenne est publié dans un périodique paraissant au moins une fois par an, son auteur dispose, même après avoir accordé des droits exclusifs à un éditeur, du droit de mettre à disposition gratuitement dans un format ouvert, par voie numérique, sous réserve de l'accord des éventuels coauteurs, la version finale de son manuscrit acceptée pour publication, dès lors que l'éditeur met lui-même celle-ci gratuitement à disposition par voie numérique ou, à défaut, à l'expiration d'un délai courant à compter de la date de la première publication. Ce délai est au maximum de six mois pour une publication dans le domaine des sciences, de la technique et de la médecine et de douze mois dans celui des sciences humaines et sociales.
« La version mise à disposition en application du premier alinéa ne peut faire l'objet d'une exploitation dans le cadre d'une activité d'édition à caractère commercial. (...)
Or, en pratique, les chercheurs sont souvent bien en peine de mettre la main sur la dernière version de leur papier acceptée avant publication, s'ils n'ont pas pris la précaution de l'archiver dans un espace de stockage personnel. Bien souvent, seul l'éditeur détient la version finale acceptée pour publication et sans les marques éditeur (logos, copyright, etc). C'est là qu'intervient le tutoriel Direct2AAM, pour aider les chercheurs à récupérer la dernière version auteur acceptée avant publication. L'idée est d'une grande simplicité : Direct2AAM explique aux chercheurs comment se connecter aux principaux outils d'édition (ScholarOne, Editorial Manager...), plateformes par lesquelles transite et s'opère le travail de peer-reviewing en amont de la publication. Or ces outils hébergent les "publications et  textes intermédiaires déposés par les auteurs, les évaluateurs et les editors" (Pierre-Carl Langlais a consacré aux outils d'édition la première partie d'un rapport paru en 2016).

 Retour d'expérience d'un chercheur


Le tutoriel permet-il de récupérer exactement la version finale du manuscrit acceptée pour publication, ou bien s'agit-il d'une version légèrement antérieure avant remaniement ultime par les reviewers ou l'éditeur?  Pour le savoir, encore faut-il mettre en pratique le tutoriel. Un chercheur (merci Jean-José !) s'est prêté spontanément à l'exercice. Voici son retour d'expérience :
"J'ai suivi la procédure indiquée et, pour certains de mes articles, j'ai pu récupérer le dernier PDF envoyé à l'éditeur (version acceptée).
Le problème, c'est que ce PDF subit parfois/souvent des modifications pendant la phase dite de PROOF.
Après mise en page de la version acceptée, l'éditeur envoie à l'auteur principal une version pour vérification que tout est OK.
Pendant cette phase de vérification, il arrive (assez souvent) que l'on détecte des bugs, qui sont corrigés par l'éditeur mais que les auteurs ne corrigent généralement pas de leur côté.
Du coup, la version acceptée et la version publiée ne sont pas toujours identiques (hors aspects mise en page).
A ce bémol près, la procédure proposée permet bien de récupérer le post-print, suivant la définition "version acceptée, intégrant les corrections demandées par les reviewers, sans mise en page de l'éditeur".
Il est probablement préférable de déposer ce post-print que de ne rien déposer du tout."
Donc, modulo quelques retouches mineures effectuées par l'éditeur à la toute fin du travail de relecture, au moment de la correction des épreuves, la version du manuscrit récupérée via les outils d'édition correspond bien au postprint que l'auteur, en vertu de l'article 30 de la Loi République Numérique, est en droit de mettre à libre disposition, passé le délai de 6 ou 12 mois après la date de première publication.

Le même chercheur est tombé sur un cas problématique : le PDF d'un article est non disponible et un message automatique de l'éditeur explique que le papier a été retiré en application des "règles de conservation des enregistrements "(record retention policies). Lesquelles ne permettent malheureusement pas d'expliquer les motifs de la suppression du PDF, qui semble, en l'état, pour le moins arbitraire.





Derrière les outils, les murs...


Le tutoriel Direct2AAM a cela aussi d'instructif, qu'il donne à tout un chacun une information claire sur l'identité des groupements économiques détenteurs des deux outils d'édition les plus répandus sur le marché : Elsevier détient depuis août dernier Editorial Manager, et Clarivate Analytics a racheté en 2016 ScholarOne (en même temps que le Web of Science). Ainsi le tutoriel met indirectement en lumière un processus de captation progressive des outils d'édition par les grands acteurs de l'édition scientifique.

La remarque procède d'un constat plus général : les grands éditeurs scientifiques, au premier rang desquels Elsevier, sont en train de bâtir "un écosystème captif qui embrasse tous les pans de l'édition scientifique" (pour reprendre une formule très juste de Pierre-Carl Langlais). Cette "plateformisation" de l'édition scientifique qui va du rachat des réseaux sociaux académiques (Mendeley) à celui d'archives ouvertes (SSRN), en passant par l'acquisition de Current Research Information Systems (PURE) ou de produits d'altmetrics (Elsevier a également fait l'acquisition de Plum Analytics), se fait à toute vitesse. Si rapidement à vrai dire, que l'infographie concernant Elsevier, disponible dans le cadre du projet "Innovations in Scholarly Communications", n'est tout simplement pas à jour ; le rachat d'Editorial Manager par Elsevier en août dernier n'y figure toujours pas :

https://101innovations.wordpress.com/workflows/


Comment ne pas s'inquiéter du caractère hautement problématique de cette omniprésence des poids lourds de l'édition scientifique à tous les stades du workflow de la publication et des services associés ? Non seulement, les chercheurs sont de plus en plus captifs, enfermés à l'intérieur d'un seul écosystème propriétaire, mais cette agrégation de plateformes laisse peu à peu "enfermés dehors" la myriade des petits éditeurs qui composent les franges de l'oligopole mondial constitué des "big 6" : Elsevier, Springer Nature, Wiley, WoltersKluwers, Clarivate Analytics et Informa.

Effet de bord de la captation des multiples pans de l'édition scientifique ou ironie suprême : quand l'Union Européenne cherche un prestataire technique pour la réalisation du projet « Open Science Monitor », elle se tourne vers... Elsevier.




PS: merci à Marlène Delhaye qui a diffusé cette info sur Twitter !

Plan national pour la science ouverte : beaucoup d'avancées et trois questions

13 juillet 2018 à 00:24
Mercredi 4 juillet, à l'occasion du congrès annuel de la Ligue des Bibliothèques Européennes de Recherche, Frédérique Vidal, Ministre de l'Enseignement Supérieur, de la Recherche et de l'Innovation, a présenté un Plan national pour la science ouverte.
Le plan comporte différentes mesures qui se déclinent en 3 axes :

Premier axe : généraliser l'accès ouvert aux publications

1. Rendre obligatoire la publication en accès ouvert des articles et livres issus de recherches financées par appel d’offres sur fonds publics.
2. Créer un fonds pour la science ouverte.
3. Soutenir l’archive ouverte nationale HAL et simplifier le dépôt par les chercheurs qui publient en accès ouvert sur d’autres plateformes dans le monde.

 Deuxième axe : structurer et ouvrir les données de la recherche

4. Rendre obligatoire la diffusion ouverte des données de recherche issues de programmes financés par appels à projets sur fonds publics.
5. Créer la fonction d’administrateur des données et le réseau associé au sein des établissements.
6. Créer les conditions et promouvoir l’adoption d’une politique de données ouvertes associées aux articles publiés par les chercheurs.

Troisième axe : s'inscrire dans une dynamique durable, européenne et internationale

7. Développer les compétences en matière de science ouverte notamment au sein des écoles doctorales.
8. Engager les opérateurs de la recherche à se doter d’une politique de science ouverte.
9. Contribuer activement à la structuration européenne au sein du European Open Science Cloud et par la participation à GO FAIR.

Ce plan ambitieux est une excellente nouvelle pour le rayonnement international de la production scientifique française. Il s'accompagne de différentes actions complémentaires. La liste est longue et elles mériteraient d'être toutes citées. Voici certaines des plus marquantes :

- "Reconnaître la science ouverte dans les évaluations des chercheurs et des établissements". Il s'agit non seulement de ne plus établir une hiérarchie des valeurs entre les publications sous pay wall et les publications en accès libre (comme le faisait jusqu'il y a peu la section 60 du CNU "Mécanique, génie mécanique, génie civil"), mais de valoriser les publications en accès libre. Comme le précise Frédérique Vidal dans son discours inaugural : "Pour relever les défis de la science ouverte, nous devons réformer en profondeur tout notre système pour que l’ouverture des publications et des données soit enfin reconnue comme une bonne pratique."

-  "Réduire l’emprise de l’évaluation quantitative au profit de l’évaluation qualitative." L'objectif fait ici écho aux nombreuses critiques adressées à l'encontre des mesures bibliométriques traditionnelles, telles que le facteur d'impact d'une revue ou le h-index conçu pour évaluer la carrière d'un chercheur. En 2013, la Déclaration de San Francisco sur l'évaluation de la Recherche en appelait déjà à une réforme des méthodes d'évaluation des revues, de façon à mettre un terme à l'erreur consistant à établir une corrélation entre le facteur d'impact d'une revue et la qualité des articles qui y sont publiés. Plus près de nous, le Manifeste de Leiden en 2015 et le colloque "Open Eval" en 2016 faisaient état de la  perte de confiance dans les processus classiques d’évaluation et de la nécessité de leur substituer une « évaluation ouverte ».

- "Encourager l’adoption des citations ouvertes (Initiative for Open Citations – I4OC) à la place de citations dans des environnements propriétaires." Encore peu connue en France, l'I4OC vise à promouvoir le développement des citations structurées et ouvertes, c'est-à-dire librement accessibles et réutilisables.

- "Explorer les nouveaux modèles économiques pour les revues comme pour les livres en accès ouvert." Il s'agit de préserver un objectif de "bibliodiversité", tel que défini dans l'Appel de Jussieu, qui plaide pour le "développement de modèles innovants de publication scientifique".

- "Construire autour de l’administrateur des données un réseau de correspondants dans les établissements, pour répondre aux questions que se posent les chercheurs sur les données de la recherche." La gestion des données de la recherche ne sera pas simplement pilotée de façon centralisée par administrateur général des données (Chief Data Officer) mais se déploiera de façon réticulaire par une série de relais au sein de chacun des établissements de l'enseignement supérieur.

- "Créer un label « science ouverte » pour les écoles doctorales" et "Développer les compétences sur les données de la recherche, notamment à travers des offres de formation en ligne à destination de la communauté scientifique." Le plan pour la science ouverte intègre donc clairement un volet dédié à la formation, qu'il s'agisse de celle des doctorants ou de celle des enseignants-chercheurs.

- "Adhérer au niveau national à ORCID, système d’identification unique des chercheurs qui permet de connaitre plus simplement et sûrement les contributions scientifiques d’un chercheur." Le système ORCID (Open Researcher and Contributor ID) est en effet le meilleur moyen d'identifier précisément les auteurs et de réduire les risques d'homonymie. Si ORCID est un jour largement adopté à un niveau international, on ne verra plus, comme en 2011, 3926 articles publiés sous le nom d'un seul auteur.

- "Ouvrir les données du financement de la recherche en constituant des jeux de données publiques concernant :
  • les dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires et par les organismes de recherche,
  • les dépenses relatives aux frais de publications d’articles et de livres
  • les financements de recherche sur appel à projets et leurs bénéficiaires."
La formulation du premier point laisse une question pendante. Quel est le degré de précision des informations ? S'agit-il simplement pour les bibliothèques universitaires et les organismes de recherche de rendre public le montant global des sommes dépensées en matière de  documentation électronique ? Ou bien s'agit-il de détailler, éditeur par éditeur, le montant des sommes qui sont facturées ?
Si l'on suppose que c'est la seconde interprétation qui est la bonne, force serait de constater que le fait d'enjoindre les présidents ou les directeurs des établissements de l'enseignement supérieur et de la recherche à communiquer le montant des dépenses d'acquisition en matière de documentation électronique est assez nouveau et mérite d'être souligné. Cela va à l'encontre des recommandations du consortium Couperin qui a toujours invité les négociateurs et les établissements à ne pas communiquer publiquement le montant des acquisitions, en application de "la réglementation française en vigueur au titre de l’atteinte aux intérêts financiers du titulaire et du secret des affaires". C'est ainsi que les Enquêtes annuelles sur les Ressources Électroniques" (ERE), remplies ressource par ressource par chaque établissement membre du consortium Couperin, ne sont pour l'instant pas en accès libre.
Cette culture du secret ne date pas d'hier. Déjà, en 2008, l'une des premières préconisations du rapport Salençon était de « rendre publiques les conditions de vente une fois les marchés publics conclus. » En 2011, l'Inspecteur Général des Bibliothèques Pierre Carbone constatait que "les clauses de confidentialité ont surtout pour effet de fragmenter les institutions d’enseignement supérieur et de recherche et de leur empêcher d’avoir une vision d’ensemble".
Mais cet état de fait va changer très vite. Car dès le 3 avril, donc avant même la diffusion du plan pour la science ouverte, le Ministère de l'Enseignement Supérieur, de la Recherche et de l'Innovation a pris l'engagement de diffuser ces données de manière transparente sur le site https://data.enseignementsup-recherche.gouv.fr/. Cette initiative correspond à l'une des actions de l'engagement 18 du programme français "Pour une action publique transparente et collaborative : Plan d'action national pour la France 2018-2020" :
Mettre en place un dispositif de monitoring transparent (public) des dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires. Diffusion des dépenses en open data sur le portail open data du MESRI (enquête ERE sur les ressources électroniques des bibliothèques et des établissements d’enseignement supérieur).
 Un questionnaire officiel adressé le 27 juin par Couperin à tous les présidents et directeurs des établissements de l'enseignement supérieur et de la recherche leur demande d'exprimer leur accord ou leur désaccord à la diffusion publique des données recueillies lors de l’enquête annuelle ERE. Sans réponse d'ici le 23 juillet, le MESRI considèrera par défaut les réponses comme affirmatives.
En dernier ressort, c'est le MESRI qui décidera du degré de précision des jeux de données : ce point n'est donc pas totalement tranché. Il se pourrait que les conditions de sa compatibilité avec certaines dispositions de la Loi pour une République numérique nécessitent d'être précisées, comme on le verra plus bas.

***

 On notera au passage que la CURIF (Coordination des universités de recherche intensive françaises), avait fait le 3 juillet, soit la veille de la publication du plan, 4 propositions pour la science ouverte, lesquelles s'inscrivent parfaitement dans les grandes lignes du plan :

1. S’investir pleinement dans la création d’un fonds pour le développement de la Science Ouverte
2. Changer nos pratiques internes d’évaluation des structures, des personnels et des appels à projets pour s’inscrire dans une démarche de Science Ouverte
3. Pérenniser et ouvrir l’accès aux données issues de la recherche
4. Assurer des formations sur la Science Ouverte à tous les niveaux

Ces propositions ont été rendues publiques avec l'accord et le soutien de Frédérique Vidal. Il semblerait donc que la CURIF soit la "tête de pont" de la mise en œuvre du plan national.

***

Au travers de cette présentation succincte du plan pour la science ouverte, quelques interrogations se font jour. Elles portent sur l'articulation de certaines mesures avec les dispositions de la Loi pour une République Numérique.

1 - Obligation de publier en accès ouvert les articles et livres issus de recherches financées par appel d’offres sur fonds publics :

Alors que l'article 30 de la Loi pour une République Numérique énonce que la mise "à disposition gratuitement dans un format ouvert, par voie numérique" d'un écrit scientifique dépend du libre choix de son auteur et de ses coauteurs éventuels, le plan pour la science ouverte rend la mise à disposition obligatoire.

Cependant, le champ d'application des deux dispositifs semble sensiblement différent. L'article 30 de la LRN concerne "un écrit scientifique issu d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales ou des établissements publics, par des subventions d'agences de financement nationales ou par des fonds de l'Union européenne". Tandis que la formulation moins précise de la mesure 1 du plan national ne permet pas de savoir si elle s'applique seulement aux écrits scientifiques financés à 100 % sur fonds publics, ou si le seuil des 50% est suffisant. Si c'est la première branche de l'alternative qui est la bonne, l'obligation de dépôt s'appliquerait donc potentiellement à un nombre plus restreint d'écrits scientifiques.

2 - La question des licences ouvertes :

Les rédacteurs du plan indiquent que "la France recommandera l’adoption de licences ouvertes pour les publications et les données, à la fois compatibles avec la loi française et avec les pratiques scientifiques internationales."

Concernant, les données de la recherche, on note ici une zone de conflit potentiel avec les dispositions de la LRN. L'article 30 énonce que les données de la recherche sont librement réutilisables :
Dès lors que les données issues d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales, des établissements publics, des subventions d'agences de financement nationales ou par des fonds de l'Union européenne ne sont pas protégées par un droit spécifique ou une réglementation particulière et qu'elles ont été rendues publiques par le chercheur, l'établissement ou l'organisme de recherche, leur réutilisation est libre.
Par conséquent, l'apposition d'une licence, aussi ouverte soit-elle (CC0 par exemple), aux données de la recherche serait non seulement inutile, mais contraire à la lettre de la loi.

3 - La publication des dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires et par les organismes de recherche

Le gouvernement semble déterminé à publier de manière transparente sur le site https://data.enseignementsup-recherche.gouv.fr/, les dépenses des établissements de l'ESR, ressources par ressources (ce qui est de notre point de vue une excellente décision). Il n'en reste pas moins que les conditions de compatibilité de cette action vis-à-vis du texte de la Loi pour une République Numérique mériteraient d'être clarifiées. L’article 6 de la LRN prévoit des exceptions au principe général d'open data, listées aux articles 311-5 et 311-6 du code des relations entre le public et l’administration. Ce second article pointe notamment le cas de l’atteinte au secret commercial :

« Ne sont communicables qu’à l’intéressé les documents administratifs :
1° Dont la communication porterait atteinte à la protection de la vie privée, au secret médical et au secret en matière commerciale et industrielle, lequel comprend le secret des procédés, des informations économiques et financières et des stratégies commerciales ou industrielles et est apprécié en tenant compte, le cas échéant, du fait que la mission de service public de l’administration mentionnée au premier alinéa de l’article L. 300-2 est soumise à la concurrence; »

***

Bien que des questionnements sur la portée exacte du Plan national pour la science ouverte et sur sa compatibilité avec les textes  en vigueur émergent ici ou là, il n'en reste pas moins que le Plan marque une étape importante dans la diffusion et le partage de la science à un niveau national et international.
Il faudra cependant rester vigilant notamment vis-à-vis de la négociation nationale qui se profile autour de RELX-Elsevier. Il ne faudrait pas que, sous couvert de promotion de la science ouverte, le gouvernement finisse par reconduire à l'identique un accord de licence nationale, dont les conditions de négociation s'étaient avérées assez désastreuses par le passé.




"Mother!" ou la fin de la vie privée

22 octobre 2017 à 12:12
Jérome Garcin, animateur-producteur bien connu de l'émission radiophonique "Le Masque et la Plume", m'a fait récemment l'amitié de citer en début d'émission le courrier que j'avais adressé à l'équipe du Masque pour faire part de ma lecture très différente et beaucoup moins hostile du dernier film de Darren Aronofsky, "Mother!". Cependant, mon propos a été tellement raccourci, qu'il ne restait rien de sa substantifique moelle. Coupé, mon propos en est devenu obscur. C'est pourquoi je republie ici mon courrier dans son intégralité. 




"Cher Masque,

Que de sévérité pour le dernier opus de Darren Aronofsky : "une des plus grosses merdes de l'année"  selon Xavier Leherpeur, "un film épouvantable" selon Sophie Avon, qui ajoute, dans un aveu de lucidité qui l'honore : "on n'y comprend rien"...

Et pourtant,le film est bien loin d'être inintelligible. Darren Aronofsky explore une situation extrême où un écrivain reconnu pousse l'autofiction jusqu'à partager avec ses lecteurs, non pas seulement par le pouvoir du verbe, mais réellement, les moments les plus intimes de sa vie. Comme chez Kafka ou Michaux, l'intimité du dedans est retournée comme un gant pour être piétinée par l'espace du dehors.

Qui plus est, le film est ancré dans la réalité la plus contemporaine. Car, bien que ne mobilisant jamais le moindre écran d'ordinateur ou de tablette, le film est une métaphore sur la grande dissolution de la notion même de vie privée, à l'oeuvre à l'échelle planétaire, dans une époque folle où les internautes partagent leurs moindres faits et gestes, leurs moindres états d'âme, les moindres événements de leur vie quotidienne sur les réseaux sociaux (Facebook en particulier). Comme le disait en 2013 Vint Cerf, l'un des pères fondateurs du Web et actuellement "chef évangéliste (sic.) de l'Internet" chez Google : « La vie privée peut être considérée comme une anomalie (...) il sera de plus en plus difficile pour nous de garantir le respect de la vie privée ».

 Quand on partage sa vie privée avec un nombre potentiellement infini d'internautes, c'est finalement le monde entier qui est susceptible de débarquer un jour ou l'autre dans son jardin ou sa maison. D'où le caractère "monumental" du film, souligné par Sophie Avon.

"Mother!", un chef d'oeuvre ? Je ne sais pas. Mais assurément une belle mise en abyme de notre "modernité".

Pour toutes ces raisons, j'invite Eric Neuhoff à aller voir le film en salle, en dépit de l'avis contraire de ses confrères (que j'apprécie grandement par ailleurs)."

Post Scriptum. La scène de cannibalisme eucharistique constitue le point ultime du retour du réel sur la folie du partage indéfini de soi sur les réseaux sociaux. "Ceci est mon corps" devient "Ceci est notre corps". "Ceci est mon sang" devient "Ceci est notre sang". 

RIP ReLIRE... et la taxe Google Images

17 novembre 2016 à 14:07
La Cour de Justice de l'Union Européenne a rendu sa décision mercredi 16 novembre dans l'affaire ReLIRE. La CJUE suit globalement les conclusions de l'Avocat Général Melchior Wathelet dont j'avais parlé dans un précédent billet. La question préjudicielle posée par le Conseil d'Etat était la suivante :

« Les [articles 2 et 5] de la directive 2001/29 s’opposent-[ils] à ce qu’une réglementation, telle que celle qui a été [instituée par les articles L. 134-1 à L. 134-9 du code de la propriété intellectuelle], confie à des sociétés de perception et de répartition des droits agréées l’exercice du droit d’autoriser la reproduction et la représentation sous une forme numérique de “livres indisponibles”, tout en permettant aux auteurs ou ayants droit de ces livres de s’opposer ou de mettre fin à cet exercice, dans les conditions qu’elle définit ? »

La CJUE répond trois fois "oui".



Une réglementation triplement incompatible avec le droit communautaire


1° La liste des exceptions et des limitations au droit d'auteur de l'article 5 "revêt un caractère exhaustif"

Une législation nationale ne saurait donc créer de toutes pièces une nouvelle exception.

2° La loi française ne garantit pas "l'information effective et individualisée des auteurs"

Or " tout auteur doit être effectivement informé de la future utilisation de son œuvre par un tiers et des moyens mis à sa disposition en vue de l’interdire s’il le souhaite."

3° Les modalités de retrait du dispositif ReLIRE sont doublement incompatibles avec le régime de la directive européenne


1° Atteinte au droit exclusif des auteurs

Rappelons que parmi les trois types de démarches possibles pour les auteurs qui souhaitent la sortie de leurs ouvrages de la gestion collective au-delà des 6 mois suivant la publication du registre ReLIRE, figure l'hypothèse du retrait conjoint de l'auteur et de l'éditeur. Or dit la Cour, "ce droit doit pouvoir être exercé sans devoir dépendre, dans certains cas, de la volonté concordante de personnes autres que celles que cet auteur a préalablement autorisées à procéder à une telle exploitation numérique, et donc de l’accord de l’éditeur ne détenant, par ailleurs, que les droits d’exploitation de ladite œuvre sous une forme imprimée."

On notera au passage le coup de boutoir porté par la Cour aux fondements mêmes de la loi française. Car incidemment, la Cour estime invalide le mécanisme sous-jacent à la loi, qui permet aux éditeurs de récupérer leurs droits sur l'exploitation numérique des livres, quand bien même l’œuvre imprimée était techniquement "épuisée" depuis plusieurs années.

2° le formalisme est une atteinte à la jouissance et à l'exercice des droits d'auteur

Comme l'avait relevé dès 2013 le collectif Le droit du Serf en déposant auprès du Conseil d'Etat un recours pour excès de pouvoir, les formalités imposées par la législation française, sont en contradiction avec les principes énoncés par la Convention de Berne et le Traité de l'OMPI. Parmi les trois types de retraits visant à la sortie de la gestion collective au-delà des 6 mois suivant la publication du registre ReLIRE, la loi du 1er mars 2012 prévoit le cas du retrait de l’auteur en tant que seul titulaire des droits numériques: "l'auteur d'un livre indisponible peut décider à tout moment de retirer à la société de perception et de répartition des droits mentionnée au même article L. 134-3 le droit d'autoriser la reproduction et la représentation du livre sous une forme numérique s'il apporte la preuve qu'il est le seul titulaire des droits définis audit article L. 134-3". Le décret d'application du 27 février 2013 précise que l'auteur "produit à l'appui de sa demande de retrait tout élément probant". C'est précisément cette inversion de la charge de la preuve de la titularité des droits, qui s'accompagne inévitablement d'un formalisme, qui est sanctionnée par la Cour :

Il en découle, notamment, que, dans le cadre d’une réglementation telle que celle en cause au principal, l’auteur d’une œuvre doit pouvoir mettre fin à l’exercice, par un tiers, des droits d’exploitation sous forme numérique qu’il détient sur cette œuvre, et lui en interdire ce faisant toute utilisation future sous une telle forme, sans devoir se soumettre au préalable, dans certaines hypothèses, à une formalité consistant à prouver que d’autres personnes ne sont pas, par ailleurs, titulaires d’autres droits sur ladite œuvre, tels que ceux portant sur son exploitation sous forme imprimée.

Par conséquent, les termes de de la directive "Infosoc" de 2001 s'opposent à ce que la loi du 1er mars 2012 relative à l'exploitation numérique des livres indisponibles du XXe siècle instaure un mécanisme de nature à confier à une société de perception et de répartition des droits (la SOFIA en l'occurrence) "l’exercice du droit d’autoriser la reproduction et la communication au public, sous une forme numérique, de livres dits « indisponibles »".

La "taxe Google Images" bientôt dans le viseur de la CJUE ?


Comme l'a relevé immédiatement Calimaq, il existe une autre loi dont une disposition spécifique présente un grand nombre de traits communs avec la loi sur les indisponibles. La toute récente loi du 7 juillet 2016 relative à la liberté de la création, à l'architecture et au patrimoine prévoit en effet un mécanisme similaire de mise en gestion collective des images diffusées en ligne, sans l'accord préalable des auteurs :

Art. L. 136-2.-I.-La publication d'une œuvre d'art plastique, graphique ou photographique à partir d'un service de communication au public en ligne emporte la mise en gestion, au profit d'une ou plusieurs sociétés régies par le titre II du livre III de la présente partie et agréées à cet effet par le ministre chargé de la culture, du droit de reproduire et de représenter cette œuvre dans le cadre de services automatisés de référencement d'images. A défaut de désignation par l'auteur ou par son ayant droit à la date de publication de l'œuvre, une des sociétés agréées est réputée gestionnaire de ce droit.
« II.-Les sociétés agréées sont seules habilitées à conclure toute convention avec les exploitants de services automatisés de référencement d'images aux fins d'autoriser la reproduction et la représentation des œuvres d'art plastiques, graphiques ou photographiques dans le cadre de ces services et de percevoir les rémunérations correspondantes fixées selon les modalités prévues à l'article L. 136-4. Les conventions conclues avec ces exploitants prévoient les modalités selon lesquelles ils s'acquittent de leurs obligations de fournir aux sociétés agréées le relevé des exploitations des œuvres et toutes informations nécessaires à la répartition des sommes perçues aux auteurs ou à leurs ayants droit.
Il s'agit d'une véritable "mainmise légale" (Marc Rees), de nature à générer ce qu'il convient d'appeler purement et simplement une "pompe à fric" au profit des sociétés désignées pour la perception et la répartition des droits, étant donné qu'une très grande partie des sommes collectées resteront, du fait de l'impossibilité de l'identification de leurs auteurs, tout bonnement irrépartissables.

Mais au vu du récent arrêt de la Cour de Justice de l'Union, Européenne, il n'y a aucun doute possible sur l'incompatibilité de la "taxe Google Images" avec le droit communautaire.










La loi sur les indisponibles bientôt déclarée incompatible avec le droit communautaire ?

29 septembre 2016 à 16:55
La Commission européenne a rendu publique le 14 septembre sa proposition de modernisation du droit d'auteur. Le chapitre 1 du Titre III ("Mesures visant à améliorer les pratiques de licences et assurer un plus large accès au contenu") porte sur l'exploitation des œuvres commercialement indisponibles (out of commerce works). Or le texte comporte un certain nombre de dispositions qui posent la question de la compatibilité de la loi française du 1er mars 2012 relative à l'exploitation numérique des livres indisponibles du XXe siècle au regard de la nouvelle réglementation en préparation.



Le texte de la commission paraît quelques semaines seulement après que Melchior Wathelet, Avocat Général auprès de la Cour de Justice de l'Union Européenne, a rendu dans le cadre d'une question préjudicielle posée par le Conseil d’État, des conclusions cinglantes: la directive sur le droit d'auteur de 2001 s'opposerait à la mise en gestion collective des livres indisponibles, et les possibilités de retrait de la gestion collective ménagées pour les auteurs n'y changeraient rien. 

Mais avant, rappelons brièvement le mécanisme de la loi sur les indisponibles.

La loi sur les indisponibles et le registre ReLIRE


La loi française entend par livre indisponible "un livre publié en France avant le 1er janvier 2001 qui ne fait plus l'objet d'une diffusion commerciale par un éditeur et qui ne fait pas actuellement l'objet d'une publication sous une forme imprimée ou numérique".

Le 21 mars de chaque année, est publiée par la Bibliothèque nationale de France sur le registre ReLIRE (Registre des Livres Indisponibles en Réédition Électronique) une liste de livres indisponibles "arrêtée par un comité scientifique placé auprès du président de la Bibliothèque nationale de France et composé, en majorité et à parité, de représentants des auteurs et des éditeurs" (décret d'application du 27 février 2013). Les auteurs et ayants-droit disposent d'un délai de 6 mois pour signifier leur refus de l'entrée en gestion collective des ouvrages qui les concernent.

Le 21 septembre, soit 6 mois plus tard, les livres entrent en gestion collective. Le droit d'autoriser la reproduction et la représentation sous une forme numérique est exercé par une société de perception et de répartition des droits, agréée par le ministre chargé de la culture. En l'occurrence, c'est la SOFIA (Société Française des Intérêts des Auteurs de l’écrit) qui bénéficie de l'agrément. La règle de répartition imposée par le législateur est la suivante : "Le montant des sommes perçues par le ou les auteurs du livre ne peut être inférieur au montant des sommes perçues par l'éditeur."

Il existe néanmoins trois types de possibilités de retrait pour les auteurs, passés les 6 mois après la publication du registre ReLIRE : le retrait conjoint de l'auteur et de l'éditeur, le retrait de l'auteur seul titulaire des droits numériques (opposition dont il est peu probable qu'elle soit mise en œuvre, parce que la charge de la preuve est à la charge de l'auteur seul) et le retrait de l'auteur pour risque d'atteinte à son honneur ou à sa réputation. En pratique, ce dernier retrait est le plus facile à obtenir, car  l'auteur peut invoquer une atteinte à son honneur ou à sa réputation "sans justifier des raisons de sa démarche".


A compter du 21 septembre, l'éditeur, contacté par la SOFIA, a deux mois pour répondre favorablement à la proposition qui lui est faite d'exploiter le ou les ouvrages sous forme numérique, à titre exclusif, pour une durée de 10 ans renouvelable. Si l'éditeur refuse ou ne répond pas, la SOFIA octroie une autorisation d'exploitation numérique à titre non exclusif d'une durée de 5 ans renouvelable, à tout opérateur qui en fait la demande.

En cas d'acceptation de l'éditeur, la société commerciale FeniXX, (Fichier des Éditions Numériques des Indisponibles du XXe siècle) entre en jeu. Créée en juillet 2014 par le Cercle de la Librairie, et désignée par le Syndicat national de l’édition pour être l’opérateur technique et commercial du projet de numérisation-diffusion-distribution des livres indisponibles, FeniXX "a pour mission d'accompagner les éditeurs ayant souscrit une Licence d'exploitation exclusive auprès de la Sofia, en prenant en charge gratuitement la numérisation et la commercialisation des livres indisponibles de leur catalogue passés en gestion collective".


Les conclusions de l'Avocat Général de la CJUE


La question préjudicielle posée par le Conseil d’État à la Cour de Justice de l'Union Européenne était la suivante :

« Les [articles 2 et 5] de la directive 2001/29 s’opposent-[ils] à ce qu’une réglementation, telle que celle qui a été [instituée par les articles L. 134-1 à L. 134-9 du code de la propriété intellectuelle], confie à des sociétés de perception et de répartition des droits agréées l’exercice du droit d’autoriser la reproduction et la représentation sous une forme numérique de “livres indisponibles”, tout en permettant aux auteurs ou aux ayants droit de ces livres de s’opposer ou de mettre fin à cet exercice, dans les conditions qu’elle définit ? »

Pour l'Avocat Général Melchior Wathelet, il est clair que la numérisation-diffusion-distribution des livres indisponibles fait fi de la nécessité de recueillir le consentement exprès et préalable de l'auteur tel que consacré par les articles 2 a et 3§1 de la directive de 2001 sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information. La possibilité d'opt-out prévue dans le dispositif de la loi sur les indisponibles "ne change rien à ce constat" : les auteurs sont bel et bien privés de leur droit exclusif d'autoriser ou d'interdire la reproduction directe ou indirecte, provisoire ou permanente, de leurs œuvres. Le fait que les auteurs reçoivent une rémunération ou une compensation "ne change rien à la circonstance que [leurs] droits exclusifs auront été méconnus".

Par ailleurs, l'article 5 de la directive de 2001, qui énumère une série d'exceptions aux droits exclusifs des auteurs, ne saurait être invoqué en l'espèce. La loi sur les indisponibles "ne figure pas parmi les exceptions et les limitations énumérées de façon détaillée et exhaustive à l'article 5 de la directive 2001/29".

Enfin, pour l'Avocat Général, il est anormal que les conditions d'application de la directive 2012/28 relative à certaines utilisations autorisées des œuvres orphelines [1] soient plus sévères que celles de la loi sur les indisponibles. D'une part, "contrairement à la directive 2012/28 qui exige une recherche diligente et menée de bonne foi des titulaires de droits avant l’exploitation de l’œuvre, aucune démarche individuelle auprès de l’auteur n’est imposée par la réglementation nationale en cause." D'autre part, "alors que l’article 6, paragraphe 2, de la directive 2012/28 exclut expressément toute exploitation à des fins commerciales de l’œuvre orpheline, la réglementation nationale en cause au principal vise l’exploitation commerciale des livres dits «indisponibles»."

Mais un peu plus d'un mois plus tard, patatras ! La proposition de directive réfute les principales conclusions de l'Avocat Général.


La proposition de directive visant à la modernisation du droit d'auteur


La proposition de directive rendue publique le 14 septembre 2016, crée une nouvelle exception relative à l'exploitation des œuvres tombées hors commerce (out-of-commerce works).

La commission européenne définit ainsi les œuvres indisponibles: "une œuvre ou tout autre objet protégé sont réputés être hors commerce lorsque l'œuvre entière ou tout autre objet protégé, dans toutes leurs traductions, versions et manifestations, ne sont pas disponibles au public par les voies habituelles de commerce et lorsqu'on peut raisonnablement estimer qu'ils ne sont pas susceptibles de le devenir". Le texte ne porte pas simplement sur les livres indisponibles, mais plus globalement sur tous types d’œuvres, comme le précise le considérant 25 : "différents types d’œuvres et d'objets protégés, tels que les photographies, les enregistrements sonores et les œuvres audiovisuelles".

Par bien des aspects, le texte de la commission, s'il était adopté en l'état (mais le processus d'élaboration et d'adoption des directives est lent et tumultueux...) annihilerait la portée d'une bonne partie des conclusions de l'Avocat Général :

  • Le texte crée une nouvelle exception au droit d'auteur fondée sur la mise en œuvre d'un système d'opt-out (voir l'excellent billet paru sur le site ActuaLitté). 
  • Le formalisme conduisant à l'attribution du statut d’œuvre hors commerce est très léger. Les États membres sont libres de définir les formalités et conditions minimales. Il suffit qu'elles n'aillent pas au-delà de ce qui est nécessaire et raisonnable (the requirements used to determine whether works and other subject-matter can be licensed (...) do not extend beyond what is necessary and reasonable). Pour un corpus, une simple présomption "raisonnable" suffit (the requirements (...) do not preclude the possibility to determine the out-of-commerce status of a collection as a whole, when it is reasonable to presume that all works or other subject-matter in the collection are out of commerce). 
Pour ces raisons, le texte de la commission annule très largement les conclusions de l'Avocat Général. Mais les choses ne s'arrêtent évidemment pas là. Car la philosophie du texte en préparation est bien différente de celle de la loi française.

1) Les établissements culturels au centre de la numérisation-diffusion


En France, comme on l'a vu, c'est FeniXX, qui assure la numérisation-diffusion-distribution des livres indisponibles. FeniXX est une filiale du Cercle de la Librairie, syndicat interprofessionnel regroupant les différentes professions du livre. C'est donc un acteur privé issu du monde du livre qui pilote l'essentiel de la numérisation et de la commercialisation. La Bibliothèque nationale de France est reléguée au simple rôle d'opérateur en charge de la mise à jour de la base ReLIRE.

Le texte de la commission met davantage au centre du dispositif les établissements culturels à visée patrimoniale (‘cultural heritage institutions’). L'article 2 précise que sont concernés les bibliothèques accessibles au public ou les musées et les archives ou les institutions en charge de la conservation du patrimoine audio ou cinématographique. Ces établissements doivent disposer "de façon permanente" d’œuvres indisponibles au sein de leurs collections. Le considérant 22 commence ainsi : 
Les institutions culturelles à visée patrimoniale devraient bénéficier d'un cadre clair pour la numérisation et la diffusion, y compris à travers les frontières, des œuvres commercialement indisponibles ou de tout autre objet protégé.
La formulation met clairement l'accent sur les institutions culturelles, en tant que maîtres d'ouvrage de la numérisation et de la diffusion des œuvres commercialement indisponibles. Le revers de la médaille étant bien sûr qu'il leur reviendra d'assumer non seulement la charge de la numérisation, mais aussi du coût des licences, comme on le verra un peu plus bas.

2) Délai d'opt-out : 6 mois d'un côté, "at any time" de l'autre


Le texte de la commission, conformément au cadre juridique fixé par la directive de 2012 sur les œuvres dites orphelines, prévoit à l'article 7.1.c un droit de retrait pour les auteurs dont l'exercice n'est pas limité dans le temps:
Tous les titulaires de droits peuvent à tout moment s'opposer à ce que leurs œuvres ou tout autre objet protégé soient considérés comme hors commerce et exclure l'application de la licence à leurs œuvres ou à tout autre objet protégé.
La loi française sur les indisponibles prévoit de son côté un délai d'opposition limité à 6 mois entre la publication annuelle du registre ReLIRE et la mise en gestion collective des livres. 

En pratique, la différence n'est pas si nette. Car, comme on l'a vu, passé le délai de 6 mois, il est toujours possible pour les auteurs d'invoquer une atteinte à l'honneur ou à la réputation à l'appui de leur demande de retrait de la mise en gestion collective du ou des ouvrages concernés.

Quoi qu'il en soit, quand bien même le texte de la commission paraît davantage respectueux du droit des auteurs, on ne peut s'empêcher de relever les difficultés de mise en œuvre qui ne manqueront pas de se présenter. Non seulement, la possibilité laissée aux auteurs de faire opposition à tout moment crée une grande incertitude juridique de nature à dissuader les institutions culturelles de se lancer dans de grandes opérations de numérisation de masse. Mais aussi, une fois que les fichiers numériques auront été disséminés sur le web, le retour en arrière, c'est-à-dire la mise en œuvre d'une sorte de "droit à l'oubli" pour les œuvres indisponibles redevenues subitement disponibles par suite de la numérisation-diffusion, paraît pour le moins compliquée.

3) Exclusivité en faveur des éditeurs "historiques" d'un côté, licences non-exclusives de l'autre

La proposition de directive prévoit explicitement des licences "non-exclusives" (article 7).

A l'inverse, la loi sur les indisponibles confie à une société de gestion collective le soin de délivrer des licences exclusives d’exploitation des livres indisponibles au bénéfice et au profit des éditeurs initiaux, d'une durée de 10 ans renouvelable... Sauf si, comme on l' a vu, l'éditeur a exprimé son refus ou n'a pas répondu au bout de 2 mois après la proposition qui lui a été faite par la SOFIA; auquel cas, une autorisation d'exploitation numérique est octroyée à titre non exclusif d'une durée de 5 ans renouvelable, à tout opérateur qui en fait la demande.

4) Exploitation à but lucratif/non lucratif


La proposition de directive n'exclut pas la perception de recettes. Le considérant 27 précise :
"Comme les projets de numérisation de masse peuvent entraîner des investissements importants par les institutions du patrimoine culturel, toutes les licences accordées dans le cadre des mécanismes prévus dans la présente directive ne devraient pas les empêcher de générer des revenus raisonnables afin de couvrir les coûts de la licence et les coûts de la numérisation et de la diffusion des œuvres et de tout autre objet protégé couverts par la licence."
Si recettes il y a, elles devraient être perçues dans le but de recouvrir les frais induits par la nouvelle mise en circulation des œuvres. Si l'on compare cette formulation à celle retenue dans la directive sur les œuvres orphelines de 2012 ( "Les organisations peuvent percevoir des recettes dans le cadre de ces utilisations, dans le but exclusif de couvrir leurs frais liés à la numérisation et à la mise à disposition du public d'œuvres orphelines"), on s'aperçoit que non seulement la nouvelle formulation est moins restrictive, mais que les recettes générées ne recouvrent pas exactement les mêmes choses dans l'un et l'autre texte. La directive de 2012 prévoit que les recettes engendrées sont destinées à recouvrer les frais de numérisation et de diffusion des œuvres [2]. La proposition de directive y rajoute les coûts de la licence, ce qui n'est pas illogique, car contrairement au cas des œuvres orphelines, les auteurs des œuvres indisponibles peuvent dans la plupart des cas être identifiés ou localisés.

Le recouvrement du coût des licences mises en place par les sociétés de perception et de répartition des droits signifie que la rémunération des droits d'auteur se répercuterait sur le prix public. Il n'est pas sûr en définitive que ledit prix serait inférieur au prix des livres indisponibles recommercialisés via la société FeniXX.

Il ressort néanmoins de ces observations que la philosophie du texte de la commission est orientée vers une exploitation non lucrative des œuvres commercialement indisponibles. Entendons-nous: cela ne signifie pas que les établissements culturels ne pourront pas commercialiser le produit de la numérisation. Mais les recettes engendrées ne devraient pas excéder le montant des frais afférents au coût des licences, à,la numérisation et à la diffusion. Il s'agirait d'une commercialisation sans but lucratif, en quelque sorte...

Pour bien comprendre en quoi la loi sur les indisponibles est une loi conçue pour permettre aux éditeurs initiaux de poursuivre une exploitation commerciale et lucrative des livres sous forme numérique, il faut se souvenir qu'avant 2012, le concept juridique de "livre indisponible" n'existait pas dans le Code de la Propriété Intellectuelle. Il existait bien le concept d' "œuvre épuisée" ou d' "édition épuisée", mais il s'agissait de cas de figure où l'auteur reprenait ses droits exclusifs, suite au constat qui était fait du défaut d'exploitation suivie de l’œuvre par l'éditeur. La notion de 'livre indisponible" permet au contraire aux éditeurs de récupérer leurs droits sur l'exploitation numérique des livres, quand bien même l’œuvre imprimée était techniquement "épuisée" depuis plusieurs années. En outre, la société FeniXX a pour mission de prendre en charge "gratuitement la numérisation et la commercialisation des livres indisponibles de leur catalogue passés en gestion collective". A certains égards, la loi sur les indisponibles est donc une loi faite par les éditeurs pour les éditeurs.


***

Le texte de la commission est loin d'être adopté, mais en l'état, il semble que la loi française soit incompatible avec le futur droit communautaire principalement au vu des deux dernières considérations : non seulement les licences d'exploitation signées entre la SOFIA et les éditeurs comportent une clause d'exclusivité dans la majeure partie des cas ; mais la loi française a été conçue dans le but de permettre une exploitation à but lucratif, à rebours du texte européen en préparation.





[1] Rappelons que les œuvres orphelines sont définies par la directive de 2012 comme suit : "Une œuvre ou un phonogramme sont considérés comme des œuvres orphelines si aucun des titulaires de droits sur cette œuvre ou ce phonogramme n'a été identifié ou, même si l'un ou plusieurs d'entre eux a été identifié, aucun d'entre eux n'a pu être localisé bien qu'une recherche diligente des titulaires de droits ait été effectuée et enregistrée conformément à l'article 3."
Le législateur a transposé la directive en 2015 : "L'œuvre orpheline est une œuvre protégée et divulguée, dont le titulaire des droits ne peut pas être identifié ou retrouvé, malgré des recherches diligentes, avérées et sérieuses. Lorsqu'une œuvre a plus d'un titulaire de droits et que l'un de ces titulaires a été identifié et retrouvé, elle n'est pas considérée comme orpheline. (art. L. 113-10).
La masse des œuvres commercialement indisponibles englobe nécessairement une bonne partie d’œuvres orphelines.


[2] La loi française de 2015 qui transpose la directive de 2012 sur la réutilisation des œuvres orphelines va plus loin encore, puisqu'elle limite à sept ans la durée de perception des recettes.







Loi numérique : une exception de TDM (presque) "à l'Anglaise" ?

2 juillet 2016 à 16:45
Réunis en commission mixte paritaire le mercredi 29 juin, les parlementaires ont rendu leurs arbitrages sur les points de désaccord entre les deux chambres. Le texte sera soumis à un vote ultime le 20 juillet pour l'Assemblée Nationale, et à la mi-septembre pour le Sénat. Il faut rester prudent car le gouvernement a toujours la possibilité d'ajouter des amendements, mais a priori, "ceux-ci seront purement rédactionnels ou de coordination". Le texte issu de la CMP peut donc être considéré comme le texte quasi final.

En matière de recherche et de diffusion des savoirs, deux articles retiennent notre attention :

Article 17 : un droit d'exploitation secondaire "à l'Allemande"


J'en ai déjà abondamment parlé sur ce blog. L'article 17 consacre au profit des chercheurs, un droit d'exploitation secondaire de leurs écrits scientifiques, sur le modèle de la loi allemande votée en 2013. C'est la version de la "chambre haute" qui l'a emporté. Mais à vrai dire, les modifications apportées par les sénateurs au texte des députés étaient relativement limitées. Qu'on en juge par cette comparaison :


Exit, donc, la possibilité pour le ministre en charge de la recherche de prévoir des délais inférieurs applicables à certaines disciplines. Il est vrai qu'un traitement différencié selon les disciplines aurait probablement généré en pratique beaucoup de confusion et d'hésitations, car il est fréquent que les travaux de recherche portent sur des domaines interdisciplinaires.

C'est d'ailleurs la grande faille de cet article (la remarque vaut aussi pour la loi allemande) : quid des publications à cheval entre sciences "dures" et sciences humaines et sociales ? Quid par exemple, des délais de mise à disposition gratuite pour un chercheur en informatique travaillant dans le domaine des sciences de l'information ?

Autre modification dans la version du sénat qui prévaut désormais : le délai dont dispose l'auteur d'une publication scientifique "pour [la] mettre à disposition gratuitement dans un format ouvert, par voie numérique" est fixée par un "maximum", précision utile sans laquelle le texte aurait pu être interprété comme invalidant les contrats d'édition aménageant des délais de mise à disposition inférieurs à 6 et 12 mois.

Autre point positif, moyennant certaines réserves déjà évoquées: les données de la recherche sont "librement réutilisables", le texte des sénateurs n'ayant pas modifié celui des députés sur ce point.



Article 18 bis : une exception de TDM (presque) "à l'Anglaise"?


Sur la question du Text and Data Mining, c'est cette fois-ci la position des députés qui l'a emporté, et c'est une bonne nouvelle, tant il est vrai que le texte du Sénat limitait beaucoup trop strictement et absurdement son champ d'application: n'étaient couvertes par une exception que les extractions à partir de corpus faisant l'objet d'abonnements institutionnels, tandis que les contenus en libre accès sur le web restaient hors de portée.

Est désormais consacrée une exception au droit d'auteur au profit des chercheurs, inspirée de la loi britannique de 2014, comme l'expliquait le député Luc Bélot lors de la conférence de presse. Sera ajouté dans le Code de la Propriété intellectuelle un alinéa précisant que l'auteur d'une oeuvre divulguée ne peut interdire "Les copies ou reproductions numériques réalisées à partir d'une source licite, en vue de l'exploration de textes et de données incluses ou associées aux écrits scientifiques pour les besoins de la recherche publique, à l'exclusion de toute finalité commerciale."

On remarquera l'ajout, par rapport au texte voté par les députés en janvier, de la mention "incluses ou associées aux écrits scientifiques" :


Et là, on peut s'interroger sur le sens global de l'article après cet ajout. Cela pourrait signifier que d'un côté, la fouille de textes peut s'appliquer à n'importe quel corpus pris sur le web, quelle que soit sa thématique, mais que, de l'autre, la fouille de données ne s'appliquerait qu'aux données de la recherche, à condition qu'elles soient incluses ou associées à un écrit scientifique.

Cette interprétation, si elle est confirmée, génère plusieurs remarques ou interrogations :

1) La nouvelle mouture de l'article 18 bis ne retombe pas dans le travers de l'article voté par les sénateurs, dans la mesure où le champ de l'exception ne se limite plus aux corpus accessibles via des "contrats conclus par un éditeur avec un organisme de recherche ou une bibliothèque".

2) Pour autant, la fouille de données ne pourrait pas porter sur n'importe quel type de données brutes: il faut que ces données soient préalablement "incluses ou associées" à un écrit scientifique. Un chercheur qui copierait des milliers de pages d'un réseau social afin d'en extraire des données ne pourrait invoquer l'exception de TDM. C'est la solution contractuelle qui continuera à s'appliquer : notre chercheur devra négocier avec le producteur de la base de données le droit de procéder à une extraction de données... Ou se contenter de l'API fournie par le producteur quand elle est proposée. Poussons le raisonnement jusqu'à l'absurde : si ce même chercheur décide de réutiliser des données relatives à un réseau social et mises à disposition par un homologue étranger par le biais d'un écrit scientifique, notre chercheur français serait probablement, cette fois-ci, couvert par la nouvelle exception.

3) La limitation du champ d'application de l'exception de la fouille de données (on ne parle pas ici de la fouille de textes) aux données de la recherche rend la formulation redondante avec celle de l'article 17, qui, comme on l'a vu, énonce que les données de le recherche sont "librement réutilisables". Autrement dit, l'article 17 ouvrait déjà la possibilité de TDM sur les données de la recherche, et ce, sans la condition que lesdites données soient "incluses ou associées aux écrits scientifiques". 

4) Plus globalement, le régime d'application différencié de l'article 18 bis, fondé sur la dichotomie texte/données repose sur le postulat d'une différence nette entre texte et données. Or la distinction n'est que très superficielle, tout corpus de textes étant traduisible en langage informatique par un ensemble de 0 et de 1.

***


Pour finir, sans vouloir jouer l'avocat du diable, je conseillerais aux chercheurs français d'adopter un automatisme de langage : au lieu de dire qu'ils font de la fouille de données, je leur suggérerais de dire qu'ils font de la fouille de textes (une base de données composée intégralement de chiffres n'est-elle pas, par certains côtés, un gigantesque texte d'un genre particulier?) Par ce simple tour de passe-passe sémantique, ils feraient entrer plus facilement leur projet de recherche dans les clous de la nouvelle exception aux contours alambiqués.


Un train peut en cacher un autre

9 avril 2016 à 17:07
Mise à jour du 24 avril. 

La mise à jour est double. Tout d'abord, il me faut apporter une correction importante. L'amendement Mélot voté en commission des lois fait bien obstacle, contrairement à ce que j'ai écrit, aux clauses entravant la fouille de données par l'adjonction de contraintes de toutes sortes puisqu'il y est précisé que "l’autorisation de fouille ne donne lieu à aucune limitation technique". Ensuite, après des discussions internes au sein du collectif SavoirsCom1, nous en sommes arrivés à la conclusion, que nous avons formalisée dans un communiqué, que l'amendement Mélot "constitue sans doute le moins mauvais compromis possible en l’absence d’une évolution du Code de la Propriété Intellectuelle (...) La limitation du champ d’application des activités de TDM aux publications scientifiques mises à disposition en vertu des «contrats conclus par un éditeur avec un organisme de recherche ou une bibliothèque» est une solution de compromis qui va aussi loin que possible en l’absence d’une révision du Code de la Propiété Intellectuelle." L'amendement Mélot permet en effet d'éviter une situation de blocage absolu, assez inévitable tant que le gouvernement n'envisagera pas sérieusement de faire voter une nouvelle exception au droit d'auteur en faveur du TDM, quand bien même cette nouvelle exception apparaîtrait en contradiction avec le droit communautaire, lequel prévoit une liste fermée d'exceptions en vertu de la directive "Infosoc" de 2001.


Dans le précédent article, j'ai essayé de montrer comment les lignes étaient en train de bouger, tant au niveau national qu'européen pour ce qui touche au Text and Data Mining. Cependant, le propos était par trop optimiste et ne prenait pas en compte l'adoption de l'amendement présenté par Mme Mélot au nom de la commission Culture. S'oriente-t-on vers une consécration par la loi pour une République numérique, d'une exception de Text and Data mining? Pas vraiment en fait : il n'y aura pas d'exception générale de TDM, mais un aménagement particulier dans le contexte des abonnements institutionnels. L'amendement adopté par la Commission des lois est un amendement de compromis qui veut ménager la chèvre et le chou. D'un côté, ne pas contrevenir à la législation européenne actuelle sur le droit d'auteur et se garder d'anticiper sur la solution, incertaine, qui sera choisie par les autorités européennes au terme de la réforme. De l'autre, prendre en compte les nouveaux besoins de la recherche en invalidant les clauses interdisant le TDM dans les abonnements souscrits par des organismes de recherche ou des bibliothèques. L'amendement retenu propose une complète réécriture de la précédente version votée par les députés :

"Dans les contrats conclus par un éditeur avec un organisme de recherche ou une bibliothèque ayant pour objet les conditions d’utilisation de publications scientifiques, toute clause interdisant la fouille électronique de ces documents pour les besoins de la recherche publique, à l'exclusion de toute finalité directement ou indirectement commerciale, est réputée non écrite. L’autorisation de fouille ne donne lieu à aucune limitation technique ni rémunération complémentaire pour l’éditeur.
La conservation et la communication des copies techniques issues des traitements, aux termes des activités de recherche pour lesquelles elles ont été produites, sont assurées par des organismes dont la liste est fixée par décret.
Le présent article est applicable aux contrats en cours."

un train peut en cacher un autre

On peut interpréter cet amendement de façon positive comme une première brèche dans la muraille du droit des producteurs de bases de données.

Mais il faut aussi souligner la portée limitée de la disposition.

D'une part, s'il est vrai que les clauses contenues dans les licences signées entre les éditeurs et les établissements publics interdisant le TDM seront réputées non écrites, il n'en restera pas moins que les clauses entravant la fouille de données par l'adjonction de contraintes de toutes sortes resteraient parfaitement légales. Les éditeurs scientifiques resteront libres de contraindre les chercheurs à utiliser exclusivement leur API, ou à ne pas dépasser un nombre-limite de requêtes hebdomadaires, ou bien un nombre-limite de caractères par extraction. Le protocole d'accord de janvier 2014 (amendé par la suite) entre Elsevier et le consortium Couperin permet de mesurer combien l'imagination des éditeurs est sans limites dès qu'il s'agit de créer des entraves à la pratique du TDM.

D'autre part, et de façon plus générale, dès lors que la fouille de données portera sur un corpus pris sur le web en dehors du périmètre des ressources souscrites par l'établissement d'appartenance du chercheur, la fouille de données ne sera pas couverte par la moindre exception. On retournera alors à une situation parfaitement identique à la situation actuelle. Les chercheurs devront négocier pied à pied avec les producteurs de bases de données (quand ils sont identifiables) le droit de procéder à une extraction de données. De sorte que seules primeront les solutions contractuelles.

Suivant l'avis de la Commission Culture du Sénat, la Commission des lois a donc fait le choix d'un compromis absurde selon lequel ne seront couvertes que les extractions à partir de corpus faisant l'objet d'abonnements institutionnels, tandis que les contenus en libre accès sur le web resteront hors de portée. La solution n'est pas acceptable en l'état. Espérons que les discussions ultérieures amèneront les parlementaires à revoir leur copie.










Open Access dans le projet de loi pour une République numérique: vers une issue heureuse?

8 avril 2016 à 00:56
Après un long silence personnel causé pour partie par le sentiment d'exaspération et de lassitude extrême de relire çà et là sous la plume de porte-parole de maisons d'édition ou d'éminents représentants des sciences sociales, le ressassement sempiternel de peurs irrationnelles et de prophéties apocalyptiques, je reprends mon clavier et je tente de faire le point sur les espoirs que fait naître le projet de loi Lemaire en matière d'Open Access. Les dernières discussions en commission des lois au Sénat sont plutôt encourageantes. Avant que de les évoquer, faisons un retour en arrière sur les dernières péripéties qui ont accompagné la gestation du texte de loi.

Back to the recent past...


 Le texte a été mis au vote à l'Assemblée Nationale à la mi-janvier.

Pour ce qui concerne le "droit d'exploitation secondaire" des chercheurs, la version de l'article 17 finalement retenue par les parlementaires, établissait que
" I. – Lorsqu’un écrit scientifique issu d’une activité de recherche financée au moins pour moitié par des dotations de l’État, des collectivités territoriales ou des établissements publics, par des subventions d’agences de financement nationales ou par des fonds de l’Union européenne est publié dans un périodique paraissant au moins une fois par an, son auteur dispose, même après avoir accordé des droits exclusifs à un éditeur, du droit de mettre à disposition gratuitement dans un format ouvert, par voie numérique, sous réserve de l’accord des éventuels coauteurs, toutes les versions successives du manuscrit jusqu’à la version finale acceptée pour publication, dès lors que l’éditeur met lui-même celle-ci gratuitement à disposition par voie numérique et, à défaut, à l’expiration d’un délai courant à compter de la date de la première publication. Ce délai est de six mois pour une publication dans le domaine des sciences, de la technique et de la médecine et de douze mois dans celui des sciences humaines et sociales. Un délai inférieur peut être prévu pour certaines disciplines, par arrêté du ministre chargé de la recherche.

« La version mise à disposition en application du premier alinéa ne peut faire l’objet d’une exploitation dans le cadre d’une activité d’édition à caractère commercial."

Des esprits chagrins ont pu relever que le texte ne mentionnait pas explicitement les "archives ouvertes", et, de façon plus grave, que les délais pour la libération des articles n'étaient pas limités strictement à "six mois tout au plus" et "douze mois tout au plus". Calqué sur le modèle de la loi allemande d'octobre 2013,  l'article 17 a été pensé comme un levier pour inciter les chercheurs à diffuser largement leurs publications, sans le leur imposer, les chercheurs restant les seuls tributaires du droit de déposer ou non leurs articles dans des archives ouvertes. Il est vrai que, tout comme la loi allemande, le texte définit un cadre très peu contraignant. Mais disons qu'il s'agit d'un bon début qui ouvre la voie à d'autres textes ultérieurs plus ambitieux. De plus, à y bien regarder, le saut juridique n'est pas un saut de puce, le dispositif de l'article 17 ayant pour effet d'invalider toute disposition contractuelle: "les dispositions du présent article sont d’ordre public et toute clause contraire à celles-ci est réputée non écrite" (§ IV du même article) Enfin, un délai d'embargo plus court était toujours possible en vertu d'un arrêté pris par le ministre chargé de la recherche pour certaines disciplines (cette disposition vient de sauter à l'issue des discussions au sein de la commission des lois du Sénat, du fait du risque d'insécurité juridique qu'elle engendrait)


Pour ce qui est de l'exception de Text and Data Mining, on peut dire que, dans un premier temps, le gouvernement aura tout fait pour qu'elle ne voie pas le jour. Son rejet de l'exception était fondé sur un risque d'incompatibilité avec le droit européen: ajouter une nouvelle exception à la liste fermée des exceptions de la directive « Infosoc » de 2001 aurait posé des problèmes dans le contexte européen de révision du droit d’auteur. Sauf que l'argument faisait beaucoup sourire, si l'on songe à nos voisins outre-Manche qui n'ont pas attendu les derniers soubresauts de la réforme européenne du droit d'auteur pour faire voter dès 2014 une exception de TDM à des fins de recherche. Pour parvenir à ses fins, c'est-à-dire offrir à l'exception de TDM un enterrement de première classe, le gouvernement a ensuite tenté d'allumer des contre-feux. C'est à ce moment-là qu'a germé dans l'esprit éclairé de quelques têtes pensantes du Ministère de la Culture, l'idée de commander un rapport à un comité Théodule, sur l'air trop bien connu de: "il est trop tôt pour voter, c'est un sujet beaucoup trop complexe et nouveau, attendons les résultats du rapport .." Et de missionner dans la foulée, dès le 21 janvier, Charles Huot,qui n'est autre que le président du Groupement français de l’industrie de l’information (GFII), association qui regroupe l’ensemble des acteurs de la chaîne de l’information spécialisée, au premier rang desquels les éditeurs scientifiques. Or  le Text and Data Mining consiste notamment en l'exploitation automatisée de corpus d'articles provenant de plates-formes de revues scientifiques. Dans ce contexte, le président du GFII est-il la personne la mieux qualifiée pour livrer un rapport impartial sur la possibilité de mettre en oeuvre un cadre légal définissant les conditions d'exercice d'une exception de TDM? D'après des propos échangés à l'occasion d'une réunion inter-ministérielle, ledit rapport opterait pour une solution de type contractuel, tant décriée depuis bon nombre d'années du fait de son inadaptation aux modalités d'exercice de la fouille de données. C'est à croire que Charles Huot n'aurait auditionné que des chercheurs hostiles à l'exception de TDM. C'est ce qui s'appelle être juge et partie.

Retour au passé proche: arrive le 22 janvier, jour du vote au sujet de l'exception de TDM. Premier coup de théâtre: contre l'avis du rapporteur Luc Belot, contre l'avis du gouvernement et malgré les manœuvres dilatoires de ce dernier, l'exception de TDM est adoptée. Des députés proches de la majorité s'insurgent: ils n'avaient pas eu le temps d'appuyer sur le bouton! Il était à peu près 20h, le gouvernement avait la possibilité, en jouant sur les règles de procédure, de demander une deuxième délibération à la suite de l'examen de l'ensemble des articles et avant la fin de la clôture de séance. Sauf que, pour des raisons qui tiennent soit à un oubli, soit à une grosse fatigue de fin de soirée, soit à un calcul de probabilité sur les risques d'être battu une seconde fois au vu des sensibilités politiques auxquelles se rattachaient les derniers élus présents dans l'hémicycle à 2h du matin, le gouvernement n'a pas fait la demande d'une seconde délibération. Et c'est ainsi que l'article 18 bis est resté validé nuitamment.

Au final, une fois amendé, le texte de loi dans son ensemble aura permis à la Secrétaire d'Etat Axelle Lemaire de réaliser un score historique, avec 356 votes favorables sur 357 votes exprimés et un seul vote contre.

And now, back to the present...


Depuis le début du printemps, l'heure est au dégel.  A la commission des lois du Sénat, le 6 avril, l'article 17 a été validé, moyennant un toilettage superficiel. Les paragraphes II et III de l'article 17 qui posent le caractère librement réutilisable des données de la recherche ("Dès lors que les données issues d’une activité de recherche, financée au moins pour moitié par des dotations de l’État (...) ne sont pas protégées par un droit spécifique ou une réglementation particulière et qu’elles ont été rendues publiques par le chercheur (...) leur réutilisation est libre.") sont restés totalement inchangés.

Quant à l'exception de TDM, le gouvernement a certes soumis un amendement demandant le retrait de l'article 18 bis. Mais, non seulement le gouvernement n'a pas été suivi, mais il n'a, semble-t-il que mollement défendu l'amendement. Suite aux délibérations, ce dernier est donc désormais qualifié de "satisfait ou sans objet". Cela laisse à penser que le gouvernement ne souhaite plus suivre la même ligne de conduite qu'auparavant, laquelle se résumait à attendre... que l'Union Européenne statue dans le cadre de son programme de réforme du droit d'auteur.

Comme le rapporte Pierre-Carl Langlais, Thierry Mandon, Secrétaire d'Etat chargé de l'Enseignement Supérieur et de la Recherche a tenu des propos sans ambiguïté au moment même où se tenaient les discussions en commission des lois: « La réforme européenne prendrait au moins trois ou quatre ans. Si nous l’attendons, et que nous ne mettons pas en place une forme d’exception, c’est mort »

Curieusement, ces velléités de passer à la vitesse supérieure se font jour au moment où l'Union Européenne paraît elle-même changer de ton sur le sujet. En janvier, pendant que l'Assemblée Nationale discutait du texte de loi, le Parlement Européen faisait savoir qu'il s'interrogeait sérieusement sur le bien-fondé du droit des bases de données, lequel constitue l'un des soubassements idéologiques et juridiques à partir desquels s'élève la forteresse dans laquelle sont retranchés les éditeurs : sans droit des bases de données, la forteresse s'écroule comme un château de cartes, car la revendication par les producteurs de bases de données du droit de contrôler et de limiter le produit des fouilles de données perd son fondement.

Plus près de nous, la commission européenne en la personne de Carlos Moedas, le Commissaire européen à la recherche, à l'innovation et à la science, multiplie depuis quelques jours les déclarations de soutien aux politiques de promotion de l''Open Science. Après un premier discours ambitieux quoique un peu flou ce lundi, Carlos Moedas a décidé d'afficher clairement son soutien au vote du projet de loi Lemaire, via une courte vidéo diffusée sur les réseaux sociaux, le 6 avril, soit très exactement au moment même des discussions en commission des lois au Sénat:
 "Il nous faut clarifier les normes du droit d'auteur. L'Europe doit clarifier le cadre législatif pour l'accès et l'utilisation des données qui ont une finalité de recherche, et notamment en reconnaissant l'utilisation de la technique du Text and Data Mining comme bénéficiaire d'un régime dérogatoire du droit d'auteur".



Dans son allocution, Carlos Moedas  approuve donc la mise en place d'un dispositif qui s'apparente à une exception de Text and Data Mining. Voilà qui coupera l'herbe sous le pied des tenants du statu quo, lesquels invoquent le risque d'incompatibilité de l'exception française de TDM au regard du cadre juridique européen.

And soon, back to the future ?

Si le gouvernement semble modifier son cap en matière d'Open Access, c'est aussi parce que la mobilisation des chercheurs a pesé sur la redéfinition de sa feuille de route. Ce n'est pas le moment de faiblir... C'est pourquoi il faut inviter le plus grand nombre de nos concitoyens, qu'ils soient chercheurs ou non, à signer cette pétition:
"Pour une science ouverte à tous"

Projet de loi pour une République numérique : les chercheurs ont de quoi avoir des frissons

11 décembre 2015 à 03:25
Depuis quelques jours, plusieurs nouveaux épisodes sont venus enrichir la saga du projet de loi Lemaire. La semaine dernière, le gouvernement répondait aux contributions qui n'ont pas été retenues dans le cadre de la consultation numérique. Mercredi 9 décembre, de nouveaux rebondissements ont émaillé la série : le Conseil d'Etat a rendu public un avis extrêmement critique sur le texte, tandis que le gouvernement a soumis à l'Assemblée Nationale la version définitive du projet de loi, qui sera débattu par les parlementaires en procédure accélérée.
Le même jour, la commission européenne a dévoilé sa "vision" pour moderniser les règles du droit d'auteur dans le cadre de la révision de la directive "Infosoc". Or parmi les propositions formulées, issues pour partie du rapport de la députée Julia Reda, figure l'exception de Text and Data Mining, tant réclamée par les chercheurs.
Tout ces ingrédients réunis permettent de concocter un bon thriller...


Text and Data Mining : l'invité-fantôme qui est là sans être là


Par Bonnybbx. CC0. Source : Pixabay

On peut se demander pourquoi l'exception de fouille de données, présente dans l'une des versions de l'avant-projet qui avait "fuité" cet été, ne figure toujours pas dans la dernière version du projet de loi. Des éléments de réponses sont à trouver dans les motivations apportées par le gouvernement au rejet de certaines propositions lors de la consultation. En fait, la réponse est toujours la même (voyez ici, , ou encore ) :

Il y a aujourd’hui un consensus pour reconnaître que le text and data mining (TDM) représente un enjeu majeur d’innovation, mais aussi de positionnement concurrentiel pour la recherche, notamment vis-à-vis de pays comme le Royaume-Uni. La voie contractuelle, qui nécessiterait une négociation éditeur par éditeur, s’est montrée inadaptée à ce jour pour permettre l’application des techniques de TDM à de grands ensembles de corpus, à des fins de recherche.

La voie législative, qui introduirait une nouvelle exception au droit d’auteur, supposerait pour sa part de mettre en place des garanties permettant de répondre aux inquiétudes des éditeurs, en particulier face au risque de dissémination des copies numériques. Cette garantie pourrait être offerte par l’intermédiation d’un tiers de confiance. A cet égard, il est à noter que la Bibliothèque nationale de France (BnF) s’est d’ores et déjà portée candidate pour jouer un tel rôle.
La concertation entre le ministère de l’éducation nationale de l’enseignement supérieur et de la recherche et le ministère de la culture et de la communication se poursuit sur ces questions, dans le contexte de la révision en cours de la directive européenne sur le droit d’auteur.
Le gouvernement ne ferme pas totalement la porte à la possibilité d'une telle exception, mais il ne veut pas perturber les discussions en cours au niveau de l'Union Européenne sur l'exception de TDM. Contrairement au Royaume-Uni, il fait dépendre sa consécration nationale par la loi et sa mise en oeuvre, du vote, par le Parlement européen, de la prochaine directive sur le droit d'auteur.

Mais l'Union européenne est-elle vraiment déterminée à consacrer une exception de Text and Data Mining ? On peut, à l'instar de la League of European Research Universities (LERU), en douter :


[The Commmunication] says that the Commission is assessing options and will consider legislative proposals. The Commission has had years to consider options and proposals. It is time to stop considering and to start implementing. The time for action is now. LERU is disappointed that the legislative programme is not addressed in a more convincing and coherent way.


Droit d'exploitation secondaire : le Conseil d'Etat est son ennemi...


Zombie attack

L'article 17 du nouveau projet de loi Lemaire prévoit un "droit d'exploitation secondaire" ("Zweitverwertungsrecht" dans la loi allemande de janvier 2014 dont s'inspire très fortement le texte) au profit des auteurs, les autorisant à mettre à disposition gratuite leurs articles dans la version éditeur, passé un délai de 6 mois pour les Sciences, Techniques, Médecine, et 12 mois en Sciences Humaines et Sociales.
Mais dans l'avis rendu le 9 décembre, le Conseil d'Etat expédie sauvagement cette possibilité au nom de la territorialité des lois :
En ce qui concerne la mise à disposition gratuite sur l’internet des résultats de recherches financées sur fonds publics, prévue par l’article 14, le Conseil d’Etat a relevé que l’impact d’une telle mesure sur les contrats futurs entre éditeurs et auteurs tenait à son caractère d’ordre public, lequel ne peut jouer que sur le territoire français, alors que l’effet de la diffusion sur l’internet est mondial. Cette incohérence lui a paru faire obstacle à l’adoption de cette mesure.
Le raisonnement paraît curieux; le Conseil d'Etat estime que, puisque la diffusion des articles via Internet atteint potentiellement une audience mondiale, il ne devrait pas être possible de légiférer (nationalement) sur le statut des articles de recherche. Est-ce à dire que les lois votées récemment par l'Allemagne, l'Italie, l'Espagne ou bien l'Argentine ou les Etats-Unis devraient être invalidées ?

Données de la recherche : elles sont entrées par la grande porte, leurs ennemis les feront peut-être sortir par la fenêtre...


Crasch

Dans la précédente version du texte, les données de la recherche étaient qualifiées de "choses communes" au sens de l'article 714 du Code Civil :

Il est des choses qui n'appartiennent à personne et dont l'usage est commun à tous.

Des lois de police règlent la manière d'en jouir.
Cette qualification avait pour mérite de faire resurgir au détour d'un article, la notion de commun de la connaissance, et ce, en dépit de la disparition de l'ex-aticle 8 qui consacrait plus globalement un "domaine commun informationnel". Le concept de "choses communes" permettait également d'ancrer la notion de commun dans un temps long, qui trouve ses origines dans le droit romain.

Deux raisons peuvent expliquer le rejet les "choses communes". Du point de vue du droit, Me Jean Martin, avocat missionné récemment par le Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) pour remettre un rapport sur la notion de domaine commun informationnel, a soulevé la question de l'articulation entre Code Civil et Code de la Propriété Intellectuelle, sur la base de la définition jurisprudentielle complexe de "lois de police". D'un point de vue philosophique, Dardot et Laval ont démontré que le commun doit se définir comme la résultante d'une activité commune de co-construction et non comme une chose en soi, déterminée par nature.

Désormais, dans le nouveau projet de loi déposé à l'Assemblée, quand les données de la recherche sont issues du financement au moins pour moitié sur des fonds publics, elles sont libres de réutilisation :

« II. – Dès lors que les données issues d’une activité de recherche, financée au moins pour moitié par des dotations de l’État, des collectivités territoriales, des établissements publics, des subventions d’agences de financement nationales ou par des fonds de l’Union européenne, ne sont pas protégées par un droit spécifique, ou une réglementation particulière, et qu’elles ont été rendues publiques par le chercheur, l’établissement ou l’organisme de recherche, leur réutilisation est libre.

« III. – L’éditeur d’un écrit scientifique mentionné au I ne peut limiter la réutilisation des données de la recherche rendues publiques dans le cadre de sa publication.
« IV. – Les dispositions du présent article sont d’ordre public et toute clause contraire à celles-ci est réputée non écrite. »
Cependant le régime de libre réutilisation appliqué aux données de la recherche paraît terriblement fragile. Le texte dit bien : dès lors que les données de la recherche "ne sont pas protégées par un droit spécifique". Ce qui signifie que les données ne seraient plus libres de réutilisation dès lors qu'un éditeur revendiquerait la titularité d'un droit sur l'ensemble des données, L'exposé des motifs est encore plus précis : "dès lors que ces données ne sont pas protégées par un droit spécifique, comme par exemple un droit de propriété intellectuelle". Ainsi le producteur d'une base pourrait invoquer le droit sui generis de producteur de base de données, pour faire main basse sur les données sous-jacentes aux articles déposés dans la base de données.

Open Data et Open Access dans le projet de loi Lemaire : avancées et limites

9 novembre 2015 à 19:50

Axelle Lemaire, secrétaire d'Etat chargée du Numérique, a dévoilé vendredi dernier la dernière version du projet de loi pour une République numérique. Parmi les mesures positives, figure le raccourcissement des délais d'embargo pour le partage gratuit des articles scientifiques, notamment via des dépôts dans des archives ouvertes: en réponse aux fortes demandes exprimées par la communauté scientifique, le CNRS en tête, les délais repassent de 24 à 12 mois pour les sciences humaines et sociales, et de 12 à 6 mois pour les sciences, les techniques et la médecine.

En revanche, il est à regretter que l'exception de Text and Data Mining, présente dans la première mouture de l'avant-projet de loi qui avait "fuité" cet été, ait définitivement disparu, en dépit des promesses du Secrétaire d'Etat en charge de l'Enseignement Supérieur et de la Recherche.

Mais ce sur quoi je voudrais insister (à nouveau) ici, c'est que, nonobstant des avancées significatives en matière d'Open Data, des zones grises subsistent, du fait des contradictions qui découlent de certaines dispositions non compatibles avec un autre texte, le projet de loi de transposition de la directive Public Sector Information de 2013, porté par la Secrétaire d’État Clotilde Valter. Tels la divinité Janus bifrons, les projets de loi Valter et Lemaire regardent dans deux directions opposées.


Janus-Vatican.JPG

Janus-Vatican“ par Fubar Obfusco - Public Domain. Wikimedia Commons.


Open Data : le droit des bases de données neutralisé


Parmi les nouveaux articles ajoutés, figure un article 5 qui comprend deux dispositions nouvelles de nature à faciliter l'ouverture et la réutilisation des données publiques. La première porte précisément sur les relations entre ouverture des données et droit des bases de données.

I. - L’article 11 de la loi du 17 juillet 1978 portant diverses mesures d'amélioration des relations entre l'administration et le public et diverses dispositions d'ordre administratif, social et fiscal est remplacé par les dispositions suivantes: 

« Art. 11. - Sous réserve de droits de propriété intellectuelle détenus par des tiers, les droits des administrations mentionnées à l’article L. 300-2 du code des relations entre le public et l’administration au titre des articles L. 342-1 et L. 342-2 du code de la propriété intellectuelle ne peuvent faire obstacle à la réutilisation, au sens de l’article 10, du contenu des bases de données que ces administrations ont obligation de publier en application du 3° de l’article L. 312-1 du code des relations entre le public et l’administration.»
Le nouvel article permet de neutraliser les revendications des administrations qui formeraient un barrage contre la réutilisation de leurs données publiques numérisées, en revendiquant le droit sui generis de producteur de bases de données. Cela mettrait un terme à la jurisprudence consacrée récemment par la Cour Administrative d'Appel de Bordeaux dans l'arrêt du 26 février 2015, Société NotreFamille.com c/ Conseil Général de la Vienne, confirmant le jugement rendu en première instance par le Tribunal Administratif de Poitiers l'année précédente.


Vers une simplification des conditions de réutilisation


Reprenant en partie un amendement proposé par le CNNum, le même article vise à imposer aux administrations une liste fermée de licences-types destinées à être apposées aux jeux de données libérés :

III. - L’article 16 de la même loi est complété par un alinéa ainsi rédigé: « Pour les réutilisations à titre gratuit, les administrations mentionnées à l’article L. 300-2 du code des relations entre le public et l’administration recourent à une licence figurant sur une liste fixée par décret. Lorsqu’une administration souhaite recourir à une licence ne figurant pas sur cette liste, cette licence doit être préalablement homologuée par l’Etat, dans des conditions fixées par décret.»

Une politique Open Data digne de ce nom n'est possible que si elle s'accompagne d'une clarification des conditions de réutilisation: si chaque administration concocte sa propre licence ad hoc, la réutilisation devient inutilement complexe, voire impossible.


Données de la recherche : le chat de Schrödinger 


Les données de la recherche sont consacrées par la loi Lemaire au rang de "choses communes", conformément à l'amendement déposé par le collectif SavoirsCom1:

« II. – Les données de la recherche rendues publiques légalement issues d’une activité de recherche financée au moins pour moitié par des fonds publics et qui ne sont pas protégées par un droit spécifique sont des choses communes, au sens de l’article 714 du code civil

Les données de la recherche sont rendues inappropriables... Mais un amendement récemment présenté contre l'avis du gouvernement par le Sénateur Hugues Portelli, dans le cadre du vote de la loi Valter de transposition de la directive Public Sector Information, a précisément pour effet de placer les données de la recherche sous un régime dérogatoire au principe général d'ouverture des données publiques: 
« Art. 11. – Par dérogation au présent chapitre, les informations figurant dans des documents produits ou reçus pas des établissements et institutions d’enseignement et de recherche dans le cadre de leurs activités de recherche peuvent être réutilisées dans les conditions fixées par ces établissements et institutions. »

Comme le chat de Schrödinger (merci à @calimaq pour cette jolie métaphore), les données de la recherche sont mortes et vivantes, ou plutôt libres et non-libres en même temps: d'un côté les universités ont la faculté d'en limiter la réutilisation (PJL Valter remanié par Portelli), de l'autre les données de la recherche sont des communs de la connaissance, des choses communes, inappropriables en droit, ce qui exclut que les universités puissent restreindre les conditions de leur réutilisation (PJL Lemaire).


Disparition du Domaine Commun Informationnel : vive le Copyfraud !


Les données de la recherche ont désormais le statut de choses communes, soit en d'autres termes, le statut de communs de la connaissance. Mais précédemment, le projet de loi Lemaire consacrait de façon plus large un "domaine commun informationnel". L'ex-article 8 qui le définissait, avait pour objectif de "protéger les ressources communes à tous appartenant au domaine public contre les pratiques d’appropriation qui conduisent à en interdire l’accès". A contrario, maintenant que l'article a disparu, il sera toujours possible pour les administrations de faire ce que la loi n'interdit pas explicitement. La porte reste ouverte au Copyfraud, qui consiste en la revendication abusive de droits sur des œuvres, notamment des œuvres du domaine public, de façon à en restreindre l'accès ou la réutilisation. 

Or le Copyfraud est non pas simplement toléré, mais conforté, voire consacré, par le projet de loi Valter: le texte autorise la perception de redevances sur le produit de la numérisation d’œuvres, y compris des œuvres du domaine public en deux dimensions. Dans le match Lemaire/Valter, au round "Copyfraud", le projet de loi Valter l'emporte par KO (mais bien sûr, tant qu'aucun des deux textes n'est voté, rien n'est joué).

Reste une question. Nous avons vu plus haut que le nouvel article 5 du projet de loi Lemaire a pour objectif de bloquer la revendication par les bibliothèques, musées ou archives, du droit sui generis des producteurs de bases de données sur les jeux de données issus de la numérisation de leurs fonds. Est-ce que l'article 5 serait de nature à freiner voire bloquer le Copyfraud ? Que nenni ! Le droit est un sport de combat dont les règles du jeu sont à géométrie variable: il suffira aux institutions culturelles nostalgiques de l'exception culturelle, de quitter le terrain du droit des bases de données pour continuer le combat sur le terrain de l'article 3 de la loi Lemaire, et la partie sera gagnée !

Voilà comment des textes législatifs s'enchaînent, de l'exception culturelle à ce qu'il faudra bien peut-être appeler un jour "l'exception Lemaire" en passant par le droit des bases de données, de façon à offrir, sous couvert d'un changement permanent, la garantie d'une inaltérabilité des pratiques des institutions culturelles, du moins des plus réfractaires d'entre elles à l'ouverture des données culturelles.




Anne Frank est morte et elle ne cesse de mourir

14 octobre 2015 à 02:14

Il en est de la disparition d'un être comme de certaines séparations amoureuses : elles ne cessent de se nous hanter, pour de bonnes ou de moins bonnes raisons. On aimerait ne jamais connaître les mauvaises.

Prenez par exemple la manière dont le Fonds Anne Frank prétend défendre l'oeuvre de l'auteur du Journal, manière contestable d'un point de vue juridique mais également éthique, comme on va le voir.


Description de cette image, également commentée ci-après
« Original Book Copy » par Gonzalort1Travail personnel. Sous licence CC BY-SA 3.0 via Wikimedia Commons.

Au départ, il y a ce constat: la Fondation Anne Frank tente par tous moyens de faire reculer l'entrée du Journal dans le domaine public. Pour plus de détails, je vous invite à lire deux billets d'Olivier Ertzscheid, sur son blog affordance.infoLe premier est un cri de colère contre la politique adoptée par le Fonds Anne Frank, en même temps qu'une magnifique déclaration d'amour à l'oeuvre d'Anne Frank; le second fait le point sur la polémique qui s'en est suivie.

1) Une œuvre composite ?


Voici le premier argument avancé par Fonds Anne Frank pour reculer l'entrée de l'œuvre d'Anne Frank dans le domaine public :
Il va sans dire que les droits d’auteur du texte original d'Anne Frank appartiennent fondamentalement à l'auteur, Anne Frank elle-même. Deux versions du journal ont été publiées : la première en 1947, compilée par Otto Frank, et la seconde en 1991, compilée par Mirjam Pressler. Ces publications sont des adaptations réalisées respectivement par Otto Frank et Mirjam Pressler, et ceux-ci sont donc les propriétaires des droits d'auteur de ces adaptations, qui transforment dans les faits les écrits originaux d'Anne Frank en versions lisibles.
Ainsi donc, Anne Frank ne serait pas le seul auteur de son Journal, puisque le fait de "compiler" (ou plutôt "censurer" pour Otto, le père) les versions ouvrirait droit à Otto Frank et à Mirjam Pressler, la qualité de co-auteurs ? Cela ne revient-il pas à dire qu'Anne n'est pas vraiment l'auteur à part entière du Journal ? Comment la Fondation peut-elle s'enorgueillir de défendre la mémoire d'Anne avec de pareils arguments ?

Sur le plan juridique, le discours de la Fondation revient à considérer Le Journal comme une œuvre composite. "Est dite composite l'œuvre nouvelle à laquelle est incorporée une œuvre préexistante sans la collaboration de l'auteur de cette dernière" (art. L 113-2 du Code de la Propriété Intellectuelle). Ce statut emporte des conséquences considérables en ce qui concerne la durée de protection : 70 ans après la mort de l'auteur de l'œuvre dérivée (50 dans certains pays comme le Canada). Or le premier "auteur"de la première œuvre "composite", Otto Frank, est décédé en 1980, ce qui nous reporte à 2050 pour une entrée dans le domaine public . Quant à Mirjam Pressler, elle est toujours en vie... Voilà pourquoi la Fondation claironne fièrement (et un peu trop vite) que "les écrits originaux d'Anne Frank, ainsi que les versions imprimées originales, resteront protégés pendant encore de nombreuses décennies".

Relisez la dernière phrase et remarquez par quel stupéfiant jeu de bonneteau, les "écrits originaux" d'Anne Frank (écrits entre 1942 et 1944) sont insidieusement agrégés aux œuvres composites, si œuvres composites il y a. "Insidieusement", car normalement, les composantes d'une œuvre composite sont protégées séparément. Le point de départ de la durée de protection devrait donc être différent pour les écrits originaux d'Anne Frank d'une part, pour les compilations d'Otto Frank et de Mirjam Pressler d'autre part. Autrement dit, même en admettant que les versions d'Otto Frank et de Mirjam Pressler soient des œuvres composites, cela ne devrait rien changer au fait que les écrits originaux entreront dans le domaine public en 2016, 70 ans après la disparition d'Anne Frank.

Du coup, la Fondation, qui manifestement aime faire son shopping avec les articles de lois, s'essaie ensuite à un autre argumentaire.

2) une oeuvre posthume ?

Les écrits originaux d'Anne Frank n'ayant été publiés pour la première fois que dans les années 1980, ils sont toujours protégés pour plusieurs décennies.

Quoi ? Est-ce à dire que la première version publiée en 1947 par Otto, le père d'Anne Frank, n'était pas suffisamment "originale" ? N'est-ce pas laisser la porte ouverte aux révisionnistes de tout poil que d'invoquer un défaut d'authenticité ?

Sur le plan juridique, la Fondation Anne Frank s'aventure sur un autre terrain cette fois. Considérer que seuls les écrits publiés dans les années 1980 sont "originaux", permet, par un second tour de passe-passe, de conférer à ces versions plus tardives le statut d’"œuvres posthumes". Du coup, cela permet d'étendre la durée de protection à compter de la date de la nouvelle publication (apparemment 50 ans pour les œuvres posthumes aux Pays-Bas, ce qui nous reporte à 2030 au plus tôt)

Seulement on se heurte à une nouvelle incohérence par rapport à ce qui a été dit précédemment. Ou bien la version de Mirjam Pressler est une oeuvre composite, et il faut attendre 70 ans après le décès de cet "auteur" pour que l'oeuvre regagne le domaine public. Ou bien il s'agit d'une œuvre posthume, et en ce cas, Anne Frank en est l'unique auteur. 

Plus globalement, invoquer le statut d'œuvre posthume pour les écrits publiés dans les années 1980, lors même que l'œuvre a été publiée une première fois dès 1947 sous une version certes expurgée, n'a pas de sens. La première publication ôte aux suivantes le qualificatif d' "inédites". Si un procès se fait jour, il est peu probable que la Fondation obtienne gain de cause devant des tribunaux.



3) le point Godwin? (Ou pas loin...)

En protégeant activement les droits d'auteur, l'AFF [le Fonds Anne Frank] s'efforce de préserver l'utilisation authentique, dans le respect et l'intégrité, de l'oeuvre d'Anne Frank.
En caricaturant un peu, l'implicite du discours pourrait se résumer ainsi : "si vous laissez entrer Le Journal d'Anne Frank dans le domaine public, vous nous empêchez de protéger l'œuvre et vous faites le jeu des révisionnistes et des négationnistes qui s'empareront du texte d'Anne Frank pour le triturer en tous sens". Je ne m'appesantirai pas sur ce point déjà amplement traité ici ou . Rappelons simplement que le droit moral, perpétuel et incessible, permet aux ayants-droit de préserver l'intégrité de l'œuvre. Par ailleurs, le droit d'auteur n'est pas forcément le meilleur outil de régulation des propos négationnistes. Il existe dans certains pays, en France notamment, un encadrement de la liberté d'expression par un ensemble de lois qui punissent l'incitation à la haine raciale, les.propos antisémites ou négationnistes.


***


Bref, à plusieurs égards, l'attitude des gestionnaires du Fonds Anne Frank a pour effet de commettre précisément ce qu'ils visent à dénoncer. En prétendant reculer l'entrée du Journal d'Anne Frank dans le domaine public, ils offensent plutôt qu'ils n'assurent le respect de l'oeuvre et de la mémoire d'Anne Frank. Nous laisserons le mot de la fin à l'avocat Guillaume Sauvage:

Il me semble que les arguments qu'utilisent les ayants-droit pour empêcher que l'œuvre ne tombe dans le domaine public pourraient justement avoir des effets pervers. Si un tribunal devait reconnaître plusieurs auteurs au Journal, cette décision serait susceptible d'apporter de l'eau au moulin de ceux qui contestent son authenticité.



Post-Scriptum : Je comprends le sentiment d'exaspération d'Olivier Ertzscheid qui l'a conduit à mettre en ligne les fichiers des traductions françaises du Journal d'Anne Frank. Pour ma part, je fais le choix de ne pas diffuser ces liens, simplement parce que ces traductions, au contraire des écrits originaux, sont sous droits et ne se sont donc pas encore élevées dans le domaine public. 

Domaine Public, Open Data, et Open Access dans le projet de loi pour une République numérique

1 octobre 2015 à 03:12
Après la mise en ligne de la dernière version du projet de loi Lemaire, l'heure est à la consultation citoyenne. C'est l'occasion de saluer les prémices d'un grand texte, qui pour la première fois fait entrer dans le périmètre législatif les communs informationnels.

C'est aussi l'occasion de pointer un certain nombre de points manquants ou à améliorer. L'occasion encore de s'interroger sur l'articulation entre l'ambitieux projet de loi et les textes qui l'ont précédé, qu'il s'agisse de textes de loi, de rapports  ou de déclarations. Dans ce qui suit, on ne s'intéressera qu'au Titre I du projet, intitulé "La circulation des données et du savoir".


Projets de loi Lemaire et Valter : le domaine public pris en étau


Le moins qu'on puisse dire est que le cap fixé par le gouvernement en matière d'open data n'est pas toujours bien lisible. Voici un aperçu de l'alternance des signaux positifs et négatifs émis par le gouvernement ces derniers jours. Le 18 juin 2015, après avoir reçu le rapport du Conseil National du Numérique, le Premier Ministre présentait à la Gaîté Lyrique les grandes lignes de la Stratégie numérique pour la France, comportant notamment un volet orienté open data, et un autre, orienté plus spécifiquement open access ("Favoriser une science ouverte par la libre diffusion des publications et des données de la recherche").

Sur ce, une première version du projet de loi Lemaire était divulguée par des canaux non officiels. Le texte intégrait très largement les recommandations du Conseil National du Numérique présentées le 18 juin, en faveur notamment de l'ouverture des données publiques.

Mais c'est alors que paraît à la fin du mois de juillet, le projet de loi de transposition de la directive PSI (Public Sector Information) de 2013, projet déposé en catimini par la Secrétaire d’État chargée de la Réforme de l’État et de la Simplification, Clotilde Valter. Le texte est actuellement discuté au Parlement, et l'on est en droit de s'interroger sur la cohérence du calendrier législatif, qui consiste à soumettre au vote sans plus attendre, le projet de loi de transposition avant le texte d'Axelle Lemaire, qui lui, ne sera pas discuté sur les bancs de l'Assemblée avant 2016. Les deux textes portent pourtant tous deux, intégralement pour l'un, en partie pour l'autre, sur le renforcement et l'élargissement de l'ouverture des données publiques. Par voie de conséquence, on se retrouve en ce début du mois d'octobre, dans une situation bien étrange, où deux textes portant sur des thématiques communes sont débattus simultanément en deux endroits différents de l'hexagone: sur les bancs de l'hémicycle par les représentants de la Nation pour l'un, par les citoyens sur le web pour l'autre.

La précipitation du gouvernement à soumettre au vote le projet de loi Valter s'explique en fait, comme l'explique le collectif Regards Citoyens, par le dépassement par la France de la date-limite de transposition et par la crainte d'encourir une amende. Quoi qu'il en soit, le projet de loi Valter comporte comme on va le voir, des dispositions incompatibles avec certaines des promesses du projet de loi numérique porté par Axelle Lemaire.

Retour au mois d'août. Quelques jours après le dépôt du projet de loi Valter, le gouvernement publie son "Plan d'action national pour la France pour une action publique 2015-2017 : pour une action publique transparente et collaborative", où l'on voit figurer au premier rang des engagements : "Publier en open data les données des collectivités territoriales". Le préambule du texte est une ode à l'ouverture et à la réutilisabilité des données : "Le partage et la mise à la disposition de tous d’informations mais également de données ouvertes et réutilisables (« open data ») dessinent par ailleurs une réelle évolution de nos pratiques démocratiques, impliquant de plus en plus largement la société civile."

Or le projet de loi Valter, non conforme sur ce point aux dispositions de la directive, n'impose nullement la mise à disposition des données publiques dans un format ouvert. Comme l'a relevé le collectif Regards Citoyens, "seules les données relatives au prix des redevances (art. 5) et aux accords d’exclusivité (art. 2.2) seraient publiées sous un format ouvert, un comble !"

Bref, on le constate, beaucoup de "Valls-hésitations" voire d'incohérences de la part de ce gouvernement, qui conduisent à une situation ubuesque : sur deux points essentiels, la loi Valter qui fait l'objet en ce moment-même d'une première lecture à l'Assemblée, est en train de saper l'esprit de la future loi numérique, voire de vider par avance le texte de sa substance.

Non seulement, le texte n'implique pas d'obligation de diffuser les données publiques dans un format ouvert, mais aussi, loin d'aller dans le sens de l'ouverture par défaut des données publiques avec un objectif général de gratuité, il fait la part belle aux possibilités de redevances (article 3).

Par surcroît, le projet de loi Valter est lourd de conséquences pour tout ce qui touche à la numérisation des œuvres du domaine public. S'il est vrai que l'article 1 du projet de loi abroge l'article 11 de la loi CADA de 1978 qui consacre l'exception culturelle, il n'en reste pas moins que l'article 2 rend possibles les accords d'exclusivité d'une durée supérieure à dix ans pour les besoins de la numérisation de ressources culturelles, et que l'article 3, qui énonce un principe général de gratuité, prévoit une exception quand la réutilisation "porte sur des informations issues des opérations de numérisation des fonds et collections des bibliothèques, y compris des bibliothèques universitaires, des musées et archives, et des informations qui y sont associées lorsque celles-ci sont commercialisées conjointement".

C'est dire qu'avec le projet de loi Valter, tel qu'en l'état, l'exception culturelle a de beaux jours devant elle, et la pratique du copyfraud, qui consiste en la revendication abusive de droits sur des œuvres, notamment du domaine public, pourrait être à la fête pendant encore bien longtemps. Ajoutons que sur ce point, le projet de loi Valter ne fait que suivre la directive PSI, qui, comme nous l'avions montré, fait courir un risque au domaine public en autorisant les établissements culturels à restreindre la réutilisation des œuvres du domaine public numérisé.

Trois exceptions manquantes...


Trois exceptions importantes étaient attendues, qui ne figurent hélas pas dans la version du texte proposé à la consultation citoyenne.

L'exception pédagogique


Dans son rapport "Ambition numérique" dévoilé en juin, le Conseil National du Numérique insistait sur le caractère inapplicable de l'exception pédagogique en l'état, et sur son inadéquation au déploiement des MOOCs :

64. Faire évoluer et clarifier l’exception pédagogique pour une meilleure adéquation avec les usages numériques

L’application de l’exception pédagogique a été introduite dans le droit français en 2006 par la loi DADVSI et s’organise autour de protocoles d’accord conclus entre les établissements et les organismes représentants les titulaires des droits. Dans l’état actuel, l’exception pédagogique est perçue par les enseignants comme un dispositif trop complexe pour pouvoir être pleinement compris et exploité. Les enseignants s’inquiètent d’une insécurité juridique qui freine les usages, en particulier numériques ; les éditeurs estiment que l’action du Centre Français de la Copie a désormais clarifié le paysage, ce que démontrerait l’usage massif du dispositif. À minima, un bilan serait à établir en commun, avant un travail de communication auprès de toutes les parties prenantes.
Le numérique risque de rendre cette tâche encore plus compliquée pour les enseignants, dans le cadre de l’utilisation du potentiel des TICE (blogs, wikis, réseaux sociaux, etc.) et de la production de MOOCs ou autres cours en ligne, qui ont vocation à être mise en ligne et donc en accès libre. Il semble donc nécessaire d’engager une réflexion collective sur le recours à l’exception pédagogique dans le cadre de formations ouvertes à tous.

  Exception de panorama


Tant qu'une telle exception ne sera pas consacrée par la loi, il ne sera pas possible de reproduire à titre informatif dans la version française de Wikipedia des monuments architecturaux sous droits. A l'heure actuelle, un tel acte de partage constitue un acte de contrefaçon. Le seul rempart contre cette rigidité de la loi est à trouver dans la théorie jurisprudentielle de l'accessoire. Il est à déplorer que la liberté de panorama ait disparu du projet de loi, lors même que le rapport "Ambition numérique" lui consacrait un paragraphe entier et que les deux versions précédentes du projet comportaient un article à ce propos.


Exception de Text and Data Mining 


N'en déplaise à Richard Malka pour qui "une telle exception au droit d’auteur n’est nullement nécessaire alors que les éditeurs autorisent déjà l’usage de leurs banques de données dans le cadre de licences contrôlées", une exception en faveur de la fouille de données est indispensable pour la recherche. Tant qu'aucune exception n'est mise en place, les éditeurs, en tant que producteurs de bases de données, ont le champ libre pour organiser la captation des résultats de la recherche et en dicter les conditions de réutilisation.
Captation d'autant plus inacceptable quand on sait que la recherche française est financée majoritairement sur fonds publics.

Faiblesse de la définition du domaine commun informationnel


Comme l'a bien noté @Calimaq, la formulation de la définition du domaine commun informationnel n'en garantit pas la protection effective. En l'état du texte, de simples conditions générales d'utilisation (ou la revendication du producteur de la base de données du droit sui generis des bases de données ?) suffiraient à faire tomber la protection :
I. Relèvent du domaine commun informationnel :
1° Les informations, faits, idées, principes, méthodes, découvertes, dès lors qu’ils ont fait l’objet d’une divulgation publique licite, notamment dans le respect du secret industriel et commercial et du droit à la protection de la vie privée, et qu’ils ne sont pas protégés par un droit spécifique, tel qu’un droit de propriété ou une obligation contractuelle ou extracontractuelle ;
 Qui plus est, la disparition de la notion de domaine public consenti, présente dans la première version du texte, ampute le domaine commun informationnel de ses éléments les plus vivants : œuvres sous licence Creative Commons, œuvres volontairement déposées sous licence CC0, etc.
 

La perspective d'un droit de l'open science s'éloigne...


Le tableau global s'assombrit encore lorsqu'on se penche sur la façon dont sont appréhendés les résultats de la recherche scientifique. Non seulement l'exception de Text and Data Mining a disparu du texte, mais les données de la recherche ne sont pas explicitement présentées comme des éléments du domaine commun informationnel.

Par surcroît, la proclamation du principe de libre accès aux résultats de la recherche apparaît elle-même comme de portée incertaine, dans la mesure où, tout comme dans la loi allemande de 2013, le dépôt en accès libre des articles scientifiques dépend d'une simple faculté laissée aux chercheurs et ne revêt pas de caractère obligatoire :
Lorsque un écrit scientifique, issu d’une activité de recherche financée au moins pour moitié par des fonds publics, est publié dans un périodique, un ouvrage paraissant au moins une fois par an, des actes de congrès ou de colloques ou des recueils de mélanges, son auteur, même en cas de cession exclusive à un éditeur, dispose du droit de mettre à disposition gratuitement sous une forme numérique, sous réserve des droits des éventuels coauteurs, la dernière version acceptée de son manuscrit par son éditeur et à l’exclusion du travail de mise en forme qui incombe à ce dernier, au terme d’un délai de douze mois pour les sciences, la technique et la médecine et de vingt-quatre mois pour les sciences humaines et sociales, à compter de date de la première publication. Cette mise à disposition ne peut donner lieu à aucune exploitation commerciale.
Quant à la durée d'embargo, elle est deux fois plus longue que celle préconisée par l'Union européenne. Comme le souligne Christine Ollendorff dans sa contribution, "les délais de douze et vingt-quatre mois vont à l'encontre de la recommandation de la Communauté Européenne du 17 juillet 2012 qui propose six mois pour les sciences, techniques et médecine et douze mois pour les sciences humaines et sociales." Certains vont plus loin dans le diagnostic et proposent la suppression pure et simple des embargos.

L'impossibilité de réutilisation commerciale briderait considérablement l'activité des laboratoires, dont une partie non négligeable de l'activité consiste précisément à valoriser commercialement leurs travaux de recherche (point 3  de la contribution de Renaud Fabre au nom du CNRS). C'est tout le contraire qu'il faudrait envisager : permettre les conditions optimales de la réutilisation des résultats de la production scientifique.

Par ailleurs, il ne suffit pas de mettre à disposition gratuitement les résultats de la recherche, encore faut-il que les conditions de réutilisation soient prévues explicitement. Comme l'explique très bien la Déclaration de Budapest BOAI 10 de 2012, "l'accès « gratis » est supérieur à l'accès payant, l'accès « gratis » sous licence libre étant lui-même supérieur au seul accès « gratis »".

Ce qui nous amène au dernier point, qui constitue ma contribution personnelle au débat. Passés les délais d'embargos (s'ils existent), les articles pourraient intégrer le domaine commun informationnel. Les articles se verraient apposer automatiquement une licence de type CC-BY, licence Creative Commons qui comporte pour seule et unique condition celle de mentionner la paternité au moment de la réutilisation.  Mesure qui paraît nécessaire, sine qua non on laisse le champ libre aux éditeurs scientifiques, en situation d'imposer unilatéralement aux chercheurs, par l'édiction de règles abusives, les conditions de réutilisation de leur travaux. Et si la licence CC-BY semble préférable à beaucoup d'autres, c'est parce qu'elle est l'une des plus ouvertes. C'est pourquoi la Déclaration de Budapest  de 2012 fait de la licence CC-BY la licence par excellence du mouvement open access. La citation précédente se poursuit ainsi :
L'accès « gratis » est supérieur à l'accès payant, l'accès «gratis» sous licence libre étant lui-même supérieur au seul accès «gratis», et, enfin, l'accès sous licence libre de type CC-BY ou équivalente est préférable à un accès sous une licence libre qui serait plus restrictive.







    Boucles d'Or et les Data

    8 juin 2015 à 00:31
    "Il était une fois une maman ours, un papa ours et un petit ours qui habitaient une belle maison dans la forêt. Un jour, maman ours prépara une soupe délicieuse. Comme elle était trop chaude, les trois ours partirent se promener". (1)

    The Story of the Three Bears

    Peu de temps après, qui se présente devant la maison ? Boucles d’Or. Elle est très fatiguée, alors elle décide d’entrer pour se reposer un peu.

    Boucles d’Or ne le sait pas encore, mais quand elle sera plus grande, elle sera chercheuse au CNRS. Elle a déjà la fibre scientifique : elle teste tout ce qu’elle voit et elle compare les objets, les évalue et les classe par ordre de grandeur. Elle s’assoit sur la grande chaise, qu'elle trouve trop haute, sur la chaise moyenne, qui s'avère un peu bancale, et sur la petite chaise, qu’elle trouve parfaite mais qu'elle finit par casser. Elle goûte la soupe du grand bol, qu’elle trouve trop chaude, puis la soupe du bol moyen, qu’elle trouve trop salée, puis la soupe du petit bol, qu’elle trouve parfaite et qu'elle boit entièrement. A ce stade, notre scientifique en herbe voit trois lits et elle ne peut s’empêcher de refaire une expérience : elle s’allonge dans le grand lit qu’elle trouve trop dur, elle s'allonge dans le lit moyen qu’elle trouve trop mou, puis dans le petit lit qui se trouve être parfait. Boucles d'Or s'endort aussitôt.

    Dans une certaine mesure, les trois ours n’existent que dans le regard de Boucles d’Or : ce sont ses hypothèses qui donnent corps à l’idée des trois ours, c’est son regard qui établit un ordre de hiérarchie entre les ours ou entre les objets. Les hypothèses de Boucles d’Or s’agrègent en trois masses : Small Data pour le petit ours, Medium Data pour la maman ours et Big Data pour le papa ours.

    A la fin de l’histoire, Boucles d’Or s’endort dans le petit lit du petit ours. Les trois ours reviennent de leur promenade et leurs voix la réveillent. Apeurée, elle s’enfuit. Dans certaines versions du conte, le départ de Boucles d'Or n'est pas aussi brusque : Papa Ours (Big Daddy ou Big Data) indique à Boucles d'Or son chemin. Quoi qu'il en soit, il y a plusieurs façons d’interpréter la fuite ou le départ de Boucles d'Or.

    Goldilocks 1912

    Ou bien il faut y voir une signification d’ordre épistémologique. Quand Small Data, Medium Data et Big Data réveillent Boucles d'Or, c'est comme si un Nouveau Monde remplaçait l'Ancien. Désormais, Small Data, Medium Data et Big Data prennent le pouvoir; les données sont les seules maîtresses à bord de la maison-laboratoire.  La méthode de notre scientifique en herbe n'a plus cours. La nouvelle méthode ne consiste plus à émettre des hypothèses puis à les tester par des expériences. La nouvelle manière de faire de la science part de données sans hypothèse et sans modèle. Comme le dit le journaliste Chris Anderson, « avec suffisamment de données, les chiffres parlent d'eux-mêmes ». Les données prennent le pas sur les hypothèses. 

    Ou bien encore, sans que cela soit contradictoire avec la précédente interprétation, si Boucles d'Or s'enfuit, c'est qu'elle est punie pour sa désinvolture : elle s’est assoupie en oubliant de conserver quelque part dans un coin de sa mémoire la somme des données d’expérience accumulées.

    Mais cette dernière hypothèse est infirmée par le fait que l’histoire de Boucles d’Or a perduré à travers le temps. Il faut donc supposer que, après s’être enfuie dans les bois, Boucles d’Or a rencontré un conteur qui a gardé trace de son expérience. C’est grâce au récit de ce conteur, que la description de l’expérience de Boucle d’Or et les données sous-jacentes non seulement ne se sont pas perdues, mais ont été disséminées, partagées et finalement réutilisées, comme je viens de le faire. Le conteur/compteur, c’est le bibliothécaire.

    (1) Version d'Annelore Parot

    "Les Regrets" de Cédric Kahn ou l'amour au temps de l'hyperconnexion

    15 mai 2015 à 16:25
    A quoi ressemblent une relation ou une rupture amoureuses à l'ère de l'hyperconnexion ? Le numérique, en tant qu'ensemble d'hyperliens ou d'objets connectés, permet-il de consolider l'union ou de conjurer la séparation? Telles sont les questions passionnantes posées par le film "Les Regrets" de Cédric Kahn (2009).





    Certes, dans le film, les protagonistes ne sont pas équipés de téléphones de dernière génération. Pas de smartphones, mais des téléphones filaires parfois antiques, ou de simples téléphones mobiles permettant tout au plus... de téléphoner et d'envoyer des SMS. Il n'en reste pas moins que les téléphones jouent un rôle tellement important dans l'action du film, qu'ils apparaissent comme la métonymie de nos relations à l'heure de l'hyperconnexion : la capacité que permettent les outils numériques de joindre et de garder contact avec n'importe qui à toute heure du jour ou de la nuit (même dans une chambre d'hôpital aux côtés d'une mère agonisante).

    Dès la scène de la rencontre, le téléphone fait son entrée. Quinze ans après leur rupture, lorsque Mathieu (Yvan Attal) revoit Maya (Valeria Bruni-Tedeschi) dans la rue, elle est absorbée dans une conversation téléphonique et ne le voit pas immédiatement. Scène fugitive qui pourrait illustrer l'idée souvent rebattue selon laquelle les technologies coupent leurs adeptes du contact de la "vie réelle".

    Mais à l'inverse, d'autres événements montrent que le téléphone permet de créer de nouvelles connexions ou de maintenir des liens. C'est lui qui permet à Maya de renouer contact avec Mathieu retourné pour quelques jours dans la maison de sa mère. C'est lui qui permettra à Maya de joindre Mathieu au café dans lequel ils s'étaient donné rendez-vous, pour s'excuser de son retard et lui proposer de se retrouver chez elle, dans une ferme isolée. On apprendra plus tard qu'une situation assez semblable avait conduit à la séparation des amants, quinze ans plus tôt  : Mathieu avait attendu Maya deux heures dans un bar, et ne la voyant pas venir avait décidé que c'était la fin de leur relation. Le téléphone a donc permis d'éviter que ne se reproduise le trauma initial, de bloquer le retour du Même.

    La scène de séparation à la gare est l'une des plus belles scènes du film. Sur le quai, Maya fait ses adieux définitifs à Mathieu. Elle doit partir en Amérique du Sud avec sa fille et son compagnon. A peine le train a-t-il démarré, Mathieu envoie un SMS. "As-tu des regrets ?" demande-t-il. Maya répond par un autre SMS : "Je n'ai que des regrets". Les scènes de séparation sur un quai de gare sont devenues un cliché cinématographique. Mais l’immixtion du téléphone dans la scène permet de revisiter le motif éculé. Le téléphone permet de pointer la contradiction du sentiment amoureux : "nous nous séparons même si je n'ai que des regrets". Mais ce que nous dit aussi cette scène, c'est que le téléphone permet de maintenir un lien entre les amants au moment-même où la rupture est prononcée. C'est ce que les linguistes appellent une contradiction performative, c'est-à-dire "lorsqu'on agit d'une manière qui dément les propos que l'on tient au moment où l'on agit". Le téléphone permet également d'exprimer par des mots le "off" de la séparation. Les amants désunis échangent en temps réel sur la façon dont ils vivent les choses de l'intérieur. L'intime devient "extime", la séparation est en même temps une communion. 

    On pourrait encore multiplier les exemples. Ou bien chercher ailleurs des contre-exemples. D'une certaine manière, le film de Jérome Bonnell "Le temps de l'aventure" (2013) se présente comme le double inversé du film de Cédric Kahn. Pour Alix Aubane (Emmanuelle Devos), "l'aventure" commence lorsqu'elle oublie le chargeur de batterie de son téléphone dans sa chambre d'hôtel. Il lui reste les cabines téléphoniques pour contacter son compagnon, mais celui-ci est injoignable. C'est justement cette rupture des télécommunications qui ouvre dans la vie d'Alix la possibilité d'une nouvelle rencontre : celle d'un inconnu entraperçu dans un train (Doug, interprété par Gabriel Byrne). Le scénario du film de Bonnell semble fonctionner à partir d'une idée simple: l'amour trouve sa possibilité dans un lâcher prise avec le quotidien, quand les liens sont distendus. 

    Le film de Cédric Kahn explore la dimension inverse : que se passe-t-il lorsqu'il est toujours possible de garder contact avec l'autre, lorsque l'autre est toujours immédiatement "joignable"? Difficile de dire si, au final, le téléphone agit comme un adjuvant efficace pour prémunir les amants de la rupture, ou si, au contraire il catalyse la désagrégation perpétuelle du couple. Mathieu et Maya vont de ruptures en réconciliations, de réconciliations en ruptures, et la fin ouverte ne donne aucune réponse. A moins que le film de Cédric Kahn n'arrive à cette conclusion un peu amère: les moyens de communication permettraient, pour parler comme Guy Debord, de "réunir le séparé en tant que séparé"...

    Ironie de l'histoire: le chanteur Philippe Katerine, qui fait partie du casting du film, devait signer quelques années plus tard, en 2012, une chanson hilarante sur la vie contemporaine d'un "accro" du smartphone :



    Régression du partage

    11 mai 2015 à 00:20
    [Traduction d'un billet publié le 7 mai par Kevin Smith, Directeur de l'Office of Copyright and Scholarly Communication de la Duke University sur le blog Scholarly Communications@Duke]




    "L'annonce faite par Elsevier à propos de sa nouvelle politique en matière de droit d'auteur, est un chef-d'oeuvre de double langage : tout en proclamant que la société est en train de "lâcher les brides à la puissance de partage", elle immobilise en fait le partage en lui ajoutant autant de brides que possible. Il s'agit d'un recul de l'open access et il est important d'appeler les choses par leur nom.

    Pour rappeler le contexte, depuis 2004 Elsevier a autorisé les auteurs à auto-archiver sans délai la version finale acceptée de leur manuscrit dans un dépôt institutionnel. En 2012, Elsevier a tenté d'ajouter une mesure stupide et digne de tomber immédiatement dans les oubliettes, pour punir les institutions qui ont adopté une politique de libre accès : l'éditeur a prétendu révoquer les droits d'auto-archivage des auteurs de ces établissements. Ce fut un effort vain pour saper les politiques d'open access. Clairement, Elsevier espérait que ses sanctions décourageraient l'adoption de telles politiques. Cela n'a pas été le cas. Les auteurs académiques ont continué à plébisciter la voie verte en tant que politique par défaut pour la diffusion du savoir. En seulement une semaine, à la fin du mois dernier, les Universités de Caroline du Nord, de Chapel Hill, de Penn State, et de Dartmouth ont toutes adopté de telles politiques.

    Pour tenter de recoller à la réalité, Elsevier a annoncé la semaine dernière qu'il faisait disparaître sa restriction punitive qui s'appliquait uniquement aux auteurs dont les institutions s'étaient montrées suffisamment téméraires pour soutenir l'open access. L'éditeur qualifie maintenant cette politique de «complexe» - elle était juste ambiguë et inapplicable - et affirme qu'il va «simplifier» les cas de figure pour les auteurs publiant chez Elsevier. En réalité, l'éditeur est tout simplement en train de punir n'importe quel auteur qui serait assez fou pour publier selon les termes de cette nouvelle licence.

    Deux principales caractéristiques de cette régression en termes d'ouverture doivent être soulignées. Premièrement, Elsevier impose un embargo d'au moins un an sur tout auto-archivage de la version finale auteur, et ces embargos peuvent aller jusqu'à quatre ans. Deuxièmement, lorsque la durée s'est finalement écoulée et qu'un auteur peut rendre son propre travail disponible par le biais d'un dépôt institutionnel, Elsevier dicte maintenant comment cet accès doit être contrôlé, imposant la forme la plus restrictive de la licence Creative Commons, la licence CC-BY-NC-ND pour tout dépôt en green open access.

    Ces embargos constituent la caractéristique principale de cette nouvelle politique, et ils sont à la fois compliqués et draconiens. Loin de rendre la vie plus simple pour les auteurs, ces derniers doivent maintenant naviguer à travers plusieurs pages web pour enfin trouver la liste des différentes périodes d'embargo. La liste elle-même fait 50 pages, puisque chaque revue a son propre embargo, et surtout, on constate à l'évidence un effort pour étendre considérablement la durée par défaut. De nombreuses revues américaines et européennes ont des embargos de 24, 36 et même 48 mois. Il y a beaucoup d'embargos de 12 mois, mais on peut supposer que ce délai est imposé parce que ces journaux sont déposés dans PubMed Central, où 12 mois est la durée maximale d'embargo autorisée. Maintenant cette durée maximale d'embargo s'impose également aux auteurs en tant qu'individus. Pour beaucoup d'autres revues, un embargo encore plus long, qui n'est absolument pas étayé par la preuve qu'il serait nécessaire pour maintenir la viabilité des journaux, est désormais la règle. Et il y a une poignée de journaux, tous d'Amérique Latine, d'Afrique et du Moyen-Orient, d'après ce que je peux voir, où aucun embargo n'est imposé; je me demande si c'est le résultat de règles spécifiques à chaque pays ou tout simplement un calcul cynique portant sur la fréquence réelle de l'auto-archivage de ces journaux.

    L'autre effort pour gérer au plus près l'auto-archivage par le biais de cette nouvelle politique, consiste à exiger que tous les auteurs qui persévèrent et qui souhaitent, après la période d'embargo, déposer leur manuscrit final dans un dépôt institutionnel, doivent apposer une clause de non-exploitation commerciale et de non-modification de leurs travaux dans la licence associée à chaque article. Ceci, bien sûr, limite encore davantage la réutilisabilité de ces articles pour le vrai partage et le progrès de la science. C'est un aspect supplémentaire qui montre que la nouvelle politique est exactement l'inverse de la façon dont Elsevier la présente ; c'est un recul par rapport au partage et un effort pour faire retourner à son point d'inertie le mouvement vers une science plus ouverte.

    La croissance rapide des politiques de libre accès dans les établissements américains et dans le monde suggère que de plus en plus de chercheurs veulent rendre leur travail aussi accessible que possible. Elsevier pousse fortement dans la direction opposée, en essayant de retarder et de limiter le partage du savoir autant qu'il le peut. Il semble clair qu'ils ont l'espoir de contrôler les conditions de ce partage, de façon, tout à la fois, à en limiter l'impact supposé sur leur modèle d'entreprise et, finalement, à le tourner si possible à leur profit. Ce dernier objectif peut être une plus grande menace pour l'open access que les détails des embargos et les licences. En tout cas, il est temps, je crois, de réfléchir à nouveau au boycott d'Elsevier, qui a été entrepris par de nombreux auteurs scientifiques il y a quelques années; avec cette nouvelle salve tirée contre les valeurs de la science ouverte, il est encore plus impossible d'imaginer un auteur un tant soit peu responsable décider de publier chez Elsevier."


    NB: pour prolonger la réflexion, voir aussi la réaction de Steven Harnad sur son blog.











    PNB-Adobe: consécration d'un "DRM mental" (mais pas que...)

    8 mai 2015 à 01:57
    C'est le 6 mai qu'a au lieu la journée internationale contre les DRM. L'occasion de revenir sur ces mesures techniques apposées à un grand nombre de fichiers de livres numériques acquis par les bibliothèques. Mais l'idée de ce billet trouve également son origine dans des discussions récentes menées avec deux représentants commerciaux de sociétés spécialisées dans la revente d'e-books.

    Le premier interlocuteur m'a présenté son offre dans le détail. Si je devais la résumer en une formule, ce serait : "DRM land". Des DRM partout, omniprésents... Un vrai enfer sur terre pour les lecteurs, en fait :
    • Chaque livre correspond en moyenne à 400 "crédits"/an renouvelables​
    • 1 crédit = 1 usager 24 h sur 1 livre
    • Les livres sont proposés soit en streaming, soit en téléchargement, sachant qu’1 téléchargement = 1 crédit et que le pdf est chronodégradable
    • Les livres ne peuvent être lus qu'avec le logiciel Adobe Digital Edition​
    • Le lecteur doit se créer un compte personnel sur Adobe Digital Edition
    • Si les 400 crédits sont épuisés, le livre est rendu "indisponible" par le logiciel 
    • 1'usager ne peut s’authentifier avec son compte Adobe que sur 6 postes maximum​
    • Le pdf téléchargé (et chronodégradable) ne peut être lu que sur l’appareil de destination initiale, ce qui signifie que si le lecteur télécharge une première fois le livre emprunté depuis un poste de la bibliothèque, il l'a dans le baba : il ne pourra plus l'ouvrir depuis son poste à la maison
    A moitié assommé et suffoqué par l'avalanche de ces conditions plus limitatives les unes que les autres de la liberté du lecteur, j'ai demandé candidement quel était le pourquoi du comment. La réponse qui m'a été donnée semblait provenir d'un discours bien rôdé et se résumait à : "C'est pour sauver l'édition française; elle fait face à une crise économique et les DRM sont le moyen de l'endiguer".

    Gavin protests
    Gavin protests. Par Karen Rustad. Mis à disposition selon les termes de la licence CC-BY 2.0. Source: Flickr

    La discussion avec le second revendeur d'e-books a été plus brève mais tout aussi instructive. Il s'agit d'un revendeur qui est en phase de démarrage d'activité et c'est pourquoi son discours n'était pas bien assuré. A ma question inquiète et fiévreuse : "Rassurez-moi, vous êtes capable de fournir des e-books en accès illimité ​si possible sans DRM, hein ?", le représentant commercial m'a répondu: "La loi nous oblige à apposer des DRM". Là, j'ai eu quelques secondes de panique : avais-je manqué le vote d'une nouvelle loi passée en douce qui rend les DRM obligatoires ? La discussion se poursuit et finalement mon interlocuteur convient que l'apposition de DRM n'est pas imposée par la loi. Elle répondrait néanmoins à la demande de bon nombre d'éditeurs français.

    Naissance d'un "DRM mental"


    Que montrent ces deux discussions? Que, depuis quelques mois, paraît comme aller de soi l'assertion selon laquelle les DRM sont nécessaires pour sauver l'édition française. A en croire ce discours, un monde sans DRM n'est plus possible.

    Et si ce discours décomplexé apparaît au grand jour, c'est ce qu'on pourrait appeler "l'effet Valois". Le 8 décembre 2014, le Ministère de la Culture a signé et a fait signer par les bibliothèques de lecture publique, les représentants des associations professionnelles et des collectivités territoriales, une liste de 12 "Recommandations pour une diffusion du livre numérique par les bibliothèques publiques". Certes, les recommandations portent des réserves sur les mesures techniques de protection :

    7. Reconnaître que les systèmes de gestion des droits numériques sont légitimes pour réguler les usages des livres numériques en bibliothèque publique, mais qu’ils ne doivent pas rendre l’accès aux œuvres moins aisé. Les systèmes de gestion des droits numériques contribuent à la protection du droit d’auteur et permettent de gérer le service de prêt numérique.Pour autant, le recours à des systèmes de gestion de droits ne doit pas rendre totalement impossibles les usages autorisés par la loi pour les bibliothèques et leur public. La conception de systèmes de gestion et de protection des droits numériques permettant une interopérabilité maximale et un accès aux œuvres le plus aisé possible doit être encouragée et leur adoption privilégiée.Les mesures techniques de protection ne sont pas l’unique système de gestion et de protection des droits numériques. D’autres types de dispositifs que ceux qui sont communément utilisés aujourd’hui dans les offres aux collectivités peuvent être adoptés s’ils garantissent un service de qualité ou permettent de l’améliorer, dans le respect du droit d’auteur.
    Il n'en reste pas moins que l'esprit général des recommandations se résume au choix de privilégier la voie contractuelle au détriment de la voie légale en matière de prêt d'e-books en bibliothèque de lecture publique. L'Etat se garde bien de légiférer, ce qui laisse le champ libre aux acteurs les plus puissants du marché de l'édition pour imposer leurs conditions aux bibliothèques. Ce qu'on pourrait résumer de la façon suivante : "pour la fixation des prix et le choix d'apposer des DRM, c'est open bar..."

    Derrière les recommandations du Ministère se profile le déploiement du projet "Prêt Numérique en Bibliothèque" (PNB) porté par la société interprofessionnelle Dilicom et adossé techniquement aux DRM développés par la société Adobe. En gestation puis en expérimentation depuis 2012, PNB est financé par le Conseil National du Livre (CNL), dont la tutelle est le Ministère de la Culture. Bien que présenté comme la solution miracle pour le prêt de livres numériques en bibliothèques, le projet PNB appelle comme on va le voir un certain nombre de critiques sérieuses...

    En soutenant financièrement le projet PNB, puis en signant les 12 recommandations pour la diffusion du livre numérique, le Ministère de la Culture a conféré aux DRM une consécration non pas légale, mais quasi-légale (d'où la confusion de mon second interlocuteur). Il a contribué à la constitution de ce qu'on peut appeler avec @Calimaq un "DRM mental". Désormais, un imaginaire collectif s'est modelé autour de la conviction que les DRM ont toute leur place en bibliothèque... puisque le principe même en a été validé par la rue de Valois.

    Est-ce un hasard ? Dans la communication officielle autour de PNB, il n'est jamais fait mention des DRM fournis par la société Adobe. Cela s'explique sans doute d'abord par la volonté d'effacer au maximum la mention des intermédiaires techniques, afin de donner au projet l'aspect plus ou moins neutre d'un programme national déconnecté de la sphère privée. Cela s'explique aussi du fait que la solution technique Adobe Digital Edition a, comme on le verra, plutôt mauvaise presse dans d'autres pays. Pour la suite du propos, dans un souci de clarté, nous parlerons non pas du projet "PNB", mais du projet "PNB-Adobe".

    Les raisons juridiques et éthiques de refuser les DRM Adobe


    Comme l'a bien montré le journaliste Nicolas Gary, en rajoutant une couche de droits sur les contenus numériques, la suite logicielle Adobe Digital Edition rend ces contenus illisibles depuis le système d'exploitation Linux. Les DRM d'Adobe ont donc pour effet de convertir les fichiers EPUB en un format propriétaire.
    Le constat de fait se heurte à la lecture à la lettre du texte le plus récent encadrant le contrat d'édition. L'Arrêté du 10 décembre 2014 pris en application de l'article L. 132-17-8 du code de la propriété intellectuelle et portant extension de l'accord du 1er décembre 2014 entre le Conseil permanent des écrivains et le Syndicat national de l'édition sur le contrat d'édition dans le secteur du livre précise les conditions de l'exploitation permanente et suivie de l'édition imprimée et numérique de l'œuvre. Pour l'édition numérique, l'éditeur est tenu de :
    • La rendre accessible dans un format technique exploitable en tenant compte des formats usuels du marché et de leur évolution, et dans au moins un format non propriétaire.
    • La rendre accessible à la vente, dans un format numérique non propriétaire, sur un ou plusieurs sites en ligne, selon le modèle commercial en vigueur dans le secteur éditorial considéré.
    Apposer des DRM Adobe sur un livre numérique revient à exclure la possibilité de proposer ce contenu "dans un format non propriétaire". Les DRM d'Adobe sont donc non conformes à la législation la plus récente.

    Et c'est pas fini...

    Sauf dans le cas où l'on est Ministre de l'Intérieur et que l'on fait des déclarations ahurissantes pour dire que la vie privée n'est pas une liberté fondamentale, (le ministre devrait refaire des études de droit : aucun étudiant de droit de fin de première année de licence n'oserait proférer une pareille ineptie...), il est du devoir de tout citoyen de s'inquiéter quand une mesure technique est de nature à porter atteinte à la vie privée. Or un scandale récent a démontré que le DRM d'Adobe est parfaitement invasif dans ce domaine: le DRM permet la collecte non seulement de données sur le livre que le lecteur est en train de lire, mais sur l'ensemble des livres stockés sur son terminal. Une collecte d'autant plus inquiétante que la firme Adobe a été victime par le passé d'attaques informatiques visant notamment à subtiliser les données personnelles des lecteurs.

    Et c'est pas fini...


    Les raisons pratiques de refuser PNB-Adobe


    La firme américaine Adobe est familière des pratiques qui consistent à procéder à des mises à jour inopinées de son système logiciel sans se préoccuper des problèmes de compatibilité pour ses clients, éditeurs ou lecteurs. Alertées par leurs lecteurs, les éditions Gallimard, directement touchées par une mise à jour survenue en janvier 2014, n'ont pas eu de mots assez durs pour qualifier ces "pratiques autocratiques déplorables".

    Non seulement les mises à jour auxquelles Adobe procède sans crier gare menacent de rendre les e-books illisibles du jour au lendemain, mais, même dans le cas général où aucun problème technique ne bloque l'accès du lecteur aux fichiers acquis, le maniement du logiciel Adobe Digital Edition s'avère complexe. D'après une étude récente menée auprès d'usagers par les experts de la société "tea" (the ebook alternative):
    Le constat est sans appel : aucun utilisateur ne réussira à créer son compte Adobe sans aide. Voici les statistiques liées aux manipulations réalisées pendant l’étude et à l’utilisation d’un compte Adobe :

    26% ne comprennent pas la différence avec le compte libraire ;

    22% pensent qu’il s’agit d’une sorte de Reader ;

    30% ne comprennent pas et ne font rien ;

    18% font ce qui est nécessaire sans comprendre (et parviennent à créer leur compte avec aide)

    4% connaissent déjà (et parviennent à créer leur compte avec aide)

    0% arrivent à créer leur compte ADOBE sans aide


    Et c'est pas fini...

    Les raisons économiques de refuser PNB - Adobe


    Il suffit de se reporter à l'analyse rendue par RéseauCAREL en février 2015 pour se convaincre que le modèle financier promet de mauvaises surprises pour les bibliothèques :

    La péremption des jetons [gérée par le DRM Adobe Digital Edition] joue ici aussi un très mauvais rôle, ce critère augmentant encore le surcoût du numérique par rapport au titre papier puisque pour beaucoup de titres, ce ne sera pas par le nombre de jetons du lot qu’il faudra diviser le prix du titre pour obtenir le coût unitaire d’un prêt ; un titre prêtable 30 fois par exemple pourrait très bien, à cause de cette contrainte temporelle, n’être dans les faits prêté que 10 ou 15 fois dans le temps imparti par la licence et donc le coût réel du prêt unitaire pour ce titre sera encore multiplié par 2 ou 3 !

    Et c'est pas fini...

    Le collectif SavoirsCom1 a récemment pris sa calculette et a fait les comptes: si les bibliothèques desservant des villes de 40 000 à 100 000 habitants n'achetaient en version numérique que les nouveautés qu'elles achètent déjà en format papier, il leur en coûterait entre 490 000 € et près de 1,3 millions d'€. Voilà une nouvelle qui tombe mal au moment où l'Etat baisse considérablement ses dotations à destination des collectivités territoriales...



    Un monde sans DRM est possible...


    Pour finir, rappelons qu'un monde sans DRM est possible. Sur son blog, Hervé Bienvault dénombre au 15 avril 2015, 166 éditeurs français sans DRM, auxquels il faut ajouter 80 éditeurs pure players.
    En Allemagne, le Börsenverein, l'équivalent de ce qui résulterait de la fusion en France de notre Syndicat National des Editeurs et de notre Syndicat de la Librairie Française, a indiqué en février 2015 son souhait d'abandon des DRM. Plus récemment encore, DuMont, l'une des plus grandes maisons d'édition indépendantes allemandes, a annoncé sa décision d'abandonner les DRM à l'automne 2015 et de les remplacer par des watermarks, tatoutages numériques qui ne présentent pas pour les lecteurs les mêmes difficultés techniques que les DRM.
    Autre possibilité : le rapport remis à la Commission européenne par la députée Julia Reda propose de rendre obligatoire la communication du code source ou des spécifications d’interopérabilité des DRM, de façon à offrir la possibilité de vérifier que les DRM ne sont pas un cheval de Troie permettant d'entrer dans l'intimité du lecteur, et qu'ils ne bloquent pas l'utilisation du contenu selon le terminal utilisé.



    Données sans licence ne sont que ruine de la science

    20 février 2015 à 23:41
    Le 16 janvier dernier, l'ADBS (association des professionnels de l'information et de la documentation) a consacré une journée d'étude à la gestion des données de la recherche, journée assez passionnante du fait de la diversité des expériences de terrain et des domaines scientifiques envisagés. J'en retiens notamment la première intervention, qui présentait les grandes lignes d'un "Data Management Plan" multi-disciplinaire, ayant vocation à s'appliquer à l'échelle de l'ensemble des établissements de l'enseignement supérieur rattachés à la Communauté d'Universités et d'Etablissements Sorbonne Paris Cité. C'est en soi une première en France, et il est très probable que d'autres établissements universitaires s'engageront dans le sillon tracé par la COMUE SPC. Vous pouvez retrouver l'ensemble des présentations sur le site de l'InVisu.


    De l'enjeu des licences en matière d'open data


    Durant la journée, il a beaucoup été question de stockage matériel des données, condition concrète de leur conservation et de leur mise à disposition, et de l'élaboration de politiques de coopération avec les laboratoires afin de collecter et de conserver des données normées dans des formats interopérables. Cependant, la question de la réutilisation, plus précisément des conditions juridiques garantissant la pleine réutilisabilité de ces données, a été assez peu abordée. Non pas que les questions juridiques aient été totalement évacuées des présentations; mais elles ont surtout été abordées dans le cas particulier des silos de données semi-fermés, dont l'accès est restreint à un certain type de population. Telle BeQuali, la Banque d'Enquêtes Qualitatives développée par le Centre de données socio-politiques UMS 828 IEP Paris-CNRS, et destinée à mettre à disposition des enquêtes en Sciences Humaines et Sociales: pour des raisons touchant essentiellement à la protection des données personnelles, l'accès de cette base est réservé aux enseignants-chercheurs et aux étudiants justifiant d'un projet de recherche. La mise en ligne de BeQuali a nécessité deux ans de réflexion sur la délimitation en amont d'un cadre juridique permettant un accès contrôlé aux données.

    Toujours est-il qu'il manquait une mise en perspective sur le choix des licences applicables aux données de la recherche lorsqu'elles sont destinées à être librement réexposées et réutilisées. La question de l'open data et des licences types idoines est restée globalement absente des présentations.

    On sait que les risques liés à la non-apposition d'une licence à un jeu de données sont multiples. Qu'il s'agisse de la captation des données de la recherche par des réseaux sociaux académiques, susceptibles de revendiquer la propriété des données en vertu des Conditions Générales d'Utilisation que les chercheurs signent au moment de s'inscrire sur leurs sites. Qu'il s'agisse de la monétisation de l'accès aux données de la recherche par le biais de la republication sur des plateformes dédiées mises à disposition par des éditeurs scientifiques. Ou qu'il s'agisse de la privatisation des données de la recherche dans le cadre de contrats de recherche signés entre un établissement universitaire et une entreprise privée, même dans le cas où le financement est majoritairement issu de fonds publics.

    Le loup et agneau G-F Townsend 1867 GB
    Le loup et l'agneau. Par G-F Townsend, 1867, sur Wikimedia Commons. Sans licence, les données seront à la merci du premier prédateur venu qui se les appropriera "sans autre forme de procès"...

    L'enjeu des licences ne s'appréhende pas seulement en creux, mais peut être aussi défini positivement. Une licence spécifiant les conditions de réutilisation des données de la recherche permet de répondre à trois objectifs:

    • impératif épistémologique de réutilisation - La science se construit par la réutilisation, la confrontation et la critique des travaux précédents. L'exploitation et la réutilisation des données produites jouent dans la méthode scientifique un rôle grandissant
    • impératif technique d'intégration - A l'heure du Big Data, les volumes considérables de données à entrecroiser font de l'interopérabilité des données une nécessité.
    • impératif juridique de simplification - "La forêt des termes et conditions autour des données rend l'intégration difficile à réaliser légalement dans de nombreux cas". (Protocol for Implementing Open Access Data de la fondation Science Commons
    Ceci ainsi posé, quelles sont les principales licences recommandées en matière d'open data appliqué aux données de la recherche ?


    CC0 et PDDL, les deux principales licences standard pour l'ouverture des données de la recherche


    De nombreux entrepôts de données de recherche internationaux ont fait le choix de licences ouvertes standard.

    Le cas de Dryad, entrepôt spécialisé dans la biologie de l'évolution et l'écologie est intéressant. Les concepteurs de Dryad ont fait le choix de la licence CC0, licence qui aménage le reversement des données dans le "domaine public vivant". Pourquoi le choix de la licence CC0, qui implique la renonciation à tous droits d'auteur y compris le droit à la paternité, plutôt que le choix de la licence CC-BY ? Parce que la licence CC0 a été conçue pour éviter les obstacles juridiques liés à la revendication de droits d'auteurs. Pour autant, comme l'explique très bien l'équipe de Dryad sur son blog [1], la licence CC0 ne dispense pas en pratique les chercheurs de citer leurs sources: cela fait partie des normes universitaires véhiculées et appliquées au travers de processus tels que l'examen par les pairs. Cet état de fait est rappelé dans la FAQ des Panton Principles for Open Data in Science de l'Open Knowledge Foundation :
    Q11: What are community norms and why are they important?
    A given community has a set way of working, an intrinsic methodology of activities, processes and working practices for which a consensus exists for the appropriate way in which these practices are carried out. For example, in the scholarly research community the act of citation is a commonly held community norm when reusing another community member’s work.
    Community norms can be a much more effective way of encouraging positive behaviour, such as citation, than applying licenses. A well functioning community supports its members in their application of norms, whereas licences can only be enforced through court action and thus invite people to ignore them when they are confident that this is unlikely.
    Loin de céder le pas aux licences, les pratiques érigées en normes par la communauté ont une efficacité plus grande que les clauses contractuelles.

    Prenons un cas différent. Les concepteurs de Pangaea, entrepôt de données allemand spécialisé en sciences marines, ont fait le choix de déposer les données sous licence Creative Commons Attribution (CC-BY). Cependant, on ne peut que s'interroger sur la pertinence de ce choix qui va à l'encontre des préconisations de la fondation Science Commons énoncées dans le Protocol for Implementing Open Access Data:
    “5.3 Attribution stacking

    Last, there is a problem of cascading attribution if attribution is required as part of a license approach. In a world of database integration and federation, attribution can easily cascade into a burden for scientists if a category error is made. Would a scientist need to attribute 40,000 data depositors in the event of a query across 40,000 data sets? How does this relate to the evolved norms of citation within a discipline, and does the attribution requirement indeed conflict with accepted norms in some disciplines? Indeed, failing to give attribution to all 40,000 sources could be the basis for a copyright infringement suit at worst, and at best, imposes a significant transaction cost on the scientist using the data.”
    En effet, dans le cadre d'une fouille de données réalisée à partir d'un nombre conséquent de bases de données, il devient proprement irréaliste de citer chaque producteur de jeu de données. La Licence CC-BY s'avère donc particulièrement  inadaptée.

    Hormis la licence CC0, quelles autres licences sont appropriées pour garantir l'ouverture des données de la recherche ? Il existe déjà un grand nombre d'autres licences standard orientées open data. Des licences nationales, telle la Licence Ouverte de la mission Etalab. Ou bien les trois licences Open Data Commons de l'Open Knowledge Foundation : la licence ODbL (Open Database License), la licence ODC-By (Open Data Commons Attribution License) et la licence PDDL (Public Domain Dedication and Licence).

    Cependant, parmi toutes ces licences, seule la dernière permet, tout comme la licence CC0, de reverser les données de la recherche dans le domaine public. C'est pourquoi l'OKFN recommande fortement l'emploi de l'une ou l'autre licence pour les données de la recherche (point 4 des Principes de Panton) :
    "Furthermore, in science it is STRONGLY recommended that data, especially where publicly funded, be explicitly placed in the public domain via the use of the Public Domain Dedication and Licence or Creative Commons Zero Waiver. This is in keeping with the public funding of much scientific research and the general ethos of sharing and re-use within the scientific community. Explicit dedication of data underlying published science into the public domain via PDDL or CCZero is strongly recommended and ensures compliance with both the Science Commons Protocol for Implementing Open Access Data and the Open Knowledge/Data Definition."
    D'après le Datahub de l'OKFN, il existe actuellement dans le monde 190 jeux de données sous licence PDDL et 441 jeux de données sous licence CC0.

    CGU ou licence open standard ?


    L'une des questions que je me suis posées dans un précédent billet est la suivante: peut-on mettre à disposition des données de la recherche sans licence standard? A priori, on peut faire l'économie d'une licence type si l'on spécifie des conditions générales d'utilisation qui déterminent les conditions de réutilisation des données entreposées. Voici quelques exemples de CGU remplissant cette fonction : 
    • GenBank: "NCBI places no restrictions on the use or distribution of the GenBank data. However, some submitters may claim patent, copyright, or other intellectual property rights in all or a portion of the data they have submitted."
    "1. The INSD has a uniform policy of free and unrestricted access to all of the data records their databases contain. Scientists worldwide can access these records to plan experiments or publish any analysis or critique. Appropriate credit is given by citing the original submission, following the practices of scientists utilizing published scientific literature.
    2. The INSD will not attach statements to records that restrict access to the data, limit the use of the information in these records, or prohibit certain types of publications based on these records. Specifically, no use restrictions or licensing requirements will be included in any sequence data records, and no restrictions or licensing fees will be placed on the redistribution or use of the database by any party."
    "Information that is created by or for the US government on this site is within the public domain. Public domain information on the National Library of Medicine (NLM) Web pages may be freely distributed and copied. However, it is requested that in any subsequent use of this work, NLM be given appropriate acknowledgment."
    "Unless otherwise noted, publications and webpages on this site were created for the U.S. Department of Energy Human Genome Project program and are in the public domain. Permission to use these documents is not needed, but credit the U.S. Department of Energy Human Genome Project and provide the URL http://www.ornl.gov/hgmis when using them. Materials provided by third parties are identified as such and not available for free use."
    Ces quatre exemples peuvent laisser à penser que  l'apposition d'une licence à un jeu de données ne procède d'aucune nécessité. Mais les cas cités concernent des bases en génomique de notoriété mondiale. Les règles de réutilisation sont connues et appliquées par la communauté scientifique depuis plusieurs années, voire plusieurs décennies. Elles ont été élaborées à l'heure où la fouille de données en était à ses balbutiements.

    A l'heure où le Big Data entraîne une révolution épistémologique dont on n'a pas peut-être pas encore saisi toute la portée, à l'heure où les techniques d'extraction automatisée de données permettent d'interroger simultanément une quantité infinie de sources, à l'heure où la production de jeux de données, devenue partie intégrante de la démarche scientifique, connaît une augmentation exponentielle, il paraît nécessaire de faire le choix de licences standard de façon à faciliter la réutilisation de ces jeux de données.

    En définitive, il en va ni plus ni moins de la visibilité internationale des résultats de la recherche française : sans réutilisation, point de rayonnement... Les remarques du rapport Trojette sur l'ouverture des données publiques valent aussi pour les données de la recherche:
    "L’administration devrait privilégier le recours à des licences types auxquelles d’éventuelles licences spécifiques seraient automatiquement compatibles. Ces licences types pourraient avoir l’avantage d’une formulation compatible avec les standards internationaux–à la définition desquels la France a un rôle à jouer –et faire l’objet d’une traduction pour accroître l’attractivité des plateformes hors de France."

    ***

    Last but not least, en laissant les données de la recherche dans une zone grise d'indétermination, escomptant par là même une plus grande souplesse d'adaptation à la diversité des cas d'espèce, autrement dit si aucune licence ou condition générale d'utilisation ne vient spécifier les conditions de réutilisation des données,  il se pourrait que l'effet obtenu soit exactement l'inverse de celui escompté. Si l'on se rapporte à un arrêt récent et surprenant de la Cour de Justice de l'Union Européenne, une telle indétermination pourrait se traduire, par un verrouillage centralisé en lieu et place de l'ouverture et de la dissémination des données...





    [1] Référence glanée dans le mémoire très documenté de Rémi Gaillard, "De l’Open data à l’Open research data : quelle(s) politique(s) pour les données de recherche ?", ENSSIB, janvier 2014. 





    De l'article aux données: essai de clarification

    21 octobre 2014 à 14:25

    Le 15 octobre dernier, lors d'une journée organisée par l'Académie des Sciences de Toulouse et intitulée "Démarches scientifiques: quand le numérique bouleverse la donne", les propos des divers intervenants se sont principalement focalisés sur la question de l'émergence d'une nouvelle méthodologie scientifique, basée non plus sur les hypothèses, mais sur les données.

    Dans un remarquable exposé, Christine Gaspin (INRA) a expliqué comment la génomique est depuis longtemps basée sur l'exploitation de gigantesques banques de données et comment l'informaticien est amené à occuper une place nouvelle au sein des équipes de chercheurs en sciences du vivant.

    Romain Jullien (Muséum d'Histoire Naturelle) a montré comment fonctionne concrètement une science dite participative, qui fait appel à la masse considérable d'observations collectées sur le terrain par des contributeurs bénévoles. Un programme collaboratif tel que Vigie Nature permet d'assurer un meilleur suivi de la biodiversité

    Philippe Solal, épistémologue, a exposé les implications de la controverse scientifique suscitée par la parution en 2011 dans la revue Wired, de l'article intitulé "Le déluge de données va rendre la méthode scientifique obsolète". Pour son auteur, Chris Anderson, l'avènement de la science des données vient sonner le glas de l'ancienne démarche scientifique. La méthodologie de cette science 2.0 pourrait se résumer par la formule : "les chiffres parlent d'eux-mêmes". Une science data-driven vient se substituer à une science hypothesis-driven. On ne parle plus de scientist mais de data-scientist.

    Mon intervention a consisté à donner une perspective juridique en insistant sur la nécessité de maintenir une science pleinement ouverte. Elle reprenait le contenu de deux billets, parus l'un sur le site Archives Ouvertes, l'autre sur le site de SavoirsCom1.


    Rétrospectivement, il m'apparaît nécessaire de préciser certains termes. L'expression "résultats de la recherche" recouvre deux réalités hétérogènes : les articles scientifiques et les données. Ces dernières proviennent elles-mêmes de deux types de sources. Or ces distinctions ne sont pas neutres au regard des mécanismes juridiques enclenchés.



    Article/données


    Quand on parle de « résultats de la recherche », on reste à un niveau très général qui ne permet pas d'appréhender certains types de traitements spécifiques de l'information, telle la fouille de données. L'expression "résultats de la recherche" recouvre au moins deux notions: l’article et les données.
    On pourrait retenir pour les données la définition proposée par l’OCDE [1]
    Dans le cadre de ces Principes et Lignes directrices, les «données de la recherche» sont définies comme des enregistrements factuels (chiffres, textes, images et sons), qui sont utilisés comme sources principales pour la recherche scientifique et sont généralement reconnus par la communauté scientifique comme nécessaires pour valider des résultats de recherche. Un ensemble de données de recherche constitue une représentation systématique et partielle du sujet faisant l’objet de la recherche

    Il faudrait distinguer au moins deux types de données : les données primaires issues de la collecte systématique de mesures permettant d'évaluer un phénomène physique quelconque et les données secondaires issues du dépouillement d'une base préexistante, qu'elle soit constituée de chiffres, de texte, de sons ou d'images (cas du produit de la fouille de données appliquée à une plate-forme de revues scientifiques ou à Google...). Ainsi le Text Mining produit des données secondaires, car il consiste en un procédé qui transforme un corpus de textes préexistant en un ensemble de données analysables.

    A y regarder de plus près, en un certain sens, les données primaires sont elles-mêmes secondes, dans la mesure où elles sont souvent dérivées, par le biais d'instruments, d'une série de mesures de phénomènes physiques. Mais disons que la distinction entre données primaires et secondaires reste une approximation acceptable.

     On entendra par "article", un texte qui expose et explicite les résultats issus d'une expérience ou produits par l'exploitation de jeux de données.



    Double régime juridique


    La distinction article/données est primordiale. Car elle conditionne l'application de licences différentes

    A) Articles

    Comment garantir le droit au libre accès ainsi qu'à la libre réutilisation des articles scientifiques ? Une licence de type CC-BY (Creative Commons - Mention de la Paternité) semble parfaitement convenir. Non seulement elle garantit le respect de l'une des composantes du droit moral, le droit à la paternité, mais elle garantit aussi la réutilisation large des articles scientifiques. C'est cette licence qui est préconisée par la Déclaration BOAI de 2012 :

    2.1 Nous recommandons la licence CC-BY, ou toute autre licence équivalente, comme licence optimale pour la publication, la distribution, l'usage et la réutilisation des travaux universitaires.
    • Les archives ouvertes dépendent de permissions de tiers, comme les auteurs ou les éditeurs, et sont donc rarement en position d'exiger des licences libres. Cependant, les décideurs en position d'imposer le dépôt dans les archives devraient exiger des licences ouvertes, de préférence CC-BY, chaque fois qu'ils le peuvent.
    • Les revues en libre accès sont toujours en position d'exiger des licences ouvertes ; pour autant un grand nombre d'entre elles ne se prévalent pas de cette possibilité. Nous recommandons CC-BY pour toutes les revues en libre accès.

    B) Données


    Pour les données, les choses sont un peu différentes. Par nature, les données forment d'emblée une masse et c'est donc d'abord comme éléments intégrés à un corpus qu'elles doivent être appréhendées juridiquement.

    1) Données primaires

    Il existe actuellement, comme on le verra plus bas, d'immenses banques de données internationales qui ne sont placées sous aucune licence juridique particulière. Il est toutefois précisé dans les conditions générales d'utilisation des sites qui les hébergent qu'aucune restriction d'usage n'est imposée.

    Si nécessité se fait jour d'apposer une licence à ces corpus, le raisonnement sera le suivant. Ou bien l'on considère ce corpus comme un tout et c'est le droit des bases de données qui s'applique. Ou bien l'on ne s'intéresse qu'à une portion de la base de données, et dans ce cas il peut paraître opportun de s'interroger sur la nécessité d'attribuer un statut juridique à chacune des données prises isolément.
    Appliquée aux bases de données, une licence de type CC-0 (Domaine public) ou ODBL (Open Data Base Licence) semble parfaitement convenir. Elle garantit une pleine réutilisabilité des données. Pour les données en elles-mêmes, la licence CC-0 semble convenir.

    L'intérêt de ces licences est de garantir la poursuite des objectifs énoncés dans l'article 111-2 du Code de la Recherche [2] :
    La recherche publique a pour objectifs :

    a) Le développement et le progrès de la recherche dans tous les domaines de la connaissance;
    b) La valorisation des résultats de la recherche au service de la société, qui s'appuie sur l'innovation et le transfert de technologie;
    c) Le partage et la diffusion des connaissances scientifiques en donnant priorité aux formats libres d'accès ;
    c bis) Le développement d'une capacité d'expertise et d'appui aux associations et fondations, reconnues d'utilité publique, et aux politiques publiques menées pour répondre aux défis sociétaux, aux besoins sociaux, économiques et du développement durable;
    d) La formation à la recherche et par la recherche;
    e) L'organisation de l'accès libre aux données scientifiques.
    .... "et leur réutilisation" a-t-on envie d'ajouter au petit e). Précisons que, contrairement à ce que l'on entend parfois, la source des données n'est pas oblitérée en cas d'apposition d'une licence CC0. Les métadonnées permettent en effet de mentionner la source: les données ne sont pas laissées orphelines.

    2) Données secondaires

    Quel doit être le statut juridique des données issues du Text and Data Mining et le statut de l'acte de fouille de données en lui-même ? Des discussions au niveau européen sont en cours. En l'absence de la consécration d'une exception en faveur du Text and Data Mining, les données extraites des bases de données ne sont pas d'emblée libres d'usage. Comme elles sont incorporées à un corpus sur lequel le producteur de la base de données détient un droit de propriété intellectuelle, leur collecte dépend des licences concédées par l'éditeur.



    Information/expression


    Le droit d'auteur ne protège pas les idées ("les idées sont de libre parcours"), à moins que leur expression ne soit originale. Une donnée ou un article sont-ils suffisamment originaux au point de déclencher la protection du droit d'auteur?


    A) Données

    Cela va de soi : les données brutes ou primaires ne portent pas la marque d'une originalité. Quant aux données secondaires, elles sont le produit d'un usage qu'on pourrait qualifier, comme le propose le rapport Hargreaves de mai 2014 sur le Text and Data Mining, de "non expressif". Il faut entendre par non-expressif, un acte de reproduction dépourvu d’originalité, notamment s’il est issu d'un traitement automatisé. «Le législateur pourrait adopter une démarche normative et ne reconnaître une protection [au nom du droit de reproduction de la Propriété Intellectuelle] que pour les actes de reproduction ou d’extraction qui comportent effectivement un acte d’exploitation expressif». Cette préconisation est en phase avec la jurisprudence américaine, qui a consacré depuis longtemps la dichotomie idée/expression (jurisprudence Baker vs Selden, codifiée dans le §102(b) du Copyright Act of 1976).

    B) Articles

    On peut s'interroger sur le statut des articles scientifiques: sont-ils le produit d'un usage expressif ou non? Pour ma part, je serais tenté de répondre que, au contraire d'un jeu de données, un article porte toujours la marque subjective de son ou de ses rédacteurs. C'est vrai au premier chef des articles en sciences humaines et sociales, mais on pourrait dire que, même dans les sciences dites "dures", la rédaction d'un article laisse toujours affleurer la subjectivité du locuteur.

    Est-ce à dire qu'il faut considérer les articles scientifiques comme des œuvres de l'esprit? Est-ce cela que l'on veut : une production scientifique intégralement assujettie au régime du Copyright "Tous droits réservés", bref une "science propriétaire"? Ne veut-on pas au contraire que les articles soient librement partagés et réutilisables, conformément aux préconisations de la déclaration BOAI de 2012? Voilà pourquoi la Proposition de loi Attard proposait d'intégrer dans le domaine public "les idées, procédures, procédés, systèmes, méthodes d’opération, concepts, principes ou découvertes, quelle que soit la forme dans laquelle ils sont décrits, expliqués, illustrés ou intégrés à une œuvre"

    Dans le même ordre d'idées, le collectif SavoirsCom1 en appelle à la révision de la loi DADVSI de 2006. Transposition en droit français de la directive européenne 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information, cette loi confère au chercheur «un droit de propriété incorporelle exclusif et opposable à tous» sur ses travaux. Lors même que c'est principe de réutilisabilité qui devrait prévaloir : non pas "Tous droits réservés" mais "Certains droits réservés". Il faudrait dépasser le cadre de la "propriété" pour faire entrer pleinement la recherche dans celui du domaine public.



    Libérer les résultats de la recherche de l'emprise du droit sui generis des bases de données



    Le droit sui generis des bases de données est issu de la directive communautaire du 11 mars 1996 transposée par la loi du 1er juillet 1998. Il confère aux producteurs de bases de données un droit sur la réutilisation du contenu des bases de données du moment qu'ils justifient d'un investissement matériel, financier ou humain substantiel. Le droit des bases de données conforte la captation par les éditeurs académiques des résultats de la recherche.

    A) Articles



    C'est seulement si l'article est assorti d'une licence libre, qu'il soit publié sur la plate-forme d'un éditeur  (Gold Open Access) ou dans une archive ouverte, que le droit à la réutilisation est pleinement garanti.


    B) Données 

    Concernant les données; il faut distinguer deux cas, selon qu'il s'agit de données "primaires" ou "secondaires".

    1) Données primaires

    La communauté scientifique n'a pas attendu les années 2000 pour alimenter de vastes silos de données issues de l'expérimentation. Ainsi, en sciences du vivant: 
    C'est au début des années 80 que les premières banques de données sont apparues sous l'initiative de quelques équipes de par le monde. Très rapidement les initiatives visant à fédérer la collecte et la diffusion des données de la biologie sont apparues en Europe, aux Etats-Unis et au Japon avec, respectivement, l'entrepôt de données de l'EMBL hébergé à l'EBI, la banque de données GenBank hébergée au NCBI et la DDBJ au NIG.[3]
    Si l'on regarde les conditions générales d'utilisation de certaines de ces bases, on s'aperçoit qu'aucune restriction n'est mise à la réutilisation. Ainsi pour les bases hébergées sur le site du National Center for Biotechnology Information (NCBI) :
    Molecular Database Availability
    Databases of molecular data on the NCBI Web site include such examples as nucleotide sequences (GenBank), protein sequences, macromolecular structures, molecular variation, gene expression, and mapping data. They are designed to provide and encourage access within the scientific community to sources of current and comprehensive information. Therefore, NCBI itself places no restrictions on the use or distribution of the data contained therein. Nor do we accept data when the submitter has requested restrictions on reuse or redistribution.
     Cependant, (est-ce là une précaution purement formelle ou l'aveu du risque bien réel d'une revendication de droits sur une partie de ces données?), les CGU précisent que la pleine réutilisabilité des données n'est pas garantie à 100 %:
    However, some submitters of the original data (or the country of origin of such data) may claim patent, copyright, or other intellectual property rights in all or a portion of the data (that has been submitted). NCBI is not in a position to assess the validity of such claims and since there is no transfer or rights from submitters to NCBI, NCBI has no rights to transfer to a third party. Therefore, NCBI cannot provide comment or unrestricted permission concerning the use, copying, or distribution of the information contained in the molecular databases.
    Les conditions générales d'utilisation de l'International Nucleotide Sequence Database Collaboration (INSDC), organisme qui coordonne les mises à jour des différentes bases, font également le choix de l'ouverture et de la réutilisation des données:

    1. The INSD has a uniform policy of free and unrestricted access to all of the data records their databases contain. Scientists worldwide can access these records to plan experiments or publish any analysis or critique. Appropriate credit is given by citing the original submission, following the practices of scientists utilizing published scientific literature.2. The INSD will not attach statements to records that restrict access to the data, limit the use of the information in these records, or prohibit certain types of publications based on these records. Specifically, no use restrictions or licensing requirements will be included in any sequence data records, and no restrictions or licensing fees will be placed on the redistribution or use of the database by any party.

    Espérons que le principe général d'ouverture de ces vastes banques de données internationales perdurera et ne sera pas mis à mal par les tentatives de toutes sortes pour monétiser l'exploitation de ces données. L'éditeur Thomson Reuters commercialise depuis peu une base payante intitulée Data Citation Index, qui propose une évaluation bibliométrique du taux de citation des jeux de données de la recherche, exactement comme ce qui est déjà fait pour les revues.

    2) Données secondaires

    A partir du moment où l'on considère les données de la recherche comme le produit d'un usage non-expressif, il y a lieu d'envisager, comme le fait le rapport Hargreaves, la non-application du droit sui generis des bases de données aux données elles-mêmes issue de la fouille de ces bases.
    Sans cette exception, les chercheurs sont contraints de négocier avec chaque éditeur pour obtenir un droit de réutilisation. Si le projet Text2Genome, qui impliquait l'analyse de millions d'articles a pris trois ans, c'est parce qu'il a fallu perdre un temps considérable à négocier au cas par cas les droits avec chacun des éditeurs.
    Par ailleurs, l'indépendance de la recherche s'en trouve menacée : les chercheurs qui désirent analyser les données de la base SpringerLink doivent déposer préalablement auprès de Springer une déclaration précisant l'objet de la recherche et la méthodologie employée.


    Et l'Open data dans tout ça ?


    Pourquoi ne pas appliquer une politique d'Open Data aux données de la recherche? Pourquoi cela ne va-t-il pas de soi ?
    Tout d'abord, en Europe, la directive Public Sector Information (PSI) de 2013 exclut de son champ d'application les données de la recherche. Mais cette exclusion n'est pas de nature à empêcher les Etats-membres de faire entrer les données de la recherche dans le champ leur politique nationale d'open data.
    Il existe un autre blocage. D'après l'article 2 b de la directive PSI de 2003, non modifiée sur ce point par celle de 2013, ne sont pas considérés comme des informations publiques les documents sur lesquels des tiers détiennent des droits de propriété intellectuelle. Il faut alors à nouveau distinguer :

    A) Données primaires

    Dans les faits, on l'a vu, les données primaires sont stockées dans des silos libres d'accès et de réutilisation. Tant que ces banques de données ne sont pas assorties de licences d'utilisation restrictives, une politique d'Open Data est parfaitement compatible. On pourrait même dire que d'une certaine façon, ces silos sont déjà la concrétisation en actes d'une politique d'Open Data appliquée au domaine de la recherche.

    B) Données secondaires

    Elles sont susceptibles de faire l'objet d'un droit de propriété intellectuelle à un double titre: le droit du producteur de la base de données et celui de chaque chercheur sur chacun de ses articles. On entre parfaitement dans le cas de figure où un tiers détient un droit de propriété sur les articles ou la base dont sont extraites les données via le TDM. Les données sont comme capturées et perdent leur statut d'informations publiques. Leur dissémination est bloquée... 



    Nécessité d'un Domaine Public de l'information


    L'apposition d'une licence libre à un jeu de données ou à un article est fonction à la fois du bon vouloir du chercheur et des clauses qui le lient en vertu de son contrat d'édition. Aucun systématisme n'est donc garanti. Seule la consécration d'un Domaine Public de l'Information, tel que défini par l'UNESCO en 2001, intégrant pleinement les résultats de la recherche (qu'ils soient associés à une licence libre de type CC-BY ou CC-0 ou dépourvus de toute licence...), serait susceptible de garantir leur libre réutilisation pleine et entière et d'éviter les risques d'enclosures informationnelles. On trouve les linéaments du concept de DPI dans l'arrêt d'Assemblée plénière de la Cour de Cassation du 30 octobre 1987 : dans l'affaire Microfor, la Cour a consacré le principe selon lequel les pratiques d'indexation ou d'extraction de mots-clés ne sont pas soumises au droit d'auteur.

    Vous croyez que le domaine public de l'information est une fiction ? Assurément pas dans les pays de droit anglo-saxon. Voyez comme le site du NCBI le clame et haut et fort :
    Copyright Status
    Information that is created by or for the US government on this site is within the public domain. Public domain information on the National Library of Medicine (NLM) Web pages may be freely distributed and copied. However, it is requested that in any subsequent use of this work, NLM be given appropriate acknowledgment.

    ***

    Au terme de ce parcours, une question se pose. En plaçant les articles et les données dans le périmètre d'un Domaine Public de l'Information, fait-on vraiment sortir les résultats de la recherche hors du cadre de la Propriété Intellectuelle, comme le préconisait l'avocat Alain Bensoussan lors du récent congrès ADBU ? Le domaine public ne représente-t-il pas une vraie-fausse sortie hors du droit de la Propriété Intellectuelle ? Il y a peut-être là une divergence d'approches entre SavoirsCom1 et le projet de charte porté par le CNRS, l’ADBU et le réseau international d’avocats Lexing.

    Le domaine public au sens de la Propriété Littéraire et Artistique se définit au regard de la protection appliquée aux œuvres de l’esprit. Notions indissolublement liées, œuvres de l'esprit et domaine public sont comme les deux faces d'une même pièce. Le domaine public se définit en creux, à partir d'une construction jurisprudentielle élaborée à propos de la protection des œuvres de l'esprit. La proposition de loi Attard inversait le rapport entre œuvres de l'esprit et domaine public, les premières devenant l'émanation du second; il n'en reste pas moins que c'est dans et par le Code de la Propriété Intellectuelle que la proposition de loi définissait le domaine public. 

    Voilà pourquoi il n'est pas si simple de "sortir" du cadre de la propriété intellectuelle par la porte du domaine public. Peu ou prou, on y est toujours ramené.







    [1][2][3] Merci à Christine Gaspin pour la fourniture de ces références.
    [3] Extrait d'un texte non publié où C. Gaspin expose les grandes lignes de son intervention. 







    ❌
    ❌