La Peer Production Licence : le chaînon manquant entre la Culture libre et l’Economie Sociale et Solidaire ?

avril 18, 2014 dans Débats

SavoirsCom1 publie sur son site cette traduction en français d’un texte écrit par Michel Bauwens, théoricien de la Peer to Peer Economie et fondateur de la P2P Foundation, coordinateur actuellement de l’initiative FLOK Society en Équateur. Michel Bauwens revient dans cet article sur la proposition de mise en place d’une Peer Production Licence (Licence de Production entre Pairs), avancée par l’allemand Dmitry Kleiner, dans la perspective de créer un instrument juridique favorable au développement d’une « économie des Communs » durable, articulée avec l’économie de marché classique. Bauwens avance la thèse que cette licence pourrait constituer un chaînon manquant entre le mouvement de la Culture Libre et celui de l’Économie Sociale et Solidaire, leur permettant de fusionner en dépassant leurs propres contradictions.

SavoirsCom1 publie cette traduction pour rendre ces propositions plus accessibles dans l’aire francophone, en espérant pouvoir lancer le débat.

bauwens

Michel Bauwens in Quito, Ecuador. Par Bethany Horne. CC-BY. Source : Wikimedia Commons.

***

 

Utiliser la Peer Production Licence pour favoriser « le coopérativisme ouvert » (traduction par Lionel Maurel du texte original de Michel Bauwens)

Les mouvements du peer-to-peer et des Communs sont aujourd’hui confrontés à un paradoxe.

D’un côté, nous assistons à la résurgence du mouvement coopératif et des entreprises dont la propriété appartient aux travailleurs, mais ils sont affectés par une faiblesse structurelle. Les entités coopératives oeuvrent pour leurs propres membres, sont réticentes à accepter de nouveaux participants qui partageraient les profits existants et les bénéfices, et ont recours au même type de savoir propriétaire et de rareté artificielle que leurs homologues capitalistes. Même si elles fonctionnent de manière démocratique en interne, elles participent souvent à la même dynamique de compétition capitaliste qui fragilise leurs propres valeurs coopératives.

D’un autre côté, nous avons un champ émergent de production entre pairs ouverte et orientée vers les communs dans des domaines comme le logiciel libre, l’open design, l’open hardware, qui créent des ressources de communs de la connaissance pour toute l’humanité, mais qui dans le même temps, sont dominés à la fois par des start-ups et de grandes multinationales utilisant les mêmes ressources.

L’argument principal

Nous avons aujourd’hui un paradoxe : plus nous utilisons des licences de partage communautaire dans la production de logiciel libre ou de matériel ouvert et plus la pratique est capitaliste, avec par exemple un bien commun comme Linux devenant une ressource d’entreprise enrichissant IBM et d’autres… Cela fonctionne jusqu’à un certain point et semble acceptable pour la plupart des développeurs du Libre, mais est-ce la seule manière de concevoir les choses ?

En effet, la General Public Licence et ses variantes autorise quiconque à utiliser et modifier le code d’un logiciel (ou un design), tant que ces changements sont ensuite reversés dans un pot commun sous les mêmes conditions pour de prochains utilisateurs. Techniquement, cela correspond à du « communisme » tel que défini par Marx : de chacun selon ses moyens, à chacun selon ses besoins, mais avec ensuite ce paradoxe que des multinationales sont autorisées à utiliser le code des logiciels libres à leur profit et pour accumuler du capital. Le résultat, c’est que nous avons une accumulation de biens communs immatériels, basés sur des contributions ouvertes, un processus participatif et orientée en bout de chaîne vers la production de communs, mais qui reste subordonnée à l’accumulation de capital. Il est aujourd’hui impossible, ou en tous cas difficile, d’avoir de la reproduction sociale (c’est-à-dire l’obtention de moyens de subsistance) dans la sphère des communs. Dès lors le mouvement du logiciel et de la culture libre, aussi important qu’ils soient comme nouvelles forces sociales et expression de nouvelles demandes sociales, sont aussi dans leur essence « libéraux ». Ce n’est pas seulement admis par ses leaders comme Richard Stallman, mais aussi par des études anthropologiques comme celles de Gabriela Coleman. Sans langue de bois, nous pourrions dire que ces mouvements sont « libéro-communistes » et qu’ils créent un « communisme du capital ».

Il y a-t-il une alternative ?  Nous pensons qu’il en existe une et elle consiste à remplacer les licences non-réciproques, dans la mesure où elles ne demandent pas une réciprocité de la part de leurs utilisateurs, par une licence basée sur la réciprocité. Ce qui revient à passer de licences « communistes » à des licences « socialistes ».

C’est le choix de la Peer Production Licence, telle que conçue et proposée par Dmytri Kleiner. Elle ne doit pas être confondue avec la licence Creative Commons « Pas d’usage commercial », car sa logique est différente.

La logique de la CC-NC est d’offrir une protection pour les individus réticents à partager, dans la mesure où ils ne désirent pas la commercialisation de leur œuvre si elle ne leur assure pas une rémunération pour leur travail. Ainsi la licence Creative Commons « Non-Commercial » bloque le développement économique ultérieur basé sur cette connaissance ouverte et partagée et la garde entièrement dans la sphère non-lucrative.

La logique de la PPL est d’autoriser la commercialisation, mais seulement sur la base d’une demande de réciprocité. Elle est conçue pour rendre possible et renforcer une économie réciproque contre-hégémonique combinant des communs ouverts à tous ceux qui y contribuent, avec des paiements imposés contractuellement aux entreprises commerciales qui veulent utiliser la ressource sans y contribuer. Cela ne représente pas tellement de changements en pratique pour les multinationales, elles peuvent toujours utiliser le code si elles y contribuent, comme IBM le fait pour Linux, et pour celles qui ne le font pas, elles s’acquitteront d’une redevance, ce dont elles ont l’habitude. Son effet pratique consistera à rediriger un flux de revenu depuis le capital vers les communs, mais son effet principal serait idéologique, ou si vous préférez orienté vers la conception de la valeur.

Les coalitions entrepreneuriales qui seraient nouées autour des communs en PPL seraient explicitement orientées en direction d’une contribution aux communs, et le système alternatif de valeur qu’ils représentent. Du point de vue des producteurs de pair à pair ou des commoners, c’est-à-dire les communautés de contributeurs aux ressources communes, cela leur permettrait de créer leurs propres entités coopératives, au sein desquelles le profit serait subordonné au but social de maintenir la ressource et les commoners. Même les sociétés commerciales participantes devraient consciemment contribuer selon une logique différente.  Cela rattache les communs à une coalition entrepreneuriale d’entités marchandes éthiques (des coopératives et d’autres modèles de ce type) et garde le surplus de valeur entièrement dans la sphère des commoners/coopérants au lieu qu’elle s’échappe vers les multinationales.

En d’autres termes,  à travers cette convergence ou plutôt cette combinaison entre un modèle en commun pour les ressources immatérielles abondantes, et un modèle de réciprocité pour les ressources matérielles « rares », la question des moyens de subsistance serait résolue, et le surplus de valeur serait conservé au sein de la sphère des communs elle-même. Ce serait les coopératives qui assureraient, à travers leur accumulation coopérative, le paiement et la rémunération des producteurs entre pairs associés à elles.

De cette façon, la production entre pairs pourrait passer d’un proto-mode de production, incapable de se perpétuer lui-même en dehors du capitalisme, à un mode autonome et réel de production. Cela créerait une contre-économie qui pourrait constituer la base d’une « contre-hégémonie » avec une circulation de valeur au bénéfice de tous, qui en s’alliant avec les mouvements sociaux en faveur des communs pourrait constituer la base d’une transformation politique et sociale de l’économie politique. Ainsi nous passons d’une situation dans laquelle le communisme du capital est dominant, à une situation où nous avons un « capital pour les communs » , assurant de manière croissante l’auto-reproduction du mode de production entre pairs.

La PPL est utilisée de manière expérimentale par Guerrilla Translation! et est en discussion à différents endroits, comme par exemple, en France, dans le secteur des machines agricoles ouvertes et des communautés du design.

Il existe également un potentiel spécifique, à l’intérieur de l’économie éthique orientée vers la production de communs, que l’application de systèmes de comptabilité ouverte et de chaînes d’approvisionnement ouvertes, puissent favoriser une circulation différente de la valeur, où les effets de stigmergie et de coordination mutuelle fonctionnant déjà à l’échelle pour la coopération et la production de biens immatériels, puissent se déplacer vers la coordination de la production physique, créant des dynamiques hors-marché d’allocation dans la sphère physique. Remplaçant à la fois l’allocation par le marché par le biais du signal des prix et la planification centralisée, ce nouveau système de production décentralisée permettrait à la place une coordination mutuelle massive, rendant possible une nouvelle forme « d’économie orientée vers les ressources ».

Enfin, ce système global pourrait être renforcé par la création d’un mécanisme de financement d’entreprises basé sur les communs, tel que proposé par Dmitry Kleiner. De cette façon, le parc des machines lui-même est soustrait à la sphère de l’accumulation du capital. Dans le système proposé, les coopératives ayant besoin de capital pour s’équiper en machines émettraient un bon, et les autres coopératives du système viendraient financer ce bon et achèteraient la machine pour former un bien commun dont les financeurs et les utilisateurs seraient membres. Les intérêts payés pour rembourser ces prêts créeraient un fonds, qui serait graduellement capable de verser un revenu croissant à ses membres, ce qui constituerait une nouvelle forme de revenu de base.

Le nouveau coopérativisme ouvert est substantiellement différent de l’ancien. Sous sa forme ancienne, la démocratie économique interne s’accompagnait d’une participation aux dynamiques du marché au nom des membres, en recourant à la compétition capitaliste. D’où une volonté de ne pas partager les profits et les bénéfices avec des membres extérieurs. Il n’y avait pas création de communs. Nous avons besoin d’un nouveau modèle dans lequel les coopératives produisent des communs, et sont orientés par leurs statuts vers la production du bien commun, avec des formes de gouvernance à plusieurs parties prenantes, incluant les travailleurs, les utilisateurs-consommateurs, les investisseurs et les communautés concernées.

Aujourd’hui, nous avons ce paradoxe que les communautés ouvertes de producteurs entre pairs sont orientées vers le modèles des start-up et sont dépendantes du modèle du profit, tandis que les coopératives demeurent fermées, utilisent la propriété intellectuelle et ne produisent pas de communs. Dans le nouveau modèle du coopérativisme ouvert, une fusion pourrait s’opérer entre la production ouverte de communs entre pairs et la production coopérative de valeur. Le nouveau modèle de coopérativisme ouvert intègre les externalités, pratique la démocratie économique, produit des ressources pour le bien commun et socialise ses connaissances. La circulation des communs est combinée avec le processus coopératif d’accumulation, au nom des communs et de leurs contributeurs. Au départ, le champ des communs immatériels, suivant la logique des contributions libres et de l’usage universel par tous ceux qui en ont besoin, co-existera avec un modèle coopératif pour la production physique, basée sur la réciprocité. Mais à mesure que le modèle coopératif deviendra de plus en plus hyper-productif et sera capable de produire une abondance soutenable de biens matériels, les deux logiques fusionneront.

 

Données personnelles : sortir des injonctions contradictoires

avril 15, 2014 dans Débats, Enclosures

7369580478_92ccf6bfbd (1)

A solved maze puzzle modelled with Blender 3d , flickr : FutUndBeidl

[Ce texte a été publié sur le site de Vecam, il est signé Valérie Peugeot et fait notamment suite à l'article de Silvère Mercier intitulé Biens communs et données personnelles : il nous faut inventer !]

En matière de données numériques, trois vagues médiatiques se sont succédé sous nos yeux en l’espace de moins de 3 ans. La première nous a fait scintiller les merveilles associées aux big data, source inépuisable de nouveaux gisements de richesse de l’économie numérique – déluge de données, nouvel or noir, fin de la science… – l’escalade métaphorique semblait sans fin. La seconde a été liée au coup de tonnerre déclenché par la suite des révélations d’Edward Snowden : en quelques heures, les cris d’alarme négligés des associations de défense des libertés devenaient réalité, en pire. Nul n’avait anticipé l’ampleur et la diversité des données collectées par la NSA. Si big data il y a, ce sont bien celles interceptées et analysé par les autorités américaines, dans une logique de « big surveillance ». Aujourd’hui, troisième vague, nous voyons se multiplier les articles qui tentent de dégonfler l’enthousiasme exagéré suscité par le projet big data, entre démonstration del’inexactitude des Google Flue Trendset analyse des biais méthodologique du big data (iciet ). Mais ces critiques ne disent rien du problème précédent : comment dénouer le lien entre production, analyse de données de masse d’une part et logique de surveillance de l’autre. Car c’est bien de cela qu’il s’agit : plus notre économie inventera des services qui auront besoin de s’appuyer sur de la donnée pour fonctionner – et nous en voyons fleurir tous les jours – plus nous mettrons en place les infrastructures passives qui rendent les logiques de surveillance techniquement possibles, quel que soit le tiers qui décide de s’en servir.

De fait, si les critiques du big data se gardent bien d’attaquer la question de la surveillance c’est que, comme beaucoup, ils se trouvent confrontés à un nœud apparemment gordien : vouloir empêcher le recueil de données, c’est bloquer l’innovation, et donc freiner l’économie numérique. Tous les lobbys qui se pressent à Bruxelles autour de la négociation du nouveau règlement en matière de données personnelles ne disent pas autre chose : ne nous empêchez pas d’innover ! Et en l’état, ils ont raison : tout renforcement de la protection des données personnelles peut apparaître comme un frein à la création de nouveaux services. À moins que nous ne changions radicalement notre manière d’aborder le problème.

Pour commencer, rappelons-nous que de plus en plus de ce qui constitue les big data est et sera de fait de données coproduites par des individus et des services, ce qui signifie que la problématique de la donnée personnelle sera de plus en plus prégnante. Au fur et à mesure que nos objets se mettront à communiquer – compteur, balance, montre, porte d’entrée, voiture etc – nous participeront à cette inflation de la masse de données. Toutes les données ne sont certes pas personnelles (ex : les données météos ne le sont pas), mais de plus en plus de données entreront dans ce régime, ce qui renforce le risque de surveillance.

Face à cela, il nous faut tout d’abord éviter plusieurs impasses. La première consisterait à rester dans ce que l’on peut qualifier de « faible régime » actuel : de fait nous sommes dans une zone d’incertitude juridique, qui encourage les logiques de « prédation » de la donnée par les plates-formes pour les monétiser, avec des approches plus ou moins délicates (opt in / opt out). Cette situation accule à une vision « innovation contre vie privée », qui pousse le droit, dans une course sans fin, à galoper derrière l’innovation sans jamais être à temps pour protéger les utilisateurs. C’est une approche défensive peu efficace dans une période d’affaiblissement de la puissance publique face aux acteurs du marché. Nous ne pouvons que saluer les dernières prises de position du Parlement européen avec l’adoption en mars dernier du rapport Albrecht concernant le règlement général sur la protection des données, rapport qui rejette les propositions préjudiciables à la vie privée. Mais de fait le rythme du politique et du droit ne sont pas celui de la technologie, et même si le prochain règlement constitue une avancée, il peut en quelques années se révéler impuissants face à de nouveaux dispositifs techniques.

La seconde impasse consisterait à vouloir glisser vers un régime de propriété(intellectuelle et/ ou commerciale) des données par l’utilisateur. Fleurissent actuellement les prises de positions qui vont en ce sens (cf. par exemple la tribune conjointe de Babinet et Bellangerou les prises de position répétées de l’avocat Bensousan). Cette approche me semble à combattre car elle soulève plusieurs problèmes imbriqués :

  • un problème de conception politique d’une part : en renvoyant sur l’individu la responsabilité de gérer et protéger ses données, au lieu de trouver des réponses collectives à un problème de société, elle participe d’une vision qui renforce l’individualisme et nie les rapports de force entre les consommateurs et les entreprises
  • conséquence du point précédent, surgit un problème très concret : ceci déboucherait sur un renforcement des inégalités entre citoyens numériques, entre ceux en capacité de gérer leurs données, de les protéger, les monétiser, et ceux qui par manque de littératie, de temps, ou toute autre raison, laisserait faire par défaut le marché. Le scénario plausible qui se met en place est celui d’une société numérique dans laquelle les personnes en bas de l’échelle économique et/où culturelle commercialisent leurs données (pas forcément sous forme monétaire, mais en échange de services), pendant que ceux qui disposent de moyens économiques et/où culturels les enferment à double tour numérique. C’est déjà ce qui se met en place (ex : Doodle) ou se profile (ex : YouTubeApple) avec des services premiums payants sans publicité. Finalement ce choix entre deux moyens de paiement pour l’accès à un même service (monétisation directe versus attention) ne serait pas un problème en soi si la circulation des données de l’utilisateur ne soulevait pas chaque jour un peu plus des problèmes de vie privée. Sans compter que ce régime n’offre pas de garantie de non traçage à l’image de ce qui se pratique avec le « do not track » (dont l’interprétation par les grands opérateurs publicitaire laisse dubitatif : la collecte de données reste active, certes sans utilisation directe par la publicité sur le navigateur concerné, ce qui n’empêche pas à leurs yeux la revente sur des places de marché de données).
  • Ce scénario de la propriété sur les données est poussé par des acteurs qui y voient une opportunité d’affaires plus qu’une sortie par le haut dans une économie numérique en recherche d’équilibre. On voit ainsi apparaître des entreprises qui promettent aux internautes une monétisation directe de leurs données en les louant à des tiers (ex : Yesprofile). Ces acteurs ont pour l’heure un positionnement ambigu : ils promettent simultanément une reprise de contrôle sur les données par l’utilisateur et une source de revenus. S’ils partagent avec les acteurs du VRM (Vendor Relationship Management) le premier objectif, la promesse financière les en démarquent. Cette promesse financière semble illusoire, les simulations montrant un taux de retour de quelques euros, mais ce n’est pas la question essentielle. Dans cette approche, la régulation ne passe que par un modèle commercial, entre entités en situation d’asymétrie informationnelle et de rapport de force, ce qui se traduit inévitablement au désavantage du consommateur/utilisateur.
  • À l’inverse, si comme nous le pensons, cette monétisation directe des données par les individus génère des revenus anecdotiques, on peut imaginer de voir émerger un autre type d’intermédiaires qui se chargeraient non plus de la commercialisation mais de la « gestion protectrice de données numériques », c’est à dire de la vérification de qui collecte, qui en fait quoi. De la même manière que des entreprises se sont positionnées sur le marché de la réputation et proposent aux internautes des services de « nettoyage » de réputation (ex : RéputationVIP), d’autres pourrons se positionner sur la gestion protectrice. Là encore, certains utilisateurs pourraient se payer les services de ces « gestionnaires de données », pendant que d’autres devraient laisser leurs données circuler au bon vouloir des plates-formes et de leur marché secondaire de la donnée. Nous rebouclons ainsi avec la question des nouvelles inégalités numériques induites par un glissement d’un régime de droit vers un régime de propriété.
  • Par ailleurs, scénario du pire, si le choix était fait d’un passage en régime de propriété intellectuelle, cela supposerait, par analogie avec le droit d’auteur ou le brevet, que le droit exclusif de l’individu sur ses données soit temporaire. En effet par définition les régimes de propriété intellectuelle sont des exceptions de monopole concédées à un créateur ou un innovateur, délai au terme duquel les données passeraient dans le domaine public. On voit bien ici qu’un régime de propriété intellectuelle est totalement inapproprié : au bout de quel délai les données sortiraient-elles de la propriété de leur (co)producteur qu’est l’utilisateur ? Au moment où elles n’ont plus de valeur sur le marché de l’économie de l’attention ? De plus le droit d’auteur ne fonctionne que parce qu’il est assorti de nombreuses limites et exceptions pour des usages dits légitimes (recherche, éducation…). Est-ce que l’usage des données serait lui aussi « légitime » quand il est fait sous forme de statistiques agrégées (génomique par exemple ?).
  • De plus cela risque de pervertir la logique du droit de propriété intellectuelle : actuellement les informations brutes et les données ne sont pas couvertes ; le droit d’auteur ne concerne que la forme que l’on donne aux informations, et en Europe, le droit sui generis rend propriétaire la cohérence dans une base de donnée, et non les données elles-mêmes. En élargissant aux données personnelles, on risque de provoquer un glissement général vers une mise sous propriété de toutes les données et informations brutes, ce qui aurait des conséquences sur les données scientifiques, publiques… Très exactement l’inverse de ce que nous défendons avec l’open data, la science ouverte etc.
  • Une alternative avancée par certains serait la mise en place de sociétés de gestions des droits sur les données, à l’image des sociétés de gestion de droits d’auteurs. Outre le fait que les sociétés de gestion de droits d’auteurs sont loin d’être la panacée et sont régulièrement critiquées (cf. par exemple JF Bert), cette solution semble totalement irréaliste. Alors que sur les œuvres, les coûts de transaction pour la redistribution des droits aux auteurs sont tels que par exemple 68% des sociétaires de la SACEM ne reçoive aucune rémunération, on a du mal à imaginer un système de redistribution, même numérique, de quelques euros entre des millions d’utilisateurs.

La troisième fausse piste, réside dans les solutions techniques de type cryptographie

Pour l’heure plusieurs acteurs poussent aux solutions techniques. Il s’agit essentiellement des acteurs institutionnels (cf. les déclarations du premier ministre à l’ANSSI en février) et des acteurs venus des communautés technologiques (IETF, W3C, etc.) dont c’est le métier (cf. les nombreux papiers scientifiquesproposés à la rencontre STRINT de Londres). Si pour ces derniers, il est cohérent d’aller dans cette direction puisque c’est là que réside leur savoir-faire et leur gagne-pain, il est plus surprenant de voir des acteurs politiques dépolitiser ainsi une question aussi centrale.

  • La réponse technique à un problème rendu possible par la technique est une course en avant sans fin, qui tend à éluder le fait que le numérique est un produit éminemment socio-technique. Pas plus que les DRM ne sauvent des industries culturelles qui refusent de prendre la mesure de la profondeur de la mutation à l’œuvre en matière de circulation des œuvres, la cryptographie ou autre solution technique ne saurait être une réponse à une problématique socio-économique.
  • Il y aura toujours une technologie capable de défaire la précédente. Jusqu’à présent aucun verrou numérique n’a su résister. De plus, comme le rappelle très justement Snowden « « Le chiffrement fonctionne […]. Malheureusement, la sécurité au point de départ et d’arrivée [d’un courriel] est si dramatiquement faible que la NSA arrive très souvent à la contourner. » Et rappelons-nous que la NSA (ou ses consœurs) installe des backdoors dans les logiciels de chiffrement eux-mêmes.

Alors que pouvons-nous envisager pour nous prémunir de la société de surveillance tout en continuant à créer, inventer ? Voici quatre pistes, qui sont autant d’invitation à débattre.

La première piste consiste à orienter l’économie numérique le plus loin possible de l’économie de l’attention pour revenir à une économie servicielle. Aujourd’hui l’économie du Web repose en très grande partie sur une monétisation de « notre temps de cerveau disponible » via de la publicité pour nous inciter à consommer. Google, Facebook, Twitter, et même Amazon qui pourtant commercialise des biens, vivent sur des marchés dits bifaces ou multifaces : d’une main ils offrent un service non monétisé (moteur de recherche, microblogging, réseau social…), de l’autre ils revendent les traces de leurs utilisateurs soit en direct à des annonceurs, soit via des places de marché de la donnée sur lesquelles opèrent des data brokers. Parmi les plus gros opérateurs aux États-Unis on peut citer Axicom, dont on estime qu’elle dispose d’environ 1500 informations sur 200 millions d’américains ou encore Epsilon, BlueKai, V12 Group, Datalogix. Ce déport d’une part croissante de l’économie semble sans fin : un jour c’est un banquier qui émet l’idée de ne plus faire payer les frais de carte bancaire aux clients en échange d’un droit de réutilisation de leurs données ; demain ce sera un organisateur de concert qui vendra des entrées à bas prix en échange d’un accès aux données du spectateur, etc. En raisonnant par l’extrême, si des secteurs entiers de l’économie pré numérique se mettent à basculer vers cette illusion du gratuit et à commercialiser de la donnée en sus et place d’un bien ou d’un service, à qui les data brokers revendront-ils leurs données ? Cette information ne perdra-t-elle pas progressivement de la valeur au fur et à mesure que des pans entiers de l’économie basculeront vers des marchés bifaces basés sur l’attention ? Sans aller jusqu’à cet extrême, il nous faut aujourd’hui inverser trois choses : sortir de l’illusion que ce qui est gratuit pour le consommateur est bon pour lui ; revenir autant que faire se peut à de la commercialisation de services, ce qui participe à désenfler la tentation de captation des données personnelles (en ce sens, les services dits d’économie collaborative, en se rémunérant pour la plupart par un pourcentage sur la prestation sur le covoiturage, sur l’hébergement…, au lieu de pratiquer l’illusion de la gratuité assortie de publicité, participent à une forme d’assainissement de l’économie numérique) ; encadrer très fortement les marchés de data brokers, qui sont aujourd’hui totalement opaques et non régulés. Le marketing prédictif est le meilleur ami de la surveillance car il recueille et traite les données toujours plus fines sur l’individu qui rendent cette dernière techniquement possible. Tout ce qui peut contribuer à affaiblir ce marché est bon pour notre société et les libertés individuelles.

Plus généralement, une régulation du marché des données, si l’on considère la transparence comme élément d’un contrôle social de l’usage des données, peut passer par une obligation de documentation technique très forte – quelles données collectées, où sont-elles stockées, combien de temps sont-elles conservées, … ? –. Cette documentation serait le support à l’intervention d’un corps d’inspecteurs des données, dont les prérogatives iraient bien au-delà de celles de la CNIL. C’est, dans un tout autre domaine, ce qui vient d’être fait par la justice américaine, qui a condamné Apple à être surveillé pendant 2 ans, suite à des pratiques d’entente illicite sur les livres numériques. Le principe met toutes les entreprises à égalité puisque celles-ci ont la responsabilité d’appliquer par défaut le bundle of rights, mais peuvent être soumises à des audits aléatoires.

La seconde piste est certes technique, mais à l’opposé de la cryptographie, va chercher du côté des infrastructures ouvertes et libres (au sens logiciel du terme). Il s’agit, première brique, autant que possible d’utiliser des logiciels libres car ils assurent une surveillance horizontale par les communautés de ce que fait et comment peut être utilisé un logiciel, comme le rappel l’APRIL dans sa tribune dans Libération du 25 février 2014. La transparence du logiciel libre et sa capacité d’appropriation par d’autres que ses concepteurs initiaux en fait une brique d’une reconstruction d’une relation de confiance entre l’utilisateur et un logiciel. Mais au-delà des logiciels, ce sont aussi les normes qui doivent être pensées sur un modèle ouvert, pour qu’elles ne deviennent pas de nouvelles boites noires génératrice d’insécurité sur les données (en laissant une poignée d’acteurs nord-américains prendre le leadership de cette normalisation, nous n’en prenons pas le chemin). Ceci est particulièrement vrai pour les normes encore à construire pour l’internet des objets. Si nous laissons s’installer des standards propriétaires, nous donnons le fer pour nous faire battre. On peut aller plus loin en suivant les pistes de Van Kranenburg dans son rapport sur l’internet des objets où il propose d’aller vers des infrastructures globales ouvertes, depuis le RFID jusqu’au GPS (page 50 du rapport). Sur la base de ces infrastructures on peut alors imaginer des outils de gestion de sa vie privée comme ce RFID Guardian, imaginé par Melanie Rieback (page 49 du rapport) qui permet de régler l’usage du RFID quand on circule dans un environnement connecté (supermarché, ville…). Il s’agit enfin et surtout pour protéger nos données personnelles, de construire des infrastructures de management de ces données qui redonnent la main et le contrôle à l’utilisateur, infrastructures que certains appellent les PIMS – Personal information mangement systems, à l’instar de ce que développement une entreprise comme Cozy cloud.

La troisième piste, qui déborde le cadre stricte des données personnelles pour s’intéresser aux données numériques en général, consiste, en s’inspirant des travaux d’Elinor Ostrom et de l’école de Bloomington autour des biens communs, à développer une sphère de données en Communs, c’est-à-dire de données qui peuvent être considérées comme une ressource collective, et qui n’entrent ni dans le régime des biens gérés par la puissance publique strico sensu, ni dans un régime de marché. Ce régime de Communs repose sur une gestion par une communauté de la ressource considérée, qui organise ses règles de gouvernance, en s’appuyant sur un « faisceau de droits » (bundle of rights »). Ces faisceaux de droits rendent possibles des régimes de propriété partagée. Un faisceau de droit c’est un ensemble de relations sociales codifiées autour de quelque chose à protéger comme le rappelle Silvère Mercier. Ils permettent de penser les usages indépendamment de la notion de « propriété », et d’adapter les règles de droit pour servir au mieux les usages en protégeant les ressources mises en partage. La grande force des Communs est d’ouvrir une troisième voix à côté de la propriété privée et de la propriété publique, un espace dans lequel des ressources, ici des données, ne sont pas soumises à un régime de droits exclusifs, mais peuvent être réutilisées selon certaines conditions fixées par la communauté qui en a la gestion et qui veille à leur protection. Il ouvre un espace protégé dans lequel les individus et les collectifs peuvent choisir de placer leurs données.

Ces ressources sont ainsi soustraites au marché stricto sensu et aux logiques oligopolistiques qui sous-tendent le capitalisme que nous connaissons dans sa forme actuelle. Ce qui ne signifie pas que des porosités n’existent pas avec le marché ou que les Communs se font contre le marché. Les deux peuvent non seulement cohabiter mais également se compléter. Ainsi Flickr, plateforme de partage de photos, filiale de Yahoo !, héberge des photos placées par des internautes en régime de Communs via une licence Creative Commons, de même que des fonds d’archives photographiques du domaine public placées là par des institutions publiques (musées, bibliothèques…). De même ces ressources échappent au régime de pure administration publique qui laisse reposer l’entière responsabilité de leur gestion et de leur protection sur les épaules de la puissance publique. Les Communs impliquent une co-responsabilité de la part des acteurs qui en assurent la gouvernance, permettant ainsi un glissement de logiques purement délégatives à des approches plus contributives. De la même manière que pour le marché, sphère publique et Communs n’ont pas vocation à s’opposer mais à se compléter. Ainsi lorsqu’une communauté d’habitants en Bretagne décide de mettre en place et d’autofinancer en crowdfunding une éoliennesur leur territoire pour assurer une fourniture d’énergie autonome et durable au village, tout en utilisant un terrain de la municipalité, le Commun est coproduit par cette dernière et par les habitants, et se réalise en partenariat avec les entreprises privées qui vont construire l’éolienne et gérer les flux électriques sur les réseaux, sous le contrôle des citoyens qui auront financé le projet.

Pour éviter que l’ensemble des données ne soient pas aspirées dans cette course à la marchandisation de la donnée et favorise ainsi une société de surveillance, il est essentiel qu’une sphère de données « en Communs » puisse fleurir, s’enrichir et être protégée contre des tentatives d’enclosures.

L’existence de cette sphère de données en Communs présente plusieurs avantages : elle constitue un gisement d’informations dans laquelle d’autres acteurs extérieurs à la communauté des producteurs peuvent puiser pour créer, innover, proposer d’autres services ; elle permet de tirer parti des spécificités contributives du monde numérique

Quelles données pourraient appartenir à cette sphère des communs ? Trois catégories semblent possibles en premier regard :

  • Des données produites par la sphère publique et partagées en open data, sous réserve qu’elles soient assorties d’une licence de partage à l’identique (share alike). C’est déjà le cas de la licence choisie par un grand nombre de collectivités locales mais à notre grand regret pas par Etalab, ce qui veut dire que ces données peuvent être à nouveau « encloses ». Les données produites pas la puissance publique avec l’argent public doivent rester libres de réutilisation.
  • La seconde catégorie est constituée des données produites par les individus qui désirent placer ces ressources en bien commun. C’est déjà le cas des données produites dans OpenStreetMap, dans Wikipédia, qui de fait constituent une œuvre collective, pour lesquelles les communautés ont choisi un régime juridique qui protège les ressources en biens communs. Sur Wikipédia la communauté a fait le choix de deux licences compatibles, la licence CC by-sa et la licence de documentation libre GNU, qui dans les deux cas contiennent cette obligation du partage aux mêmes conditions.
  • Dans une moindre mesure, des données produites par des entreprises pour les besoins de leur activité – un catalogue de magasin, une liste de point de vente, un taux de fréquentation de ses magasins – et qui choisissent de les mettre à disposition de tiers dans une logique écosystémique. C’est ce qu’ont commencé à faire la SNCF ou La Poste, qui expérimentent autour de l’open data. Je dis dans une moindre mesure, car les données des entreprises peuvent à tout moment être ré-enfermées (ex : via une fermeture d’API comme l’a fait Twitter) et ne font pas l’objet d’une gouvernance collective, mais d’une gouvernance privée par l’entreprise qui décide de les mettre à disposition. On peut craindre, comme cela s’est déjà passé pour d’autres services numériques, qu’une fois l’écosystème constitué, les données ne redeviennent privées, l’ouverture ne constituant alors qu’une phase transitoire, un « produit d’appel ».

La quatrième piste, proche dans sa source d’inspiration de la précédente, consiste à imaginer une gestion des données personnelles par un régime de « bundle of rights ». Le Bundle of rights, ou « faisceaux de droits » puise à un courant juridique qui a émergé aux États-Unis au début du XXe siècle et qui trouve ses racines dans la pensée juridique américain dite du « legal realism » (ou réalisme juridique) qui conçoit la propriété comme un ensemble complexe de relations légales entre des personnes, ainsi que l’explique Fabienne Orsi. Cette approche par le « faisceau de droits » permet, autour d’une même ressource matérielle ou immatérielle, d’identifier différents droits : ex : droit de posséder, d’utiliser, de gérer, de monétiser, de transmettre, de modifier… Cette approche est un des piliers de la pensée des Communs.

Appliqué aux données produites sur le web par les actions des individus, les faisceaux ou bouquets de droits permettraient d’imaginer trois ensembles de droits :

  • Certains usages assortis de droits sont garantis par défaut à l’utilisateur, comme par exemple, le droit de savoir ce que l’on collecte sur lui ; le droit de rectification de ses données ; le droit à la portabilité des données ; le droit de placer ses données en Communs (cf. supra).
  • D’autres usages peuvent être à l’inverse garantis à la plate-forme, au producteur du service, comme par exemple le droit de gestion pour une amélioration de la relation client ;
  • Enfin, les usages intermédiaires qui sont ceux qui dégagent le plus de valeur d’usage à la fois pour l’entreprise et pour l’individu (ex : le graphe social) peuvent quant à eux faire l’objet d’un usage par l’entreprise sous deux régimes possibles :
    • Une ouverture de la donnée individuelle à un tiers sur base d’une autorisation explicite de la part de l’individu coproducteur, en échange d’un service ex : j’autorise une marque d’électroménager à accéder à mes données pour me proposer une machine à laver qui correspond à mes besoins, dans une approche dite VRM – Vendor relationship management. Cette approche fait l’objet d’une expérimentation à travers le projetMesInfos, porté par la FING.
    • Une ouverture de la donnée agrégée et anonymisée à des tiers sous condition de partage limité dans le temps. Sur une très courte période, quand la donnée est « chaude », la plateforme aurait le droit de monétiser celle-ci agrégée à d’autres, mais à l’expiration de cette période, la donnée ne pourrait plus être mobilisée directement ou indirectement par la plateforme productrice. La donnée devrait alors soit être détruite (pas de possibilité de stockage) soit être transférée vers un espace de type cloud personnel où l’individu pourrait la conserver s’il la juge utile, voire la partager s’il le souhaite.

Cette approche par une discrimination à la fois temporelle des droits (donnée chaude, droits d’usage à l’entreprise, donnée froide, exclusivité de l’usager) et spatiale (stockage dans la plateforme, stockage dans un espace contrôlé par l’individu) pourrait ouvrir la voir à un bundle of rights positif, c’est-à-dire à la fois protecteur pour l’individu et en même temps ne tuant pas d’entrée de jeu le modèle d’affaires des entreprises du web qui proposent des services (hors marketing) construits autour de la donnée (ex : trouver un vélib).

Enfin, de façon encore plus prospective, pour aller plus loin dans la réflexion, nous ne voulons pas placer ce régime d’usage sous le signe de la propriété partagée mais sous celui d’un nouveau « droit du travail contributif ». En 1936 Jean Zay avait défendu dans une loiqui n’a pas pu voir le jour à cause d’une opposition des éditeurs puis de l’explosion de la Seconde guerre mondiale, une conception du droit d’auteur basée non pas sur un régime de propriété intellectuelle mais sur la reconnaissance du travail accompli. Cette approche avait pour objectif de protéger les créateurs tout en défendant le domaine public, source de renouvellement créatif dans lequel puisent les nouvelles générations d’artistes (domaine public que l’on peut considérer comme l’une des composantes d’une sphère des Communs). En considérant l’auteur non plus comme un propriétaire, mais comme un travailleur, cette approche permettait à Jean Zay de dissocier les droits des descendants sur d’une part le droit moral à longue durée, et d’autre part les droits patrimoniaux pour lesquels il séparait (forme de bundle of rights) le droit à percevoir des revenus par les ayant-droits, qui devaient durer jusqu’à ce que l’œuvre entre dans le domaine public, de l’existence d’un monopole sur l’usage de l’œuvre, qui pour sa part était limité à dix ans après le décès de l’auteur, permettant ainsi aux œuvres de faire l’objet de nouvelles exploitations rapidement.

Dans le cas qui nous occupe, si l’on accepte les hypothèses suivantes :

  • que le Web des données est le fruit du labeur conjoint des plates-formes et des utilisateurs, comme c’est affirmé entre autres dans le rapport Colin et Collin ;
  • que le travail est en train de muter profondément à l’heure du numérique, effaçant la frontière entre amateur et professionnel ;
  • que les travailleurs vivant hors du système classique du salariat vont se massifier …alors nous devons inventer ce droit du travail contributif qui pourrait s’appuyer sur un bundle of rights adapté à la nouvelle situation.

*****

Refus de la propriétarisation de la donnée, déplacement du capitalisme informationnel vers une économie servicielle, montée en puissance des infrastructures ouvertes de recueil et traitement des données personnelles, développement d’une sphère des données en régime de Communs, construction d’un droit des données personnelles appuyé sur un « faisceau de droits d’usage »… Chacune de ces pistes vise à empêcher la construction d’une société de surveillance. Certaines sont déjà en cours d’exploration. A nous de multiplier les recherches et de faire se rencontrer les acteurs qui œuvrent à une sortie par le haut de la société des données de masse. Pour que données puisse rimer avec libertés.

Les standards du web doivent être des communs

avril 14, 2014 dans Débats

heartbleedUne faille critique de sécurité a été découverte récemment, elle a été nommée Heartbleed. Le site Numerama la présente comme suit :

« Le bug Heartbleed est une faille sérieuse dans la bibliothèque logicielle de cryptographie OpenSSL. Cette faiblesse permet de dérober des informations protégées [...] par le chiffrement SSL/TLS utilisé pour sécuriser l’Internet. Le SSL/TLS fournit une sécurité et une confidentialité des communications sur Internet pour des applications comme le web, le mail, la messagerie instantanée et le VPN« , explique un site dédié.

Celui-ci ajoute que « le bug Heartbleed permet à n’importe qui sur Internet de lire la mémoire des systèmes protégés par une version vulnérable du logiciel OpenSSL« . Selon l’avis de sécurité publié sur le site d’OpenSSL, jusqu’à 64 Ko de données sont récupérables sur un client ou un serveur. Ce qui permet de collecter des échantillons de données et d’y découvrir parfois au hasard des informations exploitables.

Le problème est grave, très grave et ne pose pas seulement des questions de sécurité, mais aussi et surtout de gouvernance de l’Internet. Il faut rappeler que cet outil est employé pour apporter la connectivité HTTPS à près de 65 % des sites Web à travers le monde. 

Est-il sain que des millions de sites fassent transiter des données sécurisées au moyen d’une bibliothèque Open SSL gérée par quelques personnes ? Le site Silicon.fr pointe le problème :

Mais, in fine, c’est bien une certaine forme d’échec du modèle open source auprès du public qui transparaît ici. OpenSSL est un composant crucial du web, qui ne soulève toutefois que peu d’enthousiasme de la part des développeurs. Conséquence de ce manque d’attractivité, la fondation OpenSSL travaille avec un budget minimal et le logiciel est géré par quatre développeurs, dont un seul employé à temps complet. Le code incriminé avait ici été inclus dans le projet sans aucun audit… faute de moyens. Du moins aucun audit officiel, les agences de renseignement de la plupart des pays ayant probablement plusieurs dizaines de personnes chargées de trouver des vulnérabilités dans cet outil.

Voilà qui rejoint un question posée par l’expert en sécurité Larry Selzer sur Zdnet et dans un autre article du même site, il est évoqué la question de supervision étatique par les USA :

Hier soir sur Twitter, l’expert en sécurité Dan Kaminsky, dans une discussion avec son confrèreThomas Ptaceks’est dit favorable à la supervision indépendante du code des projets importants comme OpenSSL par des entités financées par l’Etat – c’est à dire, l’Etat américain, ce qui posera une nouvelle fois la question de la gouvernance des standards… et également celle des implémentations, puisque Larry Seltzer se dit favorable à une extension.

Nous pensons  que la gestion des standards doit se faire en communs, quelle ne doit en aucun cas être contrôlée ni supervisée par les USA ou un seul état, mais que la communauté internationale doit confier à une entité indépendante la gestion de ces standards. Seule une gouvernance ouverte et partagée avec des règles claires permettra d’éviter de telles failles critiques à l’avenir. Que le financement soit public ou privé est un enjeu au moins aussi important que de savoir par quels processus se font l’élaboration des standards et leur évolution. Gérer des standards en communs, c’est confier à une communauté ouverte dans un cadre clairement établi par un cadre international le maintien et la sécurité des standards, parce que pour être efficaces, ils ne doivent appartenir à personne et qu’ils sont utiles à tous.

Plus globalement, la conférence NETMundial, qui doit se tenir à la fin du mois au Brésil est une lueur d’espoir dans un contexte de surveillance généralisée et d’enclosures gravissimes de certains Etats (en particulier les Etats-Unis) sur les standards du Web, au détriment des libertés publiques des populations.

Selon Mediapart, un document provisoire diffusé via Wikileaks :

(…) confirme déjà en grande partie des pistes de réformes annoncées et semble rendre impossible le maintien de la situation actuelle.

Ce projet réaffirme la nécessité d’inclure dans la gouvernance d’internet les questions de droits de l’homme, de liberté d’expression, de neutralité du net, ainsi que sur la nécessité d’un réseau libre et ouvert : « Internet doit rester neutre, libre de toute discrimination afin d’encourager la libre expression, la libre circulation de l’information et des idées, la créativité, l’innovation et l’entreprenariat. »

le projet prévoit également de donner plus de pouvoirs au Forum sur la gouvernance de l’Internet (IGF), une instance regroupant les différents acteurs de la gouvernance et se réunissant chaque année. L’IGF se verrait doter de moyens supplémentaires, notamment financiers, afin de devenir « un forum permanent » et « promouvoir une discussion mondiale entre les réunions »

Le Forum sur la gouvernance d’Internet est placé sous l’égide des Nations-Unies ce qui semble positif pour permettre une gouvernance ouverte et collégiale. Nous nous associons à ce projet et nous appelons la communauté internationale à soutenir l’esprit de ce projet pour qu’Internet reste un bien commun, dont la neutralité est garantie et les standards gérés en communs.

Un front commun se dessine en faveur d’une exception pour le text and data mining

avril 14, 2014 dans Annonce

Le collectif SavoirsCom1 tient à saluer la prise de position commune de l’ADBU et du consortium Couperin relative au text and data mining (TDM), suite à leur audition par le Conseil supérieur de la propriété littéraire et artistique (CSPLA). Le consortium et l’association mettent en garde contre les menaces que fait encourir à la recherche la voie contractuelle. Celle-ci s’avère inadaptée aux pratiques des chercheurs et comporte des dispositions susceptibles de porter atteinte à leur indépendance. Certaines clauses sont synonymes de limitation de la portée de l’exception de courte citation et de restriction des conditions de réutilisation des données de la recherche. Enfin, la voie contractuelle est la porte ouverte à la constitution d’un nouveau marché de services basé sur la fourniture d’extractions de données, marché sur lequel les éditeurs garderaient la haute main. Couperin et l’ADBU montrent bien comment le droit à l’exploration des données scientifiques est indissociable du droit de lire et comment les pratiques de TDM ne télescopent pas mais neutralisent la revendication de droits de propriété intellectuelle liés aux bases de données.


Cette position rejoint celle déjà exprimée par le collectif SavoirsCom1, LIBER ou plus récemment encore, par le groupe d’experts européens mandaté par la Commission Européenne. Un front se constitue pour réclamer l’introduction d’une exception au droit d’auteur visant à sanctuariser les pratiques de traitement automatisé des données à des fins de recherche, à l’image de ce que le Royaume-Uni envisage de faire.

Néanmoins, SavoirsCom1 s’étonne de la contradiction dans laquelle Couperin se place en dénonçant la clause d’Elsevier sur le TDM après l’avoir lui-même ratifiée dans le protocole d’accord de licence nationale signé avec l’éditeur :

« Le consortium Couperin, qui vient de négocier avec Elsevier une licence nationale permettant la pratique du TDM sous les conditions que l’on vient de décrire [licence restrictive imposant le recours à une API fournie par l'éditeur et ne permettant le chargement que de 10 000 articles par semaine], souhaite à travers cette disposition identifier les usages que les chercheurs feront de cette fonctionnalité. Il estime que les possibilités de TDM proposées par Elsevier se relèveront foncièrement inadaptées aux pratiques de recherche. »

Ainsi donc, Couperin aurait validé la clause de TDM afin de réaliser une expérimentation permettant de démontrer in concreto l’inadaptation de ce type de clause ? Pourquoi faire encourir à la recherche française les risques de cette démonstration par l’absurde ?

Quoi qu’il en soit, la prochaine étape consistera dans la remise par le CSPLA de son rapport. SavoirsCom1 espère à ce moment que tous les acteurs concernés pourront agir ensemble afin de faire entendre leur voix.

D’ici là, les professionnels des bibliothèques doivent avoir conscience que toute nouvelle signature d’une clause contractuelle relative au text et data mining nous éloigne de la possibilité de trouver une solution plus satisfaisante par la loi. C’était d’ailleurs le but réel visé par Elsevier en présentant cette clause dans son accord. Plus des accords similaires seront acceptés par les bibliothèques, plus il sera difficile de militer en faveur d’une exception législative robuste.

Par ailleurs, la question se pose de savoir quand une opportunité se présentera pour défendre l’introduction d’une telle exception dans la loi. La future loi sur la création, pour laquelle le calendrier n’est pas encore fixé, sera pilotée par le Ministère de la Culture, qui sera par nature réticent à agir à propos d’un sujet concernant la recherche. Il appartient donc au Ministère de l’Enseignement Supérieur et de la Recherche de se saisir de la question du data mining, afin qu’elle ne soit pas traitée exclusivement sous l’angle restrictif qui est celui du Ministère de la Culture quand il s’agit d’exceptions au droit d’auteur.

Au-delà, il est évident que les chercheurs eux-mêmes devraient faire entendre leur voix sur le sujet et que les chances d’obtenir une évolution seront beaucoup plus fortes s’ils se mobilisent en faveur d’une exception pour le data mining.

Crédits photo : Hard Hats. Par b3d_. CC-BY 2.0

Patrimoine : une loi pour fermer les archives ?

avril 11, 2014 dans Annonce

prison-493x200[billet initialement publié sur le blog Papiers et Poussières, par Jordi Navarro]

Dès son arrivée au ministère de la culture, Aurélie Filippetti avait promis de revoir en profondeur le code du patrimoine. Elle en avait fait son cheval de bataille. Les reports successifs et le récent remaniement ont bien failli la priver de voir l’aboutissement de ce projet. Finalement maintenue dans ses fonctions, il y aura bien une « loi Filippetti sur le patrimoine ».

J’avais personnellement espéré beaucoup de choses de cette loi. Il me semblait que c’était l’occasion rêvée de codifier la loi CADA en l’intégrant au livre des archives du code du patrimoine. Le libre accès aux documents administratifs, ainsi que le droit à la libre réutilisation ont toute leur place au sein du chapitre 3 portant sur le régime de communication. Codifier la loi 78-753 aurait de plus été totalement en phase avec la volonté politique actuelle d’ouverture des données publiques.

Le moins que l’on puisse dire est que j’ai été amèrement déçu.

J’ai commencé à craindre le pire dès l’année dernière lorsqu’un texte préparatoire avait circulé dans la profession. Mais il ne s’agissait alors que d’un document de travail susceptible d’être encore modifié.
Mes craintes se sont hélas confirmées plus récemment lors d’une interview d’Hervé Lemoine à la Revue française de généalogie, suivie d’une audition au Sénat sur la réutilisation des informations publiques et, enfin, de la publication du pré-projet et de son étude d’impact.

Le projet consiste, ni plus ni moins, à mettre un terme à la libre communication des archives définitives en les sortant expressément du champ d’application de la loi CADA.

Pour bien comprendre de quoi il retourne, regardons ce qu’il en est actuellement.

La loi 78-753 indique que tout document administratif, dès lors qu’il est communicable, doit être communiqué à toute personne qui en fait la demande, quel que soit le lieu où se trouve le document (administration ou service d’archives), et quel que soit le motif de la demande (administratif, historique ou autre).
Cette communication peut se faire par consultation sur place (gratuitement), par envoi postal d’une reproduction (frais de copie et d’envoi à la charge du demandeur) ou, si cela est possible,  par mail (gratuitement). Le choix entre ces trois modes de communication appartient au demandeur, pondéré bien entendu par les possibilités du service et l’état du document.
Cette obligation de communication et le choix laissé au demandeur montrent très clairement la force que le législateur a voulu donner à ce principe. En matière d’accès aux documents administratifs, c’est à l’administration de tout mettre en œuvre pour satisfaire la demande de l’usager.
Cette obligation de transparence de la vie publique répond à un triple objectif. Il s’agit de permettre au citoyen de faire valoir ses droits, de lui assurer la possibilité de contrôler le fonctionnement de l’administration et de lui garantir l’accès à la mémoire collective.
Le principe de libre communicabilité est intimement lié à l’exercice de la démocratie.

Et voilà donc ce que cet avant-projet de loi entend remettre en question. Car voici ce que dit la nouvelle version de l’article L213-1 :

 Les archives publiques sont […] communicables de plein droit et sans délai.
L’accès à ces archives s’exerce dans les conditions définies pour les documents administratifs à l’article 4 de la loi n° 78-753 [...] jusqu’à leur transfert dans les services publics d’archives compétents.
Après transfert dans ces services, l’accès aux archives s’exerce par consultation gratuite sur place.
Par dérogation à l’alinéa précédent, l’accès aux archives continue de s’exercer dans les conditions définies pour les documents administratifs à l’article 4 de la loi du 17 juillet 1978 précitée quand il est motivé par les besoins de la gestion et de la justification des droits des personnes physiques et des personnes morales.
Les services publics d’archives peuvent également déterminer d’autres modalités d’accès aux archives.

Pour résumer, dès lors que les documents seront dans un service d’archives, ils ne seront plus librement communicables. À moins d’en avoir besoin pour des raisons administratives, il ne sera plus question pour l’usager d’exiger la communication à distance d’un document. La consultation sur place sera l’unique garantie apportée par la loi, charge aux services d’archives d’être plus généreux s’ils le souhaitent.
Pour la première fois, les documents seront moins accessibles dans les services d’archives que dans les administrations. Un comble.
Pourquoi un tel choix ? Pourquoi revenir sur ce principe démocratique ?
La justification en est donnée dans l’étude d’impact. Ou plutôt les justifications, puisque deux arguments sont avancés :

les modalités d’accès aux archives […] fragilisent les données à caractère personnel et alourdissent excessivement la charge de travail des services publics d’archives

Penchons-nous sur ces deux arguments.

Les données personnelles sont régulièrement utilisées depuis 2010 pour justifier des refus de réutilisation.
Rappelons tout d’abord que les délais de communicabilité prévus par le code du patrimoine sont justement là pour protéger l’accès aux données personnelles. Si ces délais sont jugés trop courts, la meilleure solution aurait sans doute été de les augmenter. Le pré-projet fait pourtant exactement l’inverse en proposant, par exemple, de diminuer le délai d’accès aux actes de mariage (passant de 75 à 50 ans). Comment peut-on, d’un côté, dire que le libre accès représente un risque pour les données personnelles et, d’un autre, diminuer les délais d’accès à ces mêmes données ? Schizophrénie ou hypocrisie ? Je vous en laisse juge.
Par ailleurs, pour les données personnelles communicables, la CADA, la Cnil et le juge administratif ont clarifié la question en expliquant très clairement ce qu’il est possible de faire ou non avec des données personnelles. Ces trois instances ont toutes les trois réaffirmé qu’une fois les fameux délais échus, les données personnelles sont librement communicables et qu’elles sont également réutilisables. Elles ont toutes les trois rappelé que la protection des données personnelles relève de la compétence de la Cnil. Elle seule est en mesure de dire ce qu’il est possible ou non de faire avec des données personnelles, ce qu’elle n’a pas manqué de faire. Le juge avait déjà affirmé que les archivistes n’avaient pas à se substituer à cette autorité. Dès lors qu’elle a autorisé un usage, cette autorisation s’impose à tous.
Et si un usager venait à ne pas respecter les dispositions de la Cnil, c’est à cette dernière qu’il devrait rendre compte puisque, rappelons-le, elle dispose de son propre pouvoir de sanction.

Rappelons enfin un point essentiel : la diversité des archives. Tous les documents administratifs ne comportent pas de données personnelles. Pourquoi donc limiter également l’accès à ceux qui n’en contiennent pas ?
Cet argument de protection des données personnelles ne tient pas la route.

Examinons maintenant le second argument, celui de la charge de travail.
L’idée est la suivante : initialement, les demandes d’accès aux documents administratifs sont gérées par les services qui produisent ces documents. La charge de travail est donc répartie au sein des différentes administrations. Mais dès que les documents ont été versés à un service d’archives, celui-ci devient le seul à gérer l’ensemble des demandes. La charge de travail se reporte donc sur un seul et unique service, ce qui poserait problème.
À titre d’illustration, l’étude d’impact indique que des usagers auraient très bien pu demander la copie de l’ensemble des 3600 kilomètres de documents conservés dans les services d’archives. Cet argument est d’une telle mauvaise foi que je ne vais pas m’y attarder outre mesure. Le fait est qu’une telle demande est tout simplement irréaliste.
Mais passons outre cette maladresse d’argumentation. La charge de travail est un point qui ne peut pas être éludé d’un simple revers de main. Regardons ce qu’il est en est.
Les statistiques publiées chaque année par le SIAF sont là pour nous aider. Si l’on regarde les chiffres des Archives départementales, on s’aperçoit qu’en 2012 chaque service a dû traiter en moyenne 1211 demandes par correspondance. Soit près de 5 demandes par jour ouvré. De plus, depuis 2010, le nombre de ces demandes a augmenté de près de 53 %. Le fait est que ce n’est pas négligeable.

La foule | jfgornet | CC by-sa

La foule | jfgornet | CC by-sa

De quoi justifier de freiner les ardeurs des usagers ? Pas si sûr.
Revenons tout d’abord aux termes de la loi 78-753 qui encadre l’exercice du droit d’accès. Tout d’abord, l’article 4 indique très clairement que les possibilités d’accès sont limitées par les possibilités techniques de l’administration. Autrement dit, si le nombre de demandes est tel que le service d’archives n’est pas en mesure de les traiter, ou que cela ne permet plus de mener à bien les autres missions, un service a la possibilité de limiter le libre accès.
Par ailleurs, l‘article 2 de cette même loi précise bien que l’administration n’est pas tenue de faire droit « aux demandes abusives par leur nombre, leur caractère répétitif ou systématique ».
Les services d’archives disposent donc déjà de deux leviers par lesquels il est possible de limiter le droit d’accès. Bien entendu, en cas de saisine de la CADA ou du tribunal administratif, l’administration doit être en mesure de prouver la réalité de ce qu’elle avance. Peut-être est-ce précisément ce qu’elle cherche à éviter.

Car la réalité des demandes par correspondance n’est pas celle que l’étude d’impact veut faire passer.
Les chiffres du SIAF ne sont pas suffisamment détaillés pour s’en convaincre. Je ne peux donc que m’appuyer sur mon expérience personnelle. Tous les services ont connu la même explosion du nombre de demandes par correspondance.
Mais cette augmentation est due en exclusivité à celle des demandes à caractère administratif, elle-même due exclusivement au versement des documents de la conservation des hypothèques.
Il y a bien eu transfert de la demande des usagers, mais uniquement en ce qui concerne les demandes administratives pour lesquelles il n’est pas prévu de limiter l’accès et qui représentent actuellement l’écrasante majorité des demandes.

Dans le même temps, le nombre de demandes à caractère généalogique ou historique s’est effondré, pour une raison très simple : nous numérisons et mettons en ligne un nombre de plus en plus important de documents. Les usagers n’ont plus besoin de nous demander des copies puisque nous les leur mettons à disposition.

La vérité est donc là. Nous, archivistes publics, sommes de plus en plus sollicités pour des demandes de communication à but administratif et juridique. Le meilleur moyen de diminuer les autres catégories de demandes n’est certainement pas de les refuser, mais plutôt de numériser les documents concernés et de les mettre en ligne. Une seule conclusion s’impose. Si les archivistes ne souhaitent plus traiter des demandes non administratives, il leur faut améliorer les conditions d’accès aux documents et non l’inverse. Notons au passage, encore une fois, que l’ouverture est bien vectrice de simplification administrative.

Récapitulons. Le projet de loi propose de restreindre le droit d’accès aux documents administratifs détenus par les services d’archives. Mais aucun des deux arguments avancés pour justifier cette restriction n’est valable.
Dans ce cas, quelle est la justification réelle de ce retour en arrière ? Elle est en fait très simple. L’objectif poursuivi est de permettre aux services d’archives de s’opposer à la réutilisation des informations publiques qu’ils détiennent sans avoir à se justifier. Nombre d’entre eux avaient tenté de le faire, avant que le juge ne les rappelle à la loi. La solution est donc toute trouvée : « puisque la loi ne nous convient pas, changeons la loi ».
Le fait de ne plus garantir le libre accès aux archives entraîne de facto l’impossibilité de garantir la libre réutilisation. Pas d’open data sans libre accès.
Mais faut-il rappeler que l’ouverture des données publiques est un enjeu de démocratie ? Faut-il rappeler qu’il s’agit là d’une demande exprimée par toutes les composantes de la société (citoyens, associations, entreprises, politiques) ? Faut-il rappeler enfin que la mission première des archivistes est de rendre l’information accessible ?
En cherchant à empêcher la réutilisation, les archivistes contreviennent à chacun de ces trois points. Ils reviennent sur un principe démocratique, s’opposent à une demande sociétale et renient l’essence même de leur métier.

Prison |  kIM DARam | CC by-nc

Prison | kIM DARam | CC by-nc

Par ailleurs, j’ai du mal à saisir la logique du législateur qui fait preuve d’une grande schizophrénie en retirant les archives du cadre de la loi Cada alors qu’en parallèle, il s’apprête à imposer l’open data aux collectivités.
Que dire également du ministère de la Culture, porteur de ce projet de loi, et qui a pourtant publié un rapport prônant « l’ouverture et le partage des données publiques culturelles » ?

Malgré des initiatives locales, les archives restent décidément le mouton noir de l’open data.

La neutralité d’Internet : un bien commun reconnu au Parlement Européen

avril 3, 2014 dans Annonce

by Camilo Sanchez.

Le collectif SavoirsCom1 se réjouit de l’adoption d’une version amendée  du  rapport Pilar Del Castillo (Eurodéputée espagnole, et rapporteure du rapport, PPE, centre droit)  qui redéfinit et réaffirme la neutralité du réseau Internet.

On peut ainsi lire que la neutralité du réseau est « le principe selon lequel l’ensemble du trafic internet est traité de façon égale, sans discrimination, limitation ni interférence, indépendamment de l’expéditeur, du destinataire, du type, du contenu, de l’appareil, du service ou de l’application ».

Très concrètement, les fournisseurs d’accès à Internet ne pourront donc plus bloquer ou ralentir les services de leurs concurrents.

Ces amendements avaient été largement soutenus par La Quadrature du Net notamment.

Heure du conte en bibliothèque : SavoirsCom1 appelle à la vigilance suite à la réponse de la SACD !

mars 19, 2014 dans Débats, Les biens communs en action

 par elPadawan licence cc  by-sa

par elPadawan licence cc by-sa

Par un communiqué publié hier, la SACD a répondu à ce qu’elle appelle la « polémique » sur l’Heure du conte en bibliothèque.
SavoirsCom1 prend acte de l’affirmation selon laquelle les faits mentionnés sur le forum de l’ABF correspondraient à un cas isolé, et non à un changement de la politique de la société vis-à-vis des lectures publiques destinées à des enfants en bibliothèque.

Cependant, le communiqué de la SACD est loin d’être totalement éclairant sur ce qui s’est produit, ni complètement rassurant pour l’avenir.En effet, la SACD reconnaît l’existence d’une « demande de renseignements par mail sur les œuvres utilisées dans le cadre de l’Heure du conte par une bibliothèque ».

On est en droit de s’inquiéter du contexte et des modalités de traitement de cette demande d’informations, même si ensuite « aucune perception de redevance n’a été enclenchée ».Par ailleurs, la SACD n’indique à aucun moment dans son communiqué que les lectures publiques gratuites réalisées par des bibliothécaires à des groupes d’enfants devraient pouvoir rester libres ou ne pas être soumises à tarification. Au contraire, elle réaffirme que ces usages sont assimilables à des représentations publiques d’oeuvres protégées, soumises en tant que telles à autorisation préalable des auteurs. Elle précise par ailleurs sa compétence pour agir sur ce terrain, par le biais des mandats confiés à la société par des éditeurs.

Loin d’être rassurants, ces éléments confirment bien au contraire que les heures du conte ne subsistent qu’en vertu d’une tolérance fragile pouvant être remise en question à tout moment.Plus loin, la SACD indique avoir « pris la décision d’ouvrir une concertation avec les auteurs, les ayants  droit et les bibliothèques sur la question des lectures afin d’en  préciser les règles et d’améliorer le système dans l’intérêt des auteurs  et de leur public, notamment les plus jeunes. »Si une « concertation » devait voir le jour, il serait nécessaire de rester très vigilant pour que ces négociations ne constituent pas une occasion de revenir en arrière sur les pratiques permettant aujourd’hui à des bibliothécaires d’accomplir auprès des enfants des actes de médiation essentiels pour l’apprentissage de la lecture et la découverte de la culture. Une telle concertation fait courir le risque que des accords sectoriels soient imposés, à l’image de ce qui existe actuellement en lien avec l’exception pédagogique et de recherche, ce qui reviendrait précisément à rendre les lectures publiques en bibliothèques payantes pour les établissements, quand bien même elles ne font pas intervenir de personnes rémunérées pour la lecture. Cela aboutirait à réduire la sphère des usages libres et gratuits de la culture, là où ils sont les plus légitimes.Le système actuel doit en effet être « amélioré », mais pour faire en sorte que de tels usages collectifs des œuvres soient explicitement garantis par la loi. Les représentations d’œuvres effectuées dans un cadre non commercial dans les lieux accessibles au public devraient être couvertes par une exception au droit d’auteur, afin de les mettre hors d’atteinte. Un tel résultat peut être obtenu en élargissant l’exception déjà prévue actuellement pour les représentations gratuites effectuées dans le cadre du cercle de famille.

Les réactions qui ont eu lieu ces derniers jours ont montré un très large attachement à ces formes d’usage que constituent les lectures publiques aux enfants en bibliothèque. Si ces pratiques culturelles collectives sont reconnues comme socialement utiles et légitimes, elles ne peuvent se satisfaire d’une simple tolérance révocable, mais doivent trouver une consécration légale, pleine et entière.

SavoirsCom1 ne considère pas que le communiqué fait par la SACD apporte une réponse sur le fond aux questions posées ces derniers jours à propos des lectures publiques en bibliothèque. Nous resterons attentifs et mobilisés quant aux suites qui seront données, en appelant les bibliothécaires qui participeront à cette concertation à la vigilance.

Dans  cette perspective, SavoirsCom1 appelle les bibliothécaires à nous signaler les cas similaires auxquels ils auraient pu être directement confrontés (correspondant à des animations gratuites réalisées en dehors du recours à des intervenants rémunérés).

La SACD veut faire payer les heures du conte en bibliothèque ! Protégeons cet usage collectif de la culture !

mars 17, 2014 dans Annonce

Partout en France, les bibliothèques de lecture publique organisent des « heures du conte », au cours desquelles des ouvrages sont lus en groupe à des enfants. Ces animations sont très courantes dans les bibliothèques et elles participent à l’éveil du goût pour la lecture chez les plus jeunes. Jusqu’à présent, cette pratique est restée libre, bien que ces lectures publiques puissent être assimilées à des représentations en public d’oeuvres protégées.

Chaperon

Source : Wikimedia Commons. Domaine public.

Mais comme on peut le lire sur le forum de l’Association des Bibliothécaires de France, plusieurs établissements ont récemment reçu des courriers de la part de la SACD, la société des gestion collective des auteurs dans le domaine du spectacle vivant. Cet organisme réclame visiblement que les bibliothèques déclarent la tenue de telles animations et la liste des livres utilisés, afin de les soumettre à une tarification. Ce faisant, cette société manifeste sa volonté de mettre fin à une tolérance admise depuis des décennies, ce qui fragilise la capacité des bibliothèques à jouer leur rôle de médiation culturelle. Rappelons également que les bibliothécaires promeuvent ainsi et depuis longtemps, une diversité et une richesse éditoriale pour la jeunesse dont la France s’enorgueillit.

Lire la suite de cette entrée →

Le Réseau francophone autour des biens communs interpelle les candidats aux municipales

mars 4, 2014 dans Les biens communs en action

vebcLe « réseau francophone autour des biens communs » décline des pistes concrètes et les candidats sont invités à s’en emparer à travers un document intitulé « Les Communs, candidats aux municipales- 16 propositions pour tout de suite »

Ces 16 Propositions, regroupées en trois parties, :
A/ La municipalité productrice de Communs,
B/ La municipalité coproductrice de communs avec les citoyens
C/ La municipalité, soutien et facilitatrice des Communs.

sont issues d’expériences à déployer « qui peuvent aider à définir, appuyer ou intensifier une politique des Communs à l’échelle des villes ». L’intégralité de ces propositions  est accessible sur le site de Villes en biens communs. Pour en savoir plus, le réseau peut être contacté : contact.vebc@bienscommuns.org 

Le collectif SavoirsCom1 relaie ces propositions, certaines concernant directement les biens communs de la connaissance.

A/ La municipalité productrice de Communs

1. Des archives et des fonds de bibliothèques et de musées du domaine public numérisés en libre accès

2. Des contenus produits par la municipalité en accès libre pour nourrir un domaine public volontaire

3. Une politique active d’ouverture de données sous licence partage à l’identique   

4. Favoriser la circulation des informations par la mise à disposition d’accès internet ouverts dans les espaces et bâtiments publics.

B/ La municipalité coproductrice de communs avec les citoyens

5. Un espace public co-designé avec les habitants, pilier d’une gouvernance contributive

6. Une information sur la ville coproduite avec les habitants

7. Renforcer l’investissement citoyen face au changement climatique

8. Des jardins partagés au « guerilla gardening » : remettre la nature en Commun dans la ville

9. Des réseaux d’accès à internet collaboratifs et ouverts

10. Soutenir l’émergence citoyenne de monnaies complémentaires

C/ La municipalité, soutien et facilitatrice des Communs

11. Faire le choix des logiciels libres

12. Utiliser et alimenter des fonds cartographiques ouverts

13. Mailler le territoire de tiers-lieux susceptibles d’accueillir et faire fructifier l’innovation sociale et le débat citoyen

14. Développer l’habitat participatif et groupé

15. Permaculture et circuits courts : nourrir les villes autrement

16. Soutenir les dispositifs participatifs dans la gestion des ressources naturelles

 

 

Protocole d’accord Elsevier : vers le maintien de la rente et la confirmation d’un contrôle hégémonique des données de la recherche

février 21, 2014 dans Annonce

Le 31 janvier 2014, le consortium Couperin en charge de la négociation avec Elsevier, l’Agence Bibliographique de l’Enseignement Supérieur et l’éditeur sont arrivés à un protocole d’accord concernant l’abonnement au bouquet de périodiques « Freedom Collection » en licence nationale. Ce projet d’accord, qui porte sur cinq ans (du 1er janvier 2014 au 31 décembre 2018), constitue une avancée en termes de couverture institutionnelle : comme le dit le communiqué du consortium Couperin, « la licence nationale couvre l’intégralité des établissements de l’enseignement supérieur et de la recherche, de nombreux établissements hospitaliers publics et des agences, ainsi que la Bibliothèque nationale de France. Le périmètre des établissements desservis passe ainsi de 147 établissements à 642″. D’autres évolutions vont dans le sens d’une plus grande clarté et d’une plus grande cohérence du modèle tarifaire; ainsi le calcul du montant dont doit s’acquitter chaque établissement n’est plus indexé au montant qu’il payait pour les revues papier auxquelles il était abonné avant l’émergence des revues en ligne.

Botcott_Elsevier_3Cependant,on peut s’étonner du choix de la non-publicité, quand on sait qu’une telle stratégie fait le jeu à coup sûr de l’éditeur. Comme l’expliquait très bien David Tempest, Deputy Director of Universal Sustainable Research Access chez Elsevier, lors d’une table ronde organisée à l’Université d’Oxford en avril 2013 : « il y a des clauses de confidentialité inhérentes au système, pour ce qui concerne la Freedom Collection. (…) Et nous devons nous assurer, de façon à obtenir une compétition juste (fair) entre les pays, que nous avons ce niveau de confidentialité pour faire fonctionner tout ça. Autrement, tout le monde ferait baisser les prix, baisser, baisser, baisser, baisser… » C’est le secret même des négociations qui permet à l’éditeur de faire monter les enchères comme bon lui semble. La confidentialité est une composante indissociable du business model d’Elsevier et de tout éditeur scientifique en général. A ce titre, il nous semble important que Couperin et l’ABES clarifient leur position concernant la publicité des accords signés avec les éditeurs scientifiques, et en particulier celle des conditions tarifaires.

Par surcroît, la confidentialité des pourparlers entre les instances nationales et l’éditeur scientifique n’a pas permis de laisser place au débat citoyen et à une évaluation claire et transparente des enjeux mêmes de la négociation. En cela, SavoirsCom1 salue et soutient l’initative de Daniel Bourrion, qui en rendant public le protocole d’accord, a permis un débat, même tardif, sur un certain nombre de clauses. Notre collectif désapprouve au plus haut point les rappels à l’ordre adressés à Daniel Bourrion sur la base du devoir de réserve.

Le protocole d’accord présente un certain nombre de faiblesses que le collectif SavoirsCom1, soucieux de défendre l’inaliénabilité du domaine public de l’information, souhaite pointer.

Lire la suite de cette entrée →

Open data culturel : audition de notre collectif au Sénat

février 19, 2014 dans Les biens communs en action

Logo_du_Sénat_Republique_française.svgNous sommes intervenus lors d’une audition au Sénat le 6 février dernier à l’invitation de la Mission commune d’information sur l’accès aux documents administratifs et aux données publiques organisée par le Sénat.

Sont intervenus Silvère MERCIER, co-fondateur du collectif, Pierre-Carl LANGLAIS, doctorant en sciences de l’information et de la communication à Paris IV, administrateur de la Wikipédia francophone, et Thomas FOURMEUX, assistant multimédia au sein des bibliothèques d’Aulnay-sous-bois.

Vous trouverez le lien vers la vidéo de notre intervention ci-dessous. Vous pouvez également télécharger notre intervention en mp3 ou l’écouter en ligne :

 

La mission d’information du Sénat sur l’accès et la réutilisation des informations publiques a également lancé une consultation publique ouverte à tous. SavoirsCom1 incite tous les acteurs intéressés par l’ouverture des données publiques à y répondre !

 

Si pour Elsevier la confidentialité est un business modèle, qui sont les dindons de la farce?

février 14, 2014 dans Enclosures

dindon[billet initialement publié sur le blog biblioth|ê|thique, par François Renaville]

Ce 6 février dernier, Daniel Bourrion (BU Angers) a diffusé un communiqué du consortium Couperin annonçant qu’un accord avait enfin été conclu avec Elsevier concernant l’abonnement à la Freedom Collection en licence nationale.

Présenté comme équilibré et financièrement intéressant, les « acquis de ce contrat sont uniques et propres au marché français ». Couvrant bien plus d’établissements supérieurs que le contrat précédent, ce nouvel accord, d’une durée de 5 ans (2014-2018), se distingue également par le fait qu’il porte « désormais en un abonnement à une base de données avec acquisition des contenus, il ne s’agit plus d’un abonnement à une liste de titres avec un ensemble de surcoûts pour l’accès à la collection complète ». En d’autres termes, le modèle économique s’affranchit d’une tarification basée sur les abonnements papiers, finie donc la distinction habituelle holdings – efees. Il n’y a plus de distinction entre les titres souscrits et non souscrits.

Sur le plan financier, on notera que les coûts totaux des trois premières années du contrat sont inférieurs au coût 2013 !

On en restera là sur les termes de l’accord, très instructif s’il en est pour les autres clients Elsevier ne faisant pas partie de Couperin !

Le communiqué de Couperin ne comportant aucune mention de confidentialité, quoi de plus normal que de le diffuser ? Qu’il y a-t-il de moins communicable qu’un communiqué ? Le communiqué est alors chargé sur un site personnel, un tweet est envoyé, retweeté et suscite des réactions.

Le lendemain, coup de théâtre et… coup de téléphone officiel à la hiérarchie de Daniel Bourrion afin que celui-ci retire le communiqué en question de son site. Argument massue : le sacro-saint devoir de réserve. Daniel s’exécute, à son corps défendant. Un (sublime) billet publié quelques jours plus tard résume bien l’état d’esprit du collègue : « Le communiqué qu’il ne faut pas lire… »

Pour commencer, cette confidentialité est choquante parce qu’elle prive les citoyens d’information sur les conditions (tarifs mais pas que […]) auxquelles nous nous livrons pieds et souris liés à un éditeur privé qui a depuis longtemps perdu toute visée académique en devenant une entreprise cotée en bourse, dégageant de très confortables bénéfices en pillant l’argent public, et qui a tout intérêt à ce que ces choses restent confidentielles jusqu’à ce que le piège se referme pour cinq nouvelles années fermes (moins les chercheurs en savent, moins ils se disent que peut-être, les archives ouvertes seraient par exemple un moyen de cesser d’être tondus, financièrement et intellectuellement, par ce genre d’éditeurs). En l’espèce ici, la question de « à qui profite le crime » (de la confidentialité) me semble se poser, et je gage que vous trouverez la réponse seuls.

Et puis, cette méthode (l’ordre de retrait arrivé des hautes sphères qui vous tombe dessus par le biais de la hiérarchie, assorti du bon vieux coup du devoir de réserve) me dérange profondément, en tant que professionnel. Parce que pour moi, mon métier se résume en deux règles très simples dont j’imaginais qu’elles étaient celles de tout bibliothécaire :

  • diffuser au maximum et sur tout support existant toute l’information disponible sous réserve qu’elle ne nuise pas à la dignité humaine ;
  • organiser cette information pour que tous les citoyens puissent s’y retrouver (à tous les sens du terme) ;

En me demandant de retirer ce communiqué (sacré paradoxe, un communiqué que personne ne doit voir…), c’est ma première règle professionnelle qui a été mise à mal. De l’intérieur. Et ça, c’est vraiment une grosse, très grosse couleuvre que j’ai en travers de la gorge.

En supprimant ce document, en l’enlevant à la vue de mes collègues et autres citoyens lambda, au garde-à-vous devant mon écran, j’ai repensé à une phrase que répétait souvent mon père : « Réfléchir, c’est déjà désobéir ».

Devoir de réserve et confidentialité… La belle affaire !

Un devoir de réserve vis-à-vis d’un document ne présentant aucun caractère confidentiel et concernant un accord entre un consortium d’enseignement supérieur (fonds publics) avec une société commerciale dont le chiffre d’affaires du premier trimestre 2013 est de 3.570 millions d’euros ?

Un devoir de réserve vis-à-vis d’un accord avec un éditeur qui, jusqu’en 2007, investissait dans la vente et la démonstration d’armes ? Elsevier lâcha ce fond de commerce sous la pression des clients, actionnaires et universitaires (lire à ce propos l’excellent article Reed-Elsevier’s hypocrisy in selling arms and health). Six ans plus tard, en octobre 2013, Elsevier publie d’ailleurs dans une de ses revues, The American Journal of Medicine, une étude selon laquelle les pays où il y a le moins d’armes en circulation sont plus sûrs que ceux où il y en a plus (Bangalore, S., & Messerli, F. H. (2013). Gun ownership and firearm-related deaths. American Journal of Medicine, 126(10), 873-876. doi:10.1016/j.amjmed.2013.04.012).

Un devoir de réserve vis-à-vis d’un éditeur qui fait retirer un article scientifique de ses propres revues parce que les résultats déplaisent à Monsanto ?

Un devoir de réserve vis-à-vis d’un éditeur qui cherche à contrôler les projets de data mining ?

Un devoir de réserve vis-à-vis d’un éditeur qui annonce tout de go que la confidentialité des négociations est nécessaire à son business modèle, sinon… les prix risqueraient de baisser (sic !). On s’en doutait un peu, mais de là à oser le dire devant des bibliothécaires et des chercheurs… C’est pourtant ce que David Tempest, Deputy Director of Universal Sustainable Research Access chez Elsevier, expliqua clairement lors d’une table ronde organisée à l’Université d’Oxford en avril 2013.

Transcription :

Personne du public: I’m glad David Tempest is so interested in librarians being able to make costs transparent to their users, because at my university, Imperial College, my chief librarian cannot tell me how much she pays for Elsevier journals because she’s bound by a confidentiality clause. Would you like to address that?
[Applaudissements du public]
David Tempest: Well, indeed there are confidentiality clauses inherent in the system, in our Freedom Collections. The Freedom Collections do give a lot of choice and there is a lot of discount in there to the librarians. And the use, and the cost per use has been dropping dramatically, year on year. And so we have to ensure that, in order to have fair competition between different countries, that we have this level of confidentiality to make that work. Otherwise everybody would drive down, drive down, drive drive drive, and that would mean that…
Source : Elsevier’s David Tempest explains subscription-contract confidentiality clauses

Le reste de la réponse est inaudible en raison des rires de l’assemblée…

Un devoir de réserve, ça ne doit donc pas aussi se mériter ?

Si Daniel, lui, a été vivement invité à retirer le communiqué de son site, au moins, contrairement à David Tempest, personne ne lui a ri au nez à lui… Merci, Daniel, allez, ça va d’aller ! Tu restes le vainqueur moral de cette affaire !

Note : Le pdf du communiqué Couperin reste téléchargeable ici. Travaillant actuellement pour un autre consortium, je me fais quelque peu violence pour ne pas le diffuser via le blog, du moins pour l’instant

Alerte Enclosures! Quand Elsevier écrit sa propre loi…

février 10, 2014 dans Enclosures

Barbeles (1)[Billet repris du blog Sciences Commune, le blog de Pierre-Carl Langlais]

Le leader mondial incontesté de l’édition scientifique, Elsevier s’engage en faveur d’une simplification du data mining. De nouvelles conditions d’accès, dévoilées le mois dernier, vont grandement simplifier l’accès à l’un des principaux corpus de publications scientifiques. D’autres éditeurs devraient prochainement adopter un modèle similaire. C’est notamment le cas du principal concurrent d’Elsevier, Springer.

En apparence ce pourrait être une bonne nouvelle. La recension de Nature met ainsi en évidence l’engouement de certains chercheurs. Max Hauessler, l’instigateur d’un immense projet d’extraction des articles scientifiques sur le génome humain, a salué l’initiative : « Finalement, tout ceci montre qu’il n’y a plus aucune raison d’être effrayé par le text-mining ». Les membres du Human Brain Project (le projet européen d’étude du cerveau humain, doté d’un budget d’un milliard d’euros) semblent également emballés par l’affaire : « Nous sommes enchanté par tout ceci. Cela résout d’importantes questions techniques ».

En France, le consortium Couperin vient de conclure un accord avec Elsevier, qui comprend une clause spécifique sur le data mining :

Tous les contenus accessibles et souscrits sur ScienceDirect dans le cadre de cet accord seront utilisables à des fins de data et text mining via une interrogation des données par une API connectée à la plateforme ScienceDirect. Les modalités appliquées seront celle du cadre juridique défini par Elsevier pour ce type de service.

Selon les termes de l’accord, plus de 600 établissements publics français pourront accéder au corpus Elsevier. Ce qui constitue autant de point d’accès pour faire du data-mining à une vaste échelle.

Alors, une bonne nouvelle ? En apparence seulement… Le choc de simplification d’Elsevier n’a qu’un mérite : il met fin à une situation relativement chaotique où, faute de cadre légal défini, les chercheurs passaient plus de temps à négocier avec les éditeurs qu’à extraire et analyser le corpus. Pour le reste, tout est mauvais…

API obligatoire…

Les termes de la licence sont profondément inadaptés. Elsevier oblige tout-le-monde à passer par son API. Les robots et les algorithmes de recueil automatiques ne peuvent accéder au site lui-même afin de « garantir la performance et la disponibilité du site pour tous les usagers ». Ce prétexte ne saurait légitimer une interdiction complète. Seul l’usage excessif de requêtes automatisées peut entraîner une baisse de performance du site — raison pour laquelle Wikipédia plafonne les requêtes sur sa base de données (je n’ai plus les chiffres en tête, mais cela devait tourner autour de quelques milliers de requêtes par heure par utilisateur).

L’API n’est obligatoire que parce que Elsevier tient à contrôler directement les termes et les modalités de la recherche. Pour reprendre la terminologie introduite par la thèse (en cours…) de Samuel Goyet, l’API s’apparente étroitement à un texte de loi : elle détermine par avance les commandes qu’il est possible de réaliser.

Les requêtes à l’API sont elles-mêmes plafonnées à 10 000 articles par semaine. Pour un projet ambitieux, c’est peu. En réutilisant ce système pour analyser 3 millions d’articles, Text2Genome y aurait passé près de 300 semaines, soit 6 ans. Et en plus, il lui aurait fallu découper son corpus en rondelle, sans avoir la possibilité de faire une requête unique à l’ensemble du corpus.

Le passage par l’API limite considérablement les possibilités d’analyse. Il est nécessaire de passer par le réseau Internet. Là où une simple base de donnée MySQL permet de survoler plusieurs millions d’entrées en quelques dizaines de seconde, le recours à l’API génère des délais d’attente bien plus longs, dépendant qui plus est des aléas de la connexion (le wifi parfait, ça n’existe pas…).

Vers une privatisation de l’information

L’emprise d’Elsevier ne s’arrête pas là. L’éditeur ne cherche pas seulement à contrôler les projets de data mining en amont, mais aussi en aval. La licence Elsevier comprend trois conditions. Tout élément (output) issu de l’extraction :

  1. peut comprendre des extraits de 200 caractères au maximum du texte original.
  2. doit être publié sous une licence non commercial (CC-BY-NC)
  3. doit inclure un lien DOI vers le contenu original.

La dernière condition est clairement la moins problématique. La traçabilité des données nécessite certes un équipement technique adéquat (pour reprendre le jargon des data scientists, il faut passer du triplet sujet-prédicat-objet au quadruplet sujet-prédicat-objet-source). Mais elle constitue une pratique saine, d’ailleurs appelée à se généraliser. Wikidata inclut ainsi des notes de base de donnée : chaque donnée étant appelée à être étayée par une source fiable.

La première condition contredit ouvertement l’exception de courte citation. En France, le législateur a volontairement adopté une définition floue afin de laisser le juge statuer sur chaque cas selon ses spécificités. Les exceptions sont beaucoup trop nombreuses pour envisager de faire une règle fixe. L’application du droit de citation sera beaucoup plus rigoureuse pour une œuvre courte (comme par exemple un poème) que pour un roman de mille pages. Or Elsevier tente de contourner le droit existant pour imposer sa propre règle : une limite de 200 caractères, purement arbitraire. Cela hypothèque quantité de projet comme le souligne bien Peter Murray-Rust : les noms de composés chimiques excèdent fréquemment la barre des 200 caractères.

Là n’est pas encore le plus grave. La deuxième condition introduit une dérive beaucoup plus problématique : elle requiert une forme de privatisation de l’information. Nul ne peut en effet réclamer de droit de propriété sur une information, une opinion ou une idée. Tous ces éléments relèvent du domaine public de l’information. Pour reprendre l’excellente définition de l’UNESCO, il existe un « indivis mondial de l’information » composé de toutes les informations publiquement accessibles. Le fonctionnement de la recherche repose explicitement sur cet indivis : le format classique de l’article de recherche, quadrillé de notes de base de page, suppose de pouvoir légitimement reprendre une information préalablement publiée.

Les données « solitaires » font globalement partie de ce domaine public de l’information. À moins de reprendre une expression textuelle originale, elles ne sont pas concernées par le droit d’auteur. Le droit des bases de données ne porte qu’au niveau structurel : chaque donnée individuelle est disponible pour n’importe quelle reprise, au même titre que n’importe quelle information publiquement accessible.

Or Elsevier impose discrètement l’idée que les informations pourraient être protégées. L’utilisation du terme ambigu output permet d’opérer ce glissement lourd de conséquence : tout ce qui sort des publications d’Elsevier reste la propriété d’Elsevier et l’éditeur est libre d’imposer ses propres conditions pour leur réutilisation. Ni les informations, ni les données « solitaires » n’échappent à cette appropriation globale : toute reprise du contenu d’Elsevier à des fins de data mining devra être publié sous une licence non-commerciale.

Cette dérive est lourde de conséquence. Une fois que Elsevier est parvenu à imposer l’idée que tout output donne potentiellement lieu à une protection, rien ne l’empêche d’aller beaucoup plus loin. Cette règle peut aisément être généralisée à l’ensemble des pratiques de reprises de l’information. Nous faisons, tous, au quotidien du data-mining en récupérant des informations dans des textes préalablement publiés. L’API et les algorithmes d’extraction ne sont que des outils supplémentaires visant à simplifier cette activité fondamentale. Un projet de l’ampleur de Text2Genome aurait très bien pu être réalisé avec un papier et un crayon : son élaboration aurait simplement pris un ou deux siècles plutôt que quelques années.

Les données sur le data mining

Il ne suffit pas de payer un abonnement à Elsevier pour avoir accès à l’API. Il est nécessaire d’enregistrer son projet sur developers.elsevier.com. Je n’ai pas pu accéder au formulaire (cela requiert un enregistrement préalable). Par contre, Springer a dévoilé un système assez similaire dans une présentation publiée sur le site de la Commission européenne.

Le système de licences de Springer

Le système de licences de Springer

L’éventail des informations nécessaires est large. Les chercheurs doivent décrire le projet et spécifier sa durée, délimiter le contenu à extraire, indiquer si un tiers aurait accès aux informations, etc. Le data-mining selon Springer et Elsevier s’apparente ainsi à une transaction commerciale non monétaire : les projets doivent céder leurs métadonnées pour obtenir les données du corpus éditorial. L’éditeur est ensuite libre d’exploiter ces métadonnées à des fins de marketing ou de les revendre à d’autres organisations.

On aboutit ainsi à un véritable paradoxe. Alors que l’essentiel de la recherche française est financée par l’argent public, seuls quelques grands éditeurs privés ont une vue globale sur l’ensemble des projets réalisés. Et les licences sur le data-mining vont aggraver une situation déjà déséquilibrée. Les éditeurs n’auront pas seulement des informations sur les projets réalisés, mais sur ceux en train de se faire.

Elsevier vs. La loi

Au début de l’année 2013, les grands éditeurs scientifiques marquent un grand coup. Ils parviennent à s’approprier entièrement le seul processus européen visant à doter le data mining scientifique d’un cadre légal : le text and data mining working group. En dépit de nombreuses protestations, les licences éditoriales au cas par cas s’imposent comme la seule solution envisageable : la Commission européenne a explicitement refusé de considérer des solutions alternatives (comme une exception générale).

Dès lors, chaque éditeur pourrait écrire sa propre loi et s’arranger librement avec la législation existante. Elsevier s’affranchit ainsi à la foi du droit de courte citation et du domaine public de l’information.

Depuis quelques mois, cette issue est devenue beaucoup moins certaine. Boycotté par de nombreux interlocuteurs essentiels (comme l’OKFN ou la Ligue des bibliothèques européennes), le Text and Data Mining Working Group a succombé à une certaine léthargie. Plusieurs pays européens envisagent ouvertement une exception (c’est notamment le cas du Royaume-Uni et de l’Irlande). L’exception a d’ailleurs été actée de facto dans la loi américaine à l’issue de la dernière décision du procès Google Books : elle est couverte par le fair use.

La recension de Nature fait ainsi état d’un revirement progressif de la Commission Européenne (peut-être lié à l’approche des prochaines élections européennes). Un nouveau processus de réflexion aurait été confié au juriste britannique Ian Hargreaves. Hargreaves a joué un rôle essentiel dans la conception du programme britannique de modernisation du copyright. Il a également fortement encouragé le développement d’une exception pour le data-mining. En juin dernier, il critiquait ouvertement la politique actuelle de l’Union européenne en matière de droit des bases de données.

Hargreaves devrait remettre son rapport à l’Union Européenne à la fin du mois. La Commission semble désormais assez sensible à un argument économique : les éditeurs ne sont pas, et de loin, les principaux bénéficiaires d’un data-mining libéralisé ; un tel cadre légal profiterait à l’ensemble de la société.

En France, le collectif Savoirscom1 a été récemment auditionné sur le sujet par le Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA). Les propositions du collectif ont été exposées dans une petite synthèse, que j’ai rédigé avec Lionel Maurel, Quel statut légal pour le content-mining ?.

Le rapport formule pour l’essentiel deux propositions :

  • Reconnaître l’existence d’un domaine public de l’information, qui permet d’extraire toutes les informations et les données solitaires ne répondant pas à un critère d’originalité.
  • Mettre en place une exception limitative, autorisant notamment l’importation substantielle d’une base de données ou de textes soumis au droit d’auteur sous réserve que la copie ne reste accessible qu’au seul projet de recherche.

Bien que nous ayons reçu un assez bon accueil du CSPLA, ces deux propositions sont très loin d’être acquises. Au cours de la semaine passé j’ai été auditionné au sénat par la Mission commune d’information sur l’accès aux documents administratifs et aux données publiques. Je représentais le collectif Savoirscom1 avec Silvère Mercier et Thomas Fourmeux. J’ai commencé à évoquer l’intégration des données de la recherche au régime général des données publiques et la nécessité de formaliser le domaine public de l’information : le président de la mission n’a pu réprimer un certain étonnement tant ces suggestions paraissaient exotiques…

Réutilisation des informations publiques : les recommandations de Savoirscom1

février 5, 2014 dans Débats, Enclosures

Synthèse de Savoirscom1 / CC-BY

Synthèse de Savoirscom1 / CC-BY. Sélectionnez l’image pour ouvrir le document.

La France est sur le point d’intégrer une nouvelle directive européenne sur la réutilisation des informations du secteur public. La directive 2013/37/UE de juillet 2013 préconise en apparence d’élargir le périmètre de l’ouverture à plusieurs institutions culturelles : les bibliothèques, les musées et les archives. Pour les institutions déjà concernées par la précédente directive de 2003, elle entérinerait le déclin des redevances en les plafonnant au coût marginal (concrètement, les redevances ne constitueraient plus une réelle source de financement).

Le collectif Savoirscom1 a été sollicité par plusieurs institutions publiques pour clarifier les enjeux de cette nouvelle directive. Le 31 janvier, Lionel Maurel et Pierre-Carl Langlais ont participé à une réunion de travail d’Étalab, la mission gouvernementale chargée de l’ouverture des données publiques. Le 6 février, Silvère Mercier, Thomas Fourmeux et Pierre-Carl Langlais sont auditionnés au Sénat par la mission commune d’information sur l’accès aux documents administratifs et aux données publiques.

La position du collectif a été définie dans une synthèse d’une vingtaine de pages : Quelle politique de réutilisation des informations du secteur public ? Cette synthèse a été remise à Étalab. Elle a servi de base à l’audition du 6 février au Sénat.

La synthèse se décline en deux volets. Elle tente tout d’abord d’évaluer l’impact de l’intégration de la directive. Elle propose ensuite une série de recommandations permettant d’envisager une refonte globale de la loi de 1978 sur la liberté d’accès aux documents administratifs.

Une directive et ses dérives…

Il convient d’emblée de signaler que la France n’est pas tenue de suivre à la lettre les dispositions de la directive. Il s’agit plutôt d’un socle a minima : les États-membres sont libres d’engager une politique beaucoup plus ambitieuses.

Une intégration « créatrice » semble d’ailleurs nécessaire. La directive est globalement en retrait des évolutions récentes de la politique française.

Elle acte une subdivision des informations publiques en trois régimes : le régime général des institutions administratives (dont le produit des redevances ne saurait excéder le coût marginal : la France ira sans doute au-delà de ce principe, le rapport Trojette recommandant la gratuité), le régime d’exception de certaines institutions culturelles (qui peuvent continuer de tirer des bénéfices des redevances) et le régime « fermé » de toutes les autres institutions (libre de fixer leurs propres conditions d’ouverture et de réutilisation). Ce millefeuille singulièrement complexe va à l’encontre du processus d’uniformisation progressive des informations publiques française. Le Guide data culture de Camille Domange prône ainsi la normalisation de l’ensemble des institutions culturelles et leur intégration dans un régime général.

Elle comprend plusieurs dispositions problématiques, qui constituent potentiellement une régression par rapport à la loi de 1978. Elle établit l’existence d’un droit d’auteur des fonctionnaires, jamais explicitement établi jusqu’alors dans la loi française. Elle tente également de légitimer le copyfraud en sanctifiant a posteriori les accords BNF. La 10e section recopie les principales dispositions du contrat BNF-Proquest : exclusivité de dix ans, potentiellement extensible, la numérisation des ressources culturelles est désormais exclue de toute la politique d’ouverture des données publiques. Peut-on réellement envisager de bâtir une politique cohérente d’accessibilité des informations publiques à partir d’un contrat unique et fortement contesté ?

Recommandations

La synthèse propose dans un second temps une série de recommandations qui s’inscrirait dans le cadre d’une refonte global de la loi de 1978. Cette refonte découle essentiellement de certains grands principes de notre tradition républicaine : l’existence d’un domaine public de l’information, prérequis indispensable à la libre circulation des idées et des pensées, et l’impératif de publicité du fonctionnement de l’État.

Le collectif propose un cadre légal d’ouverture des informations publiques fondé sur l’association de deux domaines public.

Les données individuelles appartiennent d’emblée au domaine public de l’information. Elles se situent en dehors du champ de la propriété intellectuelle. L’Unesco a proposé une définition très intéressante de ce domaine public de l’information, qui associe un constat (toutes les informations publiquement accessibles sont libres) à une prescription (toutes les informations « publiques » au sens où elles intéressent le citoyen devraient être libres).

Le statut juridique des bases de données est cependant plus complexe. La structure globale de la base peut être protégée au titre du droit d’auteur ou du droit sui generis des bases de données. Le collectif préconise de placer tous ces éléments originaux dans le domaine public des œuvres. Cette recommandation reste cependant suspendue à une définition positive du domaine public dans la loi (ce que prévoient un projet de loi déposé par Isabelle Attard ainsi qu’une disposition du rapport Lescure). En l’absence d’une telle définition, des tiers pourraient en profiter pour ré-enclore la publication placées dans le domaine public des œuvres (ce l’on appelle le copyfraud).

Tant que la situation légale du domaine public des œuvres n’a pas été explicitée, il est préférable de recourir à des licences virales (comme CC-BY-SA 4.0 ou ODbL). Elles offrent une protection similaire : obligation d’attribution (en conformité avec le droit moral inaliénable) et partage à l’identique (ce qui permet d’éviter l’apparition de nouvelles enclosures).

La synthèse se conclut sur la nécessité de constituer un seul régime d’ouverture. Rien ne justifie de mettre les informations culturelles dans un régime d’exception ou de maintenir les informations d’enseignement et de recherche dans un régime fermé. Cette subdivision est d’autant plus dommageable que les milieux scientifiques appellent eux-même à une ouverture générale des données et informations scientifiques dans un souci de vérifiabilité accrue des travaux de recherche.

Extraction automatisée des données et des textes : Savoirscom1 s’engage pour une exception!

janvier 24, 2014 dans Débats, Enclosures, Veille du collectif

Synthèse de la position de Savoirscom1 rédigée par Pierre-Carl Langlais et Lionel Maurel (CC0)

Synthèse de la position de Savoirscom1 rédigée par Pierre-Carl Langlais et Lionel Maurel (CC0). Cliquez sur l’image pour ouvrir le PDF.

L’extraction automatisée des textes et des données (ou text and data mining) est une activité en plein essor. L’amélioration des techniques existantes et la démultiplication des corpus accessibles depuis les réseaux numériques entraînent une véritable révolution des usage scientifiques. Le projet Text2genome est ainsi parvenu à dresser une cartographie ambitieuse du génome humain en compilant 3 millions de publications.

Ces projets ambitieux se heurtent cependant à de nombreuses complications légales. Aux États-Unis, la situation tend à se clarifier : l’extraction automatisée ressortirait du « fair use » (ou usage loyal), une exception très souple qui permet de s’émanciper des contraintes de la législation sur la propriété intellectuelle. Les pays européens ne disposent pas d’une exception comparable.

L’Union Européenne a lancé, début 2013, un groupe de travail sur l’extraction automatisée (le text and data mining working group). Le processus a rapidement pris une direction non-consensuelle en préconisant d’emblée un système de licences contractuelles, accordée au cas par cas par les éditeurs. La ligue des bibliothèque de recherche européenne et plusieurs associations de défense de la connaissance libre (dont l’OKFN) ont décidé de boycotter l’initiative. La réflexion est aujourd’hui au point mort. En l’absence d’une décision adaptée, la recherche européenne risque d’être radicalement distancée par la recherche américaine.

Le Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) organisait une audition sur le sujet le 15 janvier. Le collectif Savoirscom1 était représenté par Lionel Maurel et Pierre-Carl Langlais.

La position du collectif est précisée dans cette synthèse. Elle découle de deux constats.

L’extraction automatisée porte sur des idées et non des expressions originales et s’inscrit, à ce titre, dans le domaine public de l’information. Il s’agit pour l’essentiel, de déléguer à des algorithmes la réalisation de pratiques anciennes : l’identification et l’extraction d’information constituent le labeur quotidien du chercheur depuis que la recherche scientifique existe. La plupart des projets d’extraction automatisée peuvent d’ailleurs être effectués avec un papier et un crayon : ils prendraient simplement beaucoup plus de temps.

Bien que l’extraction automatisée se situe, dans l’absolu, hors du champ de la propriété intellectuelle, sa mise en œuvre entraîne des infractions potentielles aux protections existantes. Il s’avère ainsi beaucoup plus efficace de recopier intégralement un corpus dans une base de donnée relationnelle. Bien qu’elle ne donne pas lieu à une publication, une copie de ce type n’est couvert par aucune exception existante.

Sur la base de ces constats, plusieurs recommandations ont été faites.

1. Formaliser la définition du domaine public de l’information. Bien que cette notion soit totalement cohérente avec le code de la propriété intellectuelle, qui ne porte que sur des « œuvres originales », elle n’est jamais précisée. Cette explicitation s’inscrirait aisément dans les différents projets de définition positive du domaine public envisagés au cours de l’an passé (projet de loi d’Isabelle Attard, recommandation de Pierre Lescure).

2. Mettre en place une exception qui couvrirait les infractions potentielles de l’extraction automatisée (en particulier le droit de copie temporaire). Un projet irlandais, basé sur un « fair dealing » (soit une liste limitative de conditions pour que l’exception soit valide) constitue une source d’inspiration intéressante. Cette exception ne pourrait être validée qu’au niveau européen. Le gouvernement français ne serait pas seul à favoriser cette option : le Royaume-Uni et l’Irlande ont déjà développé des propositions d’exception ; l’Allemagne s’est engagée dans une politique ambitieuse de libre accès où une exception pour l’extraction automatisée aurait toute sa place.

3. La synthèse inclut également des recommandations plus spécifiques : faciliter l’extraction automatisée des contenus dans le domaine public ou du corpus des livres indisponibles, élargir les conditions d’accès aux archives du web, clarifier les conditions de publication en libre accès dans les archives ouvertes (HAL) mais aussi sur d’autres interfaces (Persée, Hypotheses, Revue.org)

La synthèse propose enfin un historique des réflexions légales engagées autour du l’extraction automatisée, ainsi qu’une évaluation des différentes options envisagées (soit, outre l’exception, un système de licence et un système de gestion collective). Elle est publiée dans le domaine public vivant (licence CC0). N’hésitez pas à la diffuser et à la partager!

Suivez la veille du collectif SavoirsCom1

juillet 18, 2013 dans Non classé

birdie-foscarini-lampe-design-orange-1 (1)Parce qu’un jour sans veille est un jour sans lendemain, nous vous proposons de suivre notre fil de veille commentée !

Il est alimenté par les membres de notre collectif. Nous allons privilégier une veille commentée et sélective.

Les thématiques de veille sont celles de notre Manifeste

Pour suivre cette veille rien de plus simple, vous avez le choix ! Attention si vous êtes abonnés par mail ou par fil rss aux mises à jour du site SavoirsCom1, vous devez vous inscrire à nouveau pour suivre la veille, il s’agit de deux canaux distincts.

SavoirsCom1 : quoi, pourquoi, comment ?

novembre 13, 2012 dans Non classé

[Ce billet est publié simultanément sur le blog Bibliobsession]

Nous avons eu l’occasion la semaine dernière de présenter avec Lionel Maurel le collectif SavoirsCom1 dont nous sommes les co-fondateurs, à l’Enssib, que nous remercions pour l’invitation. Il s’agissait d’une présentation de 2 heures à des étudiants en master « publication numérique ». Voici le support que nous avons utilisé, il nous semble important de le publier car il brosse les thématiques du Manifeste d’une manière imagée et synthétique et peut constituer un moyen précieux pour expliciter notre démarche. Nous espérons que ce document vous intéressera. N’hésitez pas à nous proposer des améliorations, à nous faire des remarques en commentaire.

Le domaine public payant, le beurre et l’argent du labeur

avril 23, 2014 dans Veille du collectif

À Metz, lors de ses rencontres annuelles, l’Adami a relancé le thème du domaine public payant. La question est simple : une fois que les droits exclusifs sont éteints, par l’effet du temps, faut-il prévoir une quelconque taxe ou rémunération dès lors qu’une œuvre tombe, entre ou s’élève dans le domaine public ?

http://www.nextinpact.com/news/87171-le-domaine-public-payant-beurre-et-argent-labeur.htm

Some Telegram questions answered: WhatsApp Messenger alternative

avril 22, 2014 dans Veille du collectif

http://ift.tt/1dYRE3K

Excellente alternative sécurisée à Whatsapp « What sets Telegram apart is that it has not been designed to grow quickly so that it can be sold for a profit, or so that user data can be mined and monetized. Instead, the intention was never to make a profit using the application, to sell it, or to allow outside investment The only money-generating options the makers consider are donations or the addition of paid features that are non-essential, and those only when the support money that the project receives from Pavel runs out. »

Heartbleed : « Certains oublient que le logiciel libre est un bien commun ».

avril 22, 2014 dans Veille du collectif

La faille Heartbleed, ses implications et les questions qu’elle pose, c’est le sujet de notre dernière émission 14h42. Mais au-delà de ces questions de sécurité informatique, la faille Heartbleed met aussi en lumière le statut du logiciel libre.

http://www.arretsurimages.net/breves/2014-04-20/Heartbleed-Certains-oublient-que-le-logiciel-libre-est-un-bien-commun-id17270

Le parlement européen se réforme après le piratage de ses mails

avril 21, 2014 dans Veille du collectif

http://t.co/wyleYjWBBP

« À quelques semaines des élections européennes, les eurodéputés Amélia Andersdotter (Parti pirate) et Bart Staes (Verts) ont cependant réussi à poser les bases d’une véritable réforme de fond de la sécurité informatique européenne au détour d’une série de textes, particulièrement techniques, n’ayant pourtant a priori pas grand-chose à voir avec les questions d’espionnage : les décharges. Celles-ci s’inscrivent en fait dans le processus de contrôle budgétaire des institutions européennes qui prévoit qu’à chaque fin d’exercice, le Parlement a le pouvoir de valider, ou de refuser, le budget d’une année écoulée. À cette occasion, les eurodéputés ont également le pouvoir d’imposer certaines mesures de contrôle et de formuler certa ines propositions qui s’imposent alors aux institutions européennes. »