OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Libre accès à la recherche: entre idéal et nécessité http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/ http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/#comments Wed, 01 Dec 2010 11:39:18 +0000 Pierre Mounier http://owni.fr/?p=33463 Titre original : Libre accès : entre idéal et nécessité, un débat en mutation

Depuis ses débuts, la question du libre accès aux publications scientifiques, et plus largement aux résultats de la recherche fait l’objet de débats passionnés au sein de la communauté scientifique. La présence au cœur de ce débat de figures militantes comme Stevan Harnad (Okerson&O’Donnell, 1995), Jean-Claude Guédon, Harold Varmus (Brown, Heisen&Varmus, 2003), la succession dans le temps de manifestes-pétitions comme la déclaration de Budapest (Budapest Open Access Initiative) en 2001, la lettre ouverte des chercheurs appelant à la constitution d’une « Public library of Science » , la déclaration de Bethesda en 2003 puis celle de Berlin la même année, en constituent les repères les plus marquants.

Plus récemment, cette question s’est trouvée connectée et incluse comme un cas particulier du plus large débat qui traite du statut des biens informationnels comme biens communs. Ainsi Philippe Aigrain établit dans son ouvrage Cause Commune une relation entre le libre accès et les débats sur les logiciels libres, mais aussi avec les brevets sur les médicaments ou encore sur le piratage musical. Pour lui, la question qui forme condition de possibilité de cet élargissement du débat est en réalité celle de l’extension à la propriété intellectuelle des accords commerciaux internationaux menés au sein de l’OMC au milieu des années 90 (accords ADPIC) (Aigrain 2005, p.161).

Pour Paul Davis (Davis, 2009), les arguments avancés en faveur du libre accès, surtout lorsqu’il font l’objet de comptes rendus dans la presse, se positionnent très souvent sur un plan moral et politique. Dans les assemblées scientifiques, ce sont plus souvent des considérations professionnelles, liées aux besoins de communication de la recherche qui sont avancées. Placée sous l’égide de l’Open Society Foundation dirigée par Georges Soros, la conférence de Budapest en particulier, et la déclaration du même nom à laquelle elle aboutit, constitue un exemple abouti de jonction entre les intérêts professionnels des chercheurs et un programme politique libéral promouvant la libre circulation des idées et de l’information. La présence d’une dimension politique et philosophique dans les prises de position des différents acteurs est pourtant loin d’être uniforme. C’est dans les sciences du vivant et en médecine qu’on les retrouve exprimées de la manière la plus claire, en raison en particulier des problématiques éthiques qui imprègnent fortement les activités liées à la santé.

Très présentes dans les sciences du vivant, ces motivations n’ont pourtant pas toujours la même importance dans d’autres disciplines. D’autres rationalités, de nature socio-technique ou économique par exemple, peuvent être à la source d’initiatives de publication en accès libre. Et dans le travail de reconstitution des logiques de développement du libre accès, sans doute faudrait-il réévaluer le rôle que joue le passage du système de publication scientifique de l’imprimé au numérique en réseau.

Lorsqu’on tente en effet de reconstituer les séquences historiques par lesquelles le secteur des publications scientifiques passe, au moment du déploiement de la problématique du libre accès, on est frappé de la concomitance entre plusieurs facteurs de causalité potentielle non reliés entre eux : les facteurs ayant conduit à ce que l’association américaine des bibliothèques de recherche (ARL) a qualifié de « serials crisis » ont été bien identifiés : il s’agit, pour l’essentiel de la constitution d’une logique de « portefeuilles de revues » par les éditeurs de littérature scientifique qui fait suite aux fortes concentrations financières qu’a connu ce secteur à partir des années 90 (McCabe 2004), avec la constitution d’un marché « inélastique » du fait d’un mésusage par les acteurs scientifiques (chercheurs, bibliothécaires et institutions de recherche) de systèmes bibliométriques comme le Science Citation Index proposé par l’ISI (Guédon 2001).

La crise de la communication scientifique ainsi déclenchée conduit alors ces acteurs à trouver des solutions. La publication exclusivement numérique et sur Internet des résultats de la recherche, que ce soit par le biais des archives ouvertes (primitivement appelées « e-print servers ») ou de revues électroniques en libre accès, apparaît alors comme une planche de salut possible. Autrement dit, dans cette séquence temporelle, le passage au numérique arrive en bout de chaîne : il est une modalité technique de la réponse que chercheurs et bibliothèques tentent d’apporter à la crise des périodiques scientifiques. Or, et c’est la thèse qui est proposée ici, il est sans doute possible de considérer le passage au numérique du système de publication scientifique comme une cause, une incitation directe en faveur du libre accès, indépendamment même de la crise du prix des périodiques scientifiques. Deux approches différentes du phénomène permettent de le montrer : sur un plan socio-technique d’abord, économique ensuite.

Archives ouvertes et accès ouvert

Souvent évoquées ensemble, les questions du libre accès et des archives ouvertes sont quelquefois confondues. C’est bien sûr une erreur factuelle dans la mesure où, par exemple, le protocole OAI-PMH proposé lors de la Convention de Santa Fé en 1999 et qui donne une réalité technique à la notion d’archive ouverte, n’implique pas nécessairement de libre accès aux publications qui se trouvent hébergées dans ces archives . Ce qui est « open » dans le cas de l’OAI-PMH, ce sont en réalité les métadonnées et non le texte intégral des publications auxquelles elles renvoient. Protocole d’interopérabilité à faible coût d’acquisition (« low barrier » selon les termes de ses promoteurs (Lagoze&Van den Sompel, 2001) ), OAI-PMH sert les objectifs de dissémination des contenus numériques de ses promoteurs par la libre circulation des métadonnées d’abord.

C’est la raison pour laquelle il a connu depuis une adoption très large et bien au delà des seules archives ouvertes, à tout le domaine de l’interopérabilité dans le secteur de l’information scientifique. Aujourd’hui, la plupart des plateformes de revues scientifiques, quelle que soit leur position par rapport au libre accès, utilisent ce protocole pour être « moissonnées », ie indexées par les moteurs de recherche scientifique : Oaister par exemple, mais aussi Google Scholar, du moins jusqu’en 2008, ou des répertoires de revues comme le DOAJ. En sciences humaines et sociales, le prochain moteur de recherche Isidore qui donnera un accès unifié à l’ensemble des données disponibles s’appuie sur ce protocole pour indexer les entrepôts de données.

Le développement des archives ouvertes et même du protocole OAI-PMH n’est pour autant pas totalement déconnecté de la question de l’accès ouvert. Le modèle archétypal sur lequel les archives ouvertes – dont on rappelle ici la définition comme dépôts ouverts où les chercheurs archivent leurs articles – se sont développées, est Arxiv, archive de physique des hautes énergies créée par Paul Ginsparg en 1991 au National Laboratory de Los Alamos. Cette archive, qui s’est développée depuis dans un certain nombre de disciplines connexes (mathématiques, autres domaines des sciences physiques et astronomie), et fait désormais l’objet d’un soutien de plusieurs institutions scientifiques de premier plan n’a, selon les explications que Ginsparg apporte lui-même dans un article célèbre (Ginsparg 1994), pas eu pour objectif de répondre à la « crise des périodiques scientifiques ». Elle étendait en fait, avec des moyens nouveaux, une pratique de communication scientifique propre à la communauté disciplinaire à laquelle appartient Ginsparg.

Cette tradition est celle d’une communication désintermédiée entre chercheurs sur la base de premières versions ou de projets de publications (preprints). Dans cet article, Ginsparg explique bien comment la création d’Arxiv est la continuation par d’autres moyens d’une pratique ancienne de reproduction des preprints par photocopies et distributions par envoi postal. La création de l’archive est alors considérée comme une amélioration technique permettant de développer ces pratiques de communication de manière plus efficace. Elle joue donc un double rôle : l’accès instantané de toute la communauté scientifique aux derniers résultats de recherche – c’est donc la vitesse qui joue ici – mais aussi la possibilité pour l’auteur de voir son article examiné et corrigé avant publication. L’archive joue donc bien un rôle de vecteur de circulation de l’information scientifique et en même temps de lieu où s’exerce l’évaluation par les pairs. Il lui manque une dernière fonction qui reste aux revues scientifiques classiques : la validation, ou, comme le dit Jean-Claude Guédon, le bureau d’enregistrement des découvertes.

En effet, alors que l’évaluation par les pairs est ouverte (open peer reviewing) dans le cas d’une archive ouverte, ce qui en assure la rapidité et l’efficacité, elle est au contraire organisée et contrôlée dans le cas des revues, ce qui permet une validation et une certification des publications. Dans ce cas, la complémentarité entre archive ouverte (en libre accès) et revues scientifiques (en accès restreint) est fonctionnelle avec une répartition des rôles entre les deux lieux de publication. C’est à peu près la même logique qui a présidé à la création de Repec en 1996, dans la continuité de Wopec, créé 6 ans plus tôt. Comme l’explique bien Thomas Krichel (Krichel, 2000), son fondateur, le service qu’il commença à développer à partir de 1990 se situait dans la continuité d’échanges traditionnels entre bibliothèques universitaires portant sur les working papers des économistes.

Ici encore, cette initiative ne se positionne pas contre le système traditionnel de revues publiées par les éditeurs commerciaux de littérature scientifique ou avec pour objectif de le remplacer, mais en complémentarité avec lui. Pour les économistes comme pour les physiciens, les revues ne jouent plus depuis longtemps le rôle de vecteur de l’information scientifique qu’elles ont pu remplir dans le passé. Des réseaux d’échanges informels et décentralisés entre chercheurs au sein de communautés spécialisées ont profité de la démocratisation des moyens de communication pour se développer et remplir à leur tour ces fonctions beaucoup plus efficacement que le système traditionnel de publication en revues. Pour autant ces dernières n’ont pas fini de jouer leur rôle dans le système scientifique, en se repliant quasi-exclusivement sur la fonction de validation et certification de la publication.

À cette première étape du raisonnement, on peut donc dessiner un paysage pour la question du libre accès légèrement plus complexe que ce que donne à voir une approche exclusivement centrée sur les dimensions politiques et éthiques du sujet. De fait, le développement des archives ouvertes peuplées de preprints et de working papers s’est plutôt effectué autour des questions de rapidité d’accès à l’information scientifique, parfois avec des pratiques d’open peer review et ne constitue pas l’opposition frontale au système traditionnel de publication des revues que l’on pouvait attendre. Aux unes la nouveauté, la rapidité et l’échange communautaire – et la récente évolution d’Arxiv qui recense désormais les billets de blogs commentant les articles en est un beau témoignage -, aux autres la validation de l’information, mais aussi la certification, et finalement l’évaluation de l’activité scientifique des chercheurs.

En réalité, la situation est évidemment beaucoup plus confuse et diverse, en particulier aux yeux des acteurs eux-mêmes : tout à leurs objectifs de ventes aux bibliothèques de recherche de services performants d’information scientifique, les éditeurs de littérature scientifique ne ménagent pas leurs efforts sur la rapidité de l’accès à l’information. Ainsi l’éditeur Elsevier propose-t-il aujourd’hui dans certaines de ses formules d’abonnement un accès direct aux articles en cours d’évaluation dans les revues. Certains comme le groupe Nature ont d’ailleurs expérimenté, avec des fortunes diverses, la mise en open peer review de certains articles .

Du côté des promoteurs des archives ouvertes, les hésitations sont aussi nombreuses sur les filtres à mettre en place : ces archives ouvertes, surtout lorsqu’elles sont institutionnelles, c’est-à-dire adossées à une institution de recherche qui y place une partie de son crédit scientifique, doivent-elles recevoir toutes les contributions ? Faut-il instaurer un principe de modération et sur quelles bases ? Faut-il se contenter des working papers ou chercher à obtenir aussi les versions définitives des articles, malgré les politiques très diverses des éditeurs sur ce sujet ?

Les lois d’airain de l’économie de l’attention

On a vu que la question du libre accès aux publications scientifiques pouvait être analysée de deux manières : d’un point de vue politique comme la motivation de l’activité de recherche par la poursuite d’idéaux tels que l’avancement des connaissances et leur partage au niveau mondial ; d’un point de vue socio-technique comme la continuation des pratiques de communication scientifique par d’autres moyens. Une troisième voie d’analyse s’ouvre maintenant, qui va aborder la question sous l’angle économique.

Il est en effet possible d’analyser cette fois-ci aussi bien la crise du prix des périodiques scientifiques que le mouvement pour le libre accès comme deux conséquences, deux modes opposés de régulation d’un même phénomène : la destruction brutale de l’équilibre entre offre et demande sur le marché des connaissances scientifiques. Dès la fin de la seconde guerre mondiale, un observateur aussi bien placé que pouvait l’être l’organisateur de l’effort scientifique de guerre aux Etats-Unis, Vanevar Bush, pouvait exprimer ce déséquilibre dans son célèbre article « As We may Think » (Bush 1945).

Depuis, l’augmentation considérable des résultats de recherche produits par une augmentation significative des investissements de recherche et développement dans la plupart des pays industrialisés a été constatée et mesurée par de nombreux auteurs, dépassant les capacités de consultation d’un quelconque chercheur. Cette surabondance de l’offre par rapport à la demande sur des marchés de biens informationnels a été caractérisée par plusieurs économistes comme relevant de ce qu’ils ont pu qualifier d’ « économie de l’attention » (Simon 1971) , l’information n’étant plus rare mais surabondante par rapport au nombre de ceux qui se trouvent en capacité de la consommer, ce sont donc ces derniers, c’est-à-dire la demande, qui deviennent excessivement rares. Dans une telle situation, deux modes de régulation, parfaitement opposés, peuvent être mis en œuvre.

D’un côté, il est possible de reconstituer artificiellement de la rareté en mettant en place des labellisations discriminantes qui concentrent la valeur sur une partie minoritaire de l’offre et retirent toute valeur à ce qui en est exclu. Ce n’est pas le rôle du Science Citation Index mis en place sous l’impulsion puis dans la lignée de Eugene Garfield dans les années 60 (Garfield 1983, pp.6-19) pour d’autres fins, mais c’est le résultat effectif auquel il est arrivé. La notion de « core journal », le système du Science Citation Index, les mesures de taux d’impact ont pour résultat, sinon pour finalité, de définir un corpus clos d’un nombre limité de revues « de référence » pour une discipline donnée. Cette évolution, efficace d’un certain point de vue, crée cependant un goulot d’étranglement au niveau de la publication.

S’il peut satisfaire – et c’est ce à quoi il est destiné – les chercheurs comme lecteurs, disposant d’un corpus sélectionné et pertinent, il est aussi très contraignant pour ces même chercheurs qui, recrutés en nombre exponentiel en particulier dans les années 60, éprouvent des difficultés grandissantes à publier dans les revues labellisées – les seules qui soient reconnues par les institutions de recherche. Autrement dit, le déséquilibre entre offre et demande, résolu pour la lecture, est désormais déplacé au niveau de la publication. Ce mode de régulation d’un marché soumis aux pressions de l’économie de l’attention, qui peut être qualifié de régulation « en amont », ne fait en réalité que déplacer le problème.

Il existe un autre mode de régulation cette fois-ci « en aval » et qui consiste à ne pas contrarier la pression de l’offre. Les moyens de publication numérique qui ont la propriété, on l’a dit, de baisser le prix d’accès à la publication, et qui se caractérisent aussi par des coûts marginaux de copies très faibles voire à peu près nuls, permettent de mettre en oeuvre cette politique : et cette fois-ci, ce ne sont plus seulement des archives ouvertes qui se développent, mais aussi des revues électroniques qui se multiplient. Ici, le déséquilibre est bien maintenu ou reporté sur le marché de la lecture d’articles scientifiques, désormais produits en trop grande quantité pour être tous lus. Dans ce contexte, on comprend bien que toute barrière d’accès au texte intégral de l’article devient insoutenable.

Les publications scientifiques connaissent le même phénomène que celui qui frappe les médias d’information généralistes : ils doivent être (d’accès) gratuits pour avoir une chance d’être lus. Le libre accès n’est plus un but politique ni une commodité socio-technique, mais il est devenu une nécessité économique. Il s’agit d’un facteur très classique qui touche transversalement les mécanismes de distribution des biens informationnels sur Internet : la régulation sur l’usage de ces biens se fait a posteriori, par la mise à disposition d’outils performants de recherche d’information comme des moteurs fédérés permettant aux lecteurs de retrouver uniquement ce qu’ils cherchent en écartant tout bruit parasite (Chantepie, 2008, p.500). Dans ce cadre, le protocole OAI-PMH prend tout son sens comme brique technologique indispensable au moissonnage d’un grand nombre de sources d’information éparpillées, interrogeables grâce à lui, via une interface unique.

Entre, d’un côté, le système régulé par l’amont, et de l’autre la publication ouverte, il y a bien une alternative, car les deux propositions sont fondamentalement opposées dans leur principe et leur mode de mise en oeuvre. C’est le cas en particulier en ce qui concerne les modèles d’affaires qu’ils impliquent. Le système traditionnel de publication maintenant une rareté artificielle de l’offre, continue à se développer sur la base d’un accès tarifé aux publications : c’est l’abonnement et le modèle classique des lecteurs-payeurs. D’un autre côté, le modèle du libre accès ne fait pas disparaître les coûts comme par enchantement. Ils ne peuvent être pris en charge par le lecteur et sont reportés sur les auteurs. C’est le modèle que propose PLoS, facturant près de 3000$ la publication d’un article dans l’une de ses revues . La prise en charge des coûts de publication peut être collectivisée ou individualisée, selon le modèle économique adopté. Les plateformes de revues de sciences humaines françaises : Cairn, Persée et Revues.org par exemple, ne facturent pas la publication des articles aux revues qui ne les facturent pas à leur tour aux auteurs.

Les coûts existent, ils sont importants comme pour toute publication scientifique, mais sont mutualisés entre les différents organismes de recherche et d’enseignement supérieur qui les soutiennent. Que l’on soit dans un cas ou dans l’autre, l’intérêt du modèle d’accès ouvert est qu’il ne crée pas de goulot d’étranglement : le nombre de publications possibles dépend des capacités financières des institutions de recherche et le phénomène de rareté artificielle des lieux de publication est moindre. Par ailleurs, le phénomène d’économie de l’attention provoqué par la rareté relative des lecteurs est régulé en aval par l’utilisation d’outils de recherche fédérés et de protocoles d’interopérabilité permettant aux chercheurs de trier l’information dont ils ont besoin.

Les deux modèles sont opposés donc, et sans doute relativement rétifs à l’hybridation. On peut être assez sceptique sur les initiatives qui, des deux côtés, tentent d’expérimenter l’introduction de la logique économique adverse au sein de leur propre modèle d’affaire.

Ainsi, les modèles « open choice » adoptés maintenant par la plupart des éditeurs commerciaux et qui permettent à un auteur de diffuser son article en libre accès au sein d’une revue qui, elle, ne l’est pas, resteront sans doute limités du fait d’un manque de cohérence en réalité préjudiciable aux niveaux économiques et techniques. De l’autre côté, les système de « barrière mobile » qui affectent les publications en libre accès partiel, surtout pour protéger leur diffusion papier lorsqu’elle existe, ne dépasseront peut-être pas la période de transition pour laquelle ils ont été conçus.

Conclusion

On constatera que le débat sur l’open access vu sous cet angle se rapproche fortement de tous ceux qui affectent aujourd’hui les biens informationnels et culturels dans les réseaux numériques. De la même manière que les publications scientifiques, la musique, la presse, le livre même sont au centre d’interrogations relatives à ce qu’on appelle désormais l’ « économie du gratuit » (Anderson, 2009).

Dans le domaine des publications scientifiques comme des autres biens informationnels, tout indique donc que le modèle de l’accès ouvert puisse perdurer et se développer : au delà des considérations morales et politiques qui sont souvent invoquées à l’appui de ce modèle, au delà des intérêts professionnels des chercheurs eux-mêmes, les conditions technologiques et économiques de circulation de l’information dans les réseaux numériques le soutiennent fortement.

Mais rien n’indique par ailleurs qu’il doive remplacer le système classique de publication scientifique. On voit désormais très clairement l’élément central sur lequel celui-ci s’appuie, qui justifie son existence : il s’agit tout à la fois de la certification de la production de connaissances scientifiques, et en même temps – et c’est lié -, du contrôle de l’activité de publication ; autrement dit, de l’évaluation de l’activité scientifique.

Bibliographie

Aigrain, P., 2005. Cause commune : L’information entre bien commun et propriété, Fayard.

Anderson, C., 2009. Free : The Future of a Radical Price, Hyperion.

Brown, P.O., Heisen, M.B. & Varmus, H.E., 2003. Why PLoS Became a Publisher. PLoS Biol, 1(1), e36. Available at : http://dx.doi.org/10.1371/journal.pbio.0000036 [Accédé Octobre 13, 2009].

Bush, V., 1945. As We May Think. The Atlantic monthly, 176(1), 101-108.

Chantepie, P., 2008. Le consommateur comme plate-forme : l’économie du marketing en ligne. Dans X. Greffe & N. Sonnac, éd. Culture Web. Paris : Dalloz, pp. 495-511.

Davis, P.M., 2009. How the Media Frames ’Open Access’. Journal of Electronic Publishing, 12(1).

Garfield, E., 1983. Citation Indexing – its Theory and Application in Science, Technology, and Humanities, Philadelphia, USA : ISI Press.

Ginsparg, P., 1994. First Steps Towards Electronic Research Communication. Computers in Physics, 8(4), 390-396.

Guédon, 2001. In Oldenburg’s Long Shadow : Librarians, Research Scientists, Publishers, and the Control… Dans ARL membership meeting proceedings. Toronto : Association of research libraries. Available at : http://www.arl.org/resources/pubs/m… [Accédé Octobre 3, 2009].

Krichel, T. , 2000. Working towards an Open Library for Economics : The RePEc project. Dans Ann Harbor, MI. Available at : http://openlib.org/home/krichel/myers.html [Accédé Octobre 13, 2009].

Lagoze, C. & Van de Sompel, H., 2001. The Open Archives Initiative : Building a low-barrier interoperability framework. Dans Proceedings of the ACM/IEEE Joint Conference on Digital Libraries. pp. 54-62.

McCabe, M.J., 2004. Law serials pricing and mergers : A portfolio approach. Contributions to Economic Analysis & Policy, 3(1), 1221.

Okerson, A.S. & O’Donnell, J.J. éd., 1995. Scholarly Journals at the Crossroads : A Subversive Proposal for Electronic Publishing, Washington D.C. : Association of Reseach Libraires.

Samuelson, P. & Varian, H.R., 2002. The ’New Economy’ and Information Technology Policy. Dans J. A. Frankel & P. R. Orszag, éd. American economic policy in the 1990s. MIT Press.

Simon, H., 1971. Designing Organizations for an Information-Rich World. Dans Computers, communications, and the public interest. pp. 72, 37. (Chantepie 2008, p.500)

>> Cet article (version de l’auteur) a été publié dans une version éditée dans la revue Hermès, n°57 intitulé « Sciences.com, libre accès et sciences ouvertes », p. 23-30 et initialement sur le web sur Homo Numericus

>> Illustrations CC FlickR : judy_breck, boltron-, h_pampel

]]>
http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/feed/ 1
La démocratie électronique est-elle une illusion? http://owni.fr/2010/09/29/la-democratie-electronique-est-elle-une-illusion/ http://owni.fr/2010/09/29/la-democratie-electronique-est-elle-une-illusion/#comments Wed, 29 Sep 2010 06:53:10 +0000 Pierre Mounier http://owni.fr/?p=29727 Très tôt dans son développement, Internet fut identifié comme le signal d’une nouvelle jeunesse pour la démocratie. Les réseaux électroniques furent alors identifiés comme une agora permettant à l’ensemble de la population de participer activement à la vie de la nation. Si le thème de la nouvelle Athènes fut essentiellement développé aux États-Unis où il rencontrait le mythe fondateur de la République jeffersonienne, il rencontra aussi en Europe et en France des échos importants. L’idée selon laquelle Internet allait provoquer un épanouissement démocratique s’est exprimée de plusieurs manières : e-gouvernement puis gouvernement 2.0, administration électronique, cyber-activisme, « empowerement » des groupes de représentation d’intérêts, théories de l’espace public en ligne, etc.

Vus aujourd’hui d’un pays qui connaît une régression rapide et brutale de son cadre démocratique, les textes écrits il y a quelques dix ou quinze ans prophétisant l’avènement d’un nouvel âge politique portent avec eux une charge quelque peu ironique. Où semblent donc passées ses forces nouvelles qui allaient bousculer l’ancien monde ? Qu’est devenue l’émancipation citoyenne permettant à tout un chacun de participer à la grande conversation nationale voire internationale et espérer voir son avis pris en compte ?

C’est aux États-Unis encore une fois que la question a été rouverte le plus récemment. Lors de sa campagne électorale, le candidat Obama s’est en effet illustré doublement par, d’un côté un recours massif aux nouvelles technologies et en particulier aux réseaux sociaux pour mobiliser son électorat [1], et aussi par la promesse faite à la nation d’une transparence, d’un responsabilité, d’une ouverture nouvelle de son gouvernement, s’il était élu, aux citoyens ordinaires qui se sentent traditionnellement très éloignés de ce qui peut se passer à Washington. Et de fait, le début de son mandat et la mise en place de son administration ont été marqués par plusieurs signaux forts [2] : l’ouverture de sites participatifs, la nomination d’une nouvelle génération issue de la Silicon Valley à des postes de responsabilité, mais surtout l’initiative Data.gov impliquant que les administrations fédérales ouvrent largement leurs bases de données au public non seulement pour qu’elles puissent être consultées, mais aussi manipulées, exploitées, rediffusées par l’intermédiaire d’interfaces de programmation ouvertes.

Deux ans après l’arrivée de Barrack Obama au pouvoir, le sommet Gov 2.0 qui s’est déroulé à Washington au début du mois de septembre a été l’occasion pour un certain nombre d’observateurs de revenir sur cette première période du mandat présidentiel. Le constat posé par Ellen Miller en particulier est finalement peu flatteur : malgré les promesses et les réalisations effectives, le bilan est un peu maigre et la révolution attendue n’a pas vraiment eu lieu [3]. Sans doute ne suffit-il pas d’ “ouvrir les données” pour qu’elle donnent prise à une réelle participation citoyenne. De son côté Aneesh Chopra, responsable de la politique technologique de l’administration Obama (Chief Technology Officer) promet une nouvelle étape de développement de l’open gouvernement : après l’ouverture des données, c’est sur les réseaux sociaux et les plateformes participatives qu’il mise désormais, apportant le dispositif complémentaire qui manquait certainement [4].

Le cas Wikileaks

Mais peut-être les propos échangés au cours de ce type de sommets sont-ils trop lénifiants. Car le réel défi qui est aujourd’hui posé à l’initiative open gouvernement de l’administration Obama ne se situe pas vraiment à ce niveau. Elle repose plutôt dans la question de savoir s’il est possible de faire confiance à un pouvoir, quel qu’il soit, lorsqu’il fait la promesse d’organiser sa propre transparence. Car cette promesse se heurte nécessairement à quelques limites. Ces limites, c’est bien entendu l’initiative Wikileaks qui les met en lumière en reprenant à son compte l’impératif de transparence du pouvoir, mais de manière beaucoup plus radicale. Rappelons que Wikileaks est une organisation militante internationale offrant aux « lanceurs d’alerte » une plateforme hautement sécurisée qui leur permette de déposer en tout confiance les documents qu’ils souhaitent faire « fuiter » [5]. Derrière la personnalité haute en couleurs de Julian Assange sur laquelle se focalisent les médias, Wikileaks est animé pas un collectif de bénévoles qui se chargent de maintenir la plateforme, mais aussi de tenter de recouper et donc de valider les informations qui y sont soumises.

Wikileaks s’est fait connaître du grand public pour avoir d’abord diffusé une vidéo filmant le mitraillage par un hélicoptère américain de civils irakiens pris à tort pour des insurgés et qui se sont révélés être par la suite des journalistes de l’agence Reuters. Leur seconde exploit fut la diffusion d’une masse considérable de documents classé confidentiel défense [6] en provenance des troupes de l’OTAN en Afghanistan, faisant brutalement apparaître une situation militaire beaucoup plus dégradée que les autorités ne l’avouaient jusqu’alors. L’acharnement avec lequel le gouvernement américain tente d’étouffer Wikileaks et ses révélations fracassantes ne peut que relativiser la portée du slogan open gouvernement qu’il promeut par ailleurs.

Wikileaks porte le flambeau de la transparence politique et de la démocratie à l’échelle mondiale. Mais quelle est la portée réelle de son action ? La question a été peu abordée. La plupart des commentateurs, en France en tout cas, parce que ce sont des journalistes, se sont concentrés sur les questions d’ordre professionnel que cette initiative leur pose. Il reste que les effets concrets sur les politiques des Etats des révélations publiées par Wikileaks semblent peu importants. On a pu faire remarquer par exemple que les masses de données rendues publiques ont été peu exploitées réellement et n’ont pas véritablement surgir de débat public particulièrement vif aboutissant à un infléchissement significatif de telle ou telle politique publique. Et il n’y a rien de bien étonnant à cela, à bien y réfléchir. Car l’espace public n’est pas un environnement amorphe réagissant de la même manière à tous types d’informations. Il est l’objet de ce qu’on qualifie de « cadrage médiatique » qui structure et hiérarchise les sujets de discussion dans cet espace. Il est par ailleurs traversé de forces politiques qui exploitent ou non les informations qui y circulent afin d’améliorer leur position concurrentielle dans l’arène politique.

Autrement dit, croire qu’une initiative comme Wikileaks peut à elle seule changer la situation politique est sans doute faire preuve d’une certaine naïveté : pour que les informations que diffuse Wikileaks diffuse sur Internet aient un impact politique, il faut qu’elle entrent en résonance avec le cadrage opéré par les médias, et qu’à l’intérieur de ce cadrage leur exploitation serve les intérêts de forces politiques réelles.

L’exemple de Wikileaks explique très bien pourquoi, vingt ans après, les espoirs de révolution démocratique qui ont été placés dans Internet ont été déçus : Internet est un espace dispersé, qui en raison de sa structure même, ne peut connaître de focalisation universelle de l’attention sur un problème dont la résolution change un rapport de forces. Médiatiquement, Internet fonctionne comme un « ailleurs » d’où proviennent de nombreuses informations. Ces informations ne peuvent être lestées d’un poids et d’une efficace politique que si elles transitent dans un espace public traditionnel, focalisé et structuré par des rapports de force.

Le contre-exemple sur lequel Benoît Thieulin est revenu récemment sur le siteTemps Réels illustre parfaitement cette mécanique [7]. Il s’agit d’un incident qui s’est déroulé lors de la dernière campagne électorale en Suède, dont le sujet principal portail sur la réforme de l’assurance maladie. On a pu y voir une jeune blogueuse jouer un rôle non négligeable dans ce débat après avoir publié un billet racontant comment se mère, gravement malade a vu ses allocations brutalement supprimées par le gouvernement. Son récit, repris dans la presse nationale, est entré en résonance avec le débat principal de la campgne en cours : la réforme de l’assurance-maladie.

Des citoyens auto-organisés

S’il semble donc bien établi que l’impact des nouvelles technologies sur les structures traditionnelles de pouvoir est limité, d’autres avancent une autre proposition, plus subtile : il s’agit de penser que les pratiques sociales sur le réseau, les multiples échanges qui s’y déroulent, que ce soit dans les forums de discussion, les communautés virtuelles ou les réseaux sociaux portent en eux un modèle de gouvernance authentiquement démocratique qui constitue une alternative en soi aux pratiques politiques dominantes. Par certains aspects, cette proposition pourrait rappeler l’ancien défi de l’indépendance du cyberespace, mais il s’agit en réalité de tout autre chose. Il s’agit plutôt de comprendre comment à un niveau local, les communautés virtuelles qui se rassemblent sur Internet élaborent spontanément des règles de vie commune, des procédures de résolution de conflits et des modes de régulation qui en font des espaces démocratiques limités certes, mais effectifs et vivants. C’est le sens en tout cas de l’article récemment publié par Sylvain Firer-Blaess à propos de Wikipédia où il considère les règles dont les « wikipédiens » se sont dotés comme un modèle de démocratie électronique [8].

Ceux qui pourraient penser que ces formes nouvelles d’auto-organisation horizontales typiques du réseau n’ont pas la capacité d’en sortir pour trouver leur champ d’application dans l’environnement physique liront avec profit l’article que Gregory Asmolov a récemment publié sur le portailGlobal Voices [9]. Il montre comment les blogueurs se sont mobilisés de manière très efficace contre les incendies qui ont ravagé la Russie au cours de l’été et ont, dans les faits, suppléé à un gouvernement central apparemment impuissant et davantage soucieux de son image que des résultats réels de son action.

Ces mouvements par lesquels les individus prennent en main leur destin dans les espaces virtuels ou physiques, c’est ce que le sociologue Dominique Cardon appelle la « démocratie Internet [10]. Spécialiste avec Fabien Granjeon de « l’Internet militant » [11], observateur des pratiques de socialisation sur les réseaux [12], et auteur lui aussi récemment d’une étude sur Wikipédia [13], le chercheur pense au final qu’Internet est porteur d’une vertu émancipatrice pour le public.

Tout le public ? Certainement pas, affirme Cyrille Franck. En dénonçant une « nouvelle classe de dominants » [14] qui établit les bases de son pouvoir sur la maîtrise des réseaux sociaux et plus largement des technologies numériques, le blogueur revient opportunément sur la réalité d’une fracture numérique persistante qui ne se manifeste pas seulement sous la forme d’un défaut d’équipement, mais aussi et le plus souvent d’un défaut de maîtrise de ces technologies. Le trait est certes un peu grossi mais il a le mérite de pointer les limites du modèle méritocratique qui parcourt les communautés virtuelles sur Internet : celui-ci est inefficace à l’égard de ceux qui sont dépourvus des ressources les plus élémentaires, matérielles et symboliques pour tirer parti des moyens d’expression qui se trouvent à leur disposition.

Figures de la citoyenneté numérique

La « démocratie Internet » restera-t-elle un phénomène minoritaire ou sera-t-elle portée par un mouvement authentiquement populaire ? C’est finalement sur la question de la participation [15] que se situe un des enjeux importants de sa capacité à transformer à la fois le jeu politique et les rapports sociaux. Le tableau des conditions de possibilité d’une démocratie électronique semble presque complet lorsqu’on y ajoute une appropriation massive par le public des technologies d’expression publique sur le Réseau. Les nombreuses initiatives, publiques et privées – offres de formation, espaces publics numériques, plateformes de blogs, structures d’aides aux utilisateurs, membres actifs des communautés virtuelles assument une responsabilité de premier plan dans ce mouvement. Assurément, le rôle que jouent ces « figures de la citoyenneté numérique » est loin d’être suffisamment reconnu.

Article initialement publié sur Homo-Numéricus

Illustrations CC : Eliot Lepers pour OWNI, FlickR : paragdgala, Ryan Kendrick Smith

Illustration de la Une en CC par Loguy pour OWNI

Notes

[1] Ferrand, Olivier. Moderniser la vie politique : innovations américaines, leçons pour la France. Terra Nova, January 2009. http://www.tnova.fr/images/stories/groupes-de-travail/006-mission-us/terranova-rapportmissionus.pdf.

[2] Ratcliff, Evan. “The Wired Presidency : Can Obama Really Reboot the White House ?.” Wired, January 19, 2009. http://www.wired.com/politics/onlinerights/magazine/17-02/ff_obama?currentPage=all.

[3] Howard, Alex. “We’re in open government’s beta period.” O’Reilly Radar, September 14, 2010. http://radar.oreilly.com/2010/09/th…

[4] Howard, Alex. “2010 is the year of participatory platforms.” O’Reilly Radar, September 17, 2010. http://radar.oreilly.com/2010/09/20…

[5] Lovink, Geert, and Patrice Riemens. “Les dix thèses de WikiLeaks.” OWNI, Digital Journalism, September 13, 2010. http://owni.fr/2010/09/13/les-dix-t…

[6] Dufresne, David. “Warlogs : la nouvelle guerre de l’information.” OWNI, Digital Journalism, July 27, 2010. http://owni.fr/2010/07/27/warlogs-l…

[7] Thieulin, Benoit. “Rebooting Sweden ? Comment une jeune bloggeuse suédoise bouleverse le déroulement de la campagne électorale en Suède.” Temps Réels, September 18, 2010. http://www.temps-reels.net/blog/reb…

[8] Firer-Blaess, Sylvain. “Wikipédia : exemple à suivre pour une possible démocratie électronique ? ”. Homo Numericus, September 5, 2010. http://homo-numericus.net/spip.php?article295.

[9] Asmolov, Gregory. “Russia : Online Cooperation as an Alternative for Government ?.” Global Voices. http://globalvoicesonline.org/2010/08/30/russia-online-cooperation-as-an-alternative-for-government/

[10] Cardon, Dominique. La démocratie Internet : Promesses et limites. Seuil, 2010.

[11] Granjon, Fabien. “L’Internet militant. Entretien avec Fabien Granjon.” Matériaux pour l’histoire de notre temps 79, no. 1 (2005) : 24-29. http://www.persee.fr/web/revues/hom…

[12] Cardon, Dominique. Sociogeek, identité numérique et réseaux sociaux. FYP éditions, 2010.

[13] Cardon, Dominique, and Julien Levrel. “La vigilance participative. Une interprétation de la gouvernance de Wikipédia.” Réseaux 154, no. 2 (2009) : 51.

[14] Franck, Cyrille. “Nouveaux médias : une nouvelle classe de dominants.” Médiaculture, September 4, 2010. http://www.mediaculture.fr/2010/09/04/nouveaux-medias-l%E2%80%99irruption-d%E2%80%99une-nouvelle-classe-dominante/

[15] Guillaud, Hubert. “PDF Europe : e-gov vs. we-gov, collaboration ou conflit ?.” Internet Actu, November 27, 2009. http://www.internetactu.net/2009/11…

]]>
http://owni.fr/2010/09/29/la-democratie-electronique-est-elle-une-illusion/feed/ 8
Internet, un tournant ? http://owni.fr/2010/09/20/internet-un-tournant/ http://owni.fr/2010/09/20/internet-un-tournant/#comments Mon, 20 Sep 2010 13:11:52 +0000 Pierre Mounier http://owni.fr/?p=28655
Depuis les débuts de son histoire, Internet a connu bien des évolutions, voire de nombreuses révolutions internes. Certains auteurs ont même placé cette histoire sous le signe de la « révolution permanente ». Au-delà du flux continuel d’innovations qui la caractérise, on peut cependant y déceler deux grands moments historiques depuis sa création au début des années 80.

- C’est d’abord l’explosion commerciale et grand public au milieu des années 90 avec l’arrivée des navigateurs graphiques.

- Puis le phénomène du web 2.0 après l’explosion de la bulle Internet.

Depuis plusieurs années, les commentateurs tentent de deviner et d’annoncer la prochaine révolution qui secouera le Réseau. Certains parient sur le web sémantique qui permettra de passer de l’information à la donnée et verra le développement de traitements automatiques permettant de générer des contenus pertinents. D’autres parlent de « l’Internet des objets » qui verraient les machines communiquer entre elles de manière autonome au sein d’un gigantesque réseau pervasif où cyberespace et espace physique seraient indissolublement liés. Les deux réunis sont souvent annoncés comme posant les fondement d’un « Web 3.0 » à venir

Sachant qu’aucune des deux révolutions précédentes n’ont été prédites ou annoncées, il convient sans doute de relativiser la fiabilité de telles prédictions. Alors : quand aura lieu le prochain tournant, et quelle direction prendra-t-il ? À lire les publications de presse les plus récentes et les nombreux commentaires des derniers mois, il semble bien que le moment soit arrivé :

La mort du web

Ce qui est annoncé, c’est d’abord la « mort du web ». Chris Anderson, le célèbre rédacteur en chef du magazine Wired qui donne le ton, depuis ses origines, des débats en cours sur l’évolution des technologies numériques, a jeté un pavé dans la mare cet été en donnant ce titre à son éditorial.

Pour Anderson, le web, en raison de son caractère décentralisé voire anarchique, n’a jamais réussi à permettre aux producteurs de contenus et de services de construire un modèle économique viable. Les difficultés bien connues de l’édition musicale, de la presse, de l’édition de livres en sont le témoignage. Banalisation des applications, succès populaire du web, et même du web comme plateforme dans sa version 2.0, l’époque que nous venons de vivre brille, paraît-il, de ses derniers feux. La multiplication des appareils mobiles (ie l’iPhone), et le développement conjoint des réseaux sociaux « fermés » (ie Facebook) constituent deux forces puissantes de développement des usages en dehors du web. Ils offrent surtout aux développeurs d’applications et aux producteurs de contenus une infrastructure qui leur permet de monétiser auprès du public leur offre commerciale.

L’article d’Anderson, contestable, a suscité de nombreux débats dans divers médias. Au-delà de la validité de ses arguments, on ne peut que constater qu’il rejoint d’autres articles annonçant eux aussi des changements majeurs. C’est le cas de l’article de Michael Hirschorn qui insiste quant à lui plutôt sur la stratégie de verrouillage mise en oeuvre par Apple via ses matériels mobiles, sa boutique iTunes, mais surtout le système App Store, puisque les conditions permettant aux développeurs d’y proposer leurs applications sont drastiques. La firme à la pomme a d’ailleurs dû faire machine arrière récemment, sous la menace d’une enquête en concurrence déloyale de la commission du commerce américain.

Dans ce cas de figure, la sortie du web est synonyme d’une clôture technologique considérable puisque le fabricant de matériel fournit aussi le système informatique qui anime la machine (iOS), contrôle les applications qui y sont autorisées et censure les contenus qui sont délivrés par leur intermédiaire. On troque donc un système ouvert où chaque niveau (machine, OS, applications, réseaux, contenus) a son autonomie et interagit avec les autres niveaux suivant des standards ouverts, pour un système intégré verticalement, maîtrisé par un seul opérateur.

Une hirondelle ne fait pas le printemps. Si Apple était le seul acteur à agir en ce sens, le doute serait permis sur la portée réelle de sa stratégie sur l’ensemble de son environnement. Mais d’autres éléments doivent être pris en considération, à commencer par l’évolution du comportement des gouvernements nationaux et des opérateurs de télécommunication.

Filtrage d’Internet et neutralité des réseaux

Côté gouvernements, c’est la tentation de filtrage de l’Internet qui se généralise. Cette forme de contrôle que l’on croyait réservée aux pays non démocratiques comme la Chine ou la Tunisie, séduit de plus en plus de démocraties occidentales : l’Australie s’y essaye, et la France, qui prépare une nouvelle loi sur la sécurité, s’apprête à adopter ce système. Comme le font remarquer de nombreux observateurs, la restriction d’usage de ce type de technologie sur les contenus pédopornographiques est sans doute seulement temporaire et son utilisation prochaine à la lutte contre le piratage des contenus culturels sous droit d’auteur ne fait aucun doute. Le magazine en ligne ReadWriteWeb France a récemment jeté la lumière sur des discussion secrètes en cours entre les différentes parties prenantes sur ce sujet.

Dernier pilier de l’Internet tel que nous le connaissons : la neutralité des réseaux est aujourd’hui ouvertement remise en cause de tous côtés. En France, le rapport rendu récemment par le secrétariat au Développement de l’économie numérique après une vaste consultation pourtant, a suscité de nombreuses critiques. Benjamin Bayard, le bouillonnant président du petit fournisseur d’accès associatif FDN s’est en effet illustré par une lecture pour le moins décapante du rapport.

Aux États-Unis, dans le cadre d’une consultation lancée par la FCC, le régulateur fédéral des télécommunication, l’opérateur téléphonique Verizon et Google ont proposé une définition très restrictive de cette fameuse neutralité, en la réservant au réseau filaire et en la truffant d’exceptions selon ses détracteurs. En un mot, en France comme aux États-Unis, les débats en cours semblent ouvrir la porte du filtrage des contenus comme des protocoles par les opérateurs. Ainsi, pour résumer sa ligne de défense, Nathalie Kosciusko-Morizet eut ce mot révélateur : « la neutralité de l’Internet est un principe plutôt qu’un credo ». La messe semble être dite.

Le débat sur la neutralité des réseaux est à la fois technique et abstrait. Il n’évoque pas grand-chose aux utilisateurs tant qu’ils n’en perçoivent pas les conséquences en terme d’usages. Or, c’est justement ce que permet, selon le journaliste Fabrice Epelboin, le rachat de Deezer par l’opérateur Orange. Cette entreprise qui propose un service d’écoute de musique en streaming, voit en effet désormais son offre intégrée au sein de forfaits téléphoniques spéciaux et donc plus chers : si ceux-ci limitent la quantité de données que peut échanger un abonné, dans les forfatis « Deezer », la musique en streaming provenant de ce service n’est pas comptabilisée. Pour Epelboin, c’est une sorte de licence globale privatisée dont on voit ici l’émergence, et donc l’application à l’Internet classique n’est qu’une question de temps.

Un avenir ouvert

Développement de la distribution payante de contenus au sein d’applications fermées, généralisation du filtrage de l’Internet au niveau des fournisseurs d’accès, menaces sur la neutralité du réseau, autant d’éléments d’une remise en cause très profonde de la structure de l’Internet unifié que nous connaissons aujourd’hui et qui permettent à The Economist de prédire son éclatement en plusieurs réseaux, cloisonnés, sous contrôle et de moins en moins interopérables.

L’ensemble de ces analyses, accumulées en si peu de temps semblent confirmer l’hypothèse qu’Internet serait en train de vivre un nouveau tournant de son histoire, qu’il faut interpréter comme une sorte de normalisation, de retour à la situation précédente et de fin de l’utopie. Hypothèses séduisante, mais qu’il faut relativiser en la resituant dans la continuité historique ; car contrairement à ce qu’on pourrait croire, le débat n’est pas nouveau. Il est même rejoué à chaque évolution importante : l’ouverture d’un réseau jusqu’alors essentiellement académique au grand public via l’interconnexion avec AOL par exemple, puis l’explosion de l’Internet commercial à partir de 1995, puis les grandes manœuvres des « media borg » autour de 2000 sur le thème de la convergence numérique furent à chaque fois analysées comme la fin probable d’une utopie politique et son absorption dans la normalité marchande d’une société de consommation sous contrôle du « big business ». A contrario, le développement de Usenet et des BBS, l’efflorescence des sites web, l’explosion du web 2.0 furent interprétés comme autant de symptômes d’une vivacité de cet idéal politique d’autonomie et de liberté.

Tout se passe donc comme si les tensions dont nous sommes témoins aujourd’hui témoignaient d’une structure récurrente de développement historique de l’Internet, construite sur cette tension même. De cette récurrence on ne peut déduire de futur certain pour le Réseau, ni d’un côté, ni de l’autre. Peut-être faut-il au rebours en déduire une incertitude consubstantielle à cette histoire : la normalisation définitive que les pessimistes annoncent régulièrement n’a pas eu lieu jusqu’à présent. Mais la révolution globale et le basculement généralisé vers une démocratie renouvelée par Internet que d’autres prédisent depuis longtemps n’est toujours pas visible. Sans doute est-ce parce qu’en la matière, rien n’est inéluctable, contrairement à ce que disent les uns et les autres. Le futur de l’Internet est ouvert et c’est à nous d’en décider.

Billet initialement publié sur Homo numericus

Image CC Flickr syder.ross et heatherhoesly

]]>
http://owni.fr/2010/09/20/internet-un-tournant/feed/ 2
L’iPad sauvera-t-il les éditeurs du péril web ? http://owni.fr/2010/06/12/l%e2%80%99ipad-sauvera-t-il-les-editeurs-du-peril-web/ http://owni.fr/2010/06/12/l%e2%80%99ipad-sauvera-t-il-les-editeurs-du-peril-web/#comments Sat, 12 Jun 2010 16:34:51 +0000 Pierre Mounier http://owni.fr/?p=18403 Quelques mois après les Etats-Unis, la France a vu arriver il y a quelques jours en même temps que d’autres pays d’Europe et d’Asie la dernière invention d’Apple : l’iPad. De quoi s’agit-il ? [1] D’une tablette multi-usages grand format qui ressemble beaucoup à l’iPhone par bien des aspects, la taille en plus et les fonctions de téléphonie en moins. Comme l’iPhone donc, ce nouveau support bénéficie d’un écran tactile rétro-éclairé et en couleur. Contrairement aux « liseuses » ou tablettes de lecture classiques, l’iPad ne fonctionne donc pas sur la base de papier électronique. Il est équipé d’une connexion wifi dans sa version de base, et wifi et 3G pour un prix plus élevé. Du côté fonctionnalités, il permet de surfer sur le web grâce à son navigateur Safari, de relever son courrier électronique et de regarder des vidéos.

Ce ne sont pourtant pas ces fonctionnalités qui sont à la source de la plupart des commentaires, discussions, et finalement émotions autour du nouvel objet. C’est plutôt sa capacité à être étroitement relié à des boutiques de vente en ligne d’application (AppStore), de livres (iBookstore) et de contenus multimédias (iTunes). Les secteurs de la presse et de l’édition de livres en particulier ont rapidement identifié l’outil comme une véritable planche de salut [2], comme le moyen par lequel ils allaient pouvoir sortir de la morosité économique qui les caractérise de plus en plus.

Plus profondément, c’est la possibilité pour ces acteurs de perpétuer un modèle économique traditionnel dans le nouvel environnement numérique qui est le catalyseur de toutes les attentions que suscite l’iPad. La presse s’est jeté sur ce nouveau support avec la conviction du désespoir [3]. Car jeté plus que tout autre dans le tourbillon de la révolution du web grand public depuis plus de quinze ans, ce secteur a dû expérimenter à peu près tous les modèles économiques possibles : du payant au gratuit, puis du gratuit au payant, avec des barrières mobiles classiques ou inversées, expérimentant le « freemium », la diversification des revenus et surtout le laminoir des revenus publicitaires à rendements décroissants, la presse en arrive aujourd’hui à la conclusion un peu désespérante qu’elle n’arrive pas au bout du compte à tirer des profits suffisants du nouveau monde numérique. De ce point de vue, l’accueil fait par la presse française à ce qui n’est finalement qu’un objet électronique est tout à fait étonnant : on ne compte plus les articles dithyrambiques, les dossiers spéciaux, les éditoriaux exaltés.

Les éditeurs de livres restent manifestement plus méfiants : seuls Hachette, Albin Michel et Eyrolles ont pour l’instant franchi le pas et accepté de mettre à disposition une partie de leur catalogue sur l’iBookstore [4]. Les autres devraient suivre à plus ou moins longue échéance, mais des manifestations d’opposition ont déjà été exprimées. Le plus remarquable, celle d’Antoine Gallimard, conduit sa maison a proposer plutôt une application branchée sur sa plateforme de distribution numérique, Eden livres, par l’intermédiaire de laquelle, les ouvrages seront vendus.

Trois éléments expliquent une telle prise de position :

- il s’agit d’abord de la maîtrise du prix de vente du livre. Apple ne laisse pas les éditeurs fixer librement les prix dans son Bookstore mais exerce des contraintes qui ne sont pas difficiles à admettre pour un secteur qui a toujours eu l’habitude contraire, surtout grâce à la loi sur le prix unique du livre.
- le deuxième élément est le stockage du fichier numérique sur les serveurs d’Apple qui en assure du coup toute la gestion. Cette option a toujours été refusée jusqu’à présent par les éditeurs français aux plateformes de distribution numériques qu’ils ne maîtrisent pas [5].
- Enfin, Antoine Gallimard évoque explicitement le risque de « monopole » d’Apple sur le secteur du livre [6]. Monopole : le terme est un peu fort car il existe en réalité des alternatives. Il faut plutôt voir dans cet argument le risque que représente une concentration verticale entre la plateforme de distribution et le fabricant de la machine elle-même susceptible de créer un effet de verrouillage inquiétant pour les éditeurs.

Malgré les résistances et les inquiétudes, l’arrivée de l’iPad semble pourtant être un élément déclencheur pour un secteur qui semble désormais bien engagé dans de grandes manoeuvres. Récemment, les trois grandes plateformes françaises de distribution de livres numériques ont conclu un accord d’interopérabilité permettant aux libraires d’accéder selon les même méthodes et simultanément à leurs catalogues [7]. Comme souvent, c’est bien l’apparition d’une menace extérieure qui fait avancer les acteurs.

Les espoirs que l’iPad suscitent, que ce soit pour la presse, l’édition de livre ou du côté des consommateurs ne sont pas partagés par tous. Certains en appellent à un retour à un minimum de lucidité, notamment quant aux perspectives économiques que ce nouveau support est susceptible d’ouvrir. Hubert Guillaud dans La Feuille, fait un rapide calcul portant sur les liseuses (tous types confondus) en général :

Estimons que demain, en France, il y ait 600 000 liseuses en circulation. Aujourd’hui, le papier touche potentiellement 60 000 000 de Français. Combien pourraient faire un succès commercial qui se vend à 100 000 exemplaires (c’est devenu un beau chiffre) sur un public potentiel de 60 millions quand le public potentiel n’est plus que de 600 000 lecteurs équipés ? Un livre numérique se vendant à 1 000 exemplaires (rapport au parc de machine) serait donc l’équivalent d’un best-seller dans le monde physique ! Voilà qui permet de remettre les pendules à l’heure [8]

Certains chiffres annoncent la vente de plus d’un million d’iPad aux Etats-Unis, ce qui est un beau succès, mais reste marginal rapporté à une population globale de 300 millions d’habitants. Le talent marketing d’Apple et de son dirigeant Steve Jobs sont certains, mais le prix de vente de la tablette restera sans doute trop élevé pour lui permettre de jamais devenir un objet de consommation universel.

Par ailleurs, les premières études d’usages sur l’iPad risque de faire l’effet d’une douche froide sur les éditeurs qui en attendent beaucoup pour leur trésorerie. Une étude publiée récemment montre en effet que pour l’instant, la plupart des acquéreurs d’iPad utilisent davantage leur tablette pour consulter leur courrier électronique ou surfer sur le web [9].

Ce point précis des usages de la tablette est fondamental et demande à être observé avec précision. Car l’iPad est identifié par les éditeurs de contenus comme une machine de guerre contre le web, ce web qui en a ruiné certains ou que d’autres ont toujours voulu éviter en raison des incertitudes économiques qu’il représente. La tribune publiée par Cory Doctorow contre l’iPad [10] et finalement tout le système Apple est caractéristique de cette opposition. Ayant pour sa part su tirer tout le parti de la logique ouverte et créatrice du web, cet auteur et éditeur de contenus dénonce très naturellement la logique verrouillée et privative que met progressivement en place la firme de Cupertino.

Le succès annoncé de l’iPad ne doit enfin pas faire oublier l’existence d’une concurrence nombreuse et diversifiée [11]. Outre les habituelles « liseuses » à base de papier électronique – Sony Reader, Cybook, Kindle, on recense de nombreuses tablettes Internet à écran LCD tactiles comme l’iPad. La firme française Archos vient par exemple de mettre sur le marché une machine fonctionnant sous Linux Android, nettement moins coûteuse, dotée d’un écran un peu plus petit, mais beaucoup plus performante, tandis que d’autres constructeurs fourbissent leurs armes.

Pour les éditeurs de contenus, l’iPad est attendu comme le messie parce qu’il est identifié comme le moyen leur permettant de perpétuer un modèle économique qu’ils maîtrisent [12]. L’espoir de retrouver un marché unifié constitué par un public rassemblé autour d’un seul canal de commercialisation éprouvé semble illusoire. Une vision un peu plus large de la situation fait plutôt état d’une diversification des supports, d’une multiplication des modes de commercialisation et d’une fragmentation des publics.

L’avenir des producteurs de contenus résidera donc plutôt dans leur capacité à être présents dans tous les lieux de circulation d’information, sur tous les supports, iPad compris ; mais pas seulement.

> Article initialement publié sur Homo Numéricus

> Les notes renvoient à l’article original

> Illustrations CC FlickR par thms.nl,

]]>
http://owni.fr/2010/06/12/l%e2%80%99ipad-sauvera-t-il-les-editeurs-du-peril-web/feed/ 3
Vie privée sur Internet : état des lieux sur un débat en évolution http://owni.fr/2010/02/01/vie-privee-sur-internet-etat-des-lieux-sur-un-debat-en-evolution/ http://owni.fr/2010/02/01/vie-privee-sur-internet-etat-des-lieux-sur-un-debat-en-evolution/#comments Mon, 01 Feb 2010 07:33:04 +0000 Pierre Mounier http://owni.fr/?p=7360 Beaucoup de publications au cours des dernières semaines ont traité de la question de la protection de la vie privée sur Internet. Jean-Marc Manach écrivait cette semaine dans un billet de son blog, que deux articles récemment publiés sur le site du Monde avait été parmi les plus téléchargés et signalés par les lecteurs à leurs correspondants de tout le site [1]. Autant de signes qui indiquent une réelle inquiétude sur cette question.

Il faut dire que les dirigeants des deux plus importantes sociétés de traitement de l’information sur Internet, Mark Zuckerberg pour le réseau social Facebook, et Eric Schmidt pour le moteur de recherche Google ont récemment jeté de l’huile sur le feu avec des déclarations qui ont provoqué un certain émoi.

Eric Schmidt tout d’abord, est le directeur d’une entreprise, Google, qui collecte en permanence une quantité considérable d’information sur chacune de nos actions sur Internet. Elle accumule aussi beaucoup d’informations sur le monde physique avec ses deux services complémentaires Google maps et Google Street view. Récemment Eric Schmidt, interrogé sur les dangers que font peser actuellement des entreprises comme la sienne sur la vie privé répondit avec légèreté que cette question ne concernait que les criminels, puisqu’ils sont les seuls à avoir quelque chose à cacher [2]. Mark Zuckerberg, fondateur et dirigeant de Facebook fut interrogé de son côté alors que sa société venait de décider de rendre publiques par défaut les informations diffusées par ses utilisateurs sur la plateforme. Il déclara que ce changement de politique accompagnait simplement une évolution des mœurs sur cette question [3].

Dirigeant une plateforme de réseau social en majorité peuplée de gens de moins de trente ans, Zuckerberg renvoie implicitement par cette déclaration à l’idée selon laquelle les générations les plus jeunes n’ont pas la même conception de la vie privée que leurs aînés. Une série d’études publiées récemment ont permis à ces derniers de découvrir – avec effarement parfois -, que la plupart des jeunes, nés avec Internet ne voyaient pas de problème particulier à dévoiler sur le réseau les détails les plus personnels et parfois les plus intimes de leur vie privée. C’est évidemment autour de la sexualité que le conflit de génération est le plus évident. La pratique du « sexting » fait ainsi débat [4].

Jean-Marc Manach fait ainsi apparaître que pour cette génération, les questions de protection de la vie privée ne sont pas loin de pouvoir être défini comme « un problème de vieux con » [5]. A l’inverse, certains renvoient les pratiques des jeunes au pires travers de la société du spectacle et aux pires dérives de la télé-réalité. En gros, résume Manach, aux yeux des plus anciens, ces jeunes secomportent comme des « petits cons » [6].

Tout ceci fait penser à un célèbre chanson de Georges Brassens. Au delà pourtant, ces nouvelles publications nous permettent de découvrir que le souci de la vie privée n’est pas unanimement partagé comme on pouvait le croire. Les normes en la matière ne sont pas fixées ; elles sont fluctuantes entre les époques, les cultures, ce qu’on savait déjà, mais à l’intérieur même d’une société, entre les générations aussi. Cette question ne peut dès lors plus être traitée en bloc, sur le mode du tout ou rien, mais doit faire l’objet d’analyses articulée et détaillées. Cette évolution rend du coup d’autant plus indispensable le travail de sociologues spécialisé sur les nouvelles technologies comme Danah Boyd [7] ou Shirley Turkle [8].

D’ailleurs, cette question de la vie privée est bien loin de se résumer à la simple exposition de détails intimes sur Internet. C’est tout le mérite d’une série de billets publiés par Andy Oram sur le blog de l’éditeur O’Reilly, que d’en déployer tous les aspects [9]. Tout d’abord, elle est liée à la question de le construction de l’identité et de la présentation de soi dans les espaces cybernétiques. Elle se retrouve pourtant aussi au cœur des systèmes de surveillance que les Etats mettent en place sur leurs populations, en particulier depuis le 11 septembre 2001. Oram ne manque pas de faire remarquer à ce propos que les États européens en particulier qui imposent aux sociétés privées des règles très restrictives pour limiter la collecte de données personnelles sont en pleine contradiction lorsqu’ils collectent eux-mêmes de nombreuses données à des fins de sécurité ou contraignent les intermédiaires techniques à conserver des données pendant des durées relativement longues.

Autre aspect concerné, la collecte de données par des sociétés à des fins commerciales. Oram rappelle que cette collecte correspond en fait à deux objectifs très différents : la constitution de profils individuels d’un côté, permettant de délivrer des publicités personnalisées en particulier, l’agrégation de données permettant de construire des populations différenciées selon des comportement distincts de l’autre [10]. Sur ce dernier aspect, on déborde donc de la pure dimension individuelle et on aborde l’espace public : en collectant et agrégeant des masses importantes d’information, les entreprises commerciales construisent une représentation du corps social qui a un effet non négligeable sur celui-ci (offres différenciés, segmentation de marché). Abordée très souvent sous l’angle exclusif de la protection individuelle de la vie privée, cette question des données personnelles bascule donc en fait du côté du politique.

L’affaiblissement ou la remise en cause de la notion de vie privée est sans doute très critiquable, mais elle a le mérite de faire apparaître quelques insuffisances critiques de notre mode d’organisation sociale. Ainsi, Jean-Marc Manach fait-il remarquer à juste titre que si les adolescents n’ont pas le sens de la vie privée, c’est sans doute aussi parce qu’ils ont intégré le mode de fonctionnement d’une société placée sous surveillance constante : caméras de surveillance plantées à tous les coins de rue, logs de connexion retenus pendant un an, traçage des achats effectués au moyen des cartes magasins, suivi des parcours au moyen des carte d’abonnement « sans contact » des transports en commun.

Dans un tel contexte, la notion de vie privée prend une tournure purement défensive. Constamment rognée sur ses marges, elle se rabougrit comme peau de chagrin et surtout, les efforts que tout un chacun déploie pour la préserver a toutes les chances de le conduire à déserter encore un peu plus un espace public surveillé et sous contrôle. Souvent accusés d’accroître les dangers qui pèsent sur la vie privée, le Réseau peut pourtant au contraire être considéré comme un outil de « démocratisation de la vie privée », selon l’expression du même auteur [11]. C’est lui en particulier qui permet de rester en constamment en contact avec ses proches dans tous les lieux publics, que ce soit sur le lieu de travail, à l’école ou à l’hôpital. Il constitue dès lors un moyen de résistance à l’assujettissement que les pouvoirs de l’État ou de l’entreprise exercent sur les individus dans les lieux qu’ils contrôlent. Il est dès lors possible d’avancer que les comportements très différents de ceux de leurs aînés que les jeunes génération adoptent progressivement peuvent être vus comme le premier pas d’une reconquête d’un espace public qui a progressivement été abandonné.

On sait bien qu’historiquement, la construction d’un espace public démocratique s’est appuyé sur l’émergence de la notion de vie privée qui permet à l’individu de définir une liberté fondamentale à partir de laquelle il va pouvoir agir sur celui-ci. Il reste cependant qu’une conception sacralisée de la vie privée, conduisant à son hypertrophie en valeur sinon en fait, ne peut avoir pour conséquence que le retrait permanent des citoyens de la vie publique.

Tout à la préoccupation de protéger leur vie privée, ceux-ci délaissent le bien commun et les espaces partagés par l’ensemble de la société. Et ces espaces sont alors soumis à des forces hétéronomes qui les gouvernent par la force et l’arbitraire.

L’affaiblissement que nous constatons de la cloison étanche entre espace public et vie privée est certes lourde de menaces : la transparence totale de l’individu jusque dans son intimité est une menace d’aliénation absolue qui fait froid dans le dos. Elle est pourtant aussi porteuse d’espoir, les utilisateurs du réseau qui construisent des espaces publics qui leur sont propres, des réseaux autonomes de pair à pair, et qui les peuplent de leur subjectivité nous montrent sans doute qu’une reconquête est possible, qu’un réinvestissement citoyen de l’espace public, qu’il soit virtuel ou physique, est possible, mais que cette reconquête doit sans doute être payée par une mise en commun et une ouverture des subjectivités, des affects et même des corps dans ces espaces. En un mot, ils nous montrent qu’il est finalement nécessaire de surmonter ses propres pudeurs, de nourrir ses actes publics de sa propre subjectivité pour reprendre pied et reprendre le contrôle d’une société qui sans cela risque d’être gouverné par des pouvoirs désincarnés, c’est à dire mortels.

Une récente évolution du débat a mis en évidence l’apparition de la notion de « sousveillance » aux côtés de celle de « surveillance » [12]. L’idée implicite qui accompagne ces développements est que l’une n’est pas moins effrayante que l’autre ; que les « littles sisters » qui s’épient mutuellement, de pair à pair, ne représentent pas moins de danger que le « big brother » qui nous surveille d’en haut de son dispositif panoptique. La question mérite d’être posée sérieusement car les deux dispositifs ont pourtant des implications politiques très différentes. On peut évidemment souhaiter échapper à l’un et à l’autre. Mais est-ce possible ?

Notes

[1] Manach, Jean-Marc. “Les “petits cons” parlent aux “vieux cons” (la version courte).” Bug Brother. http://bugbrother.blog.lemonde.fr/2010/01/11/les-petits-cons-parlent-aux-vieux-cons-la-version-courte/.

[2] “Google’s Privacy.” Inside the mind of Google. CNBC, 2010. http://www.cnbc.com/id/15840232?video=1372176413&play=1.

[3] Mike Arrington interrogates Mark Zuckerberg, Mike Arrington interrogates Mark Zuckerberg techcrunch on USTREAM. The Web. Ustream, 2010. http://www.ustream.tv/recorded/3848950.

[4] Lenhart, Amanda. Teens and Sexting. Pew Internet & american life Project, Décembre 15, 2009. http://www.pewinternet.org/Reports/2009/Teens-and-Sexting.aspx.

[5] Manach, Jean-Marc. “La vie privée, un problème de vieux cons ?.” InternetActu.net, Mars 12, 2009. http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/.

[6] Manach, Jean-marc. “Vie privée : le point de vue des “petits cons”.” InternetActu.net, Janvier 4, 2010. http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/.

[7] Boyd, Danah. “Taken out of Context, American Teen Sociality in Networked Publics.” UC Berkeley, 2008. http://www.danah.org/papers/TakenOutOfContext.pdf.

[8] Turkle, Sherry. The Second Self : Computers and the Human Spirit, The MIT Press, 2005.

[9] Oram, Andy. “Being online : identity, anonymity, and all things in between.” O’Reilly Radar, Décembre 17, 2009. http://radar.oreilly.com/2009/12/online-identity1.html.

[10] Oram, Andy. “Being online : Your identity to advertisers—it’s not all about you.” O’Reilly Radar, Décembre 22, 2009. http://radar.oreilly.com/2009/12/online-identity4.html.

[11] Manach, Jean-Marc. “Une démocratisation de la vie privée ?.” InternetActu.net, Janvier 18, 2010. http://www.internetactu.net/2010/01/18/une-democratisation-de-la-vie-privee/.

[12] Ganascia, Jean-Gabriel. Voir et pouvoir : qui nous surveille ? Editions le Pommier, 2009.

» Article initialement publié sur Homo Numericus

» Illustration de page d’accueil par Jim Donnelly sur Flickr

]]>
http://owni.fr/2010/02/01/vie-privee-sur-internet-etat-des-lieux-sur-un-debat-en-evolution/feed/ 7
Le monde de la culture contre Google et Internet ? http://owni.fr/2010/01/19/le-monde-de-la-culture-contre-google-et-internet/ http://owni.fr/2010/01/19/le-monde-de-la-culture-contre-google-et-internet/#comments Tue, 19 Jan 2010 14:18:47 +0000 Pierre Mounier http://owni.fr/?p=7090 Titre original :

Le monde de la culture sombre-t-il dans la diabolisation de Google et de l’Internet ?

Lors de ses vœux aux acteurs de la Culture, le Président de la République a déclaré vouloir adopter une attitude offensive contre le géant de l’Internet, Google. Suivant les recommandations de la commission Zelnik [1], il souhaite donc taxer de manière particulière les revenus publicitaires que la société engrange grâce aux clics que les internautes français effectuent sur les « liens sponsorisés ». Cette idée de taxation est justifiée, dans le discours présidentiel, et dans le rapport qui lui en a fourni l’idée, par le déséquilibre de la répartition des revenus publicitaires entre les producteurs de contenus – les industries culturelles – et Google qui détient une position dominante sur ce secteur d’activité. Alors que les premières voient leur taux de profitabilité baisser dangereusement – c’est vrai de la musique enregistrée et de la presse en particulier -, Google connaît une insolente bonne santé économique, même en période de crise. On comprend dès lors qu’un certain nombre de publications de presse aient accueilli très favorablement cette proposition dont ils espèrent tirer quelque bouffée d’oxygène[2].

L’idée d’une « taxe Google » s’inscrit dans une double suite d’événements :

- une série relativement courte qui commence sous la présidence de Jacques Chirac avec le cri d’alarme lancé en 2005 par Jean-Noël Jeanneney contre le programme de numérisation de livres Google books[3]. Alors directeur de la BNF, Jeanneney obtint dans la foulée un budget conséquent pour développer au niveau national son propre programme de numérisation - Gallica -, et proposer aux différents pays européens de s’allier pour valoriser leur patrimoine numérique via un portail commun : Europeana. La stratégie consistait alors à concurrencer Google sur son propre terrain. Si Gallica est une incontestable réussite, sa dimension purement nationale n’en fait pas un concurrent sérieux pour Google. Europeana est de son côté un échec sur la plupart des plans. L’initiative n’a en tout cas jamais atteint son but : remettre en cause la domination sans partage de l’américain. Plusieurs années après, le bilan est moins que mitigé : de grandes bibliothèques françaises, comme la bibliothèque municipale de Lyon signent un contrat avec Google pour numériser leurs collections. Comble du paradoxe : la BNF elle-même, désormais dirigée par Bruno Racine s’apprête à prendre le même chemin jusqu’à ce que le Ministre de la Culture la stoppe temporairement. Le rapport Tessier, récemment paru, et qui porte sur cette question précise, tire les conclusions de la situation actuelle : la participation de Google à la numérisation des collections patrimoniales françaises est bien inévitable. Le véritable enjeu est d’en négocier les conditions[4].

Dans la même période, d’autres acteurs culturels de premier plan passent à l’offensive : la maison d’édition Le Seuil en particulier attaque Google devant les tribunaux, toujours sur son programme de numérisation de livres, pour violation du droit de propriété intellectuelle, et gagne en première instance[5], déclenchant les applaudissements à la fois du syndicat des éditeurs, et des représentants des auteurs. Du côté de la presse en ligne, qui souffre en effet des faibles rémunérations qu’elle tire de la publicité, c’est plutôt du côté des subventions qu’elle va chercher des remèdes à sa situation, en obtenant à la suite des Etats Généraux de la Presse, 60 millions d’euros sur 3 ans pour développer de nouveaux projets de développement[6].

Après le piratage pour la musique et le cinéma, Google est donc désigné comme responsable des pertes économiques que subissent les secteurs du livre et de la presse. Porteur d’un modèle d’accès gratuit à l’information, il tuerait du même coup des acteurs dont le métier consiste au contraire à vendre l’information[7]. Pour intéressant qu’il soit, ce raisonnement a le défaut d’attribuer au comportement d’un seul acteur, même dominant, ce qui relève plutôt du mode de fonctionnement de l’écosystème dans lequel il s’insère. De ce point de vue, les stratégies défensives déployées par les différents acteurs : numérisation concurrente (Gallica), procès (Seuil), subventions (presse) et taxe (politiques) semblent relativement vaines pour une raison simple : elles prétendent agir sur un secteur particulier, à un niveau déterminé, et de toutes façons, elles ne peuvent intervenir que dans les limites d’un territoire national. Google, et aussi l’écosystème dont il tire profit se situe à un tout autre niveau : l’entreprise se définit comme une industrie de traitement de l’information dans sa globalité à l’échelle de la planète. Sa force réside justement dans sa capacité à retrouver l’information pertinente de manière transversale à tous les types documentaires possibles : livres, presse, blogs, mails, groupes de discussion, données de toutes natures, géolocalisées et bien sûr commerciales. Les batailles menées par les uns et les autres peuvent donc être gagnées localement, elles ont peu de chance, même cumulées de changer une situation globale où Google n’a pas de véritable concurrent. Ayant sans doute compris avant tout le monde le mode de fonctionnement de l’ère informationnelle dans laquelle nous sommes en train d’entrer, Google apparaît comme une entreprise mutante, particulièrement bien adaptée à son milieu, et donc dotée d’une force d’autant plus importante.

Le discours des acteurs politiques et économiques français est celui de la résistance nationale. Ils réactivent là un schéma traditionnel à notre pays où l’on attribue volontiers des pouvoirs magiques à la pure expression de la volonté politique. Il est des circonstances où la volonté peut effectivement jouer un rôle et changer une situation. Faut-il encore qu’elle s’appuie sur une compréhension fine de cette situation et oriente l’action dans un sens qui lui donne des chances d’être efficace. Est-ce le cas en France ?

Certains tirent la sonnette d’alarme à propos de la multiplication de discours relativement technophobes et radicalement critiques à l’égard d’Internet[8]. C’est un phénomène ancien et durable parmi les élites françaises. A la fin des années 90, Françoise Giroud définissait avec mépris Internet comme « un danger public puisqu’ouvert à n’importe qui pour dire n’importe quoi ». Aujourd’hui, Alain Finklekraut fustige le modèle d’horizontalité dont il est porteur[9]. Plus récemment, Robert Redeker dénonce le narcissisme vain que manifestent des phénomènes comme Facebook[10]. L’Internet comme « tout-à-l’égout de la démocratie »[11], comme « la plus grande saloperie qu’aient jamais inventée les hommes »[12] ; voilà quelques formules bien senties qui manifestent une abhorration bien partagée dans certains milieux. On a déjà eu l’occasion de le montrer : les plus récentes lois de « régulation » des usages de l’Internet qui ont été adoptées en France, manifestent en réalité une volonté de revanche des industries culturelles contre les industries de l’Internet : fournisseurs d’accès et Google donc qui sont sommés de rendre gorge pour leurs insolents bénéfices[13]. La très étonnante idée de taxation des fournisseurs d’accès à Internet pour financer la télévision publique va dans le même sens[14].

Tous ces éléments mis ensemble manifestent l’angoisse presque désespérée avec laquelle les acteurs de la Culture en France accueillent la révolution numérique. Son extension progressive à chacun des secteurs concernés a été vécue comme une montée progressive des périls. Elle touche aujourd’hui le dernier bastion, le cœur sacré du temple culturel : le livre et cela n’est pas sans importance pour expliquer la violence des réactions actuelles qui, de l’indifférence et du mépris semblent évoluer maintenant vers la haine.

Notes

[1] Zelnik Patrick et Toubon Jacques, 2010, Création et Internet, Paris, Ministère de la Culture. Adresse : http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Remise-du-rapport-de-la-mission-creation-et-internet.

[2] aKa, 2010, « Le Monde et Libé main dans la main pour nous pondre des éditos serviles et crétins », Framablog. Adresse :http://www.framablog.org/index.php/post/2010/01/10/le-monde-liberation-taxe-google-rapport-zelnik [Accédé : 16 Janvier 2010].

[3] Jeanneney Jean-Noël, 2005, Quand Google défie l’Europe : Plaidoyer pour un sursaut, Mille et une nuits.

[4] Tessier Marc, 2010, Rapport sur la numérisation du patrimoine écrit, Paris, Ministère de la Culture. Adresse : http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Mission-sur-la-numerisation-du-patrimoine-ecrit/Rapport-Tessier.

[5] Numérisation des livres : Google condamné pour contrefaçon, Zdnet.fr. Adresse :http://www.zdnet.fr/actualites/internet/0,39020774,39711685,00.htm [Accédé : 16 Janvier 2010].

[6] Roussel Frédérique, 2010, « La presse en ligne de crédit », Ecrans. Adresse :http://www.ecrans.fr/La-presse-en-ligne-de-credit,8866.html [Accédé : 16 Janvier 2010].

[7] Thompson Chris, 2010, « Comment Google a pris le pouvoir », Slate.fr. Adresse :http://www.slate.fr/story/15407/google-pouvoir-decennie-culture-ravages [Accédé : 16 Janvier 2010].

[8] Epelboin Fabrice, 2009, « Aux Etats-Unis, Internet est perçu comme un bienfait pour la société | ReadWriteWeb France », ReadWriteWeb France. Adresse :http://fr.readwriteweb.com/2009/12/28/analyse/aux-etatsunis-internet-est-peru-comme-bienfait-socit/ [Accédé : 16 Janvier 2010].

[9] Chieze et Quioc, 2009, Alain Finkielkraut : « Internet, c’est n’importe quoi » -Libération, Paris. Adresse : http://www.liberation.fr/medias/06011245-alain-finkielkraut-internet-c-est-n-importe-quoi [Accédé : 16 Janvier 2010].

[10] Redeker Robert, 2010, « Facebook, narcissisme et exhibitionnisme », Médias, vol. , n° 23. Adresse : http://www.revue-medias.com/facebook-narcissisme-et,594.html[Accédé : 16 Janvier 2010].

[11] Dailymotion – Olivennes : Internet, « le tout-à-l’égout de la démocratie » – une vidéo Actu et Politique, 2009, Université d’été du MEDEF. Adresse :http://www.dailymotion.com/video/xadssk_olivennes-internet-le-toutalegout-d_news[Accédé : 16 Janvier 2010].

[12] Séguéla : « Le Net est la plus grande saloperie qu’aient jamais inventée les hommes » | Rue89, 2009, Adresse : http://www.rue89.com/2009/10/19/seguela-le-net-est-la-plus-grande-saloperie-quaient-jamais-inventee-les-hommes-122414?page=3 [Accédé : 16 Janvier 2010].

[13] Piotrr, 2009, « Hadopi, et après ? », Homo Numericus. Adresse : http://homo-numericus.net/spip.php?article287 [Accédé : 16 Janvier 2010].

[14] Les fournisseurs d’accès Internet taxés pour financer France Télévisions, 2008,20minutes.fr. Adresse : http://www.20minutes.fr/article/281942/Television-Les-fournisseurs-d-acces-Internet-taxes-pour-financer-France-Televisions.php [Accédé : 16 Janvier 2010].

» Article initialement publié sur Homo Numéricus. Vous pouvez y lire les commentaires et contribuer à la conversation

]]>
http://owni.fr/2010/01/19/le-monde-de-la-culture-contre-google-et-internet/feed/ 3
Hadopi : et si on s’était trompé (de stratégie) ? http://owni.fr/2009/05/24/hadopi-et-si-on-s%e2%80%99etait-trompe-de-strategie/ http://owni.fr/2009/05/24/hadopi-et-si-on-s%e2%80%99etait-trompe-de-strategie/#comments Sun, 24 May 2009 16:15:13 +0000 Pierre Mounier http://owni.fr/?p=1252 L’adoption en deuxième lecture du projet de loi Internet et Création, qui a pour objectif de faire cesser le piratage sur Internet par la mise en oeuvre de la méthode dite de « riposte graduée » clôt un cycle de plusieurs semaines de polémiques et de débats. Pour les opposants à la loi, parmi lesquels je me compte, c’est l’occasion de faire un retour sur ces débats et sur ce qui fait que, loi après loi, personne ne semble en mesure d’inverser la tendance d’un législation toujours plus répressive pour les usages d’Internet.

Il est en particulier important de revenir sur les stratégies de positionnement qui ont été à l’oeuvre au cours des débats. Ceux-ci ont été marqués par une nouvelle édition de la bataille des Anciens contre les Modernes : d’un côté les jeunes, les geeks, les digital natives, ceux qui comprennent et vivent Internet, de l’autre les vieux, les migrants, les tenants de l’ancien modèle, ceux qui ne comprennent rien à Internet, dont la Ministre de la Culture qui voit des pare-feux dans les suites bureautiques représentent la figure la plus accomplie. Cette opposition classique, que l’on voit rejouée depuis que l’on se préoccupe de légiférer sur le sujet, fonctionne, en particulier parce qu’elle reflète un schéma historique classique, rejoué à chaque révolution technologique, mais aussi esthétique, politique, sociale. Elle n’est d’ailleurs pas tout à fait fausse. Lorsque Vinvin s’amuse à répliquer en alexandrins à l’agrégée de lettres classiques, ancienne présidente du Château de Versailles, il fait mouche. De la même manière, les débats à l’Assemblée ont nettement fait ressortir les faiblesses d’un projet de loi manifestement ignorant des réalités techniques qu’il prétend contrôler.

Les Modernes ont toujours tort

Pas tout à fait fausse, l’opposition des Anciens et des Modernes n’est pas non plus tout à fait vraie ; et surtout, c’est ce que je vais tenter de montrer maintenant, il est possible qu’elle enferme les Modernes – les opposants à la loi donc – dans une position nécessairement perdante. D’un manière générale en effet, il n’est jamais très bon ni malin de se réclamer de la nouveauté radicale, de la rupture absolue et de promettre des lendemains qui chantent dans un pays aussi conservateur que le nôtre. Sauf en des périodes bien particulières, périodes de crise profonde courtes et rares, l’innovation et le changement sont rarement reçus avec enthousiasme en France. C’est bien plutôt le ricanement ou la moue sceptique au mieux, qui les accueillent. La position de faiblesse dans laquelle les opposants à la loi se sont laissés enfermer est par ailleurs redoublée par la question du rapport particulier que les élites politiques entretiennent avec la technologie en général, avec l’informatique en particulier. Il n’est pas certain en particulier que l’ignorance de Christine Albanel, Franck Riester ou Denis Olivennes sur ces questions ait été jugée rédhibitoire pour légiférer.

C’est d’ailleurs le message que la Ministre de la Culture a clairement envoyé au lendemain de l’adoption de sa loi, en affirmant une certaine fierté d’avoir su résister au « fétichisme » de la technologie. Poussée dans les retranchements de son ignorance, la voici défendant désormais une position quasi-inexpugnable : elles ne connaît rien à aux technologies numériques ni aux subtilités de l’informatique. Et alors ? Est-ce que cela doit l’empêcher d’établir des règles pour un secteur d’activité qu’elle déclare devoir être borné au nom d’une logique plus globale ? Sans doute pas. C’est sur ce point en particulier que le décalage entre partisans et opposants à la loi était le plus flagrant. Parmi ces derniers, on trouve, comme souvent, beaucoup de passionnés d’informatique et d’Internet, de ceux qui fréquentent assidûment le réseau, le pratiquent quotidiennement, ou participent à des communauté virtuelles diverses. Or, ces milieux particuliers fonctionnent souvent sur le principe méritocratique où la compétence collectivement reconnue est source essentielle de légitimité. On peut se demander si l’incapacité de ces milieux à faire valoir leur point de vue ne vient pas de leur tendance à extrapoler à tort ce principe de légitimation par la compétence dans une arène politique où il est fortement relativisé par d’autres principes bien plus puissants.

Fiacres vs. automobiles

La dénonciation de la technolâtrie sur lequel la Ministre s’est finalement appuyée pour légitimer sa position est d’ailleurs peu contestable. Elle met surtout en lumière les contradictions et la faiblesse argumentative des opposants à la loi qui en dénonçaient à la fois le caractère nocif et dangereux, et en même temps l’obsolescence et l’inutilité. Si la loi est nocive, alors il est nécessaire de se mobiliser pour la combattre. Mais si elle est inutile et destinée à être emportée par le flot de l’histoire dont elle prétend contrarier le sens, alors à quoi bon sortir de chez soi ? Autant attendre que l’histoire se réalise et, comme certain(e)s, préparer l’après-Hadopi. Pourquoi se fatiguer à combattre les fiacres, s’ils sont de toutes façons destinés à être remplacés par les automobiles ? Les argumentaires reposant sur le sens de l’histoire sont en général assez faibles. Dans certains cas, ils deviennent franchement contre-productifs et démobilisateurs. En l’occurrence, ils étaient construits sur un déterminisme technologique qui présente finalement les caractéristiques d’une illusion.

La question de savoir si Internet est intrinsèquement porteur de valeurs particulières et susceptible de contribuer à l’émergence, de par son seul impact en tant que technologie, d’une société nouvelle, est aussi ancienne que l’Internet lui-même. Elle a été très sérieusement et fréquemment débattue aux Etats-Unis où ont fleuri en particulier de nombreuses théories de refondation de la démocratie par les nouvelles technologies. Pour mémoire, on peut évoquer le fameux article publié en 2001 par D. Weinberger, l’auteur du Cluetrain Manifesto, et intitulé « A value-free Internet » qui met en lumière le rôle important que les valeurs politiques des ingénieurs américains des années 60 ont joué dans la manière dont ils l’ont conçu et architecturé. Lawrence Lessig s’est penché de son côté sur la même question. De son analyse, en particulier dans Code, and other laws of cyberspace, il ressort que des principes politiques, « constitutionnels », sont en effet encapsulés, traduits dans l’architecture technique du réseau. Mais s’il faut lire Lessig, il est bon de lire Zittrain aussi, qui dans The End of the Internet as we know it, montre à quel point ces principes peuvent être mis en danger par des choix technologiques qui peuvent reconfigurer le réseau sur des bases totalement opposées à ses principes originels.

Autrement dit, et pour en revenir plus directement au sujet qui nous occupe, rien ne permet de dire que les partisans d’un maintien des pratiques culturelles dans l’ancien cadre, celui des industries culturelles pour aller vite seront balayés de manière inéluctable par le vent de l’histoire. Rien n’empêche de penser qu’en France comme ailleurs, ils sont au contraire en mesure de prendre pied sur le réseau pour le transformer à leur avantage. Ce risque, popularisé sous le sobriquet de Minitel 2.0, est au coeur de la bataille de l’Hadopi. Et cette bataille apparaît désormais sous son véritable jour. Elle n’oppose pas seulement les Anciens et les Modernes, ceux qui n’ont rien compris et ceux qui ont tout compris, le passé et l’avenir, les incompétents et les compétents. Elle oppose bien plutôt deux visions, deux options politiques, deux ensembles de valeurs concernant les pratiques culturelles, et c’est ainsi que le débat doit désormais être posé.

Les artistes « de gauche » entrent en scène

C’est tout le mérite de la lettre ouverte par Pierre Arditi et ses amis à Martine Aubry que de le poser en ces termes. Mais selon des termes justement qui semblent totalement inversés par rapport à la réalité. Cette lettre a pour objectif de réinscrire un débat qui divise aussi bien le PS que l’UMP (puisqu’un certain nombre de députés de ce dernier parti ont pris position contre la loi) dans un clivage gauche-droite traditionnel : on aurait d’un côté une vision « libérale-libertaire », dérégulatrice et laissant jouer les libres forces du marché et de l’industrie lourde : les fameux telcos jouant le rôle du renard dans le poulailler, et dont les pirates seraient finalement les alliés objectifs. De l’autre, une vision régulatrice, protectrice des Arts et Lettres, défendant héroïquement la Culture contre l’appétit destructeur du Grand Capital. Que des artistes « de gauche » en viennent à interpréter la situation en ces termes en dit long à la fois sur l’état de confusion idéologique dans lequel toute une partie de la gauche se trouve actuellement – et que corroborent par exemple les multiples débauchages dans ses propres rangs -, mais aussi sur son incompréhension radicale des logiques économiques qui sont à l’oeuvre. Pour le comprendre, il est nécessaire de reprendre du champ par rapport au débat sur l’Hadopi, et même de sortir du domaine de l’Internet stricto sensu.

L’Age de l’accès

Il est un ouvrage qu’il est toujours bon de lire et relire pour décrypter les évolutions économiques que nous vivons, particulièrement en tant que consommateurs. Il s’agit de L’Age de l’accès de Jérémy Rifkin, publié en 2000 aux éditions La Découverte qui montre comment les bases de l’activité économique sont en train de basculer progressivement d’une activité de vente d’objets dont les consommateurs deviennent propriétaires, à une activité de monétarisation de l’accès à des services dont ils deviennent locataires. Un certain nombre de prédictions avancées par Rifkin, en particulier sur les secteurs du logement et de l’automobile doivent aujourd’hui être relativisés. Il est par contre indéniable que dans les domaine de l’accès aux produits culturels, ses analyses sont plus qu’éclairantes ; révélatrices. C’est donc à leur lumière qu’il faut analyser le débat provoqué par le projet de loi Création et Internet, en particulier sur la notion de « licence globale », rebaptisée « contribution créative ». On pense souvent que le débat sur la licence globale consiste à choisir entre ce système et le bon vieux marché de vente des produits culturels à l’unité, que ce soit sur support physique ou dématérialisés. Le choix se situe en réalité à terme entre ce système et d’autre modes de distribution reposant sur des formules d’abonnement qui ressemblent à s’y méprendre à….la licence globale ! Car qu’est-ce que la licence globale ou contribution créative, sinon une forme d’abonnement illimité permettant d’accéder à un ensemble de produits culturels, exactement comme commencent à le proposer certains fournisseurs d’accès ou groupes de médias ? Et ce n’est pas faire preuve de déterminisme technologique que de constater que les technologies numériques en réseau favorisent effectivement ce mode de distribution au détriment de l’achat à l’unité, pour une raison simple et désormais bien connue : les coûts de fabrication et de distribution des objets numériques sont essentiellement fixes, structurels, et non marginaux, contrairement à ceux qui caractérisent les objets physiques. Il n’est donc pas étonnant de voir combien, dans le domaine des publications scientifiques, comme dans celui de la presse, dans le domaine du film comme de la musique, l’abonnement permettant d’accéder à un bouquet de produits, est en train de devenir dominant.

Où est la Gauche ?

Reprenons donc. Si les analyses développées précédemment sont justes, le choix devant lequel on se trouve n’est effectivement pas entre l’ancien et le nouveau, ni entre la régulation et la dérégulation, pas vraiment non plus, finalement, entre les industries culturelles et les telcos, pas entre l’achat et la location, pas entre l’Hadopi et la contribution créative, mais bien plutôt entre deux formes de licences globales : l’une définie librement par des entreprises privées, fournisseuses d’accès et de contenus, selon le libre jeu d’un marché dont les tendances oligopolistiques sont par ailleurs avérées, et l’autre régulée et définie par la puissance publique. Alors, maintenant, où est la Gauche et où est la Droite ? Qui joue le jeu du renard dans le poulailler, et qui défend un accès public et « socialisé » à la culture, pour reprendre le termes proposé il y a longtemps maintenant par Hervé Le Crosnier dans un très beau texte que nos amis « de gauche » feraient bien de lire ? Assurément, l’innovation technologique n’impose pas mécaniquement à la société un jeu de valeurs dont elle serait porteuse. Mais elle lui impose un cadre d’action, doté de règles de fonctionnement que la réflexion politique doit prendre en compte pour procéder aux aggiornamento nécessaires : non pas au niveau des valeurs, qui restent les mêmes – liberté et solidarité, mais au niveau des modes d’actions et des modes d’organisation de la société qui doivent constamment être repensés en fonction du nouveau contexte. La contribution créative peut représenter cet aggiornamento pour la gauche. Elle s’oppose non pas tellement au vieux monde qui serait représenté par Christine Albanel, mais à ce nouveau monde que nous promet la loi Hadopi sous le terme ambigu d’« offres légales » : la prolétarisation culturelle par le streaming et la privatisation de l’accès à la culture par les abonnements que déploient les industriels ; sans contre-partie ni équilibre.

Un article également publié sur Homo-Numéricus

]]>
http://owni.fr/2009/05/24/hadopi-et-si-on-s%e2%80%99etait-trompe-de-strategie/feed/ 6