OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet et la technique : l’univers des possibles http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/ http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/#comments Thu, 14 Apr 2011 14:43:08 +0000 Félix Treguer http://owni.fr/?p=56901 … ou Internet pour les nuls (moi compris).

Après avoir présenté dans ses grandes lignes l’éthos qui anime les concepteurs d’Internet la semaine dernière, il s’agit désormais de comprendre comme cet éthos a débouché sur certaines caractéristiques essentielles. Ces caractéristiques techniques sont, comme on va le voir, au fondement de la malléabilité d’Internet et donc de la liberté de communication rendue possible par le « réseau des réseaux ».

Le premier choix technique essentiel consiste à organiser Internet sur une architecture relativement simple et obéissant selon le principe du « bout-à-bout » («end-to-end » en anglais) . Pour que les réseaux interconnectés soient compatibles (ou « interopérables »), les concepteurs d’Internet ont fait le choix d’un principe de fonctionnement relativement simple, fondé sur trois niveaux de couches jouant différents rôles dans le transport de l’information. Au niveau inférieur, on trouve tout d’abord la couche physique du réseau, qui correspond aux réseaux physiques, filaires ou hertzien, le long desquels circulent les données (des protocoles permettent par exemple l’allocation de la bande passante entre différents utilisateurs, ou encore le formatage des données). Au niveau supérieur se trouve la couche « applicative », constituée par les applications que les utilisateurs finaux du réseaux utilisent pour communiquer (email, web, messagerie instantanée, peer-to-peer, etc). Au milieu, se trouve enfin la couche des protocoles de transport, tel le protocole TCP, et le protocole IP, qui est utilisé par tous les paquets de données transitant sur Internet et permet leur adressage en vue de leur transmission depuis un émetteur vers un récepteur.

IP et transmission des paquets

Comme l’explique Walid Dabbour, chercheur à l’Institut National de Recherche en Informatique Appliquée (INRIA), celui-ci joue en fait un double rôle. Chaque machine connectée est dotée d’une adresse IP qui l’identifie et la localise au sein du réseau.

Elle prend la forme d’une série de chiffres de type 138.96.196. : il s’agit de l’équivalent dans le réseau Internet de l’adresse postale . Au contraire de la commutation par circuit qui caractérise le réseau téléphonique ou le Minitel, qui nécessitent l’établissement d’un liaison continue entre deux points du réseau cherchant à échanger de l’information et qui suppose une intelligence du réseau capable de localiser l’émetteur et le récepteur. Dans le réseau Internet, les paquets sont transmis indépendamment les uns des autres entre les différents routeurs, qui sont les équipements physiques chargés d’orienter à partir de la seule adresse de réception les paquets de données au sein du réseau. Il se peut que, pour un même fichier scindé en différents paquets de donnés, les paquets empruntent des routes différentes.

Cette architecture en couches est traditionnellement représentée sous la forme d’un sablier. Du fait du fonctionnement indépendant de ces différentes couches, n’importe qui peut ainsi développer des protocoles applicatifs sans avoir à se préoccuper de la couche physique, ni du transport des données. Si un fournisseur d’accès Internet décide de déployer de nouvelles méthodes d’allocation de la bande passante entre utilisateurs, le développeur d’un programme de messagerie instantanée n’a pas besoin de réécrire le code pour faire fonctionner son application.

Les deux couches, physiques et applicatives, fonctionnent indépendamment l’une de l’autre. Cette architecture technique permet donc un modèle de fonctionnement décentralisé, ou les différents acteurs du réseau peuvent agir en toute autonomie sans avoir à se soucier des actions des autres. Chacun peut donc participer au développement de l’architecture globale sans besoin de coordination.

Grâce à la commutation par paquet et le système d’adressage par IP, un grand nombre de configurations communicationnelles différentes peut se développer entre les différents points de ce réseaux. Du point à point, et donc une communication privée, dans le cas où seuls deux ordinateurs connectés sont en communication (similaire à une communication radio entre deux talkies-walkies ou une conversation téléphonique). Du point multipoint, dans le cas où un ordinateur diffuse des données en direction de plusieurs ordinateurs. Selon le nombre de destinataires et le caractère ou non confidentiel de la communication, on passe alors dans un schéma de « communication », c’est-à-dire de mise à disposition du public un message. Enfin, et c’est la une vraie nouveauté, Internet permet aussi des configurations multipoint-à-multipoint, ou une diversité d’émetteurs peut envoyer de l’information à une diversité de récepteurs.

C’est notamment le cas des application peer-to-peer ou des jeux en ligne multijoueurs. La commutation par paquets adressés séparément les uns des autres permet, enfin, qu’un même point du réseau établisse simultanément un nombre potentiellement infini de communications distinctes. Ainsi, on peut écouter de la musique en streaming (avant tout une réception point-à-multipoint), tout en échangeant avec un ami au travers d’un client de messagerie instantanée (communication point-à-point), et en postant une contribution à un blog collectif (émission multipoint-à-multipoint). Du point de vue des modes de communication qu’il rend possible, Internet est donc extrêmement versatile.

Jouissance et liberté des utilisateurs

L’architecture d’Internet en couche indépendante permet de faire d’Internet un réseau « malléable », fondé sur une structure « bout-à-bout ». Ce principe structurel fut pour la première fois formalisé et exposé en 1981 par Jérôme Saltzer, David P. Reed, et David D. Clark. Selon eux, la fiabilité du système impose de faire en sorte que le contrôle des protocoles ait lieu autant que faire se peut en bout de réseau. Là encore, il s’agit de laisser aux utilisateurs du réseau le contrôle de celui-ci, et de favoriser un modèle a-centré, dans lequel l’intelligence est poussée en périphérie.

Les concepteurs d’Internet ne souhaitaient pas prédire les innovations qui surviendraient que ce soit dans la couche inférieure ou dans la couche supérieure de l’architecture d’Internet. Il se sont contentés de trouver un dénominateur commun, le protocole IP, qui permet un transport fluide des données entre plusieurs réseaux. Il suffisait (et il suffit encore) à un opérateur de réseau d’être interconnecté à d’autres réseaux et d’obtenir une adresse IP pour pouvoir émettre et recevoir de l’information. Outre ce pré-requis, Internet est un réseau dit « future-proof », ne limitant pas les utilisations qui peuvent en être faites puisqu’adaptables à l’envi par ses utilisateurs. C’est pour cela que l’on trouve une grande variété de protocoles dans la couche physique et dans la couche applicative du réseau.

Selon Jonathan Zittrain cette plasticité du réseau Internet est une caractéristique essentielle qui explique sa supériorité sur d’autres réseaux de communication – fondé sur les mêmes principes technologiques mais propriétaires et contrôlés par l’opérateur du réseau – qui, dans les années 1980, proposaient eux aussi des services de ligne. L’environnement informationnel dont nous héritons aujourd’hui est fondé selon lui sur ce concept de « générativité », ou de malléabilité, qui caractérise non seulement Internet, mais également les ordinateurs que l’on y connecte. Zittrain définit la « générativité » de la manière suivante :

« La générativité est la capacité d’un système donné à produire des évolutions non anticipées au travers des contributions non-filtrées des utilisateurs »

La « générativité » repose donc sur des libres contributions des utilisateurs. L’écosystème informationnel qui résulte du couplage d’Internet et des postes informatiques eux aussi « malléables », est fondé sur la liberté dont jouissent les utilisateurs.

Cet écosystème est propice à l’innovation. La création du World Wide Web par le britannique Tim Berners-Lee, alors chercheur au CERN , est un exemple majeur de cette faculté d’Internet d’engendrer de nouvelles manières de communiquer. Avant la création de la « toile », Internet était un outil utilisé par la communauté scientifique, et les applications étaient pour l’essentiel limitées à l’envoi de courriers électroniques, au transfert de fichiers ou à la participation à des groupes de discussion et autres forums thématiques. Le protocole HTTP va révolutionner la manière dont l’information peut se partager sur Internet, grâce à l’utilisation de liens hypertexte permettant de naviguer sur Internet entre différents serveurs connectés au réseau au moyen de simples clics. Comme les membres du projet ArpaNet avant lui, Berners-Lee va rendre public ces protocoles et collaborer avec d’autres chercheurs pour les améliorer. Comme l’explique Philippe Aigrain, les conséquences sociales de cette innovation sont colossales :

La Toile, conçue sur la base d’Internet et sur les mêmes principes de protocoles pair à pair, ouverts, asynchrones et équitables, devint la mémoire et l’espace de coopération de groupes d’une échelle sans précédent. La Toile met en place un réseau gigantesque et non coordonné de contenus textuels ou graphiques (…). C’est une remarquable invention sociale, car elle permet une création distribuée, avec un très faible coût d’entrée pour devenir auteur »

Avec le Web, Internet devient un moyen de communication grand public, il se démocratise. Et puisque de nouvelles audiences se constituent dans cet espace public en gestation, les premiers acteurs commerciaux y investissent pour se rendre visibles mais aussi et surtout pour profiter de cet extraordinaire canal de distribution de biens et services, avec le développement progressif de ce qu’on appelle assez étrangement le « commerce électronique ». En retour, l’effet de réseau joue à plein et on assiste à l’arrivée de ces nouveaux adeptes d’Internet, qui sont ainsi introduits à ce nouvel univers communicationnel.

Depuis le World Wide Web, des milliers d’autres innovations ont eu lieu : l’arrivée de la vidéo, des protocoles d’échanges peer-to-peer, la téléphonie sur IP (rendue célèbre avec l’application Skype) et de bien d’autres encore, plus ou moins confidentielles, mises au point par des étudiants passionnés d’informatique, des entreprises de tailles diverses, des centres de recherche publics… Prises dans leur ensemble, elles font d’Internet un moyen de communication d’une richesse inégalée ; un réseau en constante évolution, inventant sans cesse de nouvelles formes d’ « action communicationnelle ».

La neutralité du réseau

Du fait de son rôle historique dans le développement de ce que Yochai Benkler nomme « l’économie informationnelle en réseau » , le principe « bout-à-bout » est essentiel à la liberté de communication permise par Internet et à l’innovation qui en résulte. Il garantit que l’utilisateur final préserve en bout du réseau l’autonomie nécessaire à une libre utilisation de cet outil de communication et notamment du type d’information qu’il entend y faire circuler. Ce principe va donc également de paire avec la neutralité du réseau.

Le réseau, entendu non pas comme l’ensemble des nœud mais comme l’architecture physique qui relie ces nœuds entre eux, ne remplit qu’un rôle de « simple transport ». En 2011, près de deux milliards d’êtres humains se connectent régulièrement en ligne et ont pour l’essentiel le choix des outils qu’ils utilisent pour s’y connecter.

En revanche, chacun d’entre eux reste dépendant d’un fournisseur d’accès, qui remplit le rôle du facteur en transportant les données. Historiquement, le rôle de ces opérateurs de réseaux est limité. Ils se contentent de construire l’infrastructure physique permettant de relier physiquement les « consommateurs » aux grands réseaux de télécommunications mondiaux. Ils leur fournissent une adresse IP leur permettant d’être localisable, d’émettre et recevoir de l’information, c’est-à-dire d’exister au sein d’Internet. En leur qualité de prestataire, les fournisseurs d’accès s’assurent du bon fonctionnement de l’infrastructure télécom dont ils ont la charge. Leur rôle s’arrête là. La communication entre deux points du réseau est toujours traitée de la même manière, quelque soit l’émetteur, le destinataire ou la nature des données transportées. En ce sens, Internet est un réseau neutre.

Lors des Rencontres Mondiales du Logiciel Libre de 2009, Benjamin Bayart, pionnier de l’internet en France et président du fournisseur d’accès associatif French Data Network (FDN), propose de définir quatre axiomes pour tout fournisseur d’accès à Internet : 1) transmission des données par les opérateurs sans en examiner le contenu; 2) transmission des données sans prise en compte de la source ou de la destination des données ; 3) transmission des données sans privilégier un protocole de communication ; 4) transmission des données sans en altérer le contenu.

La neutralité du Net garantit ainsi que les données transitent de manière non discriminée sur le réseau. Le mode de transport dépend des décisions et des protocoles choisis par l’utilisateur final, en bout de réseau, et le transporteur qu’est l’opérateur de réseau se contente de les relayer au sein du réseau dont il a la charge. Ce principe de fonctionnement vient, là encore, d’une volonté de décentraliser au maximum la gestion des activités communicationnelles. C’est aujourd’hui ce concept de neutralité qui cristallise les débats politiques et juridiques relatifs sur la manière dont le droit doit s’appliquer sur Internet.

Les nouvelles « affordances »

Le principe bout-à-bout, la plasticité du réseau qu’il engendre, ainsi que la neutralité de l’infrastructure de transport constituent l’identité d’Internet. Elles en font un réseau de pairs, où chaque nœud est égal à tous les autres. La structure technique d’Internet crée ce que les sociologues nord-américains nomment les « affordances ».

Ce mot anglais, repris tel quel par certains auteurs francophones, semble renvoyer à première vue à un concept sophistiqué. Il n’en est rien : il s’agit simplement des potentialités qu’offre une situation sociale particulière, un objet ou une technologie, pour faciliter certains modes d’interaction sociale ou de configurations politiques. Pour l’illustrer, Benklerdonne l’exemple de l’imprimerie, qui a eu des conséquences différentes sur les taux d’alphabétisation dans les sociétés dans lesquelles elle était introduite, en fonction de l’environnement socio-culturel de ces dernières. L’effet d’entraînement fut bien plus important dans les pays où la pratique de lecture personnelle était encouragée par le système social (religieux en l’occurrence) – tels que la Prusse, l’Écosse, l’Angleterre ou le nord-est des États-Unis – que dans les pays qui décourageaient l’interaction directe avec les textes religieux, comme en France ou en Espagne.

L’environnement socio-culturel conditionne en première instance les effets de la technique, ici l’imprimerie. En dépit de sa simplicité, ce concept d’ « affordance » est important, car il permet de s’interroger sur les enjeux socio-politiques d’une technologie donnée tout en sortant de l’impasse conceptuelle du déterminisme technologique, qui pose une relation de stricte causalité entre une technologie et un processus de changement social qu’elle est supposée provoquer. La technologie ne fait que faciliter certains processus ; elle met en capacité et c’est déjà beaucoup.


Retrouvez tous les articles sur la neutralité, ainsi que notre dossier du jour (image de Une: Elsa Secco):

- Pour un Internet “neutre et universel”
- Neutralité en Europe: laissez-faire et petits pas

> Article publié initialement sur We The Net sous le titre Les caractéristiques d’Internet et ses potentialités politiques

> Illustrations Truthout, _boris et RémiC

]]>
http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/feed/ 8
J’ai mal à ma Net neutrality http://owni.fr/2010/04/09/j%e2%80%99ai-mal-a-ma-net-neutrality/ http://owni.fr/2010/04/09/j%e2%80%99ai-mal-a-ma-net-neutrality/#comments Fri, 09 Apr 2010 13:57:22 +0000 Bluetouff http://owni.fr/?p=11928 La neutralité du Net semble attaquée de toute part en ce moment par les FAI: en France avec Orange, aux États-Unis avec Comcast… Il est pourtant primordial de défendre cette notion.

Aujourd’hui, ce n’est pas une news qui me fait réagir mais deux. La première est issue de l’excellent billet de Fabrice dont je vous recommande vivement la lecture et qui épingle Orange comme il se doit … mais Fabrice est à mon sens encore trop gentil et nous allons voir pourquoi. La seconde est une décision de justice américaine qui piquote derrière les yeux.

Allez, c’est parti, on commence svp, par visionner cette nouvelle vidéo, suite d’une longue série thématique sur la définition de chacun de la Net Neutrality lancée par l’ARCEP (que je remercie au passage très chaudement pour cette initiative qui n’a pas finit de faire pisser du pixel).

Dernier épisode en date, Stéphane Richard, directeur Général d’Orange, pour qui la Net Neutrality revêt une définition pour le moins assez singulière.

Cliquer ici pour voir la vidéo.

//

Heureusement que nous avons Orange pour nous faire un petit recadrage sémantique !

Puis c’est vrai ils sont un peu cons à l’ARCEP, ils parlent d’Internet Neutre alors que chez orange l’Internet il est « ouvert »… mais pas neutre … c’est une spécificité d’Orange, ne cherchez pas à comprendre.

Pour vous la faire courte :

  • Orange, Chine et Iran = Internet ouvert (n’importe qui peut se connecter  à un Net qui repose sur des protocoles ouverts… la classe, oui sauf que c’est tout sauf nouveau)
  • Reste du Net (sauf Chine et Iran) = Internet ouvert et neutre.

Rappelons que pour être « ouvert et neutre » (au passage si Internet était fermé on appellerait ça un Lan … AOL a essayé … AOL n’existe plus … CQFD) on ne doit pas assister à ce  mélange des genres entre FAI qui fournissent les tuyaux et producteurs de contenus… ça aussi, c’est une particularité française, merci Universal/SFR, merci Numericable, merci Orange, et dans une moindre mesure mais il a pas dit son dernier mot … merci Bouygues/TF1…

L’Internet français est ouvert, mais il est loin d’être neutre

Sur ce point, Stéphane Richard a raison, l’Internet français est ouvert, mais il est loin d’être neutre, pour la bonne et simple raison que certains FAI sont de véritables rapaces et qu’ils n’ont rien trouvé de mieux que d’imposer leurs propres contenus à leur abonnés « en exclusivité », pour se faire des pépettes.

Maintenant, si vous me demandez si je trouve ça normal … je vous répondrais que non, je trouve ça malsain et honteux, mais encore une fois, le Net français, tu l’aimes ou tu te casses ! Inutile donc de me demander pourquoi ce blog est hébergé en Suède et pourquoi je compte délocaliser à terme tous mes sites.

D’ailleurs, je m’amuse de voir que je ne suis pas le seul et que certains parti politiques en font de même ! Je vous rappellerais donc simplement une petite citation de Benjamin Bayart lors de la table ronde à la Cantine sur la Neutralité du Net :

“Quand 10% de la population a envie de prendre le maquis c’est qu’on commence à vraiment être dans la mouise”

Ce terme de neutralité, Orange ne l’aime pas, c’est d’ailleurs assez explicable, il y a certains signaux qui ne trompent pas. Vous ne voyez pas de quoi je veux parler ? Allez je vous aide …

“En 2010, pour me remercier de mes compétences en matière d’Internet  et pour avoir appliqué en bon petit soldat la volonté présidentielle de faire voter un texte inapplicable, qui n’a ni queue ni tête et que je n’ai même pas réussi à faire passer du premier coup, je me vois confier un poste de responsable des contenus chez un grand FAI français, ce, afin de porter une nouvelle fois atteinte au principe de Neutralité du Net”

Qui suis-je ? … Bingo Christine Albanel ! Orange a inventé la Net Neuneutrality® … exception culturelle quand tu nous tiens !

Comment voulez vous qu’un opérateur qui embauche une personne qui a prouvé qu’elle avait non seulement une incompétence manifeste sur ces sujets et qui en plus est à la solde des industries culturelles soit d’accord avec le principe de Net Neutrality ?

Revenons en à l’ami Stéphane Richard qui confesse volontiers ne pas être un spécialiste de l’Internet (là tout de suite comme ça, ma première réaction est de me demander ce que fout ce type à la direction générale du plus important FAI français … pas vous ?).

Notez que le monsieur sur la vidéo n’en ramène pas lourd non plus, “je ne suis pas un ancien dans les réseaux, je suis tout neuf”, comprenez “j’y capte rien moi à Internet, j’ai été embauché pour faire de la thune alors venez pas me gonfler avec votre neutralité”.

Et la thune, je la fais comme je veux, si je veux que mon FAI soit partenaire avec le Figaro, il ne m’apparait pas choquant que tous mes abonnés se voient interdire l’accès à d’autres journaux ou sources d’actualités en ligne… ou alors ils auront le droit mais ce sera payant… faire payer sur son réseau l’accès à une information gratuite sur tous les autres réseaux pour privilégier ses propres contenus, voilà une idée qu’elle est séduisante … bienvenue dans la vie.com avec Orange.

Assez trollé et si vous souhaitez lire des arguments sérieux « contre » la Net Neutrality, ce sont ceux avancés par Alexandre Archambault, responsable des affaires réglementaires chez Iliad, qui contrairement à monsieur Richard connait bien son sujet.

Et encore, après bonne lecture, vous comprendrez que la position d’Alexandre, fort juste, ne va pas tant que ça contre la « bonne intelligence » d’une Net Neutrality responsable, cohérente, où toutes les parties seraient gagnantes, vous verrez en plus que c’est quand même dit avec une autre classe et une réflexion plus poussée que ce que nous sert monsieur Richard…

Toujours suite à cet argumentaire d’Alec, je vous invite ensuite à lire la réponse de Benjamin qui vaut comme d’habitude son pesant de cacahuètes.

FCC vs Comcast

Ce qui nous mène au second point de ce billet qui est l’affaire FCC vs Comcast, un opérateur qui s’était fait taper sur les doigts car il s’adonnait à du trafic shaping un peu trop prononcé sur les réseaux P2P. Cette décision en appel n’a évidemment pas non plus échappé à Fabrice.

L’affaire remonte à 2007, la FCC (Federal Communication Commission) qui est l’équivalent de l’ARCEP aux USA avait sommé Comcast, le Orange local, de ne pas s’adonner au filtrage des contenus au nom du principe de Net Neutrality.

Elle gagna le procès contre l’opérateur en première instance marquant ainsi un point en faveur de la Net Neutrality. La cour d’appel fédérale a tranché, la FCC n’a pas le droit  d’imposer la Net Neutrality à Comcast.

La décision en appel intervient à un moment particulier, car croyez le ou non, les USA sont un véritable désert numérique… aux USA, ils n’ont pas Free, ils n’ont rien compris.

L’offre plafonne souvent à 5 mégas sur un réseau câblé vieillissant et la FCC lance un plan national en faveur du haut débit.

La FFC comptait bien faire de la Net Neutrality une composante importante de son plan et pour qui connait Internet, on se rend vite compte que non seulement c’est la bonne méthode mais qu’en plus cette Net Neutrality est nécessaire pour qu’un accès au haut débit se fasse dans les meilleures conditions pour tous (et là je pense surtout accord de peering pour les petits opérateurs locaux qui pullulent aux Etats Unis).

Cette décision est fort intéressante, car elle est à mettre en parallèle avec l’action de l’ARCEP dont on sait qu’elle n’a qu’un rôle consultatif … un peu comme une Haute Autorité sans autorité (oh c’est un peu facile … mais oui … comme HADOPI). Sauf  que contrairement à HADOPI, l’ARCEP a une utilité réelle et coûte au contribuable 10 à 50 fois moins cher. Si les avis de l’ARCEP sont consultatifs, ils n’en demeurent pas moins souvent fort respectés car guidés par la bonne intelligence, pour le bien commun et pour le bien des réseaux.

Attention, cette décision de la cour d’appel fédérale ne veut cependant pas dire que la Net Neutrality est morte aux USA, cette problématique reste au coeur des préoccupations des internautes américains comme des politiques qui se sont emparés de cette cause, flairant l’importance que ce débat revêt pour une démocratie saine.

Il faut donc s’attendre à de nouveaux rebondissements sur ce dossier très sensible.


> Article initialement publié sur le blog de Bluetouff

]]>
http://owni.fr/2010/04/09/j%e2%80%99ai-mal-a-ma-net-neutrality/feed/ 3
Frontières digitales http://owni.fr/2010/03/17/frontieres-digitales/ http://owni.fr/2010/03/17/frontieres-digitales/#comments Wed, 17 Mar 2010 12:23:58 +0000 Cyroul http://owni.fr/?p=10242 Cyril Rimbaud, aka Cyroul,  dresse dans ce billet “spécial-soucoupe” un état des lieux des frontières digitales et envisage leurs évolutions futures. Car le digital est un territoire, c’est-à-dire un espace à la géographie mouvante, basée sur des spécificités naturelles ou technologiques, des appartenances culturelles ou linguistiques…”

2174166231_dba7903594_o
Digital is not a media, it is a territoryannonçait il y a 2 ans le suédois Måns Tesch (Digital Strategy Director et initiateur de l’immense saga digitale de Stella Artois).
Effectivement, le digital* est un territoire, c’est-à-dire un espace à la géographie mouvante, basée sur des spécificités naturelles ou technologiques, des appartenances culturelles; linguistiques ou même juridiquement différentes.

Et qui dit territoire, dit frontières. Les frontières du digital existent. Ce sont des limites évidentes ou pas, qui se forment et se déforment au grès des migrations des internautes et du grand jeu géo-politico-social des grands e-conquérants d’aujourd’hui, futurs e-gouvernants de demain.
Alors l’internaute saura-t-il s’affranchir de ces frontières digitales ou deviendra-t-il captif de ces grands territoires numériques ?

Des frontières sans avenir

Les frontières les plus visibles des territoires du digital sont les frontières matérielles. Les différences sont immédiates entre un téléphone mobile, le GPS d’une voiture, une console de jeux vidéo ou une télévision HD. Des frontières évidentes donc, mais temporaires, car elles disparaissent peu à peu.

D’ici 2 ans, en effet, de manière tout à fait naturelle, vous jouerez avec votre ordinateur de voiture et vous surferez sur le web avec votre télé (téléphoner avec son ordinateur et surfer avec son téléphone mobile ne sont-ils pas déjà des usages actuels ?). Ces frontières matérielles vont donc s’effacer pour vous permettre une connexion permanente, où que vous vous trouviez. Oublions donc ces frontières obsolètes !

D’autres frontières en voie de disparition vont être les frontières des services Internet. Il y a 10 ans, il fallait en effet s’y connaitre pour savoir utiliser d’autres protocoles que les traditionnelles http et smtp (respectivement réservés au web et aux e-mails). Aujourd’hui, vous manipulez les protocoles irctelnet ou même ftp sans vous en rendre compte. Suivant la philosophie du tout-en-un instaurée par Firefox, les nouvelles générations de navigateurs vous permettent de mélanger tous les protocoles de services. Vous pouvez lire vos mails, chatter, utiliser le FTP, et tout ça avec un seul outil.

Bientôt votre OS (Operating System comme Windows ou MacOS) sera lui-même une sorte de gros navigateur web et tous vos services seront on-line. Non, ces frontières n’existeront plus (sauf pour un développeur informatique), alors n’en parlons plus.

Au delà de ces frontières très matérielles, on trouve des frontières d’expertise qui vont isoler le débrouillard (digital smart) du profane (digital less). Le digital smart, c’est celui qui agrège ses flux RSS sur Netvibes, qui utilise Delicious pour ne pas perdre ses bookmarks, qui utilise une dizaine de moteurs de recherche spécifiques, qui sait gérer sa e-reputation lui-même. Le profane c’est celui qui lance une recherche via le portail de son FAI, qui ne comprend pas pourquoi des photos de lui à poil se promènent sur la toile, qui ne sait jamais retrouver le site génial qu’il a vu il y a 2 semaines, qui passe le plus clair de son temps à remplir des formulaires d’inscription à des concours et le reste à supprimer le spam de sa boite e-mail.

Heureusement, il s’agit de frontières faciles à franchir. Un peu comme dans la vraie vie en fait. Il suffira de se renseigner, d’avoir de bons amis, et de beaucoup travailler et votre expertise grandira. Évidemment tout ça prend du temps. Et ce sera à l’internaute de voir si cet investissement personnel vaut le coup ou s’il continuera à croire ce que lui dit son pourvoyeur de média favoris. Et puis une génération chassant l’autre, l’expertise va se déplacer (votre vieille maman sait se servir d’un e-mail non ?).

De vraies frontières insoupçonnées

Mais votre môman, qui ne parle que le Français, va éviter de se promener sur des sites écrits dans une langue étrangère. Elle va se heurter aux frontières du langage, frontières que l’on retrouve dans la vie réelle, mais qui sont encore plus évidentes sur Internet. Mais plus qu’un problème de traduction, les véritables frontière entre les sites sont des frontières culturelles, reliées à des typologie d’utilisateurs utilisant constamment moult abréviations, acronymes, et autres références cryptiques qu’elle n’arrivera pas à déchiffrer.

P eu à peu se créent des vocabulaires propres à des populations précises. Le langage spécifique et l’absence de besoin de votre môman la tiendront éloignée définitivement de ces territoires qui lui seront ouverts, mais qu’elle n’explorera jamais. Alors forcément, votre mère ne sait pas lire le L337 couramment. Mais vous-même, arrivez vous à lire le langage sms d’un skyblog sur Tokyo Hotel ? Ou encore le blog d’une guilde de MMORPG ? Ou encore un forum de passionnés de Unoa ? Illisible pour vous, ces frontières vous resteront à jamais inviolables si vous n’apprenez pas ces langages (et comme vous n’y voyez aucun intérêt pratique, vous ne risquez pas d’y mettre les pieds…).

Votre voyage dans le territoire digital va forcément dépendre de vos besoins. Et les besoins des Internautes étant tous différents, ceux-ci vont dessiner les contours des territoires numériques. C’est là que se dressent les frontières des usages. Vous avez besoin d’un itinéraire précis pour votre week-end à la campagne ? Hop, faites un tour dans le territoire des mappeurs/géographeurs, vous voulez acheter un cadeau pour la fête des mères ? vous voilà dans le royaume du consommateur pressé, besoin d’une petite pause détente ? direction les collines verdoyantes des jeux en ligne, besoin de calmer votre libido ? hop direction l’océan des sites de charme, besoin de glander au bureau ? butinez dans la galaxie des blogs gossip, etc., etc.

Ces territoire sont construits par des entreprises (services web, publicités, FAI) dont l’objectif principal est de créer de l’audience récurrente, c’est-à-dire d’attirer le plus possible d’habitants sur leur territoire. Ils se livrent donc de farouches batailles à coup d’investissements massifs dans des bannières de pub, d’achat surprise de mots clés, de SEO illégal ou même de campagnes de calomn-e. Car ceux qui arrivent à attirer le plus d’audience auront les territoires les plus peuplés, et de ce fait les plus riches.

Une représentation des territoires numériques. Cliquez pour télécharger /-)

Une représentation des territoires numériques. Cliquez pour télécharger /-)


Des arguments libertaires pour mieux construire des frontières liberticides

Le plus grand argument de vente depuis l’avènement de la techno-conso est la maîtrise de la complexité (par exemple votre lecteur iphone est bourré de technologie de pointe, mais il n’a qu’un gros bouton en façade). Depuis 3 ans, la plupart des grands empires du digital (google, microsoft, yahoo, myspace, orange, …) ont donc axé leurs efforts sur la simplification des potentialités du digital.

Car vous pouvez tout faire avec le digital, oui, mais comment ? Alors, eux vont vous l’expliquer. Le premier pas pour créer des ponts entre les frontières vues auparavant a été la création de pages permettant d’accéder à l’information. Google a ainsi crée le moteur de recherche, outil le plus primitif pour trouver une information sur le web. Yahoo au départ moteur de recherche s’est, lui, recentré sur la création d’un portail suivi dans ce sens par MSN, Orange (et la plupart des fournisseurs d’accès à Internet).

Mais plutôt que de simplement guider l’internaute dans la jungle du web, ces e-empires ont décidé d’immerger l’utilisateur dans le digital, en lui faisant découvrir les outils de demain (c’est-à-dire les services web qu’il pourra facturer ou monnayer d’ici quelques temps). Ces e-conquérants ont multiplié les contenus et expériences digitales accessibles à partir de leur page d’accès. Ils ont ainsi acheté ou développé des partenariats avec des réseaux sociaux, des outils pour créer son blog, pour afficher des itinéraires, la météo, les programmes tv, pour gérer ses photos, de la musique, des vidéos, des jeux vidéos, et même des boutiques en ligne. Ils ne s’en cachent pas.

Alors sous prétexte de supprimer ces frontières, ces grands e-empires renforcent la profondeur de leurs séparations, afin de rendre l’utilisateur captif de leur territoire. L’empêcher de fuir, de quitter leur royaume. Pourquoi aller ailleurs alors qu’il y a tout ce dont il a besoin ici ? Les frontières digitales de demain se créent véritablement ici et, maintenant, dans cette grande bataille d’offre de contenus et services gratuits aux internautes perdus dans la jungle digitale.

Ségrégations digitales en vue

A quoi ressemblera le territoire du digital dans 4 ans ? Nul ne peut le dire avec précision. La pangée Internet originelle va se transformer et s’organiser au gré des batailles et des victoires de ses e-conquérants. Mais si on ne peut prédire sa géographie définitive, il est certain qu’on y trouvera au moins 3 aires définies par leurs usages et population :

1> Des lieux étanches aux frontières fortement fermées réservées à une population très identifiée (par le numéro de CB, leur identifiant numérique, ou encore pire, leur numéro de sécu) au contenu entièrement filtré et surveillé. Véritables ghettos numériques, ce seront les grands réseaux privés des entreprises, des FAI et des gros pontes du web (msn, google, yahoo, facebook, …), de producteurs exclusifs de contenus (à l’instar de la BBC) et également de certains pays (Chine).

2> Des lieux où l’on pourra trouver un contenu moyennement surveillé où se déroulera la guerre des pontes ci-dessus. Des lieux de liberté contrôlés partiellement par les états (ou les corporations qui les auront remplacés) qui feront ce qu’ils peuvent pour maintenir un semblant de contrôle dans un système qui ne s’y prête pas. Hadopi est l’exemple type de cette tentative de contrôle inutile.

3> Et de véritables zones de liberté digitales (des zones d’autonomie temporaire chères à Hakim Bey), véritables zones franches où se côtoieront les hackers fous, les cyber-punks arty, les chercheurs d’e-motions fortes, les para-religieux, les salar-e-men véreux et des harcore gamers. Où l’on pourra trouver, acheter, voler tout ce qu’on veut, mais aussi ce qu’on ne veut pas forcément. Zones sans surveillance, au langage et aux coutumes spécifiques, elles nécessiteront de s’y connaître en technologie et usages, sous peine de ne pas réussir à s’en sortir sans casse.<

Google/Yahoo/Microsoft Free Zone

Google/Yahoo/Microsoft Free Zone

Frontières digitales = frontières de liberté

Ces 3 frontières, dont les contours s’esquissent déjà aujourd’hui, sont prévisibles, et inéluctables. Elles vont entrainer une séparation entre les voyageurs digitaux “libres” (qui peuvent passer d’une frontière à l’autre) et les autres, prisonniers d’un territoire qui leur a été attribué. Les libertés individuelles ne seront pas les mêmes en fonction du territoire où vous vous trouverez.

Dans les premières zones, le moindre de vos faits et gestes (messages personnels inclus) sera observé et analysé par de grands serveurs CRM, aboutissement ultime des fantasmes des marketers publicitaires et qui proposeront une analyse comportementale personnalisée. Ainsi votre maman qui vous écrit car son chat a des problèmes de digestion, recevra dans sa boite aux lettres une réduction pour une boite de laxatif félin. Ca existe déjà. Ce qui n’existe pas encore, c’est une descente de police à votre domicile quand vous parlerez par visio-conf de votre collection de films téléchargés illégalement à vos amis de travail. Mais ça ne devrait tarder. Alors que le vrai pirate lui, fréquentant les zones de libertés digitales ne sera pas inquiété.

Les libertés individuelles du futur vont donc dépendre de votre connaissance de la technologie et des usages des territoires digitaux. Les geeks, nerds et autres explorateurs curieux auront plus de libertés que la population qui n’aura pas ces connaissances. Une des solutions évidentes pour préparer les libertés de demain est dans l’éducation.

Mais qui va éduquer ? Ceux qui ont voté pour Hadopi ? C’est pas gagné.

Heureusement pour moi, si il est trop tard pour des études d’avocat, je sais quand même crypter mon IP.

* Le terme “digital” est utilisé ici comme traduction du mot anglais digital (numérique). Numérique nous renvoyant à l’époque des autoroutes de l’informations (1995), nous lui préférons ce terme anglais, à la mode en ce moment. Les territoires digitaux regroupent le web, l’internet mobile, mais également les consoles permettant du jeux vidéos en réseaux, les objets connectés (Nabaztag, GPS, etc.)

> Illustrations par Andrea Vascellari, par niallkennedy et par ottonassar sur Flickr

]]>
http://owni.fr/2010/03/17/frontieres-digitales/feed/ 15