OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 [2/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-2/ http://owni.fr/2011/10/12/neutralite-reseau-internet-2/#comments Wed, 12 Oct 2011 17:47:11 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82962

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair. Après une première partie exposant l’analogie de “l’homme au radeau”, c’est l’heure du grand ménage : dissection, un à un, des différents arguments présentés par les “anti-neutralité”.

Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Je n’ai jamais demandé de triple-play, moi !

Un autre problème du débat sur la neutralité du réseau est la mauvaise foi généralisée, par exemple pour parler de questions techniques bien réelles.

Par exemple, le vocabulaire est systématiquement déformé. Ainsi l’utile “contrôle de congestion sert de prétexte pour favoriser son offre, en lui réservant des ressources réseaux.

De même, les services favorisés par l’opérateur sont rebaptisés “services gérés”, comme si le reste de l’Internet n’était pas géré et laissé à l’abandon ! Mais, évidemment, “service géré” sonne mieux que “service favorisé car nous rapportant plus”.

De même, les cas où des acteurs du réseau s’accusent réciproquement de “router selon le principe de la patate chaude” (comme dans l’affaire Comcast/Level3) ne doivent surtout pas être analysés techniquement : il s’agit de purs bras de fer, inspirés par une logique économique. Un des acteurs se dit qu’il a en ce moment l’avantage du rapport de force et il essaie de s’en servir pour obtenir de meilleures conditions. Pas de justice là-dedans, juste du business.

C’est la même chose avec les brusques depeerings qui défraient régulièrement la chronique. Ou quand un opérateur force le trafic d’un fournisseur à passer par des tuyaux artificiellement réduits (cas de l’affaire Megaupload/Orange).

Un des arguments favoris des FAI et opérateurs est que la télévision et la téléphonie (avec leurs exigences de qualité de service) nécessitent contrôle et filtrage (pardon, “gestion”) et ils en profitent pour étendre ce modèle à l’IP. Mais, justement, je n’ai jamais demandé de triple-play, moi.

Pourquoi diable ne puis-je pas avoir une simple connexion Internet, “faisant au mieux” ? C’est bien parce que les FAI l’ont décidé. Bref, ils ont créé eux-mêmes le problème dont ils prétendent aujourd’hui nous apporter la solution.

Asymétrie contre pair-à-pair

Il y a déséquilibre entre les gentils FAI qui assurent tous les investissements et les méchants fournisseurs de contenu comme Netflix qui injectent des giga-octets dans leurs réseaux sans avoir payé.
[ndlr : voir l'article "Netflix ne tuera pas Internet"]

C’est l’un des arguments favoris des adversaires de la neutralité et il mérite une discussion plus en détail.

En effet, s’il y a déséquilibre entre un acteur – typiquement un hébergeur de vidéos, car ce sont d’énormes quantités de données – qui envoie beaucoup d’octets et un autre acteur – typiquement un FAI qui a plein de globes oculaires passifs comme clients – qui ne fait qu’envoyer les biens plus petits d’accusé de réception, il y aura des problèmes et les solutions envisagées tourneront forcément à des idées anti-neutralité.

Un algorithme aussi inoffensif que celui de la “patate chaude”, parfait lorsque le trafic est à peu près symétrique, devient pénible pour l’une des parties dès que le trafic est très déséquilibré. Or, aujourd’hui, sur l’Internet, il y a un gros déséquilibre.

La plupart des hommes politiques, des journalistes, des gros acteurs économiques prônent un modèle TF1 : du contenu fourni par des professionnels, sur des plate-formes spécialisées, et des spectateurs crétins qui se contentent de regarder depuis chez eux. Un tel modèle mène à l’asymétrie de trafic, et aux conflits entre le FAI, comme Free, et le fournisseur de service YouTube.

Mais ce modèle n’est pas le seul et il n’est pas obligatoire ! L’Internet permet justement du trafic direct entre les utilisateurs, c’est une de ses principales différences avec les médias traditionnels. Si le pair-à-pair était plus utilisé au lieu d’être diabolisé, sur ordre de l’industrie du divertissement; avec des systèmes de sélection du pair le plus proche, le problème d’asymétrie se réduirait sérieusement et la neutralité du réseau ne s’en porterait que mieux..

La tentation du marché biface

Et sur l’argument “Google envoie des zillions de paquets sur notre réseau, ils doivent payer” ?

Un dirigeant de France Télécom, Éric Debroeck, affirme dans les Cahiers de l’ARCEP n° 3 [PDF] :

Les fournisseurs de service [comme YouTube, donc] sont à l’origine du volume de bande passante utilisée par leurs services [...].

Mais rien n’est plus faux ! Ce n’est pas YouTube qui nous envoie de force de la vidéo dans la figure. Ceux qui sont à l’origine de cette consommation de bande passante, ce sont les clients de France Télécom qui veulent voir des vidéos et qui ont la mauvaise idée de préférer YouTube au contenu très pauvre de “l’Internet par Orange”.

En gros, les FAI qui voudraient faire payer leurs clients, pour accéder à l’Internet, et les fournisseurs de contenus, pour qu’ils aient le droit d’envoyer leurs paquets sur le réseau, cherchent à créer un marché biface; un marché où l’intermédiaire est payé deux fois, ce qui est évidemment très intéressant pour lui.

Pour une régulation plus stricte

Le seul jeu du marché est clairement insuffisant pour amener à un respect de la neutralité du réseau. Il semble donc qu’il s’agisse d’un cas où une régulation plus stricte est nécessaire (de même que le secret de la correspondance privée, ou bien la non-discrimination par les transporteurs comme la Poste ou la SNCF sont déjà dans la loi).

Mais les difficultés commencent à ce point : comment traduire ces principes dans une loi, dans un texte ? Dire que “tous les paquets doivent être traités pareil” est un excellent principe mais son application se heurterait à des tas de difficultés.

Par exemple, étant donné qu’un des principes architecturaux de l’Internet est de faire la “signalisation” (en pratique, la maintenance des tables de routage) avec le même protocole, et en général dans les mêmes tuyaux que le trafic des utilisateurs, il est normal de prendre des mesures pour que certains paquets (OSPF ou IS-IS) soient favorisés. Après tout, il n’est dans l’intérêt de personne que le routage plante. Mais cet exemple illustre bien un problème courant en droit : dès qu’on essaie de traduire un grand principe en règles précises, voire algorithmiques, on rencontre tellement d’exceptions et de cas particuliers qu’il vaut mieux cesser d’avancer.

J’ai vu passer plusieurs suggestions mais aucune ne m’a semblé assez précise pour couvrir à peu près tous les cas.
Certaines peuvent même être dangereuses puisque, comme le note justement le blogueur Bluetouff, la quasi-totalité des lois concernant l’Internet en France sont des lois de contrôle, de flicage et de censure, et il ne faut donc pas forcément souhaiter une nouvelle loi.

Si le Chef du Clan du Taureau, qui a la plus grosse massue, impose une forme de neutralité au passeur, il pourra être tenté de l’assortir de règles comme fouiller les passagers – le DPI- pour vérifier qu’ils ne transportent pas de contenus illégaux.

Le problème des “DNS menteurs”

Un aspect de la neutralité du réseau qui est rarement mentionné, mais qui prend de plus en plus d’importance, est celui des DNS menteurs.

Ces résolveurs DNS des FAI qui se permettent de donner une réponse différente de la réponse originale sont clairement une violation de la neutralité des intermédiaires. C’est équivalent à un opérateur de téléphone qui redirigerait les appels pour la boutique de fleurs de Mme Durand vers celle de M. Dupont. Ou de notre passeur préhistorique qui dépose les clients à un endroit différent de celui qu’ils ont explicitement demandé.

L’AFNIC avait publié un très net avertissement sur ce point, rappelant l’importance de la neutralité.

C’est ainsi que, à l’été 2011, le FAI EarthLink redirigeait d’autorité les requêtes Google vers un serveur espion, en se servant de DNS menteurs.

De la même façon, les opérateurs d’un serveur DNS faisant autorité doivent évidemment répondre aussi vite pour tous les domaines, que ce soit monsieurmichu.fr ou tresimportantministere.gouv.fr.

Le piège des contenus “légaux”

Autre piège de langage qui se cache souvent dans les discours des anti-neutralité : affirmer que les utilisateurs ont droit à accéder à “tous les contenus légaux”.

Outre l’approche très Minitel – l’Internet ne sert pas qu’à “accéder à des contenus”-, cette formulation est dangereuse et doit être évitée. En effet, pour déterminer qu’un contenu est illégal, il vaut examiner très en détail le contenu transporté, et donc déjà violer la neutralité. (C’est bien pour cela que l’industrie du divertissement, toujours prompte à réclamer davantage de contrôle, s’oppose vigoureusement à la neutralité, qu’elle qualifie de “net impunité”.) La Poste achemine tous les colis, même illégaux et on ne voit personne proclamer qu’elle devrait ouvrir tous les paquets sous prétexte que “les usagers ont le droit d’envoyer toutes sortes de paquets, à condition qu’ils soient légaux”.

Le bridage sur mobile ? Des raisons économiques et non techniques !

Autre intrusion de la technique dans le débat : le cas des réseaux mobiles. L’argument anti-neutralité est que la capacité des réseaux sans-fil est bien plus limitée, et que cela justifie donc davantage d’attaques contre la neutralité de la part de l’opérateur. Il est vrai que les accès Internet 3G, par exemple, sont particulièrement bridés, avec beaucoup de services bloqués. Mais ce n’est pas pour des raisons techniques.

Le passeur avait sans doute raison de refuser les mammouths, qui sont objectivement trop lourds pour un simple radeau. Mais les opérateurs 3G ne suivent pas de principe technique objectif. Sur mon abonnement Bouygues, la téléphonie sur IP est interdite alors que la vidéo n’est pas mentionnée (et donc autorisée). Or, cette dernière consomme bien plus de ressources réseau. La violation de la neutralité par Bouygues n’est donc pas justifiée par des raisons techniques, mais par une logique de business : préserver la rente que représente, pour les opérateurs de télécommunication traditionnels, la voix.

Certaines personnes critiquant la neutralité du réseau ont prétendu dans le débat que l’IETF [ndlr: groupe qui participe à l'élaboration de standards d'Internet] avait donné son accord aux violations de la neutralité (ou plutôt aux “services gérés”” comme disent les lobbies aujourd’hui). L’IETF avait même dû faire un démenti. L’argument de ces personnes se basait sur des services de différenciation du trafic, comme le Diffserv.

La principale erreur de ce raisonnement est que Diffserv est un outil : si je fais cela dans mon réseau interne, pour m’assurer que mes sessions SSH< survivent à l'usage de YouTube par mes enfants, ce n’est pas un problème. Si un FAI se sert du même outil pour choisir les usages acceptables chez ses clients, il n’a pas le droit de dire que l’IETF l’y a autorisé : l’IETF a développé l’outil, celui qui s’en sert est censé être responsable de cet usage.

Quelques suggestions

Voilà, je suis loin d’avoir parlé de tout, et c’est pour cela que je vous recommande quelques lectures supplémentaires :


Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Photos et illustrations via Flickr : Armando Alves [cc-by] ; Anthony Mattox [cc-by-nc]

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-2/feed/ 5
[1/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/ http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/#comments Wed, 12 Oct 2011 11:45:53 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82942

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair ; première partie, analogie : “la neutralité de la rivière”.

La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Ah, la neutralité du réseau… Vaste sujet, où ça part vite dans tous les sens, où la bonne foi est assez rare, où définir les principes est une chose mais où les traduire en termes concrets est étonnamment difficile… Que puis-je ajouter à un sujet sur lequel tant d’électrons ont déjà été agités ? Je vais quand même essayer de trouver quelques points de ce débat qui n’ont pas été trop souvent abordés.

Désaccord politique contre divergence philosophique

D’abord, comme ce débat a une forte composante technique, mais que les décisions sont prises par des non-techniciens, il faut expliquer de quoi il s’agit.

Le problème est assez simple. Si on veut savoir ce qu’est la neutralité du réseau, le plus simple est de regarder les gens qui l’attaquent (après avoir dit, bien sûr, qu’ils étaient pour cette neutralité mais, comme dirait Éric Besson, “sans absolutisme”). Les discours comme quoi la neutralité du réseau serait un frein à la civilisation viennent de qui ?

Des partisans de l’appropriation intellectuelle qui disent que la neutralité du réseau empêche de favoriser l’offre payante, ou bien des gros opérateurs qui expliquent que, pour notre bien, il faut les laisser faire ce qu’ils veulent ou encore d’un gouvernement de droite très hostile à l’Internet en général.

C’est toutes les semaines qu’on détecte une nouvelle atteinte à la neutralité de l’Internet par un de ces opérateurs. Pendant ce temps, les utilisateurs, les particuliers, comme les entreprises défendent fermement le principe de neutralité. Il est donc clair qu’il n’y a pas de divergence philosophique éthérée; il y a désaccord politique entre deux groupes, la neutralité de l’Internet étant défendue par les utilisateurs, la non-neutralité par les intermédiaires (opérateurs).

Un radeau et du réseau: le pouvoir de l’intermédiaire

Cela ne vous convainc pas ? Alors, il est temps de recourir aux analogies. Peu de débats ont autant utilisé les analogies que celui de la neutralité de l’Internet. On a comparé l’Internet à la Poste, aux autoroutes, à la distribution de l’eau, aux chemins de fer… Aucune analogie n’est parfaite et chacune a ses limites. Il ne faut donc pas les prendre trop au sérieux. Néanmoins, ce sont des outils pédagogiques utiles.

Alors, je vais présenter mon analogie à moi, en profitant pour recommander à toutes et tous les romans de Jean Auel (pour ceux qui ne connaissent pas, cela se passe dans la préhistoire et cela se veut assez réaliste).

Autrefois, donc, il y a vingt mille ans, les Cro-Magnon du Clan du Taureau n’utilisaient pas d’intermédiaires. Chacun fabriquait ce qu’il lui fallait et transportait ce qu’il avait besoin d’envoyer ailleurs. Si on voulait transmettre un cadeau à quelqu’un vivant à quelques kilomètres, on se mettait en route en portant ledit cadeau. Cela marchait très bien mais un problème de taille se posait : une large rivière coupait le paysage en deux et empêchait quiconque (sauf une poignée de nageurs sportifs) de traverser.

Un jour, un homme construisit un radeau, au prix de pas mal d’efforts, et se mit à faire traverser la rivière aux autres, en se faisant payer pour ses services. Tout changea car, désormais, les Fils du Taureau devaient faire appel à un intermédiaire. Et celui-ci comprit vite qu’il pouvait abuser de sa position. Il prit des décisions qui ne plurent pas à tout le monde :

  • Il décida subitement d’augmenter ses prix (deux poulets pour une traversée au lieu d’un) en disant qu’il devait financer la construction d’un nouveau radeau, l’ancien étant trop abîmé suite à l’usage important qui en était fait.
  • Il voulut faire payer les habitants de la caverne située de l’autre côté de la rivière, même lorsqu’ils n’utilisaient pas son radeau, en affirmant qu’ils profitaient quand même du service lorsque leurs amis ou relations d’affaires venaient les voir.
  • Un matin, il décréta qu’il ne ferait plus passer les Néanderthal du clan de l’Ours, en affirmant qu’ils n’étaient pas réellement des hommes dignes de ce nom.
  • Il permettait aux clients de traverser avec des animaux, mais décida que cette règle ne permettait pas de faire voyager des mammouths sur son radeau. “Ils sont trop lourds, et pourraient faire couler le radeau” affirmait-il.
  • Parfois, il rejetait telle ou telle personne, sans dire pourquoi.
  • Il voulut faire payer un homme plus cher, car celui-ci portait un kilogramme de cuivre, pour aller fabriquer des haches. “Le cuivre vaut très cher, il doit donc me payer plus”, disait le passeur. “Il faut faire payer uniquement au poids, un kilogramme de cuivre ou un kilogramme de légumes représentent exactement la même charge pour le radeau”, répondait son client.

À l’époque, tout cela se serait réglé avec quelques coups de massue. Quels sont les points communs à toutes les décisions de l’homme au radeau ? C’est qu’elles posent la question de la neutralité, non pas du réseau (qui n’est qu’un objet technique) mais de l’intermédiaire. Celui-ci profite de sa position. Après les coups de massue, faut-il légiférer pour préserver la “neutralité de la Rivière” ?

L’intermédiaire ne doit pas abuser de son rôle

Relisez bien les décisions du passeur. Elles sont en fait très différentes.

Certaines sont objectives. Refuser les Néanderthal est raciste mais objectif : la règle s’applique de manière uniforme. D’autres sont subjectives: le rejet arbitraire de certaines personnes. Certaines sont raisonnables (un mammouth adulte pèse entre six et huit tonnes, certainement plus que ce que le radeau peut supporter); d’autres le sont peut-être (l’augmentation des prix) mais, sans informations plus précises, il est difficile d’être sûr.

D’autres opposent la logique technique (un kilogramme de légumes est aussi lourd qu’un kilogramme de cuivre) à la logique du business (faire payer chaque client au maximum). Certes, cet exemple se situe dans un lointain passé. Mais les questions sont quasiment les mêmes aujourd’hui. La neutralité de l’Internet, c’est d’abord l’idée que l’intermédiaire ne doit pas abuser de son rôle.

Maintenant, comment cela s’applique t-il aux réseaux informatiques ?

Je ne vais pas faire le tour de toutes les questions sur la neutralité, plutôt discuter de certains arguments, techniques, politiques ou financiers. Comme le débat est complexe (il y a beaucoup de questions différentes, par exemple financement des infrastructures, flicage des contenus et des conversations, déploiement de la QoS [ndlr: notamment en France], lutte contre les clients qui abusent, etc.), rempli de mauvaise foi et de sous-entendus (par exemple les requins de l’appropriation intellectuelle attendant que les Fournisseurs d’Accès à Internet (FAI) déploient du DPI dans leurs réseaux pour leur demander par la suite de filtrer les violations du copyright); que tout le monde parle très fort, que presque tout a déjà été dit; je vais essayer d’être sélectif dans les points abordés.

L’opacité des infrastructures

D’abord, un point souvent oublié : l’importance de l’information. Lorsque le passeur ci-dessus, ou bien le PDG d’Orange aujourd’hui, expliquent qu’ils doivent faire payer plus pour supporter des investissements importants et nécessaires, on veut bien les croire sur parole mais, quand même, ne serait-ce pas mieux de vérifier ?

Cet argument financier est souvent brandi par les adversaires de la neutralité du réseau sans l’appuyer d’aucune donnée. Et pour cause, toutes les informations sur lesquelles s’appuie cet argument sont secrètes. Comme le note le rapport Erhel/de la Raudière, cité plus loin:

les marchés liés au réseau Internet restent opaques.

Alors, sérieusement, veut-on vraiment que le citoyen et le client acceptent les yeux fermés des arguments invérifiables ? Si les opérateurs croulaient tellement sous l’ampleur des investissements à faire, ne devraient-ils pas faire preuve de plus de transparence et publier tous leurs chiffres, qu’on puisse vérifier ? Le client et le citoyen devraient répondre: “OK, parfait, publiez tous vos comptes, une carte détaillés de vos infrastructures, vos informations de facturation, etc., et on en reparlera”. Le secteur manque cruellement de données fiables sur ce sujet. Il y aurait de très intéressantes études à mener si ces données étaient publiées.

Des offres Internet cryptiques

Liée à cette question, celle de l’information du consommateur. Une des demandes les plus fréquentes des adversaires de la neutralité du réseau est la possibilité d’avoir une offre à plusieurs vitesses, par exemple une offre de base bon marché et une offre Premium ou Platinum, plus coûteuse, mais de meilleure qualité. Bref, les riches auraient un meilleur Internet que les pauvres, comme la première classe est meilleure que la classe économique. Cela peut se discuter. [ndlr: voir l'exemple anglais sur Owni]

Mais une des raisons pour lesquelles cette demande n’a pas ma sympathie est que, si le voyageur aérien voit à peu près les avantages et les inconvénients de chaque classe, il n’en est pas de même pour les offres Internet. Regardez par exemple les offres en téléphonie mobile aujourd’hui et essayez, au delà du baratin marketing, de les classer, ou d’expliquer leurs différences. On constate aujourd’hui que très peu de FAI informent correctement leurs clients sur l’offre qu’ils leurs vendent. Essayez par exemple de savoir, avant de souscrire une offre 3G:

  • si vous aurez une vraie adresse IP publique ou bien une adresse privée
  • quels ports seront filtrés. Port 25 ? Port 53 ?

C’est un des points où mon analogie cro-magnonesque était faible : l’offre du passeur était évidente, transparente. Celle d’un accès à l’Internet est bien plus complexe.

Cette information sincère et complète des clients est donc un préalable absolu à toute acceptation de la logique d’un “Internet à plusieurs vitesses”. Le fait qu’aucun FAI ne documente son offre (selon le standard du RFC 4084) indique assez le souci qu’ils ont de ne pas tout dévoiler au client.

Or, même si on admet le discours (porté par exemple par l’ARCEP) comme quoi il est légitime d’avoir des offres différenciées (à des prix variables), alors, il faut être cohérent et que le client soit informé de ces filtrages, shapings“, etc. Or, aujourd’hui, toutes les violations de la neutralité par les FAI ont été faites en douce, voire en niant qu’elles avaient lieu. C’est par exemple le cas de Comcast avec le blocage de BitTorrent. Essayez de découvrir en lisant les Conditions Générales d’Utilisation de SFR ou d’Orange qu’est-ce qui est bridé ou interdit !

Le rapport Erhel/de la Raudière dit gentiment:

La transparence, qui apparaît relativement consensuelle, est laissée de côté dans la présentation du débat (tous les acteurs souhaitant que le consommateur puisse savoir quels sont les mécanismes de gestion de trafic mis en œuvre par les opérateurs et ce qu’il implique au niveau des fonctionnalités offertes).

Mais c’est de la pure politesse.

Oui, tout le monde dit qu’il est pour la transparence, mais cela ne se traduit pas dans les faits. Il faudrait donc édicter des règles, par exemple réserver le terme Internet pour le service neutre. C’est la proposition n° 5 du rapport Erhel/de la Raudière, équivalente au principe des AOC.


La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Illustrations CC FlickR mediafury (CC-by), colodio (cc-by-nc-sa), so amplified (cc by-nc-sa)

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/feed/ 5
Michel Riguidel, “Bogdanoff” des réseaux http://owni.fr/2011/03/29/michel-riguidel-bogdanoff-des-reseaux/ http://owni.fr/2011/03/29/michel-riguidel-bogdanoff-des-reseaux/#comments Tue, 29 Mar 2011 13:34:56 +0000 Stéphane Bortzmeyer http://owni.fr/?p=53885 Je m’étais dit que je n’allais pas me livrer aux attaques personnelles contre Michel Riguidel, malgré les innombrables inepties dont il inonde régulièrement les médias à propos de l’Internet. Néanmoins, comme il continue, et semble disposer de bons relais médiatiques (il vient d’obtenir un article dans Le Monde et, apparemment, un certain nombre de personnes croient qu’il est expert en réseaux informatiques), j’ai décidé qu’il était temps de dire clairement que Riguidel est à l’Internet ce que les frères Bogdanoff sont à l’astrophysique.

Extraits de l'article de Michel Riguidel sur lemonde.fr

“Gloubli-boulga pseudo-philosophique”

Il y a longtemps que Michel Riguidel est… disons, “dans une autre sphère”. Rappelons-nous son immortel appel à la lutte contre les “photons malveillants” dans le journal du CNRS, sa mobilisation contre les “calculs illicites” et son show au forum Atena.

Sur les questions scientifico-techniques, les médias de référence ne remettent jamais en cause leur carnet d’adresses: il suffit d’avoir travaillé sur un domaine il y a de nombreuses années, et on est un expert à vie, même dans les domaines assez éloignés (cf. Claude Allègre parlant du réchauffement climatique); le tout pouvant être aidé par des titres ronflants comme “professeur émérite” (titre purement honorifique qui ne signifie rien et semble s’obtenir assez facilement). Riguidel a donc obtenu pas mal de place dans Le Monde, pour nous expliquer que les Mayas avaient mal déterminé la fin du monde, celle-ci surviendra, non pas en 2012 mais en 2015, suite à une “imprégnation de la réalité physique et humaine par l’informatique” (la fusion des robots et des humains, si j’ai bien compris son gloubli-boulga pseudo-philosophique).

Certaines personnes de bonne foi m’ont demandé si je pouvais répondre techniquement et concrètement à ses articles. Mais non, je ne peux pas ! On peut argumenter contre un point de vue opposé; on ne peut pas répondre à des textes qui ne sont “même pas faux”, dont il n’est tout simplement pas possible de voir quels sont les éléments concrets, susceptibles d’analyse scientifique.

Prenons l’exemple de son long texte contre la neutralité du réseau. (Malheureusement, il ne semble plus en ligne. Florian Lherbette a fouillé et a trouvé une copie dans le cache de Yahoo que je mets en ligne sans autorisation et sans authentification. Je demande donc à mes lecteurs de me faire confiance pour les citations ci-dessous. Remarquez, en les lisant, on comprend que Riguidel n’ait pas republié ce texte ailleurs.) On ne peut pas le corriger techniquement, il ne contient que des envolées et du charabia (qui peut passer pour de la technique auprès d’un journaliste de Sciences et Vie). Tout son article mérite un prix global, ainsi que des prix spécialisés.

- Prix des faits massacrés :

Internet a été inventé par quelques fondateurs, et rien n’a réellement changé techniquement depuis 1973.

En 1973, IPv4, TCP, le DNS et BGP n’existaient pas… (Et ils n’avaient aucun équivalent, la couche 3 et 4 n’étaient pas encore séparées, par exemple.)

- Prix de la frime :

En effet, sur un clavier, il est impossible d’obtenir des octaves, des tierces, des quintes pures dans chacune des tonalités et le demi-ton dièse et bémol ne produit qu’un son unique, contrairement aux instruments comme le violon où il est possible de diviser un ton en 9 commas et de distinguer un sol dièse d’un la bémol.

- Prix de la langue française : “Akamai“, que Riguidel écrit “Akamaï”.

- Prix d’Économie, option Capitalisme :

Mieux vaut faire du MPLS de transaction financière entre Boston et Los Angeles que de faire de la Voix sur IP entre Paris et Dakar !

- Prix du gloubi-boulga technologique :

Les success stories (comme Skype) récentes sont souvent des applications qui utilisent une liaison étroite entre l’application et le réseau, avec des protocoles (STUN : RFC 3489 de l’IETF [...]), ouverts mais agressifs dans le but de transpercer les architectures sécurisées.

Alors que Skype, service ultra-fermé, n’utilise pas le protocole standard STUN (qui est d’ailleurs dans le RFC 5389).

- Prix Robert Langdon :

Pour injecter de la sémantique dans les “tuyaux” et sur les flux d’information des réseaux filaires (IP, MPLS) et des réseaux sans fil de diverses technologies (environnement radio 3G, Wi-Fi, WiMAX), on exhibe le volet cognitif par une infrastructure de phares et de balises. On colle un système d’étiquettes sur les appareils de communication (point d’accès Wi-Fi, antennes WiMAX, boîtier ADSL , routeurs IP) et sur les trames Ethernet des flux d’information. Ces étiquettes constituent, par combinaison de symboles, un langage.

- Prix de l’envolée :

C’est cette “épaisseur des signes” de la boîte grise de la communication qui permettrait d’éclairer une nouvelle perspective de la neutralité informatique, en accord avec la science, la technologie et l’économie.

Riguidel ? “Pas un expert mais un souffleur de vent”

J’arrête là. L’article récent du Monde est de la même eau. Mais Riguidel n’est pas qu’un pittoresque illuminé. C’est aussi quelqu’un qui est cité comme expert dans des débats politiques, comme la neutralité du réseau, citée plus haut, ou aurpès de l’HADOPI, dont il est le collaborateur technique (tout en détenant des brevets sur les techniques que promeut la Haute Autorité. Celle-ci, dont l’éthique est limitée, n’y voit pas de conflit d’intérêts).

Si Michel Riguidel n’était qu’un amuseur public, plutôt inoffensif, je ne ferais pas un article sur lui. Mais c’est aussi un promoteur de la répression (“Il est urgent d’inventer des instruments de sécurité, opérés par des instances légales”, dans l’article du Monde, glaçant rappel de la LOPPSI; ou bien “ceux qui n’ont rien à se reprocher n’ont rien à craindre” dans l’article du journal du CNRS), un adversaire de la neutralité du réseau et un zélateur de l’organisation de défense de l’industrie du divertissement.

Pourquoi est-ce que des organisations, certes répressives et vouées à défendre les revenus de Johnny Hallyday et Justin Bieber, mais pas complètement idiotes, comme l’HADOPI, louent-elles les services de Riguidel ? Parce qu’elles sont bêtes et n’ont pas compris qu’il était un imposteur ? Certains geeks voudraient croire cela et pensent que l’HADOPI est tellement crétine qu’elle n’est pas réellement dangereuse. Mais ce serait une illusion. L’HADOPI sait parfaitement que Riguidel n’est pas sérieux. Mais son usage par cette organisation est un message fort : HADOPI a choisi Riguidel pour bien affirmer qu’elle se fiche de la technique, il s’agit juste de prouver qui est le plus fort, au point de n’avoir même pas besoin de faire semblant de s’y connaître. Avoir un imposteur comme consultant technique est une façon de dire clairement aux geeks : “on se fiche pas mal de vos critiques techniques, nous, on a le pouvoir”.

Et pourquoi des journaux “sérieux” comme Le Monde lui laissent-ils tant d’espace ? En partie parce que personne n’ose dire franchement que Riguidel n’est pas un expert mais un souffleur de vent. Et en partie parce qu’il faut bien remplir le journal, que le contenu de qualité est rare, et qu’un histrion toujours volontaire pour pondre de la copie est la providence des journalistes paresseux. (Heureusement, les commentaires des lecteurs, après l’article, sont presque tous de qualité et, correspondent eux à la réputation du journal.)

Sur le thème de l’article du Monde (la catastrophe planétaire par extinction d’Internet), on peut lire des articles plus informés comme le mien ou comme le dossier de l’AFNIC sur la résilience. Sur l’article du Monde, voir aussi l’analyse de PCINpact et celle de Numerama.


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Michel Riguidel est un imposteur”.

Illustrations CC Flickr: Jeremiah Ro, dlofink, dsasso

]]>
http://owni.fr/2011/03/29/michel-riguidel-bogdanoff-des-reseaux/feed/ 8
Peut-on éteindre l’Internet? http://owni.fr/2011/01/25/peut-on-eteindre-l-internet/ http://owni.fr/2011/01/25/peut-on-eteindre-l-internet/#comments Tue, 25 Jan 2011 07:30:35 +0000 Stéphane Bortzmeyer http://owni.fr/?p=43615 Ce jeudi 27 janvier, l’Epitech organise une intéressante conférence sur le thème « Peut-on éteindre l’Internet ? ». Je ne pourrais malheureusement pas y aller alors je livre mes réflexions ici.

Le sujet fait évidemment allusion à un certain nombre de cas connus : projet étasunien de doter le Président d’un gros bouton rouge pour éteindre l’Internet, pannes spectaculaires comme celle due à l’attribut 99 de BGP ou celle du DNS chinois, « attaques accidentelles » comme celle de Pakistan Telecom contre YouTube ou celle de China Telecom, mesures liberticides prises par des États qui trouvent l’Internet trop libre (filtrage systématique, allant jusqu’au détournement du DNS en Chine, loi LOPPSI en France, etc), tentatives (assez ridicules, surtout en France) de faire taire WikiLeaks. Tous ces faits mènent à se poser des questions : si un excité du menton veut censurer Internet, est-ce possible ? Une attaque par les chinois rouges et communistes peut-elle nous priver de services indispensables à la vie humaine, comme Facebook ? La prochaine bogue dans IOS ou Windows va t-elle stopper tout l’Internet ?

Il n’a pas manqué d’articles sensationnalistes sur ce thème. Selon eux, l’Internet serait tellement fragile que deux ou trois lycéens dans leur garage, a fortiori une organisation comme Al-Quaida, pourrait tout casser. Par exemple, lors de la bavure de China Telecom en avril 2010, on a vu apparaitre une quantité d’articles ridicules sur la soi-disant vulnérabilité de l’Internet (par exemple sur Fox News ou Computer World). Ces articles sensationnalistes ont évidemment eu plus de succès que la froide technique.

À l’opposé de ce discours apocalyptique « on va tous mourir », on voit des neuneus se présentant comme hackers qui prétendent que l’Internet est invulnérable, que les puissants de ce monde n’arriveront jamais à le censurer, et qu’on ne peut pas arrêter le libre flot de l’information.

Qu’en est-il vraiment ? Peut-on éteindre l’Internet ou pas ? Est-il très robuste ou très fragile ? Ces questions n’ont pas de réponse simple. Si on me presse pour fournir une réponse binaire, je dirais « On ne peut pas éteindre complètement l’Internet. Besson et Mitterrand rêvent, ils n’ont pas ce pouvoir. Et l’Internet, très résilient, résistera toujours aux pannes comme celle de l’attribut 99. ». Mais la vraie réponse mériterait d’être bien plus nuancée.

Car tout dépend de l’objectif qu’on se fixe en disant « éteindre l’Internet ». Il est très difficile de couper l’Internet pendant une longue période. Mais des attaques réussies l’ont déjà sérieusement perturbé pendant plusieurs minutes, avant que les protocoles et les humains ne réagissent. L’Internet n’est pas invulnérable. Une des meilleures raisons pour lesquelles la question « Peut-on éteindre l’Internet ? » n’a pas de réponse simple est qu’il est très facile de perturber l’Internet (BGP, par exemple, n’offre pratiquement pas de sécurité et il n’en aura pas de si tôt), mais très difficile de faire une perturbation qui dure plus de quelques heures (dans tous les cas existants, la réaction a pris bien moins de temps que cela).

De même, il est très facile de planter un service donné. Même pas besoin de pirates chinois pour cela. Une erreur de configuration, et un service fondamentalement stratégique est inaccessible. Pour beaucoup de simples utilisateurs, de ceux qui ne travaillent pas quotidiennement sur l’Internet, « Facebook est en panne » n’est pas très différent de « l’Internet est en panne ». Mais, pourtant, pendant de telles pannes, tout le reste de l’Internet fonctionne (et même mieux, les tuyaux étant moins encombrés). Si on peut comprendre que Jean-Kevin Michu ressente douloureusement l’arrêt de son service favori, les analystes qui prétendent produire un discours sérieux sur l’Internet devraient un peu raison garder et ne pas parler de « vulnérabilité de l’Internet » à chaque fois que Twitter a une panne.

Sur Internet, la censure locale est facile, la censure totale l’est beaucoup moins

Il est aussi très facile de rendre l’utilisation de l’Internet plus difficile. Tous les censeurs du monde ont appris que couper complètement l’accès était irréaliste. En revanche, le rendre difficile, imposer aux utilisateurs l’emploi de mesures de contournement complexes, est possible. Cela ne découragera pas l’informaticien déterminé et compétent, mais cela peut gêner tellement l’utilisateur ordinaire qu’il renoncera à certains usages. C’est le pari d’organisations répressives comme l’Hadopi, qui sait très bien que les geeks continueront à télécharger quoi qu’il arrive, mais qui compte sur le fait que 95 % de la population ne les suivra pas. Et cela marche dans certains cas. Les censeurs ne sont hélas pas sans dents.

Enfin, on peut aussi noter qu’il est très facile d’éteindre l’Internet en un lieu donné. Chez moi, je peux couper l’accès à ma famille facilement. Dans un pays donné, on peut empêcher l’accès Internet. Cela se fait en Birmanie ou en Corée du Nord. En Tunisie, la mise en place du système de censure connu sous le nom d’« Ammar404 » avait été précédé d’une coupure complète de l’Internet pendant six mois, bloquant tous les usages légitimes. Il a fallu une révolution pour mettre fin au système de filtrage installé à cette occasion. C’est une coupure complète dans le monde entier qui est très difficile mais un dictateur local a toujours des possibilités.

Arrivé à ce point, certains lecteurs trouvent peut-être que je suis trop prudent et qu’il devrait être quand même possible de répondre en deux mots à une question aussi simple que « peut-on éteindre l’Internet ? ». Mais, si la question est compliquée, c’est parce que l’Internet n’est pas un objet unique et localisé dans l’espace, qu’on peut détruire facilement. C’est plutôt une espèce vivante. Chaque individu est très vulnérable, on peut le tuer et, si on est suffisamment dénué de scrupules, on peut même en tuer beaucoup. Mais éradiquer l’espèce entière est plus difficile. La résistance de l’Internet aux pannes et aux attaques n’est pas celle d’un blockhaus passif, qu’on peut toujours faire sauter, avec suffisamment d’explosifs. C’est la résistance d’une espèce vivante, et intelligente (les professionnels qui font fonctionner l’Internet réagissent, corrigent, modifient, et rendent la tâche difficile pour les censeurs et les agresseurs, comme l’a montré la mobilisation autour de WikiLeaks). L’Internet peut être blessé mais le tuer nécessitera beaucoup d’efforts.

Renforçons l’Internet

Une autre raison pour laquelle je ne donne pas de réponse ferme est que je ne suis pas trop intéressé par les débats pour observateurs passifs, regardant l’incendie en se demandant gravement s’il va être éteint ou pas. Je préfère travailler à améliorer la situation. Peut-on améliorer la résilience de l’Internet, sa résistance aux censeurs, aux pannes, et aux attaques diverses ? Et là, la réponse est claire : oui, on peut. On peut analyser les vulnérabilités, travailler à repérer les SPOF et à les supprimer, chercher les dépendances cachées qui risqueraient de faire s’écrouler un domino après l’autre, etc. Là, un travail est possible et nécessaire. Pendant que la loi LOPPSI impose un filtrage de l’Internet et donc diminue sa résistance aux pannes (le système de filtrage ralentit, perturbe et, d’une manière générale, ajoute un élément supplémentaire qui peut marcher de travers), d’autres efforts essaient de rendre l’Internet plus fiable. Par exemple, trop de liaisons physiques sont encore peu redondantes et une seule pelleteuse peut couper plusieurs câbles d’un coup.

Plus sérieux, trop de choses dans l’Internet dépendent d’un petit nombre de logiciels, ce qui fait qu’une bogue a des conséquences étendues. Trop de routeurs utilisent IOS et une seule bogue plante des routeurs sur toute la planète. Comme dans un écosystème où il n’y a pas de variété génétique, un germe peut faire des ravages. Autre exemple, le système ultra-fermé de Skype n’a qu’un seul logiciel, le leur, et une seule bogue peut l’arrêter complètement. Ce point illustre d’ailleurs l’illusion qu’il y aurait à essayer de rendre l’Internet plus robuste par des moyens matériels, comme plus de machines, ou logiciels, comme de passer le DNS en pair-à-pair. L’exemple de Skype, qui repose largement sur des techniques pair-à-pair, montre que ces techniques ne protègent en rien si une erreur dans le logiciel plante tous les pairs en même temps.

Il n’y a pas de solution magique au problème de la résilience de l’Internet. Mais il faut accroître sa diversité, qui permettra de faire face aux menaces du futur.

>> Article initialement publié sur le blog de Stéphane Bortzmeyer

>> Illustration FlickR CC : iNkMan_, nrkbeta

]]>
http://owni.fr/2011/01/25/peut-on-eteindre-l-internet/feed/ 39
Comcast, Level 3 et la cuisson des pommes de terre http://owni.fr/2011/01/01/comcast-level-3-et-la-cuisson-des-pommes-de-terre/ http://owni.fr/2011/01/01/comcast-level-3-et-la-cuisson-des-pommes-de-terre/#comments Sat, 01 Jan 2011 11:00:20 +0000 Stéphane Bortzmeyer http://owni.fr/?p=40745 Alors que la FCC vient de se décider à trancher -mollement- dans le débat sur la neutralité des réseaux, Stéphane Bortzmeyer revient sur une obscure affaire opposant deux opérateurs américains, Comcast et Level 3. Le premier, aux fonctions classiques de fournisseur d’accès à Internet, s’est notamment fait remarquer sur nos terres en bloquant certains échanges peer-to-peer, ce qui lui a valu les remontrances de la FCC, dont la légitimité s’est vue par la suite niée par la Cour Suprême. Plus anonyme, le second endosse les fonctions d’hébergeur CDN, en favorisant la diffusion du contenu de certains sites. Et en particulier Netflix, dont la propension à siphonner de la bande passante a poussé les sites spécialisés américains à s’interroger: le site de streaming video annonce-t-il la fin d’Internet ? Cette gourmandise est précisément au cœur du conflit opposant Comcast et Level 3, le second reprochant au premier de lui imposer une charge excessive pour que les films de Netflix transitent par son infrastructure.
Stéphane Bortzmeyer précise les termes de cette guerre de tuyaux, rappelant ainsi la complexité inhérente à la question de neutralité des réseaux, qui dépasse largement le binôme internautes/FAI.

Il y a déjà eu beaucoup d’articles, surtout aux États-Unis, à propos du conflit qui oppose deux opérateurs Internet, Comcast et Level 3 (j’ai mis quelques références à la fin). Je n’ai pas de sources privilégiées, je ne suis pas un « blogueur influent » donc je ne vais pas pouvoir vous faire de révélations sensationnelles mais il y a quand même, deux ou trois points que je voudrais traiter. Donc, Comcast réclame à Level 3 des sous et Level 3 porte l’affaire devant le régulateur. Pourquoi ?

Une bonne partie des articles sur le sujet ont cherché, dans un style très hollywoodien, qui était le Bon et qui était le Méchant dans le conflit (en général, Comcast était le Méchant, rôle qu’ils tiennent à la perfection). Mais, évidemment, il n’y a pas de morale ici, juste du business entre deux requins: celui qui était le plus fort encore récemment et celui qui a grossi et exerce ses muscles.

Patate chaude et paquets d’IP

Pour se faire une idée du problème, faisons un petit détour par la technique. D’abord, comme Comcast a accusé Level 3 de « router selon la méthode de la patate chaude », revenons sur cette technique.

Soit deux opérateurs situés aux États-Unis. C’est un grand pays. Si un paquet IP part de la côte Ouest pour aller sur la côte Est, il a beaucoup de chemin à faire. Si le paquet part d’un opérateur pour aller vers un autre, qui va utiliser ses précieuses ressources pour lui faire traverser le continent ? Contrairement à ce que Comcast laisse entendre, la méthode la plus répandue a toujours été la patate chaude : l’émetteur essaie de faire sortir le paquet de son réseau le plus vite possible, avant qu’il ne lui brûle les mains. C’est donc le destinataire qui va se taper l’acheminenent. C’est injuste ? Pas si on tient compte du fait qu’une communication met en jeu des paquets dans les deux directions. Au retour, ce sera l’inverse. Si le trafic est à peu près symétrique (en nombre de paquets et en nombre d’octets) qu’on route avec la patate chaude ou avec la patate froide n’a aucune importance, du moment que les deux opérateurs font pareil.

Cette symétrie était celle pour laquelle était prévu l’Internet : chacun pouvant être à la fois consommateur et producteur, l’idée était que le trafic serait à peu près égalitaire, faisant du choix de la température des pommes de terre un choix purement arbitraire et sans conséquences pratiques.

Seulement voilà, dans la réalité, les grosses entreprises n’ont pas fait ce choix. Comcast contrôle un marché de consommateurs purs (eyeballs en anglais, ou « temps de cerveau disponible » en français) et Level 3 fait surtout de l’hébergement. Le trafic est donc très asymétrique. Comme on le voit sur le dessin plus haut, si Level 3 héberge un gros fournisseur de vidéo (Netflix, dont l’arrivée chez Level 3 a déclenché la crise), et qu’on utilise la patate chaude, la grande majorité des octets va passer sur le réseau de Comcast, posant donc la question de base « qui va payer ? ».

Un trafic asymétrique, des usages déséquilibrés

Il y a des solutions à ce problème.

Avant des les regarder, une note importante : comme tout ceci n’est qu’une histoire de gros sous, rien n’est documenté publiquement. Le citoyen de base, et même le sénateur qui se demande s’il doit voter la neutralité du réseau ou pas, n’ont pas toute l’information qui permettrait de décider. La mode étant aux fuites, on a même vu des graphes de trafic prouvant que Comcast étranglait délibérement le trafic entrant (pour réclamer ensuite des paiements aux fournisseurs de contenu), envoyés anonymement… (Évidemment aucune garantie quant à leur véracité.) Si Comcast et Level 3 se préoccupaient réellement de la vérité, ils commenceraient par publier des informations précises. (Dans ce genre d’affaires, chacun des requins prend à témoin l’opinion publique, sans jamais lui donner les moyens de s’informer et donc de décider.)

Revenons à la technique. Il faut noter que Comcast n’est pas un pair de Level 3 mais un client de son offre de transit. Ce conflit n’est donc pas l’équivalent des classiques crises entre pairs, dont le FAI Cogent s’est fait une spécialité. Dans la plupart des contrats de transit, le client a des tas de moyens pour influencer le routage chez son fournisseur (comme les MED). Pourquoi Comcast ne les utilise-t-il pas ?

Comcast cherche-t-il vraiment une solution?

Le plus probable est que Comcast ne veut pas d’une solution, il veut faire plier Level 3, en profitant de ce que Comcast a une clientèle captive (dans la plupart des villes petites et moyennes, Comcast a un monopole).

Deuxième raison, pas incompatible avec la première, Netflix est un concurrent de l’offre TV de Comcast -historiquement, une entreprise de télé par câble. Il y a donc un cas classique de violation de la neutralité du réseau par Comcast, discriminer entre son service et celui des concurrents, quand on cumule plusieurs casquettes (FAI et fournisseur de services).

La meilleure solution serait d’arrêter l’énorme dissymétrie qui existe aujourd’hui entre les opérateurs, selon qu’ils font du contenu ou du temps de cerveau. Il est curieux que Comcast reproche à Level 3 de lui envoyer bien plus d’octets que son client ne lui en transmet, alors que Comcast fait exactement cela à ses propres clients, en leur vendant une offre Internet asymétrique, à bien plus grande capacité dans le sens de la consommation que dans celui de la production. Mais ce n’est pas plus incroyable que Level 3 qui demande l’intervention de la FCC alors que, quand le rapport de force lui était plus favorable, ses dirigeants bêlaient systématiquement le discours individualiste du « moins d’État, moins de régulation ».

Cette dissymétrie du trafic et des usages fausse tous les débats sur la neutralité du réseau, en créant une source de mécontentement. C’est ce que réclame régulièrement FDN, par exemple. Le développement d’usages plus équilibrés, par exemple avec le pair-à-pair annulerait une bonne partie des discussions récurrentes.

Quelques articles sur le sujet, avec mes commentaires :

  • Le point de vue officiel de Comcast et celui de Level 3,
  • Une petite partie de la très longue discussion sur la liste NANOG à ce sujet,
  • Un amusant dessin animé où le client de Comcast est représenté sous forme d’un ours en peluche buté qui ne sait que répéter « No, this is not fair » alors qu’il demande la même chose que ce que Comcast demande à Level 3,
  • Un bon article de TelecomTV qui met les choses en perspective, et qui explique bien l’affaire des pommes de terre chaudes ou froides,
  • Un article en français (contrairement à la plupart des autres cités ici), qui prône plutôt une augmentation des coûts d’abonnement, qui financerait les FAI tout en préservant la neutralité du réseau,
  • Une excellente analyse de Adam Rothschild, avec de très utiles dessins, et surtout une discussion du problème des liens externes de Comcast, notamment celui avec Tata, qui sont utilisés au maximum de leurs capacités (le problème des graphes fuités mentionnés plus haut),
  • La plupart des articles (y compris le mien) pointait plutôt du doigt la mauvaise foi de Comcast. Il y a aussi un tout petit nombre d’articles de l’autre bord. Celui de Daniel Golding que je cite est assez radical, comme lorsqu’il prône une nette séparation entre fournisseur de transit et hébergeur (Level 3 étant à la fois Tier-1 et hébergeur de Netflix). Mais cet article contient également des énormités comme lorsqu’il reprend la légende (popularisée en France par Free ou France Télécom) comme quoi l’opérateur du fournisseur de contenu serait payé deux fois, par son client d’hébergement (Netflix) et par son client de transit (Comcast). Pour voir pourquoi cette idée est absurde, il suffit d’imaginer deux clients de Free qui s’envoient des octets. Chacun a dû payer sa connexion. Dit-on pour autant que Free a été payé deux fois et devrait rembourser un des clients ? Incroyable, mais c’est pourtant le discours d’articles comme celui-ci.

Article initialement publié sur Bortzmeyer.org
Illustrations CC Flickr: eirikso, Tom Purves

]]>
http://owni.fr/2011/01/01/comcast-level-3-et-la-cuisson-des-pommes-de-terre/feed/ 5
Quand la crédulité des économistes fait des bulles http://owni.fr/2010/11/24/quand-la-credulite-des-economistes-fait-des-bulles/ http://owni.fr/2010/11/24/quand-la-credulite-des-economistes-fait-des-bulles/#comments Wed, 24 Nov 2010 12:43:13 +0000 Stéphane Bortzmeyer http://owni.fr/?p=36829 Vous vous souvenez de la grande bulle de l’Internet en 1999-2001, lorsque des prédictions délirantes amenaient des milliers d’investisseurs à injecter plein d’argent dans le réseau que tous les costards-cravate sérieux méprisaient seulement quelques années auparavant ? Dans un article très détaillé et très érudit, « Bubbles, gullibility, and other challenges for economics, psychology, sociology, and information sciences », Andrew Odlyzko revient sur cette bulle, sur celles qui l’ont précédé et celles qui l’ont suivie.

Des business plans qui prévoyaient plus d’usagers du web que d’habitants sur Terre

Odlyzko étudie surtout trois bulles, celle des chemins de fer britanniques vers 1845, celle de l’Internet en 1999-2000, et celle des subprimes qui s’est écroulée en 2008. À chaque fois, on retrouve les mêmes ingrédients notamment une formidable crédulité et une incapacité, chez des gens qui ont tous fait Harvard ou Polytechnique, à faire des maths élémentaires, par exemple des calculs d’intérêts composés (certaines prévisions faites pendant la bulle de l’Internet menaient en peu de temps à ce qu’il y ait davantage d’utilisateurs de l’Internet que d’habitants sur Terre). Ainsi, le mathématicien John Paulos, l’auteur de Innumeracy: Mathematical Illiteracy and its Consequences a lui même perdu beaucoup d’argent dans la bulle de l’Internet, pourtant basée sur des mathématiques ridicules.

L’auteur en déduit qu’on peut même tenter de définir un « indice de crédulité », dont la mesure permettrait d’indiquer qu’on se trouve dans une bulle et qu’il faut donc se méfier. D’autant plus que les personnes précisément chargées de veiller et de donner l’alarme sont les premières à lever les bras avec fatalisme et à dire que les bulles sont indétectables.

L’article cite de nombreuses déclarations d’Alan Greenspan en ce sens ; quoique responsable de la surveillance monétaire, il affirme qu’on ne peut pas détecter les bulles mais n’en a pas pour autant déduit qu’il ne servait à rien et qu’il serait honnête de démissionner. Les journalistes n’ont pas fait mieux et tous reprenaient avec zéro sens critique les communiqués triomphants sur la croissance miraculeuse de l’Internet.

Des pubs “pro bulle” en contradiction avec la documentation officielle !

Odlyzko reprend donc tous les calculs, toutes les affirmations avancées pendant la bulle. Ce n’est pas facile car bien des rapports ultra-optimistes de l’époque ont complètement disparu des sites Web des entreprises concernées. Ainsi, UUNET présentait publiquement, pour encourager les investisseurs, des chiffres (par exemple sur la capacité de son épine dorsale) qui étaient en contradiction avec ses propres documents officiels enregistrés à la SEC. UUnet mentait sur ses capacités antérieures, pour que l’augmentation soit plus spectaculaire.

Cette partie d’analyse a posteriori de la propagande pro-bulle est certainement la plus intéressante de l’article. Il faut la garder en mémoire à chaque fois qu’on voit un Monsieur sérieux faire des prévisions appuyées sur du PowerPoint. Avec le recul, c’est consternant d’imbécillité, le terme « crédulité » parait bien indulgent, puisque tout le monde pouvait vérifier les documents SEC et refaire les calculs (qui étaient trivialement faux). Et pourtant, non seulement cela a eu lieu, mais cela a recommencé quelques années après avec les subprimes. D’autres embrouilles étaient utilisées pour tromper les investisseurs (victimes très consentantes, puisque la vérification aurait été facile), comme de confondre la capacité du réseau et le trafic effectif.

Les escroqueries comme celle de WorldCom ou d’Enron ne sont pas une nouveauté. Vu l’absence totale de sens critique avec lequel sont accueillies les bulles, on peut même se demander, et c’est ce que fait Odlyzko, s’il n’y a pas une raison plus profonde à la crédulité. Par exemple, les empereurs romains, pour tenir le peuple, lui fournissaient « du pain et des jeux ». Aujourd’hui, peu de gens dans les pays riches ont faim et les jeux sont peut-être devenus plus importants que le pain. Les bulles ne sont-elles pas simplement un spectacle ?

Ou bien ont-elle une utilité réelle, par exemple pour convaincre les investisseurs de faire des dépenses lourdes et qui ne rapporteront rien ? Ainsi, la bulle des chemins de fer britanniques vers 1845 a ruiné des investisseurs crédules comme les sœurs Brontë, Charles Darwin ou comme le pédant économiste John Stuart Mill (qui, comme tous les économistes, pontifiait dans le vide sur les beautés du capitalisme, mais ne savait pas reconnaître une bulle) mais elle a aussi permis à la Grande-Bretagne d’avoir un formidable réseau ferré sur lequel son économie a pu s’appuyer. Finalement, les bulles servent peut-être à quelque chose ?

Article publié initialement sur le blog de Stéphane Bortzmeyer sous le titre Des bulles et de la crédulité et également repris sur OWNIpolitics

Photos : FlickR CC WoodleyWonderworks ; Mike Licht ; Kenneth Moore.

]]>
http://owni.fr/2010/11/24/quand-la-credulite-des-economistes-fait-des-bulles/feed/ 3
Internet, subprimes… quand la crédulité des économistes fait des bulles http://owni.fr/2010/11/23/internet-subprimes-quand-la-credulite-des-economistes-fait-des-bulles-speculation-bourse-enron/ http://owni.fr/2010/11/23/internet-subprimes-quand-la-credulite-des-economistes-fait-des-bulles-speculation-bourse-enron/#comments Tue, 23 Nov 2010 10:29:01 +0000 Stéphane Bortzmeyer http://owni.fr/?p=37245 Vous vous souvenez de la grande bulle de l’Internet en 1999-2001, lorsque des prédictions délirantes amenaient des milliers d’investisseurs à injecter plein d’argent dans le réseau que tous les costards-cravate sérieux méprisaient seulement quelques années auparavant ? Dans un article très détaillé et très érudit, « Bubbles, gullibility, and other challenges for economics, psychology, sociology, and information sciences », Andrew Odlyzko revient sur cette bulle, sur celles qui l’ont précédé et celles qui l’ont suivie.

Des business plans qui prévoyaient plus d’usagers du web que d’habitants sur Terre

Odlyzko étudie surtout trois bulles, celle des chemins de fer britanniques vers 1845, celle de l’Internet en 1999-2000, et celle des subprimes qui s’est écroulée en 2008. À chaque fois, on retrouve les mêmes ingrédients notamment une formidable crédulité et une incapacité, chez des gens qui ont tous fait Harvard ou Polytechnique, à faire des maths élémentaires, par exemple des calculs d’intérêts composés (certaines prévisions faites pendant la bulle de l’Internet menaient en peu de temps à ce qu’il y ait davantage d’utilisateurs de l’Internet que d’habitants sur Terre). Ainsi, le mathématicien John Paulos, l’auteur de Innumeracy: Mathematical Illiteracy and its Consequences a lui même perdu beaucoup d’argent dans la bulle de l’Internet, pourtant basée sur des mathématiques ridicules.

L’auteur en déduit qu’on peut même tenter de définir un « indice de crédulité », dont la mesure permettrait d’indiquer qu’on se trouve dans une bulle et qu’il faut donc se méfier. D’autant plus que les personnes précisément chargées de veiller et de donner l’alarme sont les premières à lever les bras avec fatalisme et à dire que les bulles sont indétectables.

L’article cite de nombreuses déclarations d’Alan Greenspan en ce sens ; quoique responsable de la surveillance monétaire, il affirme qu’on ne peut pas détecter les bulles mais n’en a pas pour autant déduit qu’il ne servait à rien et qu’il serait honnête de démissionner. Les journalistes n’ont pas fait mieux et tous reprenaient avec zéro sens critique les communiqués triomphants sur la croissance miraculeuse de l’Internet.

Des pubs “pro bulle” en contradiction avec la documentation officielle !

Odlyzko reprend donc tous les calculs, toutes les affirmations avancées pendant la bulle. Ce n’est pas facile car bien des rapports ultra-optimistes de l’époque ont complètement disparu des sites Web des entreprises concernées. Ainsi, UUNET présentait publiquement, pour encourager les investisseurs, des chiffres (par exemple sur la capacité de son épine dorsale) qui étaient en contradiction avec ses propres documents officiels enregistrés à la SEC. UUnet mentait sur ses capacités antérieures, pour que l’augmentation soit plus spectaculaire.

Cette partie d’analyse a posteriori de la propagande pro-bulle est certainement la plus intéressante de l’article. Il faut la garder en mémoire à chaque fois qu’on voit un Monsieur sérieux faire des prévisions appuyées sur du PowerPoint. Avec le recul, c’est consternant d’imbécillité, le terme « crédulité » parait bien indulgent, puisque tout le monde pouvait vérifier les documents SEC et refaire les calculs (qui étaient trivialement faux). Et pourtant, non seulement cela a eu lieu, mais cela a recommencé quelques années après avec les subprimes. D’autres embrouilles étaient utilisées pour tromper les investisseurs (victimes très consentantes, puisque la vérification aurait été facile), comme de confondre la capacité du réseau et le trafic effectif.

Les escroqueries comme celle de WorldCom ou d’Enron ne sont pas une nouveauté. Vu l’absence totale de sens critique avec lequel sont accueillies les bulles, on peut même se demander, et c’est ce que fait Odlyzko, s’il n’y a pas une raison plus profonde à la crédulité. Par exemple, les empereurs romains, pour tenir le peuple, lui fournissaient « du pain et des jeux ». Aujourd’hui, peu de gens dans les pays riches ont faim et les jeux sont peut-être devenus plus importants que le pain. Les bulles ne sont-elles pas simplement un spectacle ?

Ou bien ont-elle une utilité réelle, par exemple pour convaincre les investisseurs de faire des dépenses lourdes et qui ne rapporteront rien ? Ainsi, la bulle des chemins de fer britanniques vers 1845 a ruiné des investisseurs crédules comme les sœurs Brontë, Charles Darwin ou comme le pédant économiste John Stuart Mill (qui, comme tous les économistes, pontifiait dans le vide sur les beautés du capitalisme, mais ne savait pas reconnaître une bulle) mais elle a aussi permis à la Grande-Bretagne d’avoir un formidable réseau ferré sur lequel son économie a pu s’appuyer. Finalement, les bulles servent peut-être à quelque chose ?

Article publié initialement sur le blog de Stéphane Bortzmeyer sous le titre Des bulles et de la crédulité.

Photos : FlickR CC WoodleyWonderworks ; Mike Licht ; Kenneth Moore.

]]>
http://owni.fr/2010/11/23/internet-subprimes-quand-la-credulite-des-economistes-fait-des-bulles-speculation-bourse-enron/feed/ 0
Faut-il vraiment pouvoir rebouter l’Internet ? http://owni.fr/2010/08/02/faut-il-vraiment-pouvoir-rebouter-internet/ http://owni.fr/2010/08/02/faut-il-vraiment-pouvoir-rebouter-internet/#comments Mon, 02 Aug 2010 13:32:57 +0000 Stéphane Bortzmeyer http://owni.fr/?p=23610 Sept personnes seraient en mesure de rebooter Internet: panique et confusion dans les médias généralistes. Nous nous étions interrogés sur la pertinence technique d’une telle information.  Stéphane Botzmeyer, ingénieur informaticien à l’AFNIC, analyse les écueils de cette “légende”.

On le sait, la grande majorité des articles concernant l’Internet sont faux et, en prime, souvent ridiculement faux. Cela concerne évidemment les médias traditionnels (presse, télévision, etc) mais aussi les forums en ligne où les deux cents commentaires à un article sont écrits par des gens dont la seule compétence technique est l’installation de WordPress (et, parfois, ne soyons pas trop méchants, l’écriture de dix lignes de PHP). Mais des records ont été récemment battus à propos de la légende comme quoi « Sept personnes ont les clés pour rebouter l’Internet ».

Le point de départ de la légende semble avoir été un communiqué publicitaire de l’Université de Bath, « Bath entrepreneur holds key to internet security ». Ce communiqué outrageusement cireur de pompes contenait beaucoup d’erreurs et a été repris, aussi bien dans la presse bas de gamme comme Metro (« Brit given a key to ‘unlock’ the internet ») que dans des médias prétendument sérieux comme la BBC (« Bath entrepreneur ‘holds the key’ to internet security », notez la reprise quasi-littérale du titre du communiqué de presse) ou comme le Guardian (« Is there really a key to reboot the internet? », l’article le moins mauvais du lot).

La légende a ensuite franchi la Manche et, dans la traduction, le côté chauvin et la publicité pour une personne particulière ont disparu. Cela a donné « Sept personnes ont les clés d’Internet ! », « Les sept clés de l’Internet sécurisé » ou « Rebooter internet – Comment ça marche ? » (de moins mauvaise qualité).

Bon, qu’il y a t-il de vrai dans cette légende ? Sur quoi cela s’appuie t-il ? Depuis le 15 juillet dernier, le processus de signature de la racine du DNS par le système DNSSEC est complet : les serveurs de noms de la racine diffusent désormais des informations signées, ce qui permet de détecter des tentatives de modification des données, comme celles utilisant la faille Kaminsky. Tout ce processus est largement documenté sur le site officiel http://www.root-dnssec.org/ et il est symptomatique qu’aucune des personnes qui ait écrit à ce sujet ne l’ait consulté. À l’ère d’Internet, toute l’information est gratuitement et librement disponible, encore faut-il la lire !

Notons d’abord que ce processus ne concerne que le DNS. Certes, ce protocole d’infrastructure est indispensable au bon fonctionnement de la quasi-totalité de l’Internet. Sans lui, on serait limité à des ping (en indiquant l’adresse IP) et à des traceroute (avec l’option -n). Certains services, comme le Web, dépendent encore plus du DNS. Néanmoins, on voit que parler d’un « redémarrage de l’Internet » est ridicule, que DNSSEC fonctionne ou pas n’empêchera pas le réseau de faire passer des paquets.

Ensuite, dans ce processus, quel est le rôle des fameux sept gusses ? Leur nom est disponible sur le site officiel (alors que certains articles disaient « on ne connait que certains d’entre eux » et autres phrases censées faire croire qu’on révélait au lecteur des secrets stratégiques). Leur rôle est décrit dans le document « Trusted Community Representatives ­ Proposed Approach to Root Key Management », document qui a été publié il y a des mois. Le processus complet figure dans « DNSSEC Practice Statement for the Root Zone KSK Operator ». DNSSEC fonctionne en signant cryptographiquement les enregistrements distribués. Il dépend donc d’une clé privée qui doit à la fois être disponible (pour signer) et être protégée pour éviter que les méchants ne mettent la main dessus. (À propos de méchant, tout article qui parle d’« attaque terroriste » est grotesque. Comme si Al-Qaida, spécialiste des bombes et des égorgements, avait tout à coup envie d’empêcher les riches pays du Nord de regarder YouTube.) Un des risques possibles est la perte complète de la clé privée (suite à un incendie ou à un tremblement de terre, risques autrement plus importants que la mythique attaque terroriste). Il y a donc des sauvegardes mais celles-ci sont protégées par chiffrement. Et c’est là qu’interviennent les TCR.

Il y a deux sortes de TCR (« Trusted Community Representatives »), choisis pour assurer des rôles de gestions des clés cryptographiques de DNSSEC. Il y a les « Crypto Officers » qui vont s’occuper de la génération des clés (au cours de solennelles cérémonies) et les « Recovery Key Share Holders » (les fameux sept). Ces derniers sont simplement chargés de garder une partie de la clé qui permettra le déchiffrement des sauvegardes. C’est tout. Ils ne peuvent pas « redémarrer l’Internet », ce qui ne veut rien dire. Mais, si les articles sensationnalistes avaient commencé par « Sept personnes peuvent restaurer les sauvegardes des clés DNSSEC », gageons qu’ils auraient eu moins de succès…

Enfin, il faut relativiser : à l’heure actuelle, si un certain nombre de domaines sont signés par DNSSEC (par exemple, hier, .dk et .edu ont rejoint la liste des TLD dont la racine authentifie la signature), pratiquement aucun résolveur DNS (les serveurs directement interrogés par les utilisateurs) ne valide avec DNSSEC. Que la clé privée soit compromise ou pas ne changera rien, puisque les signatures sont ignorées. Il faudra sans doute des années avant que les résolveurs de M. Tout-le-Monde dépendent d’une signature DNSSEC. La remarque de Bruno, « les 7 gugusses et leurs cartes à puce ont autant de pouvoir sur le bon fonctionnement d’Internet que mon chat sur le problème des embouteillages sur le periph parisien » est donc à 100 % justifiée.

Article initialement publié sur le blog de Stéphane Bortzmeyer

Illustrations CC FlickR par edfrz et kalleboo

]]>
http://owni.fr/2010/08/02/faut-il-vraiment-pouvoir-rebouter-internet/feed/ 0