Neutralité du net: vers un faux débat ?

Le 10 août 2010

La question de la neutralité du net semble complexe. Pourtant, il suffit de respecter quelques principes, et ne pas tout mélanger, pour que ça apparaisse plutôt simple.

Internet est l’interconnexion de 64511 réseaux publics routés par le protocole IP. Et le principe de la neutralité veut que, sur ce réseau, tout contenu, service et application doivent circuler à la même vitesse, sans restriction ni discrimination de la part des tuyaux (opérateurs et fournisseurs d’accès Internet), quels que soient leur source, destination et objet.

En France, depuis quelques mois, rapports, auditions, et consultations se succèdent et s’accumulent à tous niveaux : ministères, autorités, parlement. Seule réelle urgence à l’agenda : la transposition du Paquet Télécom adopté par le Parlement Européen en novembre 2009. Les États membres doivent avoir transposé et publié la nouvelle réglementation en droit interne au plus tard le 25 mai 2011.

Aujourd’hui, le gouvernement semble vouloir aller vite, et légiférer bien au-delà de la seule question de la neutralité du net. Le danger est qu’il veuille satisfaire un peu tous les acteurs (opérateurs, ayants-droits, fournisseurs de contenus, État, etc.), aille dans l’urgence, et sorte un texte compliqué qui oublie ou porte atteinte aux fondamentaux. Pourtant, à partir du moment où certains principes sont respectés, une grande partie des débats est évacuée.

Rapports, consultations et… rapports

En mars dernier, le CGIET (Conseil général de l’industrie, de l’énergie et des technologies) rattaché à Bercy, remet son rapport «La neutralité dans le réseau internet» (pdf). Il est suivi en avril par le colloque “Neutralité des réseaux” (pdf), puis en mai par la consultation publique de l’ARCEP (Autorité de Régulation des Communications Electroniques et des Postes), dont les propositions n’ont toujours pas été publiées. Parallèlement, en mars, le ministère de la culture, via la DGMIC (Direction Générale des Médias et des Industries Culturelles), lance un appel à propositions. Une étude était “attendue” fin avril ; la DGMIC n’a pas répondu à notre demande d’informations à ce sujet.

De son côté, en février, la secrétaire d’État à l’économie numérique Nathalie Kozuiscko-Morizet s’entoure d’un “panel d’experts” et ouvre une consultation publique, dont les résultats ont été publiés en juin. Ceci pour alimenter un rapport demandé par le Parlement. Via un amendement, proposé par la députée Laure de la Raudière (UMP), rapporteur de la loi sur la fracture numérique de novembre 2009. Le 1er août sur Twitter, NKM annonce que ce rapport a été remis la veille aux parlementaires. Elle commente : «Des pistes intéressantes. A discuter à la rentrée». Le rapport n’a pas été publié. Ce sont les députés qui décideront de le rendre ou non public . «Logiquement cela devrait être le cas mais plutôt en septembre car c’est une décision collégiale» a commenté NKM.

De la neutralité du net au filtrage

Samedi dernier, Libération, qui s’est procuré le rapport, en “résume les principales lignes”, développées hier sur Écrans. Elles sont nombreuses, et peu limpides. En clair, ça part dans tous les sens, et loin de la seule question de la neutralité du net.

Pour commencer le rapport ne se limite pas à la neutralité du net, mais englobe la neutralité des réseaux. Internet donc, mais aussi les services de téléphonie, les services audiovisuels, etc. Si tous ces services sont livrés en technologie IP et débouchent sur un même point de terminaison, chacun a ses spécificités (techniques, économiques, etc.). Et donc la première question est de savoir dans quelles mesures le gouvernement compte différencier les pratiques, et réguler ces différents services.

Par exemple, à propos des réseaux mobiles, Libération explique que le gouvernement n’a rien à redire aux limites imposées par les opérateurs telle “l’interdiction des échanges en peer to peer, la consultation des vidéos en streaming ou de la téléphonie sur le web”. Mais à condition que ces restrictions respectent les principes de “transparence et de non-discrimination” écrit le quotidien. “Interdiction” mais “non-discrimination” ?

Il n’exclue pas la mise en œuvre d’offres différenciées” (sur les mobiles seulement selon Libé, partout selon Écrans). Sur Internet, cela signifierait la fin de l’accès illimité (et d’offres simples) pour tous avec un saucissonnage des offres dont la tarification pourrait varier selon le trafic, le débit, ou la qualité des services.

Aussi le rapport estime que la «seule réponse efficace à l’augmentation du trafic à moyen et long terme » est «l’investissement dans de nouvelles infrastructures». Mais encore ? La question auquel le gouvernement va devoir répondre est qui va payer et sous quelle forme : les opérateurs, les fournisseurs de services (dont Google au premier plan), l’État, les abonnés, etc. ?

Le rapport ne s’arrête pas là. Et déborde sur les services. A propos des “moteurs de recherche” et de leurs “algorithmes secrets”, écrit Libération,  “les auteurs préconisent que le gouvernement saisisse la Commission européenne pour aborder la question hypersensible de la neutralité des référencements. Il s’agit encore d’un autre débat — dénommé “search neutrality” aux États-Unis — qui vise essentiellement Google. Et qualifié d‘”asburde” par certains commentateurs outre-atlantique. Les algorithmes étant, selon eux, par nature non-neutres. Comme le note ZDnet, ce point a été soulevé par Orange dans sa réponse à la consultation de NKM. L’opérateur écrit : “90% des recherches (…) en France sont ordonnancées selon les critères de l’algorithme d’un moteur de recherche particulier. C’est sur cet ordonnancement qu’est fondé le modèle économique du moteur. Il est donc difficile de ne pas s’inquiéter de la neutralité de la sélection des informations proposée aux Internautes par ce moteur”.

Transposition du Paquet Télécom

Parallèlement, en mai dernier, la DGCIS (Direction générale de la compétitivité, de l’industrie et des services), rattachée à Bercy, lance une consultation publique sur le projet de dispositions législatives de transposition (pdf) en droit français du Paquet Télécom. En plus d’un règlement, ce dernier est composé de deux directives dont certains articles concernent la neutralité. Une proposition de transposition a été présentée en conseil des ministres, et le processus législatif devrait être lancé à la rentrée. Ceci afin de respecter le calendrier, soit avoir transposé la nouvelle réglementation avant le 25 mai 2011.

Le gouvernement a trois solutions. Soit un projet de loi “normal” examiné par les deux chambres. Soit utiliser les ordonnances, qui lui permettent de prendre directement, et rapidement, des mesures relevant du législatif. Soit encore opter pour une méthode mixte. C’est-à-dire déposer un projet de loi “normal” composé de dispositions législatives ainsi que d’articles d’habilitation. Cette dernière solution semble privilégiée. “On est assez pressé” nous indique le cabinet de NKM. “Et la transposition est très technique et essentiellement réglementaire, elle ne donne pas énormément de marges de manœuvre“. Tout en soulignant que ça sera au Parlement de décider.

Ensuite, si le Parlement juge que la transposition n’est pas suffisante, il pourra, dans un deuxième temps, décider d’aller plus loin en déposant une proposition de loi ou de résolution. Ce qui, d’après la députée Laure de la Raudière, est prévu par la majorité. “Le groupe UMP a prévu de travailler sur une PPL sur la neutralité du net à la rentrée” écrit-elle sur twitter. Ce à quoi le député Lionel Tardy répond : “Faudra bousculer l’agenda…” Selon différentes sources, vu l’agenda parlementaire, cela ne devrait pas être débattu avant la fin de l’année ou début 2011.

Que dit le Paquet Télécom ?

Le Paquet Télécom se limite “essentiellement à la transparence, et au renforcement du rôle” des autorités nationales réglementaires (l’ARCEP donc en France), commente la cabinet de NKM.

En effet, la directive (2009/136/CE) n’interdit pas la discrimination si c’est fait de manière transparente : “les utilisateurs devraient, en tout état de cause, être pleinement informés de toute limitation imposée par le fournisseur de service et/ou de réseau quant à l’utilisation de services de communications électroniques. Ces informations devraient préciser, au choix du fournisseur, soit le type de contenu, d’application ou de service concerné, soit des applications ou services déterminés, soit les deux”.

De son côté l’article 8 de la directive (2009/140/CE) dit : en favorisant la capacité des utilisateurs finaux à accéder à l’information et à en diffuser, ainsi qu’à utiliser des applications et des services de leur choix.» Cet article a été particulièrement débattu au Parlement Européen. Lors de sa première lecture, il assurait une garantie, affirmant : “les utilisateurs finaux doivent pouvoir accéder, diffuser, et utiliser. Dans la version adoptée, les opérateurs ont juste à “favoriser”. Il parlait aussi de limiter ces principes aux contenus/applications/services licites. Ce qui a finalement été supprimé, mais ne manquera sûrement pas de réapparaître dans le cadre de la consultation lancée fin juin par la Commission Européenne.

La neutralité peut-elle être non neutre?

De même, en France, de Brice Hortefeux“Le respect du principe de neutralité des réseaux ne s’applique pas aux sites illicites“‘ — à Pascal Rogard, le directeur de la SACD (Société des Auteurs et Compositeurs Dramatiques ) – «Je n’ai pas de définition de la Net neutralité. Par contre je sais que la Net neutralité ne peut pas être la Net impunité” — certains souhaitent limiter la neutralité aux seuls contenus licites.

Ce que soutient le rapport de NKM : «les agissements illicites (…) doivent être poursuivis et sanctionnés, ce qui peut impliquer la mise en place de dispositifs de filtrage ou de blocage de certains contenus». Parmi ces “agissements illicites”, on retrouve pèle-mêle : “fraudes et escroqueries, délits de presse, atteintes à la vie privée, contrefaçon, piratage des œuvres protégées par le droit d’auteur, diffusion de contenus pédopornographiques, etc.” Pas très surprenant. Le gouvernement croit avoir trouvé dans le filtrage/blocage — et plus particulièrement dans le DPI (Deep Packet Inspection) – le bouton pour contrôler Internet.

Pour d’autres, comme Benjamin Bayart, président du fournisseur d’accès Internet FDN, c’est un contre-sens. Il écrit : cela “revient à supposer que le réseau est capable, en regardant un paquet IP, de décider de la licéité du contenu, et, ayant à coup sur reconnu un contenu illicite, il peut décider d’en faire n’importe quoi. Ce qui revient à supposer que le réseau n’est pas neutre du tout, et analyse très en profondeur tout ce qu’il voit pour décider de ce qu’il fait”. Il ajoute : “Internet n’est qu’un outil. On ne peut pas demander à un outil d’empêcher un usage. (..) La bonne formulation est: le réseau Internet étant par nature neutre, et donc permettant de transporter tous les contenus, comment lutter contre les contenus illégaux ?”

Le secret des correspondances, principal principe ?

Derrière les questions techniques, économiques, stratégiques qui divisent les différents acteurs, se pose un principe central. Celui de la vie privée et du secret de la correspondance des citoyens.

Comme le fait remarquer l’avocat Olivier Iteanu, la neutralité par les opérateurs n’est pas une notion nouvelle dans le droit français. Elle y est même fortement ancrée depuis des décennies. Et souvent associée à celui de confidentialité. Par exemple, l’article 32-1-II-5 du Code des postes et Communications Électroniques parle du “respect par les opérateurs de communications électroniques du secret des correspondances et du principe de neutralité au regard du contenu des messages transmis».

Le secret des correspondances est plus ancien encore. On peut citer Mirabeau et l’arrêté du 5 décembre 1789 selon lequel : “ le secret des lettres doit être constamment respecté”. Aujourd’hui, ce droit, et ses exceptions, sont encadrés par un certain nombre de textes (articles 226-15 et 432-9 du Code Pénal, article L 33-1 du Code des Postes et des Communications électroniques, etc.).

Or, à la discrimination de l’accès et — selon les termes du rapport NKM — au «traitement différencié de certains flux», s’oppose ce droit simple du secret des correspondances. Par exemple, sur le réseau public qu’est Internet, utiliser le DPI à des fins de filtrage, de blocage, de profiling ou de QoS (Quality of Service) implique d’ouvrir tous les paquets IP transitant sur le réseau. En dehors du fait que le réseau français, maillé et décentralisé, n’est pas conçu pour ça, ouvrir les paquets implique d’un côté la responsabilité des opérateurs de l’usage fait par les internautes du réseau, et de l’autre l’atteinte au secret des correspondances des internautes.

Et donc ?

Actuellement, la neutralité est présentée comme terriblement complexe. Noyée sous une multiplicité de paramètres et d’enjeux (coût des infrastructures, pratiques d’interconnexion, services managés, licité des contenus, etc.) certes importants, mais qui sont des éléments séparés ou rapportés à la question de la neutralité du réseau Internet.

C’est pourtant assez simple.

Il s’agit de garantir qu’Internet reste ouvert, libre, neutre, une source d’innovation et de création et un marché concurrent. Soit avant tout s’assurer que les FAI ne privilégient ni ne discriminent pas certains contenus, services et applications. D’un côté, cela implique de comprendre et préserver l’infrastructure d’Internet (dite “de bout à bout”) où l’intelligence est aux extrémités non au cœur du réseau. C’est-à-dire que les tuyaux sont “bêtes” et servent uniquement à acheminer le trafic. Et que les FAI ne sont pas responsables de ce qui y circule. De l’autre côté, cela veut dire que les FAI sont par contre responsables de leurs pratiques, et de leurs abus. Et cela peut être facilement énoncé par la loi.

Donc à partir du moment où le secret des correspondances est respecté, et ces principes (tuyaux “bêtes”, non-responsabilité des FAI sur les usages, mais responsabilité des pratiques devant la loi), cela évacue une grande partie des débats.

——–

Crédits Photos CC FlickR paltelegraph

Laisser un commentaire

  • eberkut le 10 août 2010 - 14:37 Signaler un abus - Permalink

    Vous faites du fondamentalisme.

    Faire de la différentiation de services, c’est vieux comme IP. Il y a eu le champ IP Precedence, le champ ToS, maintenant on a DiffServ, etc. Bref on veut faire de la QoS depuis le début. Simplement parce que différents flux ont différentes contraintes (latence, débit, gigue, etc.). C’est pas l’antithèse de la neutralité des réseaux. De toute façon la neutralité est une notion politique plus que technique, importée des USA où elle a servi de cheval de bataille pour faire appliquer la notion exclusivement anglo-saxonne de Common Carrier aux ISP alors qu’elle ne s’applique toujours qu’aux téléphonistes.

    Le principe end-to-end est à son origine est beaucoup moins rigoureux (http://web.mit.edu/Saltzer/www/publications/endtoend/endtoend.pdf qui dit que des fois il vaut mieux implémenter une fonction dans le réseau plutôt que dans l’application si ça améliore les performances…) tout comme la culture de pragmatisme qui règne à l’IETF. Comme Lawrence Lessig l’a déjà expliqué, le problème c’est pas la notion de services différenciés, c’est que l’opérateur en profite pour favoriser son contenu ou celui de ses partenaires commerciaux (source : http://online.wsj.com/article/SB122929270127905065.html ). Il faut juste que la QoS reste entre les mains des utilisateurs finaux et on est bon.

    L’intelligence dans le réseau ça fait un bout de temps qu’il y en a. Il existe plus depuis longtemps ce réseau idiot idéalisé. Il y a des tas d’éléments actifs qui maintiennent des états concernant les flux en cours. Or la notion du réseau idiot c’est qu’il ne devait pas maintenir d’états, c’est la source de l’opposition entre IP et ATM, entre les ingé réseaux et les téléphonistes. Mais depuis on a des firewalls, du NAT, de la QoS, du policy-based routing (i.e. pas que basé sur des critères purement techniques), du traffic engineering, etc. Tout ça est même décrit dans la RFC 1958 qui en 1996 tentait de décrire l’architecture d’Internet :

    To perform its services, the network maintains some state
    information: routes, QoS guarantees that it makes, session
    information where that is used in header compression, compression
    histories for data compression, and the like. This state must be
    self-healing; adaptive procedures or protocols must exist to derive
    and maintain that state, and change it when the topology or activity
    of the network changes. The volume of this state must be minimized,
    and the loss of the state must not result in more than a temporary
    denial of service given that connectivity exists. Manually
    configured state must be kept to an absolute minimum.

    Ca fait bien longtemps que le réseau est intelligent. Et encore une fois, il peut y avoir de bonnes raisons. Le problème c’est si ça sert pour faire la discrimination qui réduit la liberté d’expression ou d’entreprendre. Bref c’est effectivement un problème d’appliquer les lois qui existent déjà dans un cadre nouveau.

    Sur la comparaison avec le service postal, je fais remarquer que l’obligation de neutralité et de respect du secret de la correspondance n’ont jamais empêché la création de niveaux de service différenciés et n’ont jamais rendu illégales les CGV de la poste interdisant les marchandises illégales (sans parler du code des douanes qui en rajoute une couche dès lors que l’échange traverse une frontière).

    En voulant faire du fondamentalisme autour de la neutralité des réseaux, on polarise à l’extrême le débat. Il est évident qu’on échappera pas à un pouvoir de police permettant d’empêcher l’accès à certains contenus. De même que la QoS existe depuis l’origine d’Internet et a des usages tout à fait justifié. Ce qu’il faut c’est encadrer correctement ces pratiques. Les rendre exceptionnelles et laisser leurs maîtrises l’une dans les mains de l’autorité judiciaire garante de la liberté individuelle et l’autre dans les mains des utilisateurs finaux pour se prévenir de la moindre discrimination et ne pas engager la responsabilité des opérateurs.

    Ou encore, la solution la plus radicale : interdire l’intégration verticale et appliquer la séparation fonctionnelle.

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • Leo le 10 août 2010 - 15:41 Signaler un abus - Permalink

    @eberkut

    Pour l’existence immémoriale des champs tos, c’est évident. Cependant il y a une différence fondamentale entre le fait que ce soit l’utilisateur qui indique son type de service et le fait que ce soit le FAI qui décide de la classe de service en allant lire le contenu des paquets des utilisateurs.

    On ne peut pas accepter une QoS basée sur de l’inspection profonde qui est un viol du secret des correspondances. Tout le problème est là.

    Pour reprendre l’analogie avec la poste, qui est parfaitement légitime : ce n’est pas au facteur d’ouvrir un colis pour pouvoir décider s’il va devoir coller une étiquette “fragile” dessus (et éventuellement pouvoir faire payer un surcoût); l’expéditeur est largement assez grand pour coller cette étiquette lui même.

    Le problème n’est donc pas celui d’un réseau intelligent ou pas : c’est celui d’un réseau honnête ou pas.

    Il n’y a aucune espèce de fondamentalisme à défendre le secret des correspondances. Les FAI ont sans doute intérêt à le comprendre rapidement…..

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • eberkut le 10 août 2010 - 22:15 Signaler un abus - Permalink

    @leo

    > Pour l’existence immémoriale des champs tos, c’est évident. Cependant il y a une différence fondamentale entre le fait que ce soit l’utilisateur qui indique son type de service et le fait que ce soit le FAI qui décide de la classe de service en allant lire le contenu des paquets des utilisateurs.

    Si vous relisez mon commentaire je ne dis pas autre chose puisque j’insiste sur le fait que ce sont les utilisateurs qui doivent pouvoir décider de leur propre politique de QoS et pas les opérateurs en fonction d’accords commerciaux avec leurs fournisseurs. En attendant, on continue, y compris dans cet article, à présenter la QoS en soit comme un mal absolu ce qui est totalement faux. Ca peut au contraire devenir un facteur d’amélioration de la qualité du réseau.

    > On ne peut pas accepter une QoS basée sur de l’inspection profonde qui est un viol du secret des correspondances. Tout le problème est là.

    La DPI qui est élevée également au rang de mal absolu n’est qu’une bête évolution de ce qui se fait depuis longtemps : de l’analyse protocolaire de niveau 7. Un proxy fait la même chose. Un IDS/IPS fait la même chose. Il suffit de voir les tests de détection de protocoles d’opendpi.org pour voir que ça pouvait être fait il y a 15 ans avec les bons tests booléens dans tcpdump ou shadow IDS. On violerait le secret de la correspondance depuis 15 ans ? Et quid des systèmes antispam qui vont jusqu’à analyser le contenu d’un message selon des règles autrement plus intrusives que la DPI ? La seule différence notable c’est que maintenant on sait à peu près faire de la DPI à 10 Gbps donc quasiment sur un backbone. Mais il suffit de voir des présentations comme celle donnée à la HAR2009 concernant le RENATER anglais (https://har2009.org/program/events/173.en.html) pour voir que de toute façon ce ne sera jamais vraiment mis en place chez les ISP parce que trop compliqué et coûteux et jamais suffisamment performant. Et encore, je reste uniquement du point de vue technique.

    Donc en quoi la DPI est choquante ? À la rigueur parce qu’elle permet à peu près (mais pas de façon parfaite) de détecter un trafic qu’on aurait essayé de dissimuler. Et alors ? Le problème c’est pas qu’on puisse faire ça, c’est qu’on ait eu à dissimuler le trafic pour faire l’usage que l’on voulait de son accès à Internet. Donc il s’agit juste de garantir une certaine neutralité mais l’outil en soi n’a rien de bon ou mauvais.

    > Pour reprendre l’analogie avec la poste, qui est parfaitement légitime : ce n’est pas au facteur d’ouvrir un colis pour pouvoir décider s’il va devoir coller une étiquette “fragile” dessus (et éventuellement pouvoir faire payer un surcoût); l’expéditeur est largement assez grand pour coller cette étiquette lui même.

    Tout à fait, c’est à l’utilisateur de contrôler sa politique. Mais il n’empêche que la poste a des CGV (http://www.laposte.fr/Particulier/Envoyez-et-recevez-des-colis/Conditions-generales-de-vente-applicables-aux-prestations-Courrier-Colis-de-La-Poste) qui interdisent notamment :
    - “les objets prohibés, notamment des articles contrefaisants et/ou contraires aux lois et règlements en vigueur ;” (comme les MP3 illégalement copiés ?)
    - “les drogues, stupéfiants et produits assimilés ;”
    - “les armes à feu non démontées et non envoyées séparément dans le respect de la législation en vigueur ;” (comme des exploits au sens de la sécurité informatique ?)
    - “les publications ou supports audiovisuels interdits par toute loi ou réglementation applicable ;” (comme du matériel pédophile ?)

    Je ne sais pas comment ces CGV sont appliquées et je n’ai aucune idée de leur sécurité juridique mais elles existent. Il est illusoire de penser que le même type de restriction ne s’appliquera pas à Internet là où elle s’applique ailleurs, en dépit du principe de neutralité. Il vaut mieux essayer de participer à la définition de la meilleure façon de faire. Par exemple, effectivement, La Poste n’ouvre pas à ma connaissance systématiquement tous les courriers et colis et elle n’est pas responsable de les avoir transporter. Il faut conserver cette exonération de responsabilité et cette absence d’obligation de résultats pour les ISP de façon à ce que la justice elle aussi continue à se concentrer sur les extrémités, c’est-à-dire sur les vraies sources des contenus illicites (qu’il soit justifié de les classer comme illicites n’est pas le sujet ici). Bref le vrai argument, ce n’est pas que c’est mauvais pour la neutralité, c’est que c’est inefficace comme moyen de police et affreusement coûteux.

    > Il n’y a aucune espèce de fondamentalisme à défendre le secret des correspondances. Les FAI ont sans doute intérêt à le comprendre rapidement…..

    Il y a un fondamentalisme au sens propre du terme. Je suis pour ma part farouchement en faveur de la neutralité au nom de la liberté d’expression et d’entreprendre. Mais cette notion est brandie à tout bout de champ en y amalgamant beaucoup de concepts d’origines variées. C’est une notion politique (et même plutôt anglo-saxonne) mais on insiste lourdement sur sa lointaine origine technique pour la rendre indissociable d’Internet. La neutralité est certes l’élément caractéristique qui a fait le succès d’Internet mais son ancêtre technique, le principe end-to-end ainsi que la culture “ingénieuriale” autour d’Internet n’en fait pas un principe inamovible. L’IETF par exemple a toujours fait preuve de pragmatisme et de souplesse par rapport à ce principe quand les conditions l’exigeaient. Et en tous cas, il est trompeur de continuer à véhiculer l’image d’un réseau idiot qui doit absolument être dépourvu de la moindre intelligence pour qu’Internet continue à fonctionner.

    Bref, ce que je critique un peu vertement c’est qu’on dénature un principe et on polarise le débat excessivement en brandissant toujours le même argument même quand il n’est pas le plus pertinent.

    Par exemple, personne n’attaque le postulat essentiel du rapport sur la neutralité qui est la problématique de congestion des réseaux. Cisco s’en servait il y a dix ans en annonçant l’exaflood pour vendre du matériel. Avant de penser d’une part à filtrer à tout va ou d’autre part de dire qu’il y a des investissements (trop) lourds pour augmenter la capacité, il y a également la possibilité d’améliorer le comportement des applications pour s’adapter à la fois aux nouveaux usages et aux contraintes des ISP (P4P, WG CONEX et LEDBAT de l’IETF, Location/ID Separation Protocol pour réduire la taille des tables de routage, pousser vraiment IPv6 pour rétablir la transparence d’Internet, etc.).

    Néanmoins, là où l’article va dans le bon sens, c’est qu’il commence à esquisser l’idée qu’il n’est nul besoin de créer des législations spécifiques à Internet. La plupart des principes légaux existants et même des pratiques policières peuvent être transposer avec un minimum d’ajustement. C’est ça le vrai message.

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • eberkut le 10 août 2010 - 23:55 Signaler un abus - Permalink

    Pour poursuivre le débat, il y a des argumentations très intéressantes dans la fil de discussion de reddit consacré à l’annonce de Google/Verizon : http://www.reddit.com/r/politics/comments/czih5/fuck_google_wireless_internet_too_competitive_for/

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • Leo le 11 août 2010 - 1:19 Signaler un abus - Permalink

    >Si vous relisez mon commentaire je ne dis pas autre chose puisque j’insiste sur le fait que ce sont les utilisateurs qui doivent pouvoir décider de leur propre politique de QoS et pas les opérateurs en fonction d’accords commerciaux avec leurs fournisseurs.

    Disons que ça va mieux en explicitant les deux façons de faire, tout le monde ne parlant pas ios dans le texte.

    > En attendant, on continue, y compris dans cet article, à présenter la QoS en soit comme un mal absolu ce qui est totalement faux.

    Non, c’est la QoS par DPI qui est un mal absolu pour la simple raison qu’elle viole le secret des correspondances. Ses concepteurs avaient d’ailleurs prévu la difficulté de faire avaler ça au grand public. Par ailleurs l’article parle de certains usages du DPI, dont la classification permettant la QoS : il ne présente pas la QoS ‘en général’ comme un ‘mal absolu’.

    > Ca peut au contraire devenir un facteur d’amélioration de la qualité du réseau.

    Dans le cas où il y a congestion seulement. cf Xi Peng Xiao : si pas de congestion, la QoS n’est pas perceptible par l’utilisateur , donc elle n’est pas vendable.
    C’est pour cela que Cisco passe son temps à agiter le spectre de la congestion. La chose que les gens doivent se demander est la suivante : depuis des années le trafic augmente, et depuis des années la taille des tuyaux augmente. Et tout va bien. Et là, soudainement, c’est plus possible. Tout d’un coup comme ça, on ne peut plus augmenter la taille des tuyaux. Donc ça va saturer. Etrange non?

    > La DPI qui est élevée également au rang de mal absolu n’est qu’une bête évolution de ce qui se fait depuis longtemps//

    Le routage par DPI n’est pas acceptable. En revanche si une machine vérifie l’absence de malware ou de spams dans un trafic, il n’y a pas atteinte au secret des correspondances : cette machine ne connaît qu’une “signature” et c’est juste cela qu’elle va chercher en restant ‘aveugle’ au reste du contenu. Et ce ‘cela’ n’est à l’évidence pas du ressort de la correspondance privée puisqu’injecté par un tiers indésirable.

    Et puis conceptuellement, utiliser les couches hautes pour gérer la couche 3 c’est juste un peu hérétique quand même.

    > Donc en quoi la DPI est choquante ?

    Pour être très précis, c’est le concept même NGN qui est choquant puisqu’il est fondamentalement basé sur de la classification opérée par les opérateurs uniquement afin de pouvoir facturer divers types de services, et que cette classification est basée sur le viol du secret des correspondances : “a NGN and Ipv4/v6 service provider hires an opaque or black broadband pipe at a cheaper price, it is likely that subscribers will change to rent upper value-added services with content awareness from other Internet content providers. This is an insufferable problem for network service providers that the more investments in their broadband infrastructure, the less return from the service income.
    The better method to address this issue is to change an opaque and black broadband pipe into a transparent broadband pipe”
    cf ce doc

    C’est dit de façon tellement limpide et naïve que c’en est touchant…

    > Par exemple, effectivement, La Poste n’ouvre pas à ma connaissance systématiquement tous les courriers et colis et elle n’est pas responsable de les avoir transporter.

    C’est quand même le minimum dans une démocratie…

    > Bref le vrai argument, ce n’est pas que c’est mauvais pour la neutralité, c’est que c’est inefficace comme moyen de police et affreusement coûteux.

    L’efficacité n’a rien à voir, ou plutôt est secondaire par rapport à un principe premier : le respect du secret des correspondances.

    > Je suis pour ma part farouchement en faveur de la neutralité au nom de la liberté d’expression et d’entreprendre. Mais cette notion est brandie à tout bout de champ en y amalgamant beaucoup de concepts d’origines variées.

    Évidemment, ça fait partie de l’enfumage. Les FAIs ont tout intérêt à noyer leur cas en étendant au maximum la signification du mot neutralité. Parce que c’est eux qui sont très exactement accusés aujourd’hui de vouloir se faire des $$ en piétinant sans aucune vergogne le secret des correspondances de leurs clients. Le problème est clair, et simple. Tout le reste est de l’enfumage.

    > Et en tous cas, il est trompeur de continuer à véhiculer l’image d’un réseau idiot qui doit absolument être dépourvu de la moindre intelligence pour qu’Internet continue à fonctionner.

    Il ne s’agit pas exactement de véhiculer l’image de tuyaux stupides, juste de dire qu’un routeur ça doit se contenter de router, et que ça n’a pas le droit d’ouvrir les colis que ça achemine et de regarder ce qu’il y a dedans. Et si le droit actuel n’est pas assez clair, alors il faut une loi pour le préciser explicitement. Et c’est justement une telle loi que les FAI et les Cisco veulent à tout prix éviter : amusant qu’un lobby pour une fois lobbyfie pour… qu’il n’y ait pas de loi.

    > Par exemple, personne n’attaque le postulat essentiel du rapport sur la neutralité qui est la problématique de congestion des réseaux.

    Si: certains l’ont très exactement fait (cf le doc précédemment mentionné) en expliquant clairement le but de cette manœuvre basée sur un postulat bidon destiné à influencer le législateur.

    > Cisco s’en servait il y a dix ans en annonçant l’exaflood pour vendre du matériel.

    Et ils continuent.

    > Néanmoins, là où l’article va dans le bon sens, c’est qu’il commence à esquisser l’idée qu’il n’est nul besoin de créer des législations spécifiques à Internet. La plupart des principes légaux existants et même des pratiques policières peuvent être transposer avec un minimum d’ajustement. C’est ça le vrai message.

    Non. Attention : rien ne dit que le droit actuel soit suffisant. Tout en la matière est toujours question d’interprétation. On peut toujours rêver que le droit actuel suffit, mais c’est un pari risqué. Tiens, question : Free n’aurait pas par hasard acheté des routeurs Cisco faisant du DPI? Et ils font quoi avec?
    Donc, le cas échéant, elle sert à quoi la loi actuelle?

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • eberkut le 11 août 2010 - 9:10 Signaler un abus - Permalink

    > Le routage par DPI n’est pas acceptable. En revanche si une machine vérifie l’absence de malware ou de spams dans un trafic, il n’y a pas atteinte au secret des correspondances : cette machine ne connaît qu’une “signature” et c’est juste cela qu’elle va chercher en restant ‘aveugle’ au reste du contenu. Et ce ‘cela’ n’est à l’évidence pas du ressort de la correspondance privée puisqu’injecté par un tiers indésirable.

    La DPI ne fait que rechercher une signature qui permet de déterminer le type de trafic indépendamment des 5-tuples (ip source, ip destination, port source, port destination, état dans la machine à état TCP) utilisés habituellement. Quand j’applique un antispam ou un IDS au niveau de l’ISP est-ce que je fais pour autant de l’atteinte au secret des correspondances ? L’origine (tiers indésirable ou pas) du trafic n’a pas d’importance, d’ailleurs je ne vois pas comment on le déciderait a priori avant la moindre analyse.

    > Et puis conceptuellement, utiliser les couches hautes pour gérer la couche 3 c’est juste un peu hérétique quand même.

    http://tools.ietf.org/html/rfc5575 sans parler des capacités de reroutage de n’importe quel firewall à partir d’une règle quelconque.

    L’ingénierie réseau n’est pas une religion.

    > La chose que les gens doivent se demander est la suivante : depuis des années le trafic augmente, et depuis des années la taille des tuyaux augmente. Et tout va bien. Et là, soudainement, c’est plus possible. Tout d’un coup comme ça, on ne peut plus augmenter la taille des tuyaux. Donc ça va saturer. Etrange non?

    Après la bulle Internet, il y a une forte surcapacité qui a permis avec l’avancement de la technologie et le développement des infrastructures techniques en termes de couverture d’augmenter le débit utile pour les utilisateurs finaux. On arrive effectivement au bout de cette surcapacité sans que de nouveaux investissements aient forcément été réalisés et entre temps le marché est devenu mature et les marges se sont réduites. D’où la recherche de nouvelles sources de revenus pour financer les évolutions d’infrastructure et le forcing pour pouvoir faire du network management agressif en attendant ou pour éviter d’investir. Ce que je soulignais, c’est qu’il y a des solutions alternatives ou supplémentaires à simplement l’augmentation de capacité. D’autant plus que cette augmentation n’est pas forcément possible ou ne le sera pas ad vitam aeternam (la technologie ne le permettant pas).

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • Astrid Girardeau le 11 août 2010 - 10:43 Signaler un abus - Permalink

    @eberkut

    Dans le fond, je suis d’accord sur la majorité des points. Car je ne dis pas que la QoS et le DPI sont par nature inutiles et mauvais (efficacité sur des critères objectifs, etc.). Il n’y a pas à rejeter a priori l’outil. Mais bien certains usages. Par exemple l’analyse de paquets pour juger de la licité du contenu. Et on retombe sur la responsabilité des FAI + le secret des correspondances. (Prévu de le détailler dans d’autres articles à venir, j’aurai effectivement peut-être dû le faire un peu plus ici)
    De même, oui le filtrage est avant tout inefficace, coûteux, disproportionné. Et pourtant ARJEL : DPI suggéré pour bloquer un seul site (+ confusion registrar/hébergeur). Et pourtant Hadopi. Et pourtant Loppsi (alors que les policiers eux-même disent que ça sera inefficace, et que les moyens doivent se concentrer sur les sources). Ici, il ne s’agissait pas de revenir sur ces points, mais de l’aborder à nouveau via l’angle vie privée + responsabilité des FAI.
    De même, je ne dis pas que l’obligation de neutralité sur Internet empêche la création de services managés. Mais souligne le cadre des débats. Parle t-on de neutralité du net ou des réseaux.

    Astrid.

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • Leo le 11 août 2010 - 17:57 Signaler un abus - Permalink

    @eberkut

    > On arrive effectivement au bout de cette surcapacité sans que de nouveaux investissements aient forcément été réalisés et entre temps le marché est devenu mature et les marges se sont réduites. D’où la recherche de nouvelles sources de revenus pour financer les évolutions d’infrastructure et le forcing pour pouvoir faire du network management agressif en attendant ou pour éviter d’investir. Ce que je soulignais, c’est qu’il y a des solutions alternatives ou supplémentaires à simplement l’augmentation de capacité. D’autant plus que cette augmentation n’est pas forcément possible ou ne le sera pas ad vitam aeternam (la technologie ne le permettant pas).

    On approche de la fin de la démonstration :-)
    supposons que l’on soit arrivés à l’instant t0 à une taille maximum de tuyaux (limitée pour une raison x ou y, peu importe laquelle)
    solution 1 : les tuyaux restent stupides, le traffic augmente, la saturation arrive à t0 + t1
    solution 2 : on fait de la QoS (peu importe “qui” fait la classification), le trafic augmente : la réalité est que la saturation arrivera à t0 + t2, où t2 > t1. La QoS ne peut pas faire de miracles.
    Le tout est : combien vaut t2 – t1 … On ne fait que reculer pour mieux sauter.

    Donc : Cisco peut continuer avec son joli graphique : la réalité est qu’on ne peut échapper à l’augmentation de la taille des tuyaux. QoS ou pas. (sauf à considérer que la QoS soit destinée à tendre asymptotiquement vers une usine à trasher les paquets:-)

    Ensuite, dans l’hypothèse QoS, deux cas :
    cas 1 : c’est l’utilisateur qui fait la classification (son appli sait ce qu’elle doit écrire dans les headers). Les FAI n’y gagnent rien financièrement ( sauf à produire des offres saucissonnées par type d’usage, ce qui serait sans doute noyé dans la diversité des types d’usages familiaux). Le secret des correspondances des utilisateurs est respecté.
    cas 2: c’est le routeur Cisco qui fait la classification. Les FAI peuvent espérer en tirer des revenus supplémentaires. Le secret des correspondances des utilisateurs n’est pas respecté.

    Dans tous les cas la QoS n’est pas une alternative, mais seulement une solution d’attente.

    Dans le cas 2 -immoral- les FAI “peuvent” réinjecter leurs gains dans une augmentation de tailles des tuyaux.

    Combien auront préalablement coûté les super routeurs? Et combien aurait coûté une augmentation de taille de tuyaux permettant de ne pas avoir à acheter ces super routeurs?

    Une chose est certaine : Cisco a tout intérêt à vendre sa techno, et le gouvernement chinois a tout intérêt à l’utiliser.
    Pour les FAI, c’est moins clair.

    Dans une version américaine : soit c’est l’utilisateur, soit c’est youtube qui paient l’augmentation de taille des tuyaux.

    Mais, dans une version plus française, on peut aussi considérer que l’état peut investir dans une infrastructure qui est un bien commun national ce qui serait sans doute le meilleur moyen de garantir une non discrimination de deux points de vue : accès pour tous, et accès à tous les contenus.

    (Et puis, quand même, vouloir faire de la QoS super cartésienne intelligente et chiadée sur des réseaux qui s’appuient dans le fond sur un protocole aléatoire, je trouve que c’est conceptuellement inesthétique.)

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • Philippe D le 12 août 2010 - 14:35 Signaler un abus - Permalink

    Je crois que l’article différencie bien les questions posées.
    Or, si on est conscient que Google et autres ne veulent pas transformer le monde en coopérative ouvrière de production, il y a un enjeu transversal aux questions évoquées:
    - Quel contrôle citoyen sur les puissances du web?

    Quant à la responsabilité, pour prendre une métaphore: les sociétés d’autoroutes sont-elles responsables du trafic de drogue qu’elles facilitent?

    Je crois que dans ce domaine, à partir de vraies questions, le mic-mac législatif n’est pas que le fruit de l’incompétence. Il y a bien des forces économiques qui contribuent à brouiller les pistes au nom d’une conception politique partagée du libéralisme.

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
  • tueursnet le 13 août 2010 - 17:13 Signaler un abus - Permalink

    Vous croyez y être, mais vous n’y êtes pas. Vous ne croyez pas y être, mais si, vous y êtes.
    Internet est le lieu de toutes les médisances, nuisances et vengeances en tous genres.
    A l’heure du numérique, les pendules juridiques n’indiquent toujours pas la même heure.
    Décalage qui peut vous couter très cher, si vous vous baladez en étant persuadé qu’il n’y a aucune raison pour que quelqu’un vous plante un couteau dans le dos…
    C’est pourtant ce qui arrive tous les jours sous nos yeux parce que les visages sont masqués et les messages non signés.
    Tout est virtuel, à part les larmes ou le sang, qu’ils font couler…
    Vous pouvez toujours faire appel à des nettoyeurs sur le web, qui peuvent riposter en menaçant, en noyant ou en étouffant vos plus proches ennemis.
    Mais le plus court chemin reste : la bombe ou la tombe ?

    http://www.tueursnet.com/index.php?journal=Balle%20de%20Webmaster

    • Vous aimez
    • Vous n'aimez pas
    • 0
    Lui répondre
9 pings

Derniers articles publiés