Il se tenait hier une table ronde sur la neutralité du Net au Sénat. Le débat, qui pouvait être suivi depuis le site du Sénat en Streaming, il était composé de 2 tables rondes :
- une sur la neutralité des réseaux
- une autre sur la neutralité des contenus
… ça laissait augurer des choses assez agaçantes relatives aux contenus, ça n’a pas manqué. Nous étions restés sur la consultation de l’ARCEP (voir les vidéos) où le secrétariat d’Etat à l’Economie Numérique concluait à une quasi neutralité et posait la question de la liberté d’accès aux contenus légaux. Un mot lourd de sens qui ouvre la boite de Pandorre, à savoir l’utilisation de technologies d’inspection de paquets en profondeur (Deep Packet Inspection) afin de faire de la reconnaissance de contenus pour « dépolluer Internet » comme certains aiment à le décrire.
La première table ronde sur la neutralité des contenus était comme à prévoir une franche rigolade. Jérémiades habituelles, le réseau est saturé, on va tous mourir, la création en premier… vous connaissez la suite, je me suis demandé à quel moment ils allaient demander la mise en place d’une vignette IPV4 pour dédommager l’industrie du disque du nombre d’iPod vendus dans le monde et qui ont tué les CD. Ce n’est qu’en conclusion de cette table ronde, que le mot de filtrage est lancé. Le terme à retenir, pas de nouveauté, c’est les contenus « légaux ».
La seconde table ronde, tout de suite plus sérieuse avec les représentants de l’INRIA ou de l’UFC Que Choisir, était tout de suite d’un tout autre tenant. Bernard Benhamou a fait quelques rappels assez bienvenus sur la nature du réseau Internet, pareil du côté de l’INRIA, et Edouard Barreiro de l’UFC Que Choisir a, comme on s’y attendait tenu un discours limpide sur les dangers du filtrage et les dangers d’un Internet à 2 vitesses, celui du riche et celui du pauvre, insistant lui même sur la fin (ironiquement?) sur la notion de contenus « légaux ».
Nathalie Kosciusko-Morizet est venue conclure et j’ai cru déceler dans ses conclusions quelque chose d’assez différent de ce qui en était sorti à l’ARCEP. Il semble que beaucoup de choses aient évoluées depuis le colloque de l’ARCEP et on nous a épargné le coup de l’Internet Quasi Neutre (et par définition, quasi pas neutre). NKM a par exemple fait remarquer fort justement que la thématique dissociant les contenus du réseau n’était peut-être pas une bonne approche et que si le réseau est neutre, alors on a même plus besoin de se demander si les contenus le sont. J’abonde personnellement en ce sens puisque déployer des technologies de reconnaissance de contenus c’est, par définition, rendre le réseau non neutre (en opposant une intelligence, restreint le routage des paquets, en y posant un critère qui n’impacte pas sur son propre bon fonctionnement mais sert des demandes de tiers).
Attention, ne nous enflammons pas, le filtrage reste au programme, les technologies de reconnaissance de contenus sont toujours autant portées par les ayants-droit et avec le nouveau petit cadeau à 25 patates, on se dit que ça finance largement le déploiement du DPI en coeur de réseau, que dans un excès de cynisme, ayants-droit et fournisseurs d’accès Internet vendraient sur abonnement pour contourner les problèmes de viol de correspondance qui demeurent un sérieux obstacle à sa généralisation.
Si légiférer sur la question de la neutralité du Net et sur les outils de reconnaissance de contenus par extension peut sembler séduisant pour Nathalie Kosciusko-Morizet qui l’a même proposé aux commissions., il me semble surtout vital de ne pas se voir mettre en place des technologies que l’on détournerai pour servir des intérêts privés. Nous avons surtout besoin d’acteurs forts.
Ce que j’ai entendu lors de ces débats m’a juste laissé pantois. Vu le niveau je ne pense pas que l’on puisse s’en sortir un jour.
Je n’ai pas tenu plus de 35 minutes, c’était trop pénible.
Ceux qui ont réussi a tenir plus longtemps ont tout mon respect.
Ça ressemble plutôt à un Office de Militellisation du Web Français.
Alors oui, c’est toujours les mêmes conneries mais n’oublions pas que chaque progrès est le bienvenue. Petit à petit, nous serons libres dans 90 ans (ça tombe bien, l’espérance de vie augmente).
L’espérance de vie en 2009 a augmenté oui.
Mais elle va rapidement baisser car une majorité de retraités ne pourra plus se payer de soins (baisse des pensions et privatisation de la santé).
Db
Le passif de ce gouvernement concernant le high tech est immense. Je ne suis plus prêt à leur donner le bénéfice du doute, c’est je pense une nouvelle pseudo consultation/table ronde pour nous prendre pour des cons.
Je suis d’accord : on ne peut accorder aucun crédit à une ministre qui, par devant, tente de faire ami-ami avec quelques représentants du Net français et qui, par derrière, laisse passer des trucs énormes comme le paquet télécom par ordonnance.
Ce gouvernement est, depuis le début, un théatre de Guignol (et de guignols), dont l’objectif est de divertir le bon peuple pendant que les vraies décisions se prennent dans l’arrière-boutique.
Db
« il me semble surtout vital de ne pas se voir mettre en place des technologies que l’on détournerai pour servir des intérêts privés »
très bien dit, et souhaitable, bien sûr, malheureusement, il me semble que c’est déjà en marche.
Je ne comprends pas pourquoi ce sujet arrive sur la table aujourd’hui.
Enfin, si je le sais très bien : c’est pour tenter de faire passer des mesures de régulation servant des intérêts privés et ce, à une époque où les fournisseurs de bande passante (FBP) se muent en fournisseurs de contenus et ne veulent donc pas que leurs abonnés (en tant que FBP) profitent de l’herbe plus fraîche qui est en face.
Tout le souci vient de là : l’Internet est un faire-valoir pour vendre des services captifs sur fond de … devinez quoi ? De propriété intellectuelle bien sûr !
Nous y revoilà ! Et on retrouve nos vieux démons et des raisons, toujours les mêmes d’être très pessimiste : M6 n’a-t-il pas avouer que les « ayant-droits » ne voulaient pas entendre parler de P2P légal pourtant seul dispositif respectant l’Internet dans sa nature distribuée.
Et si ces derniers cherchaient justement à tout faire pour mettre à mal l’Internet en favorisant les flux centralisés pour mieux invoquer les soucis de charge qui en résultent et pour mieux, donc, prôner quoi ? La régulation !
Db
Je n’aime pas le consensus qui s’établit autour de la notion de filtrage.
On se dit :
– ouf, le filtrage (par DPI) s’éloigne.
Et alors ? Croyez-vous que ce soit suffisant ?
Que nenni !
Qu’est-ce que le filtrage d’abord ?
Comment les acteurs autour de la table comprennent-ils cette notion ?
Hum ?
Je crains très fort qu’il y ait amalgame entre filtrage et régulation.
Dans la vie de tous les jours un barrage filtrant est avant tout un dispositif de régulation.
Un filtre à café n’est PAS un dispositif de régulation !
Et c’est dans ce dernier sens que le filtrage officie sur Internet, surtout PAS dans le premier !
Or, il semble que les acteurs le prennent dans le premier sens soit par mécompréhension soit par intérêt, bien entendu.
Sur Internet le filtrage est AVANT TOUT un dispositif de sécurité : il permet d’appliquer une politique de sécurité.
La régulation est un système qui, lui, vise à appliquer une politique de services.
Les 2 sont bien distincts dans l’esprit des FBP.
Or, là on parle filtrage alors qu’il faudrait mettre sur la table la régulation des trafics.
Les FBP appliquent la régulation depuis 10 à 15 ans maintenant.
Elle s’applique sur des protocoles voire sur des destinations (As essentiellement).
Techniquement ce n’est PAS nouveau !
Alors comment distinguer une bonne discipline (un modèle de régulation se nomme une discipline) d’une mauvaise discipline (servant des intérêts non-techniques) ?
Et si une loi imposait simplement aux FBP de publier leurs disciplines et leurs accords de peering ?
La loi impose bien aux fabricants de denrées alimentaires de publier leur composition !
Db