Le risque de la personnalisation du web

Le 27 juin 2011

Le moteur de recherche de Google n'est plus universel : les résultats sont remontés en fonction de vos précédentes requêtes.

La lecture de la semaine, il s’agit d’une petite partie d’un article paru dans la New York Review of Books. Intitulé “Mind Control and the Internet” (Internet et le contrôle de l’esprit), l’article de Sue Halpern consiste, comme c’est le cas la plupart du temps dans la New York Review of books, en le développement d’une thèse qui s’appuie sur la critique de plusieurs livres récemment parus.

Je n’ai gardé qu’un passage de ce long article, celui où Sue Halpern recense le livre de Eli Pariser, The Fliter Bubble : What the Internet Is Hiding from You. Ce livre montre notamment que depuis décembre 2009, Google vise à donner à toute requête effectuée sur le moteur de recherche un résultat qui corresponde au profil de la personne qui fait la recherche. Cette correspondance s’applique à tous les usagers de Google, même si elle ne prend effet qu’après plusieurs recherches, le temps qu’il faut à l’algorithme Google pour évaluer les goûts de l’usager.

The Filter BubbleEn d’autres mots, le processus de recherche est devenu personnalisé. Ce qui signifie qu’il n’est plus universel, mais idiosyncrasique et impératif. “Nous pensons tous que quand nous googlons un mot, explique Pariser, tout le monde a les mêmes résultats – ceux que le fameux algorithme de Google, PageRank considère comme faisant autorité du fait qu’un grand nombre de liens pointe vers eux.” Avec la recherche personnalisée, poursuit Pariser “vous obtenez le résultat que l’algorithme de Google pense être le plus adapté à vous en particulier – mais quelqu’un d’autre verra apparaître d’autres résultats. En d’autres mots, il n’y a plus de standard Google”.

Sue Halpern fait une analogie éclairante : c’est comme si en cherchant le même terme dans une encyclopédie, chacun trouvait des entrées différentes – mais personne ne s’en apercevant car chacun étant persuadé d’obtenir une référence standard.

Parmi les multiples conséquences insidieuses de cette personnalisation, il en est une qui inquiète plus particulièrement Sue Halpern, elle explique : “en adaptant l’information à la perception que l’algorithme a de ce que vous êtes, une perception qui est construite à partir de 57 variables, Google vous adresse un matériau qui est susceptible de renforcer votre propre vision du monde et votre propre idéologie. Pariser raconte par exemple qu’une recherche sur les preuves du changement climatique donnera des résultats différents à un militant écologiste et au cadre d’une compagnie pétrolière, et donnera aussi un résultat différent à quelqu’un dont l’algorithme suppose qu’il est démocrate, et à un autre dont l’algorithme suppose qu’il est républicain (évidemment, pas besoin de déclarer qu’on est l’un ou l’autre, l’algorithme le déduit de nos recherches). De cette manière, poursuit Sue Halpern, l’internet, qui n’est pas la presse, mais qui souvent fonctionne comme la presse en disséminant les informations, nous préserve des opinions contradictoires et des points de vue qui entrent en conflit avec les nôtres, tout en donnant l’impression d’être neutre et objectif, débarrassé de tous les biais idéologiques qui encombrent le traitement de l’information dans la presse traditionnelle.”

L’exemple du débat sur le changement climatique

Et Sue Halpern de citer une étude récente (.pdf) menée entre 2001 et 2010 au sujet du changement climatique. Cette étude montrait qu’en 9 ans, alors qu’un consensus scientifique s’établissait sur le changement climatique, la part des républicains pensant que la terre se réchauffait passait de 49 % à 29 %, celle des démocrates de 60% à 70 %, comme si les groupes recevaient des messages différents de la science, avec pour conséquence de rendre impossible tout débat public. Et pour Sue Halpen, c’est ce que suggère ce que Elie Pariser raconte sur Google : si ce sont nos propres idées qui nous reviennent quand on fait une recherche, on risque de s’endoctriner nous-mêmes, avec notre propre idéologie. Pariser explique :

La démocratie requiert du citoyen qu’il voit le problème du point de vue de l’autre, et nous, nous sommes de plus en plus enfermés dans notre bulle. La démocratie requiert de s’appuyer sur des faits partagés, et nous, on nous offre des univers parallèles, mais séparés.

Sue Halpern poursuit sa diatribe : “Il n’est pas compliqué de voir ce à quoi cela nous mènerait – toute organisation dotée d’un agenda (un lobby, un parti politique, une entreprise, un Etat…) pourrait noyer la chambre d’écho avec l’information qu’elle veut diffuser. (Et dans les faits, c’est ce qui s’est produit à droite avec le changement climatique). Qui s’en rendrait compte ?”

Et Sue Halpern de citer les propos que Tim Berners-Lee, l’inventeur du Word Wide Web, tenait récemment dans Scientific American :

Le web tel que nous le connaissons est menacé… Parmi ses habitants qui connaissent le plus grand succès, certains ont commencé à pervertir ses principes… Des États – totalitaires tout autant que démocratiques – contrôlent les comportements en ligne, mettant en danger les droits de l’homme.

Billet initialement publié sur InternetActu

Image Flickr CC PaternitéPas d'utilisation commerciale melanie.phung

Laisser un commentaire

Derniers articles publiés