BloguesMarie D. Martel

Une conception subjective du monde à travers Google mais seulement pour 5 ans encore

Dans un article paru sur Forbes, et repris sur Internet Actu cette semaine, on annonce que «Facebook et Google devraient avoir complètement disparu d’ici 5 ans.» Si on pense à Google, cette mort annoncée pourrait aussi entraîner, dans la foulée, la fin d’une certaine conception du monde véhiculée par le moteur de recherche.

D’abord, pourquoi Google, ou son vis-à-vis Facebook, pourraient-ils mourir d’ici 5 ans ? La raison invoquée par Eric Jackson est la suivante :

ce qui caractérise les entreprises de la nouvelle génération, c’est qu’elles considèrent le mobile comme le premier lieu (voire le lieu exclusif) de leur épanouissement. Elles se conçoivent comme des applications, pas comme des sites web. Or, selon Jackson « Il n’y aura pas de web 3.0, parce que le web est mort. » Pire, les entreprises des deux premières générations [comme Google et Facebook] semblent incapables de s’adapter à ce nouveau paradigme [celui du mobile et des applications].

Mais la disparition de l’empire Google, tel qu’on le connaît, pourrait aussi représenter une opportunité idéologique dans la mesure où une nouvelle vision du monde accompagnerait les dispositifs émergents qui sont appelés à lui succéder. Cette situation serait avantageuse puisque le système de croyances et de valeurs mis en place par la fréquentation de Google aurait, actuellement, un impact inquiétant sur notre conception de la réalité.

Dans un article intitulé Mind Control and the Internet, paru à l’enseigne du New York Review of Books l’an dernier, Sue Halpern reprend l’argument selon lequel Google filtre les résultats et fait en sorte que les requêtes réalisées sur le moteur de recherche reflète le profil de celui qui les produit. Après quelques tentatives, l’algorithme de Google s’adapte aux préférences et aux goûts de l’utilisateur. Ce faisant, il optimise les résultats en personnalisant l’expérience. Du même coup, cela signifie qu’il biaise le processus de recherche d’information.

Google biaise le processus de recherche d’information et, à certains égards, il trompe les attentes des utilisateurs. En effet, lorsque nous effectuons une recherche, nous avons tendance à penser que les résultats ont un caractère universel, valant pour toute personne qui composerait cette même requête considérant la neutralité d’un processus que l’on présuppose standardisé. Or, il n’en est rien. Et, les conséquence de ce subjectivisme, qui passe pour correspondre à la réalité du monde, seraient lourdes d’un point de vue politique et idéologique.

The search process, in other words, has become “personalized,” which is to say that instead of being universal, it is idiosyncratic and oddly peremptory. “Most of us assume that when we google a term, we all see the same results—the ones that the company’s famous Page Rank algorithm suggests are the most authoritative based on other page’s links,” Pariser observes. With personalized search, “now you get the result that Google’s algorithm suggests is best for you in particular—and someone else may see something entirely different. In other words, there is no standard Google anymore.” It’s as if we looked up the same topic in an encyclopedia and each found different entries—but of course we would not assume they were different since we’d be consulting what we thought to be a standard reference.

Ces recherches entretiennent une fausse conscience, renforce une vision réductrice du monde laquelle nous aliène et nous conforte dans nos propres croyances à l’abri des alternatives, des points de vue différents, de la diversité idéologique :

Among the many insidious consequences of this individualization is that by tailoring the information you receive to the algorithm’s perception of who you are, a perception that it constructs out of fifty-seven variables, Google directs you to material that is most likely to reinforce your own worldview, ideology, and assumptions. Pariser suggests, for example, that a search for proof about climate change will turn up different results for an environmental activist than it would for an oil company executive and, one assumes, a different result for a person whom the algorithm understands to be a Democrat than for one it supposes to be a Republican. (One need not declare a party affiliation per se—the algorithm will prise this out.) In this way, the Internet, which isn’t the press, but often functions like the press by disseminating news and information, begins to cut us off from dissenting opinion and conflicting points of view, all the while seeming to be neutral and objective and unencumbered by the kind of bias inherent in, and embraced by, say, the The Weekly Standard or The Nation.

Selon Sue Halpen, en s’appuyant sur les travaux d’Elie Pariser, l’enjeu de ces algorithmes qui forment les miroirs biaisés de nos idées, codifiant une idéologie inerte et consentante, l’illusion d’une grande narration que nous ne partageons qu’avec nous-mêmes, c’est celui de la vitalité démocratique :

This is Pariser’s point exactly, and his concern: that by having our own ideas bounce back at us, we inadvertently indoctrinate ourselves with our own ideas. “Democracy requires citizens to see things from one another’s point of view, but instead we’re more and more enclosed in our own bubbles,” he writes. “Democracy requires a reliance on shared facts; instead we’re being offered parallel but separate universes.

Le paradigme mobile est aussi voué à constituer des univers séparés, mais à la différence de l’oeuvre actuelle de Google, cette division sera explicitée. Les utilisateurs seront mieux équipés pour en identifier les manifestations et les présupposés; ils seront en mesure de reconnaître que ces contenus sont, par eux, construits et, qu’en raison de cela, ils leur ressemblent. Ils pourront assumer la relativité et la facticité des mondes produits par leurs systèmes d’information et seront peut-être moins aliénés dans leur relation aux autres.

Nous pourrons admettre plus aisément alors que nous vivons dans des mondes différents et qu’il nous faut travailler à des occasions de rencontres et de décloisonnements, contextualiser et dialoguer pour se reconnaître et faire cohabiter nos versions en vue de partager un récit commun, fusse-t-il, à plusieurs voix.

Les critiques de Google

La critique que j’ai évoquée remettait en question la conception réaliste de Google en tant que représentation neutre et objective du territoire numérique et, partant, du monde. Il existe un autre critique du réalisme de Google qui découle de l’utilisation fragmentaire qui en est faite : souvent en se limitant aux premières pages et en assumant que ce qui n’y apparaît pas n’existe pas ou n’est pas important alors que l’on devrait savoir que Google n’indexe qu’une partie du web. La critique ici vise Google en tant qu’interface de la réalité totale : « Google has become the main interface for our whole reality. To be precise: With the Google interface the user gets the impression that the search results imply a kind of totality. In fact, one only sees a small part of what one could see if one also integrates other research tools » (Report on dangers and opportunities posed by large search engines, particularly Google, Maurer, Balke, Kappe, et als, 2007).

Voici d’autres critiques standards qui sont adressées à Google :

  • Le manque de transparence dans les résultats obtenus grâce à son algorithme ne permet pas une évaluation rigoureuse de ce produit.
  • Il est parfois difficile de comprendre comment chaque requête est interprétée.
  • Le contrôle sur la recherche d’information est relativement limité ( si on le compare à d’autres interfaces de recherche avancée)
  • L’immense quantité de résultats contribue à la surabondance de l’information.
  • Il ne mène pas toujours vers des ressources fiables.
  • La présence de publicité stratégiquement disposée dans la page suggère que les intentions de l’organisation sont bien de nature commerciale plutôt que publique.
  • Il conduit souvent à une sous-utilisation des bonnes ressources qui sont plus profondes et des bases de données.
  • Les cas de censure (notamment en Chine) sont patents.
  • Les conditions de la protection de la vie privée suscitent des questions et des débats – on pense aux tribulations des Google Cars, mais surtout à la décision récente de partager les données entre les différents services de la compagnie.