Dans un article paru sur Forbes, et repris sur Internet Actu cette semaine, on annonce que «Facebook et Google devraient avoir complètement disparu d’ici 5 ans.» Si on pense à Google, cette mort annoncée pourrait aussi entraîner, dans la foulée, la fin d’une certaine conception du monde véhiculée par le moteur de recherche.
D’abord, pourquoi Google, ou son vis-à-vis Facebook, pourraient-ils mourir d’ici 5 ans ? La raison invoquée par Eric Jackson est la suivante :
ce qui caractérise les entreprises de la nouvelle génération, c’est qu’elles considèrent le mobile comme le premier lieu (voire le lieu exclusif) de leur épanouissement. Elles se conçoivent comme des applications, pas comme des sites web. Or, selon Jackson « Il n’y aura pas de web 3.0, parce que le web est mort. » Pire, les entreprises des deux premières générations [comme Google et Facebook] semblent incapables de s’adapter à ce nouveau paradigme [celui du mobile et des applications].
Mais la disparition de l’empire Google, tel qu’on le connaît, pourrait aussi représenter une opportunité idéologique dans la mesure où une nouvelle vision du monde accompagnerait les dispositifs émergents qui sont appelés à lui succéder. Cette situation serait avantageuse puisque le système de croyances et de valeurs mis en place par la fréquentation de Google aurait, actuellement, un impact inquiétant sur notre conception de la réalité.
Dans un article intitulé Mind Control and the Internet, paru à l’enseigne du New York Review of Books l’an dernier, Sue Halpern reprend l’argument selon lequel Google filtre les résultats et fait en sorte que les requêtes réalisées sur le moteur de recherche reflète le profil de celui qui les produit. Après quelques tentatives, l’algorithme de Google s’adapte aux préférences et aux goûts de l’utilisateur. Ce faisant, il optimise les résultats en personnalisant l’expérience. Du même coup, cela signifie qu’il biaise le processus de recherche d’information.
Google biaise le processus de recherche d’information et, à certains égards, il trompe les attentes des utilisateurs. En effet, lorsque nous effectuons une recherche, nous avons tendance à penser que les résultats ont un caractère universel, valant pour toute personne qui composerait cette même requête considérant la neutralité d’un processus que l’on présuppose standardisé. Or, il n’en est rien. Et, les conséquence de ce subjectivisme, qui passe pour correspondre à la réalité du monde, seraient lourdes d’un point de vue politique et idéologique.
The search process, in other words, has become “personalized,” which is to say that instead of being universal, it is idiosyncratic and oddly peremptory. “Most of us assume that when we google a term, we all see the same results—the ones that the company’s famous Page Rank algorithm suggests are the most authoritative based on other page’s links,” Pariser observes. With personalized search, “now you get the result that Google’s algorithm suggests is best for you in particular—and someone else may see something entirely different. In other words, there is no standard Google anymore.” It’s as if we looked up the same topic in an encyclopedia and each found different entries—but of course we would not assume they were different since we’d be consulting what we thought to be a standard reference.
Ces recherches entretiennent une fausse conscience, renforce une vision réductrice du monde laquelle nous aliène et nous conforte dans nos propres croyances à l’abri des alternatives, des points de vue différents, de la diversité idéologique :
Among the many insidious consequences of this individualization is that by tailoring the information you receive to the algorithm’s perception of who you are, a perception that it constructs out of fifty-seven variables, Google directs you to material that is most likely to reinforce your own worldview, ideology, and assumptions. Pariser suggests, for example, that a search for proof about climate change will turn up different results for an environmental activist than it would for an oil company executive and, one assumes, a different result for a person whom the algorithm understands to be a Democrat than for one it supposes to be a Republican. (One need not declare a party affiliation per se—the algorithm will prise this out.) In this way, the Internet, which isn’t the press, but often functions like the press by disseminating news and information, begins to cut us off from dissenting opinion and conflicting points of view, all the while seeming to be neutral and objective and unencumbered by the kind of bias inherent in, and embraced by, say, the The Weekly Standard or The Nation.
Selon Sue Halpen, en s’appuyant sur les travaux d’Elie Pariser, l’enjeu de ces algorithmes qui forment les miroirs biaisés de nos idées, codifiant une idéologie inerte et consentante, l’illusion d’une grande narration que nous ne partageons qu’avec nous-mêmes, c’est celui de la vitalité démocratique :
This is Pariser’s point exactly, and his concern: that by having our own ideas bounce back at us, we inadvertently indoctrinate ourselves with our own ideas. “Democracy requires citizens to see things from one another’s point of view, but instead we’re more and more enclosed in our own bubbles,” he writes. “Democracy requires a reliance on shared facts; instead we’re being offered parallel but separate universes.
Le paradigme mobile est aussi voué à constituer des univers séparés, mais à la différence de l’oeuvre actuelle de Google, cette division sera explicitée. Les utilisateurs seront mieux équipés pour en identifier les manifestations et les présupposés; ils seront en mesure de reconnaître que ces contenus sont, par eux, construits et, qu’en raison de cela, ils leur ressemblent. Ils pourront assumer la relativité et la facticité des mondes produits par leurs systèmes d’information et seront peut-être moins aliénés dans leur relation aux autres.
Nous pourrons admettre plus aisément alors que nous vivons dans des mondes différents et qu’il nous faut travailler à des occasions de rencontres et de décloisonnements, contextualiser et dialoguer pour se reconnaître et faire cohabiter nos versions en vue de partager un récit commun, fusse-t-il, à plusieurs voix.
Les critiques de Google
La critique que j’ai évoquée remettait en question la conception réaliste de Google en tant que représentation neutre et objective du territoire numérique et, partant, du monde. Il existe un autre critique du réalisme de Google qui découle de l’utilisation fragmentaire qui en est faite : souvent en se limitant aux premières pages et en assumant que ce qui n’y apparaît pas n’existe pas ou n’est pas important alors que l’on devrait savoir que Google n’indexe qu’une partie du web. La critique ici vise Google en tant qu’interface de la réalité totale : « Google has become the main interface for our whole reality. To be precise: With the Google interface the user gets the impression that the search results imply a kind of totality. In fact, one only sees a small part of what one could see if one also integrates other research tools » (Report on dangers and opportunities posed by large search engines, particularly Google, Maurer, Balke, Kappe, et als, 2007).
Voici d’autres critiques standards qui sont adressées à Google :
- Le manque de transparence dans les résultats obtenus grâce à son algorithme ne permet pas une évaluation rigoureuse de ce produit.
- Il est parfois difficile de comprendre comment chaque requête est interprétée.
- Le contrôle sur la recherche d’information est relativement limité ( si on le compare à d’autres interfaces de recherche avancée)
- L’immense quantité de résultats contribue à la surabondance de l’information.
- Il ne mène pas toujours vers des ressources fiables.
- La présence de publicité stratégiquement disposée dans la page suggère que les intentions de l’organisation sont bien de nature commerciale plutôt que publique.
- Il conduit souvent à une sous-utilisation des bonnes ressources qui sont plus profondes et des bases de données.
- Les cas de censure (notamment en Chine) sont patents.
- Les conditions de la protection de la vie privée suscitent des questions et des débats – on pense aux tribulations des Google Cars, mais surtout à la décision récente de partager les données entre les différents services de la compagnie.
Votre article me rappelle la triste disparition du moteur altavista qui était le compétiteur, à l’époque (mi 1990, début 2000) du modèle de recherches effectuées par catégorie. Cette technologie a complètement disparu lorsque altavista a été acheté par Yahoo! et les expressions booéliennes sur google ne fonctionnent pas – à moins qu’on laisse une chance au robot et qu’on veuille toujours plus admettre que le problème est du côté de l’utilisateur. Cela dit, je me demande si ce n’est pas exagéré de prétendre qu’un google n’aurait qu’un seul algorythme, eux qui prétendent changer régulièrement leurs algorythmes de manière à ce que les développeurs informatiques ou de contenus ne puissent pas être en mesure de fausser les résultats de recherche impunément – au départ, on interdisait, par exemple, les mots écrits blanc sur blanc qui servaient a ajouté des mots-clés au contenu artificiellement, puis ont s’est attaqué aux mots-clés identifiés dans le méta-contenu () pour éviter les doublons, triplons, de mots (culture, culturels, culturelles, etc.) C’est dernière tentative semble avoir été abandonnée, puisque maintenant il est clair que les services automatisés (wordpress, cnw, etc.) ont préséance sur le contenu vieille école – les page html , par opposition aux pages php / asp, qui peut-être, ont été développées dans le contexte où les publicités étaient payées selon le nombre de « hits » qu’une page pouvait produire – une page comme celle-ci que nous consultons, peut sans doute produire 100, 1000, voir 5000 hits, par opposition à une page html qui en produirait 1, 5 ou gros maximum 10. Tout ça pour dire que je crois que cette critique vise surtout à alimenter l’émergence de nouveaux joueurs sur le marché, qui ne peuvent tout simplement pas rivaliser avec google ou facebook – il faudra du temps avant que la technologie et la litéracité se démocratise sur ces appareils, à mon avis, avant de pouvoir commencer à écire le post-mortem des sites les plus populaires mondialement – nonobstant que les pays en développement auront sans doute accès plus rapidement aux technologies mobiles qu’aux ordinateurs physiques. La question étymologique que vous posez est également extrêmement intéressante et nécéssite une bonne réflexion: pour ce soir, disons que je me limite à demander tout haut, quelles sont les valeurs de ceux qui critiquent ce modèle dit ici subjectif? Ceux et celles qui veulent recoloniser l’Afrique, mais à ce coup ci, avec des mobiles plutôt que la bible?
Très intéressant billet, en tout cas à mon avis plus que celui d’Eric Jackson (l’histoire des technologies nous apprend au moins une chose : se méfier de tous ceux qui prétendent voir rayonner un nouveau paradigme qui évidemment abolirait tout ce qui le précède !!!).
Ce qui me frappe le plus dans cette critique de Google « biaiseur de la réalité » est qu’elle peut s’appliquer en fait à tous les outils internetiens qui rencontrent un succès auprès du public. La raison en est simple : le succès appelle l’investissement, et l’investissement appelle un retour sur investissement, en même temps qu’il génère le réflexe marketing d’enfermement de la clientèle dans la niche de rentabilité ainsi créée. Google à ses débuts pouvait être vu comme un moyen neutre et performant d’obtenir une information, mais cette neutralité ne pouvait résister à son propre succès. On connait les critiques au fond similaires adressées à Facebook, et j’imagine qu’on peut et pourra les dupliquer pour toute entreprise à succès.
C’est là que je souris quand j’entends parler des entreprises qui choisissent la voie du mobile et de l’application, comme d’un eldorado qui conduirait à davantage de lisibilité … Je suis persuadé que nous sommes à une étape où les applis mobiles se cherchent, et cherchent surtout la « killer app » qui emportera l’adhésion de nos contemporains, avant évidemment d’entrer dans le même cycle d’investissement-marketing.
Bref, les batailles internetiennes se rient des considérations citoyennes, sauf lorsqu’elles mettent en jeu des acteurs mûs par le seul intérêt public et ne tirant aucun profit/dividende financier de leur investissement.
Les rapports complexes qu’entretient Internet avec le débat citoyen et le discernement critique ne peuvent JAMAIS passer par un de ces outils/applis proposés à notre convoitise. Au contraire, j’aurais tendance à affirmer que toute avancée cognitive passe nécessairement par l’appropriation massive de tous ces outils successivement glorifiés, accompagnée impérativement par une posture critique de ces outils. Bref, qu’importent les outils, si les hommes et les femmes réfléchissent un peu. Banal, non ?
Il y a quelques années, j’ai eu mon petit choc en participant (démocratie participative oblige), à un débat de style Oxford organisé par l’UNESCO au sujet de l’éducation. En substance, on à très peu parler d’éducation, mais plutôt de la fantastique opportunité d’affaires que représentait le continent africain pour ceux et celles qui désiraient se lancer en affaires dans le rayon des TIC! (matériel dure et applications: le peuple africain, désormais équipé de téléphones cellulaires pourrait élargir leur réseau et faire des affaires dans un plus grand rayon! Vont même pouvoir se payer de l’e-université avec un peu de chance. L’année dernière, si ma mémoire est bonne, le premier ministre canadien à annoncer que désormais les subventions aux entreprises TIC seront tributaires de leur capacité à exporter et implanter ces nouvelles technologies… sur le continent africain. Évidemment, j’aurais pensé que l’UNESCO avait mieux à faire que se pencher sur la question de l’Éducation dans une optique de faisabilité économique, gagnant-gagnant pour le Monde entier (y compris, peut-être les africains(!?!), mais bon.
Pour participer à de tels débats, je vous invite à joindre notre petite communauté de « on ne porte surtout pas de jugement de valeurs, » sur : http://www.wsis-community.org/ .