top of page
Rechercher
Photo du rédacteurAmbassadeur

Aurons-nous bientôt internet ? par Bertil Wicht

Dernière mise à jour : 2 mars 2021


Il y a des sujets de culture générale qui permettent à tout un chacun de briller lors d’une soirée Trivial Pursuit. Connaître la différence entre le Web et Internet n’est pas l’un deux. Au mieux peut-on tirer une carte qui fait référence à une invention du CERN en 1989 ou encore une autre libellée ainsi : “qui a inventé le Web ? ”, la réponse attendue étant Tim Berners Lee. Toutefois, dire que Berners Lee est l’inventeur du Web c’est comme dire que Christophe Colomb a découvert l’Amérique. Il est en effet difficile de découvrir un continent déjà peuplé et il en va de même pour le Web.


En faisant sa proposition initiale de système de gestion d’informations unifié pour le CERN, Tim Berners Lee s’est appuyé sur de nombreux travaux préexistants. On peut notamment citer le système Hypercard d’Apple ou l’Hypertexte de Ted Nelson, deux inventions qui permettaient de mettre en lien de l’information. Mais plutôt que de longs développements historiques sur qui a été le premier, arrêtons-nous plutôt sur ce qui était au commencement. À l’origine, il s’agissait d’information et de partage.


En effet, deux grandes idées ont inspiré Tim Berners Lee : collaborer et rassembler du savoir pour ensuite le diffuser. Cette ébauche de système répondait à une problématique du CERN et qui se retrouvait assurément dans d’autres organismes de cette taille ; il fallait consulter de multiples terminaux pour accéder aux informations et, en raison du tournus au sein des équipes, des informations essentielles se perdaient fréquemment. L’idée de Berners a donc naturellement eu le succès que l’on connait et s’est vite démocratisée. Le Web a ainsi permis la mise en relation d’informations tandis qu’internet est le réseau qui rend possible la transmission de ces informations, via des protocoles. La version démocratisée sera nommée a posteriori “Web 1.0”.


En ce temps-là, l’information se situait sur des pages statiques que l’on consultait de site en site. C’est à cette époque aussi que l’on voit se développer un système ouvert, que l’information circule, que les hackeurs la détournent et donc finalement qu’Internet tente de se réaliser. Idéalisons un peu le passé.

Au début des années 2000, les pages ne sont plus uniquement vectrices d’information et n’ont plus comme seule finalité d’être lues. Elles sont structurées pour recevoir du contenu de la part de l’utilisateur. C’est le « Web 2.0 ». Toutefois, le fait d’avoir une deuxième version du Web ne doit pas être compris comme une amélioration de celui-ci ; certains grincent des dents à son évocation en rétorquant que le Web 2.0 n’existe pas. Peut-être qu’il ne s’agit effectivement pas d’un changement de paradigme, mais on peut néanmoins être d’accord avec l’idée que cela a changé la manière avec laquelle on utilise internet. Divers sites ont émergé depuis les nouvelles possibilités de partage et de création de communautés, certains ont gagné la bataille contre leurs concurrents comme Reddit alors que d’autres ont sombré dans l’oubli comme Skyrock. Malgré un nombre de pages Web toujours grandissant, la majorité des utilisateurs ne se concentrent que sur quelques plateformes par un « effet réseau » difficile à contrecarrer.

Facebook, lieu d’échange entre amis bien connu, s’est aussi transformé en lieu d’information et même de vente et d’échange.


Si les quelques pionniers du Web aimaient aller découvrir les recoins du réseau, l’utilisateur lambda se concentre sur quelques sites seulement et le paysage du Web a dû s’adapter. Comme l’utilisateur ne se promène plus sur les pages des médias, les médias se sont mis à poster du contenu là où se trouvaient leurs lecteurs. Une course s’est alors ouverte afin de suivre les jeunes au gré des modes.

Le Web 2.0 a également introduit l’idée d’un Web personnalisé où chacun peut proposer constamment du contenu intéressant pour d’autres. Nous ne faisons pas ici la critique de la potentielle création d’une bulle informationnelle, comme défendue par divers auteurs, car il n’y a pas eu besoin d’Internet pour que des individus s’entourent d’autres individus et achètent des journaux dans la même mouvance de pensée que la leur. Ce qui doit cependant être relevé, c’est que, par le passé, s’abonner à tel ou tel journal en accord avec nos valeurs, se faisait sur une base volontaire tandis qu’à présent tout se passe dans les coulisses des plateformes, dont le modèle économique était basé sur une absence de transparence de leurs algorithmes. L’évolution plus récente a donc imposé un changement radical par rapport aux premières orientations. En effet, les grandes révolutions du Web 2.0 - et les acteurs qui y étaient associés - n’ont pas été à la hauteur des espérances. L’intelligence collaborative n’a pas eu le succès escompté : dans le cas de Wikipédia, la part des contributeurs est restée faible comparée à l’ampleur du projet, et d’autres projets d’intelligence distribuée peinent à avoir assez de participants. Les Big Data ? Elles restent dans le serveur de la plateforme qui les a générées entre le moment de la vente des données et leur utilisation pour le développement des produits. Et surtout, depuis que chaque entreprise est à même de générer une grande masse de données qu’elle est la seule à utiliser, en raison du nombre important d’utilisateurs, la vision d’un réseau internet global est devenue floue. Le réseau s’est de plus en plus fermé et balkanisé, avec peu d’accès aux données créées. Au cœur de cette emprise, les données partagées et générées, qui semblent insignifiantes indépendamment l’une de l’autre, deviennent de manière agrégées un capteur social commercialisable et permettent le développement d’algorithmes de machines learning gourmandes en données.


Les points forts du Web 2.0 ne profitent donc qu’à une poignée d’acteurs qui ne sont pas à la hauteur de l’information qu’ils collectent et de la responsabilité inhérente à celle-ci. De plus, ce Web n’apporte pas de valeur ajoutée à l’idée d’origine qui était la création et la diffusion de savoir. Je ne doute pas qu’il est possible de s’informer et de satisfaire sa curiosité sur TikTok, Snapchat et Instagram, mais je pense que ce n’est pas ce que les algorithmes promeuvent le plus sur ces applications. Plus largement, nous sommes passés d’un Web ouvert ou la sérendipité était l’un des grands guides à une navigation très canalisée, comme nous avons pu le constater lors de la pandémie. En effet, cette période aurait dû être propice à des voyages dans les méandres du net, mais le trafic a convergé sur Netflix qui a croulé sous la demande. Si l’hétérogénéité des contenus existe bel et bien, les comportements en ligne eux, se sont standardisés.

Récemment, vous aurez peut-être remarqué des changements dans la manière qu’a Google de vous suggérer du contenu. Si vous cherchez une célébrité, vous accéderez facilement à ses différents disques ou à son dernier film. Des questions en lien apparaîtront également, avec la réponse adéquate sur la page Web où elle a été posée. Pour un problème technique, la vidéo YouTube que vous aurez sélectionnée se lancera au minutage précis qui vous sera le plus utile plutôt que vous n’ayez à visionner l’entier. Ces diverses modalités et propositions sont le fruit d’un travail colossal fait en amont par l’annotation de données.


Ces annotations sont centrales dans l’évolution vers un web dit « sémantique ». Le débat actuel concerne ainsi le Web 3.0 aussi connu pour être l’Internet des objets. Si le numéro 3 est discuté car il défendrait l’existence du web 2.0, il y a cette fois un consensus pour dire que le web sémantique est une réelle avancée. L’enjeu est simple : structurer les informations en vue de pouvoir arriver à des descriptions formelles de concepts et de relations dans divers domaines de savoir.


Les informations doivent explicites aussi bien pour les humains que pour les machines. Les informations et savoir créés dans les premiers temps du Web étaient faits pour être lus par des individus. Dans le meilleur des cas, elles étaient annotées pour être visuellement mieux affichées. Si la structure des informations était implicite mais compréhensible par les humains, elle ne l’était pas par des algorithmes. Le lien entre Daniel Radcliffe et Harry Potter est facile à comprendre pour un enfant, mais dans une base de données, ce ne sont que des chaînes de caractères. Il faut alors expliciter les concepts qui gravitent autour de ces dernières. Il y a un acteur, qui joue un rôle, dans un film, qui a comme titre le même nom que le personnage principal. C’est ce genre de schéma explicite qui, en suivant des structures prédéfinies, permet à Siri de pouvoir donner les informations correspondantes à vos requêtes de manière pertinente. Si vous énoncez : “ Hey Siri à quelle heure Harry Potter passe au cinéma ? ”, l’algorithme derrière Siri doit découper ce que vous dites en morceaux pour séparer les concepts et tenter de comprendre non pas ce que vous avez dit, mais ce que vous avez voulu dire. L’algorithme a besoin du découpage de ces processus mentaux que nous faisons de manière naturelle.


En somme, Siri devrait vous répondre qu’il ne sait pas quand Harry Potter passe au cinéma, car M.Potter n’est pas dans vos contacts et qu’il ne sait pas de quel cinéma vous parlez. (Pour répondre cela le système de Siri peut faire le lien entre le nom et le concept de personne ainsi que celui de cinéma qui est un lieu). La richesse des informations - ainsi que sa structuration - permet donc de créer des bases de savoir ordonnées et à des assistants comme Siri de répondre à des requêtes de plus en plus spécifiques. Pour cela, il faut impérativement avoir le même format pour toutes les données. Il existe des formats sur lesquels on tente de se mettre d’accord mais on se retrouve devant le problème de l’œuf et la poule car personne ne veut se forcer à suivre ces formats, car ce travail n’est finalement utile que si les autres font ce travail aussi.

Il est, à l’heure actuelle, difficile de créer de la valeur à ce travail car chacun a pour l’instant un produit affilié à ses propres données. Quelles innovations naîtront une fois les liens tissés ? Les concepteurs ont précédemment su tirer parti des évolutions du web pour créer de la valeur. Faisons confiance aux prochaines générations pour créer de l’utilité.


Qui aurait parié sur le succès de Facebook et la présence de Zuckerberg au Sénat pour rendre des comptes, en raison du poids considérable et de l’immense influence de son site sur la société ? On espère que les prochains acteurs seront là pour influer sur les possibilités qu’offre la technologie de demain d’améliorer la société. Si cette prochaine itération du web permet de le remettre en phase avec la vision initiale, le partage d’information et de savoir, on ne peut qu’espérer que ce sera une avancée pour nos sociétés plus grande que l’apparition du pouce bleu.


D’ici là, n’oubliez pas de partager et de liker nos articles.


21 vues

Posts récents

Voir tout

Comentarios


Logo Header.png

Formulaire d'abonnement

bottom of page