Chez Ptit Gars

Accueil > Informatique > système d’informations et WEB NFE114 > Le Web 2.0

Le Web 2.0

mardi 24 juin 2008, par Pti Gars

Introduction

Le concept de Web2.0 s’est répandu comme une traînée de poudre, dans les milieux du Web tout d’abord, puis dans les médias grand public. Il semble ainsi que, près de 15 ans après la naissance du Web, les grands médias aient de nouveau de la matière à se mettre sous la dent à propos du phénomène Internet. Et comme d’habitude, avec un cortège d’approximations et de slogans plus ou moins marketing. Bref, le Web 2.0 est devenu une mode. Le phénomène Web 2.0 est difficile à cerner. Le concept lui-même a été lancé à l’anglo-saxonne, de manière très pragmatique, comme une nébuleuse indéfinissable, tout juste illustrée d’exemples "pour faire comprendre ce qu’on veut dire".
Le Web 2.0 est devenu une réalité tangible parce qu’il est avant tout sous-tendu par des avancées techniques importantes, qui globalement permettent au plus grand nombre d’internautes de devenir auteur et acteur sur le réseau. Un pas de plus dans ce sens, et non une nouveauté puisque Web 1 offrait beaucoup de souplesse pour que toute personne puisse communiquer. Mais aujourd’hui c’est encore plus facile et tout aussi peu cher. Deux critères qui donne un nouveau souffle au Web, et font exploser à la fois le trafic et le nombre de sites, notamment les blogs.

1 Le Web

Le Web est le nom communément donnée pour le World Wide Web (WWW) « La toile d’araignée ». C’est un système hypertexte public fonctionnant sur internet et qui permet de consulter, avec un navigateur, des pages mises en ligne dans des sites. L’image de la toile vient des hyperliens qui lient les pages web entre elles.
Au début ce fut la création d’une norme de communication à toute épreuve : Le TCP/IP. Cette norme découpe le message en paquet qui partent dans plusieurs directions avant de se recomposer à l’arrivée. C’est une idée mise au point à la demande du pentagone à l’époque de la guerre froide et qui s’est développée de manière féconde et exponentielle. L’objectif est de mettre en place une série de noeuds, tous égaux et tous reliés les un aux autres, de telle sorte que même si plusieurs d’entre eux étaient détruits, le réseaux resterait fonctionnel.
C’est une agence du ministère américain de la défense, l’Advanced Research Projetcs Agency (Arpa), qui finance la mise en place de ce réseau.
C’est ainsi qu’en décembre 1969, l’Arpanet est né.
Avec les années, l’arpa perd progressivement le contôle sur le développement du réseau. Des chercheurs de tous les pays de l’Otan rejoingnent leurs homologues américains. C’est en 1993 qu’Arpanet se détache du reste du réseau, qui devient Internet : Internationnal Network ou Interconnected Network. Dès lors, c’est la National Science Foundation (NSF) américaine qui finance ce qu’on appelle le backbone, la moelle épinière du réseau. Puis, d’autres agences, comme la Nasa ou les agences de recherche des autres pays, jusqu’à des entreprises branchent leurs propres réseaux de communication à ce backbone. C’est dans les années 90 qu’Internet s’est imposé au grand public par la grâce d’un système de consultation aisé : le World Wide Web (WWW).

1.1 Le Web 1

Il est appelé web 1 les sites Internet constitués de pages Web statiques, rarement remise à jour. Les sites en web 1 sont souvent très graphiques et ne mettent pas beaucoup en valeur le contenu. Ce type de site est malgré tout toujours d’actualité pour les sociétés qui vendent avant tout une image, un mode de vie.
Ensuite est apparut le web 1.5, les sites Internet sont des sites entièrement dynamiques, dans le sens où le contenu du site est dans une base de données, totalement administrable par un webmaster sans notions HTML. Ces sites s’appuient sur les outils de gestion de contenu (cms), aujourd’hui largement diffusés. Mais le fonctionnement général reste identique au web 1.0 : le webmaster du site (ou toute autre personne de la société qui édite le site) ajoute, modifie et supprime les contenus.

2 la naissance du web 2

Le concept de web 2.0 est apparu avec une conférence « brainstorming » Le 30 septembre 2005 entre O’Reilly et Medialive International. Dale Dougherty, pionner du web et membre d’O’Reilly notait alors que bien loin de s’être effondré, le web n’avait jamais été aussi important et que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l’hécatombe semblaient avoir quelque chose de commun. Se pouvait-il que le crack des « dot com » eût révélé une nouvelle ère pour le web au point que l’expression « web 2.0 » ait un sens ? c’est alors que la conférence web 2.0 était née.
Mais cela ne nous dit toujours ce qui fait qu’une application ou un concept est web 1.0 et un autre web 2.0. La question est particulièrement pressante dans la mesure où le terme « web 2.0 » s’est répandu et que des entreprises se l’approprient bien souvent sans réelle compréhension de sa signification. C’est d’autant plus délicat que la plupart de les start-ups friandes de termes à la mode ne sont en rien web 2.0 et que parallèlement à cela des applications comme Napster ou BitTorrent ne sont même pas des applications web à proprement parler !. le concept de Web 2.0 reste assez flou, et que tout le monde ne le définit pas de la même manière.
Pour les uns, le principe (technique) sans doute le plus fondamental du web 2.0 c’est le fait de percevoir le web comme une véritable plate-forme informatique fournissant toute une série d’applications web aux internautes, issues d’une combinaison des différentes technologies existantes. Les plus adeptes de cette vision du web 2.0 soutiennent même qu’à l’avenir ces nouvelles applications online remplaçeront peu à peu les logiciels de bureautique traditionnaux. D’un point de vue technique, le web 2.0 c’est donc l’appropriation et la transformation par les développeurs web de technologies « anciennes » (5 à 10 ans) pour apporter une ergonomie différente à leurs utilisateurs. La révolution n’est donc pas tant celle des technologies elles-mêmes, mais celle de leur utilisation.

Pour les autres, le Web 2.0 est davantage une révolution sociologique. Leur argument essentiel est que la pratique du blogging ou la particpation à l’enrichissement de l’encyclopédie Wikipedia par exemple sont des pratiques relativement nouvelles et hautement représentatives des tendances actuelles du web, alors que les technologies qui supportent ces usages sont relativement anciennes, et ne sont pas citées comme étant caractéristiques du web 2.0 par les défenseurs de la révolution technique. Ce principe démocratique au fondement de la révolution sociologique du web 2.0 part de la reconnaissance du fait que le réseau Internet tirera tout son potentiel du réseau humain formé par ses utilisateurs. C’est exactement là le credo de départ de la Wikipédia, mais c’est aussi et surtout le principe même qui a accompagné l’ouverture du réseau Internet au grand public au début des années 90.
Ces deux visions du web 2.0 peuvent paraître assez différentes, mais elles ne sont pas inconciliables, comme semble le prouver la définition de Paul Graham : « Le Web 2.0 c’est utiliser le web comme il a été conçu pour être utilisé. Les « tendances » que nous distinguons sont simplement la nature inhérente du web qui émerge des mauvaises pratiques qui lui ont été imposées pendant la bulle [Internet] ». Ainsi, il n’y aurait pas lieu de parler de révolution, mais simplement d’évolution naturelle du web vers les rôles et les pratiques qui lui avaient été assignées dès le départ, et qu’on peut parler d’accident de parcours durant les années de la « bulle Internet ».

Ce schéma montre une cartographie du web 2.0 telle qu’elle a été développée lors d’une conférence O’Reilly Media. Cela montre la plupart des idées émanant du noyau du web 2.0.

2.1 Différencier le Web1 du Web2

A travers 3 exmples, nous allons voir les traits qui différencies le web 1.0 du web 2.0

Netscape et Google
Si Netscape est emblématique du web 1.0, Google est de manière encore plus certaine son équivalent web 2.0, ne serait-ce du fait de leurs entrées sur les marchés boursiers qui marquèrent chacune l’aube d’une nouvelle ère du web. Commençons donc la comparaison de ces deux sociétés et de leur positionnement.
Netscape énonçait « le web en tant que plate-forme » dans les termes du paradigme du logiciel d’autrefois : leur produit-phare était le navigateur web, une application cliente, et leur stratégie était d’utiliser leur domination sur le marché du navigateur pour créer un marché à destination des serveurs haut de gamme. Le contrôle des standards d’affichage de contenu et des applications utilisant un navigateur aurait du en théorie donner à Netscape le même genre de pouvoir sur ce marché que celui que possède Microsoft sur celui des Pcs. Un peu à la manière de l’expression "horseless carriage" (ndt : « la charrette sans cheval ») qui popularisa l’automobile, Netscape promut l’expression « webtop » pour supplanter le desktop et prévit de remplir ce webtop d’informations et d’applications grâce à des apporteurs de contenus qui utiliseraient des serveurs Netscape.
Finalement, serveurs et navigateurs web devinrent de simples outils et la plus grande part de la valeur ajoutée du web se concentra dans les services diffusés par les plate-forme web.
Google au contraire, commença son existence en tant qu’application web native, jamais vendue ou packagée mais délivrée en tant que service, avec des clients payant, directement ou indirectement, pour utiliser ce service. Aucun des pièges de la vieille industrie logicielle ne pouvait s’appliquer à son modèle. Aucun planning de sortie de différentes version, juste une amélioration continue. Aucun système de vente ou de licence, simplement des utilisateurs. Aucun problème de portage sur différentes plate-forme de sorte que les clients puissent faire marcher le logiciel sur leur machine, uniquement une quantité massive de Pcs utilisant un système d’exploitation open source ainsi que quelques applications maison (que quiconque d’extérieur à l’entreprise n’a jamais pu voir...).
A la base, Google nécessitait une compétence dont Netscape n’avait jamais eu besoin : la gestion de base de données. Google n’est pas une simple suite d’outils logiciels, c’est une base de données spécialisée. Sans données, les outils ne servent à rien ; sans logiciel, les données sont ingérables. La gestion des licences et le contrôle des API – points cruciaux de l’ère précédente – n’avaient plus lieu d’être dans la mesure où les logiciels n’avaient plus besoin d’être distribués mais seulement utilisés et où sans la capacité de collecter et de gérer des données, le logiciel n’est que de peu d’utilité. En fait, la valeur d’un logiciel est proportionnelle à l’échelle et au dynamisme des données qu’il permet de gérer.
Le service offert par Google n’est ni un serveur – bien qu’il soit délivré par une quantité massive de serveurs web – ni un navigateur – bien que pour l’utiliser, un navigateur soit nécessaire. Leur service de recherche bien connu n’héberge même pas le contenu qu’ils permettent à leurs utilisateurs de trouver. A la façon d’un coup de téléphone où la valeur n’est pas dans les téléphones mais le réseau les mettant en relation, Google place sa valeur dans l’espace situé entre le navigateur et le serveur de contenu, comme un opérateur entre l’utilisateur et son usage du web.
Même si Netscape et Google peuvent être décrites comme des sociétés de logiciels, il est clair que Netscape appartient à la même catégorie que les Lotus, Microsoft, Oracle, SAP, et autres qui ont pris leur envol au début de la révolution logicielle du début des années 80 alors que les comparses de Google sont d’autres applications web telles que eBay, Amazon, Napster, et bien entendu, DoubleClick et Akamai.

DoubleClick et Overture et AdSense
Comme Google, DoubleClick est un pur produit de l’ère internet. Il décline le modèle du logiciel en tant que service, a un coeur de métier dans la manipulation des données et a été un pionnier du service web bien avant même que le terme « web service » ait été créé. Cependant, DoubleClick fut finalement limité par son modèle économique. La société paria en effet sur la croyance très « 90’s » que le web était fait de publications et non de participations. ; que les annonceurs, et non les consommateurs, devaient être les acteurs moteur ; que la taille importait, et qu’Internet serait peu à peu dominé par les quelques sites webs du haut des classements de MediaMetrix et ses semblables.
Dans cette logique, DoubleClick annonce fièrement sur son site « plus de 2000 implémentations réussies » de sa solution. Pendant ce temps, Yahoo ! Search Marketing (auparavant Overture) et Google AdSense possèdent déjà des centaines de milliers d’annonceurs...
Le succès de Google et d’Overture provint de leur compréhension de ce que Chris Anderson nomme « la longue traîne » : la force collective des petits sites représente l’essentiel du contenu du web. L’offre de DoubleClick demande un contrat de vente très formel, limitant leur marché aux quelques milliers de sites les plus importants. Overture et Google ont montré comment il était possible d’ajouter virtuellement de la publicité sur n’importe quelle page existante. De plus, ils ont remplacé les publicités tape-à-l’oeil et agaçantes telles que les bannières et les « pop-up » par des messages peu intrusifs, sensibles au contexte de la page à laquelle ils s’intègrent et finalement plus appréciés des consommateurs.
Leçon du web 2.0 : mettre au point un service simple d’accès et une gestion algorithmique des données pour toucher l’intégralité du web, jusque dans sa périphérie, pas seulement son centre, jusqu’au bout de sa longue traîne, pas seulement en son coeur.
De manière peu surprenante, les autres « success stories » du web 2.0 démontrent le caractère gagnant de ce modèle. Ebay permet les transactions occasionnelles de quelques dollars entre individus en tant qu’intermédiaire. Napster (bien que fermé pour des raisons légales) ne s’est pas construit grâce à un immense catalogue de chansons mais à travers la mise au point d’un système faisant de chaque client un serveur renforçant lui-même le réseau.

Akamai et BitTorrent
Tout comme DoubleClick, Akamai est optimisé pour faire des affaires avec un coeur de cible pas avec la périphérie du marché. Bien que ses services bénéficient à tous en facilitant l’accès aux sites à fortes audience, ses revenus ne proviennent que d’un certain nombres de grands comptes du web.
BitTorrent, comme les autres pionniers du mouvement peer-to-peer, utilise une approche radicalement différente de la décongestion des flux. Chaque client est aussi un serveur, les fichiers sont découpés en fragments légers pouvant être téléchargés de plusieurs lieux à la fois, permettant ainsi à chacun des membres du réseau d’apporter un peu de bande passante et de données à chacun des autres utilisateurs : plus un fichier est populaire, plus rapide est son téléchargement.
BitTorrent illustre là un principe clé du web 2.0 : le service s’améliore automatiquement quand le nombre de ses utilisateurs croit. Alors qu’Akamai doit ajouter des serveurs pour améliorer son service, chaque utilisateur de BitTorrent apporte un peu de ses ressources à l’ensemble de la communauté. C’est implicitement une « architecture de participation », une nouvelle éthique de la coopération dans laquelle le service agit comme un intermédiaire intelligent, connectant chaque parcelle de la gigantesque banlieue du web à une autre et donnant le pouvoir aux utilisateurs eux-mêmes.

2.2 Le Web 2 : une plateforme informatique

Une des caractéristiques du web 2.0 est le fait de ne plus être limité à la plate-forme PC. Le dernier conseil que le développeur Dave Stutz donna à Microsoft fut : « Les logiciels utiles qui se libéreront d’une plate-forme spécifique seront des vecteurs de fortes marges pour un bon moment ».
Bien entendu, n’importe quelle application web peut être vue comme un logiciel indépendant d’une plate-forme spécifique. Après tout, même la plus simple des applications web implique au moins deux ordinateurs : l’un hébergeant le serveur web, l’autre le navigateur. Or, le développement du web en tant que plate-forme pousse cette idée jusqu’à des applications synthétisant des services apportés par de nombreux ordinateurs.
Là encore, comme de nombreuses parties du web 2.0, l’aspect « 2.0 » n’est pas dans la nouveauté, mais plutôt dans la pleine réalisation du véritable potentiel de la plate-forme web, celle-ci devant nous guider pour comprendre comment concevoir applications et services.
Un exemple du web 1.0 de départ, DoubleClick et Akamai, étaient des pionniers qui avaient eux aussi abordé le web comme une plate-forme. Les gens n’y pensent pas souvent en tant que « services web » mais en réalité, les serveurs de publicité furent probablement les premiers « mashup » (ndt : dans le sens ou ce sont des contenus diffusés directement au sein de sites clients) largement déployés sur la toile.
Chaque bannière publicitaire est en effet une forme de coopération entre 2 sites web dans un seul but : délivrer une page intégrée à un lecteur sur ordinateur de plus. De son côté, Akamai traite aussi le réseau en tant que plate-forme quand il élabore un cache ainsi qu’un système de distribution de contenu soulageant la bande-passante d’un réseau souvent congestionné.
Cependant ces pionniers apportent des contrastes intéressants avec des acteurs du web plus récents dans la mesure où ces derniers ont repris à leurs aînés des solutions aux mêmes problématiques tout en les poussant plus loin, et qu’ils expliquent ainsi de manière plus profonde la véritable nature de cette nouvelle plate-forme. DoubleClick et Akamai furent donc des pionniers du web 2.0, mais nous constatons qu’il est possible d’exploiter plus efficacement ce nouveau concept à l’aide d’autres « design patterns ».
Un autre exemple est celui d’iTunes. Cette application va sans cesse d’un appareil portable à un système web massif, le PC servant uniquement de mémoire locale et de station de contrôle. Il y avait déjà eu plusieurs tentatives de mettre du contenu venu du web dans des dispositifs portables, mais le couple iPod/iTunes est la première conçue pour être véritablement multi-plate-forme. TiVo est un autre bon exemple de ce phénomène.
Itunes et TiVo offrent également la démonstration de quelques autres principes du web 2.0. Elles ne sont pas des applications web en elles-mêmes, mais elle tire parti de la puissance de la plate-forme web, en faisant une partie permanente et pratiquement invisible de leurs infrastructures. La gestion de données est très clairement le coeur de leur offre. Ce sont des services, pas des applications packagées (bien que dans le cas d’iTunes, cela puisse être utilisé en tant qu’application packagée pour manipuler des données locales). De plus, TiVo et iTunes montrent une utilisation naissante de l’intelligence collective, même si dans chacun des cas, leurs expérimentations sont entrées en guerre avec les lobbies de la propriété intellectuelle. La seule limite se trouve dans l’architecture de participation d’iTunes, bien que la récente apparition du podcasting change quelque peu la donne de ce point de vue.

2.3 Le Web 2 : une révolution sociologique

Dès ces premiers temps du web, tout le monde n’a peut-être pas totalement pris conscience d’un nouveau phénomène qui allait considérablement changer la donne.
Le Web est né de la norme HTML, mettant - comme son nom l’indique - les possibilités immenses de l’hypertexte à la portée de tous. On a assez dit que le web constituait une sorte d’hyper-document mondial. Mais peu ont poussé l’analyse plus avant.
Dans un document classique, consultable en séquence, de la première à la dernière page - même s’il est possible de sauter des passages ou de s’orienter par la table des matières - l’auteur est maître de son discours ; il mène son lecteur comme il veut, par où il veut.
L’hypertexte permet au lecteur de naviguer dans un texte comme il errerait dans une ville, s’orientant selon ses goûts ou sa fantaisie, choisissant la voie qu’il souhaite à chaque carrefour, plutôt que de suivre un itinéraire dicté par un "auteur". De sorte que la notion d’auteur - qui inclut logiquement la création du discours mais aussi la maîtrise de ses enchaînements - se trouve démembrée. Si l’auteur premier garde la maîtrise de son texte, il cède à son lecteur la maîtrise du cheminement dans celui-ci. Le lecteur peut "zapper" comme il l’entend d’un bout de texte à un autre, voire d’un auteur à un autre.
De sorte que la notion classique d’auteur éclate, se dilue au sein de l’immense hyper-document qu’est "le Web". Et dès lors, l’internaute devient maître de son parcours, libre d’enchaîner les textes qu’il veut, dans l’ordre qu’il veut. Chacun devient donc auteur d’une œuvre virtuelle qui est unique de par la juxtaposition personnelle des divers morceaux de textes parcourus. On connaît peut-être les "Cents mille milliards de poèmes" imaginés par Raymond Queneau en 1961, dont les pages sont coupées ligne à ligne, le lecteur pouvant choisir de composer le poème qu’il veut à partir de dix propositions de 14 vers réguliers de l’auteur premier. C’est dans le même esprit que le Web a démultiplié cette possibilité.

Nous constatons donc que lorsque les médias nous présentent le Web 2.0 comme la possibilité de mettre l’utilisateur au centre du réseau, ce n’est pas nouveau.
Des "sites perso" aux blogs
Compte tenu des coûts de production marginaux d’un site, toute personne peut depuis longtemps produire son propre site sur le Web. Mais il fallait maîtriser quelque peu la technique de l’Internet, connaître un minimum la norme HTML, et ce, pour des résultats d’une qualité esthétique et ergonomique douteuses. Nombre de sites personnels qui ont fleuri dans les années 90 pouvaient être d’une redoutable laideur, mais surtout d’une commodité d’usage discutable. Il n’est encore pas rare de tomber sur ces fameuses pages "profondes" d’un site qui ne permettent ni de repérer sur quel site on est (aucun sens de la communication), ni de revenir vers les pages supérieures (ergonomie non pensée).
Aujourd’hui, des outils simples permettent à des néophytes de mettre en œuvre des sites personnels propres.
Cela a commencé avec les outils de CMS (content management system), notamment ces logiciels libres de création et de gestion de site clé en main tels que SPIP ou Joomla aujourd’hui toujours très utilisés. Aujourd’hui ce sont les outils de blogs tels que OverBlog ou Haut et Fort qui sont les plus utilisés. Grâce à ces outils, tout un chacun peut administrer simplement son site et publier les informations qu’il souhaite.
Des outils collaboratifs grand public
D’autres outils fonctionnent sur le bon vieux mode collaboratif. Là encore, rien de nouveau, conceptuellement et sociologiquement, sous le soleil... Le concept de groupware (collecticiel) se fait vieux. Il a plus de 15 ans d’âge et l’archétype, le logiciel Lotus Notes, lancé en 1992, est toujours bien vivant dans les entreprises.
Sur Internet, les forums de discussion Usenet (aussi appelés newsgroups), préexistaient au Web. Ils permettaient aux internautes de partager des informations. Mais il fallait être un minimum connaisseur du système pour s’y abonner et un peu plus pour poster des informations sur ces groupes. Les listes de discussion vont en partie les relayer, avec plus de souplesse d’usage puisqu’elles se basent sur la seule maîtrise de la messagerie électronique, passée dans toutes les pratiques professionnelles.
La nouveauté consiste à acclimater le concept d’outil collaboratif en en simplifiant l’usage.
Dès avant le Web 2.0, un répertoire généraliste de sites tel que Dmoz, qui est conçu sous forme collaborative. Face au répertoire de Yahoo !, alimenté par des professionnels, Dmoz permet à tout internaute de prendre en charge l’alimentation d’une rubrique ou d’une sous-rubrique et de contribuer ainsi au repérage des bons sites d’un secteur donné.
Le phénomène Wiki, notamment avec Wikipedia, la plus grande encyclopédie collaborative du net, fonctionne lui aussi sur le mode collaboratif, pour le meilleur et pour le pire.
Les flux rss/atom
Les flux RSS ou ATOM s’intègrent dans la même évolution du Web. Ils permettent à l’internaute de choisir, voire d’agréger, ses fils d’informations et de décider de les recevoir dans le lecteur de son choix. Certains sites commencent même à proposer de personnaliser un flux : celui-ci est généré à partir d’une requête de l’internaute basée sur une série de mots-clés, facilitant ainsi une démarche de veille.
Une pratique réellement centrée sur l’internaute
Nous remarquons que le centre de gravité du réseau se déplace perceptiblement vers l’internaute, à condition qu’il décide d’en être l’acteur, et non plus le spectateur. Bien sûr, ce mouvement est loin d’être achevé. Il n’est pas de semaine sans que de nouvelles annonces fassent entrevoir de nouvelles possibilités, toujours plus au service du citoyen actif.
La technologie Ajax au service du producteur d’information
AJAX (Asynchronous JavaScript And XML) - qui s’appuie sur la combinaison de technologies déjà existantes - offre un nouveau confort d’utilisation et de navigation à la fois pour le producteur d’information et le simple utilisateur d’un service Web 2.0.
C’est ainsi que les services ayant recours à AJAX permettent d’exécuter des applications directement dans le navigateur. L’actualisation d’un élément de la page se fait de manière autonome (par rapport aux autres éléments affichés) sans provoquer le rechargement complet de la page concernée. Ce qui offre un affichage beaucoup plus rapide ainsi que de nouvelles possibilités d’interaction avec les différentes applications présentes dans la page.

Ce nouveau confort d’utilisation se trouve parfaitement illustré à travers des applications comme Yahoo Mail, l’outil de bureautique en ligne Google Docs & Spreadsheets ou encore l’outil de personnalisation de sa page d’accueil Google. Dans ce dernier exemple, l’utilisateur peut très facilement déplacer les blocs d’actu et les positionner comme bon lui semble au sein de la page. Cette technique facilite donc encore plus la personnalisation du Web par l’internaute.

3 Les dangers du web 2

L’argument ou, le web 2.0 va permettre les nivellements sociaux puisque tout chacun peut publier sur le net, nous est resservi régulièrement depuis le groupware, la messagerie Internet, les forums Usenet, le premier Web... En fait, la technique n’est que ce qu’en font les hommes. Et si l’ouverture du Web permet à toute personne de communiquer, si elle peut permettre une plus grande mise en commun des savoirs, il n’est pas douteux que celle-ci risque aussi de se trouver noyée sous les non-savoirs.

3.1 Connaissance ou ego magnifié ?
Prenons un exemple neutre, celui du partage de photos sur le net (par exemple sur Picasa). Tout vacancier va pouvoir mettre ses photos personnelles en ligne. Certaines sont d’une qualité ou d’un intérêt assez limités, quand bien même elles seraient proposées libres de droit. De sorte que l’outil se transforme en galerie permettant à tout citoyen de se donner l’impression qu’il est valorisé parce qu’il est sur le net. Mais si tout le monde est sur le net, l’orgueil d’y être en prend un coup.
Une partie de ce qui va se trouver sur le net relève plus de ce désir d’exister aux yeux des autres, un peu à la manière de ces émissions de téléréalité dans lesquelles on assiste à la réconciliation ou aux retrouvailles de familles qui étalent ainsi leur vie intime devant les téléspectateurs. En d’autres termes, sous cet angle, le Web suit les phénomènes de société, rien de plus.

3.2 De la connaissance à la "doxa"
Aujourd’hui, il est vrai, toute personne qui sait quelque chose peut publier sur le net (sous forme de blog, par exemple), ou participer à une encyclopédie contributive telle que Wikipedia. Mais aussi, toute personne qui croit savoir peut s’autoproclamer expert et publier - parfois de bonne foi - de graves erreurs sur le net. Wikipedia a sur ce point été l’objet de critiques. En août 2005, un débat a été lancé sur le sérieux de cette encyclopédie sur la liste Biblio-fr. On a ainsi appris que certains articles médicaux fournissaient des informations erronées, ce qui - en médecine - peut poser de graves problèmes.
Rien ne permet donc de garantir que les auteurs qui interviennent sur le net publient des informations exactes. Là encore, inutile de sacrifier au mythe de l’Internet - en sens négatif, cette fois - en voyant systématiquement dans le réseau un repère de mafieux et de désinformateurs. Il faut savoir que depuis que l’imprimerie existe, le papier aussi a accueilli des millions de contre-vérités.
Ce qui pose problème sur le net, c’est la puissance de diffusion, et maintenant le foisonnement des auteurs, noyant les sources sérieuses au milieu de sources douteuses, ou qui sont le reflet d’opinions communes et non de réalités contrôlées par des experts. Le phénomène est dénoncé par certains philosophes, conscients de ce danger. Sous le titre "Le nouveau royaume des idiots ?" le philosophe allemand Norbert Bolz, spécialisé dans les médias, confie au Spiegel, qu’on est retombé de la vraie connaissance, du savoir fondé scientifiquement, prônée par les philosophes de l’antiquité grecque, à la doxa, l’opinion commune, qui prévalait en Grèce avant les philosophes. Ainsi, avec nos outils de mesure d’opinion, on en arriverait à considérer que telle opinion est vraie puisque 51% de personnes la pensent...
Là encore, le Web est le reflet de nos sociétés. Nous voyons souvent, sur des listes professionnelles, des questions de droit posées par des non-juristes et la réponse d’autres non-juristes commençant pas "je pense que..." En matière juridique, comme en toute autre science, on ne "pense" pas ; on sait, ou on vérifie. Mais les médias jouent déjà ce jeu du règne de l’opinion, lorsqu’ils s’attachent à capter avec un infini respect l’avis de telle comédienne en vue sur le conflit libanais ou sur la TVA des restaurateurs, plutôt que de recueillir et de bien rendre compte de l’avis d’experts...

3.3 De la connaissance à la guerre de l’information
Mais les choses peuvent aller dangereusement plus loin. La généralisation du travail collaboratif au plan mondial et sans contrôle, part du postulat - caricaturons un instant - que tout le monde il est beau ; tout le monde il est gentil. Rappelons-nous nos croyances naïves des débuts des listes de discussion professionnelles, non modérées, partant du postulat qu’entre adultes responsables et sérieux, on ne risquait rien. Il a fallu un beau dérapage sur certaine liste pour qu’on se décide à les modérer.
Le Web 2.0 n’échappe pas à ce phénomène. Ainsi, toute personne qui peut publier sur Wikipedia une notice sur n’importe quel sujet et présenter celui-ci de manière volontairement malhonnête. Quelles que soient les volontés de contrôle des responsables de l’encyclopédie, ils ne peuvent détenir la science universelle pour tout contrôler. D’autant plus que certains groupes d’utilisateurs parviennent à s’organiser pour tenter d’imposer - de manière subtile - leur version sur un sujet. Et nous avons pu constater que certains modérateurs de Wikipedia se laissent « endormir », quand ils ne violent pas ouvertement leur devoir de stricte neutralité, notamment lorsqu’il s’agit de problématiques politiques ou scientifiques. Sur certains sujets sensibles (politique, histoire...), il peut se trouver ainsi des présentations délibérément orientées.
Par ailleurs, toujours sur Wikipedia, toute personne peut intervenir pour corriger ou ajouter des informations dans un article. Il ne s’agit pas de poster un commentaire au bas de la fiche, mais d’intervenir pour modifier directement celle-ci. L’auteur premier de la fiche ne sera prévenu qu’après mise en ligne des modifications, ce qui laisse la place pour faire passer des informations fausses ou tendancieuses pendant quelques heures, voire plus. Là où le bât blesse, c’est le positionnement privilégié qu’occupent les fiches issues de Wikipedia dans les résultats de recherche de Google. Un internaute peu donc accéder à tout moment à une fiche présentant un contenu tendancieux.
On a même vu se livrer des "guerres d’édition" sur l’illustre encyclopédie collaborative. Certaines personnes, décidées à imposer leur analyse subjective d’un fait ou leur opinion exclusive sur un sujet, passent leur temps à corriger certaines fiches. Dès que l’auteur revient à sa version originale, celle-ci est à nouveau modifiée dans les minutes qui suivent. On peut s’en rendre compte en sortant de l’Article et en consultant l’onglet Historique ou Discussion. Mais il faut lire parfois entre les lignes, et de plus, le grand public ne pense pas à consulter des onglets.

4 Le Lexique du Web2

Les internautes découvrent de nouveaux concepts qui tendent à se populariser même si leur sens n’est pas toujours bien compris par ceux qui les emploient. Par effet de mode, on jargonne donc en Web 2.0 en maniant des mots à la sonorité anglo-saxonne : Crowdsourcing, Social networking, Folksonomy, Mashup...
Sans vouloir tendre à l’exhaustivité, il nest important de revenir sur certains de ces concepts qui apparaissent comme les plus emblématiques du monde du Web 2.0. L’occasion de voir que derrière certains mots se cachent parfois des techniques et pratiques qui n’ont rien de nouveau.

4.1 AJAX
AJAX (Asynchronous JavaScript And XML) est un acronyme qui caractérise la combinaison d’un certain nombre de technologies existantes et servant au développement d’applications Web : HTML/CSS, Javascript/DOM, XML et les requêtes HTTP.
AJAX permet d’exécuter des applications à l’intérieur du navigateur en apportant un affichage plus rapide car l’actualisation de certaines données d’une page peut se faire sans un rechargement total de cette page.

4.2 API
Une API (Application Programming Interface ou interface de programmation) a pour objet de faciliter le travail d’un programmeur en lui fournissant les outils dans un langage donné pour lancer des développements plus poussés et personnalisés.
Les programmeurs peuvent ainsi puiser dans une bibliothèque de fonctions afin de les adapter à leurs propres applications.

4.3 Atom
Face au format RSS qui souffre encore d’une absence de normalisation, certains développeurs ont travaillé sur un format alternatif répondant au nom d’Atom (initialement nommé « echo » le projet est rebaptisé Atom le 30 septembre 2003, pour des raisons juridiques). L’un des principaux objectifs de ses concepteurs est la mise en place d’un format universel de syndication de contenu.
Le format Atom reçoit un soutien de taille avec Google. Le choix du moteur de recherche en faveur d’une solution libre et destinée à devenir une norme dans le domaine de la syndication de contenu peut avoir un certain impact pour l’avenir du RSS. Toutefois, ces deux formats peuvent aussi bien coexister d’autant plus que la plupart des lecteurs de flux sont compatibles avec ces deux formats. Et même Google propose les deux types de flux (RSS et Atom) pour son service d’actualités.

4.4 Blog
Terme issu de la contraction de Web et Log, le blog est un journal en ligne qui permet à son animateur d’échanger ses points de vue avec ses lecteurs. En effet, chaque nouvel article peut faire l’objet de nombreux commentaires postés par les visiteurs du site.
Le blog offre donc un certain compromis entre le site personnel et le forum de discussion.
Facile à créer et à animer, les blogs ont séduits des millions de personnes qui utilisent cet outil dans des sphères très variées. Du particulier au journaliste en passant par les responsables politiques et le monde de l’entreprise, le blog s’est aujourd’hui imposé comme un média incontournable.

4.5 Blogosphère
Issu de la contraction de contraction de blog et biosphère, le terme blogosphère désigne l’ensemble de la communauté qui anime des blogs.

4.6 Blogroll
Chaque blog affiche généralement dans une colonne un blogroll c’est-à-dire une liste de liens (notamment vers d’autres blogs) considérés comme pertinents par le responsable du blog.

4.7 Crowdsourcing
Après l’outsourcing qui consiste à externaliser certaines tâches dans des pays lointains pour réduire les coûts, voici venu le temps du Crowdsourcing. Pour Jeff Howe du magazine Wired, il s’agit - pour les entreprises qui ont recours à cette pratique - d’utiliser le temps disponible des gens pour créer du contenu, résoudre des problèmes, voire faire de la R&D. Le crowdsourcing peut être traduit par l’expression suivante : « l’approvisionnement par la foule ».
C’est ainsi que certaines entreprises décident de s’appuyer sur une communauté d’internautes chargée de participer au développement d’un projet et/ou d’un produit (vote, propositions d’amélioration, etc.). Le crowdsourcing est donc orienté vers un modèle qui associe intelligence collective et modèle participatif avec parfois redistribution de revenus.
On retrouve cette logique sur des plateformes comme FlickR qui propose aux internautes d’enrichir le site en publiant leurs photos, ce qui permet d’alimenter la base de données en continu. Certains parviennent ensuite à vendre des clichés et FlickR prend au passage sa commission.
Le modèle du crowdsourcing permet ainsi de développer des produits qui pourront ensuite être commercialisés à des prix relativement bas.
Dans une optique moins commerciale, l’on peut citer le répertoire DMOZ ou encore l’encyclopédie gratuite Wikipedia qui s’enrichissent - chaque jour - grâce aux contributions de milliers de bénévoles à travers le monde entier.

4.8 Folksonomy
Inventé par Thomas Vander Wal, le terme de folksonomy provient de la contraction des mots folks (« les gens ») et taxonomy (« taxinomie » ou « taxonomie » pour évoquer la notion de classification). Certains proposent - en guise de traduction en français - le terme « Personomie ». La folksonomy décrit donc une pratique qui consiste à classer du contenu - de manière collaborative - à partir de tags (ou mots-clés) proposés par les internautes eux-mêmes.
L’intérêt de la folksonomy réside dans la souplesse offerte aux utilisateurs qui peuvent « taguer » le contenu posté sur le site web.
Remarque : Bien évidemment, l’indexation réalisée par les utilisateurs introduit une certaine part de subjectivité dans la classification du contenu. M ais n’est-ce pas le lot de toute indexation humaine quand bien même celle-ci serait réalisée par des professionnels ?

4.9 Mashup
Derrière ce concept se profile la possibilité de bâtir un site web ou un service en ligne à partir de diverses applications disponibles sur le Net. Ainsi, certains services proposent leurs applications notamment sous forme d’API, ce qui facilite l’extraction et le traitement des informations. L’utilisateur peut alors faire son marché parmi les nombreuses applications et construire - briques par briques - un site web personnalisé. Le grand intérêt de ce système réside dans la possibilité de combiner des applications développées par des prestataires différents et de les exploiter sur une même interface.
Si l’API de Google Maps est l’un des plus utilisés, nous pouvons également citer Housingmaps pour la recherche de biens immobiliers. Ce dernier réunit - sur un même site - les petites annonces CraigsList avec l’API Google Maps ce qui permet d’associer données géographiques et commerciales.

4.10 Podcast
Issu de la contraction de Ipod et Broadcast (diffusion), le podcasting est un moyen de diffusion de fichiers sonores sur le Net. Des sites - tels qu’Odeo.com - permettent à des utilisateurs de publier leurs fichiers audio et vidéo et de les mettre à disposition du public. Il est ensuite possible de s’abonner à des flux RSS ou Atom pour récupérer automatiquement de nouveaux fichiers sonores sur son ordinateur personnel ou son baladeur numérique.

4.11 RSS
RSS (Really Simple Syndication) est un format de syndication, capable de récupérer le contenu brut d’un site web sans s’occuper des données liées à sa forme. Un flux RSS permet avant tout de lire les nouveautés diffusées sur un site ayant choisi d’établir un fil sur celles-ci, un peu comme le fil d’actualité d’une agence de presse, d’où le terme de fil RSS L’utilisateur peut ensuite parcourir dans une seule application l’ensemble des nouveautés mises en ligne sur les sites qu’il veut suivre, sans avoir à se porter sur chaque site. Si les grands sites d’actualité ainsi que certaines entreprises et administrations ont adopté le RSS, ce format de syndication de contenu a surtout explosé grâce au développement des blogs.
L’utilisateur peut avoir recours à des solutions très variées pour consulter les flux RSS de son choix. De l’installation d’un logiciel dédié aux flux RSS - sur son poste de travail - à un lecteur intégré dans le navigateur web ou le logiciel de messagerie, en passant par des agrégateurs de flux RSS disponibles sur des sites web, l’internaute n’a que l’embarras du choix.

4.12 Social Bookmarking
Le concept de Social Bookmarking désigne une pratique qui consiste à enregistrer ses favoris (ou signets) sur un site web public puis de les repérer par des mots-clés (appelés tags). L’objectif est surtout de pouvoir mutualiser ses favoris. Un site comme Del.icio.us permet ainsi d’identifier les sites les plus populaires sur un sujet donné.
L’intérêt réside toujours dans la possibilité d’obtenir les favoris d’autres utilisateurs en fonction de ses propres pages. Il est possible de s’abonner aux signets d’un utilisateur et donc d’être alerté dès que ce dernier a intégré de nouveaux sites.

4.13 Social Networking
Le concept de Social Networking (Réseau social en français) définit des communautés d’utilisateurs qui se sont regroupés en fonction de centres d’intérêts communs. Cela touche bien évidemment les domaines les plus divers : loisirs, passions, musique, voyages, vie professionnelle...
La plupart des sites qui servent de support à ces réseaux sociaux proposent un certain nombre de fonctionnalités permettant échanges et réactivité entre membres inscrits.
MySpace ou FlickR demeurent des sites emblématiques du Social Networking. Toutefois, d’autres sites tels que Viaduc (réseau d’entraide professionnel) - qui fonctionne sous forme de réseau social -existaient bien avant l’explosion du Web 2.0.

4.14 Syndication de contenu
Ce concept recouvre toutes les possibilités techniques données à des sites de relayer les informations issues d’autres sites, sans pointer vers ceux-ci, mais au contraire en intégrant automatiquement l’information issue de ceux-ci. Ainsi, des webmasters peuvent récupérer d’autres contenus et enrichir - de manière automatisée - l’offre d’information sur leurs propres sites web tandis que les sites qui mutualisent leur contenu augmentent leur audience et donc leur notoriété.
Avec le Web 2.0, la syndication de contenu est souvent facilitée par la création de flux RSS ou Atom associés aux différents contenus syndiqués.

4.15 Tags
Les tags (étiquettes en français) représentent l’un des éléments les plus caractéristiques des sites rentrant dans la sphère du Web 2.0. En effet, la plupart des contenus postés sont repérés et identifiés par ces fameux tags qui sont proposés par le producteur de contenu. Ces tags (ou mots-clés) sont ensuite sensés faciliter l’identification et la recherche de contenu dans la base de données. Nous retrouvons ainsi une logique de classement qui n’est pas sans rappeler le travail d’indexation effectué par les professionnels de l’information et de la documentation. Finalement, le Web 2.0 transforme les producteurs de contenu de ces sites en armée de documentalistes qui s’ignorent.
Les sites Web 2.0 affichent souvent un « tag cloud » (autrement dit, un nuage de tags) qui permet de visualiser du premier coup d’œil les tags les plus utilisés récemment. Plus la taille du mot-clé est grande, plus il y a d’articles indexés avec celui-ci. Cela permet notamment de repérer plus facilement les sujets les plus traités par les utilisateurs à un instant T.

4.16 Wiki
Historiquement, le premier wiki, le Wiki Wiki Web, a été inventé par Ward Cunningham. Ce dernier a choisi ce terme en s’inspirant de l’hawaïen « wiki-wiki », signifiant « vite ».
Un wiki (en français prononcer oui-qui) est un outil de gestion de site web qui permet aux utilisateurs de publier et modifier facilement du contenu. Les wikis sont surtout utilisés dans une optique collaborative et les utilisateurs autorisés peuvent ainsi participer - de manière bénévole - à l’enrichissement du contenu.
Créée en 2001, l’encyclopédie libre Wikipedia est toujours le wiki le plus utilisé au monde. Mais il existe d’autres wikis thématiques : Jurispedia (encyclopédie du droit), Geneawiki (encyclopédie sur la généalogie), Wikitravel (guide de voyage), etc.

4.17 XML
Le développement de la syndication de contenu constitue l’un des phénomènes de l’Internet de ces dernières années. Ce succès repose en grande partie sur le format XML (eXtended Markup Language) qui s’est imposé comme la norme pour la syndication de contenu web. La structuration rigoureuse de l’information - permise par XML - autorise la récupération du contenu brut d’un site web sans s’occuper des données liées à sa forme. Un webmaster peut ainsi facilement exploiter le contenu syndiqué issu d’un autre site tout en personnalisant la présentation afin que celle-ci soit en accord avec la charte graphique de son propre site web.
Parmi les protocoles de syndication de contenu qui utilisent la norme XML, il y a le fameux RSS.

5 vers le Web 3

Le terme web 3.0 est utilisé pour décrire l’évolution, comme la transformation du web en une base de données, l’accès à ces données via des applications qui ne sont pas des navigateurs, comme leswidgets, leweb sémantique ou encore un espace plus ouvert à la 3D. Ce terme est apparu la première fois en début 2006 dans un article du blog de Jeffrey Zeldman. Plus tard, en mai,Tim Berners lee :
« Les gens se demandent encore ce qu’est le web 3.0. Je pense que lorsque tu as la conjonction de graphismes vectoriels du web 2.0, et l’accès par un Web sémantique à une grande quantité de données, tu as accès à une source incroyable »

5.1 Caractéristiques générales
La définition précise d’une application Web 3.0 est encore très débattue. Cependant, il est généralement admis qu’une solution Web 3.0 doit montrer certaines caractéristiques :
On ne se réfère plus uniquement a un site Web ((X)HTML), il peut être aussi une solution Web Saas (application : (X)HTML + base de données (XML, MySQL, ...)) .
La mobilité, il doit être indépendant de tout type de support (taille d’écran, sortie imprimante, etc.)
Universelle, il doit être indépendant de tout système d’exploitation, et de tout matériel (fabriquant, marque, logiciel, ou de plugin).
Accessibilité, strictement en conformité avec le W3C, ce qui permet de rendre d’autres logiciels accessibles a l’aide de Microformat et ouverts aux bases de données diverses.

Conclusion

Nous avons souligné à quel point le concept de Web 2.0 impliquait de plus en plus le lecteur mais véhiculait aussi de faux-semblants médiatiques et/ou marketing, les médias étant prompts à créer ou amplifier des phénomènes de mode pour pouvoir vendre du sensationnel, et les commerciaux cherchant toujours le bon slogan vendeur et surfant sur les phénomènes de modes.
Pour ne pas nous emballer, considérons plutôt que le Web 2.0 est avant tout un phénomène d’avancée technique remarquable dans son ampleur, qui décuple certaines possibilités déjà en germes dans l’Internet, et surtout sur le Web. Et comme toute avancée technique, il s’agit de la langue d’Ésope : la meilleure et la pire des choses.
Nous avons déjà vue combien les soi-disant nouveautés n’en étaient pas, mais tout juste des améliorations techniques considérables. Restons donc lucides et ne nous esbaudissons pas, béats, devant le miracle qui tout d’un coup, grâce au Web 2.0, donnerait à l’internaute la parole sur le net.