Dans le Guide du voyageur galactique, Douglas Adams présente durant quelque lignes les Jatravartids, un peuple principalement connu pour avoir inventé le déodorant avant la roue. Dans l’adaptation cinématographique, on y découvre des extra-terrestres vivant dans un dépotoir fait de montagnes de déodorants usagés et naviguant dans des véhicules aux roues… Carrées.
Comme s’il était envisageable de ne pas inventer la roue ronde mais impensable de ne pas « inventer » le fait de faire rouler la roue. Pourtant s’il y a vraiment eu une invention révolutionnaire, c’est probablement plus le fait d’avoir fait rouler des trucs pour déplacer d’autres choses que le fait d’avoir créé des objets pouvant rouler (on avait déjà pour cela des tronc d’arbres, des pierres, etc.)
Et pourtant aujourd’hui, dans la tête de tout le monde, l’invention de la roue c’est bien plus l’invention de l’objet que son utilisation.
Ce soir nous allons parler de ce que vous utilisez la plupart du temps sur votre ordinateur ou votre smartphone : le Web. Si ce dossier m’a paru être une bonne idée, c’est justement parce que dans nos têtes, le web n’existe pas vraiment, seul existe internet. Pourtant il y a bien eu un internet sans web! Et le web, que vous utilisez tous aujourd’hui, à commencer par l’écoute ou la lecture de ce dossier, a été créé après et ne paraissait, au moment de sa création, pas si indissociable de l’internet.
L’avant WEB
Chaque révolution scientifique et industrielle apporte tant de changements dans notre quotidien qu’il est très compliqué d’imaginer l’avant : comment vivait on sans frigo? Comment faisait on ses recherches sans Google? Comment préparait on un exposé à l’école sans Wikipedia? Comment se donnait on rendez-vous sans téléphone portable? Comment rejoignait on ce rendez-vous sans GPS? Internet a été créé au cours des années 60 et du début des années 70, et le web lui est arrivé dans les années 90, soit 20 ans plus tard! A ce stade vous ne savez toujours pas quelle est la différence entre internet et le web et pourtant, pendant 20 ans, l’un a parfaitement existé sans l’autre.
Il faudra qu’un jour on fasse un dossier sur l’internet et comme ce n’est pas le sujet je vais faire court : Internet reste bel est bien une invention remarquable. Ce n’est pas l’internet qui a fait que tous les ordinateurs du monde partagent des photos de chats mais il a simplifié les choses. Pour vous donner une idée, on va imaginer que nous sommes sur une planète vierge et que chaque ordinateur est une petite ville. Assez rapidement des ordinateurs ont été simplement mis en réseau en tirant des câbles entre eux, cela correspondait à tracer une sorte de voie totalement privée, réservée à l’usage des deux villes en question (et la plupart du temps, avant d’envoyer quoique ce soit sur la dite route, il fallait que les deux villes se soient bien synchronisées, organisées). Ce genre d’approche s’est développé et des réseaux de machines ont pu grandir mais en restant un peu chacun dans leur coin.
Internet a apporté un peu d’ordre à tout ça. D’abord il a permis l’interconnexion des réseaux : plutôt qu’avoir une route par connexion entre destinataires, il permettait à tous les réseaux d’être connectés et donc pas forcément avoir à construire une nouvelle route pour faire une nouvelle connexion. Ensuite, pour que ce ne soit pas trop le chaos, il a créé le code de la route (sous forme de protocoles, le plus connu étant TCP/IP) et donné un nom à chaque ville (l’adresse IP que possède chaque ordinateur).
Internet étant à la base un projet militaire, son but, selon la légende, était de résister à une attaque nucléaire. Le système créé était donc totalement décentralisé. En somme il marche sans autorité centrale. Cette décentralisation est tellement bien foutue que, non contente d’être capable de survivre à une explosion nucléaire, elle survit depuis sa création à toute tentative de prise de contrôle : on ne peut pas vraiment « éteindre » l’internet.
Avant l’arrivée du Web donc, on a des routes, on a un code de la route, on a des adresses pour les villes mais c’est à peu près tout. On a pas vraiment de moyen de transport et chaque maison de la ville (les fichiers de l’ordinateur) n’a pas d’adresse. Il existe bien sur d’ores et déjà un grand nombre de transports plus ou moins faciles à utiliser mais aucun n’atteint le « grand public ». Parmi les plus populaires, on peut citer le FTP (File Transfert Protocol) apparu en 71 qui permet d’échanger des fichiers, les newsgroups en 79 qui sont des sortes de forum de discussion (mais qu’on utilise avec un logiciel spécifique, le navigateur web n’existe pas encore!) et bien sur l’e-mail, apparu dès 65 (soit un peu avant l’Internet).
Le dossier commence et vous avez déjà de quoi briller à votre prochain repas de famille sans même toujours avoir bien compris ce qu’est le Web : « L’e-mail existait avant Internet qui lui même date de 20 ans avant le Web » (bon bien sûr, pratiquement personne n’a connu le web sans internet et encore moins l’e-mail sans internet).
Par contre à cette époque et jusqu’à la création du web, il n’était pas question de « surfer » sur internet, c’est à dire que tout un chacun ne pouvait pas s’allonger sur son lit, allumer son ordinateur et fouiller l’internet mondial à la recherche de la meilleure recette de charlotte au poires, accéder à internet était encore une activité suffisamment compliquée pour que seul une poignée d’universitaires et militaires y aient accès.
Il faut dire qu’il y a aussi une histoire de timing.l’Apple II, un des premiers ordinateurs largement distribué, n’est apparu qu’en 77 et les premiers ordinateurs ne se sont démocratisés chez les particuliers qu’à la fin des années 80 et le début des années 90 avec entre autres l’arrivée du Macintosh en 1984 et Windows en 85.
C’était cette joyeuse époque où « faire de l’ordinateur » était une activité en soi, aucunas besoin de préciser. Un peu comme aujourd’hui on parle de « vie connectée », sans différentiation.
Faciliter le partage
De l’autre coté de l’atlantique, alors que la SIlicon Valley était en train d’inventer l’informatique de l’on connaît aujourd’hui, un certain Tim Berners-Lee travaillait au CERN. Comme nous l’avions vu dans un précédent épisode, le Centre Européen pour le Recherche Nucléaire est un lieu unique. En effet, il s’y croisait, et s’y croise encore, des personnes de cultures, d’origines, et de formations différentes qui tachent de collaborer au mieux durant leur passage.
Le problème étant bien sûr qu’ils parlaient des langues différentes, utilisaient des ordinateurs différents, avaient des systèmes différents (avec bien plus de variété qu’aujourd’hui et aucune doc à consulter sur le web, vu qu’il n’existe pas encore), des logiciels différents, des procédures différentes, etc. Bref un joyeux bordel où le gros de l’information existait dans la tête des gens.
Et comme chaque équipe de scientifique venait faire ses expériences puis partait chez elle étudier ses données, il n’y avait pas vraiment « d’autorité centrale » pour organiser tout ça. Quand un nouveau développeur sous contrat arrivait au CERN, on lui présentait alors un grand nombre de personnes qui connaissait certaines autres personnes mais pas d’autres, qui savaient une parties de choses mais n’avait aucune idée des autres. Et tout le jeu était de retenir un maximum pour mettre de l’huile dans ce fonctionnement. Pour s’y retrouver, les un après les autres, des développeurs arrivaient avec leur nouveau système pour « aider » et demandaient à formater les données sous un certain format, utiliser un certain protocole, etc. Cela ne faisant qu’amplifier le chaos de la situation.
Tim Berners-Lee, sous contrat au CERN, conscient de ses problèmes, se dit qu’il était indispensable créer un système avec des règles que tout le monde puisse accepter : soit avec aussi peu de règles que possible. Une idée qui allait révolutionner le monde de l’information est d’utiliser ce bordel ambiant comme une force et mettre la connexion entre les utilisateurs, entre les machines, au centre. Pour le citer dans son passionnant livre « Weaving the Web » :
“In an extreme view, the world can be seen as only connections, nothing else. We think of a dictionary as the repository of meaning, but it defines words only in terms of other words. I liked the idea that a piece of information is really defined only by what it’s related to, and how it’s related. There really is little else to meaning. The structure is everything. There are billions of neurons in our brains, but what are neurons? Just cells. The brain has no knowledge until connections are made between neurons. All that we know, all that we are, comes from the way our neurons are connected. “
Cette idée que seuls les connexions entre les informations ont réellement de l’importance est ce qui a fait le succès de Google quelques années plus tard. A l’époque de l’apparition de Google, il existait beaucoup d’autres de moteurs de recherches. On voyait deux types de stratégies :
- Analyser les pages et faire remonter lors d’une recherche celles où le mot apparaît le plus. C’est ainsi qu’en cherchant salami vous pouviez tomber sur la page perso de Mr Salami. Ou encore que de nombreux sites rajoutaient dans leur pages une liste interminable de faux mot clés pour apparaître dans les recherches.
- L’autre approche était de tout catégoriser, de faire une sorte d’index, la plupart du temps créé en grande partie à la main où on listait les sites internet d’une même catégorie.
AltaVista, un des moteurs les plus populaires avant l’arrivée de Google avait même envisagé de demander à des humains de trier les pages en fonction de leur pertinence via une requête. Les créateurs de Google ont compris à quel point les liens pouvaient avoir de l’importance et ont décidé de calculer un indicateur que le web, par conception, rendait complexe à obtenir : combien de pages ont des liens qui redirigent vers une en particulier.
Le web permet aisément de mettre un lien vers une page sans demander quoi que ce soit au propriétaire de la dite page. Par conséquent, il n’était pas évident, sans parcourir tout le réseau, de déterminer combien de liens pointent vers la même page. L’algorithme de Google s’est tout de suite révélé très efficace. Par exemple, en tapant « Université », AltaVista vous renvoyait une liste anarchique d’université ou pages comprenant ce mot. Alors que Google, de son côté, vous renvoyait en première réponse Stanford, puis beaucoup d’autres universités renommées car beaucoup d’autres sites pointaient vers elles.
Mais revenons à la création du Web. L’idée de Berners-Lee était donc de permettre à n’importe qui, à n’importe quel moment, sans rien demander à personne, de lier un morceau d’information avec un autre sur n’importe quel ordinateur, n’importe où sur la planète. Rien que ça.
L’enjeu était donc d’avoir un système totalement décentralisé et sans contrainte. Afin que le partage d’information soit trivial, afin que personne n’ai à donner son aval pour valider la procédure et surtout afin qu’il n’y ai aucune limite de taille. Seulement 20 ans après internet, les grandes idées de ce réseau étaient déjà bien dans son esprit.
L’invention de Berners-Lee
Pour arriver à ses fins, Berners-Lee inventera 3 concepts et 2 logiciels que nous utilisons encore aujourd’hui.
Représenter l’information et les liens : Le HTML
D’abord il fallait choisir sous quel format représenter les informations. Il ne pouvait pas choisir un bête fichier texte parce que celui-ci ne comportait pas de liens. Il choisit donc de partir de l’hypertexte, un format déjà populaire à l’époque. Comme son nom l’indique, ce format de texte permet de rajouter un peu de mise en page et surtout les fameux liens. Si ce système existait depuis longtemps et permit de ne pas partir de rien, il ne permettait bien sûr pas de lier des ordinateurs entre eux via un réseau, qui est justement le principe du web. Mais il avait une base qui permettait de créer des pages de textes avec quelques éléments de mise en page : des titres, des sous-titres, des listes, etc. et déjà un début de système de lien.
Berners-Lee reprend les idée de l’hypertexte et crée le HyperText Markup Langage, plus connu sous le nom de HTML. C’est le langage toujours utilisé aujourd’hui pour les pages web (dans une version largement mise a jour depuis, on en est à ce jour à la version 5). Par exemple en envoyant via le réseau le texte suivant :
<html> <head></head> <body> <h1>Une page web</h1> <p>Bienvenue sur ma page <a href="http://info.cern.ch">web</a></p> </body> </html>
Le navigateur sera l’interpréteur pour représenter « une page web » comme un titre et « Bienvenue sur ma page web » comme un paragraphe. Et enfin, le mot « web » comme un lien qui pointe vers le tout premier site web : http://info.cern.ch
Transmettre le HTML, le HTTP
Une fois que l’on savait comment représenter l’information, il fallait encore la transmettre. Pour cela, rien de très extraordinaire: comme pour toutes les technologies sur un réseau d’ordinateur, on définit un protocole de communication. Comme pour les protocoles humains, il s’agit de définir les règles de savoir-vivre :
- Je vais arriver avec un chapeau et une cravate,
- Je vais frapper deux fois,
- Tu vas me répondre ça…
Ça n’a pas beaucoup d’intérêt de vous détailler ici le contenu exact du HTTP (Hypertext Transfer Protocol) mais au moins vous savez pourquoi vous voyez parfois apparaître dans les adresses web « http ». Il s’agit du protocole de communication du web!
L’adresse de destination : l’URL
Avec le HTML et le HTTP, on sait comment représenter l’information et quelle protocole suivre pour l’envoyer. Mais on ne sait pas encore où l’envoyer : il fallait définir l’adresse de tout document, n’importe où sur l’internet.
On avait déjà tous les outils pour avoir une adresse pour tout document :
- Internet avait amené les noms de domaine (vous savez, ce nom “podcastscience.fm” qui vous sert à accéder à votre podcast préféré) et adresses ip (4 nombres séparés par des points : 80.74.143.2),
- Chaque fichier sur chaque ordinateur a une adresse unique.
Berners-Lee présente l’Uniform Resource Locator que vous avez tous déjà aperçu, il est par exemple de la forme
http://www.podcastscience.fm/dossiers/2016/06/26/le-web
C’est à dire qu’elle est composée de :
- « http » : le protocole utilisé. Dès le début le but était d’avoir un seul type d’adresse pour tout, donc pouvoir l’utiliser aussi pour autre chose que le web.
- « www.podcastscience.fm » : le nom de domaine de l’internet qui indique une machine où est le document.
- « dossiers/2016/06/26/le-web » : dossiers séparés de slash qui amènent au document sur l’ordinateur de destination.
Tout était déjà là et ils ont juste été mis bout-à-bout. Mais cette simple idée a permis à tout le monde de faire un lien vers n’importe quel document de manière simple et lisible. Et surtout, élément le plus important, on peut créer le lien sans se poser la question de son existence : le système est totalement décentralisé.
Un programme va lire l’URL, choisir le protocole (ici HTTP), envoyer au nom de domaine, et une fois récupérée par l’ordinateur de destination, renvoyer le document demandé sur l’ordinateur!
A ce stade tout est en place conceptuellement pour faire fonctionner le WEB. Il ne manque qu’un petit détail : des logiciels pour utiliser et faire fonctionner ces concepts !
Les logiciels : Serveur et Navigateur
Pour faire fonctionner tout ça, il faut deux logiciels : un pour demander les pages web et les afficher : le navigateur. Un autre pour recevoir les demandes et y répondre : le serveur.
Le navigateur, vous le connaissez tous, il s’appelle Chrome, Firefox, Internet explorer, Safari ou autre, mais dans ce cas vous savez probablement déjà ce qu’est un navigateur. Quand vous tapez dedans une URL, une demande selon le protocole HTTP est envoyée via internet à un logiciel sur une autre machine : le server. Celui-ci la reçoit, la traite et renvoie un fichier HTML qui sera représenté dans votre navigateur, c’est le web !
A l’époque de sa création, Berners-Lee avait une vision du web où chacun partagerait des fichiers présents sur son ordinateur via le web. Chacun avait donc à la fois un serveur et un navigateur. Du coup, il se disait que le navigateur servirait à la fois à consulter les fichiers HTML chez les autres mais aussi à modifier les fichiers HTML chez soi. Ce ne fut finalement jamais le cas car aucun navigateur ne fut programmé pour le permettre. Quant à l’autre partie de sa vision, on en est très loin aujourd’hui: pratiquement personne n’auto-héberge son propre serveur. Au mieux il en loue un dans un data center. Et la plupart du temps, on utilise plutôt des services professionnels finalement centralisés pour partager nos données sur ce système décentralisé.
Cette idée finale du web, comme place de partage et de collaboration autour des idées, très proche de Wikipedia, est apparue bien des années plus tard. Ce qu’imagine Berners-Lee est une sorte de Wikipedia décentralisé, où chacun aurait des articles chez lui et pourrait les modifier.
C’est donc en 1993 que le web, tel que décrit ici, apparaît sous la forme d’une page sur une machine du CERN qui existe encore : http://info.cern.ch . Il ne restait plus qu’à lui trouver un nom. Il pense d’abord à « Mine Of Information » mais voyant que les initiales font MOI, il n’aime pas trop le coté égocentrique. Il pense alors à « The Information Mine » qui donne TIM, son prénom, pas beaucoup mieux… Il revient alors avec The World Wide Web, on lui fait remarquer que c’est un nom qui arrive à être plus court à prononcer que ses initiales « www », mais il l’aime bien. Le World Wide Web est né.
Les briques sont posées mais on est encore loin du web que vous connaissez aujourd’hui.
Mosaic, Netscape et la maturation du web
Le web des origines était en « lecture seule » et assez figé, c’est à dire que vous pouviez consulter des pages, mais rien faire d’autre :
- Pas de formulaires pour écrire des commentaires, poster un article de blog (d’ailleurs ça n’existait pas encore), etc.
- Pas de système sécurisé pour payer et donc acheter des choses en ligne
- Pas de notifications, de chatroom ou tout autre modification de votre page sans la recharger.
Bon et bien sur ne parlons même pas des vidéos, des retransmission live, etc.
Heureusement, ce cher Berners-Lee m’avait tout l’air d’être un amoureux d’un certain foutoir. Alors au lieu de garder pour lui sa création, la protéger, la diriger d’une manière dictatoriale… il insistera auprès du CERN pour rendre le web open source et libre et il engage toutes les personnes qu’il peut croiser à créer de nouveaux navigateurs web et d’utiliser le web un maximum sans se priver. Naissent alors plusieurs navigateurs sur la plupart des systèmes disponibles.
C’est avec Mozaic puis Netscape (qui servira de base à Firefox) que le web gagne de nombreux outils qui feront grandir sa popularité et ses usages. Ces navigateurs voient l’apparition des connexions sécurisées (qui permettront le paiement) et des formulaires (pour écrire des commentaires par exemple). Mais surtout deux nouveautés dont vous n’avez probablement jamais entendu parler et qui sont pourtant de plus en plus centrales : JavaScript et AJAX.
Au débuts du web, les fonctionnalités manquant, soit on devait rajouter des petites extensions à nos navigateurs pour les ajouter( comme avec le plugin Flash par exemple), soit c’est le navigateur lui même qui permettait de nouvelles fonctionnalités que ne permettaient pas les autres. C’était en particulier le cas pendant longtemps d’Internet Explorer, qui proposait un web modifié ou encore aujourd’hui de la plupart des navigateurs pour proposer en avance des technologies avant qu’elles ne deviennent des standard.
En 1995 apparaît JavaScript, un langage qui, selon la légende, a été développé en 10 jours pour Netscape. JavaScript change la donne pour plusieurs raisons. D’abord c’est un langage de programmation, un vrai. C’est à dire qu’il permet, comme on en avait parlé dans mon dossier sur les algorithmes, d’écrire une machine de Turing et donc de pouvoir écrire n’importe quel programme (contrairement à HTML qui n’est pas vraiment un langage dans ce sens). Mais surtout, étant arrivé très tôt, il est très vite intégré dans tous les navigateurs.
C’est à dire que sans installation supplémentaire par l’utilisateur, les développeurs ont maintenant à leur disposition un outil de mise en page, le HTML et un langage de programmation pour faire évoluer ces pages web sans la recharger. C’est ce langage qui va permettre à la page de prendre vie, de changer, sans pour autant avoir besoin de la recharger : mettre en plein écran une image Google Image, déplacer une carte de navigation, jouer à un jeu (non flash), etc.
Bien que Javascript permette de modifier la page après son chargement, il ne permet pas de charger du nouveau contenu. Pour cela il faut toujours recharger la page. Heureusement, en 2005, la dernière pièce de ce puzzle apparaît sous le nom d’AJAX. AJAX permet à une page web d’aller chercher des morceaux d’information pour se mettre à jour. C’est grâce à AJAX que lorsque vous arrivez en bas de votre page Facebook les nouveaux posts apparaissent sans rien avoir à faire, que dans la chatroom de Podcast Science vos messages sont envoyés et de nouveaux messages arrivent. En bref, avec Javascript et AJAX, les pages web prennent vie et restent connectées au Web même après le chargement. C’est cette technologie qui amènera ce que beaucoup appèlent le « Web 2.0 ».
AJAX et Javascript ont radicalement changé l’allure et le fonctionnement de nos pages web. La plupart des pages aujourd’hui ne fonctionnent plus comme un bête fichier HTML qui contient toute l’information. Une page comme celle d’un dossier de PodcastScience est bien un fichier HTML mais un bout de code JavaScript indique qu’il faut aller demander à un autre service, Disqus, les commentaires du dossier, un autre bout de JavaScript indique qu’il faut demander à SoundCloud le son de l’épisode, des balises images indiquent où il faut aller chercher les images, ici ou ailleurs, etc.
Bref vous l’aurez compris, une page web existe de moins en moins sur un serveur donné, elle est de plus en plus le patchwork d’un grand nombre de morceaux de pages disponibles sur divers serveurs (et voire même disponible nulle part mais plutôt calculés à la volée selon les besoins…).
Lobbying
Après son invention, Berners-Lee aurait pu laisser le Web vivre, le laisser se faire utiliser par tout un chacun, à sa guise, quitte à transformer ce merveilleux système en quelque chose de beaucoup plus limité pour des raisons commerciales : Le navigateur Mozaic par exemple tentait à ses début de faire croire qu’il était le Web et cherchait à mettre sous silence l’invention sous-jacente. Plus tard Internet Explorer, rapidement majoritaire, a essayé d’imposer son web, incompatible avec les autres. La conséquence est qu’aujourd’hui encore les développeurs doivent écrire deux versions d’un site web : la version Internet Explorer et les autres.
Ayant déjà décidé de ne pas en faire une entreprise pour faciliter sa propagation, Berners-Lee décide de créer en 1994 un consortium le World Wide Web Consorsium (W3C). Celui-ci aura pour rôle d’éditer les bonnes pratiques du web, donner des exemples, etc. En bref, il crée une place où celui qui le souhaite peut se reseigner sur les bonnes pratiques et apprendre à faire les choses bien.. Toujours dans sa même approche de ne rien imposer.
Le W3C existe encore aujourd’hui et n’a cessé de prendre de l’importance. C’est lui qui met sous forme normalisée les pratiques qui commencent à émerger en échangeant avec toute l’industrie. Le W3C a permis l’adoption comme standard d’un grand nombre de technologies. Si vous voulez en savoir plus, consultez l’excellent site www.evolutionoftheweb.com
Cela parait simple raconté rapidement comme cela entre deux lignes. Mais le web est une collaboration mondiale en perpétuelle évolution. Personne il y a 20 ans n’aurait pu imaginer une telle chose. En particulier, Berners-Lee n’était pas le premier à imaginer un outil pour faciliter la collaboration et le transfert de l’information. La France a même eu, dès 1980, le Minitel. La grande différence entre le minitel et le Web c’est la centralisation et la volonté de contrôle : Le Minitel était un modèle centralisé, contrôlé par un état. Le web est un modèle anarchique contrôle par personne. Seul le W3C édite des recommandations mais si demain il se met à éditer des recommandation que personne ne veut suivre, personne ne les suivra, point.
La fin de la guerre des langages
Grâce à Javascript, AJAX et aux différentes technologies qu’a pu acquérir le Web, les navigateurs sont capables de faire de plus en plus. Seules quelques applications spécifiques nécessitent encore un logiciel vraiment installé sur notre ordinateur. Aujourd’hui on peut éditer des images, faire de la visio-conférence ou même programmer via un site web.
Et le plus épatant c’est que du point de vue de l’utilisateur, les seuls langages utilisés sont ceux que connaît le navigateur web : Javascript et HTML (en vrai il y a deux trois autres trucs, tels que SVG, CSS mais ils restent annexes et surtout il n’y en a qu’un petit nombre). En effet, comme on l’a vu, du point de vue de l’utilisateur, il demande un document avec une URL et on lui renvoie un fichier qui contient de l’HTML et du JavaScript. Ce qui se passe entre la demande et la réception ne regarde que le développeur du serveur et de notre point de vue ça ne change rien.
Si le programmeur veut utiliseré un langage obscur de sa création, tant qu’il nous envoie de l’HTML et du Javascript tout va bien.
S’il veut complètement changer d’architecture et de langage du jour au lendemain, tant qu’il nous envoie de l’HTML et du JavaScript tout va bien.
S’il veut faire transiter notre demande à travers 2000 serveurs, chacun faisant une toute petite tâche spécifique, tant qu’il nous envoie de l’HTML et du JavaScript tout va bien.
C’est à dire que toute page que vous consultez dans un navigateur, si elle n’utilise pas de plugins comme Flash, au final, elle est en HTML et en Javascript :
- Google Docs ce n’est rien d’autre que du HTML et du Javascript
- Agar.io ce n’est rien d’autre que du HTML et du Javascript
C’est pourquoi aujourd’hui beaucoup militent pour que comme une langue vivante, le HTML soit appris dès le plus jeune âge.
Pendant longtemps, l’informatique a été le jeu d’une guerre entre les langages de programmation, les bibliothèques logicielles, etc. Aujourd’hui grâce au web, chacun peut travailler avec ce qu’il veut, voire même utiliser des outils totalement incompatibles entre eux, très dur à configurer, tant qu’au final il envoie les données selon le protocole web, en HTML et Javascript.
Et les développeurs ne s’en privent pas, DropBox décide de changer totalement son lieu de stockage des données et vous ne remarquez aucun changement. Twitter change totalement d’architecture et de langage de programmation et vous ne voyez pas une seule différence. Le web permet aux différentes entreprises de se renouveler, de se mettre à jour sans action de l’utilisateur!
Ainsi, le Cloud, dont vous devez entendre régulièrement parler, est justement l’aboutissement d’une vison du Web, celle où les ordinateurs se résument à un navigateur web qui interprète le HTML et le Javascript et où tout le reste se fait à distance. Il se peut que d’ici quelques années, tout comme aujourd’hui peu de monde fait la différence entre internet et le web, peu de personnes feront la différence entre un navigateur web et un système d’exploitation.
Biblio :
- The innovators by Walter Isaacson : https://www.amazon.fr/Innovators-Inventors-Hackers-Geniuses-Revolution/dp/1471138801/ref=sr_1_1?ie=UTF8&qid=1465222524&sr=8-1&keywords=the+innovators
- Weaving the web by Tim Berners-Lee : https://www.amazon.fr/Weaving-Web-Original-Ultimate-Destiny/dp/006251587X/ref=sr_1_1?ie=UTF8&qid=1465222558&sr=8-1&keywords=weaving+the+web
- From Gutenberg to Zuckerberg : https://www.amazon.fr/Gutenberg-Zuckerberg-Really-Internet-English-ebook/dp/B006PI6TEW/ref=tmm_kin_swatch_0?_encoding=UTF8&qid=1465222591&sr=8-1-fkmr0
- Hacker & Painters by Paul Graham : https://www.amazon.fr/Hackers-Painters-Paul-Graham/dp/1449389554/ref=sr_1_1?ie=UTF8&qid=1465222667&sr=8-1&keywords=hacker+and+painters
Quote :
- “I had argued that it was ridiculous for a person to have two separate interfaces, one for local information (the desktop of their own computer) and one for remote information (a browser to reach other computers). Why did we need an entire desktop for our own computer but get only a window through which to view the entire rest of the planet? Why, for that matter, should we have folders on our desktop but not on the web?”