Comment en est-on arrivé là ? Une histoire socio-technique du numérique

Précédent Retour au parcours Suivant

Introduction


Ce chapitre vous propose de parcourir en accéléré l'histoire socio-technique du numérique. Il va de soi que pour des besoins de concision et de vulgarisation, cette histoire a été grandement simplifiée. Voici néanmoins quelques points d'attention :L’histoire du numérique est en fait l'histoire de nombreuses technologies entremêlées, qui ne peuvent pas être vu comme une suite logique et continue de progrès techniques. Certains de ces progrès se sont parfois déroulés simultanément dans le monde, sur plusieurs années, sur plusieurs innovations (la première n'ayant pas fonctionné par exemple). Le progrès technique est loin d'être linéaire.L'histoire aime retenir les noms d'inventeurs géniaux ou de chefs d'entreprise audacieux. Mais les inventions sont là encore très souvent le résultat de collaborations nombreuses, et très peu d'entre elles sont le fait d'un seul homme, ou d'une seule femme. En parlant des femmes, leur contribution à l'histoire de l'informatique est bien plus grande qu'il n'y parait, et nous tacherons de le rappeler dans ce chapitre.L’histoire des sciences et des techniques nous enseigne qu’une invention ne s’explique pas uniquement au travers de sa dimension technique. Elle s’explique par la société, la culture et la politique de son époque. Autrement dit, les ordinateurs ne se sont pas inventés tous seuls. Ils sont nés de contextes politiques et sociaux qui leur ont donné corps, et qui les ont fait ensuite évoluer faire ce qu'on connait aujourd'hui.

Nous allons parcourir l’histoire du numérique au travers des trois grands ensembles de technologies qui façonnent l’essentiels de nos usages et pratiques quotidiennes. Trois grands ensembles si imbriqués aujourd’hui qu’il est même compliqué de les démêler. Il s’agit de l’ordinateur, machine à calculer, d’Internet, réseau pour communiquer, et du web, interface pour s’exprimer.

1) Des superordinateurs aux smartphones


Pour les nouvelles générations qui n'ont pas connu l'évolution de l'informatique, il est difficile de croire qu'un smartphone est en fait un ordinateur miniaturisé et équipé d'un écran tactile, alors que l'un des premiers ordinateurs pesait 30 tonnes et occupait un espace de 167 m². Cet ordinateur, ou « superordinateur », le voici : l'ENIAC, ou Electronic Numerical Integrator Analyser and Computer, ou en français, Analyseur électronique à intégrateur numérique et ordinateur.

Image

L’ENIAC à Philadelphie, en Pennsylvanie. Source image : Wikipedia


Aux origines des ordinateurs : un besoin de calcul...


L'ENIAC, ancêtre de tous nos ordinateurs contemporains (qu'ils soient des ordinateurs fixes ou portables, tablettes ou smartphones) est lui-même l'héritier d'une longue histoire de machines à calculer. En effet, dès qu'il s'est sédentarisé, l'être humain a eu besoin de cette capacité de calcul, qu'il n'a eu de cesse de faire progresser en même temps que lui. Que devait-il calculer ? D’abord beaucoup de choses en lien avec l’agriculture : les crues et les décrues, le rythme des saisons, mais aussi les stocks. Ensuite, tous les calculs liés aux taxes et impôts, très rapidement mis en place dans les premières sociétés humaines dès l’antiquité. Enfin, ce furent les calculs liés à la guerre et la science : calculs balistiques, modélisation, etc.À quoi pouvait ressembler une machine à calculer mécanique ? Voici par exemple sur votre droite la pascaline, créée par Blaise Pascal au 17ème siècle pour aider son père, lui-même précepteur d'impôt. Sur votre gauche, un des premiers supports de stockage de calcul, sur un papyrus, avec des problèmes visant à aider par exemple à la quantification de grain ou à une répartition équitable ou inéquitable des pains parmi les hommes.

À gauche, Fragment du Papyrus Rhind (env 1500 av JC) : 87 problèmes résolus d’arithmétique, d’algèbre, de géométrie et d’arpentage. unknown (c. 2000 B.C), Public domain, via Wikimedia Commons. À droite, une pascaline, signée par Pascal en 1652, au musée des arts et métiers du Conservatoire national des arts et métiers à Paris. David.Monniaux, CC BY-SA 3.0, via Wikimedia Commons

Et très vite, d'efficacité et de productivité...


Le 18ème siècle et la première révolution industrielle apportent la machine à vapeur et de nouveaux besoins d’efficacité, de production, mais aussi d’automatisation.

Le métier à tisser Jacquard, par exemple, mis au point à Lyon en 1801, est le premier système mécanique programmable. C’est à dire qu’il est possible de programmer un motif pour que la machine assure ensuite automatiquement le tissage. L’objectif est donc d’améliorer la productivité grâce à l’automatisation, permise par l’une des premières techniques de programmation, inventée bien avant les ordinateurs : les cartes perforées. Il s’agit de morceaux de fins cartons rigides dans lesquels des trous sont percés. Une machine est ensuite capable de lire ces cartons en repérant la présence ou l’absence de trou, avec une action prévue dans les deux cas.

L’émergence des télécommunications (télégraphe, morse, téléphone) permet de communiquer plus rapidement et plus efficacement, notamment en temps de guerre. Le temps va commencer à s’accélérer.

Image

À gauche, une machine Jacquart qui utilise des cartes perforée. Musée des Arts et Métiers, CC BY-SA 3.0, via Wikimedia Commons. À droite, Le télégraphe de Morse de 1837. Zubro, CC BY-SA 3.0 via Wikimedia Commons.

Avec la seconde révolution industrielle (moitié du 19ème siècle), le monde entre dans l’ère de l’électricité. De nouveaux besoins de calcul et de traitement de l’information émergent à nouveau, poussés de tous les côtés : les besoins des États modernes (recensement de la population, calcul des impôts et taxes, administrations, etc.), les besoins de la science et les besoins de la guerre. La population a énormément progressé, les entreprises et grandes bureaucraties adoptent des méthodes « d’organisation scientifique du travail».

L’évolution de la population entre 1804, où le premier milliard d’habitant est atteint, et 2042 (projection). Tout s’emballe après la seconde guerre mondiale (baby boom, progrès de la santé et de l’hygiène, progrès de l’agriculture, etc.).

Les guerres, nombreuses, accentuent ces tendances et justifient des investissements colossaux. Calculs balistiques, enjeux de chiffrement et de décryptage des communication, gestion des soldats et de la population restée à l’arrière, mise en place d’une économie de guerre. Puis retour à la paix et reconstruction. Tous ces besoins en calculs vont peu à peu conduire à l’élaboration des ordinateurs.

La troisième révolution industrielle ?

On a tendance à qualifier l’informatisation, donc l’émergence des ordinateurs comme outils de calculs et de productivité, comme la troisième révolution industrielle. En réalité, comme nous l’évoquerons à plusieurs reprises dans ce parcours, de nombreux chercheurs en sciences humaines et sociales qualifient plutôt l’informatisation de révolution cognitive, dans le sens d’une rupture profonde dans la façon dont nous créons (parfois collectivement) et partageons de la connaissance et des idées.

Vers les premiers ordinateurs


L'histoire des ordinateurs peut être divisée en plusieurs périodes distinctes, chacune marquée par des avancées significatives en matière de technologie et de fonctionnalité. La première période, qui s'étend de la fin du 19ème siècle jusqu'aux années 1940, a vu l'émergence des premiers calculateurs mécaniques et électromécaniques. Ces machines étaient limitées en termes de capacité de calcul et de programmabilité, mais elles ont néanmoins permis de réaliser des tâches complexes qui auraient été impossibles à effectuer à la main (voir tableau plus bas).
Les six personnes chargées de faire traiter des problèmes par l'ENIAC, premier ordinateur universel construit par l'université de Pennsylvanie pendant la Seconde Guerre mondiale, furent détachées d'un corps de calculateurs humains, qui étaient pour la grande majorité... des calculatrices. Les premières personnes à exercer ainsi la profession de programmeur dans le monde furent des femmes. Cela permit à l’époque à la société d'accepter que la femme puisse faire carrière dans le traitement des données à une époque de division des rôles selon le sexe.
Au fur et à mesure que l’informatique s’est professionnalisée, a concentré des moyens financiers et des enjeux politiques, les hommes ont rejoint en masse cette nouvelle filière fort attrayante, alors que le nombre de femme a peu évolué au fil des années. Mathématiquement, cela a rendu le monde du numérique de plus en plus inégalitaire. Aujourd’hui, on compte moins de 20% de femmes occupant des positions dans des métiers de programmation. Et l’inégalité ne s’arrête pas à la parité, il y a également la question des populations de couleur, des minorités sexuelles, des personnes d’origine populaire, toutes sous-représentées dans le monde numérique qui façonne leur présent et futur.
Pour aller plus loin sur ce sujet : Le documentaire The Computers: The Remarkable Story of the ENIAC Programmers. On peut également citer le film Les Figures de l'ombre, qui raconte l’histoire de 3 femmes noires, Katherine Johnson, Dorothy Vaughan et Mary Jackson, qui ont contribué aux programmes aéronautiques et spatiaux de la NASA. Ou encore, le film Imitation Game, qui relate l’histoire romancée d’Alan Turing et son invention d’un ancêtre des ordinateurs pour décoder la machine nazie Enigma. Et enfin, le livre indispensable de la chercheuse Isabelle Collet : les oubliées du numérique.

D’abord pour la recherche et l’armée

La deuxième période, qui s'étend de la fin des années 1940 jusqu'aux années 1960, a été marquée par l'émergence des premiers ordinateurs électroniques. Ces machines étaient basées sur des tubes à vide et étaient beaucoup plus rapides et flexibles que leurs prédécesseurs. Elles ont permis le développement de nouveaux domaines tels que la science, la finance et la défense, et ont conduit à des avancées significatives en matière de recherche scientifique et de technologie.

L’ordinateur, une réponse technique à un besoin ancien de puissance de calcul
Les premiers ordinateurs utilisant les circuits intégrés sont apparus en 1963. L'un de leurs premiers usages a été dans les systèmes embarqués, notamment par la NASA dans l'ordinateur de guidage d'Apollo et par les militaires dans le missile balistique intercontinental LGM-30. Le circuit intégré autorise alors le développement d'ordinateurs plus compacts que l'on appelle les mini-ordinateurs. Ce sont ces ordinateurs là qui vont commencer à s’implanter dans les entreprises de toutes tailles, dans les universités, et dans certaines écoles.

Photo de l'armée américaine prise en 1962. À gauche : Patsy Simmers (mathématicienne/programmeuse), tenant la carte ENIAC. A côté : Mme Gail Taylor, tenant le tableau EDVAC. Suivant : Mme Milly Beck, tenant le tableau ORDVAC. A droite : Mme Norma Stec (mathématicienne/programmeuse), tenant le tableau BRLESC-I. Source : Wikipedia

Les grandes entreprises voient également le potentiel des ordinateurs

Les organisateurs, les cadres, les ingénieurs conseils veulent améliorer la productivité dans les services et les administrations. Concrètement, cette amélioration de la production conssite à réduire le prix de revient de l’opération administrative (comme pour les opérations d’usinage) et à permettre aux responsables de mécaniser ou de déléguer pour se dégager du temps à la réflexion.
Après la volonté de robotisation des chaines de productions, qui concernent les cols bleus, on passe à une volonté d’automatisation d’une partie des tâches des cols blancs.

Une photo d’un ordinateur UNIVAC

La miniaturisation des ordinateurs étend leurs usages

La troisième période, qui s'étend des années 1960 jusqu'aux années 1980, a vu l'émergence des premiers ordinateurs personnels (PC) et des microprocesseurs. Ces machines étaient beaucoup plus abordables et accessibles que les ordinateurs précédents, et ont conduit à une adoption massive dans le monde entier. Les PC ont également permis l'émergence d'une nouvelle industrie, celle des logiciels, qui a donné naissance à des applications telles que les systèmes d'exploitation, les jeux vidéo et les suites bureautiques.Les progrès techniques et la transformation de l’industrie des composants permettent une miniaturisation croissante des ordinateurs. On passe alors des semi-conducteurs aux Transistors, des circuits intégrés aux microprocesseurs, des bandes magnétiques aux disques durs. La loi de Moore, en prophétisant un doublement de la puissance des microprocesseurs tous les deux ans, va permettre une véritable « planification capitaliste » entre fabricants de composants et d’ordinateurs.

Un graphique représenant la la Loi de Moore. Source : Wikipedia.
Le nombre de mini-ordinateurs sur le marché double ou triple tous les deux ans : 1 700 fin 1968, 19 000 fin 1969.

Très vite, le développement de l’informatique devient politique

Au milieu des années 60, les dirigeants européens s’inquiètent de la mainmise américaine sur le continent. De fait, un fossé technologique se creuse entre le géant américain et l’Europe, marqué par la reprise de Bull (FR) par General Electric (US) en 1964. De son côté, le géant IBM étend son emprise en profitant à plein du marché commun.

Politiquement et géopolitiquement, l’informatique est devenue un enjeu stratégique. La France lance le Plan Calcul en 1966 pour assurer l’autonomie du pays, puis le Plan Informatique pour Tous en 1971. Deux plans considérés comme des échecs, et qui n’auront pas permis d’atteindre les objectifs affichés : développer l’industrie française et assurer l’autonomie du pays en matière de technologies numériques. Aujourd’hui encore, la France et l’Europe payent stratégiquement ce retard à l’allumage s’agissant des infrastructures numériques : l’immense majorité des usages passent par des services américains.

En 1975, l’apparition des circuits intégrés et de fournisseurs indépendants de composants et de logiciels baisse le coût de la mise au point des ordinateurs. Cela favorise l’expansion des mini-ordinateurs, qui s’attaquent au marché « gestion » (banques et administrations). Un processus comparable est en train de s’annoncer avec les micro-ordinateurs. La miniaturisation des composants, la baisse des coûts, laissent enfin envisager des micro-ordinateurs domestiques. Mais l’ordinateur personnel n’est pas que le résultat d’un progrès technique, d’une simple miniaturisation des composants. Rappelons que dans les années 80, il n’y avait ni Internet ni le web, et personne ou presque ne rêvait d’acquérir un ordinateur, en dehors de quelques passionnés. Pour que l’ordinateur personnel advienne, il fallut donc un contexte social, culturel, politique. C’est ici qu’entrent en scène les mouvements de contre-culture, et notamment le mouvement hippie.

Aux origines hippies de l’ordinateur personnel


La première partie de l’histoire des ordinateurs fait état de très gros ordinateurs, très chers, utilisé dans quelques grandes entreprises, laboratoires de recherches, universités, et centres militaires. Rappelons-le, l’ordinateur est d’abord et avant tout une réponse technique à un besoin de calcul, puis d’efficacité et de productivité. En aucun cas d’émancipation individuelle, de partage de la connaissance, ou encore d’exercice de sa liberté d’expression.
Sauf que dans les années 60-70, plusieurs événements, de nature différentes, s’entremêlent. Du point de vue technique, l’informatique se miniaturise, les prix baissent, la filière industrielle se met en place : les premiers usages se développent. Des universités aux grandes entreprises, le grand public se familiarisent avec ces nouvelles machines. Les salariés expérimentent par exemple le « time–sharing », ou temps partagé sur ordinateur, pendant lequel ils accèdent via des terminaux personnels à une unité de calcul partagée. Du point de vue politique, des mouvements de contre-culture naissent dans plusieurs pays du monde, en particulier aux Etats-Unis avec le mouvement hippie, ou en France avec Mai 68.
Ces mouvements joueront un rôle déterminant dans l’histoire de l’informatique. Ils contribuent à faire d’un outil de calcul un outil d’émancipation. D’un outil militaire de contrôle, un outil de liberté d’expression.

"Further" (également connu sous le nom de "Furthur"), le célèbre bus de Ken Kesey et des Merry Pranksters, festival Bumbershoot, Seattle, Washington, 1994. Source : Wikipedia.
Le mouvement hippie est un mouvement de contre-culture apparu dans les années 60. Politiquement, s’il peut être proche d’une partie de la nouvelle gauche américaine, qui veut changer le monde, ce mouvement a la particularité de ne pas vouloir faire la révolution, ni même de politique. Plutôt que de vouloir transformer un monde qui ne leur convient pas, les hippies choisissent de s’en retirer, pour aller vivre dans des communautés notamment. Le mouvement est composite bien sûr, mais il partage quelques valeurs fortes : un refus de l’État et de l’autorité quelle qu’elle soit, un pacifisme fort (peace and love), une volonté de retour à la nature, un attrait pour les drogues psychédéliques et les expériences initiatiques. Et un intérêt fort pour une réappropriation émancipatrice des technologies.
Présenté par Steve Jobs comme l’ancêtre de Google, le Whole Earth Catalog est particulièrement représentatif de cette volonté d’appréhender la technologie comme un outil capable de partager de l’information, de rapprocher les gens, de les augmenter cognitivement. Comme l’a rapporté Kevin Kelly, fondateur du magazine Wired, « le World Earth Catalog était un excellent exemple de contenu généré par les utilisateurs, sans publicité, avant Internet. Fondamentalement, Stewart Brand [le créateur du Whole Earth Catalog] a inventé la blogosphère, bien avant les blog. »

  • L’intérieur du Whole Earth Catalog, une des bibles de la contre-culture. Source : Kevin Lim sur Flickr.
Ainsi, pour une partie de la jeunesse américaine éduquée, présente dans les campus ou en marge, l’ordinateur tel qu’il est actuellement conçu est confisqué par les grosses organisations, et notamment le méchant de l’époque, IBM, surnommé « Big Blue ». Mais également par l’état et l’administration, surnommé quant à lui « Big Brother ». 1984, la dystopie totalitaire de George Orwell, est dans les esprits, et Apple l’utilise comme référence pour sa publicité de lancement du Macintosh, devenue mythique. Ainsi, l’ordinateur pourrait devenir un outil d’émancipation individuelle si on réussissait à en faire une machine personnelle au service de l’invididu et de sa créativité, et lui permette de se connecter aux autres grâce au réseau Internet naissant et aux ancêtres des réseaux sociaux (Usenet notamment, inventé en 1979). Il y a ici un désir fort de pouvoir d’agir, de libération des carcans familiaux et bureaucratiques. Voire même, dans un contexte terne de guerre froide, d’échapper à la surveillance, à l’endoctrinement des esprits, à la mainmise des États.

Lien de la publicité Apple - 1984
À cette même époque, dans les labos et les esprits des précurseurs de ce domaine, il émerge parallèlement deux visions de la machine : d’un côté, des machines intelligentes qui apprennent à côté des humains mais indépendamment d’eux : les intelligences artificielles, déjà ! De l’autre, des machines qui rendent les humains plus intelligents, plus collaboratifs, plus agiles. Steve Jobs parlait ainsi de l’ordinateur comme d’une « bicyclette pour l’esprit ».
Douglas Engelbart utilisant le clavier d'accords à 5 boutons du NLS, un clavier QWERTY standard et une souris à 3 boutons, vers 1968. Catalogue NMAH #2015.3073.11, don de SRI International. Source : Invention.si.edu.
Pour résumer, la Silicon Valley des années 80, cet endroit si particulier aux États-Unis, forme un creuset où se retrouvent et se mélangent trois entités qui ensemble contribuent à inventer l’ordinateur personnel, puis Internet. Les militaires, qui financent abondamment les innovations dans les domaines de la cybernétique, de l’intelligence artificielle et de l’informatique. Les chercheurs, qui conçoivent, développent, et sont les premiers utilisateurs de la puissance de calcul offerte par l’informatique. Et enfin, notre communauté issue de la contre-culture américaine : des hippies, des hackers, des beatniks, et parfois un peu de tout ça.
Cette communauté, ce sont tous ces anonymes qui ont fréquenté les premiers clubs d’informatique, comme le mythique Homebrew Computer Club. C’est Steward Brand, qui publie son ouvrage culte de contre-culture, le Whole Earth Catalogue en 1968. C’est Douglas Engelbart qui anime la « mère de toutes les démos » la même année. C’est encore Steve Jobs et Steve Wozniack qui créent Apple en 1976. C’est cette communauté qui a désiré l’ordinateur personnel, et qui a ensuite contribué de toutes ses forces à lui donner une existence.

À gauche, l'IBM PC 5150, l'un des premiers ordinateurs personnels lancé en 1981. Source image Wikipedia. À droite, l’ordinateur phare d’Apple, lancé en 1984 avec clavier et souris. Source : raneko sur Flickr.
Parallèlement au développement constant des ordinateurs et de l’informatique (composants, logiciels, langages de programmation), les télécommunications prennent leur ampleur : le téléphone à domicile se généralise. En France, la radio est libérée en 1981. À l’embranchement, le réseau Internet se développe et prépare lui aussi sa révolution. Nous en parlerons dans le second chapitre. Concernant notre histoire accélérée de l’ordinateur, il manque une dernière étape, celle qui a propulsé cet appareil dans la poche de la moitié de l’humanité en une quinzaine d’année.
One more thing...
Le 9 janvier 2007, devant une assemblée hystérique, Steve Jobs dévoile le premier iPhone à la convention Macworld. Il s’agit donc d’un ordinateur de poche, qui reprend les fonctionnalités musicale de l’iPod (qui cartonne !), d’un navigateur web mobile, et bien sûr d’un téléphone.

Quand Steve Jobs présentait le premier iPhone – Vidéo Brut
D’un point de vue économique, l’iPhone, et tous les smartphones qui succéderont, vont être pendant très longtemps des marchés juteux, faisant par exemple la fortune d’Apple ou de Samsung. Sur un plan plus sociologique, l’ordinateur était encore un équipement de « sachant », nécessitant un rapport important à l’écrit, avec le clavier et la souris. Combiné à Internet et au web, équipé d’une interface tactile, intégrant de nouveaux formats basés sur l’image et l’audio, le smartphone va permettre une massification accélérée des usages et se diffuser dans toutes les couches de population, dans tous les pays du monde. Aucun équipement technologique n’a connu de déploiement aussi massif et fulgurant à ce jour.
À retenir
· Les ordinateurs étaient initialement des machines à calculer mécaniques programmable
· Leur développement a suivi les enjeux militaires et industriels et leur puissance de calcul s'est considérablement améliorée
· Ils se sont ensuite miniaturisés et sont devenus des produits grand public utilisés quotidiennement pour communiquer, travailler, se divertir, consommer.
Pour aller plus loin
· Une brève histoire de l'informatique, de 1945 à nos jours
· Histoire des ordinateurs (Wikipedia)
· Petite histoire de l'informatique et d'Internet

2) D'Arpanet à la 5G


Les débuts des réseaux


Si l’histoire de l’informatique s’inscrit dans une histoire longue des machines à calculer et à automatiser, Internet s’inscrit dans une histoire longue des télécommunications. À partir de 1963, des réseaux comme Arpanet ou le réseau Cyclades en France expérimentent l’interconnexion d’ordinateurs. Ils croisent ainsi les intérêts de deux entités clés qui vont les financer : le monde de la recherche, qui désire disposer au plus efficace de la capacité de calcul combinée de tous le parc d’ordinateur d’un territoire. Et surtout l’armée américaine, qui dans un contexte de guerre froide (la DARPA et la NASA sont créées en 1958 pour réagir au traumatisme du lancement du satellite soviétique Spoutnik en 1957), s'intéresse à unifier les techniques de connexion entre ordinateurs pour avoir un système de commandement décentralisé, à la fois efficace et résilient.
Ainsi, Arpanet se construit, largement sur fonds militaires, et autour de choix technologiques audacieux qui sont, là encore, le reflet d’un contexte social, politique et culturel :
· Un réseau distribué et minimaliste, sans centre névralgique (contrairement aux réseaux de télécommunication habituels), donc pas de possibilité de surveiller, censurer, contrôler à un niveau central.
· Une transmission d’informations par « commutation de paquets ». C’est à dire que lorsqu’on envoie un fichier sur le réseau, ce fichier est en fait découpé en plein de petits paquets, qui circulent chacun sur les voies les plus rapides du réseau pour atteindre leur destination, et se recomposer en fichier.
· Des protocoles ouverts et non propriétaires, comme TCP/IP, même si d’autres protocoles prioriétaires les concurrencent pendant un temps.
Les premières interconnexions
En 1972, Ray Tomlinson mit au point la première application importante d’Internet : le courrier électronique. En octobre 1972, Kahn organisa la première démonstration à grande échelle d'ARPANET à l'International Computer Communication Conference (ICCC). C'était la première démonstration publique.

Source image : Wikipedia
Le réseau Arpanet adopte le 1er janvier 1983 la suite de protocoles TCP/IP qui sera la base d'Internet. Le choix de ce protocole n’a pas été aisé. En effet, les discussions sont freinées par le sentiment des opérateurs télécoms de différents pays qui estiment que cette évolution peut nuire, à terme, à leurs monopoles respectifs. L’occasion de rappeler que la construction d’Internet est une suite de choix techniques et politiques, sur lesquels des livres entiers ont été écrits.
Le réseau naissant a été une oeuvre collective, contributive, fortement influencée par la pensée de plusieurs pionniers : défiance de l’État centralisé et des institutions, importance de la collaboration, prise de décision collective, supériorité de la réputation et des réalisations aux diplômes. De belles valeurs qui tendent à masquer la formidable homogénéité de ces pionniers et créateurs d’Internet : des hommes blancs, très diplômés, largement américains, et très proches dans leur pensée politique.
Internet passe du public au privé et se déploie
En 1984, les militaires concluent positivement leur expérimentation et Arpanet est scindé en deux réseaux : Milnet pour le réseau militaire, Arpanet pour le réseau universitaire. Arpanet est alors transféré à la National Science Fondation (NSF), qui sera rapidement submergée par la taille du réseau. Transféré aux premiers Fournisseurs à Internet de l’histoire, Internet est privatisé.Qui utilise Internet dans ces années 80-90 ? Les militaires (discrètement et sur leur réseau). Les laboratoires de recherche et les universités qui fabriquent Internet pour partager leurs travaux et leur puissance de calcul. Et toujours notre communauté de hackers, passionnés, hippies, issus de la contre-culture américaine et pétrie d’utopies (d’idéologies également, notamment libertarienne et techno-utopiste) et d’espoirs.
Ce qui va vraiment propulser Internet dans le grand public, c’est l’émergence d’un autre ensemble de technologies, largement conçue sur le continent européen cette fois : le World Wide Web.
À retenir
· Internet est un ensemble de protocoles ouverts qui permettent à de multiples réseaux de communiquer ensemble. Internet, ou « inter network » est un réseau des réseaux.
· Les débuts d’Internet sont très liés aux financements de l’armée américaine, et notamment de la DARPA qui finance Arpanet, le principal ancêtre d’Internet
· Internet a été construit autour d’idées politiques et de choix techniques forts : méfiance des États donc réseau distribué, croyance méritocratique donc processus de décision technocratiques.
Pour aller plus loin
· Création et développement d'Internet : une histoire en trois récits
· 02A-Cult-Num - Histoire de l'Internet
· Une contre-histoire de l'Internet
· Vidéo : l'histoire d'internet en France - archive INA
· Vidéo : Du télégraphe à Internet : l'incroyable histoire des câbles sous-marins
3) Du web 1.0 au web social
Internet n’est pas le web. Internet est largement créé aux États-Unis par des chercheurs américains. Le web lui est conçu en Europe, au CERN, par un citoyen européen, Tim Berners-Lee. Internet se développe à partir des années 60, alors que le web se lance au début des année 90. Le web est une application d’Internet, c’est un système de navigation qui repose sur la mise en réseau d’ordinateurs.
Beaucoup de différences, donc. Mais tout comme Internet, le web répond à une problématique de chercheur : permettre à différents collaborateurs de partager efficacement des informations. Il en reprend également diverses bases idéologiques et politiques. Il est décentralisé, l’information peut circuler horizontalement, grâce à la logique de liens hypertextes. Le classement se fait « par le bas » et non plus « par le haut ».
Le web ouvre Internet au grand public
En 1991, Tim Berners Lee pose les bases du « web » et en publie le code. Concrètement, le web fonctionne sur trois piliers techniques :
· HTTP (pour HyperText Transfer Protocol) est le protocole de communication communément utilisé pour accéder aux sites Web. C’est pour ça qu’une adresse web commence par HTTP: Depuis quelques années, on utilse le protocole HTTPS, qui rajoute le chiffrement des informations et sécurise donc les transactions.
· Le HTML, qui est le langage permettant de programmer le contenu des pages web. Très simple et minimaliste à l’origine, il s’est petit à petit complexifié et a été complété par de nombreux autres langages (CSS, Javascript, PHP, Ruby, etc.).
· Le navigateur web, qui permet de lire une page programmée en HTML, et de passer de liens en liens grâce aux hypertextes qui font le principe du web.
Vers 1992, Tim Berners Lee décide de léguer son invention (spécifications et code sources) au domaine public, ce qui sera accepté par le CERN et réalisé en 1993. Ce choix est probablement l’un des plus importants de notre histoire, puisqu’il a permis l’incroyable succès du web, et avec lui, celui d’Internet.Très rapidement, l’histoire accélère. En 1993, le premier navigateur internet, Mozaic, voit le jour. En 1995 : la NSF transfère le service d’internet aux premiers fournisseurs d’accès à internet (par système d’appel d’offre). Le réseau Internet est privatisé, le déploiement va pouvoir commencer.

La formidable expansion d'internet. Source image : Wikipedia
Un web 1.0 encore très descendant
Le web de la fin des années 90 et du début des années 2000 est un web en pleine expérimentation. La très grande majorité des sites qui se créent sont des sites institutionnels ou des sites commerciaux (Ebay, Amazon). Certains premiers médias voient le jour sur le web.
Ce web 1.0 est statique, c’est à dire qu’on ne peut pas y réagir : le commenter, créer ses propres contenus facilement. Tout doit être programmé à la main, dans le langage HTML notamment, ce qui restreint largement ses usages à des utilisateurs confirmés, des passionnés, ou des entités qui peuvent se payer des développeurs.
Néanmoins, très rapidement le nombre de site croît, et alors se pose une problématique qui continue de questionner aujourd’hui : comment trouver ce que l’on cherche sur le web si des milliers, voire des dizaines de milliers de sites existent ?
Trouver l’information sur le web, un enjeu immense qui survient très tôt
Deux stratégies s’opposent pour trouver de l’information sur le web. La première vient du monde de l’archivage, d’un « classement par le haut », et sera matérialisée par les annuaires, Yahoo en tête. La seconde vient du monde universitaire et d’un « classement horizontal, par le bas », et sera matérialisée par les moteurs de recherche, Google en tête.

Une capture d’écran de Yahoo, lancé en 1994. Source : Wayback Machine
Sur les annuaires, le classement se fait dans une arborescence de catégories, censée couvrir tout ou partie des centres d'intérêt des visiteurs. Chaque catégorie contient des sous-catégories concernant des aspects plus pointus d'un sujet donné et des hyperliens vers les sites agrémentés d'une description. Les annuaires peuvent être généralistes ou spécialisés, géographiques ou mondiaux, contributifs ou non. Mais contrairement aux moteurs de recherche, qui arriveront dans un second temps, le classement des annuaires se fait par des humains, d’où le « classement par le haut », par des sachants qui, à l’instar des archivistes ou des bibliothécaires, conçoivent et appliquent des logiques de classements.


Une capture d’écran de Google, lancé en 1998. Source : Wayback Machine
Sur les moteurs de recherche, la logique est cette fois d’aspirer le web de manière automatique, et ensuite de choisir comment prioriser le contenu qui ressort lorsqu’on formule au moteur de recherche une requête. Les premiers moteurs de recherche, comme Lycos ou Altavista, fonctionnaient principalement sur une logique de mots clés. Plus le mot clé recherché apparaissait sur un site web, plus le site web était priorisé dans la page de résultat. Globalement, ça ne fonctionnait pas très bien. Google invente alors un système d’apparence simple mais incroyablement efficace : le pagerank. Inspiré du monde universitaire (à nouveau) et plus précisément de la publication scientifique, ce système prend en considération les liens pointant vers une page comme un vote pour cette page. Plus une page reçoit de vote, plus elle est considérée comme étant pertinente pour Google. Et plus une page est pertinente, plus les liens qui pointent de cette page vers une autre page ont de la valeur pour l’algorithme de Google. C’est un véritable système méritocratique, de classement par le bas, puisque ce sont les internautes qui se classent les uns les autres par les liens qu’ils créent les uns vers les autres. Ce système fonctionne, et fait de Google un moteur de recherche incontournable et monopolistique.
Le web devient vite populaire mais descendant
Dans la seconde moitié des années 1990, le web devient populaire, et toutes les grandes entreprises, organisations, écoles, administrations, ouvrent un site web. Les moteurs de recherche deviennent efficaces, notamment avec l’apparition d’Altavista en décembre 1995, et pour finir Google en 1998. Dans cette phase de développement du média, un flot d’information descendant prédomine : un site web est fait pour diffuser les informations de son propriétaire. Les interactions s’arrêtent souvent à la recherche et au commerce en ligne. Mais petit à petit, de nouveaux langages, usages et fonctionnalités permettent plus de simplicité et d’interactivité, que ce soit pour partager du contenu, ou pour sociabiliser. Certain parleront petit à petit de web 2.0.
Un web 2.0, ou le web du partage pour toutes et tous
Le web poursuit son ascension. L’évolution du nombre de sites web est exponentielle : plus de 7 millions en 1999, pas loin de 20 millions en 2000, plus de 30 millions en 2001.
Le Web 2.0, quelquefois appelé Web participatif ou web social, désigne l'ensemble des techniques, des fonctionnalités et des usages qui ont suivi la forme originelle du Web, caractérisé par plus de simplicité et d'interactivité. Il concerne en particulier les interfaces et les échanges permettant aux internautes ayant peu de connaissances techniques de s'approprier des fonctionnalités du Web. Ils peuvent d'une part contribuer à l'échange d'informations et interagir : partager des vidéos sur Youtube (2005) ou des photos sur Flickr (2004), échanger des informations personnelles sur Facebook (2004), ou encore contribuer à la connaissance sur Wikipedia (2001).
Grâce à ces différents outils mis à leur disposition, les internautes construisent et contribuent au Web. Cette période d’émergence du web 2.0 sera synonyme d’une très intense moment de créativité et de partage d’informations, symbolisé entre autres par l’ère du blogging (Skyblog sera un carton chez les jeunes à partir de 2022), ou des vidéos amateurs sur Youtube.
O’Reilly et Battelle résument comme suit les principes-clés des applications Web 2.0 (source Wikipedia) :
· le Web comme plateforme ;
· les données comme « connaissances implicites » ;
· les effets de réseau entraînés par une « architecture de participation », l'innovation comme l’assemblage de systèmes et de sites distribués et indépendants ;
· des modèles d’entreprise poids plume grâce à la syndication de contenu et de services ;
· la fin du cycle d’adoption des logiciels (« la version bêta perpétuelle »).
Aujourd’hui, le web s’est fortement concentré et recentralisé autour de quelques plateformes devenues oligopolistiques, les fameux GAFAM, auquel on peut rajouter quelques autres géants du numérique, comme Netflix, le chinois TikTok qui cartonne chez les jeunes. Les outils du web 2.0 existent toujours, mais la massification d’Internet, permise par le web, n’a pas été suivie d’une démocratisation de ces outils et de ces pratiques. Ce sont toujours les mêmes profils sociologiques qui créent du contenu sur le web : majoritairement des hommes, blancs, éduqués. Le web des plateformes n’a pas su ou pu changer cet état de fait.

Le nombre de sites web entre 1991 et 2021. Source image : Statista
À retenir
· Le web est une application d’Internet. Sans Internet, pas de web, mais sans web, il y existe d’autres manières de communiquer avec le réseau.
· Le web hérite d’un certain nombre d’idées d’internet : un désir de liberté d’expression, un usage méritocratique et un « classement par le bas ».
· Le web repose sur le protocole HTTP qui permet de circuler de pages en page, un langage HTML qui permet de programmer une page, et un navigateur web qui permet de naviguer entre ces différentes pages
Pour aller plus loin
· 30 ans du web : l’âge de la trahison ?
Conclusion
L’outil « numérique » d’aujourd’hui est le fruit d’une longue histoire qui mêle au moins deux grands ensembles techniques : les ordinateurs (au sens large) et les télécommunications. Mais on pourrait aussi parler de l’électricité, des techniques de programmation (n’oubliez-pas la machine Jacquard !)
L’histoire a montré qu’au fur et à mesure de l’émergence du numérique, la technique et l’informatique ont fini par s’effacer totalement. C’est à la fois un immense progrès technique, mais ça amène de vrais questionnements : sommes-nous encore maîtres d’une machine si complexe qu’elle en est devenue magique ?
À retenir
· L’impact majeur qu’ont eu les guerres et les financements militaires sur le développement de l’informatique et des réseaux
· L’influence de la culture universitaire, notamment américaine, baignée dans la culture hippie des années 60-70.
· La transformation d’internet, d’un réseau de recherche en un réseau public puis privé
· Les enjeux politiques déjà nombreux (entre États, entre entreprises, etc.)

Commentaires