Cliquez pour m'envoyer un message

Chapitre Trois
VISIONNAIRES ET CONVERGENCES : l'histoire accidentelle du Réseau
Cliquez pour retrouver, en bas de cette page, des boutons de navigation

E n se rendant à son travail un jour de 1950, Douglas Engelbart se dit que le monde était devenu bien compliqué. Comment les hommes allaient-ils pouvoir maîtriser cette civilisation complexe que les techniques modernes nous avaient permis de bâtir ? Engelbart réfléchit aux outils qui pourraient nous assister dans cette tâche, nous aider à penser. Des symboles, répondit son esprit d'ingénieur. Est-ce que des machines pourraient manipuler des symboles pour notre compte ? Pourquoi pas les ordinateurs ? Pour quelqu'un comme Engelbart, il était normal de s'interroger sur ce thème, même en 1950 ; il s'étonne d'ailleurs encore aujourd'hui que d'autres ne se soient pas posé les mêmes questions.

Engelbart, qui avait été opérateur radar pendant la Seconde Guerre mondiale, eut dès cette époque une image précise de ce que pourrait être l'avenir : « Lorsque j'entendis parler des ordinateurs pour la première fois, je compris, parce que j'avais l'expérience des radars, que si ces machines pouvaient générer des informations sur cartes perforées ou sur papier, elles devaient pouvoir aussi bien afficher ces informations sur un écran. Lorsque je fis le lien entre l'écran cathodique, l'ordinateur, et un système de représentation des symboles, tout se mit en place en à peu près une demi-heure. » Il eut la vision de personnes à leur bureau, et de groupes dans des salles, utilisant ce type d'ordinateurs et les commandant par des mouvements du doigt.

Ces images se firent plus nettes, plus détaillées. En appuyant sur un clavier, en tournant un bouton, on pourrait convoquer toutes sortes d'informations, acquérir les connaissances les plus diverses. Avec ces outils-, se dit Engelbart, les problèmes complexes du monde d'aujourd'hui pourraient être traités aisément par des groupes d'individus. Une fois arrivé à son travail, en ce jour de décembre 1950, Engelbart avait, par ses réflexions, lancé un mouvement qui dure déjà depuis près d'un demi-siècle. Aujourd'hui, comme résultat direct de la croisade d'Engelbart, des dizaines de millions de personnes dans le monde font appel aux ordinateurs et aux télécommunications pour accroître leur capacité à réfléchir et à communiquer. Nous servir des ordinateurs comme « amplificateurs mentaux », nous trouvons ça tout à fait naturel.

En 1950, il n'était pas facile de se faire entendre, et Engelbart avait besoin d'une bourse de recherche et d'avoir accès à un ordinateur. Ses amis lui conseillèrent gentiment de ne pas trop mentionner ses histoires de science-fiction aux entretiens auxquels il était convié s'il voulait poursuivre sa carrière d'ingénieur électricien. Entre l'université, le secteur privé et sa propre entreprise, il passa plus de dix ans à essayer de convaincre les informaticiens, les psychologues, les documentalistes que les ordinateurs pouvaient faire plus que manipuler chiffres et listes, qu'ils pouvaient être de précieux assistants pour tous ceux qui travaillaient en réfléchissant.

En 1950, il ne devait pas exister plus de dix ordinateurs dans le monde. Les premiers « cerveaux électroniques » étaient si volumineux et surchauffaient tant, qu'ils étaient entreposés dans des salles réfrigérées ; quant à leur puissance, elle était globalement bien inférieure à celle de la moindre puce équipant aujourd'hui un jouet à vingt dollars.37 À l'époque, on estimait que ces quelques ordinateurs et que cette puissance limitée étaient bien suffisants pour satisfaire les besoins du monde entier. Vers 1960, on était déjà bien plus convaincu que les ordinateurs étaient utiles, et les machines, moins énormes et moins coûteuses, proliféraient, mais uniquement comme outils haut de gamme chez les scientifiques et pour assurer la comptabilité dans les grosses entreprises.

[NdT 37] ... soit à 200 Francs (sic).

En 1957, le lancement de Spoutnik par les soviétiques entraîna des réajustements budgétaires à Washington. La révolution de la micro-informatique et de la télématique furent deux des conséquences directes de ces réajustements. En 1963, Engelbart obtint enfin les subsides nécessaires pour créer les machines à penser dont il rêvait. C'était le premier d'une lignée de visionnaires têtus à estimer que les ordinateurs devaient pouvoir être utilisés par tout un chacun et pas seulement par des spécialistes.

Les principaux éléments constitutifs du Réseau naquirent ainsi dans l'imagination de quelques individus inspirés. Les réseaux d'ordinateurs furent lancés par un professeur du MIT qui travaillait dans un petit bureau du Pentagone ; les groupes de discussion Usenet furent créés par deux étudiants de Caroline du Nord qui décidèrent qu'il était tout à fait possible de diffuser largement des agoras électroniques sans interconnexion coûteuse à Internet ; des passionnés de Chicago furent à l'origine des BBS simplement parce qu'ils voulaient échanger des fichiers d'un micro-ordinateur à un autre sans avoir à se déplacer.

Dans les années 60 et 70, l'Agence des projets de recherche avancée (Arpa) du département de la Défense américain finança un petit groupe de programmeurs et d'électroniciens originaux, qui voulaient innover dans la manière de se servir des ordinateurs. Grâce à un clavier, à un écran, à l'affichage de symboles graphiques, on pouvait commander directement l'ordinateur, plutôt que de passer péniblement par l'intermédiaire des cartes perforées et des listings. Certains de ces jeunes programmeurs voulaient d'un ordinateur dont ils pourraient jouer comme d'un instrument de musique, en temps réel38 ; ils nommèrent cet objectif « informatique interactive ». Lorsqu'ils réussirent dans leur entreprise, ils se rendirent compte qu'ils désiraient aussi se servir de leurs ordinateurs pour communiquer.

[NdT 38] Cette expression un peu curieuse de « temps réel » a été forgée par les informaticiens. Elle s'applique à tout processus informatique qui s'effectue immédiatement après qu'on en ait commandé le lancement. Le fonctionnement en temps réel est la condition nécessaire pour disposer d'applications « interactives », c'est-à-dire qui réagissent au coup par coup aux réactions et aux demandes de l'utilisateur.

Il fallut deux décennies de plus pour que les micro-ordinateurs interactifs et la communication télématique arrivent à maturité, se multiplient, et convergent pour aboutir au Réseau des années 90. Et pour cela il fallut encore deux petites révolutions.

Vers la fin des années 70, la révolution de la micro-informatique, s'appuyant sur des bases créées par l'Arpa dix ans plus tôt, avait entraîné l'apparition d'un nouveau marché et d'une nouvelle culture. Au moment où les anciens de l'Arpa créaient leur propre entreprise ou devenaient directeurs de recherche, leurs cadets décidaient de faire des ordinateurs des outils d'aide à la pensée « pour tous », comme le disaient les publicités d'Apple pour le Macintosh39 en 1984.

[NdT 39] C'est ce que disaient les publicités en France ; le slogan américain était Macintosh, the computer for the rest of us.

Progressivement, l'amélioration des ordinateurs et de la façon dont on pouvait les utiliser popularisa leur emploi : d'un tout petit cercle dans les années 50, on passa dans les années 60 à une élite, à un véritable mouvement dans les années 70, pour arriver à une part non négligeable de la population aujourd'hui. Là encore, ce ne sont pas les acteurs en place du secteur informatique qui avaient créé les micro-ordinateurs, mais des adolescents bricolant dans des garages. Et leur motivation n'avait à voir ni avec la Défense nationale, ni avec la recherche du profit : ils voulaient changer le monde.

Les micro-ordinateurs pénétrant les foyers, il était inévitable que certains essayent de les faire communiquer par téléphone. On pouvait déjà se procurer le matériel nécessaire (notamment le modem) et les prix, qui constituaient au départ un obstacle, avaient tendance à baisser rapidement. Équipé d'un micro-ordinateur puissant et d'un modem, il suffisait de brancher le tout sur sa ligne téléphonique pour publier ses manifestes électroniques ou organiser des réunions.

Dans les années 80, ce n'étaient plus seulement les informaticiens et les chercheurs ou les adeptes des BBS qui faisaient de la télématique. Internet, le réseau successeur d'Arpanet, financé par la National Science Foundation, regroupait déjà des dizaines de milliers de scientifiques du secteur privé et du secteur public, qui se reliaient au Réseau à travers le centre de calcul de leur entreprise ou de leur université. Chaque centre de calcul (ou centre informatique) est utilisé par une communauté d'individus qui partagent ses ressources ; lorsqu'il est relié au réseau à haut débit d'Internet, chaque communauté est reliée virtuellement à toutes les autres, par courrier électronique, par dialogue en temps réel et par forums internationaux, comme ceux de Usenet. À mesure que les étudiants arrivaient sur le Réseau, celui-ci prenait un ton de plus en plus jeune, à dominante américaine.

Dans les années à venir, ce sont ces étudiants qui diffuseront dans la société la culture de réseau. Le fossé se creusera-t-il entre ceux qui ont accès à l'information et ceux qui n'y ont pas accès ? Il est certain que le Réseau donnera accès à des possibilités de communication et de collectes d'information sans commune mesure avec ce que nous connaissons aujourd'hui.

Pendant toutes les années 80, les campus universitaires furent de mieux en mieux équipés en informatique et ce sont tous les élèves — et plus seulement les étudiants en informatique et en science — qui se mirent à utiliser les micro-ordinateurs et la communication en réseau comme outils d'aide à l'étude, à l'instar des livres de classe. Non seulement les centres de calcul des campus furent reliés à l'Internet, mais les étudiants purent aussi y obtenir un accès direct pour leurs micro-ordinateurs. Des milliers d'entre eux furent enthousiasmés par Usenet, par les Muds, par le dialogue en temps réel IRC ou par les listes de diffusion.

Le Réseau facilitait la transmission de leur travaux (par exemple, l'envoi d'un mémoire à leur directeur d'études) et la recherche d'information (par exemple, d'une référence bibliographique). Mais le Réseau favorisait aussi les interactions purement sociales, voire mondaines. Les Muds (qui firent leur apparition à l'université d'Essex, en Angleterre) et Usenet (qui fut créé vers 1979-1980 dans des universités américaines) sont deux des principales expériences culturelles du Réseau.

En 1979, des étudiants des universités de Duke et de Caroline du Nord — qui n'étaient pas reliées à Internet — testèrent un procédé qui leur permettait d'échanger automatiquement des informations par modem à intervalles réguliers. En 1990, Usenet acheminait dix millions de mots quotidiens à plusieurs millions d'utilisateurs répartis dans quarante pays, et se propageait comme un virus de campus à campus, d'un laboratoire de recherche à un autre, en une sorte de tour du monde, tout cela plus ou moins officiellement et grâce à la bienveillance des responsables de centres informatiques par lesquels ils transitaient. Quelques entreprises privées — les Laboratoires Bell d'AT&T et DEC surtout — ont ainsi favorisé la croissance de Usenet en en payant les factures de télécommunication. Dans ces entreprises, les gens qui s'intéressaient aux nouveaux moyens de communication étaient suffisamment estimés par leurs supérieurs pour qu'on leur permette de conduire ce genre d'expériences intéressantes.

Usenet n'est pas un réseau ou un BBS, mais une manière de gérer des forums électroniques ; ces forums ne résident pas sur un ordinateur central, mais voyagent sur le Réseau d'un ordinateur à un autre. On peut lire les groupes Usenet40 à partir d'Internet ou sur un simple micro-ordinateur, si l'on arrive à convaincre un site récepteur de taille moyenne, comme le Well, de les retransmettre. Usenet, malgré son nom, s'apparente donc plus au Well qu'à Internet, car il permet les conversations, des centaines de milliers de conversations par jour sur des milliers de sujets.

[NdT 40] Sur Usenet, les forums s'appellent des newsgroups.

Arpanet, les BBS, les services de forums électroniques, aux origines différentes et aux fonctionnements distincts il y a dix ou vingt ans sont en train de rejoindre une entité qui les chapeaute, le Réseau. Aujourd'hui, on débat des rôles respectifs de l'État et du secteur privé dans la création et la gestion du prochain niveau d'Internet, le NREN (National Research and Education Network).

Alors que l'État et les entreprises émettent des points de vue souvent divergents sur le sujet, les citoyens ont le droit de rappeler à leurs élus que ces technologies ont été créées par des hommes et des femmes qui pensaient que le bénéfice de l'informatique et des technologies devait revenir à tous, et non à une élite.

Pour penser intelligemment le futur du Réseau, il faut revenir sur les intentions de ceux qui l'ont créé.



D'Arpanet au NREN : la quête de l'outil adéquat

Douglas Engelbart aurait pu ne pas être entendu, comme tous ces inventeurs dont les découvertes, destinées à changer le monde, n'ont jamais dépassé le stade du papier. Peut-être faudrait-il alors, de nos jours encore, enfiler une blouse blanche et parler Fortran41 pour avoir accès aux ordinateurs. Mais Engelbart fut tout de même engagé au début des années 60 pour mener des recherches informatiques moins futuristes dans une société de consultants de Menlo Park, en Californie, le Stanford Research Institute. Quelques années plus tard, l'article qu'il écrivit, intitulé « Accroissement de l'intellect humain », tomba entre les mains de J. C. R. Licklider, un autre visionnaire, qui était en position de faire progresser leur cause commune. Licklider avait écrit lui aussi un article important en 1960, « La symbiose homme-ordinateur », dans lequel il prédisait que « dans quelques années, le cerveau humain et l'ordinateur seront associés de manière très étroite, le produit de leur union étant à même de penser mieux que tout autre être humain, et de calculer mieux que tout autre machine telles que nous les connaissons aujourd'hui. »

[NdT 41] Le Fortran (abréviation de FORmula TRANslator, c'est-à-dire « Traducteur de formules ») est un des premiers langages de programmation dits « de haut niveau » à avoir été créé, à la fin des années 50. Malgré cette classification, son usage n'était pas des plus simples. Le langage Basic, créé un peu plus tard, s'inspira du Fortran tout en simplifiant ses aspects les plus compliqués : grâce à lui, la programmation n'était plus réservée aux « blouses blanches ».

Licklider était professeur au MIT et à Harvard, et avait étudié la psycho-acoustique. Comme Engelbart, il visualisa un jour en pensée un nouveau type d'outil intellectuel basé sur l'ordinateur. Il était à son bureau, occupé à faire un graphe de certaines données expérimentales, quand il se rendit compte qu'il passait beaucoup plus de temps à manipuler ses données, à faire des graphes, à retrouver des citations qu'à réfléchir. Un de ses amis travaillait pour une société de consultants en informatique, Bolt, Beranek et Newman, qui disposait d'un ordinateur DEC PDP-1.

DEC — Digital Equipment Corporation — était un nouveau constructeur d'ordinateurs que venaient de créer deux diplômés du MIT, et le PDP-1 était le premier ordinateur du commerce à afficher ses informations sur un écran.

Licklider se rendit compte, comme l'avait fait Engelbart, que s'il arrivait à nourrir la mémoire de l'ordinateur des informations appropriées, il pourrait manipuler ses données, faire des graphes, et retrouver des citations — bref, comme il le disait, « arriver en position de réfléchir » — de manière bien plus efficace. En 1983, j'interrogeai Licklider, et il se souvint que c'est après avoir vu pour la première fois le PDP-1 qu'il commença à agir en faveur de l'informatique interactive. « Oui, on peut comparer ça à une conversion religieuse », précisa-t-il.

Licklider commença à travailler sur les technologies d'écrans d'ordinateurs, au Lincoln Laboratory, qui dépendait du MIT et participait à des programmes secrets pour le département de la Défense. Les nouveaux ordinateurs et afficheurs demandés par le Commandement de la Défense nord-américaine42 au début des années 60 exigeaient une remise en question des principes d'affichage sur écran. En collaborant sur ce programme, un des assistants de Licklider, Ivan Sutherland, contribua à créer un nouveau domaine : l'informatique graphique.

[NdT 42] Le fameux Norad.

En octobre 1957, lorsque l'Union soviétique envoya Spoutnik dans le ciel, les responsables du développement technologique et militaire américain furent obligés de réagir. C'est à ce moment-là que le département de la Défense créa l'Arpa, en la chargeant de développer des technologies nouvelles sans nécessairement se soumettre au protocole traditionnel des milieux scientifiques. L'Arpa avait carte blanche pour trouver des visionnaires aux idées un peu folles et pour faire le tri entre le délirant et le faisable. Lorsque Licklider indiqua qu'à son sens, les derniers développements en matière d'informatique n'étaient pas profitables seulement pour les militaires, mais pouvaient aussi aider largement les recherches de tous les scientifiques, il fut engagé pour mener l'action du bureau des Techniques informatiques de l'Arpa.

Licklider savait qu'il existait tout un groupe de « petits génies » de la programmation au laboratoire d'intelligence artificielle du MIT, et des as de l'informatique graphique, comme Ivan Sutherland, au Lincoln Laboratory. D'autres, dans le pays, étaient impatients de travailler sur des matériels qui n'avaient pas grand-chose à voir avec les ordinateurs centraux et les cartes perforées de l'époque. Ils voulaient réinventer l'informatique ; les grands constructeurs d'ordinateurs et les informaticiens en place n'en avaient aucune envie. Licklider et ses successeurs à l'Arpa, Robert Taylor et Ivan Sutherland (qui n'avaient pas trente ans) commencèrent à financer les jeunes hackers, les hackers d'origine et non ceux qui forcent les entrées des systèmes informatiques. Ils financèrent également Engelbart, dont le « Centre de recherche pour l'accroissement intellectuel » (Arc), au Stanford Research Institute, dura plus de dix ans et créa le premier les traitements de texte, les systèmes de forum électronique, l'hypertexte, les souris, les communications vidéoinformatiques, c'est-à-dire les bases techniques d'une demi-douzaine des plus grosses applications de l'informatique aujourd'hui. Lorsque fut lancé le premier Arpanet, c'est l'Arc d'Engelbart qui fit office de centre de commande du réseau.

Au cours des années 60, les groupes subventionnés par l'Arpa travaillaient sur différents aspects de l'informatique interactive à travers le pays. Au MIT, ils étudiaient plus particulièrement le « temps partagé », ce système grâce auquel plusieurs individus peuvent se servir en même temps d'un ordinateur central par l'intermédiaire d'un terminal, au lieu — comme c'était le cas jusque là — de faire la queue pour donner leurs cartes perforées à traiter à un opérateur. Lorsqu'on conçoit un ordinateur central capable de servir cinquante ou cent programmeurs disposant chacun de son terminal, on n'est pas loin des bases nécessaires et suffisantes pour créer une communauté électronique, d'autant plus que ces programmeurs vont vouloir s'échanger questions et réponses par l'intermédiaire de leurs écrans. Le courrier électronique en interne fut donc une des premières applications à être proposées sur les systèmes de temps partagé. Cette application fut ensuite implantée sur les systèmes qui assuraient la liaison entre des centres de calcul éloignés géographiquement. Les premiers utilisateurs de ces embryons de services télématiques étaient leurs créateurs ; ils répugnaient à brider les possibilités offertes, et c'est pourquoi, encore aujourd'hui, la latitude laissée aux utilisateurs de services de courrier ou de forums électroniques est souvent très grande.

Aux Laboratoires Lincoln et à l'université de l'Utah, où se trouvaient Ivan Sutherland et une nouvelle génération de « croisés » comme Alan Kay, c'était l'informatique graphique et interactive qu'on cherchait à développer. Le passage d'écrans uniquement textuels à des écrans où l'on pouvait mêler images et texte est un des moments clés de l'évolution de « l'interface homme-machine », c'est-à-dire de la manière dont les gens peuvent se servir des ordinateurs. L'homme a une capacité élevée au traitement visuel ; nous tirons bien plus d'informations des couleurs et des formes que de listes de chiffres. Le tournant de l'informatique graphique débouchait même sur un double bénéfice : non seulement l'information était mieux communiquée par les images, mais l'ordinateur devenait plus facile à commander pour des profanes. Plutôt que de taper des suites de commandes compliquées, il devenait en effet possible de pointer sur une image à l'écran à l'aide d'un dispositif approprié et d'appuyer sur un bouton (de « cliquer ») pour indiquer l'opération à effectuer.

Au sein de l'équipe d'Engelbart, on s'employa à exploiter l'informatique graphique, le temps partagé et les applications de communication entre machines pour faire de la « recherche à deux étages » : le but de ces chercheurs était d'abord de réaliser pour leurs propres besoins de meilleurs outils qui leur permettraient ensuite de concevoir ceux qui permettraient à l'informatique grand public de progresser.

Les chercheurs de tous les principaux groupes d'étude de l'Arpa se réunissaient deux fois par an. Au bout de six ou sept ans, les différents projets soutenus par cette organisation commençaient à converger. Chaque centre de calcul avait développé du matériel, du logiciel, ou des bases de données qui lui étaient propres. Un programmeur pouvait avoir à sa disposition, dans son centre de l'Illinois, un ordinateur interactif puissant, et faire appel au logiciel d'affichage graphique développé dans un autre centre, dans l'Utah. Dix ans plus tôt, la recherche était bridée par l'obligation d'attendre son tour pour utiliser l'ordinateur. Le temps partagé rendait possible une interaction directe de l'individu avec la machine. L'obstacle suivant, c'était la distance. Comment faire communiquer un utilisateur situé en un lieu et un ordinateur situé dans un autre ? Ou deux ordinateurs distants ? À l'époque du temps partagé, il était normal de chercher à étendre la portée des câbles qui reliaient un terminal à un ordinateur ou un ordinateur à un autre par l'intermédiaire des lignes téléphoniques.

Pouvait-on envoyer des données assez rapidement à travers ces fils de cuivre pour que l'objectif soit atteint ? Oui, en théorie. Mais, dans les années 60, l'establishment des télécommunications était aussi pessimiste sur cette question que celui de l'informatique l'avait été précédemment sur la question de l'interactivité. Les responsables de l'Arpa adoptèrent donc une technique particulière d'envoi des données sur un réseau, la commutation de paquets.

Dans le cas de la commutation de paquets, on a affaire, une fois de plus, à une technologie détournée de son but spécifique originel. Son origine date des années 50, lorsque la Rand Corporation mena des études secrètes sur les différents scénarios de guerre atomique. Ses responsables se penchèrent surtout sur la possibilité de conserver un système de communication aux niveaux local et national. En cas de guerre nucléaire, se disaient-ils, l'infrastructure de communication du pays — les réseaux de câbles, les centres de commande, les antennes — seraient des cibles prioritaires pour l'ennemi. Un certain Paul Baran proposa, pour pouvoir faire face à une telle situation, de décentraliser les communications. Son idée centrale consistait à « diviser chaque message en petits paquets de taille identique, et faire en sorte que le réseau les achemine par tout itinéraire encore fonctionnel jusqu'à leur destination, où ils seraient réassemblés. » Le système de Baran fut rendu public en 1964.

Plutôt que d'avoir toute une hiérarchie de centres de commande des communications, Baran proposait d'inclure les informations d'acheminement dans les paquets eux-mêmes. Les messages sont donc divisés en petits paquets, et en tête de chaque paquet, on ajoute les informations d'origine, de destination, et on indique avec quels autres paquets celui-ci doit être réassemblé pour reconstituer le message d'origine. Partout sur le réseau, il faut disposer des « routeurs », c'est-à-dire des ordinateurs chargés de lire les informations d'en-tête de chaque paquet afin de diriger celui-ci sur la branche appropriée du réseau. De plus, chaque routeur note en permanence si une ou plusieurs des branches du réseau auxquelles il est rattaché sont endommagées (c'est-à-dire s'il n'obtient pas de réponse du routeur suivant sur cette branche), et communique cet état du réseau aux autres routeurs. Ainsi, à tout moment, un routeur peut déterminer le meilleur itinéraire à attribuer à un paquet pour aller d'un point à un autre. Avec ce système, la communication peut continuer de fonctionner alors même que les nœuds du réseau sont partiellement détruits.

Le National Physical Laboratory de Grande-Bretagne fut le premier, en 1968, à mettre en pratique la commutation de paquets. Au même moment, l'Arpa lança un appel d'offres pour un système permettant de relier les ordinateurs de centres de recherche distants. Robert Taylor engagea Lawrence Roberts, du Lincoln Laboratory du MIT, pour rédiger l'appel d'offres et pour sélectionner les sites qui seraient les premiers nœuds du réseau. C'est Roberts qui prit la décision de faire appel à la méthode de commutation par paquets. Robert Kahn, professeur de mathématiques au MIT, partit en congé sans solde pour travailler chez Bolt, Beranek et Newman (BBN), un groupe de réflexion financé par l'état fédéral qui devait plus tard participer à l'élaboration et à la supervision d'Arpanet. Kahn rédigea l'offre qui fit gagner le marché de l'Arpa à BBN. Le premier nœud fut livré à l'Ucla43 en 1969, et le réseau comptait déjà quatre nœuds à la fin de cette année-là. En 1970, Harvard et le MIT furent connectés au réseau. À la mi-1971, plus de trente ordinateurs (et, avec eux, leurs communautés) étaient ainsi reliés. Tous ceux qui ont travaillé à l'élaboration du réseau, comme Taylor et Kahn, s'attellent aujourd'hui, soit plus de vingt ans plus tard, à créer les bases d'un nouveau réseau.

[NdT 43] Université de Californie à Los Angeles.

Pour le profane, on peut mettre en avant deux caractéristiques majeures de la technique de commutation par paquets. Tout d'abord, elle constitue le fondement d'un réseau sans poste central de commandement et doté de routeurs qui savent tous acheminer les paquets d'un point à un autre. Ensuite, au fur et à mesure que les productions humaines sont numérisées, ces paquets peuvent transporter sans distinction tout ce que l'homme peut percevoir et tout ce que les machines peuvent traiter : voix ; son de haute qualité ; texte ; images à haute résolution ; programmes ; données ; vidéo. Ces paquets peuvent même être acheminés par voie hertzienne.

Dans les laboratoires de recherche et de développement, aujourd'hui, « convergence numérique » est une expression en vogue ; elle signifie que dans le proche avenir, ce ne sont plus seulement des communautés virtuelles et des bases d'informations qui seront disponibles sur le Réseau. Comme le dit John P. Barlow, « L'argent se trouve désormais dans le cyberespace. » Oui, l'argent est d'ores et déjà une abstraction qui ne se manifeste presque plus que par des flux de messages électroniques à travers le monde. On peut même dire que la valeur gagnée aujourd'hui par la connaissance des mécanismes qui permettent de transmettre ces messages monétaires sur les réseaux du monde entier est supérieure à la valeur originelle des produits et des services qui ont créé cet argent.

Les secteurs des loisirs et de la communication s'apprêtent à envahir le cyberespace ; cette invasion a même déjà commencé. Les chaînes de télévision et les journaux exploitent des flux d'informations de nature légèrement différente (transmissions d'images par satellite, fils électroniques d'agences de presse), mais similaires. Tout comme les compagnies de télévision par câble. Il est de notoriété publique que ces différents flux d'informations numériques doivent fusionner et être normalisés pour qu'un marché mondial de taille critique se développe, mais nul ne sait encore si ce sont les journaux, les chaînes de télévision, les constructeurs de jeux vidéo ou les géants de la communication qui domineront cet énorme marché.

Dans le même temps, la plupart des grands acteurs de ces secteurs investissent déjà dans le « contenu » des réseaux numériques à haut débit de demain. Les entreprises de loisirs et de communication lorgnent sur les mêmes autoroutes électroniques pour distribuer leurs produits. Dans les laboratoires de Palo Alto, en Amérique, comme dans ceux de Cambridge, en Angleterre, ce sont aujourd'hui les séquences vidéo et le courrier vocal que l'on échange à côté du courrier électronique et des contributions de forums « traditionnels ».

Il y a vingt-cinq ans, les plus grands spécialistes des télécommunications ne manquèrent pas de noter que les réseaux pourraient entraîner l'apparition de nouvelles formes de communautés. Avant qu'Arpanet commence à fonctionner, en 1969, ceux qui en avaient lancé l'idée, J. C. R. Licklider et Robert Taylor, écrivirent un article en collaboration avec E. Herbert intitulé « L'ordinateur est un outil de communication », dans lequel ils développaient leur vision des communautés télématiques futures :

Même si les ordinateurs interactifs multiutilisateurs commencent à être largement disponibles, même si de plus en plus de personnes envisagent de les utiliser d'ici l'année prochaine, il n'existe pour l'instant qu'une demi-douzaine de communautés multiutilisateurs. [...]

Pour la société dans son ensemble, l'influence de ces nouveaux phénomènes dépendra d'un facteur bien précis : L'accès à ces services de réseau sera-t-il un privilège ou un droit ? Si seule une élite est en mesure de tirer parti des avantages de cette « amplification de l'intelligence », le réseau pourra aggraver les inégalités.

À l'inverse, si le réseau peut faire pour l'éducation de tous ce que certains d'entre nous espèrent, et si le plus grand nombre peut y réagir favorablement, l'apport à l'humanité dans son ensemble peut être considérable.

Dès qu'Arpanet fut disponible, les utilisateurs commencèrent à échanger des messages électroniques, de manière plus importante que prévu. C'est une caractéristique du courrier électronique : il est extrêmement aisé d'envoyer un message d'une ligne ou un fichier de cent pages à une seule personne aussi bien qu'à mille. Il suffit de créer une liste de diffusion contenant tous les noms de ceux auxquels on veut envoyer le même message. Autre caractéristique : il suffit d'appuyer sur une touche du clavier pour répondre à un message que l'on reçoit dans sa boîte (c'est en général «R», comme « répondre »). Si vous recevez un message que quelqu'un a diffusé à cent personnes, vous pouvez répondre soit au seul auteur du message, soit à l'ensemble des gens auxquels il a été diffusé. Ce n'est pas autrement que l'échange privé de courrier peut devenir une conversation publique. On continue aujourd'hui à utiliser les listes de diffusion en messagerie électronique pour se créer, en quelque sorte, ses propres forums, ses propres communautés virtuelles.

La première liste de ce type, celle qui engendra une culture propre, d'après les anciens d'Arpanet, s'appelait SF-Lovers,44 et était constituée de chercheurs de l'Arpa qui voulaient discuter de science-fiction. C'est vers la fin des années 70 que SF-Lovers apparut en public sur Arpanet. Il fut envisagé de la supprimer, car il était clair que ce thème n'était lié en rien à la recherche. Il faut porter au crédit des responsables de l'Arpa d'avoir néanmoins laissé vivre le réseau malgré les pressions.

[NdT 44] Passionnés de science-fiction.

Au moment où Arpanet atteignait sa vitesse de croisière et alors que différentes communautés se tissaient déjà par l'intermédiaire des listes de diffusion, la guerre du Viêt-nam commençait à politiser les débats au sein de l'Arpa. De nombreux jeunes chercheurs ressentaient un malaise à l'idée qu'ils travaillaient pour le département de la Défense. C'est à ce moment-là qu'un autre visionnaire, venant du secteur privé, réussit à débaucher les collaborateurs les plus brillants de l'Arpa.

En 1969, Peter McCullough, directeur général de Xerox, déclara qu'il voulait faire de sa société « l'architecte de l'informatique du futur ». Il lança la construction, pour plusieurs millions de dollars, d'un centre de recherches qui devait être consacré à l'informatique d'avant-garde, le Palo Alto Research Center, plus connu sous le sigle de PARC. Pour créer et superviser son Centre de recherches en informatique, Xerox engagea Robert Taylor, qui était passé par la Nasa et par l'Arpa. Taylor, à son tour, embaucha Alan Kay et quelques dizaines d'autres jeunes visionnaires de l'Arpa, qui étaient dispersés dans tout le pays.

Pour ces spécialistes des ordinateurs et du logiciel, le Parc était le paradis. Ils se connaissaient de réputation, et pendant dix ans, au sein de l'Arpa, ils avaient collaboré et s'étaient fait parfois concurrence. Pour la première fois, tous ces brillants éléments étaient réunis, sous la houlette d'un directeur qui partageait leur vision, dotés d'un budget généreux et des meilleurs équipements possibles. Ces gens-là, comme le dit Alan Kay, « pouvaient lancer des éclairs des deux mains ». La plupart d'entre eux avaient à peine vingt ans lorsqu'ils créèrent le temps partagé sur ordinateur et l'informatique graphique ; ils étaient encore assez jeunes pour participer à une autre révolution. Ils travaillaient maintenant pour le secteur privé plutôt que pour le secteur militaire, mais le but de leur quête n'avait pas changé : offrir l'informatique aux non-programmeurs pour les aider à réfléchir et à communiquer.

C'est donc à Xerox Parc qu'eut lieu la deuxième croisade des bâtisseurs d'outils pour l'esprit. Bien des idées développées au SRI (Stanford Research Institute) par l'équipe d'Engelbart furent ici reprises. Les gens du Parc savaient exactement ce qu'ils voulaient : dépasser le temps partagé et créer des ordinateurs suffisamment puissants, compacts et bon marché pour que tout le monde puisse en avoir un. Ils savaient que le coût de la puissance informatique était chaque année divisé par deux et que l'arrivée des circuits intégrés, ou puces, rendrait possible la fabrication de micro-ordinateurs environ sept ans plus tard. Ils estimaient également qu'il leur faudrait bien ces sept années-là pour concevoir des machines utilisables par tout le monde. Enfin, ils savaient que le coût d'une autre technologie, celle des écrans de télévision, était aussi en train de baisser rapidement. C'est ce coût raisonnable des ordinateurs et des écrans qui leur permettait d'envisager une interface homme-machine entièrement graphique, par laquelle les gens pourraient « pointer et cliquer » sur des images plutôt que de taper des lignes de commandes compliquées.

Le premier micro-ordinateur, l'Alto, fut réalisé par l'équipe du Parc au début des années 70 pour son propre usage. Alors qu'ils élaboraient les prototypes des micro-ordinateurs du futur, les anciens de l'Arpa au Parc ne voulaient pas tourner le dos aux joies de la communication qu'ils avaient connues sur Arpanet. C'est pourquoi ils conçurent un réseau à très haut débit — Ethernet — pour relier tous les Altos de leur bâtiment. C'est d'Ethernet que date le concept de réseau local. Aujourd'hui, presque tous les micro-ordinateurs des entreprises, des universités, des usines sont reliés en réseaux locaux. Les chercheurs du Parc s'attelèrent également à faire communiquer leurs réseaux locaux avec les réseaux de plus grande envergure, comme Arpanet. Les techniques d'interconnexion qu'ils ont développées ont contribué à la croissance rapide du Réseau.

Au cours des années 70 et 80, ces techniques furent sensiblement améliorées. Du débit auquel les données peuvent être transmises sur un support dépend le type de données que l'on peut transmettre, le coût de ces transmissions, et partant le type d'individu qui peut utiliser le réseau. Ainsi, à chaque amélioration technique correspond une amélioration des conditions économiques d'utilisation. Lorsque le débit (en « bits par seconde ») est faible et coûteux, seules les entreprises peuvent s'envoyer de courts messages par télex. Lorsque le débit est rapide et peu onéreux, une population bien plus large peut s'échanger des livres entiers en quelques minutes. Cette question du débit et du coût est centrale si l'on veut donner à tout citoyen l'accès au réseau. Quand on pense que tout un chacun, aujourd'hui, possède une puissance télématique dont seul le Pentagone disposait il y a vingt ans, on peut légitimement se demander où nous en serons dans cinq ou dix ans.

Pendant dix ans, Arpanet a utilisé des liaisons à 56 000 bits par seconde (bit/s). Il s'agit là d'un débit élevé en comparaison de celui des premiers modems à la disposition du public, qui acheminaient les informations à 300 bit/s. En 1987, NSFNET (le successeur d'Arpanet) fut doté de liaisons capables de transmettre 1,5 millions de bits par seconde. En 1992, le débit des artères principales de NSFNET était passé à 45 millions de bits par seconde. À ce débit, on peut transmettre cinq mille pages en une seconde, ou deux encyclopédies en une minute. On attend pour bientôt le bond technologique suivant qui nous amènera au niveau du gigabit45 (de un à plusieurs milliards de bits par seconde) ; à ces débits, c'est toute la Bibliothèque du Congrès que l'on peut transmettre en une minute. Ils constituent l'objectif de la prochaine génération du réseau américain, le NREN. Et l'on dit que la recherche se penche déjà sur le niveau térabit (mille milliards de bits par seconde) ! De la même manière que le coût de tout ce qui était lié à la puissance informatique s'est écroulé ces dernières années, le prix des services liés au débit d'information est destiné à chuter rapidement.

[NdE 45] Note de l'éditeur : Voir Les réseaux gigabit par Craig Partridge, Addison-Wesley 1994.

Ces mutations rapides au niveau quantitatif peuvent entraîner des changements tout aussi radicaux au niveau qualitatif. Quand il devient possible de transférer toute la Bibliothèque du Congrès d'un endroit à un autre en une minute, la notion même de Bibliothèque du Congrès change. Au fur et à mesure de sa numérisation, cette institution vénérable quitte Washington pour entrer dans l'espace virtuel. Aujourd'hui, je peux déjà demander le catalogue de cette bibliothèque depuis mon bureau. Lorsque je serai en mesure de télécharger n'importe quel ouvrage dans son intégralité et de l'apporter en un clin d'œil sur ma table de travail, mon sens de l'endroit où se trouve ce livre aura changé. Il sera (avec tous les autres) juste à l'autre bout de ma ligne téléphonique, donc pratiquement sur mon bureau.

Pour ce qui est de la croissance de l'audience du réseau, la première communauté d'Arpanet comprenait, en 1969, un millier d'utilisateurs. Vingt-cinq ans plus tard, la population d'Internet est estimée à vingt millions de personnes. Le taux de croissance est en réalité trop rapide pour qu'on puisse être précis car nombreux sont les réseaux petits et moyens qui se sont développés depuis dix ans et qui obtiennent ces derniers temps l'interconnexion avec Internet. Au début des années 80, on comptait environ deux cents réseaux interconnectés ; ils sont aujourd'hui plus de sept mille cinq cents, qui desservent les populations de soixante-quinze pays. Dans le numéro de septembre 1991 du Scientific American, Albert Gore, qui était encore sénateur, mentionnait un chiffre étonnant qui a depuis été confirmé par d'autres : depuis cinq ans, la croissance d'Internet en nombre d'utilisateurs a été de 10 % par mois.

Bien entendu, une telle courbe de croissance finira par s'aplanir. La population du globe ne suffirait pas à soutenir ce taux pendant très longtemps. Mais John Quarterman, le « cartographe » du cyberespace, dans son article « Quelle taille pour la matrice ? », mit le doigt sur la conséquence principale d'une telle croissance : il est inéluctable que la communauté cyberspatiale, simplement en raison de sa taille, attire bientôt l'attention du monde entier :

Dans deux ans, il y aura plus d'utilisateurs du réseau que d'habitants dans n'importe lequel de nos cinquante États. Dans cinq ans, il y aura plus d'utilisateurs du réseau que d'habitants dans n'importe quel pays du monde (mis à part l'Inde et la Chine). Que se passera-t-il lorsque le village mondial de McLuhan sera devenu l'un des plus grands pays du monde ? Lorsqu'il utilisera couramment la communication bidirectionnelle et non plus diffusée ? Lorsqu'il abolira les frontières géographiques, horaires et politiques ?

Au début des années 80, les contraintes financières et administratives dues à Arpanet devenaient trop lourdes pour l'Arpa. Le Réseau était désormais une ressource intellectuelle ; les universitaires et les scientifiques demandaient à l'utiliser, même si leurs recherches ne portaient pas sur l'armement. La communication par ordinateur évoluait selon le même schéma que l'informatique dix à vingt ans plus tôt. Développées au départ dans le cadre de recherches militaires, les deux disciplines s'avéraient utiles, puis financièrement abordables d'abord aux chercheurs des autres secteurs, puis aux grandes et aux petites entreprises, pour atteindre finalement les individus.

De manière générale, la science dépend beaucoup de la communication : lorsqu'on est scientifique, on fait une observation, on élabore une théorie, puis on la publie ; les collègues lisent ces articles, testent l'observation ou la théorie, puis publient les résultats de leurs tests. C'est de ce processus d'observation, d'expérimentation, de théorisation et de communication qu'est censée naître la connaissance scientifique. Jusqu'ici, pour pouvoir communiquer et attirer l'attention sur ses travaux, un jeune scientifique devait se faire admettre par la hiérarchie de ses aînés. Au début du xixe siècle, un moine autrichien, Gregor Mendel, découvrait les lois de la génétique en faisant des expériences sur des pois, mais il n'avait pas accès aux publications scientifiques les plus cotées. Ses découvertes restèrent dans l'ombre des dizaines d'années, jusqu'à ce qu'elles soient refaites par des biologistes déterminés à percer les mystères de la génétique (dont Darwin). Il est bon de se souvenir du cas de Mendel au moment où le logos scientifique fait la conquête du Réseau.

Si les communications scientifiques doivent être faites de plus en souvent sur le Réseau, comme cela semble être le cas, et s'il n'est donc plus nécessaire d'être sociétaire de telle ou telle académie pour publier le résultat de ses travaux, plusieurs conséquences s'imposent. Premièrement, si vous n'avez accès ni au Réseau, ni à un cercle de scientifiques reconnu, vous serez tout autant marginalisé que Gregor Mendel. Deuxièmement, si vous êtes un Gregor Mendel en puissance, il vous suffit de demander l'accès au réseau pour participer aux discussions scientifiques internationales.

Avant que le Réseau n'en arrive à s'ouvrir à tous les citoyens, il permit donc aux scientifiques des domaines à évolution rapide de se constituer leur propre version de cette base de données vivante dont nous parlions au premier chapitre à propos du Well. C'est bien dans ce but qu'ils avaient fait pression pour y avoir accès au début des années 80.

En 1983, Arpanet se scinda en deux : Arpanet d'un côté, pour la recherche scientifique et Milnet, pour les usages militaires. Il s'agissait de deux réseaux longue distance qui communiquaient au niveau de leurs artères principales aux plus hauts débits, et qui servaient des communautés de centaines de milliers d'utilisateurs. Lorsque la mise en réseau toucha les ordinateurs employés par les universités et les centres de recherche, la croissance d'Internet explosa. Ce mouvement était partiellement encouragé par l'Arpa. Lorsqu'on passa des ordinateurs de la première génération, qui travaillaient en temps différé et devaient être alimentés par cartes perforées, aux ordinateurs multiutilisateurs fonctionnant en temps partagé, on dut innover en matière de mode d'exploitation. Unix, un système d'exploitation conçu pour les ordinateurs multiutilisateurs, fut écrit par des programmeurs des Laboratoires Bell en 1969, l'année de la création d'Arpanet.

Le système d'exploitation, c'est le programme central de la machine, qui permet aux programmeurs de l'utiliser sans en connaître les moindres détails de fonctionnement. Unix était pensé pour les programmeurs des ordinateurs interactifs, qui avaient besoin de développer à leur tour de petits programmes utilitaires, pour eux comme pour leurs consœurs et confrères, de les échanger, et de les diffuser dans toute la communauté des programmeurs. Personne ne pensait qu'Unix deviendrait le système d'exploitation de référence et serait utilisé par des millions de non-programmeurs. Son succès comme système d'exploitation sur les ordinateurs des universités et des centres de recherche entraîna l'apparition de programmes standard de communication sur toutes ces machines. Ces programmes normalisés s'avérèrent fort utiles lorsque toutes ces machines Unix commencèrent un peu plus tard à vouloir communiquer par modem et par liaisons à haut débit. Ainsi UUCP (Unix to Unix Copy Program), le programme de copie entre machines Unix permit à tout ordinateur Unix de partager des fichiers — donc des informations, des messages, etc. — par l'intermédiaire du téléphone avec tout autre ordinateur Unix. Les ordinateurs qui n'étaient pas reliés à Internet disposaient ainsi de leur propre capacité à se mettre en réseau.

En 1983, des programmeurs de l'université de Californie, subventionnés par l'Arpa, créèrent une version d'Unix destinée aux nouveaux types d'ordinateurs qui faisaient leur apparition ; le logiciel permettant la communication avec Internet, c'est-à-dire la mise en œuvre des protocoles TCP/IP, était intégré à ce Berkeley Unix. Désormais, non seulement les ordinateurs Unix pouvaient communiquer entre eux par l'intermédiaire de modems relativement lents, mais ils pouvaient aussi encoder et décoder les paquets de données transmis à des débits bien plus élevés sur Internet. Comme c'était des fonds publics qui avaient permis son développement, cette nouvelle version d'Unix fut distribuée à prix coûtant, c'est-à-dire au prix de la distribution. De nouvelles entreprises, comme Sun Microsystems, elle aussi financée par l'Arpa, surgirent au milieu des années 80 et connurent un succès immédiat en commercialisant des produits Unix et des produits de réseau. Les réseaux locaux se répandirent dans les départements scientifiques des universités du monde entier. Et ces réseaux locaux commencèrent à se connecter à des réseaux de plus grande envergure comme Arpanet et Milnet. Un autre réseau dévolu aux discussions universitaires en général, Bitnet, financé par IBM, fit son apparition. Des réseaux d'entreprise de taille importante se développèrent chez DEC, IBM, ou AT&T.

On appela le réseau de réseaux qui les reliait progressivement Arpa Internet, puis Internet tout court. Plus il s'avérait utile, plus nombreux étaient ceux qui, au départ exclus, voulaient en profiter. Les ingénieurs informaticiens qui n'y avaient pas accès, parce que leurs recherches n'étaient pas liées à la défense, se tournèrent vers la National Science Foundation (NSF). Cette dernière mit en œuvre CSNET, un autre réseau destiné aux échanges entre scientifiques sur Internet. Comme les universitaires non scientifiques voulaient également avoir accès aux réseaux, la NSF collabora avec IBM pour créer Bitnet. Étant donné que les techniques de commutation de paquets et de mise en réseau avaient été développées grâce à des fonds publics, les générations successives de réseaux étaient toujours soumises à certaines conditions d'utilisation. Au départ, il fallait justifier de travaux liés à la défense nationale ; pour cette seconde génération de réseau, toute utilisation non commerciale était acceptable ; c'est en 1993 seulement que cette dernière restriction sauta. Aujourd'hui, on est en droit de se demander si ce processus d'ouverture progressive va se poursuivre et si, au-delà des entreprises, le réseau sera utilisable sans médiation marchande par le monde de l'enseignement et les citoyens en général, ou bien si le secteur privé va s'efforcer d'en prendre possession.

Si le Congrès américain continue d'allouer des fonds au développement de réseaux de plus en plus puissants, c'est parce qu'on lui a dit que l'Amérique risquait de perdre du terrain dans la recherche en informatique et dans la guerre économique qui lui est liée. Le débat sur l'utilisation par l'enseignement et par les citoyens de ces ressources est relativement récent. C'est la pression de la concurrence qui a poussé au développement de successeurs à Arpanet, et non l'intérêt pour les réseaux en tant que tels.

Le réseau développé au milieu des années 80 par la NSF pour relier les superordinateurs de la communauté scientifique à leurs utilisateurs, NSFNET, fut inauguré en 1986 et fit rapidement office de tronçon central d'Internet. Sur ces branches du réseau, le débit s'élevait alors à un million de bits par seconde (un mégabit par seconde, ou Mbit/s). Par voie de conséquence, Arpanet fut démantelé en mars 1990 avec les honneurs.

L'autre évolution, celle qui consistait à faire passer Internet des mains du secteur public à celles du secteur privé, entraîna d'emblée des controverses. En 1987, la NSF chargea la société Merit Network Inc., qui s'occupait du réseau des universités du Michigan en partenariat avec IBM et MCI Communications, de gérer les tronçons centraux d'Internet. À cette époque, des anciens d'Arpanet et d'autres avaient commencé à lancer de petites entreprises proposant de nouvelles applications de réseau, et ils apprécièrent modérément d'apprendre que ce domaine, jusque-là ouvert à tous, risquait d'être concédé comme d'autres auparavant aux gros bras du secteur.

Comme l'informatique dans les années 50, la télématique avait atteint, vers la fin des années 80, le point où il était temps de la faire passer d'une activité étatique conçue à l'origine pour la défense nationale à une activité prise en charge par le secteur privé et les citoyens. Il s'agit là d'un point crucial dans l'histoire de cette technologie, et la manière dont la transition sera opérée aura des conséquences importantes pour son avenir. Alors que le Réseau s'avère une ressource intellectuelle, économique, voire culturelle pour les citoyens, une force motrice au bénéfice de tous, son infrastructure doit-elle être financée par des fonds publics en Amérique, comme c'est le cas au Japon et en France ? Et si cette technologie doit plutôt être laissée aux mains du marché et du secteur privé, comment préserver les droits des citoyens autant que lorsque c'est l'État qui mène le jeu ? Et les intérêts des petites entreprises vis-à-vis des géants du secteur ? Qui déterminera les règles du jeu en matière de vie privée, de propriété intellectuelle, de droit international ? Depuis le début des années 90, ces questions ont fait l'objet de débats enflammés qui se prolongeront sans doute pendant plusieurs années.

Vers la fin des années 80, le Réseau avait désormais une envergure difficilement compatible avec la tutelle publique. Il était temps de transférer la gestion des interconnexions au secteur privé. Mais cette privatisation était l'occasion de soulever de nouveau, avec une acuité soutenue, des questions importantes. La télématique s'apparente-t-elle à un processus de publication, à un service de communication ou à un espace public informel ? Jusqu'à quel point doit-on prévoir une réglementation, dans la mesure où le droit du citoyen à discuter avec ses pairs de questions d'intérêt public est limité par le coût de l'accès télématique ? Au moment où les entreprises qui n'étaient absolument pas intéressées à participer il y a vingt ans au développement de ces technologies se pressent pour en assurer le service futur, les citoyens n'ont-ils pas un droit de regard sur la manière dont la privatisation est effectuée ?

Dans le même temps, on a vu se manifester un mouvement en faveur de la création d'une nouvelle génération du réseau public, et ses thèses ont servi de base au projet de loi sur le successeur d'Arpanet-Internet-NSFNET, le Réseau national pour l'éducation et la recherche (NREN). Ce projet de loi, une fois de plus, a été nourri des craintes de la part de l'Amérique industrielle et militaire de perdre pied dans la course aux superordinateurs et aux réseaux modernes, un rapport du bureau des Sciences et des technologies ayant évoqué cette possibilité. À la fin des années 80, le projet de « loi sur l'informatique de haut niveau » commença donc son parcours entre la Chambre des représentants et le Sénat. Le chapitre qui évoquait la succession d'Internet parlait d'une « superautoroute de l'information » ; dans la défense de ce projet à l'époque, le sénateur Albert Gore apparaissait comme le champion d'un réseau grâce auquel les écoliers pourraient avoir accès à la Bibliothèque du Congrès et les médecins de campagne pourraient transmettre leurs images médicales aux grands centres d'analyse. Au cours des lectures du projet, des experts comme Robert Kahn, qui avait participé à la création d'Arpanet, insistèrent sur l'utilité d'une telle infrastructure nationale de l'information, qui mettrait les avantages du Réseau à la portée des écoles primaires, des bibliothèques, des laboratoires, des universités et des entreprises. Le décret sur l'informatique de grande puissance et le NREN, signé par le président Bush, débloquait 650 millions de dollars pour la NSF, 388 millions pour la Darpa, et 31 millions pour l'Institut national des normes et des technologies du département du Commerce. Des réseaux de test à cinq gigabits furent montés à travers les États-Unis. Le développement de cette nouvelle infrastructure était donc lancé. Mais le débat sur l'utilisation de ces fonds est loin d'être terminé et celui qui porte actuellement sur la privatisation de l'exploitation des réseaux tourne à la controverse.

Lorsque les entreprises privées — notamment deux des plus grosses sociétés du monde, IBM et AT&T — prendront en main la gestion du Réseau, qui y aura accès et qui en sera privé ? Qui décidera de ce qui peut se dire ou pas sur le Réseau ? Qui arbitrera les désaccords ? Ces technologies ont été développées avec l'argent des contribuables. Est-ce que cela signifie qu'il va falloir fixer réglementairement un prix d'accès plafond ?

Lorsqu'IBM fit part de son intérêt pour la gestion du Réseau, la colère dépassa les cercles de passionnés de la télématique. On cria à la collusion. IBM et MCI avaient en effet créé une filiale commune, ANS, qui gérait NSFNET depuis 1987 ; en 1991, ANS, qui était à but non lucratif, avait créé à son tour une filiale à but lucratif du nom de ANS CO+RE, destinée à vendre des services télématiques. Dans un article de décembre 1991 publié dans le New York Times sous le titre « Le gouvernement soupçonné de favoritisme dans la promotion du réseau national d'information », John Markoff écrivait : « Une semaine à peine après la signature par le président Bush d'une loi ouvrant la voie à une «superautoroute de l'information», il est permis de s'interroger : le gouvernement a-t-il favorisé la filiale commune d'IBM et de MCI, qui a construit et qui gère un pan important du réseau ? » Markoff citait plusieurs experts ainsi que les porte-parole d'autres entreprises, qui craignaient qu'ANS ne tire parti de sa position de gestionnaire de NSFNET pour compliquer la tâche de ses concurrents désireux d'accéder au Réseau.

« Ceux qui sont engagés dans ce projet le répètent souvent : il est essentiel de promouvoir une concurrence saine, qui amène les entreprises à offrir des services innovateurs et attractifs pour se constituer leurs parts de marché. Sans cette émulation, disent-ils, le gouvernement aura créé un monopole qui ne sera pas poussé à innover », écrivait Markoff. Il citait David Farber, l'un des pionniers d'Arpanet, aujourd'hui chercheur en informatique à l'université de Pennsylvanie, sur un des sites de test du futur NREN : « Il s'agit du premier moyen de communication nouveau à naître à l'ère de la dérégulation. On n'avait pas vu ça depuis la grande croissance de l'industrie du téléphone. On aimerait cette fois que l'on ne refasse pas les mêmes erreurs que par le passé. »

William L. Schrader, président de Performance Systems International Inc., une entreprise de Virginie qui commercialise des accès à Internet, est inquiet de la concurrence que pourrait lui faire ANS CO+RE. « Le jeu est faussé d'entrée. C'est comme si on attribuait gratuitement un terrain communal à K-Mart.46 Ça n'est pas juste, et ça ne marchera pas. En tant que contribuable, je trouve ça scandaleux. »

[NdT 46] Grande chaîne américaine d'hypermarchés.

Markoff citait également Mitchell D. Kapor, fondateur de Lotus et président de l'Electronic Frontier Foundation47 : « Il ne faut consentir de faveur à personne. C'est d'autant plus important que ce secteur, qui en est actuellement à sa phase initiale, pourrait un jour égaler en importance le marché des micro-ordinateurs. »

[NdT 47] « Fondation pour les grands espaces électroniques ». En américain, le sens le plus commun de frontier, c'est celui de limite des territoires connus, que l'on se doit de faire reculer, comme au temps de la Conquête de l'Ouest. Loin de connoter la fermeture, ce terme évoque donc au contraire l'exploration de l'inconnu, l'aventure.

Combien faudra-t-il payer, et que faudra-t-il accepter de dire ou de ne pas dire pour pouvoir apporter ou récupérer des informations sur le Réseau et en prendre ? C'est le prix qui conditionne l'accès. De quoi les grandes entreprises qui souhaitent gérer le Réseau de demain veulent-elles prendre le contrôle ? Si elles contrôlent les supports du réseau, c'est-à-dire les fibres otiques et les routeurs, et si elles proposent également des services commerciaux qui prennent appui sur ces supports, leurs concurrents de taille plus modeste ne vont-ils pas en souffrir ? Quels niveaux de prix pourraient être considérés comme raisonnables pour ces services ? Ces principaux acteurs pourraient-ils obliger tout un chacun à se déclarer fournisseur de service pour avoir le droit de s'exprimer sur le Réseau ? Le gouvernement, les parlementaires et les principales personnalités du monde économique débattent actuellement de ces questions, et c'est pourquoi la voix des citoyens peut avoir une influence, en ces débuts d'années 90, sur l'avenir de cette technologie.

Début 1993, une dépêche d'agence fit l'effet d'une bombe sur le Réseau. La fondation nationale des sciences annonçait qu'elle se dégageait de trois des plus importantes fonctions administratives de la gestion d'Internet : l'affectation des adresses Internet (qui conditionne l'accès au réseau), la maintenance des annuaires et des bases de données (qui permettent de localiser individus et ressources sur celui-ci) et la maintenance de services d'information aux utilisateurs (modernisation des outils mis à leur disposition). Ces contrats étaient attribués, pour 12 millions de dollars, à Network Solutions (affectation des adresses), à AT&T (annuaires et bases de données) et à General Atomics (services d'information). Après IBM et MCI, on voyait donc arriver AT&T. Les grands du secteur s'étaient-ils déjà partagé le gâteau ? Les structures tarifaires étaient-elle en train d'être élaborées à la va-vite avant que trop de gens ne saisissent les implications d'une privatisation d'Internet ? Il y avait dans cette annonce de presse une phrase troublante : « En accord avec les recommandations du FNC, qui préconise de récupérer une partie des coûts de mise en œuvre du NREN auprès des utilisateurs, la NSF indique que les fournisseurs Internic pourront facturer les utilisateurs ne faisant pas partie des communautés américaines d'enseignement et de recherche pour tout service fourni. »

Gordon Cook, un habitué du Réseau qui publie une lettre d'information sur les aspects politiques et administratifs de celui-ci, fit remarquer dans une contribution au ton polémique que les applications à vocation populaire si chères aux libertaires n'étaient certainement pas l'objectif premier du NREN :

[NdT 48] Lorsque la mention « re: » apparaît dans l'objet d'une contribution, cela signifie qu'il s'agit d'une réponse à une autre contribution dont le titre suit les deux points. Ce peut être l'auteur qui place lui-même cette mention, ou bien un programme qu'il utilise pour automatiser la lecture et la rédaction des contributions.

Date: Mer 9 Juin 20:11:48 - 0700

De: Gordon Cook <cook@PATH.NET>

Objet: Re: LA BATAILLE DU FUTUR NREN/INTERNET48

[...] Malheureusement, pas grand monde n'a vraiment lu le texte de loi.

PL102-194 ''Sec102 (c) Caractéristiques du Réseau

Le Réseau comportera (6) des mécanismes comptables qui permettront de facturer à des usagers ou à des groupes d'usagers leur utilisation des productions protégées par copyright et disponibles sur le réseau, et, partout où cela sera approprié et faisable techniquement, **leur utilisation du réseau**. ''

Pour moi, ça va clairement dans le sens d'une facturation individuelle systématisée. Alors, vous êtes toujours contents du cadeau d'Al Gore?

Les plus fervents défenseurs du NREN ont été les agences fédérales, qui espèrent ainsi que des fonds publics importants pourront être consacrés à l'amélioration d'un réseau destiné à servir les utilisations de HAUT niveau. On comprend que les partisans du réseau ne protestent pas lorsqu'un décret autorise le déblocage de 500 millions de dollars pour le NREN entre 1992 et 1996. Mais il y un pas entre autoriser et allouer, et même lorsque ces fonds seront alloués, ils peuvent toujours être retirés. [...]

C'est une affaire très complexe. Et malheureusement, très peu de personnes en ont une vue GLOBALE, [...] ce qui laisse le champ libre, comme de coutume, à la manifestation des intérêts catégoriels. (Après trois ans passés à temps plein sur cette question, je crois personnellement avoir cette vision globale.)

J'ai réussi à intéresser un reporter du Washington Post. Mais jusqu'ici, les chefs de rubriques n'ont pas paru se passionner pour le sujet. Et la plupart des journalistes doivent couvrir une telle palette de domaines, qu'ils n'ont jamais le temps d'approfondir.

Les intérêts catégoriels se soucient comme d'une guigne de l'usage "populaire" du réseau. Ca ne rapporte pas assez. Et comme j'ai essayé de le dire en lançant cette liste de diffusion, si les tenants du réseau populaire s'imaginent tirer bénéfice du NREN, il se préparent des lendemains désenchantés. [...]

À l'aube de la privatisation du réseau, il reste à répondre à ces grandes questions si nous voulons être sûrs de ne pas être floués : qui aura accès au réseau, combien cela coûtera-t-il, et comment les désaccords sur l'accès, le coût, le contenu seront-ils arbitrés ? Les réponses viendront de la pratique et du législateur dans les cinq prochaines années ; elles détermineront la structure politique et économique du Réseau pour plusieurs décennies.



Sommaire La Réalité virtuelle Chapitre 2 Suite du Chapitre 3 Sommaire Mac Informatique