Cliquez pour m'envoyer un message

3 – La pensée assistée par ordinateur (suite) Cliquez pour retrouver, en bas de cette page, des boutons de navigation




Chapitre traduit par
Annick Morel

Le figuier est fécondé exclusivement par l'insecte appelé Blastophaga grossorum, larve qui vit dans l'ovaire du figuier, d'où il tire sa nourriture. Par conséquent, l'arbre et l'insecte dépendent étroitement l'un de l'autre : l'arbre ne peut se reproduire sans l'insecte; l'insecte ne peut se nourrir sans l'arbre; ensemble, leur alliance est non seulement viable, mais productive et prospère. On appelle symbiose cette «association durable et réciproquement profitable entre deux organismes vivants».

«La symbiose homme-ordinateur» est un sous-ensemble des systèmes homme-machine. Aujourd'hui, il n'en existe toutefois pas; On espère que dans un avenir assez proche, les cerveaux humains et les ordinateurs seront associés de manière très étroite, et que le partenariat qui en résultera pensera comme encore aucun homme n'en a été capable et traitera des données de façon beaucoup plus sophistiquée qu'aujourd'hui.

J.C. Licklider
« Man-Computer Symbiosis », 1960


Lorsque tout ce que gère un ordinateur est visible, l'écran décharge le volume de la mémoire à court terme en agissant comme une sorte d'«antémémoire visuelle». Cela facilite la réflexion et la rend plus productive. Un système informatique bien conçu peut réellement améliorer la qualité de la réflexion... Il se passe quelque chose de subtil lorsque tout est visible : l'écran devient réalité. Le modèle utilisateur devient identique à ce qui se passe à l'écran. On peut comprendre les objets simplement à travers leurs caractéristiques visibles... On peut rendre un système cohérent en lui affectant des paradigmes d'exploitation. En appliquant une démarche qui a prouvé sa fiabilité dans un environnement donné à d'autres environnements du système, ce dernier acquiert une unité qui est à la fois apparente et réelle... Ces paradigmes modifient directement la façon de penser. Ils conduisent à des habitudes et à des modèles de comportement tout à fait nouveaux qui sont à la fois plus puissants et plus productifs. Ils peuvent résulter en une synergie homme-machine.

Smith et al.
« The Star User Interface », 1982


Spoutnik démontra d'une façon aussi spectaculaire que soudaine que les Soviétiques étaient capables de propulser des objets de la taille d'une bombe n'importe où dans le monde. Un fait déjà connu par les experts était soudain jeté à la face du monde : l'équilibre entre puissances militaires au niveau mondial n'était plus entre les mains des pays possédant les plus grandes forces armées mais appartenait désormais à ceux qui possédaient la technologie d'armement la plus sophistiquée. Et les Etats-Unis, forts de leur supériorité d'après guerre, ne s'étaient pas rendu compte que, dans au moins un domaine d'une importance critique, le savoir-faire américain avait perdu sa suprématie mondiale. La création de l'«Advanced Research Projects Agency» ou ARPA (l'Agence de Projets de Recherche Avancée) fut l'une des réponses officielles les plus efficaces faites à Spoutnik. L'objectif principal de l'ARPA était de court-circuiter les procédures traditionnelles de financement de la recherche pour financer directement les projets les plus avant-gardistes qui pourraient aider les Etats-Unis à reconquérir leur supériorité technologique. Par bonheur pour Englebart et pour le destin de la micro-informatique, l'ARPA engagea J.C.L Licklider, qui lui aussi poursuivait son idée personnelle sur l'avenir.

Licklider subit également une expérience similaire à la révélation d'Engelbart qui transforma sa vie, et qu'il appela "une sorte d'expérience de conversion". Peu de temps avant le lancement de Spoutnik, à peu près à l'époque où Englebart, qu'il ne connaissait pas encore, commençait à travailler à l'Institut de Recherche de Stanford, Licklider était chercheur et enseignant à l'Institut de Technologie du Massachusetts. Psycho-acousticien, il travaillait sur des modèles mathématiques des principes de base régissant l'ouïe humaine et commençait à être submergé par ses propres données. Ces modèles étaient devenus si complexes qu'il passait beaucoup plus de temps à les créer et à décrypter les données qu'à réfléchir à leur signification. Un jour, entouré de graphiques, de fichiers et de toutes ses données de recherche, il décida de se pencher sur la répartition du temps de travail des scientifiques. N'ayant trouvé aucune étude sur le problème de l'organisation du travail pour des gens comme lui, il décida de répertorier quotidiennement ses propres activités.

A sa grande surprise, ses observations lui révélèrent qu'il passait environ 85 % de son temps dit de «réflexion» à : «rassembler les conditions me permettant de penser, de prendre une décision, d'apprendre quelque chose que j'avais besoin de savoir. Je passais beaucoup plus de temps à rechercher et à obtenir des informations qu'à les digérer». A cette époque, il ne connaissait pas grand chose à l'informatique, mais il entama une réflexion qui allait dans le sens de la notion développée par Engelbart. Peut-être serait-il possible de se décharger sur des ordinateurs spécialement conçus à cet effet des tâches mécaniques de recherche d'informations qui semblaient occuper une part de plus en plus importante du temps de travail des scientifiques. Naturellement, il n'existait alors aucun ordinateur qui pût effectuer ce type de tâches. Cependant les fonctionnalités des ordinateurs, contrairement à leur utilisation, étaient en train d'évoluer beaucoup plus rapidement que l'on ne pouvait le prévoir.

A l'époque, les ordinateurs servaient à effectuer les calculs de dimensions astronomiques; par exemple, pour la physique nucléaire, ce domaine est connu aujourd'hui encore sous le nom de «calculs intensifs». Le traitement des données, second domaine d'utilisation de l'informatique, ne correspondait pas non plus aux besoins de Licklider ni d'Engelbart. Le bureau du recensement, qui, lui, devait gérer des informations portant sur des centaines de millions de personnes, avait la possibilité de recourir à un UNIVAC pour effectuer tris et calculs sur des critères précis comme le nombre d'agriculteurs divorcés de plus de soixante ans. Cette acception du traitement des données impliquait des contraintes dues aux fonctionnalités des ordinateurs et à leur mode opératoire. La gestion efficace des salaires, les calculs scientifiques ou d'autres données de recensement se faisaient à l'aide d'un «traitement différé ou traitement batch». La première chose à faire était de coder le problème et les données que le programme devait traiter, généralement dans l'un ou l'autre des deux principaux langages de programmation, le FORTRAN ou le COBOL. Programmes et données codés étaient ensuite convertis sur des cartes perforées, ces fameuses «cartes IBM» que tout le monde connait, et qu'il ne fallait surtout ni plier, ni tordre ni abîmer. On devait ensuite livrer les cartes à l'administrateur du système qui se trouvait dans le «centre de calcul» du campus ou dans le «centre de traitement des données» de la société. Ce spécialiste, grand prêtre faisant office de médiateur entre les utilisateurs et l'ordinateur central hébergé dans un sanctuaire climatisé, était la seule personne abilitée à soumettre le programme à la machine et à distribuer les résultats quelques heures ou quelques jours plus tard. Si le programme comportait une erreur, qui pouvait être aussi insignifiante qu'une virgule mal placée, il fallait tout recommencer à zéro.

Les traitements en mode batch ou les traitements informatiques standard ne pouvaient évidemment pas répondre à certains besoins, comme la transformation d'une série de nombres issues d'équations d'aérodynamique en une représentation graphique de courants atmosphériques sur les ailes de l'avion. Il fallait alors recourir à la modélisation, nouvelle utilisation exotique des ordinateurs dont les ingénieurs en aéronautique furent les pionniers. Aujourd'hui, la visualisation scientifique est une forme très évoluée de descendance de ces premiers systèmes de modélisation en aérodynamique. Licklider s'était mis à rechercher une sorte de système mécanique de classement de fichiers qui pourrait l'aider à construire son modèle scientifique. Dès qu'il commença à explorer les technologies existantes, il comprit que les ordinateurs pourraient l'aider à calculer les modèles mais surtout à les élaborer, c'est-à-dire ne pas se contenter de donner des résultats mais aussi l'aider dans sa réflexion sur leur signification. Diplôme en poche, Licklider décida d'intégrer une entreprise de consultants près de Cambridge appelée Bolt, Beranek et Newman (BB & N). Il pourrait à la fois y poursuivre ses recherches en psycho-acoustique et acquérir des connaissances en informatique.

«BB & N possédait le premier ordinateur conçu par la société Digital Equipment, le PDP-1», me précisa Licklider lors de notre conversation en 1983. Cette machine d'un quart de million de dollars fut la première d'une gamme étendue de ce qu'on appelait dans les années soixante les «mini-ordinateurs». Au lieu de coûter des millions de dollars et d'occuper toute une grande pièce, ces ordinateurs ne coûtaient que quelques centaines de milliers de dollars et occupaient environ le volume d'un réfrigérateur. Au lieu de programmer pendant des jours à l'aide de monceaux de cartes perforées, on pouvait entrer très rapidement les données sur des rubans de papier. C'était la première fois que les programmeurs pouvaient dialoguer directement avec la machine, et pour les purs et durs de cette époque, cela avait réellement le goût du fruit défendu. Si on le compare aux ordinateurs actuels, le PDP-1 n'était qu'une machine rudimentaire, mais c'était une innovation majeure pour son temps. C'était le candidat idéal pour l'élaboration des modèles que Licklider avait envisagés, et le type d'instrument en temps réel que les programmeurs les plus doués avaient envie de soutirer des griffes jalouses des grands prêtres pour les installer sur leurs propres bureaux.

Comme il l'avait pressenti, Licklider découvrit qu'il était vraiment possible de se servir d'ordinateurs pour construire des modèles à partir de données expérimentales et rendre intelligible toute accumulation d'informations compliquées. Bien qu'il fût convaincu par sa «conversion religieuse» à l'informatique interactive - expression citée à maintes reprises au cours de mes conversations ultérieures avec tous ceux qui ont participé aux événements qui suivirent - Licklider ne maîtrisait pas encore assez la logique économique soustendant les technologies informatiques pour se douter que la micro-informatique serait un jour possible. Mais il en comprit la problématique fondamentale : les hommes et les ordinateurs allaient pouvoir travailler ensemble de manière radicalement nouvelle à condition que l'on mette en place les interfaces adéquates.

Dans le batiment 26, au MIT, les premiers chercheurs en intelligence artificielle travaillaient à l'élaboration d'une technologie informatique qui allait un jour détrôner l'homme en tant qu'unique être pensant de la planète. Personne ne pouvait prédire le temps que cela allait prendre et cela pouvait durer aussi bien des dizaines d'années que des siècles. Entre-temps,Licklider entrevit la possibilité d'un arrangement coopératif entre la matière grise de l'homme, le matériel et les logiciels informatiques. Il eut recours à une métaphore biologique pour décrire ce qu'il envisageait, citant le partenariat symbiotique des organismes qui retirent de leur étroite collaboration de puissants avantages mutuels. En 1960, Licklider écrivit Man-Computer Symbiosis , «La symbiose homme-ordinateur», ouvrage dans lequel il prédit que «dans un futur assez proche, les cerveaux humains et les ordinateurs seront très étroitement interconnectés et que le partenariat qui en résultera sera capable de réfléchir comme aucun être humain n'a encore réussi à le faire et de traiter des données d'une manière qu'aucune machine de traitement de données actuelle n'a encore approché.…»

Les appareils propres à «connecter très étroitement» les cerveaux et les ordinateurs que conçurent les chercheurs en informatique des années 60 et 70 furent le fondement matériel sur lequel s'appuyèrent les développements ultérieurs de la technologie de RV. En effet, on peut décrire la RV comme un environnement dans lequel le cerveau est si étroitement associé à l'ordinateur que la conscience de l'utilisateur semble se déplacer à l'intérieur du monde créé par l'ordinateur tout comme s'il se déplaçait dans son environnement naturel.

Par bonheur pour ses perspectives sur l'avenir, très semblables à celles d'Engelbart, Licklider était connecté à un milieu qui pouvait concrétiser son rêve, le complexe militaro-industriel. Si la nécessité est la mère de l'invention, alors le Ministère de la Défense est le père de la technologie. Du premier ordinateur numérique de l'Armée des années 40 aux visiocasques de l'Armée de l'Air des années 80, l'armée américaine a toujours été l'entrepreneur numéro un en ce qui concerne les innovations les plus significatives en informatique. A la fin des années 50 et au début des années 60, on fit appel aux plus brillants chercheurs du MIT pour élaborer des systèmes de défense au sol destinés à protéger l'Amérique contre toute attaque nucléaire, appelé «Semi-Automatic Ground Environment» (Environnement au Sol Semi-Automatique ou SAGE). Le laboratoire Lincoln à Lexington, (Massachusetts), laboratoire top-secret associé au MIT, employa Licklider dans la recherche sur les «facteurs humains».

L'un des problèmes les plus épineux de ce projet consistait à imaginer comment mettre à disposition un grand nombre d'informations sous une forme assez rapidement intelligible pour permettre une prise de décision immédiate. On ne pouvait bien sûr pas se satisfaire d'ordinateurs et d'opérateurs qui auraient mis trois jours à évaluer toutes les données radar avant que le commandement de la Défense Aérienne ne ouisse savoir si une attaque aérienne était en cours.

Le projet «Whirlwind» (Tornade), élaboré au centre informatique du MIT, apporta une réponse avec des calculs à très grande vitesse combinés à des contrôles informatiques semblables aux contrôles aériens, comportant même une ébauche d'images de synthèse. Les processus aérodynamiques figurant sur l'écran étaient calculés et affichés à la même vitesse que celle à laquelle ils se produisaient en réalité, c'est-à-dire en temps réel, selon la formule consacrée du jargon informatique. Whirlwind fut l'un des ancêtres directs de la simulation et des images de synthèse et par conséquent, de la réalité virtuelle. Les opérateurs de Whirlwind et de SAGE furent les premiers à pouvoir visualiser des données sous forme d'images de synthèse. Les opérateurs de SAGE avaient même la possibilité d'utiliser des outils baptisés «photostyles» pour modifier les graphiques directement à l'écran. Le problème des écrans graphiques commençant ainsi à s'éloigner du domaine électronique pour entrer dans celui de la perception humaine, Licklider avait rejoignit alors les constructeurs informatiques. Un historien pourrait à l'avenir se pencher sur ce point d'inflexion historique, où celui qui avait étudié de très près le fonctionnement de l'intelligence humaine devint un architecte de la technologie informatique.

Sur le SAGE, Licklider fit la connaissance de Jack Ruina, le directeur de l'ARPA, qui voulait généraliser les systèmes de défense inauguréz dans la défense anti-aérienne; il créa pour cela un département au sein de l'ARPA dans lequel on développerait de nouvelles techniques de traitement de l'information. L'idée de Licklider de créer un ordinateur qui puisse s'interfacer à ses opérateurs par l'intermédiaire de claviers et d'écrans convainquit Ruina que la minorité ambitieuse des chercheurs informatiques pourrait déboucher sur une innovation d'importance.

L'ARPA était précisément le lieu où pouvait se développer ce type d'innovation. Il était tout aussi évident que le projet de Licklider ne se limitait pas au seul domaine militaire. «J'ai réussi à convaincre Jack Ruina de la pertinence de l'informatique interactive, non seulement pour les applications de contrôle et de commande militaire, mais aussi pour l'ensemble des tâches quotidiennes du secteur tertiaire», me confia Licklider quelque vingt ans plus tard, alors que nous évoquions cette histoire. En octobre 1962, Licklider devint le directeur du Département des Techniques de Traitement de l'Information (IPTO). Cet événement consacra le tout début de l'ère de la micro-informatique et à plus d'un égard, prépara le terrain pour les technologies de la réalité virtuelle.

Les ordinateurs, les périphériques d'entrée et les dispositifs d'affichage des systèmes du cyberespace découlent directement de la technologie élaborée par l'IPTO dans les années 60. Prenons le cas d'Ivan Sutherland, l'un des jeunes enthousiastes que Licklider rencontra au Laboratoire Lincoln; Il créa presque seul le domaine de l'informatique graphique interactive. Il succéda à Licklider à la direction de l'IPTO et en 1965, créa le premier visiocasque. Licklider, Sutherland et Engelbart ont tous trois, grâce à leurs idées et à leur talent, détourné le cours de la technologie informatique pour la recentrer sur des interfaces définies à partir d'un modèle humain. Chacun d'eux a lancé une partie du défi que doivent relever les concepteurs de RV à venir, et élaboré les premiers outils permettant de construire les technologies catalyses des simulateurs personnels devant naître un quart de siècle plus tard.

Licklider n'eut pas droit à un véritable laboratoire; il avait un bureau, un budget, et une mission : relever le niveau de l'état de l'art en matière de traitement de l'information. Licklider chercha dans les sociétés qui se lançaient de jeunes programmeurs passionnés, dont certains avaient démissionné, du MIT, de l'Université de Californie, de chez Rand, de l'Université de Utah: il chercha aussi dans une douzaine de centres de recherche dispersés sur le territoire entier des Etats-Unis. L'un des jeunes convertis à la croisade de l'informatique interactive et qui faisait partie de l'équipe de Licklider était un jeune administrateur de recherche à la NASA répondant au nom de Bob Taylor. Taylor avait financé une partie du travail théorique d'un autre jeune aux idées géniales : Douglas Englebart. Au bout d'un certain nombre d'années de travail incognito, une équipe de financiers de l'ARPA lui rendit visite et lui promit un équipement informatique des plus modernes et un million de dollars par an pour créer les ordinateurs à accroissement intellectuel qu'il décrivait depuis des annéesdans ses publications.


DE L'ARC AU PARC : LA NAISSANCE DE LA MICRO-INFORMATIQUE

A ce stade, les symboles par lesquels l'homme représente les concepts qu'il manipule peuvent être ordonnés devant ses yeux, déplacés, rangés, rappelés et utilisés en fonction de règles extrêmement complexes - tout cela sous forme de réponses très rapides au minimum d'informations que l'homme fournit grâce à des dispositifs technologiques coopératifs spécifiques. Dans les limites de ce que nous pouvons imaginer à l'heure actuelle, il pourrait s'agir d'un ordinateur avec lequel les gens pourraient communiquer facilement et rapidement, connecté lui-même à un écran couleur en relief à l'intérieur duquel on pourrait construire des images extrêmement sophistiquées, l'ordinateur étant capable d'exécuter tout un ensemble de traitements variés sur tout ou partie de ces images en réponse automatique aux commandes de l'opérateur. Les données affichées et les traitements mis en oeuvre pourraient offrir des services utiles et impliquer des concepts que l'on n'a pas encore imaginés (c'est-à-dire qu'il était impossible à quiconque avant l'avènement du graphisme informatique d'imaginer la barre graphique, les calculs ou les systèmes de cartographie).

D. Engelbart
« A Conceptual framework for Augmenting Man's Intellect », 1960


La micro-informatique a suivi une évolution similaire à celle de l'imprimerie, mais en 40 ans au lieu de 600. Comme pour les livres du Moyen Age écrits à la main, les gros ordinateurs construits dans les vingt années qui ont précédé 1960 étaient rares, chers et accessibles à un très petit nombre de personnes. Tout comme l'invention de l'imprimerie a conduit à une utilisation communautaire des livres en bibliothèque, l'émergence du temps partagé dans les années soixante a divisé les capacités des ordinateurs très onéreux afin d'en diminuer le coût d'accès et d'en permettre une utilisation communautaire. Et tout comme la révolution industrielle - avec l'imprimerie, la reliure mécanisée et la fabrication de papier bon marché - a permis l'existence de livres personnels, la révolution micro-électronique des années 70 conduira aux micro-ordinateurs des années 80, qui seront assez rapides et auront une capacité de stockage suffisante pour supporter des langages informatiques sophistiqués et des interfaces graphiques interactives.

Alan Kay
« Microelectronics and the Personal Computer », 1982


Engelbart montra aux financiers de l'ARPA qui lui rendirent visite les grandes lignes du projet qu'il avait eu le temps de peaufiner pendant des années, ainsi que le plan détaillé d'un laboratoire conçu pour «hisser par ses propres moyens» la technologie informatique vers un domaine entièrement nouveau. Son équipe de recherche construirait des outils informatiques interactifs, un matériel d'entrée-sortie sophistiqué, de nouveaux types de logiciels de communication, des éditeurs de texte évolués et des systèmes graphiques, puis pourrait élaborer sur cette base des outils encore plus complexes, et ainsi «sortir» les ordinateurs de l'âge du système lourd pour les faire entrer dans l'ère de l'accroissement des ordinateurs interactifs. Engelbart décida d'appeler ce laboratoire «Augmentation Research Center» (ARC), le Centre de Recherche de l'Accroissement. C'est tout-à-fait délibérément qu'il choisit d'utiliser le mot «accroissement» par opposition à «automatisation», mot le plus couramment employé pour décrire l'utilisation de l'informatique dans un environnement de travail. Automatisation signifie que l'on a recours aux ordinateurs pour remplacer le travail humain. Accroissement, lui, fait référence à une amplification de la puissance du travail intellectuel parce que les barrières qui empêchaient d'atteindre un niveau de réflexion plus élevé ont été levées.

En 1963, Engelbart proposa une sorte d'appareil d'écriture informatisé comme exemple du type d'accroissement intellectuel qu'il voulait mettre au point. Plus de dix ans avant que les premiers traitements de texte ne soient économiquement réalisables, il avança, dans son ouvrage intitulé «A Conceptual Framework for Augmenting man's Intellect» (Une structure conceptuelle pour accroître l'intelligence humaine), qu'en utilisant un ordinateur et un écran vidéo pour composer des documents, on pourrait améliorer l'ensemble du processus de la composition écrite : «Cette machine à écrire hypothétique permet par conséquent de composer un texte d'une manière entièrement nouvelle... Si l'enchevêtrement des idées représentées par le brouillon devient trop compliqué, on peut réorganiser très rapidement ce brouillon par une compilation. Les données pourraient être organisées selon un plan sophistiqué que vous pourrez définir selon vos besoins... Ce dont on doit bien se rendre compte, c'est qu'une nouvelle innovation appliquée à une fonctionnalité particulière peut avoir des conséquences sur l'intégralité de la structure hiérarchique des fonctionnalités». Cet exemple s'avéra particulièrement prophétique mais très en avance par rapport aux technologies catalyses qui allaient permettre de le mettre en pratique : au début, les chercheurs de l'ARC utilisaient des consoles qui ressemblaient à d'énormes écrans circulaires recevant des signaux émis par des caméras vidéo volumineuses en direction d'écrans semblables aux écrans radars.

Le traitement de texte ne fut que l'une des nombreuses innovations sorties de l'ARC au cours de ses douze années d'existence au SRI. Le périphérique de pointage du type «souris», aujourd'hui partie intégrante de tout micro-ordinateur, fut inventé dans les années 60, mais l'on dut attendre les années 80 pour sa commercialisation. «L'hypertexte» qui permet aux lecteurs de passer d'un document à l'autre en pointant avec la souris sur des zones particulières de l'écran, les différentes «fenêtres» de texte affichées sur les écrans, les conférences électroniques qui permettent à plusieurs utilisateurs de partager un système de communication écrite, «la présentation» qui permet aux utilisateurs d'afficher le document sous diverses perspectives, le mélange d'images vidéo avec des images de synthèse, de texte et de graphique dans un même document - en fait la plupart des caractéristiques clés qui définissent la micro-informatique telle qu'elle existe à l'heure actuelle -, tout cela fut inventé au sein de l'ARC.

L'utilisation de la souris en tant que périphérique de pointage fut une innovation concrète pour les interfaces homme-machine, dont s'est immédiatement emparé la RV : des entrées sous forme de gestes en 3D en guise de langage de commande. Au lieu d'appeler un document ou un programme en tapant une commande ésotérique, on pouvait enfin communiquer avec un ordinateur grâce à un geste naturel. Lorsqu'un utilisateur déplace la souris sur une surface à coté du clavier, un curseur se déplace de façon analogue sur l'écran. Il devient alors possible de formuler des commandes en «pointant et en cliquant». Dans les réalités virtuelles du futur, les entrées gestuelles à l'aide de gants et de senseurs gestuels «sans fil» pourraient poursuivre cette logique de développement jusqu'à atteindre sa conclusion naturelle en permettant aux gens d'utiliser le périphérique d'entrée qu'ils utilisent le plus couramment : leurs doigts. Vingt ans après quEngelbart l'eût prédit, l'utilisation des entrées gestuelles a été couplée avec les modèles graphiques en relief qu'il avait imaginé en 1962.

En 1968, Engelbart et son équipe décidèrent de risquer le tout pour le tout en dévoilant leur nouvelle approche radicale de l'informatique lors de l'un des plus importants séminaires en la matière de l'époque, le «Fall Joint Computer Conference». Ce fut l'un des événements marquants de l'histoire de l'informatique. Sur l'estrade, avec un clavier, un écran, une souris et des écouteurs du genre de ceux qu'utilisent les pilotes ou les opérateurs de tables de commandes, Engelbart orchestra une démonstration de navigation à travers des espaces d'informations semblables à ce que Vannevar Bush avait imaginé en 1945. En véritable infonaute, Engelbart captiva l'attention de son public et le plongea directement dans une version opérationnelle du système d'Accroissement dont il rêvait depuis 1950. Il appela des documents depuis la mémoire de l'ordinateur et les afficha sur le grand écran qui faisait face à la salle, les réduisit en une série d'en-têtes descriptifs d'une seule ligne, cliqua à l'aide de la souris sur un en-tête pour révéler le contenu du document, saisit une commande pour afficher une image vidéo et une image de synthèse à l'écran. Il tapa des mots, les supprima, coupa et colla des paragraphes et des documents d'un endroit à un autre. Les conférences informatiques sont souvent fastidieuses, mais celle-ci galvanisa tous les participants. Ingénieurs, programmeurs et scientifiques informatiques n'avaient jamais rien vu de pareil. Ce fut, comme l'a dit un scientifique, «une preuve réelle» des rêves de Engelbart et de Licklider. Ils avaient devant eux un prototype en état de marche des ordinateurs à venir.

Alan Kay, l'un des jeunes sorciers de l'informatique, était là. C'était l'un des plus jeunes membres de la génération ARPA qui avait participé à la création de l'informatique interactive et du temps partagé et il devait devenir l'un des architectes clés de la «micro-informatique», étape qui se situe juste après celle de l'informatique interactive dans l'évolution de cette science. Il ne s'agissait pas seulement de la toute dernière innovation de l'informatique conviviale. En 1990, Kay a rappelé l'énorme intérêt suscité par la révolution de la micro-informatique qui a commencé il y a vingt ans, qui a émergé dans la population non spécialisée il y a dix ans, et qui commence seulement à se répandre dans le grand public. «Le concept de l'interface utilisateur est apparu pour la première fois lorsque les chercheurs en informatique se sont enfin rendus compte non seulement que les utilisateurs avaient un cerveau en état de marche, mais qu'une meilleure compréhension du fonctionnement de ce cerveau déplacerait complètement le paradigme de l'interaction.»

Alan Kay a toujours insisté sur le fait que la psychologie jouait un rôle majeur dans la conception des interfaces informatiques; les théories de Jean Piaget, de Jérome Bruner et d'autres théoriciens qui moulaient le processus de l'apprentissage sur l'idée de l'exploration l'intéressait au plus haut point. Ainsi, on pouvait comparer nos cerveaux à des scientifiques, nos sens à leurs instruments et le monde aux expériences qu'ils menaient. Ces psychologues travaillaient tous d'après la même hypothèse, à savoir que la découverte du monde se fait par une approche sensorielle, en le manipulant avec les mains, en l'observant avec les yeux et les oreilles. Convaincus, Kay et l'un de ses mentors du laboratoire d'IA (Intelligence Artificielle) du MIT, Seymour Papert, appliquèrent les théories de Piaget à la technologie informatique. La vue d'enfants de six ans parfaitement à l'aise dans le langage informatique inventé par Papert et son équipe fut l'une des expériences qui marquèrent la carrière d'Alan Kay.

A la fin des années 60, Kay était étudiant en informatique à l'Université de l'Utah. C'était l'époque où Ivan Sutherland et David Evans s'attelaient à la partie «images de synthèse» du plan ARPA. Kay fut influencé par Marshall Mac Luhan, (ce qui lui fit considérer un ordinateur comme un média plutôt que comme un outil), par Papert (qui lui montra que les langages informatiques pouvaient être des outils d'aide à la pensée, qu'une interaction homme-machine basée sur une interface graphique était efficace, et que les enfants pouvaient et devaient être capables d'utiliser des ordinateurs) et par Ivan Sutherland (dont la thèse, un code informatique pour Sketchpad, permit d'utiliser un ordinateur comme simulateur interactif). En 1970, Kay était l'une des plus brillantes superstars parmi les centaines d'autres superstars issues de l'ARPA qui entrèrent au centre de recherches de Palo Alto (PARC), le tout nouveau centre de recherche que venait d'ouvrir Xerox. Pour de multiples raisons, l'épicentre de la révolution micro-informatique se déplaça au début des années 70 de l'ARC et des autres sites de recherche ARPA en direction des nouveaux locaux de Xerox.

L'amendement Mansfield, élaboré en pleine guerre du Vietnam, empêcha l'ARPA de financer autre chose que la recherche dans le domaine de l'armement. Ainsi la guerre joua-t-elle un rôle de détonateur pour les programmeurs et les directeurs de recherche, la plupart d'entre eux ne se sentant plus à l'aise dans leur travail sous l'égide du Ministère de la Défense. L' exode de certains des meilleurs et des plus brillants chercheurs jusque-là sponsorisés par la Défense fut probablement le moteur le plus puissant de la révolution micro-informatique. Le même phénomène de déplacement d'applications technologiques à l'origine militaire vers le secteur civil semble se reproduire à l'heure actuelle et, encore une fois, cela pourra dynamiser la prochaine évolution de la technologie informatique.

Bob Taylor, le jeune directeur de recherche de la NASA qui avait «découvert» Englebart, avait succédé à Licklider et à Sutherland au poste de Directeur de l'IPTO. A l'époque de l'amendement Mansfield, il intégra le PARC et commença à rassembler les meilleurs chercheurs qui avaient travaillé sur les programmes de recherche décentralisés de l'ARPA, le must des jeunes programmeurs légendaires qui avaient contribué au succès de la révolution de l'informatique interactive. Le noyau de l'équipe s'était connu dans les réunions de l'ARPA et sur ARPAnet, le réseau de communication informatique qu'ils avaient créé; ils se retrouvaient maintenant tous ensemble dans ce laboratoire de rêve on ne peut mieux doté et situé sur Coyote Hill, une colline qui surplombait Palo Alto, avec les mêmes directeurs de recherche, beaucoup d'argent et la mission de créer - comme l'avait appelé le président de Xerox - «l'architecture de l'information du futur».

PARC fut vraiment l'un des plus beaux contes de fée de la technologie. En partant des innovations d'Engelbart, les chercheurs y intégrèrent les leurs et construisirent leurs propres prototypes basés sur les technologies catalyses de plus en plus puissantes dont on commençait à disposer dans les années 70. Les briques constituant les micro-ordinateurs avaient été conçues ailleurs par d'autres équipes d'infonautes qui avaient réussi à produire les technologies de micro-circuits et d'affichage qu'utilisaient les chercheurs au PARC.

Les technologies catalyses firent de spectaculaires bonds en avant à l'heure où le succès de l'informatique interactive devint évident. Les ordinateurs de l'ARC avaient certes été conçus de manière à étendre les capacités intellectuelles de ceux qui s'en servaient, mais dans les années 60, construire un ordinateur assez bon marché pour le compte d'une seule personne était encore impossible jusqu'à ce que la révolution de la miniaturisation passe à la vitesse supérieure grâce à l'essor du secteur aérospatial. Au début des années 70, les chercheurs du PARC, dont beaucoup étaient des vétérans du labo d'Engelbart, construisirent le premier micro-ordinateur, le fameux «Alto» en face duquel je me suis retrouvé quelque dix ans plus tard. L'équipe d'Alan Kay joua le rôle de fer de lance dans la création d'une nouvelle interface basée sur les toutes dernières technologies catalyses dont on pouvait disposer. Et l'idée d'ARPAnet déboucha sur la création du premier «réseau local», celui que l'on a poétiquement baptisé «Ethernet», un petit cousin du réseau des réseaux d'aujourd'hui, Worldnet, qui ressemble, lui, de plus en plus au concept de Matrice développé par Gibson. Dans les années 70, l'armée grandissante des infonautes à la recherche d'outils pour la pensée assistée par ordinateur ne rêvait plus qu'au PARC. Au début des années 80, j'en ai rencontré quelques uns, de ces vétérans du PARC qui avaient participé à la création de l'interface de l'Alto : tous me précisèrent que l'utilisation de graphiques comme intermédiaire entre l'intelligence humaine et l'ordinateur était au coeur de leur philosophie.

Ceux qui construisirent les ordinateurs du PARC disposaient d'une technologie qui avait jusque là manqué aux équipes antérieures de l'ARC, celle du «graphisme en mode point». Chaque élément graphique de l'écran est représenté par un bit spécifique dans la mémoire de l'ordinateur et, par conséquent, la mémoire de l'ordinateur comporte une «carte des bits» qui correspond au motif des pixels de l'écran. La communication entre bit et pixel se fait dans les deux sens; on peut modifier les bits dans l'ordinateur et voir les pixels sauter sur l'écran comme on peut modifier les pixels à l'écran à l'aide d'un outil de pointage et voir l'ordinateur s'adapter par petites touches. Les écrans en mode point furent la technologie catalyse de la relation homme-machine qu'Ivan Sutherland fut le premier à introduire sur la côte Est des Etats-Unis, dix ans avant le PARC. Cliquer sur une souris pour faire accomplir des trucs à l'ordinateur grâce à un faisceau d'électrons et un écran phosphorescent fut l'une des premières étapes importantes menant aux mondes virtuels dans lesquels l'écran est partout, les gestes, le regard et la voix remplaçant la souris.

Dans le cénacle restreint de scientifiques informatiques, cela faisait des années que l'on connaissait les interfaces à manipulation directe, mais ce concept ne se répandit à travers le monde qu'après que Steve Jobs d'Apple ait vu ce qui se passait au PARC. Jobs, ainsi qu'une génération de petits génies encore plus jeunes que lui, s'emparèrent de cette technologie créée par les meilleurs et les plus brillants inventeurs de la décade précédente, en conçurent une nouvelle version adaptée aux technologies catalyses les plus récentes, et transformèrent ces machines à accroissement intellectuel en «appareils ménagers», car c'était bien la première fois que les gens avaient envie d'avoir ce type d'appareil chez eux ou au bureau. En 1984, grâce au Macintosh d'Apple, des millions de gens purent bénéficier d'interfaces graphiques et interactives, qui, vu leur convivialité, connurent un succès foudroyant. En 1990, même IBM, constructeur rival d'Apple en micro-informatique, s'est converti aux interfaces graphiques.

La force des graphiques interactifs, c'est-à-dire le fait de pouvoir transformer bits et pixels en outils visuels d'aide à la pensée, avait été brillamment démontrée au début des années soixante par le coup de maître technique d'Ivan Sutherland, alors étudiant de second cycle d'à peine plus de vingt ans. Il fallut encore une dizaine d'années de travail acharné basé sur ces nouvelles technologies catalyses pour mettre au point des Alto et des réseaux Ethernet, et encore une décennie avant que des étudiants puissent s'acheter un Macintosh. La technologie catalyse des graphiques interactifs joua un rôle déterminant dans l'avènement des micro-ordinateurs. La création d'outils capables de s'interfacer avec ces graphiques fut également le point de départ pour les images de synthèse et les moteurs de réalité. Si la règle des «cycles d'environ dix ans» se vérifie encore une fois, les millions de passionnés de la micro-informatique de l'an 2000 communiqueront directement avec des mondes virtuels grâce à leurs moteurs de réalité presonnels.

La relation entre humains et images affichées sur écran, qui est à l'âge électronique ce que les peintures de Lascaux et les initiations Eleusiniennes étaient à leur époque, est l'un des thèmes centraux de l'histoire du cyberespace. Il est temps de faire un bref rappel historique de la prise de pouvoir progressive de l'affichage des données informatiques.


SKETCHPAD : « LE PLUS IMPORTANT PROGRAMME INFORMATIQUE JAMAIS ÉCRIT »

La première véritable interface interactive homme/machine fut également celle qui pour la première fois offrait une manipulation directe, et cela est assez logique. Le Sketchpad d'Ivan Sutherland a permis à un utilisateur et à ordinateur de «dialoguer rapidement à l'aide de dessins». Ce type d'interaction essentiellement graphique, possédait néanmoins quelques unes des caractéritiques inhérentes à une conversation entre êtres humains. Tout utilisateur dialogue avec Sketchpad en pointant sur une image à l'écran. Le système répond en mettant immédiatement à jour le dessin, de manière à ce que la relation entre l'action de l'utilisateur et le graphique affiché à l'écran soit explicite. En fait, grâce à la rapidité et à l'exactitude de la réponse, on peut considérer qu'elle est analogue aux backchannels, ou au discours secondaire dans les communications humaines.

Susan Brennan
« Conversation as Direct Manipulation », 1990


L'invention des ordinateurs à temps partagé des années 60 permit non seulement à plusieurs personnes d'utiliser en interactif le même ordinateur central, mais elle offrit également un nouveau canal de communication entre humains - ce sont les premiers utilisateurs de systèmes en temps partagé qui mirent au point des systèmes de courrier électronique pour communiquer par messages. Les systèmes de courrier électronique évoluèrent au même rythme que les systèmes à temps partagé. En définitive, ce que nous pourrons transmettre par l'intermédiaire des lignes de télécommunications ne sera plus limité au texte, mais inclura voix, images, gestes, expressions du visage, objets virtuels, architectures cybernétiques, tout ce qui participe à l'idée de présence. Nous enverrons des mondes, et expliquerons comment y entrer. L'informatique interactive et le courrier électronique de la fin des années soixante furent les deux événements jumeaux déterminants quant à l'élaboration de la Matrice, le réseau des réseaux dans lequel évolueront les cybernautes à venir. On peut penser aujourd'hui que tous ces récents développements seront à même d'éliminer les obstacles qui ont toujours séparé les fonctions cognitives de l'homme des fonctions de calcul de l'électronique.

Au début des années 60, l'un des obstacles majeurs empêchant l'accès direct aux ordinateurs était dû à la façon dont les données étaient présentées à l'utilisateur. Même si, dès le début des années 50, Engelbart avait rêvé d'un affichage graphique interactif, les véritables moteurs en furent la guerre froide et la course à la conquête de l'espace. Whirlwind et le «groupe de présentation» du Laboratoire Lincoln, qui avaient élaboré l'interface d'affichage du projet SAGE, avaient démontré les possibilités offertes par la technologie du tube cathodique, semblable à celle des écrans de télévision, et qui pourraient remplacer les imprimantes télétypes. C'est de ce projet que naquit le photostyle, un outil simple mais tout-à-fait révolutionnaire qui permettait à l'opérateur de manipuler l'ordinateur en touchant l'écran avec un objet ressemblant à un stylo. Les chercheurs du laboratoire Lincoln au début des années 60 possédaient l'ordinateur le plus sophistiqué de l'époque, le TX-2, le premier dont les éléments de commutation reposaient sur des transistors et non plus sur des tubes à vide.

En 1983, Licklider et moi-même évoquâmes ce jour dont il garde un souvenir très précis quelque vingt ans plus tard, où l'infographie se hissa au rang de discipline à part entière. Les vétérans du groupe de présentation du laboratoire Lincoln et d'autres chercheurs de l'ARPA de l'Université de l'Utah travaillaient intensivement sur le problème de l'affichage reposant sur des tube cathodiques. Au cours de la première réunion consacrée à l'informatique graphique interactive, fut présenté et discuté un premier plan d'attaque destiné à mener une offensive sur le front de l'affichage des données. Afin de connecter bits et pixels d'une manière fonctionnelle, il fallait concevoir un matériel qui fût capable d'aller chercher les données dans l'ordinateur pour les afficher à l'écran; le problème consistant à créer un logiciel qui permette aux utilisateurs de contrôler l'apparence des pixels à l'aide des valeurs des bits était encore plus difficile à résoudre. Ivan Sutherland résolut les problèmes les plus compliqués grâce à un seul programme, le fameux «Skechpad». Toutes les personnes qui, d'une manière ou d'une autre, ont participé à la révolution informatique et que j'ai pu rencontrer ont qualifié leur première expérimentation de ce programme «d'expérience de conversion», expression que nous connaissons bien maintenant.

Sketchpad, c'est Lascaux quelque trente mille ans plus tard. Sutherland remplaça les pigments sur les murs calcaires des grottes par des électrons et des phosphores lumineux sur la surface d'une bouteille de verre. Les peintures des grottes et les premières images de synthèse furent des tentatives du même ordre, leur objectif étant d'influencer la conscience de l'observateur afin de lui transmettre d'importantes informations d'ordre culturel. Il existe encore aujourd'hui un vieux documentaire en noir et blanc d'environ dix minutes sur Sketchpad. On y voit Sutherland en train de montrer les fonctionnalités graphiques de son programme sur un petit écran éclairant une pièce dans le noir, qui me rappelle à plus d'un égard les spectacles sons et lumières souterrains donnés par nos ancêtres.

«A l'époque, Sutherland était un étudiant de second cycle», précisa Licklider, «et il n'était pas là pour présenter quoi que ce soit». Il avait pourtant été invité à cette réunion pour plusieurs raisons : Sutherland était l'étudiant en doctorat de Claude Shannon, connu pour sa théorie de l'information. Claude Shannon ne s'intéressait pas à n'importe quel étudiant de second cycle. Sutherland était en train de créer un programme graphique pour son doctorat. Et on disait de lui qu'il était exactement le genre de prodige que recherchait l'ARPA.

«Vers la fin de l'une des dernières réunions, Sutherland se leva et posa une question à l'un des intervenants», poursuivit Licklider. D'après le sens de sa question, on pouvait soupçonner que ce jeune inconnu avait quelque chose d'intéressant à communiquer à cette prestigieuse assemblée. Par conséquent, Licklider lui dégagea un temps de parole pour la session du lendemain. «Il apporta bien sûr quelques diapositives, et quand nous les avons vu, nous avons unanimement compris que son travail dépassait largement tout ce qui avait été décrit dans les sessions précédentes.» Le sujet de thèse de Sutherland, un programme développé sur le TX-2 du laboratoire Lincoln, abordait le problème du graphique informatique d'une manière résolument nouvelle - et montrait une nouvelle façon de donner des instructions aux ordinateurs. En voyant Sketchpad, les experts rassemblés se rendirent compte que Sutherland avait largement dépassé leurs recherches et créé un programme auquel même les plus ambitieux d'entre eux n'avaient pas osé pensé. Sketchpad permettait à un opérateur de créer, à l'aide d'un ordinateur, des modèles visuels sophistiqués sur un écran ressemblant à celui d'une télévision. Ceux-ci pouvaient être stockés dans la mémoire de l'ordinateur comme n'importe quel autre type de données, et pouvaient être manipulés par le processeur de l'ordinateur. Les gens pouvaient créer des images de la manière la plus naturelle qui soit, à l'aide de leurs mains, de leurs yeux et d'un objet ressemblant à un crayon pour les dessiner. D'une certaine manière, c'était une réponse radicale à la problématique de Licklider, qui cherchait à construire rapidement des modèles. Mais Sketchpad allait bien au-delà d'une simple utilisation en tant qu'outil de création d'images à l'écran. Il s'agissait en fait d'une sorte de langage de simulation qui permettait aux ordinateurs de traduire des abstractions sous forme d'objets que l'on pouvait reconnaître concrètement. Sketchpad apportait la preuve indiscutable d'une approche radicalement nouvelle de l'informatique; en modifiant quelque chose à l'écran, on modifiait également quelque chose dans la mémoire de l'ordinateur. On n'en était pas encore au graphique en mode point, mais Ivan avait réussi à trouver un moyen d'utiliser un TX-2, un écran à tube cathodique et un photostyle (ces deux types de matériel ayant été conçus par d'autres), pour piloter un ordinateur en dessinant à l'écran.

Même les demi-dieux de la programmation (les programmeurs qui «avaient l'habitude de jouer avec le feu» selon l'expression d'Alan Kay) furent impressionnés. Alan Kay se souvint que Sutherland fit la remarque suivante à propos de son programme : «Si j'avais su qu'il allait être aussi difficile à réaliser, je ne l'aurai certainement jamais fait». Avec un photostyle, un clavier, un écran et le programme Skechpad tournant sur les ordinateurs en temps réel relativement rudimentaires de 1962, tout le monde put se rendre compte que l'informatique n'était pas faite pour se cantonner au simple traitement de données. En tous cas, avec Sketchpad, il suffisait de le voir pour en être convaincu. Encore aujourd'hui, il suffit de regarder un opérateur de CAO à l'oeuvre pour saisir toute la magie de cette innovation. La conception assistée par ordinateur, ou CAO, est en effet née de cette thèse de doctorat, et c'est l'une des forces industrielles les puissantes soutenant les développements de la RV dans les années 90.

Il y a près de trente ans, ces mêmes visionnaires qui avaient prédit et mis au point les prototypes d'une informatique d'un nouvel âge, influencèrent la direction que devait prendre la recherche. Licklider choisit Sutherland, alors agé de vingt-six ans, pour lui succéder à la tête de l'IPTO en 1964; quand Sutherland retourna à Cambridge l'année suivante pour mettre au point un visiocasque, il recommanda pour le remplacer Robert Taylor, qui avait pratiquement le même âge que lui, pour prendre sa place. Pendant des années, les vrais adeptes de l'informatique interactive graphique se succédèrent à ce poste de direction. C'était une sorte de réseau de vieux copains dont les relations n'étaient pas de type social ni liées à l'appartenance à la même promotion universitaire; c'était plutôt la croyance en une même idée dans les relations à venir entre hommes et machines qui les avait soudés.

Alan Kay a été fortement influencé par Sketchpad. Quand il arriva à l'Université de l'Utah en 1966, le premier travail que lui confia son directeur de recherche fut d'étudier le code de programation du Sketchpad. Voir comment fonctionnait l'invention de Sutherland fut pour Kay l'une de ses expériences de conversion, qu'il me relata avec enthousiasme en 1983 : «Sketchpad n'était pas simplement un outil permettant de dessiner des objets. C'était un programme obéissant à des lois qui devaient être appliquées. Pour former un carré, on dessinait une ligne à l'aide du photostyle et on donnait quelques instructions à l'ordinateur, comme 'copier-copier-copier, associer-associer-associer. Cet angle fait 90 degrés, ces quatre objets sont égaux'. Sketchpad intégrait votre ligne et vos instructions , et hop ! votre carré s'affichait à l'écran».

Il y eut un autre prophète de l'informatique pour qui les implications du Sketchpad ainsi que d'autres merveilles ésotériques de la micro-informatique ne passèrent pas inaperçu. Il s'agit de Ted Nelson, figure notoirement anticonformiste et irrévérencieuse de la contre-culture qui publiait à ses frais depuis déjà longtemps des commentaires loufoques et bizarres, mais incroyablement justes, sur l'informatique du futur. Dans «The Home Computer Revolution» (La révolution de l'informatique domestique) , qu'il publia en 1977, voici comment Nelson commente le programme de Sutherland, dans un chapitre intitulé «Le plus important programme informatique jamais écrit» :

« On pouvait dessiner une image sur l'écran à l'aide du photostyle puis la ranger dans un dossier dans la mémoire de l'ordinateur. On pouvait réellement sauvegarder plusieurs images de cette manière.

On pouvait ensuite combiner les images, en extraire des copies de la mémoire et les mélanger entre elles.

Par exemple, on pouvait dessiner un lapin et une fusée, puis disperser plusieurs petits lapins sur une grosse fusée. Ou des tas de petites fusées sur un gros lapin.

L'écran sur lequel s'affichait l'image ne montrait pas forcément tous les détails; ce qui était important, c'était que les détails soient dans l'ordinateur, et qu'en grossissant suffisamment l'image, on puisse les faire apparaître.

On pouvait agrandir et réduire considérablement l'image. On pouvait remplir une image de fusée avec des images de lapins, puis la réduire jusqu'à ce que la seule chose visible qui reste soit une minuscule fusée; on pouvait ensuite copier le résultat, puis le parsemer sur une copie agrandie du lapin. Ainsi, lorsqu'on agrandissait le lapin jusqu'à ce qu'une petite partie en reste visible (jusqu'à ce qu'il ait la taille d'une maison, en imaginant que l'écran pût être assez grand pour le contenir), alors les fusées d'environ 30 cm à l'écran comportaient toutes des lapins de la taille d'une pièce de 10 centimes.

Et enfin, si on modifiait la première image - disons, en ajoutant une troisième oreille sur le gros lapin-, toutes les copies étaient modifiées en conséquence.

Ainsi, Sketchpad vous permettait d'effectuer plusieurs essais avant de décider. Au lieu de vous forcer à positionner une ligne d'une manière spécifique, il vous permettait d'essayer différentes positions et arrangements, aussi aisément que vous l'auriez fait avec des images découpées sur une table.

Ainsi on pouvait exprimer ses propres indécisions et exercer son jugement. Au lieu de forcer l'utilisateur à diviser les objets selon des catégories bien déterminées, ou exiger des données précises dès le début - toutes ces restrictions rigides regroupées sous l'expression «l'ordinateur exige» - on pouvait déplacer les objets autant qu'on le voulait. On pouvait les réorganiser jusqu'à ce que l'on ait obtenu ce que l'on désirait, quelle qu'en fût la raison.

Les photostyles et les écrans graphiques existaient déjà auparavant dans le secteur militaire, mais le programme Sketchpad fut le premier à être aussi simple - une simplicité, ajoutons-le, qui avait été délibérément voulue par quelqu'un d'une intelligence remarquable - et à être totalement indépendant de tout secteur particulier. En effet, on ne retrouvait aucune des complications inhérentes aux tâches accomplies par les hommes. Pour résumer, disons que ce programme était naïf, montrant à quel point le travail humain pourrait être facilité si les ordinateurs étaient réellement conçus pour aider les hommes.

On peut penser que Sketchpad ne sert pas à grand chose, et ça a été en fait l'un des problèmes. Ce programme était très novateur et plein d'imagination, et Sutherland a inventé tout un tas de nouvelles techniques pour le créer; cela, seules des personnes créatives peuvent le comprendre.

Admettons que les lapins et les fusées soient un exemple frivole, réservé à un séminaire de science-fiction à Easter. Mais il existe des tas d'autres applications évidentes : cela pourrait faciliter grandement la réalisation de plans, de schémas électroniques, et tous autres domaines faisant appel à des dessins précis et de grande envergure. Non pas que le fait de dessiner des lapins, ni même des transistors ait constitué un aboutissement en soi; mais cela a permis d'envisager une nouvelle façon de travailler et de voir.

Les techniques de l'infographie sont universelles et s'appliquent à tous les domaines - mais uniquement si vous pouvez adapter votre esprit à penser en termes d'écrans informatiques »

En 1989, vingt-sept ans après les débuts du Sketchpad, je participais à la convention annuelle du SIGGRAPH «Association for Computing Machinery's Special Interest Group for Graphics» au Palais des expositions Foley de Boston. Au milieu d'une foule de soixante mille personnes, je me promenai, éberlué, pendant quatre jours, sur les trois énormes étages de l'exposition remplis d'appareils, d'outils et d'industries spécialisés en écrans informatiques. Les films présentés au SIGGRAPH sont toujours les premiers à présenter l'état de l'art en matière d'images de synthèse, un domaine dans lequel les résultats finaux sont affichés sur les écrans et commentés dans des articles de journaux. Cette année-là, on distribuait des lunettes permettant aux visiteurs de voir les présentations en relief. Au stand Autodesk, j'ai joué aux raquettes virtuelles; à l'étage supérieur, au stand de Silicon Graphics, j'ai pu tester le dernier monde virtuel de Jaron Lannier, un aquarium connecté à un espace ressemblant à un temple grec. Je me suis demandé s'il était possible que Sutherland fût lui-même là à se balader au pays merveilleux des pixels, et s'il se voyait plutôt dans la peau de Prométhée - ou de Pandore.

Sutherland a ouvert une brèche et permis d'entrevoir les territoires abstraits que les simulations informatiques pourraient permettre de conquérir. Mais l'idée d'associer les perceptions humaines aux fonctionnalités d'un ordinateur est loin d'être simple et comporte de nombreuses facettes, et il aura fallu beaucoup d'équipes et de sites différents pour qu'elle prenne forme. Sutherland ne fut pas le seul visionnaire à se rendre compte que la technologie informatique était en train de franchir un seuil.

¤ ¤ ¤


Sommaire L'indispensable pour communiquer Début du Chapitre 3 Chapitre 4 Sommaire Communautés virtuelles