Cliquez pour m'envoyer un message

3 – La pensée assistée par ordinateur Cliquez pour retrouver, en bas de cette page, des boutons de navigation




Chapitre traduit par
Annick Morel

La somme des expériences humaines évolue à une vitesse prodigieuse et les moyens que nous utilisons pour retrouver, parmi le dédale de données qui en résulte, l'élément dont nous avons besoin à un moment précis n'ont pas évolué depuis l'époque de la marine à voile.

On peut néanmoins constater des évolutions, notamment dans l'utilisation de nouveaux et puissants outils. Les cellules photographiques capables de voir des objets, dans le sens physique du terme, la photographie de pointe qui peut enregistrer ce qui est vu et même ce qui n'est pas vu, les tubes électroniques capables de contrôler des forces de grande puissance par une force inférieure à celle qu'utilise un moustique pour faire vibrer ses ailes, les tubes cathodiques qui rendent perceptifs un événement tellement infime qu'en comparaison une micro-seconde est un long laps de temps, les appareils de retransmission qui effectuent des opérations compliquées avec beaucoup plus de fiabilité que n'importe quel être humain et à une vitesse des milliers de fois supérieure; il y a pléthore d'aides mécaniques permettant de transformer des enregistrements scientifiques... Mais il n'y a aucun substitut à la pensée évoluée. La pensée créative et la pensée essentiellement répétitive sont radicalement différentes. Pour cette dernière, il existe déjà, et l'on pourra encore les développer, de puissantes aides mécaniques.

Vannevar Bush
« As We May Think », 1945


Lorsque nous parlons de «l'accroissement intellectuel de l'homme», nous parlons de la possible augmentation des capacités d'un homme à traiter un problème complexe, de la meilleure compréhension de ses besoins particuliers et de la résolution de ses problèmes. Dans ce contexte, l'accroissement des capacités signifie que ... la compréhension peut être plus rapide; que l'on peut en acquérir une meilleure; que l'on peut en atteindre un niveau utile dans une situation jusque-là inextricable; que l'on peut trouver des solutions plus rapidement; que l'on peut en trouver de meilleures; que l'on peut en trouver là où cela était auparavant totalement impossible pour l'homme. Et par «situations complexes» nous entendons les problèmes professionnels rencontrés par les diplomates, les cadres, les scientifiques des sciences humaines, de la physiologie/biologie, de la physique, les avocats, les créateurs - que la situation problématique à laquelle ils sont confrontés existe depuis vingt minutes ou vingt ans. Nous ne parlons pas ici d'astuces intelligentes et isolées qui peuvent aider à résoudre des problèmes particuliers. Nous faisons référence à un fonctionnement humain dans un domaine intégré où les intuitions, les apprentissages par tâtonnements, les données intangibles, et l' «approche humaine d'une situation» coexistent de manière intelligente avec les concepts puissants, la terminologie et les références, les méthodes sophistiquées et les aides électroniques évoluées actuels.

Douglas Englebart
« A Conceptual Framework for Augmenting Man's Intellect », 1963



Bien qu'à l'époque, je n'en eus pas conscience, c'est en 1982 que je fis mes premiers pas dans le cyberespace. Cela faisait longtemps que l'idée d'utiliser un ordinateur comme amplificateur de la pensée me fascinait, mais je dus attendre qu'un scientifique en informatique du centre de recherche de Xerox à Palo Alto me demande de collaborer à la rédaction d'un article destiné à un journal scientifique pour approcher ce type d'ordinateur. Cette machine, dénommée «Alto», ressemblait à un petit écran de télévision en noir et blanc posé sur une boîte de la taille de la moitié de ma cuisinière. Sur le bureau, à coté du clavier, se trouvait une petite boîte, reliée à l'écran par un câble : la «souris». Le scientifique avec lequel je travaillais, plus ou moins novice en la matière à l'époque, m'assura que cette machine m'aiderait non seulement à corriger mes fautes de frappe, mais me permettrait également de réfléchir, de prendre des décisions et de développer mon imagination d'une manière résolument nouvelle.

Ma première approche de l'ordinateur me parut bizarre. Je tapais sur un clavier, exactement comme je l'aurais fait avec un traitement de texte normal. Mais au lieu de mémoriser différents codes alphabétiques pour repérer, copier, déplacer et supprimer des blocs de texte, je déplaçais la souris sur la surface du bureau tout en regardant le curseur se déplacer et les caractères, les mots et les paragraphes se mettre en inversion vidéo sur l'écran. La «métaphore du bureau», qui transformait les fichiers et les dossiers, les boîtes aux lettres électroniques et les corbeilles numériques en symboles graphiques sur l'écran de l'ordinateur, formait un «monde virtuel» primitif, qui matérialisait mes outils d'aide à la pensée sur un écran en face de moi, où je pouvais les voir concrètement. En cliquant avec la souris sur les «icônes» adéquates, je pouvais envoyer mon document à l'autre bout du laboratoire, dans la boîte aux lettres du scientifique avec lequel je travaillais, et en envoyer automatiquement une copie au rédacteur en chef d'un journal scientifique de l'autre côté du continent. L'écran agissait en tant qu'« antémémoire » visuelle pour ma mémoire à court terme, de la même manière que le fait de placer des dossiers et des documents sur un vrai bureau sert de mémoire visuelle. Une fois mon contrat à Palo Alto terminé, j'eus du mal à me réadapter à mon vieil IBM-PC, la plus récente innovation en matière d'informatique domestique de l'époque.

Cet Alto qui avait été créé tout spécialement pour aider les programmeurs de Xerox dans leurs réflexions intellectuelles s'avéra être une machine historique. C'est en commençant à rechercher les origines de cette nouvelle et fascinante approche de l'ordinateur que j'étais tombé sur l'ancienne quête de «l'accroissement intellectuel» qui avait débouchée sur la création de technologies informatiques propres à développer la pensée. Je me rends compte maintenant que l'un des principes fondamentaux sous-tendant l'accroissement de la perception, c'est-à-dire le fait qu'il faille utiliser une communication visuelle et des capteurs gestuels pour coupler le plus étroitement possible l'intelligence humaine avec les capacités de l'ordinateur, reste également l'un des principes fondamentaux de la RV. Il s'agit en fait de créer des outils capables de gérer la complexité.

La culture humaine, c'est-à-dire l'ensemble des langages, des méthodes et des connaissances que nous préservons et que nous transmettons de génération en génération pour nous éviter de réinventer la roue à chaque génération, est devenue trop complexe pour être gérée sans l'aide de machines. Pour le meilleur et pour le pire, la conservation de la civilisation, dans un avenir prévisible, reposera à la fois sur l'intelligence humaine et sur les ordinateurs. A l'heure actuelle, les humains et les technologies de traitement des données ne s'entendent pas particulièrement bien. Tous ceux qui travaillent à des solutions pour ce problème ne réfléchissent plus à la façon dont fonctionnent les ordinateurs mais plutôt à la façon dont ils sont conçus pour être utilisés par l'homme, c'est-à-dire aux interfaces homme-machine. C'est au point de rencontre entre les développements de la RV et de l'évolution des ordinateurs que ces interfaces se situent.

Les interfaces homme-machine sont des outils permettant à l'intelligence humaine et aux machines de travailler plus efficacement ensemble, et ne se limitent par conséquent pas à des problèmes d'octets et de bits, de matériel ou de logiciel, de la même manière que l'architecture n'est pas au premier chef simplement une histoire de briques et de poutres. Un monde virtuel, c'est un ordinateur que l'on commande non pas en écrivant des programmes mais par des gestes naturels, en le parcourant, en l'explorant du regard, et en utilisant les mains pour manipuler les objets qu'il contient. Pour certaines tâches, la RV est l'interface homme-machine idéale.

Tous les objets possèdent une interface avec l'homme : la poignée de porte est l'interface homme-porte; le volant et le compteur de vitesse sont les interfaces homme-automobile. Au cours des siècles, les interfaces ont suivi la même évolution que nos outils vers une plus grande complexité et une plus grande puissance. Quelquefois, un outil évolue beaucoup plus rapidement que son interface avec l'homme. La plupart des outils les plus complexes de l'histoire contemporaine ont été développés sans que l'on se soucie vraiment de leur interface avec l'homme; l'ordinateur est le meilleur exemple d'un outil réservé à des initiés, sans être d'une quelconque utilité pour la plupart des gens.

Le fonctionnement interne de la plupart des ordinateurs est accessible aux seuls experts qui en connaissent les codes de communication appelés langages de programmation. Il y a déjà quarante ans de cela, une poignée de personnes commencèrent à envisager l'informatique d'une manière totalement révolutionnaire : Au lieu d'enseigner aux utilisateurs la compréhension des langages secrets des ordinateurs, pourquoi ne pas concevoir des machines qui pourraient communiquer avec eux sans que la compréhension de ces langages mystérieux ne soit nécessaire ? Les micro-ordinateurs et les micro-simulateurs apportent des éléments de réponses à ces questions.

Si ces quelques personnes n'avaient pas persévéré dans cette nouvelle approche contre vents et marées, l'expression «micro-informatique» aurait conservé la même résonance exotique que la première fois où elle a été proposée. La micro-informatique telle que nous la connaissons aujourd'hui n'aurait pu exister sans le courage et la persévérance des deux prophètes de la technologie que sont JCR Licklider et Douglas Engelbart et sans l'aide d'une légion d'infonautes inspirés qui prirent le risque de travailler en dehors des sentiers battus. Sans micro-informatique, les simulateurs personnels n'auraient jamais existé. On peut penser que les visionneuses stéréoscopiques des enfants et les jeux d'arcades auraient de toute façon existé et convergé, mais il est peu probable que la technologie actuelle du cyberespace, qui nécessite des calculs faramineux, ait pu exister sans l'ampleur de la révolution micro-informatique.

Affecter un ordinateur à une seule personne était une idée révolutionnaire qui a convergé avec une autre idée révolutionnaire, la notion que les interfaces humaines des ordinateurs devaient s'adapter aux besoins et aux capacités humaines, plutôt que de façonner le comportement humain en fonction des exigences de la technologie informatique. La saisie des commandes et des données dans un ordinateur correspond à la partie entrée de l'interface, et l'affichage des résultats pour l'utilisateur correspond à la partie sortie de l'interface. Les premiers appareils d'entrée et de sortie ont été conçus en fonction des limites de l'ordinateur plutôt que des capacités humaines. Un ordinateur qui accepte uniquement les entrées sous forme de cartes perforées et crache ses réponses sous forme de chiffres imprimés sur un rouleau de papier est un exemple d'interface conçue pour répondre aux besoins des machines à calculer des années 50. Un ordinateur qui accepte en entrée la saisie sur un clavier est déjà plus souple; un ordinateur qui accepte en entrée le pointage d'une image sur un écran de télévision l'est encore beaucoup plus.

Les ordinateurs étaient autrefois chers et volumineux, c'est pourquoi tout le monde pensait que leurs méthodes d'utilisation devaient tirer le meilleur parti possible de leurs ressources onéreuses. Avec l'arrivée des transistors et des circuits intégrés dans les années 60, il devint évident que les ordinateurs allaient être plus petits, moins chers et plus puissants. La révolution de la miniaturisation qui conduisit des tubes à vides aux transistors puis aux circuits intégrés a été l'un des moteurs technologiques les plus puissants de l'histoire. En miniaturisant de plus en plus les éléments de commutation de base, on a pu réduire le coût des calculs tout en décuplant la puissance des ordinateurs. Ainsi les micro-processeurs que l'on trouve à l'intérieur d'un jouet pour un enfant de cinq ans sont des millions de fois plus puissants tout en étant beaucoup moins chers que le premier ordinateur électronique, l'ENIAC, qui moulina ses premières données en 1946.

Si la révolution de la miniaturisation module les avancées dans la technologie informatique, le rythme auquel un nombre de plus en plus grand de minuscules commutateurs peuvent être inscrits sur des plaquettes de silicium offre également une indication valable quant aux technologies informatiques à venir. L'élément le plus fondamental de tout ordinateur est un élément de commutation, un mécanisme qui peut s'allumer et s'éteindre. Les ordinateurs découpent les signaux (les bits) en symboles plus complexes. Le nombre de signaux qu'un ordinateur peut découper pendant une période donnée détermine la puissance avec laquelle l'ordinateur peut résoudre les problèmes. Les avancées dans la miniaturisation électronique provoquant inévitablement une évolution du matériel informatique quelques années plus tard, il est donc possible de prévoir les gains en termes de performances et de prix pour les cinq à dix ans qui suivront l'introduction d'une nouvelle génération de composants électroniques.

Les théoriciens orthodoxes des années 50 pensèrent que dans les annéesqui allaient suivre, ces avancées technologiques allaient servir à construire des ordinateurs de plus en plus volumineux et de plus en plus puissants qui continueraient à faire appel à des langages ésotériques nécessitant des traducteurs spécialisés pour un fonctionnement optimal. D'autres, à l'écart du courant dominant de la théorie informatique, virent autre chose dans la tendance à la miniaturisation de cette technologie. Bientôt, et, probablement dans les années 70, ils penseraient qu'il serait économique de consacrer un ordinateur aux besoins d'un seul utilisateur.

Le concept du micro-ordinateur n'a rien de bizarre aujourd'hui, mais dans les années 60 et 70, l'évolution des principaux courants de l'informatique et de son industrie en était très éloignée. Le micro-ordinateur, lui, a été tout au contraire délibérément conçu par une communauté de non-conformistes qui se sont battus à contre-courant de l'opinion courante pour créer le type de technologie qu'ils voulaient. Leur but n'était pas de mettre au rancard les pools de dactylos, de transformer les comptables en prévisionnistes financiers, ni de générer de nouvelles industries brassant des milliards de dollars, même si ces conséqeunces-là, parmi d'autres, ont découlé directement de leur travail. Les gens qui ont créé le premier micro-ordinateur l'ont fait parce qu'il recherchaient des amplificateurs de pensée destinés à leur propre usage.

En fait, la première personne qui a sérieusement cru qu'il serait un jour possible d'utiliser des ordinateurs pour quelque chose de plus utile que simplement le traitement des bulletins de salaire ou des calculs scientifiques mit dix ans à trouver un interlocuteur qui le prenne au sérieux. Un jour, presqu'exactement au milieu du vingtième siècle, un jeune ingénieur en électronique eut une idée géniale alors qu'il se rendait à son travail. Douglas C. Engelbart, après s'être absorbé dans une méditation sur ce qu'il pourrait bien faire de sa vie et de ses talents, se rendit compte que l'homme était en train de créer de plus en plus rapidement des problèmes complexes et avait besoin de nouveaux outils pour gérer le monde à venir. Il se dit que si l'on pouvait utiliser la puissance des ordinateurs pour accomplir la partie mécanique de la pensée et partager les idées, les êtres humains seraient capable d'accroître leurs réflexions plus conceptuelles et de résoudre ainsi ensemble les problèmes. Le reste du monde a mis des dizaines d'années à comprendre l'importance de la révélation d'Engelbart, mais le concept de micro-informatique tel que nous l'entendons à l'heure actuelle est pour l'essentiel le résultat des travaux menés par cet homme-là dans les années 60 au Centre de Recherche (ARC) de l'Institut de Recherche de Standford. C'est à l'ARC que l'on retrouve plusieurs des racines majeures de la VR.

Aucune connaissance particulière en informatique n'est nécessaire pour comprendre la notion fondamentale sur laquelle repose l'idée d'Engelbart : si nous pouvons trouver des outils audiovisuels qui puissent mettre en synergie les capacités perceptuelles et cognitives de l'homme et les capacités de représentation et de calcul de l'ordinateur, les hommes seront alors capables d'accroître la puissance des outils qui leur sont innés dans leur relation au monde, d'augmenter leur capacité de perception, de pensée, d'analyse, de raisonnement et de communication.

Douglas Engelbart, la soixantaine, puise encore aujourd'hui son inspiration de cette révélation qui remonte à 1950, même si la technologie informatique n'a pas évolué exactement de la façon dont il l'envisageait. Je lui ai téléphoné ce matin et le démarrage prometteur de la plus récente incarnation engelbartienne, l'institut Bootstrap, le remplit de joie. J'ai rencontré Englebart pour la première fois il y a sept ans, un jour de printemps en 1983, à une époque où il avait déjà parcouru beaucoup de chemin. Je lui avais alors demandé de me retracer l'origine de la micro-informatique et la façon dont il envisageait son avenir. C'est en recherchant les origines de la conception de l'ordinateur en tant qu'amplificateur de la pensée que j'étais tombé sur lui. Toutes les bibliographies conduisaient aux publications d'Engelbart déjà vieilles de quelques dizaines d'années. Puis quelqu'un m'ayant signalé qu'il travaillait toujours sur le même concept, je l'avais appelé et il m'avait invité à passer le voir à son bureau de Cupertino. A cette époque, Engelbart travaillait et développait son système au sein de Tymshare, une société de service en communications informatiques appartenant à MacDonnel-Douglas. Le hasard voulait que l'homme qui a rendu possible l'interface des ordinateurs Macintosh d'Apple travaillât alors dans un bâtiment lui-même entouré par les immeubles du «campus» d'Apple dans la Silicon Valley.

Avec ses cheveux blancs, sa douceur et ses yeux bleus perçants, Douglas Englebart était en 1983 l'image même du patriarche technologique. Un autre pionnier de l'informatique, Alan Kay, illustre le charisme de Douglas Englebart en le qualifiant de «Moïse écartant les flots rouge et indiquant le chemin de la terre promise». La puissance qui émane de lui n'est pas de celle qui galvanise les foules. Sa voix est presque imperceptible, mais la simple force qui se dégage de ses idées suffit à rendre son histoire passionnante.

Tout a commencé pour lui juste après la Seconde Guerre mondiale. Technicien radar dans la marine et attente de démobilisation, il tomba un jour sur l'article de Vannevar Bush paru en 1945 intitulé Atlantic dans une bibliothèque de la Croix-Rouge aux Philippines. De retour aux Etats-Unis, il compléta son expérience dans les radars par un diplome d'ingénieur en électricité. Des années plus tard, ses recherches en matière d'affichage de données lui permirent de rentabiliser les heures qu'il avait passées à discerner les menaces bien réelles représentés par des échos virtuels sur les écrans radars. Il se maria et trouva un travail dans une entreprise d'électronique à Mountain View, en Californie. Au cours des trente années qui suivirent, Montain View, qui était à l'origine un verger, devint le coeur de la Silicon Valley, et Ames, le premier employeur d'Engelbart, devint l'un des centres de recherche les plus importants de la NASA, celui-là même dans lequel le laboratoire de recherche des facteurs humains a joué un grand rôle dans le déclenchement de la recherche actuelle en matière de RV. Remarquons qu'au moment où Englebart eut son idée géniale, il n'y avait pas plus d'une douzaine d'ordinateurs aux Etats Unis.

Dans son bureau de Tymshare, aux étagères pleines de documents recouvrant ses trente ans de recherche, Engelbart évoqua ce jour de décembre 1950 où il s'était posé des questions sur son avenir. Il avait le regard fixé sur un point de l'horizon, comme s'il pouvait matérialiser une image distincte quelque part derrière moi et au dessus de ma tête . «A trente-cinq ans» dit-il, «je me suis rendu compte que j'avais accompli tous les buts que je m'étais fixés dans la vie». J'avais survécu à la guerre et j'avais une femme, une maison, des diplômes et une profession stimulante. Je me suis rendu compte que la décision que j'allais prendre quant à mon avenir allait être d'une importance primordiale». Engelbart est quelqu'un qui ne se sent à l'aise que dans la réalisation d'un but. Il lui fallut à peu près un mois pour mettre sur pied la stratégie qui allait occuper le reste de sa carrière et façonner les technologies informatiques à venir.

En 1950, son trajet quotidien à travers les vergers ensoleillés de la vallée de Santa Clara lui laissait assez de temps pour réfléchir. Il possédait tout ce qu'un homme pouvait désirer pour son accomplissement personnel, aussi ce qu'il voulait, c'était réussir à influencer le monde de manière positive. En réfléchissant aux différents scénarios qui lui permettraient de participer le plus efficacement possible à la réalisation d'un monde meilleur, Engelbart se rendit compte, quel que soit le scénario envisagé, qu'il se retrouvait toujours confronté à la même chose : les problèmes de notre civilisation sont de plus en plus urgents et compliqués, mais les outils pour les résoudre n'ont pas évolué. Que faire, alors, pour aider les gens à résoudre les problèmes compliqués? Et comment un ingénieur en électricité pourrait-il bien y contribuer? C'est alors qu'une représentation mentale du système qu'il voulait construire lui vint à l'esprit.

Bien qu'il lui fallût des dizaines d'années pour venir à bout des détails, les principaux éléments de sa révélation lui apparurent d'un seul coup, sous la forme un groupe de personnes travaillant ensemble d'une façon tout à fait nouvelle. « La première fois que j'ai entendu parler d'ordinateurs, j'ai compris, grâce à mon expérience dans les radars, que si ces machines étaient capables d'imprimer des informations, elles pouvaient également les afficher sur un écran. Quand je vis la connexion possible entre un écran similaire à un écran de télévision, un processeur de données et un moyen de représentation symbolique pour l'utilisateur, tout se mit en place dans ma tête. De retour chez moi, je fis le schéma d'un système dans lequel les ordinateurs représentaient des symboles à l'écran et dans lequel je pouvais naviguer parmi divers espaces d'informations à l'aide de boutons et de manettes et consulter de plusieurs façons différentes mots, données et graphiques. J'imaginais comment étendre ce système à un environnement dans lequel on pourrait échanger avec ses collègues de travail des informations simultanément sur plusieurs niveaux. Vous vous rendez compte du temps gagné dans la résolution des problèmes ! ».

Dans les années 90, la technologie de la RV embarque les gens à la fois à travers et au-delà de l'écran dans des mondes virtuels. Les chercheurs en RV d'aujourd'hui commencent à élargir la brèche ouverte par Engelbart et ses collègues. Toutefois, en 1950, Douglas Englebart était apparemment la seule personne au monde à penser que les ordinateurs pouvaient ou devaient afficher des données à l'écran. On comprendra mieux pourquoi tout le monde pensait que son idée était complètement farfelue si l'on rappelle qu'à l'époque il n'existait qu'une poignée d'ordinateurs dans le monde et que la technologie de la télévision était encoreà l'état de balbutiements.

L'idée de mettre en commun ces technologies pour créer des outils propres à la résolution de problèmes, et plus particulièrement en face d'utilisateurs non programmeurs, resta en gestation dans l'esprit de Englebart pendant une dizaine d'années. Il quitta son travail et s'inscrivit à l'Université de Californie, où se trouvait l'un des deux ordinateurs californiens. Personne à l'Université ne tenait à gâcher le temps de travail précieux offert par cet ordinateur pour quelque chose d'aussi farfelu qu'un outil d'aide à la pensée. Englebart quitta alors l'Université et démarra sa propre société, puis mit la clef sous la porte quand il se rendit compte qu'il n'était pas fait pour être chef d'entreprise. Psychologues, informaticiens, bibliothécaires et autres sociétés spécialisées en électronique ayant tous refusé d'investir dans son projet de recherche, il décida en 1957 d'entrer à l'Institut de Recherche de Stanford (SRI) de Menlo Park, en Californie, en tant que chercheur dans le domaine informatique.

C'est à peu près à cette même époque qu'il décida de trouver un moyen de faire comprendre aux gens de quoi il parlait en partant du point de vue de la technologie informatique traditionnelle. C'est ainsi qu'il passa deux ans dans un laboratoire de recherche conventionnel tout en peaufinant pendant son temps libre le schéma conceptuel dont il avait besoin.

Engelbart ne s'en doutait pas à cette époque-là, mais il avançait vers une convergence qui allait le faire sortir de l'obscurité pour le propulser dans le courant dominant de la conception informatique, et lui ouvrir les portes de la réalité virtuelle. Le schéma conceptuel qu'il écrivit à la fin des années 50 et au début des années 60 fait encore aujourd'hui office de schéma directeur pour la technologie du vingt et unième siècle. Et c'est ce à quoi il s'attela tandis que les autres commençaient à adopter lentement son point de vue. Comme la plupart des gens qui ont joué un rôle dans cette convergence si importante, il n'avait pas conscience que d'autres personnes et d'autres forces travaillaient déjà à la réalisation de son rêve. Il lui fallut attendre le lancement de Spoutnik en octobre 1957, grâce à un autre visionnaire de l'autre coté du monde et encore quelques années de croissance dans les technologies catalysatrices clés, pour avoir enfin à sa disposition le laboratoire qu'il voulait de mettre en place depuis dix ans.



Sommaire L'indispensable pour communiquer Fin du Chapitre 1 Suite du Chapitre 3 Sommaire Communautés virtuelles