Résumé. Est-ce que l'eXtensible-Markup Language, en lui-même une innovation technique mineure, ne pourrait pas se révéler l'emblème d'une révolution émergente dans la communication et, au-delà, dans la cognition humaines ? L'auteur en est convaincu, et, pour le démontrer, commence par un bref survol de l'évolution cognitive de l'homme jusqu'à nos jours, telle que la voient quelques un des meilleurs anthropologues actuels. Il analyse ensuite ce qui lui apparaît comme la transition en cours d'une culture basée sur des symboles externalisés vers une culture basée sur l'intelligence externalisée. Quelques spéculations sur de possibles impacts concrets de XML sur le recueil, la transmission et la consommation de l'information sont finalement présentées. |
Selon l'anthropologue Edward T. Hall1, l'homme partage avec un très petit nombre d'autres espèces animales (comme l'oiseau à berceau) la capacité à développer des extensions. C'est ainsi que nous avons substitué à une très lente évolution biologique une évolution beaucoup plus rapide au travers de nos extensions.
Les premières extensions de l'homme ont été, bien sûr, ses outils. Mais, comme le souligne le professeur Merlin W. Donald dans son remarquable ouvrage Origins of the Modern Mind2, c'est l'acquisition du langage qui a représenté le premier pas vraiment considérable de l'évolution cognitive humaine3. Grâce au langage, chaque individu humain n'a plus été désormais prisonnier de son propre cerveau. Il a pu échanger une quantité beaucoup plus importante d'informations avec les autres individus. Et, plus important encore, il a pu la transmettre aux générations suivantes.
Avant que le langage n'ait émergé, les hommes avaient, bien sûr, comme toutes les autres espèces animales, été déjà capables d'échanger une quantité limitée d'information. Mais cette information était essentiellement de nature concrète, immédiate (comme la mimique qui signale l'approche d'un prédateur ou qui indique une source de nourriture). Avec le langage, un médium intermédiaire, abstrait était créé : des symboles, qui initialement étaient conçus pour représenter les événements concrets, mais qui, en fait, ont acquis une sorte de vie propre, devenant, dans une large mesure, indépendants des objets concrets qu'ils devaient représenter4.
La deuxième extension majeure de l'homme a été l'écriture. Avec l'écrit, l'homme est devenu capable, non seulement de transmettre des informations de personne à personne en contact rapproché, mais encore de les stocker extérieurement. De ce fait les messages n'ont plus été un phénomène transitoire, demandant la présence simultanée d'un émetteur et d'un récepteur, mais ont pu être pour ainsi dire solidifiés, acquérant ainsi durabilité et fixité. Désormais ils pouvaient être transmis dans l'espace et le temps avec une exactitude presque parfaite.
Que l'émergence de l'écriture ait eu un impact considérable sur la civilisation humaine ("majeure réorganisation cognitive", Donald) a été amplement démontré, le travail le plus complet sur ce sujet restant le remarquable Orality and Literacy5 de Walter J. Ong. Selon Ong et quelques autres, l'invention grecque de l'alphabet6 pourrait bien être la cause prédominante de ce qu'il est convenu d'appeler le "miracle grec" : les penseurs grecs classiques ayant été les premiers humains non pas à utiliser l'écriture alphabétique mais à l'internaliser, les premiers à penser par écrit, avec toutes les nouvelles possibilités d'abstraction que cela rendait possible.
Culture épisodique (grands singes) | cognition mammalienne, basée sur la perception d'événements |
Première transition (Homo erectus) | aptitude mimétique et auto-activation |
Culture mimétique | basée sur des actions apprises |
Seconde transition (homo sapiens) | invention lexicale |
Culture mythique | basée sur le langage oral et la pensée narrative |
Troisième transition (invention de l'écriture) | externalisation de la mémoire (exogrammes) |
Culture théorique | basée sur une symbiose avec des symboles externes |
Fig. 1: Les trois premières grandes transitions dans l'évolution cognitive humaine, selon Merlin W. Donald (1991)
L'invention de la presse à imprimer a été une autre — quoique plus petite — révolution7. Les messages pouvaient désormais être dupliqués à très bas coût, acquérant ainsi encore plus de chances de survie (les manuscrits ont été si souvent perdus !) et de fixité. Et plus que tout autre chose, l'imprimerie a permis la diffusion des aptitudes à la lecture et à l'écriture à une gigantesque échelle.
Ainsi les messages écrits (matériels : imprimés et manuscrits) ont fini par devenir une commodité courante, bon marché et fiable. Mais cependant ils restaient essentiellement inertes, en ce sens qu'ils requéraient des lecteurs humains pour acquérir une quelconque signification. Un livre que personne n'ouvre, ou un livre écrit dans un langage que personne ne comprend plus sera, évidemment, une chose morte. Et la même chose peut presque être dite d'un livre "difficile", qui requiert un lecteur très érudit pour le comprendre (pensons à une oeuvre scientifique ou philosophique abstruse), ou d'un livre très ancien se rapportant à un contexte qui n'existe plus. Le mot écrit/matériel a clairement besoin d'humains avec des cerveaux convenablement équipés pour revenir à la vie.
D'où la nécessité dans les sociétés lettrées d'un très lourd système d'éducation/formation. Car avoir appris à lire et écrire est fort loin d'être suffisant. Pour être capable de lire un livre "difficile" vous devez avoir appris :
Si, dans un domaine, nous manquons de l'un ou l'autre de ces prérequis, l'existence de livres (même d'immenses bibliothèques) nous est de faible ou de nulle utilité8. Ce qui autorise à dire qu'à l'âge de l'imprimé la diffusion de la connaissance est souvent plus potentielle (les livres existent, chez les gens et dans les bibliothèques) que réelle (mais très peu de gens les lisent !).
Et voici que vient la troisième (ou quatrième selon la classification de Donald) transition cognitive humaine majeure, celle que nous sommes actuellement en train de vivre. L'âge des messages immatériels externes qui, dans une large mesure, ne seront plus dépendants des cerveaux humains pour prendre vie.
Quatrième transition | externalisation du traitement des symboles |
Culture "synnoétique" | basée sur une symbiose avec des cerveaux artificiels externes (exonoos = mémoire + processeur) |
Fig. 2: La nouvelle transition, selon l'auteur
Les symboles, qui étaient d'une certaine manière vivants depuis le début, comme on l'a vu, mais qui restaient lourdement dépendants de l'interprétation humaine, acquièrent maintenant réellement une vie propre. Ils requièrent désormais à un beaucoup moindre degré des cervelles humaines bien pleines pour être interprétés et transformés en actions.
Le premier de ces "textes actifs" à être apparu historiquement a été, bien sûr, le programme informatique, lequel est à la fois texte et pure action. Écrit dans un langage spécifique de programmation, il est produit par des humains, mais pas réellement lisible par les humains (seulement lisible par les machines).
Les programmes Informatique ont été d'abord utilisés pour aider les humains à réaliser des tâches autrement insurmontables : calculs scientifiques (par ex. calculs astronomiques) d'une part, et traitement d'énormes quantités de données (par ex. recensements) d'autre part. Il s'agissait là clairement de tâches hautement techniques bien éloignées du monde des interactions humaines quotidiennes en langage naturel. Alors, ordinateurs et logiciels étaient des outils très coûteux réservés à une caste de spécialistes, et peu de gens imaginaient qu'ils pourraient devenir un jour une denrée bon marché que l'on pourrait trouver dans presque chaque bureau et chaque foyer. Et même si la chose avait été jugée techniquement et économiquement faisable, la plupart des gens alors auraient demandé "pour quoi faire ?9".
Les programmes informatiques ont été d'abord associés exclusivement à des fichiers de données, autrement dit des réservoirs d'informations hautement structurées, majoritairement numériques, conçus sur le modèle des tiroirs à fiches bristol. On était bien loin des textes en langage naturel !
Il est ironique de penser que quand le traitement de texte électronique est apparu il a été considéré comme un rejeton plutôt dégénéré du noble art de l'informatique. Il est vrai que les textes électroniques ont été d'abord utilisés pour de très triviales raisons — essentiellement, parce qu'ils étaient un moyen facile, rapide et bon marché de produire et de modifier des textes imprimés.
Mais très vite les avantages des textes électroniques immatériels sont devenus évidents. Ils pouvaient être distribués dans le monde entier à la vitesse de la lumière et à un très bas coût, et étaient potentiellement éternels10. Mais toujours l'objectif final restait essentiellement la production (sans limites dans l'espace et le temps) de matière imprimée.
SGML, adopté comme standard en 1986 (ISO 8879), a été la première tentative systématique11 de créer de réels documents électroniques, c’est-à-dire des documents qui n'étaient plus des documents papier sous forme électronique. La principale idée sous-jacente étant de séparer le contenu (logique) d'un document de sa forme (matérielle/imprimée). Mais l'intention finale était toujours principalement de produire des documents imprimés, quoique plus économiquement — un unique document (logique) étant transformé automatiquement en différents formats imprimés (par ex. des documents de maintenance pour des avions produits en différents formats selon les normes de présentation de différentes compagnies aériennes ou armées de l'air). SGML a été une percée, mais il était si complexe que sa manipulation s'est trouvée restreinte aux spécialistes (rédacteurs techniques dans l'industrie ou spécialistes textuels dans les humanités).
Presque parallèle a été le développement de la documentation en ligne, interactive, la première forme de documentation à être purement électronique. Et avec elle est arrivée la popularisation des liens hypertextuels12. Mais cette forme de documentation restait une "aide", accessoire à la documentation papier.
A partir de 1992, le WWW et HTML (conçu vers 1990) sont devenus une réalité, et ont popularisé les documents électroniques hypertextuels sur une immense échelle13. Depuis 1995, les moteurs de recherche ont démontré la stupéfiante capacité de recherche d'information rendue possible par le WWW.
Mais certaines insatisfactions subsistent. Si je recherche sur le WWW une personne nommée Cook, je vais difficilement pouvoir restreindre mon moteur de recherche à chercher "human:Cook", et donc il va m'inonder de recettes de cuisines. Et si je télécharge un catalogue, il va avoir été généré à la volée à partir d'une base de données et, au passage, va avoir perdu l'essentiel de l'intelligence contenue dans la base de données. En conséquence, hors ligne, sur mon ordinateur, je ne vais pas être capable de réaliser des interrogations ou calculs un peu complexes à partir de ce catalogue (même si des applets téléchargés vont pouvoir m'aider un petit peu). Et il sera difficile de demander à un robot de réaliser une recherche complexe sur différents catalogues en ligne.
Aussi, il semble que les temps sont mûrs pour un nouveau pas en avant, qui va combiner la puissance du marquage SGML, des hyperliens et du WWW. L'heure de XML a sonné !
S'il est vrai que XML est seulement un maillon dans une chaîne d'améliorations techniques continue — et de ce fait ne constitue pas une révolution en lui-même — il est néanmoins soutenable que ses impacts concrets pourraient bien se révéler considérables. Ce qui suit ne constitue que quelques tentatives non systématiques de sonder cet impact.
Demain nos progiciels de traitement de texte ne vont plus produire du code propriétaire, mais du texte encodé XML, lisible par les humains, standard et cependant infiniment souple. Et aussitôt que nous allons traiter d'un sujet "formattable" (par exemple, noms et adresses de personnes, ou références bibliographiques, ou recettes de cuisine) un logiciel spécifique additionnel va entrer en lice et semi-automatiquement ajouter des balises XML au texte que nous sommes en train de saisir. Imaginons un rédacteur technique écrivant un manuel de maintenance : chaque fois qu'il va faire référence à une pièce spécifique, son traitement de texte spécialisé va rechercher dans la base de données produit le numéro de pièce correspondant, l'interroger chaque fois qu'il sera en doute, et baliser le texte en conséquence. Si la pièce est de celles qui apparaissent plus d'une fois dans la structure produit, le logiciel va demander une discrimination et à nouveau baliser en conséquence.
Les systèmes de bases de données vont bien sûr être capables de produire du texte XML en réponse aux interrogations, avec une perte d'information minimale (les noms propres vont rester des noms propres, les numéros de pièce des numéros de pièce, etc.). Ainsi les rédacteurs vont être capables à tout moment d'interroger les bases de données et de recevoir en retour du texte balisé XML prêt pour insertion dans le document qu'ils sont en train d'écrire. Inversement il sera facile de mettre à jour automatiquement des bases de données à partir de texte XML.
Ainsi la frontière entre texte (non-formaté) et données (formatées) va se dissoudre. Avec XML non seulement différents traitements de texte vont être capables d'échanger des textes entre eux avec une perte d'information minimale, mais il en ira de même pour les SGBD entre eux, les SGBD avec les traitements de textes et les traitements de textes avec les SGBD.
Les capacités de lien enrichies de XML, les nouvelles possibilités qu'elles vont donner aux moteurs de recherche pour détecter l'information pertinente (Cook la personne et non pas cook le verbe anglais!), et son interopérabilité, ajoutés à l'ubiquité du WWW, vont générer d'extraordinaires nouvelles possibilités pour la collecte d'information.
Par exemple, le personnel chargé de réparer un équipement va non seulement être capable de naviguer à partir du manuel de maintenance vers le manuel opérateur (au moyen de liens prédéfinis ou non), mais aussi d'aller et venir entre les manuels et les bases de données produit ; et ensuite, si nécessaire, au travers du WWW, vers les bases de données des fournisseurs afin de vérifier la disponibilité ou l'interchangeabilité et de passer des commandes en ligne.
De toute évidence ces capacités de navigation généralisées vont aussi être d'une grande efficacité pour la formation continue, sur le terrain — puisque la réponse à n'importe quelle question ne sera jamais qu'à quelques clics de souris.
Aujourd'hui, avec le WWW, chacun de nous a accès à un immense réservoir d'informations (presque) gratuites, mais le problème est de les exploiter. Avec XML nous aurons deux possibilités inédites. L'une sera de télécharger l'information et de la traiter localement. Ainsi un architecte pourra télécharger le catalogue de ses fournisseurs de matériaux favoris et les traiter hors ligne directement à partir de son logiciel de CAO pour optimiser le coût de l'édifice qu'il est en train de concevoir.
La seconde possibilité sera d'utiliser des robots. Par exemple un fabricant d'appareils électroniques pourra demander à un robot de localiser, où qu'il soit dans le monde, le fournisseur de telle ou telle pièce électronique possédant telles et telles caractéristiques et au coût minimal.
Un autre usage possible de XML, qui semble prometteur quoiqu'il n'ait pas été beaucoup mentionné jusqu'ici, serait d'encoder spécifiquement les mots et locutions de la version originale (source) d'un texte de façon à en éliminer les ambiguïtés linguistiques (lexicales ou syntactiques), pour faciliter ultérieurement sa traduction par machine dans n'importe quel autre langage (cible).
Il est encore un peu hasardeux de prétendre imaginer en détail comment eXtensible-Markup Language va transformer la vie des rassembleurs et utilisateurs d'information de demain (les successeurs probables des écrivains et lecteurs d'aujourd'hui). Paradoxalement il est peut-être moins risqué de prédire — et l'auteur espère l'avoir suggéré de manière convaincante — que son arrivée va marquer un tournant crucial dans la transition en cours vers la nouvelle culture émergente de l'intelligence externalisée.