Comment pensent docx, TEI et ekdosis ? Habiter l’espace numérique

L’espace numérique est devenu l’espace de raccordement de tous nos lieux de vie et l’espace principal même dans lequel nous vivons. Mais comment vivre dans l’espace numérique ? Comment rendre l’espace numérique vivable, habitable, désirable ? Pouvons-nous démocratiser l’espace numérique sans aboutir à une uniformisation des lieux ? Et comment penser l’espace numérique tout autant qu’il nous pense ? Marcello Vitali-Rosati répond à ces questions en analysant l’“architecture” de l’espace numérique à travers les logiciels de traitement de texte, leurs formats d’écriture, leurs spécificités locales, leurs sensibilités textuelles et leurs modes de pensée.

Espace et lieux

Le numériqueJ’utilise ici le mot dans un sens très large, en me référant à l’ensemble des technologies numériques, ainsi qu’aux pratiques qui leur sont associées. Pour une définition plus précise et pour une identification des enjeux de ces mot, je renvoie à Vitali-Rosati (2021). a une dimension spatiale forte. Il existe désormais un consensus à ce sujet dans la communauté scientifique. Après l’idée, prépondérante dans les années 1990, selon laquelle les technologies ouvriraient un espace parallèle – le topos de la réalité virtuelle et du “cyberespace” tel qu’imaginé, notamment, par Barlow (1996) –, il est devenu évident depuis le début des années 2000 que le numérique est aussi un espace réel, habitableVoir des travaux comme ceux de Bolter (1991) ou Galloway (2004), dans le monde anglophone, suivis par ceux de Lévy (1995), Beaude (2012) et Vial (2013), pour n’en citer que quelques-uns dans l’espace francophone.. Comme j’ai moi-même eu l’occasion de le souligner à plusieurs reprises – notamment dans le cadre de la théorie de l’éditorialisation (Vitali-Rosati, 2016a, 2016b; Vitali-Rosati, 2017 ; Vitali-Rosati, 2018) –, le numérique est un espace architectural, non pas dans un sens métaphorique (“comme” un espace) mais au sens propre : c’est un véritable espace. C’est notre espace de vie principal.

Je disais, par exemple que :

Il est important de souligner que si nous comprenons le mot « numérique » dans un sens culturel, l’espace numérique est notre espace principal, l’espace dans lequel nous vivons, et pas seulement l’espace du Web ou des objets en ligne. (Vitali-Rosati, 2020)

Peppe Cavallari avance même l’hypothèse selon laquelle le numérique serait « le principal espace de raccordement de tous les espaces sociaux dans lesquels nous vivons » (Cavallari, 2018).

La question que je voudrais me poser ici est de savoir si le numérique, en tant qu’espace, est habitable. Cette réflexion se situe dans la continuité d’un dialogue avec Luca Paltrinieri qui dure depuis quelques années. Dans une conférence donnée en 2023 au Centre de recherche interuniversitaire sur les humanités numériques à l’Université de Montréal, Paltrinieri acceptait cette dimension spatiale en soulignant que le numérique – au singulier – peut être considéré comme un espace, justement parce que l’espace n’est pas un “lieu”. Nous avons, d’une part, des lieux qui sont particuliers, hétérogènes, singuliers, avec des caractéristiques propres et, de l’autre, l’espace qui est homogène, unique, mesurable. L’espace est ce qui permet de créer des relations entre des lieux différents en les reliant et en les rendant commensurables.

L’espace est homogène dans le sens qu’une portion de l’espace équivaut à une autre portion de la même taille : un kilomètre est toujours un kilomètre, qu’il sépare deux villages en Italie, deux personnes en France ou deux baleines dans le golfe du Saint Laurent. Les lieux sont hétérogènes, car ma maison, par exemple, n’est pas interchangeable avec une autre maison de la même taille : ce n’est pas la même chose. Le lieu est donc habitable tandis que l’espace est traversable.

Paltrinieri affirme que :

l’avènement du capitalisme est caractérisé, au moins à niveau cognitif voire imaginaire, par une abstraction ultérieure, qui est le passage de la notion de territoire national à celle d’espace commercial, ou si vous voulez, par l’invention du marché. Le marché, nous le verrons, ce n’est pas seulement un espace abstrait permettant de considérer tous les échangistes comme des sujets connectés et calculants, c’est aussi un rapport de force qui permet d’externaliser le coût des circulations commerciales vers les colonies et plus généralement vers les espaces non-éuropéens. Vidéo de La Conférence de Luca Paltrinieri (U de Rennes 1), 2023.

Il continue son analyse en s’appuyant sur le livre Blinding Polyphemus de Franco Farinelli (2018) qui cite justement le fameux épisode de l’Odyssée où Ulysse rencontre Polyphème : Ulysse représente la volonté occidentale de transformer tout lieu en espace, car l’espace est toujours traversable, c’est la condition de possibilité du marché. Les grecs sortent de la grotte – où demeure le sauvage – pour devenir marchants.

Tout devient traversable – et maîtrisable –, car tout est homogène, et aussi tout devient commensurable : tout peut être compté, calculé et donc échangé, vendu.

Dans ce sens le numérique – au singulier – semble être la réalisation du rêve d’Ulysse : le numérique réduit tout à une unité homogène, quantifiable et calculable. En tant qu’espace, le numérique tel qu’il a été construit détruit la possibilité de multiplicité ainsi que celle de complexité : il « décloisonne et décomplexifie [l]es espaces, facilite leur superposition » (Cavallari, 2018, p. 14).

C’est la raison pour laquelle le numérique en tant qu’espace n’est pas habitable. Car on ne peut pas, en réalité, habiter l’espace. On le traverse, comme Ulysse, justement ; on le parcourt pour relier des lieux différents et les uniformiser en échangeant des marchandises.

Retourner dans la grotte

Mais est-ce que le numérique doit nécessairement être cette incarnation du rêve d’un espace homogène total ? En suivant l’analyse de Paltrinieri et sa critique de l’arrimage parfait entre espace numérique et espace du marché, je voudrais ici suggérer l’idée, presque iconoclaste, d’une démarche opposée à celle proposée par le rêve d’Ulysse. Et si nous arrêtions de nous féliciter de notre sortie de la grotte et faisions au contraire un effort pour y retourner ?

Et si la possibilité même pour nous d’habiter le numérique résidait dans le fait de ne plus le regarder comme un espace, mais comme une multiplicité hétérogène de lieux ? Non pas donc l’espace numérique, mais les lieux numériques, au pluriel.

Cette piste nous oblige à remettre en question l’équivalence entre le “numérique” et le quantifiable, à recontextualiser la question de la quantification et de la calculabilité. Comme nous l’enseigne, entre autres, Jean-Guy Meunier (Meunier, 2014, 2017), le numérique est d’abord et avant tout une question de modèles et de modélisation. Il ne s’agit pas, en premier lieu, de compter, mais de modéliser, de décrire une situation, un contexte, un concept, une idée. On pourrait dire qu’il faut conter avant de compter. Le modèle fonctionnel, mathématique et calculable, n’est jamais unique, il repose sur un modèle représentationnel, ou conceptuel, une vision du monde, un récit, une interprétation. Et il y a une multiplicité inépuisable de modèles possibles. Une multiplicité de lieux, donc, avec leurs valeurs propres, leurs caractéristiques et leurs spécificités locales.

Habiter les lieux numériques signifie d’abord œuvrer à la mise en place de son chez soi, de sa maison, ou de sa grotte. Pour illustrer cette hypothèse, je voudrais me concentrer sur un exemple : celui des formats textuels.

Habiter des formats ?

Un format est une manière de structurer du contenu. Plus spécifiquement, un format textuel est un ensemble de règles et de structures syntaxiques, graphiques, hiérarchiques, etc., qui servent à mettre en forme un texte. Les formats ne sont évidemment pas une nouveauté du numérique : on peut parler de format dans le cadre des papyrus, des codex, des livres de poche…Pour une analyse de la question des formats voir le troisième chapitre de la thèse d’Antoine Fauchié (2024).. Le format, en tant qu’organisation spécifique du texte, implémente et incarne une vision particulière de l’essence du texte : il est un modèle épistémologique particulier. Chaque format est l’incarnation d’une théorie particulière de ce qu’est le texte.

Pour donner des exemples très simples : est-ce que le format implémente le concept de “titre” ? Comment ? Est-ce qu’il implémente le concept de “chapitre”, de “paragraphe”, de “note de bas de page”, de “terme important”, “mot-clé”, “nom d’auteurice”, “version”, etc. ? Chaque format textuel propose son interprétation de ce qu’est un texte et, comme je le montre dans ce qui suit, ces interprétations ne sont pas toujours compatibles. Dit autrement : chaque format est un lieu et il n’y a pas de format qui puisse se vouloir universel, il n’y a pas de “format-espace”. Lorsqu’on essaie de transformer un format en un autre, lorsqu’on essaie d’universaliser les lieux en les homogénéisant dans un espace, il y a quelque chose de fondamental qui est perdu. L’idiosyncrasie du lieu est perdue.

Pour appuyer mon propos, je vais esquisser une analyse de trois exemples, très différents, trois formats qui pensent de façon distincte, qui implémentent trois modèles épistémologiques différents et irréductibles, trois lieux. Lorsque nous écrivons dans un de ces formats, notre texte ne pourra que porter et véhiculer les valeurs particulières que le format incarne. De cette manière, c’est justement le format qui pense. Le lieu détermine ce qu’on peut y faire, ce qu’on peut y dire et le sens même de ce qu’on y affirme.

Cela dépend du fait que chaque format est d’abord et avant tout une modélisation du sens du texte, un modèle épistémologique du texte – et donc à la fois théorique et technique, au point où les deux ne peuvent pas être distingués.

La glu Microsoft

Le premier format est celui qui semble s’imposer comme un standard et qui ne l’est en réalité pas : docx. Ce format est profondément problématique pour plusieurs raisons (Dehut, 2018). La première est le fait qu’il s’agit d’un format implémentant une vision très particulière du texte qui essaie néanmoins de s’imposer comme universelle et comme neutre. En d’autres termes : c’est un format qui est un lieu, mais qui veut faire semblant d’être un espace.

L’émergence du traitement de texte dans les années 1980 – Word est lancé en 1983 – contribue fortement à la diffusion des ordinateurs “individuels” (personal computer). «Écrire» semble être une activité commune, universelle, à la différence de “calculer”. Les ordinateurs naissent pour faire des calculs et ne semblent initialement pas voués à traiter l’écriture (Bergin, 2006a; Bergin, 2006b). Mais le genre de calculs très complexes pour lesquels on a impérativement besoin d’un ordinateur n’intéresse que des instances très spécifiques – typiquement un grand laboratoire universitaire. Si, par contre, avec le même ordinateur on peut aussi écrire, alors cet outil peut trouver sa place dans un grand nombre d’endroits. Et, avant tout, dans les entreprises.

Les traitements de texte, et le logiciel Word en particulier, visent donc en particulier à modéliser un type très spécifique de texte : le document d’entreprise. Il s’agit de documents qui étaient jusque-là produits avec des machines à écrire et qui sont destinés à une circulation particulière : ils ont vocation à circuler à l’intérieur d’un milieu défini de travail, pour partager des informations qui servent au bon déroulement des activités de production. Ce sont des lettres, des rapports internes, des ordres du jour, des mémos. Cette vision du texte se fonde sur l’imprimé, car elle reproduit le modèle de la machine à écrire. Word modélise en premier lieu la “page”, et pas n’importe quel format de page, la page de la machine à écrire, le format A4 ou, en Amérique du Nord, le format “Letter” : justement celui qui sert de base à la bureautique. La notion de WYSIWYG (What You See Is What You Get) n’a en effet de sens que dans ce contexte : qu’est-ce qu’on voit et qu’est-ce qu’on obtient ? On voit la même chose qu’on imprime. On voit donc la même chose que nous montrait une machine à écrire. Dans le cadre d’un document destiné à la publication, par exemple, il n’y a pas de WYSIWYG possible, étant donné que le texte doit passer par plusieurs autres mises en document avant d’être diffusé. Word implémente donc une vision bureautique du texte : un texte qui sert les besoins du bureau. Ce sont les documents qui étaient avant produits par les secrétairesCe n’est pas le lieu pour s’attarder sur les implications sexistes de cette vision du monde. Je renvoie aux travaux de Nyhan (2023), Terras & Nyhan (2016) et Mellet (2021)., des documents destinés à rendre possible une chaîne spécifique de travail et de production.

Les concepts de “production” et de “productivité” sont essentiels ici, car c’est à l’impératif productiviste que répond le modèle textuel de Word qui est, et ce n’est pas un hasard, le logiciel phare de ce que Microsoft appelle une “suite de productivité”.

Les ordinateurs personnels arrivent ensuite dans les maisons. Alors que le travail de l’employé.e déborde du bureau d’entreprise vers le bureau domestique et son foyer, l’employé.e emporte aussi les modèles épistémologiques qui caractérisent son lieu de travail. Le lieu particulier, spécifique, qu’est le bureau tend à devenir espace, à s’imposer comme universel et homogène. Dans cette tendance, Word essaie – et réussit – à s’imposer comme un format neutre, comme si c’était un moyen transparent pour remplacer n’importe quel autre système d’écriture : avec un outil pensé à l’origine pour produire des documents de bureau, on se met à écrire des romans (Kirschenbaum, 2016), des articles scientifiques, des listes de courses et des lettres d’amour. Il remplace en effet d’abord les machines à écrire pour ensuite devenir un format to kill ’em all. Il cache une vision du monde qui devient invisible et qui finit par être considérée comme neutre. On a l’impression que le format – et le logiciel – n’est pas là, qu’on est “juste en train d’écrire”.

Et pourtant les conséquences de ce format sont catastrophiques. Je vais essayer de les résumer ici.

En premier lieu, c’est l’universalisation et la naturalisation du format qui posent problème. Peu importe le modèle que docx implémente : l’élément important est que ce modèle est et reste local. L’utiliser pour tout faire signifie réduire ce que pourrait être un texte à une seule vision. Des modèles plus complexes, comme le modèle sous-jacent à une conception “critique” du texte, ou plus simples, comme la prise de notes rapides sans aucun formatage, ou tout simplement différents, perdent le droit d’exister et sont, de fait, oubliés. Il n’y a plus qu’un seul texte possible.

En deuxième lieu, le format docx est opaque. Certes, à partir de 2007, Word abandonne son format binaire initial et adopte un format XML : doc a été remplacé par docx et ses spécifications sont publiques. Docx est concrètement une archive de fichiers en XML qui peuvent être ouverts et consultés. Il est donc techniquement possible de connaître le fonctionnement du format. Mais sa structure syntaxique est inutilement verbeuse et complexe, difficilement lisible et compréhensible. Par ailleurs, cette structure reste cachée pour les usagers et les usagères car les manipulations techniques à faire pour y accéder sont opaques. Or le fait de ne pas avoir accès au modèle théorique de texte que le format propose rend impossible pour la personne qui écrit d’être maîtresse du sens qu’elle produit. On pourrait objecter que le fonctionnement technique de la plupart des outils que nous utilisons possède cette nature opaque. Mais on peut répondre à cette objection en deux points : en premier lieu, il faut distinguer la complexité de l’opacité et, en second lieu, dans certains contextes, la compréhension du fonctionnement est peut-être plus importante. En ce qui concerne le premier point : un outil peut être très complexe et son fonctionnement incompréhensible pour un.e usagèr.e moyen.ne ; mais si son fonctionnement est transparent – des spécifications publiques, ouvertes et bien documentées – la communauté pourra en comprendre le fonctionnement et les présupposés théoriques. Or le problème du format docx est que son fonctionnement reste opaque, fermé et donc incompréhensible de manière générale. En ce qui concerne le second point : dans le monde de la recherche en sciences humaines, le modèle théorique du texte est central, il est l’objet même des recherches en sciences humaines. Pour un.e chercheur.e en sciences humaines, ne pas comprendre et ne pas connaître le modèle textuel qu’on utilise est donc plus grave que ne pas comprendre le fonctionnement de sa voiture. Pour un mécanicien, l’inverse sera vrai. Il est de toute manière indispensable de pouvoir accéder au moins au fonctionnement pour qu’une communauté puisse – grâce au travail de certaines personnes expertes – savoir comment les outils qu’elle utilise sont conçus (Crawford, 2016 [2009]).

En troisième lieu, le fait de ne pas avoir accès au balisage produit par le logiciel détermine une perte de contrôle. Les logiciels de traitement de texte, en effet, insèrent des balises sans que l’usagèr.e en soit consient.e, à la différence des formes d’écriture en plein texte où les balises sont directement écrites et gérées par la personne qui écrit. La personne qui écrit n’a plus aucune prise sur le modèle épistémologique du texte qu’elle produit, le texte est finalement produit par le format de façon complètement opaque, c’est le format qui pense et non la personne qui écrit.

Finalement, le modèle WYSIWYG produit un faux sentiment de “désintermédiation”. La personne qui écrit a l’impression d’être autonome, de ne pas avoir besoin d’un médiateur pour diffuser ce qu’elle écrit. Cela a impliqué, au cours du temps, une dévalorisation symbolique progressive de compétences très complexes héritées d’une tradition séculaire. Cinq cents ans de compétences typographiques, de composition, d’édition risquent d’être fortement dévalorisés à cause de ce faux sentiment d’autonomie qui, de fait, réduit la richesse des formes de diffusion.

L’ensemble de ces caractéristiques, le fait que docx s’impose comme universel, qu’il réduise toute multiplicité à une unité opaque, et dont on n’arrive plus à sortir, dans un format impossible à déchiffrer, transforme Word en une sorte de glu : la glu Microsoft.

TEI

L’analyse d’épistémologies textuelles un peu plus complexes et surtout plus explicites rend plus évident le cœur de mon argument. Si on prend XML, et en particulier la Text Encoding Initiative (TEI, n.d.), on s’en aperçoit sans peine. Avant de commencer à écrire en XML TEI, il est nécessaire de se demander quel schéma utiliser, de se poser les questions de la structure, des données, des sens possibles, des parties du texte. Est-ce que ce texte a des chapitres ? Des pages ? Des paragraphes ? Des notes ? Des variantes ? Un appareil critique ? Est-ce qu’il contient des dates ? Des noms de personne ? Des traductions ? Des vers ?

Avec TEI, nous n’avons plus affaire à un espace, mais à une multiplicité de lieux. Autant de lieux que de schémas possibles, chacun portant ses mœurs, sa vision du monde, ses règles, ses pratiques.

Mais même TEI n’est pas un format to kill ’em all. Même s’il ne s’agit pas, à proprement parler, d’un format, mais plutôt d’un méta-format, qui permet d’expliciter et produire des modèles différents et spécifiques à une multiplicité infinie de points de vue, il constitue néanmoins un ensemble de lieux particuliers. On peut vouloir habiter ailleurs. Arthur Perret le disait dans un billet de blog récent: « “le bon outil” dépend des circonstances »https://www.arthurperret.fr/blog/2023-04-03-le-bon-outil.html..

En effet, XML propose une épistémologie du texte basée sur l’idée qu’on peut définir comment certaines structures et certaines caractéristiques du texte peuvent être transformées en données. C’est l’idée derrière les schémas. Un schéma permet de modéliser une série de structures du texte et ensuite de les baliser dans le texte : une date, un titre, un nom, une conjecture, une note, une page, l’emplacement dans une page, etc. Mais la structure du balisage est pensée pour séparer de manière nette l’aspect présentationnel de l’aspect sémantique. Au moment de l’écriture de la balise, on ne doit pas se concentrer sur le rendu final. La question de l’affichage est renvoyée à un second temps. Cela est certes une force d’XML, mais aussi une caractéristique locale, qui ne peut pas prétendre à l’universalitéCette universalité était un des objectifs d’un des articles fondateurs de la philosophie XML, qui essayait justement de répondre à la question What’s text, really?, comme s’il fallait trouver une essence unique du texte (DeRose et al., 1990). Cet article est au fondement de la conception du texte comme ordered hierarchy of content object (OHCO) car, selon les auteurs, c’est cela la “vraie” nature du texte..

XML ne peut et ne doit pas être un format universel, car certaines sensibilités textuelles ne peuvent pas habiter XML. XML ne doit pas se transformer en l’espace abstrait dont parle Paltrinieri.

Ekdosis

Le travail de Robert Alessi, et en particulier son développement du paquet ekdosis (CTAN, n.d.), m’a particulièrement aidé à rendre cette intuition plus concrète.

Ekdosis est un paquet LaTeX écrit en Lua et pensé pour réaliser des éditions critiques. Il produit en sortie un pdf pensé pour l’impression et un fichier TEI qui propose les informations transformées en données. L’abondante documentation (Alessi, 2021) constiutue la véritable description d’un lieu, d’une maison, avec ses coutumes, ses langues, ses symboles, ses pratiques, ses réflexes…

Le travail de Robert Alessi part d’un constat très précis : certaines pratiques issues de certaines traditions d’édition critique classique sont profondément ancrées dans la lisibilité d’un texte complexe sur une page imprimée. La page d’une édition critique n’est pas simplement un texte avec des notes, il n’y a pas seulement un texte et des informations complémentaires à propos du texte. Il y a une manière différente de lire et de comprendre. Pendant qu’on lit un texte critique, on voit et on interprète en même temps le texte, ses variantes, les références à des lectures d’autres chercheur.es… C’est une technique de lecture complètement différente, qui implémente un paradigme particulier, complexe et très spécifique. C’est un sens différent qui se déploie. Il ne s’agit pas du texte avec un appareil critique, mais, tout simplement d’un autre texte, d’un autre sens.

L’encodage TEI ne peut pas être considéré, dans ce sens, comme universel. Car il pense le balisage comme une manière de transformer des informations textuelles en données. Mais il ne pense pas à la correspondance entre la structure des données et les compétences techniques de lecture, des véritables façons d’habiter la lecture comme un lieu, d’avoir le réflexe de baisser la tête dès que, chez nous, on passe sous une porte un peu trop basse, de changer notre cadre mental à la vue d’un symbole qui renvoie à une conjecture.

Ces compétences et ces paradigmes mentaux se concrétisent dans des symboles particuliers, placés dans des lieux particuliers de la page, souvent en latin, des symboles qui implémentent des modèles épistémologiques très locaux et qui ont des histoires et des traditions centenaires – différentes selon les écoles, les langues, les traditions, les approches, les cas particuliers… Qu’il s’agisse de la manière de se référer à des sources ou des témoins, de faire un appareil critique positif ou négatif, d’annoter une variante en utilisant une abbréviation latine pour signifier la raison d’un choix, l’ensemble de ces formes constituent des modèles de compréhension du texte très précis qui participent à des traditions philologiques spécifiques et incarnent des connaissances et des capacités de lecture et d’interprétation développées au cours des siècles par les communautés de recherche.

Ces compétences deviennent une véritable pensée incarnée, un modèle épistémologique qui est inscrit dans la structure de la page imprimée, qui est gravé dans un œil qui sait comment bouger dans la page pour trouver une variante ou une conjecture. La pensée n’est pas juste une modélisation formelle mais aussi une série d’inscriptions, et TEI oblige à faire abstraction de cette pensée inscrite. Pour le dire autrement, l’approche du XML et donc de TEI consiste à produire un modèle ontologique du texte : le texte est constitué d’une série de parties qui peuvent être décrites comme des éléments séparables, des substances, des essences.

Par exemple, la balise <title>Mon titre</title> dit du texte “Mon titre” qu’il est un titre. La balise exprime l’essence du segment textuel. De cette manière, elle transforme la chaîne de caractères “Mon titre” en une essence, une donnée avec sa propre caractérisation ontologique. La balise \title{Mon titre} ne fait pas la même chose. Elle modélise le texte depuis le point de vue de la lectureLa lecture est modélisée comme une série d’actions linéaires, qu’on effectue l’une après l’autre. : le texte est fait non pas d’une série d’éléments, mais d’une série d’actions. La balise \title{} n’est pas un tag qui exprime l’essence de ce qu’il contient, mais une instruction, une fonction qui sera exécutée au moment de la compilation. Concrètement, on demande à l’ordinateur non pas d’ajouter une information taxinomique qui caractérisera le segment textuel, mais on lui demande de faire quelque chose. Comme au moment de la lecture, la personne qui lit exécute une série d’actes – elle mémorise le segment de texte, elle interprète son sens, elle le met en relation avec d’autres segments, elle l’indexe, d’une certaine manière. L’ordinateur lorsqu’il traite ce format se comporte de la même manière, voilà pourquoi son comportement semble plutôt modéliser la notion de lecture que celle de description ontologique du texte. Ce que fera concrètement la fonction peut être défini : elle peut réaliser une mise en forme graphique (mettre le titre en gras, par exemple), ainsi que d’autres opérations (l’ajouter à l’index, le transformer dans une sortie XML avec la balise <title></title>). Nous avons, d’une part, un modèle épistémologique ontologique et, de l’autre, un modèle fonctionnel. L’un pense le texte comme une série de données, l’autre comme une série d’actions. Les deux modèles sont évidemment légitimes, mais ils ne sont pas équivalents, ni réductibles l’un à l’autre. Pour autant qu’on puisse imaginer des formes de “traduction”, ces traductions impliqueront toujours des pertes, des changements.

Pour expliquer ce point, Robert Alessi propose l’exemple, dans le cas d’un mot ou d’une série de mots manquant dans un manuscrit, de l’ajout des commentaires om. ou deest. Il affirme ceci : « Dans les textes versifiés, il y a ainsi une grande différence entre “34 om. A” et “34 deest in A” : dans le second cas, on indique en effet que l’omission du vers 34 n’est pas nécessairement fautive. » (Alessi, 2023). Or, TEI oblige à décider si cette distinction doit faire partie ou non du schéma des données : est-ce une donnée ou pas ? Elle n’est pas présente dans les schémas les plus utilisés, mais on pourrait en créer un. Cependant, dans la pratique de lecture et d’écriture, cette différence est trop subjective – et pourtant importante – pour être transformée en données.

En TEI donc, il existe deux représentations possibles de cette idée (Alessi, 2023) :

<p>
  <seg type=»appItem»>1 καὶ prep. Rw</seg>
  <seg type=»appItem»>ποιούμενος om. Pr<hi rend=»sup»>a</hi></seg>
</p>

Ou alors:

<app>
  <lem wit=»#V #Pra #Prb»>κατασκευὴν</lem>
  <rdg wit=»#Rw»>καὶ κατασκευὴν</rdg>
</app>
<app>
  <lem wit=»#V #Prb #Rw»>ποιούμενος</lem>
  <rdg wit=»#Pra»/>
</app>

Dans la première, on perd les données relatives aux variantes car on met l’annotation dans le texte. Dans la seconde, on perd la nuance de l’om. qui s’assimile à un deest.

Loin d’être un détail, il s’agit là de la caractéristique d’un modèle épistémologique local, particulier, qui ne peut être réduit à aucun modèle se voulant universel.

Dans ekdosis, Alessi a modélisé une série de questions théoriques, de pratiques, de compétences, de traditions interprétatives avec une finesse et une précision remarquables. L’élégance du code révèle la clarté de la modélisation. Cette modélisation part donc d’une tradition qui émerge matériellement dans le rapport à la page imprimée et à une expression inscrite, particulière et locale, du modèle épistémologique. La pensée d’ekdosis est donc la représentation de ce modèle et de ces traditions, et la transformation en données encodées en XML est faite à partir de ce premier modèle. La personne qui fait l’édition critique peut donc rester dans son lieu privilégié, le lieu de la tradition sur laquelle est basée sa formation et sur laquelle sont fondées ses capacités herméneutiques, profondément ancrées dans l’implémentation matérielle qui se fait dans la page imprimée. L’encodage des données, fait pour que les informations ne soient pas seulement lisibles, mais aussi calculables par une machine, dérive du premier modèle.

Un exemple peut aider à clarifier ce point.

Voici le code ekdosis – tiré de la documentation :

% Preamble:
\DeclareShorthand{egomute}{\unskip}{ego}

% Document:
\begin{ekdosis}
  σχεδὸν \app{
    \lem[resp=egomute, nosep, post={post σχεδὸν quattuor uerba
      excidisse uid.}, type=emendation]{\supplied{\gap{reason=lost,
        unit=word, quantity=4}}}
  } οὗτοι

  subsidiis magnis \sic*{epicuri} constabilitas

  declinare quis est qui \sic{possit cernere sese}
  \app{
    \lem[resp=egomute, type=emendation, nosep, post={ante
      ὑπογίν.}]{\surplus{καὶ}}
        \note{deleui e Gal.P}
  } ὑπογίνονται

  Πάντων δὲ \app{
    \lem[resp=egomute, type=emendation, nosep]{\supplied{τῶν πυρετῶν}}
    \note[sep]{addidi (\arb{^gamI`a ‘l-.hummayAti}
      \getsiglum{Gal})}
    \rdg[nordg, source=Gal]{\arb{al-.hummayAti}}
    \rdg[wit=codd, source=edd, alt=om.]{}
 },
\end{ekdosis}

Et le rendu pdf :

Et finalement la sortie XML-TEI produite automatiquement par ekdosis au moment de la compilation :

<p>σχεδὸν
<app>
  <lem resp=»#ego» type=»emendation»>
    <supplied>
      <gap reason=»lost» unit=»word» quantity=»4» />
    </supplied>
  </lem>
</app>οὗτοι</p>
<p>subsidiis magnis
<sic>epicuri</sic> constabilitas</p>
<p>declinare quis est qui
<sic>possit cernere sese</sic>.</p>
<p>
<app>
  <lem resp=»#ego» type=»emendation»>
    <surplus>καὶ</surplus>
  </lem>
  <note>deleui e Gal.P</note>
</app>ὑπογίνονται</p>
<p>Πάντων δὲ
<app>
  <lem resp=»#ego» type=»emendation»>
    <supplied>τῶν πυρετῶν</supplied>
  </lem>
  <note>addidi (

  <foreign xml:lang=»ar-Latn» type=»transliterated»
  subtype=»arabtex»>^gamI`a ‘l-.hummayAti</foreign>
  <ref target=»#Gal»>Gal.</ref>)</note>
  <rdg source=»#Gal»>
    <foreign xml:lang=»ar-Latn» type=»transliterated»
    subtype=»arabtex»>al-.hummayAti</foreign>
  </rdg>
  <rdg wit=»#V #I #R #H» source=»#Lit #Erm #Sm» />
</app>,</p>

Une analyse rapide de la syntaxe qui permet d’ajouter les annotations – notamment le om. qui disparaît dans la version TEI – permet de comprendre l’élégance de la démarche qui consiste justement à habiter un lieu et à ne pas se plier à l’injonction universaliste de l’espace.

Conclusion

L’approche de Robert Alessi me semble donc aller dans le sens – certes, à première vue pas très alléchant – du retour à la grotte. On ne peut pas habiter des espaces. Il n’est pas possible d’être chez soi dans l’homogène et dans l’universel. Il faut pouvoir développer des chez soi locaux, spécifiques, particuliers. Pour ce faire l’approche universaliste de l’espace homogène et toujours mesurable, où n’importe quelle portion est compatible et commensurable avec n’importe quelle autre, n’est pas une option. Les modules interchangeables d’Ikea ne permettent pas de produire des habitations, mais juste des marchés, des non-lieux traversables, utilisables – peut-être – qui permettent des connexions mais qui empêchent d’y habiter.

Retourner dans la grotte signifie essayer de bricoler son chez soi en implémentant dans des architectures numériques spécifiques des valeurs, des visions du monde, des enjeux théoriques, des approches et des besoins qui ont la vocation de rester toujours multiples et locaux.

Bibliographie

Alessi, R. (2021). Eκδοσις Typesetting TEI xml-Compliant Critical Editions. https://ctan.mirror.garr.it/mirrors/ctan/macros/luatex/latex/ekdosis/ekdosis.pdf

Alessi, R. (2023). Éditions critiques imprimées et numériques. In Les éditions critiques numériques : Entre tradition et changement de paradigme. Les Presses de l’Université de Montréal. http://parcoursnumeriques-pum.ca/12-editionscritiques/chapitre3.html

Barlow, J. P. (1996). A Declaration of the Independence of Cyberspace. In Electronic Frontier Foundation. https://www.eff.org/cyberspace-independence

Beaude, B. (2012). Internet, changer l’espace, changer la société : Les logiques contemporaines de synchorisation. FYP éditions. http://www.beaude.net/icecs/

Bergin, T. J. (2006a). The Origins of Word Processing Software for Personal Computers: 1976-1985. IEEE Annals of the History of Computing, 28(4), 32–47. https://doi.org/10.1109/MAHC.2006.76

Bergin, T. J. (2006b). The Proliferation and Consolidation of Word Processing Software: 1985-1995. IEEE Annals of the History of Computing, 28(4), 48–63. https://doi.org/10.1109/MAHC.2006.77

Bolter, J. D. (1991). Writing space: The computer, hypertext, and the history of writing. L. Erlbaum Associates.

Cavallari, G. (2018). Performativité de l’être-en-ligne. Pour une phénoménologie de la présence numérique [PhD thesis]. Université de Montréal.

Crawford, M. (2016 [2009]). Éloge du carburateur. La Découverte.

CTAN: Package ekdosis. (n.d.). Consulté le 27 février 2024 sur : https://ctan.org/pkg/ekdosis

Dehut, J. (2018). En finir avec Word ! Pour une analyse des enjeux relatifs aux traitements de texte et à leur utilisation [Billet]. In L’Atelier des Savoirs. https://eriac.hypotheses.org/80

DeRose, S. J., Durand, D. G., Mylonas, E., & Renear, A. H. (1990). What is text, really? Journal of Computing in Higher Education, 1(2), 3–26. https://doi.org/10.1007/BF02941632

Farinelli, F. (2018). Blinding Polyphemus: Geography and the models of the world. Seagull Books.

Fauchié, A. (2024). Fabriquer des éditions, éditer des fabriques : Reconfiguration des processus techniques éditoriaux et nouveaux modèles épistémologiques [PhD thesis, Université de Montréal]. https://these.quaternum.net/introduction/

Galloway, A. R. (2004). Protocol: How control exists after decentralization. MIT Press.

Kirschenbaum, M. G. (2016). Track Changes: A Literary History of Word Processing. Belknap Press: An Imprint of Harvard University Press.

Lévy, P. (1995). Qu’est-ce que le virtuel ? La Découverte.

Mellet, M. (2021). Manifeste des petites mains. In Blank.blue. https://blank.blue/meditions/manifeste-des-petites-mains/

Meunier, J.-G. (2014). Humanités numériques ou computationnelles : Enjeux herméneutiques. Sens Public. http://www.sens-public.org/article1121.html

Meunier, J.-G. (2017). Humanités numériques et modélisation scientifique. Questions de Communication, 31, 19–48. https://doi.org/10.4000/questionsdecommunication.11040

Nyhan, J. (2023). Hidden and devalued feminized labour in the digital humanities: On the Index Thomisticus project 1965-67. Routledge.

TEI: Text Encoding Initiative. (n.d.). Consulté le 27 février 2024 sur https://tei-c.org/

Terras, M., & Nyhan, J. (2016). Father Busa’s Female Punch Card Operatives. In M. K. Gold & L. F. Klein (Eds.), Debates in the digital humanities: 2016. University of Minnesota Press. https://dhdebates.gc.cuny.edu/read/untitled/section/1e57217b-f262-4f25-806b-4fcf1548beb5

Vial, S. (2013). L’être et l’écran: Comment le numérique change la perception. Essai de phénoménologie historique des techniques. PUF.

Vidéo de la conférence de Luca Paltrinieri (U de Rennes 1). (2023). https://www.crihn.org/nouvelles/2023/05/01/video-de-la-conference-de-luca-paltrinieri-u-de-rennes-1/

Vitali-Rosati, M. (2016a). Digital Architectures: The Web, Editorialization and Metaontology. Azimuth. Philosophical Coordinates in Modern and Contemporary Age, 4(7), 95–111. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/16067

Vitali-Rosati, M. (2016b). What is editorialization ? Sens Public. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/12972

Vitali-Rosati, M. (2017). The Writer is the Architect. Editorialization and the Production of Digital Space. Sens Public. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/19743

Vitali-Rosati, M. (2018). On Editorialization: Structuring Space and Authority in the Digital Age. Institute of Network Cultures. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/19868

Vitali-Rosati, M. (2020). Pour une théorie de l’éditorialisation. Humanités Numériques, 1. http://journals.openedition.org/revuehn/371

Vitali-Rosati, M. (2021). Le fait numérique comme « conjonctures médiatrices ». Communication & Langages, 208-209, 155–170. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/25755