Introduction
Le jeudi 15 février 2024, l’entreprise OpenAI annonçait l’arrivée imminente de Sora, un nouveau logiciel d’« intelligence artificielle générative » capable de produire des images ultraréalistes sur la base de commandes écrites (les « prompts »). Cette annonce s’inscrit dans un contexte de course à l’innovation enclenchée par la même entreprise un peu plus d’un an auparavant, à travers la diffusion massive d’un dispositif nommé ChatGPT. Ce logiciel de génération automatique de texte agence de gros modèles de langage (LLM) comme GPT-3 ou GPT-4 avec une interface interactive permettant aux utilisateurs de passer commande pour obtenir non pas des images ultraréalistes, mais des textes très standardisés qui ressemblent à s’y méprendre à des textes écrits par des humains. Depuis presque deux ans, les débats autour des bienfaits et des méfaits de ces « intelligences artificielles génératives » n’ont cessé de se déployer, générant autant de fantasmes que d’inquiétudes.
Cependant, tant qu’elles portent sur cette notion d’« intelligence artificielle », il n’est pas sûr que les questions soient bien posées. Dans les discours médiatiques, en particulier, un ensemble de métaphores anthropomorphiques, comme celles d’ « intelligence artificielle », d’ « apprentissage automatique », d’ « agents conversationnels », sont souvent utilisées. A travers de telles dénominations, nous attribuons implicitement à des dispositifs électroniques et numériques des capacités mentales, intellectuelles ou psychiques (l’intelligence, l’apprentissage, l’agentivité) auparavant réservées aux humains. Tout se passe comme si nous considérions ces dispositifs comme des « doubles de l’homme », en leur attribuant « une âme et une existence séparée et autonome ». C’est précisément cette manière de considérer les machines que le philosophe Gilbert Simondon décrivait comme une « représentation mythique du robot », qui avait déjà pénétré la « culture actuelle » à la fin des années 1950, à l’époque des premières recherches en « intelligence artificielle » et de l’invention du premier « réseau de neurones » formelsG. Simondon, Du mode d’existence des objets techniques [1958], Paris, Aubier, 2012, pp. 9-11..
Simondon soutient sa thèse sur le mode d’existence des objets techniques en 1958, deux ans après la conférence de Dartmouth qui signe le coup d’envoi des recherches en IA et un an après l’invention du Perceptron par Rosenblatt, premier réseau neuronal à l’origine du courant connexionniste de l’IA et des systèmes d’apprentissage automatiques sous-jacents aux « IA génératives » contemporaines. Simondon remarque alors qu’ « un homme cultivé ne se permettrait pas de parler des objets ou des personnages peints sur une toile comme de véritables réalités, ayant une intériorité, une volonté bonne ou mauvaise », et pourtant, « ce même homme parle (…) des machines » comme étant « animées d’intentions » et « leur confère l’usage de sentiments » : « dans ce cas, la machine devenue selon l’imagination ce double de l’homme qu’est le robot, dépourvu d’intériorité, représente de façon bien évidente et inévitable un être purement mythique et imaginaireIbid. ».
Selon Simondon, ce mythe du robot masque l’ignorance des « schèmes de fonctionnement » techniques et témoigne d’un fantasme de domination et de puissance, visant à libérer l’homme de ses angoisses, à travers un processus d’identification à la machine : « l’homme qui veut dominer ses semblables suscite la machine androïde », afin de lui « déléguer son humanité », « il cherche à construire la machine à penser, rêvant de pouvoir construire la machine à vouloir, la machine à vivre, pour rester derrière elle sans angoisse, libéré de tout danger, exempt de tout sentiment de faiblesse, et triomphant médiatement par ce qu’il a inventéIbid.. » L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Les anthropomorphismes de ce genre sont très fréquents au sujet des technologies numériques, en particulier dans les discours émanant des entrepreneurs de la Silicon Valley, qui sont à l’origine des industries numériques dominantes aujourd’hui. Ainsi, dans la lettre ouverte publiée par le Future of life institute en mars 2023 appelant à faire une pause dans la recherche sur l’IA, co-signée par Elon Musk et de nombreux autres entrepreneurs et experts du domaine, des « esprits numériques » susceptibles de remplacer les humains sont évoquésE. Musk et al., « Pause Giant AI Experiments », Future of life Institute, March 222023 : https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Depuis les années 1990, Raymond Kurzweil, l’un des fondateurs du mouvement transhumaniste, chercheur en informatique au MIT et directeur de l’ingénierie chez Google, n’hésite pas, quant à lui, à parler de « machines intelligentes » ou de « machines spirituellesR. Kurzweil, The age of intelligent machines, MIT Press, 1992 et R. Kurzweil, R. (1999). The age of spiritual machines, MIT Press, 1999. ». Les idéologies transhumanistes qui innervent les entreprises et les universités de la Silicon Valley manipulent aussi souvent la notion de « singularité technologique », pour désigner l’avènement d’une superintelligence susceptible de dépasser celle des humains et de prendre en main leur destin.
Pourtant, la notion d’intelligence artificielle avait été mise en question à son origine même : John Mc Carthy, l’un des organisateurs de la conférence de Dartmouth durant laquelle ce terme fut popularisé a lui-même admis qu’il s’agissait alors d’une dénomination stratégique visant à distinguer le programme de recherche de l’« intelligence artificielle » d’autres recherches dans le champ de la cybernétiqueD. J. Gunkel, « What’s in a Name? Cybernetics vs AI », Sublationmag, 9 June 2023 : https://www.sublationmag.com/post/what-s-in-a-name-cybernetics-vs-ai, alors qu’Herbert Simon, l’un des organisateurs de cette conférence et des pères fondateurs du champ, avait quant à lui proposé le terme de « traitement de données », qui lui semblait plus approprié. Aujourd’hui, même Yann Le Cun (anciennement professeur d’informatique au Collège de France et désormais responsable scientifique de l’IA chez Meta) soutient que lesdits « réseaux neuronaux » n’imitent pas plus le cerveau qu’une aile d’avion ne reproduit celle d’un oiseau« Yann LeCun : «L’intelligence artificielle a moins de sens commun qu’un rat» », entretien avec S. Sermondadaz, Sciences et avenir, 24 octobre 2018 : https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/selon-yann-lecun-l-intelligence-artificielle-a-20-ans-pour-faire-ses-preuves_120121. C’est ce que confirme les travaux de Giuseppe Longo, directeur de recherche au CNRS, mathématicien, épistémologue et spécialiste de l’informatique, qui montrent que lesdits réseaux neuronaux fondés sur des calculs statistiques et entraînés sur des quantités massives de données n’ont rien à voir avec les processus cérébraux et neuronaux à l’oeuvre dans les organismes vivantsG. Longo, Le cauchemar de Prométhée, Paris, PUF, 2024.. Bref, loin de constituer une notion scientifique fondée sur des théories ou des observations certifiées, la notion d’« intelligence artificielle » s’inscrit dans la construction d’un discours promotionnel et attractif visant à obtenir des financementsA. Alombert et G. Longo, « Il n’y a pas d’intelligence artificielle : parlons d’automates numériques pour rompre avec les idéologies publicitaires! », L’Humanité, juillet 2023, en ligne : https://www.humanite.fr/en-debat/-/il-ny-a-pas-dintelligence-artificielle-parlons-dautomates-numeriques-pour-rompre-avec-les-ideologies-publicitaires-802627. Il semble donc clair, pour les philosophes comme pour les scientifiques, que les métaphores anthropomorphiques ne sont pas pertinentes pour penser les dispositifs électroniques et algorithmiques qui constituent nos milieux techniques quotidiens. Plutôt que de résider dans ces comparaisons entre machines et esprits en mesurant les performances des unes et des autres, nous proposons de nous demander ce que ces comparaisons infondées servent à masquer. La notion d’intelligence artificielle doit être déconstruite, afin de sortir de ces faux débats médiatiques et d’interroger les véritables enjeux écologiques, psychiques et politiques de la nouvelle phase d’automatisation numérique.
1. L’ « hypnose technique » et le double asservissement
Le fait d’attribuer aux dispositifs algorithmiques des capacités comme la conscience, l’intelligence ou la pensée, contribue tout d’abord à masquer leurs « schèmes de fonctionnement » techniques, leur technicité interne. Si l’on suit Simondon, une telle « technicité » doit être distinguée de l’utilité ou de l’usage de l’objetG. Simondon, Du mode d’existence des objets techniques [1958], Paris, Aubier, 2012, pp. 333-336.. Alors que l’utilité désigne la fonction qu’un objet technique a pour nous ou l’usage que nous en faisons, la technicité désigne les schèmes et les opérations techniques internes qui lui permettent de fonctionner. Par exemple, nous utilisons nos téléphones portables pour téléphoner et c’est pourquoi nous les appelons des « téléphones » alors que leurs structures matérielles et les technologies qui sous-tendent leurs fonctionnement correspondent plus à celles d’un ordinateur qu’à celles d’un téléphone filaire. De même, Simondon affirme quant à lui qu’« il y a plus d’analogie réelle entre un moteur à ressort et un arc ou une arbalète qu’entre ce même moteur et un moteur à vapeur », quand bien même tous deux auraient une fonction de moteurIbid., p. 22.. Autrement dit, la technicité ne se réduit pas à l’utilité, et l’usage d’un objet ne dit rien de ses caractéristiques techniques.
Le fait d’utiliser un dispositif technologique n’implique pas de le comprendre : au contraire, la facilité d’utilisation masque souvent la difficulté de compréhension. Nombreux sont les utilisateurs de ChatGPT ou de Midjourney qui n’ont aucune idée du fonctionnement interne de ces « objets » - d’autant que les opérations algorithmiques sur des quantités massives de données s’effectuent à une vitesse extrêmement rapide et demeurent toujours dissimulées à l’utilisateur, qui n’accède qu’au résultat et non au processus, ce qui contribue à donner à l’objet technique un aspect magique et fascinant. Alors que les données et les algorithmes demeurent cachés derrière des interfaces ergonomiques, le système semble produire des textes ou des images de manière spontanée, selon le bon vouloir des utilisateurs qui se retrouvent en position de maîtres passant à la machine autant de commandes qu’ils le souhaitent : « il existe une sophistique de la présentation qui cherche à donner une tournure magique à l’être technique, pour endormir les puissances actives de l’individu et l’amener à un état hypnotique dans lequel il goûte le plaisir de commander à une foule d’esclaves mécaniquesIbid., p. 350. ». Dans le cas des IA génératives, ce désir de commander (des textes, des images, des vidéos mais aussi toutes sortes d’autres tâches) semble comblé : le logiciel exécute dans la seconde toutes sortes d’ordres différents.
Dans ce type d’usage, l’objet n’est pas considéré pour lui-même, mais seulement comme un moyen susceptible de fournir un résultat ou de répondre à un besoin. Mais une telle relation d’asservissement peut se renverser, l’humain se voyant alors asservi aux dispositifs qu’il croyait pouvoir maîtriser. C’est ce qui se produit dans le cas de ChatGPT, où les deux types d’asservissement semblent précisément se combiner : alors que les utilisateurs passent des commandes ou donnent des ordres au système algorithmique, le système algorithmique lui-même (ou, du moins, l’entreprise qui l’a produit, à savoir OpenAI) est en train de les utiliser, puisque le système se nourrit de leurs requêtes pour améliorer les performances de ses algorithmes. Si bien qu’au moment où tout un chacun commençait à se demander comment faire un bon usage de ChatGPT, les industries numériques avait déjà largement utilisées leurs soi-disant usagers pour se perfectionner, conformément au célèbre adage selon lequel « si c’est gratuit, c’est vous le produit ! ». Quand bien même ils en auraient pleinement conscience, les utilisateurs deviennent ainsi les ressources du système qu’ils utilisent.
2. Le travail humain cristallisé dans les « intelligences artificielles réticulées »
A l’inverse, Simondon soutient qu’une relation équilibrée avec les objets techniques suppose de rompre ce double asservissement, grâce à une « intelligence de l’objet technique », une « intuition des schèmes de fonctionnement », une connaissance des gestes et des pensées qui ont présidé à sa fabrication, afin de reconnaître les travaux et les savoirs cristallisés en lui, c’est-à-dire, de le comprendre et de le transformer. Cependant, une telle « relation de l’individu humain à l’individu technique est la plus délicate à former », car « elle suppose une culture technique » permettant aux individus de déchiffrer « l’effort humain » cristallisé dans l’objet sous forme de « structure fonctionnelle »13. En effet, « pour qu’un objet technique soit reçu comme technique et non pas seulement comme utile, pour qu’il soit jugé comme résultat d’invention, porteur d’information, et non comme ustensile, il faut que le sujet qui le reçoit possède en lui des formes techniques». Sans une telle culture technique, la relation des individus aux objets risque de se limiter à une relation d’usage et de consommation, quand elle ne devient pas une « frénésie de possession » ou une « démesure d’utilisationIbid., p. 334-336 et p. 350. ».
Dans le cas des objets numériques qui nous occupent ici, une telle culture technique semble faire défaut : alors que l’éducation au numérique se limite la plupart du temps à de la prévention contre les fausses informations ou à l’acquisition de compétences opérationnelles, peu de citoyens disposent aujourd’hui de la culture technique permettant de comprendre les opérations mathématiques (algorithmes de rétropropagation, ondelettes, renormalisation, méthodes d’optimum, techniques de filtrage et convolution, etc.) qui permettent aux dites « intelligences artificielles » de fonctionner. Or, toutes ces opérations mathématiques et ces fonctionnalités techniques sont issues de travaux de mathématiciens et d’informaticiens humains, qui héritent eux-mêmes de toute l’histoire de ces disciplines et de leurs plus récentes avancées. En ce sens, ce sont des théories et des pratiques scientifiques qui donnent à ces dispositifs leurs apparences d’« intelligence » : les systèmes algorithmiques sont moins des « machines pensantes » que des « produits du savoir humain », des « cristallisation[s] d’une longue série d’efforts [et] de travauxIbid., p. 252. ».
En suggérant l’idée d’une autonomie ou d’une spontanéité des dispositifs, les notions d’apprentissage automatique ou d’agents conversationnels tendent à faire oublier tout le travail humain nécessaire à la conception desdites « machines » : les travaux scientifiques des informaticiens d’une part, mais aussi les choix des concepteurs qui « dressent » les algorithmes en leur fournissant les signaux adéquats pour que les générateurs automatiques de textes ou d’images ne produisent pas de contenus problématiques (par exemple, en les configurant pour qu’ils ne génèrent pas de propos racistes ou d’images pornographiques, ou bien pour qu’ils restent neutres sur des sujets politiques sensibles). Outre les mathématiques appliquées et les choix politiques des entreprises, un autre travail humain est aussi requis pour le fonctionnement de ces nouvelles industries culturelles : le travail de ceux qu’on appelle les « travailleurs du clics », payés pour entraîner les algorithmes à travers des micro-tâches souvent peu rémunérées.
Le chercheur Antonio Casilli identifie trois micro-tâches de ce type : les micro-tâches d’indexation (qui consistent à enrichir les données en étiquetant des images), les micro-tâches de vérification (qui consistent à vérifier les résultats générés et à les qualifier), les micro-tâches d’imitation (qui consistent à produire les résultats attendus dans les cas où l’algorithme ne suffit plus)A. Casilli, Entretien pour Le Grand Continent, 7 avril 2023 : https://www.casilli.fr/2023/04/08/grand-entretien-pour-le-grand-continent-7-avril-2023/. Ainsi, en janvier 2023, deux mois à peine après le lancement de ChatGPT, le journal Time révélait le partenariat d’OpenAI avec la société Sama, qui avait permis à l’entreprise d’employer des travailleurs kenyans rémunérés deux dollars de l’heure pour indexer les immenses quantités de contenus toxiques (violents, racistes, pornographiques etc.) circulant sur Internet, afin de « nettoyer » les données d’entraînement de ChatGPT – provoquant évidemment des troubles psychiques chez les individus surexposés à ce type de contenus, hantés par les horreurs qu’ils ont vusB. Perrigo, « OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic », Time, January 182023 :https://time.com/6247678/openai-chatgpt-kenya-workers/. L’avènement de « machines pensantes » ne peut donc se faire qu’au prix de la destruction de certains esprits.
3. Des intelligences artificielles génératives aux intelligences artificielles extractives
Outre l’exploitation des « travailleurs du clic », le fonctionnement de ces machines suppose aussi l’exploitation sauvage des ressources culturelles de l’humanité. D’où viennent, en effet, les quantités massives de données sur lesquelles les algorithmes sont entraînés ? Elles sont issues des textes et des images partagés sur la Toile, sur une encyclopédie contributive comme Wikipédia par exemple, pour laquelle des individus contribuent bénévolement, ou encore, sur les différents réseaux sociaux à travers lesquels les individus communiquent quotidiennement. C’est seulement parce qu’ils sont entraînés sur ces quantités massives de données produites par des humains que les systèmes algorithmiques, qui fonctionnent sur la base de calculs probabilistes, peuvent produire des résultats susceptibles de les simuler. Or, les créateurs de contenus ne sont pas rémunérés pour les contenus exploités, seules les entreprises détentrices des systèmes de génération automatique en tirent profit : là encore, la fascination pour l’intelligence des machines masque la dépossession des contributeurs humains, à travers la prédation organisée des œuvres de l’esprit qui constituent la mémoire collective de l’humanité et qui devient alors un capital à exploiterA. Alombert et G. Giraud, Le capital que je ne suis pas ! Mettre l’économie et le numérique au service de l’avenir, Paris, Fayard, 2024, p. 77.. Jean Cattan et Célia Zolinski, spécialistes du droit du numérique, proposent de parler d’ « IA extractives » plutôt que d’« IA générativesJ. Cattan et C. Zolinsky, « Le défi d’une régulation de l’intelligence artificielle », AOC, 14 décembre 2023 : https://aoc.media/analyse/2023/12/13/le-defi-dune-regulation-de-lintelligence-artificielle/ ».
Face à ces nouvelles formes de prédation culturelle automatisée, exercée par une poignée d’entreprises privées valorisées à des centaines de milliards sur les marchés financiers, ne serait-il pas nécessaire d’envisager de nouvelles modalités de redistribution des richesses accumulées ? Si l’idée d’une redistribution individuelle visant à rémunérer chaque citoyen en fonction de ses données personnelles exploitées semble peu praticable et peu satisfaisante, on pourrait imaginer une redistribution collective, en obligeant ces entreprises à reverser une partie de leur profit dans des « fonds pour un numérique soutenable », qui permettrait d’alimenter les recherches et les innovations de dispositifs différents, plus intéressants et plus démocratiques sur les plans sociaux et écologiquesA. Alombert et G. Giraud, Le capital que je ne suis pas ! Mettre l’économie et le numérique au service de l’avenir, op. cit., p. 167..
Car l’extraction pratiquée par ces entreprises ne se limite pas aux ressources culturelles ou aux œuvres de l’esprit : elle concerne aussi les ressources matérielles et les énergies. Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique. Outre que les terres rares nécessaires à la fabrication des composants électroniques et des microprocesseurs, les infrastructures numériques (terminaux, centre de données et réseaux) représentent « aujourd’hui 3 à 4 % des émissions de gaz à effet de serre dans le monde » avec une augmentation de 60 % annoncée dans le quinze prochaines années« L’empreinte environnementale du numérique », dossier de l’ARCEP, décembre 2023 : https://www.arcep.fr/la-regulation/grands-dossiers-thematiques-transverses/lempreinte-environnementale-du-numerique.html, tandis que « les besoins [en électricité] des centres de données, des cryptomonnaies et de l’intelligence artificielle devraient doubler d’ici 2026V. Blanchot, « La consommation électrique des centres de données devrait doubler d’ici trois ans », Siècle Digital, 24 janvier 2024 : https://siecledigital.fr/2024/01/24/la-consommation-electrique-des-centres-de-donnees-devrait-doubler-dici-trois-ans/ ».
Les puissances de calcul et les capacités de stockage nécessaires pour faire fonctionner un dispositif comme ChatGPT ou des dispositifs dérivés comme Copilot, l’assistant IA que Microsoft a introduit dans son moteur de recherche Bing ou dans ses logiciels de traitement de texte impliquent la construction de nouveaux centres de données et une grande consommation d’électricité : « le traitement d’une requête ChatGPT nécessite près de dix fois plus d’électricité qu’une recherche sur un moteur de recherche classiqueP. Marissal, « Les coûts financiers et énergétiques de l’intelligence artificielle sont-ils hors de contrôle ? », L’Humanité, 3 octobre 2024 : https://www.humanite.fr/social-et-economie/chatgpt/les-couts-financiers-et-energetiques-de-lintelligence-artificielle-sont-ils-hors-de-controle ». Microsoft a récemment fait l’acquisition d’une centrale nucléaire en Pennsylvanie pour alimenter ses data centers. Google et Amazon investissent aussi dans l’énergie nucléaire : les géants du numérique savent bien que sans modification de la trajectoire actuelle, la demande énergétique ne pourra que s’accélérer. En Irlande, si rien n’est fait pour réguler l’installation, des centres de données, « cela entraînera probablement une situation où la demande dépasse l’offre disponible » : « les consommateurs seront confrontés à des pannes de courantTudi Créquer, « Trop de data centers, l’Irlande risque la panne électrique », Reporterre, 2 décembre 2021 : https://reporterre.net/Trop-de-data-centers-l-Irlande-risque-la-panne-electrique ».
De même, la consommation en eau ne cesse d’augmenter : un échange de vingt questions avec ChatGPT nécessite l’équivalent d’un demi-litre d’eau et « d’ici à 2027, l’IA consommera autant que la moitié du Royaume-Uni ou 4 à 6 DanemarkFabien Benoit, « Data centers, leur consommation d’eau va explocer », Reporterre, 29 janvier 2024 : https://reporterre.net/Data-centers-leur-consommation-d-eau-va-exploser ». D’après les rapports de responsabilité environnementale des entreprises, la consommation d’eau de Microsoft et de Google a augmenté de 34 % et de 20 % de 2021 à 2022, au moment de l’accélération des développements dans le champ de l’IA générativeN. Michaels, « L’IA générative a-t-elle fait exploser la consmommation d’eau des géants de la tech ? », Geo, 12 septembre 2023 : https://www.geo.fr/environnement/eau-ia-generative-a-t-elle-fait-exploser-consommation-eau-geants-de-la-tech-openai-microsoft-google-chatgpt-216592. En 2022, les deux entreprises ont respectivement consommé 6,4 et 15 milliards de litres. La majeure partie de ces ressources aquatiques est utilisée pour refroidir les data centers, qui se multiplient et qui nécessitent également des systèmes de refroidissement plus puissants, en raison des cartes graphiques spécifiques permettant d’augmenter les puissances de calculs. En Uruguay, l’alimentation des systèmes de refroidissement des data centers de Google pourrait se faire au détriment des habitants, en particulier dans une région où l’eau potable se fait rare et les sécheresses de plus en plus nombreusesG. Livingstone, « ‘It’s pillage’: thirsty Uruguayans decry Google’s plan to exploit water supply », The Guardian, 11 juillet 2023 : https://www.theguardian.com/world/2023/jul/11/uruguay-drought-water-google-data-center?ref=disconnect.blog. On comprend mieux, dès lors, pourquoi les géants du numériques focalisent les débats sur les machines pensantes ou « l’intelligence artificielle générale » : la polarisation de ce type de questions métaphysiques permet de masquer les enjeux écologiques propres aux infrastructures matérielles des industries numériques.
4. De l’intelligence artificielle aux technologies intellectuelles
Outre les effets des industries numériques sur les environnements et les écosystèmes, les notions de machines intelligentes et de machines spirituelles permettent aussi d’ignorer les effets des supports numériques sur nos intelligences et sur nos esprits. L’esprit en effet, n’est ni une propriété innée inscrite dans les gènes ou les neurones, ni une substance immatérielle flottant dans le ciel des idées, mais une capacité à la fois psychique et sociale qui se forme et se déforme selon les supports techniques pratiqués, car ce sont dans ces supports techniques que les symboles constituant la vie de l’esprit sont extériorisés. Les facultés psychiques se transforment en fonction de l’évolution des supports techno-symboliques que constituent les parchemins, les idéogrammes, l’alphabet, le papier, la peinture, l’imprimerie, la photographie, les écrans numériques, et bien d’autres encore - autant de supports de symboles, de savoirs et de mémoire dans lesquels les esprits s’extériorisent et à partir desquels ils intériorisent en retour les traces extériorisées par d’autres.
Pour le dire dans les termes de Bernard Stiegler : « l’appareil psychique, qui prend sans doute racine dans le cerveau mais ne s’y réduit pas, passe par un appareil symbolique qui n’est pas seulement situé dans le cerveau, mais dans la société, c’est-à-dire dans les autres cerveaux avec lesquels ce cerveau est en relation, (…) — et ‘entre ces cerveaux’, cela veut dire ici : dans ou sur les supports de mémoire artificiels qui conditionnent toute forme de vie techniqueB. Stiegler, « Pharmacologie de l’épistémé numérique » in Organologie des savoirs et technologies de la connaissance, Paris, FYP Editions, p. 21. ». Ces supports de mémoires artificiels constituent ce que Jack Goody appelait des « technologies intellectuelles » : ils ne sont pas de simples moyens de notation, d’expression ou de communication d’une pensée préexistante, mais configurent en profondeur les manières de s’exprimer, de communiquer et de penserJ. Goody, La raison graphique, Paris, Minuit, 1979 et J. Goody, « Les technologies de l’intellect », Pouvoirs et savoirs de l’écrit, Paris, La dispute, 2007..
Dans ses travaux d’anthropologie consacrés à l’écriture alphabétique, Goody montre comment la pratique de l’écriture « affecte les opérations cognitives et intellectuelles » elles-mêmes, en permettant de nouvelles manière de réfléchir et d’argumenter : par exemple, la fixation de l’écrit rend possible la relecture et l’examen dans l’après-coup ou la comparaison du début et de la fin d’un texte qui permet d’en évaluer la progression argumentative. Ce qui vaut pour l’écriture alphabétique vaut évidemment pour les autres types de techniques d’écriture et d’enregistrement, qui ne cessent de se transformer, depuis l’imprimerie jusqu’aux gros modèles de langage, en passant par les machines à écrire, le traitement de texte, les logiciels d’auto-complétion ou de traduction automatique, et les nouvelles industries linguistiques. Les « machines spirituelles » ne constituent donc pas des agents autonomes dotés de conscience ou d’intelligence, mais bien des prothèse de l’esprit, à travers lesquelles nos pensées s’extériorisent, mais qui rétroagissent aussi en retour sur nos capacités mentales, au point parfois de les court-circuiter, et toujours de les transformer, modifiant nos manières de lire, d’écrire, de nous souvenir, de réfléchir.
Les travaux de la chercheuse Katherine Hayles soulignent ainsi que le passage des supports imprimés aux supports numériques a engendré une transformation des régimes attentionnels, conduisant à passer d’une attention profonde (concentration sur un objet ou une activité durant un temps long) à une hyperattention (effectuation de plusieurs micro-tâches en même temps)N.-K., Hayles, « Hyper and deep attention : the generational divide in cognitive modes ». Profession, 2007, pp. 187-199.. Les travaux neuroscientifiques de la chercheuse Maryanne Wolf vont plus loin, en montrant que cette transformation se joue également au niveau du cerveau : la pratique de la lecture joue un rôle dans la synaptogenèse en renforçant certaines connexions neuronales et sa réduction progressive avec l’avènement des médias numériques implique des transformations au niveau de l’organisation cérébraleM. Wolf, Proust et le calamar. Abeille et Castor, 2015 et M. Wolf, Reader, Come Home: The Reading Brain in a Digital World, Harper, 2018.. Les travaux de la linguiste Naomi S. Baron montrent quant à eux que le recours de plus en plus systématique aux logiciels de génération automatique de texte implique un risque de perte des capacités orthographiques et grammaticales, mais aussi des capacités d’expression et de réflexion, en dépossédant les auteurs de leurs styles singuliersN. S. Baron, « Comment ChatGPT sape la motivation à écrire et à penser par soi-même ? », The Conversation, 7 octobre 2024 : https://theconversation.com/comment-chatgpt-sape-la-motivation-a-ecrire-et-penser-par-soi-meme-240096. Plutôt que de s’incliner devant les performances des algorithmes, il semble donc nécessaire de s’interroger sur les enjeux des nouvelles machines d’écriture automatisées pour nos capacités de pensée.
5. La prolétarisation symbolique et linguistique
Cette interrogation semble d’autant plus nécessaire que comme l’ont montré les travaux de Stiegler, les supports techniques de mémoire, de symboles et de savoirs sont « pharmacologiques » : tout aussi nécessaires soient-ils à l’exercice des facultés mentales ou intellectuelles, ils peuvent aussi « toujours provoquer une atrophie de la vie de l’esprit » et nous « empêcher de penserB. Stiegler, « Pharmacologie de l’épistémé numérique », art. cit., p. 21 et B. Stiegler, A. Béja, M.-O Padis , « Le numérique empêche-t-il de penser ? », Esprit, 2014. ». Stiegler s’inspire ici de la notion grecque de pharmakon, qui désigne à la fois le poison et le remède et que Platon mobilise dans le Phèdre pour décrire les effets de la technique de l’écriture pour la mémoire : l’écriture augmente la mémoire en permettant l’extériorisation et la conservation des savoirs, mais elle risque aussi de provoquer l’oubli si les citoyens cessent d’entraîner leurs facultés mnésiques et se reposent sur les supports écrits. Autrement dit, au moment même où elle augmente les capacités mémorielles, la mémoire artificielle de l’écriture les diminuent aussi. De même, comme nous allons le voir, au moment même où elle augmente les capacités intellectuelles, l’intelligence artificielle des algorithmes les diminuent aussi. La perspective pharmacologique, qui considère l’ambivalence intrinsèque de prothèses techniques prend donc le contre-pied des discours transhumanistes : il n’y a pas de pure augmentation technologique, l’augmentation est aussi toujours une diminution, tout gain implique une perte et tout remède peut devenir un poison.
Il en va de même dans le cas des machines textuelles algorithmiques et computationnelles, à ceci près que ce ne sont plus seulement les capacités de mémoire qui se voient menacées : lorsque nous demandons à ChatGPT de générer automatiquement un texte, nous lui déléguons non seulement nos facultés de mémoire, mais aussi nos facultés de synthèse, de réflexion et d’imagination. Écrire un texte, en effet, suppose de se remémorer les souvenirs de certaines lectures, de sélectionner parmi les idées, de réfléchir au sens à produire et d’imaginer le public auquel le texte se destine. Au lieu de former et d’exprimer nos propres pensées, à partir de nos expériences et de nos souvenirs singuliers, mais aussi à partir de nos désirs et de nos attentes qui nous permettent de synthétiser les éléments du passé en les orientant vers un sens et en produisant de la nouveauté, nous risquons de nous reposer sur des automates algorithmiques et de cesser d’exercer ces facultés, c’est-à-dire, de désapprendre à écrire, à exprimer et à penser (Alombert et Giraud, 2024, 68)A. Alombert et G. Giraud, Le capital que je ne suis pas ! Mettre l’économie et le numérique au service de l’avenir, op. cit., p. 68.. De même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques, conduisant à ce que Karl Marx décrivait comme un processus de prolétarisation des ouvriers, de même, le savoir-écrire (et avec lui le savoir-penser), a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, conduisant à ce Bernard Stiegler décrivait comme un processus de « prolétarisation généralisée », touchant non seulement les savoir-faire, mais aussi les savoir-vivre et les savoir-penserK. Marx, Le Manifeste du parti communiste [1848], Paris, Editions sociales, 1986 et B. Stiegler, La société automatique t.1 L’avenir du travail, Paris, Fayard, 2015..
En effet, le fait d’interagir avec des chatbots censés répondre immédiatement à nos requêtes pour nous fournir les informations demandées risque de nous habituer à un usage purement impératif et informationnel du langage, alors même que le langage est avant tout un lieu de révélation de soi et d’adresse à l’autre : nous ne nous parlons pas simplement pour nous donner des ordres ou échanger des informations, mais avant tout pour nous apparaître les uns aux autres et pour nous relier collectivement. Outre ses nombreuses fonctions performatives (la promesse, le pardon, la politesse), le langage est aussi le lieu où les conflits peuvent se transposer sur un plan symbolique en s’exprimant sous forme de discussions argumentées plutôt qu’à travers des affrontements violents. En ce sens, non seulement les savoir-vivre, mais aussi les relations sociales pacifiées semblent menacées par la délégation des facultés de parler et d’écouter.
Quant aux savoir-penser, il n’y a pas de pensée hors de son expression matérialisée dans des symboles sensibles (images, sons, gestes, lettres, textes, …) : le fait de déléguer nos capacités d’expression pourrait donc menacer aussi nos capacités de penser. Par exemple, nous n’apprenons pas à écrire pour le simple plaisir de transmettre ou de communiquer des informations, mais bien pour former nos esprits à travers des techniques de grammaire, d’argumentation, de résumé, de narration. Le remplacement de ces techniques par la rédaction de « prompts » standardisés qui n’ont pas vocation à être lus par des lecteurs interprétant leur sens mais seulement à être effectués par des calculs de probabilités (imperméables à l’humour, à l’ironie, au second degré, à l’équivocité) risquent d’appauvrir les capacités à écrire, à réfléchir et à penser. Même s’il est tout à fait possible de subvertir ces dispositifs pour en faire des usages conversationnels et collectifs, ils sont avant tout conçus pour se substituer aux capacités expressives des usagers en leur facilitant la tâche et en augmentant leur productivité. Utilisées facilement et massivement, les machines d’écriture contemporaines risquent néanmoins d’engendrer un processus de prolétarisation généralisées, en dépossédant les individus de leurs capacités mentales comme de leurs capacités sociales.
6. La prolifération des clichés et l’élimination des singularités
Mais là n’est pas le seul risque de l’usage massif de ces dispositifs. Si les textes automatiquement générés semblent toujours bien construits du point de vue de la grammaire, de la syntaxe ou de l’orthographe, et même des articulations logiques, leur rapport à la vérité, quant à lui, paraît problématique, puisqu’ils sont produits sur la base de calculs statistiques. Nul processus d’interprétation, de réflexion, de vérification, de délibération ou de certification ne préside à l’élaboration des produits textuels engendrés : ils ne constituent donc ni des informations fiables ni des savoirs certifiés, mais des suites probables de signes. Ils peuvent donc véhiculer toutes sortes de fausses informations dans un langage très vraisemblable et très standardisé, qui deviennent, de ce fait, indiscernables des informations certifiées. Il en va de même pour les images et les vidéos automatiquement générés. Or la circulation de ce type de contenu dans l’espace médiatique numérique perturbe en profondeur l’exercice de la démocratie. Les élections présidentielles américaines de 2016 avaient été marquées par l’affaire Facebook-Cambridge Analytica, durant laquelle les données collectées sur Facebook avaient servi aux équipes de campagnes de Donald Trump à cibler les électeurs indécis en leur suggérant des contenus susceptibles de les influencer. Les élections présidentielles américaines de 2024 furent quant à elles marquées par la génération et la circulation de toutes sortes de deep fakes (contenus imagés, vidéos ou audios truqués) : par exemple, des photos truquées affichant Donald Trump en compagnie de groupes de supporters afro-américains pour séduire cet électorat ou bien des appels audio imitant la voix de Joe Biden déconseillant aux démocrates de voter lors des primairesC. Naves, « Elections américaines : Donald Trump et la guerre des deep fakes », Nouvel Obs, 3 avril 2024 : https://www.nouvelobs.com/chroniques/20240403.OBS86608/elections-americaines-donald-trump-et-la-guerre-des-deepfakes.html. Dans les années 2000, Stiegler parlait de « télécratie » et de « dictature des audiences » pour décrire la manière dont les industries culturelles télévisuelles participaient à la formation des opinions et influençaient les électionsB. Stiegler, La télécratie contre la démocratie, Paris, Flammarion, 2006. : aujourd’hui, certains chercheurs parle d’ « algocratieA. Grimonpont, Algocratie. Vivre libre à l’heure des algorithmes, Paris, Actes Sud, 2022. » et de « dictature des algorithmesL. Nguyen Hoang et J.-L. Fourquet, La dictature des algorithmes. Une transition démocratique numérique est possible, Tallandier, 2024. » pour désigner la manière dont les recommandations algorithmiques et la génération automatique de contenus transforment affectent la vie politique.
Outre ces risques de désinformations qui influencent les comportements électoraux et mettent en péril l’avenir des démocraties, les calculs statistiques des algorithmes ne prennent pas en compte les expressions idiomatiques, singulières et inattendues qui disparaissent systématiquement dans les moyennes générées car elles ne sont, par définition, pas assez représentées. Quand bien même pourrait-on demander au système d’augmenter son degré d’originalité, le système ne peut que recombiner des données moyennes passées. D’ailleurs, le fait que ChatGPT génère des suites de signes à chaque fois différents est lié à l’introduction après-coup dans le système d’une fonction aléatoire par ses concepteurs, qui permet que les tokens sélectionnés ne soient pas toujours les mêmes et donne aux textes une apparence de diversitéA. Alombert et G. Longo, « Il n’y a pas d’intelligence artificielle : parlons d’automates numériques pour rompre avec les idéologies publicitaires », 11 juillet 2023 : https://www.humanite.fr/en-debat/-/il-ny-a-pas-dintelligence-artificielle-parlons-dautomates-numeriques-pour-rompre-avec-les-ideologies-publicitaires-802627, en dépit de leur structure très homogène et très standardisées. En dépit de cette illusion de créativité, les suites de signes les plus probables calculées par les algorithmes sont aussi les suites de signes les plus répandues, et les tendances majoritaires se voient donc intensifiées : d’où l’aggravation de certaines discriminations et de certains préjugés (racistes, homophobes, sexistes, …).
Tout se passe comme si le mythe de la singularité technologique masquait l’élimination systémique des singularités par les calculs statistiques sur des quantités massives de données, alors même que ce sont de telles singularités qui sont à l’origine du renouvellement des cultures et de l’évolution des sociétés. Qu’il s’agisse des savoirs théoriques, scientifiques, artistiques, pratiques, techniques, sportifs etc., la nouveauté, quand elle émerge dans un champ culturel donné, semble toujours produire un écart par rapport à la norme ou à la moyenne : elle s’inscrit contre les opinions dominantes et nécessite parfois de longues années avant de pouvoir être acceptée.
En éliminant systémiquement tout germe de nouveauté, c’est le renouvellement linguistique et culturel que les automates computationnels tendent à menacer. D’autant que les textes automatiquement générés ne tarderont pas à devenir dominants sur la Toile : ils intégreront de fait les données d’entraînement des gros modèles de langages, qui opéreront leurs calculs probabilistes sur des textes qui ont déjà été automatiquement produits. Cette probabilité au carré ne peut conduire qu’à une homogénéisation et une uniformisation progressive des textes générés en ligne : à quels types de textes aurons-nous à faire quand les chatbots se citeront les uns les autres de manière auto-référentielle, répétant en boucle leurs propres bêtises artificiellesJ. Vincent, « Google and Microsoft’s chatbots are already citing one another in a misinformation shitshow », The Verge, March 222023 : https://www.theverge.com/2023/3/22/23651564/google-microsoft-bard-bing-chatbots-misinformation ? Un récent article de recherche prévoit un « effondrement des modèles » qui deviennent de moins en moins pertinents quand ils se fondent sur des données d’entraînements non humaines. Se profile ainsi un appauvrissement considérable de la diversité linguistique et expressive, déjà largement réduite en raison de la domination de l’anglais sur le réseauE. Bender et al., « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », FAccT’21 : Proceedings of the 2021 ACM Conference on Fairness, Accountability and Transparency, mars 2021.et des recommandations automatiques de contenus, qui tendent à amplifier les contenus les plus « aimés », les « plus suivis » ou les plus vusConseil National du Numérique, Votre attention s’il vous plaît ! Quels leviers face à l’économie numérique de l’attention ?, janvier 2022 : https://cnnumerique.fr/votre-attention-sil-vous-plait-quels-leviers-face-leconomie-de-lattention.
7. De l’intelligence artificielle à l’intelligence collective
Pour éviter ces risques, rien ne sert de condamner les technologies algorithmiques qui constituent nos milieux quotidiens aujourd’hui : il s’agit plutôt de les transformer afin de les mettre au service des esprits individuels et collectifs, c’est-à-dire, de la réflexion, de l’interprétation, de la délibération, de la confrontation des points de vues et de la discussion argumentée. Tel était le projet de Bernard Stiegler à travers la proposition du « web herméneutique », désignant ainsi la nécessité de concevoir, de développer et d’expérimenter « des modèles d’algorithmes qui ne reposent pas sur les seuls calculs statistiques, mais qui prennent en compte les effets d’interprétation et de signification ». Loin de condamner le numérique ou les algorithmes, Stiegler invitait ainsi à promouvoir et expérimenter des « dispositifs alternatifs fondés sur les contributions de sujets réflexifs, ménageant dans les structures de données des champs interprétatifs, délibératifs et incalculablesB. Stiegler, Bifurquer. Il n’y a pas d’alternative., Paris, Les liens qui libèrent, 2020. ».
Selon cette proposition, il s’agit donc de dépasser le mythe de l’« intelligence artificielle », qui considère le dispositif technique comme un double de l’individu censé faire la même chose que lui de manière plus efficace et plus rapide, en envisageant les dispositifs numériques comme des supports d’intelligence collective, qui permettent l’exercice des capacités psychiques et l’intensification des relations sociales. Cette vision implique un changement de paradigme, qui ne mette plus les dispositifs numériques au service de la simulation ou de l’imitation, mais au service du partage et de la contribution : pour ce faire, il semble nécessaire de transformer en profondeur les modèles économiques et les fonctionnalités techniques des plateformes numériques, qui recèlent de nombreuses potentialités pour intensifier la vie de l’esprit, si l’on accepte de ne pas les abandonner aux logiques computationnelles et extractivistes qui commandent le capitalisme numérique.
Ainsi, l’encyclopédie collaborative WikipédiaSite de l’encyclopédie en ligne Wikipédia : https://fr.wikipedia.org/wiki/Wikip%C3%A9dia offre l’exemple d’une plateforme numérique alternative, qui s’oppose en tout point aux logiques à l’œuvre dans un dispositif comme ChatGPT : les textes rédigés sur Wikipédia constituent les contributions singulières de différents individus qui ont été certifiées par les pairs, à travers des processus d’interprétation, d’évaluation et de délibération collectifs. Ce sont ces processus de débat et de discussion, rendus possibles par un ensemble de règles partagées et transparentes, qui donnent aux contenus de l’encyclopédie collaborative leur fiabilité et leur crédit : les lecteurs peuvent faire confiance aux textes produits, car ceux-ci sont les fruits de controverses et de consensus laborieusement établis. Par ailleurs, les savoirs ainsi construits constituent un commun numérique au service de l’humanité, et non des marchandises informationnelles détenues par une entreprises privées. À l’inverse, ChatGPT appartient à une entreprise privée : OpenAI, dont la valeur sur le marché est désormais estimée à 150 milliards de dollars. Cette société ne donne pas accès à ses normes de fonctionnement interne, exploite des contenus préalablement publiés et produit des suites de mots probables et standardisés : les usagers sont réduits au statut de consommateurs, pouvant saisir des entrées et recevoir des sorties, mais sans possibilité de comprendre ou d’agir sur les mécanismes régissant le dispositif, et sans possibilité de croire aux textes générés.
L’encyclopédie collaborative Wikipédia n’est pas le seul exemple de dispositif à la fois numérique et herméneutique et contributif : une plateforme de recommandation collaborative comme celle réalisée par l’association TournesolSite de l’association Tournesol : https://tournesol.app/aboutpropose aussi d’agencer les calculs algorithmiques avec l’exercice du jugement, de l’interprétation et des contributions humaines, en proposant aux utilisateurs d’évaluer les contenus et de recommander les contenus qu’ils considèrent être d’utilité publique, par exemple pour leur clarté pédagogique ou la pertinence des sujets abordés. L’enjeu de ces recommandations collaboratives consiste à lutter contre les suggestions automatiques de contenus par les algorithmes conçus par les géants du numériques (en particulier les réseaux sociaux comme Facebook ou TikTok), qui fonctionnent selon des critères purement quantitatifs et mimétiques : les contenus sont recommandés en fonction du nombre de clics et les utilisateurs sont ciblés en fonction des autres utilisateurs qui ont regardé des contenus similaires à ceux qu’ils ont regardés. A l’inverse, le principe des recommandations collaboratives permettrait aux citoyens de reprendre la main sur la circulation des informations en ligne, en se recommandant mutuellement des contenus jugés pertinentsA. Alombert et J. Cattan, « Et si les réseaux sociaux devenaient une chance pour nos démocraties ? », The Conversation, 11 janvier 2024 : https://theconversation.com/et-si-les-reseaux-sociaux-devenaient-une-chance-pour-nos-democraties-220105.. Un tel dispositif, ou d’autres de mêmes types, permettraient ainsi d’œuvrer pour le « pluralisme algorithmique », recommandé par les récents États Généraux de l’Information et devenu essentiel pour assurer les libertés de pensée et d’expression dans l’espace médiatique numérique« Pour le pluralisme algorithmique », Tribune Collective, Le Monde, 25 septembre 2024 : https://www.lemonde.fr/idees/article/2024/09/25/pour-le-pluralisme-algorithmique_6332830_3232.html.
Conclusion
Les possibilités d’innovations numériques herméneutiques et contributives ne manquent donc pas : des dispositifs existent qui ne reposent pas sur la collecte massive des données et l’automatisation des esprits, qui ne requièrent pas l’entraînement intensif des algorithmes, ni les ressources énergétiques, ni les « travailleurs du clics » mobilisés par les « intelligence artificielles extractives ». Néanmoins, de telles innovations à la fois techniques et sociales ne pourront voir le jour qu’à condition de soutenir une véritable politique industrielle des technologies numériques, comprises comme des « technologie de l’esprit », et non comme des intelligences artificielles. Les supports numériques pourraient alors devenir des instruments spirituels soutenant l’intelligence collective, et non des dispositifs computationnels censés imiter ou simuler une supposée « intelligence humaine ». Une telle intelligence n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser, mais qui peuvent aussi les menacer. Le danger n’est pas dans l’avènement d’une singularité technologiques, mais dans l’ industrialisation des esprits, c’est-à-dire, dans la liquidation des singularités idiomatiques et dans l’uniformisation des milieux symboliques.
Bibliographie
Ouvrages
Alombert, A. (2023). Schizophrénie numérique. Allia.
Alombert, A. (2023). Penser l’humain et la technique. Derrida et Simondon après la métaphysique. ENS Editions.
Alombert, A. (2024). Le capital que je ne suis pas ! Mettre l’économie et le numérique au service de l’avenir. Fayard.
Goody, J. (1979). La raison graphique. Minuit.
Kurzweil, R. (1992). The age of intelligent machines, MIT Press.
Kruzweil, R. (1999). The age of spiritual machines, MIT Press.
Longo, G. (2023) Le cauchemar de Prométhée. Les sciences et leurs limites, PUF.
Platon (2006). Phèdre. GF Flammarion.
Marx, K. (1986). Le Manifeste du parti communiste [1848], Editions sociales.
Nguyen Hoang, L. et Fourquet, J.-L. (2024), La dictature des algorithmes, Tallandier.
Simondon, G. (2012). Du mode d’existence des objets techniques [1958], Aubier.
Simondon, G. « Individuation et invention. Notes complémentaire sur les conséquences de la notion d’individuation » L’individuation à la lumière des notions de forme et d’information,
Simondon, G. (2014).« Prolégomènes à une refonte de l’enseignement ». Sur la technique. PUF.
Stiegler, B. (2006), La télécratie contre la démocratie, Paris, Flammarion.
Stiegler, B. (2015). La société automatique t.1 L’avenir du travail. Fayard.
Stiegler, B. (2020). Bifurquer. Il n’y a pas d’alternative. Les liens qui libèrent.
Wolf, M. (2015). Proust et le calamar. Abeille et Castor.
Wolf, M. (2018). Reader, Come Home: The Reading Brain in a Digital World. Harper.
Articles académiques
Bender, E. et al. (2021). « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », FAccT’21 : Proceedings of the 2021 ACM Conference on Fairness, Accountability and Transparency.
Goody, J. (2007). « Les technologies de l’intellect », Pouvoirs et savoirs de l’écrit. La dispute.
Hayles, N. K. (2007). « Hyper and deep attention : the generational divide in cognitive modes ». Profession, pp. 187-199.
Stiegler, B. (2014). « Pharmacologie de l’épistémé numérique ». Organologie des savoirs et technologies de la connaissance. FYP Editions.
B. Stiegler, A. Béja, M.-O Padis (2014), « Le numérique empêche-t-il de penser ? », Esprit.
Articles de presse
A. Alombert et G. Longo, « Il n’y a pas d’intelligence artificielle : parlons d’automates numériques pour rompre avec les idéologies publicitaires! », L’Humanité, juillet 2023.
A. Alombert et J. Cattan, « Et si les réseaux sociaux devenaient une chance pour nos démocraties ? », The Conversation, 11 janvier 2024.
F. Benoit, « Data centers, leur consommation d’eau va explocer », Reporterre, 29 janvier 2024.
URL : https://reporterre.net/Data-centers-leur-consommation-d-eau-va-exploser
A. Casilli, Entretien pour Le Grand Continent, 7 avril 2023.
URL : https://www.casilli.fr/2023/04/08/grand-entretien-pour-le-grand-continent-7-avril-2023/
T. Créquer, « Trop de data centers, l’Irlande risque la panne électrique », Reporterre, 2 décembre 2021 : https://reporterre.net/Trop-de-data-centers-l-Irlande-risque-la-panne-electrique
D. J. Gunkel, « What’s in a Name? Cybernetics vs AI », Sublationmag, 9 June 2023 .
URL : https://www.sublationmag.com/post/what-s-in-a-name-cybernetics-vs-ai
G. Livingstone, « ‘It’s pillage’: thirsty Uruguayans decry Google’s plan to exploit water supply », The Guardian, 11 juillet 2023.
G. Longo, « Complexité, science et démocratie », Glass Bead.
N. Michaels, « L’IA générative a-t-elle fait exploser la consmommation d’eau des géants de la tech ? », Geo, 12 septembre 2023.
E. Musk et al., « Pause Giant AI Experiments », Future of life Institute, March 222023 :
URL : https://futureoflife.org/open-letter/pause-giant-ai-experiments/
J. Vincent, « Google and Microsoft’s chatbots are already citing one another in a misinformation shitshow », The Verge, March 222023 .
URL : https://www.theverge.com/2023/3/22/23651564/google-microsoft-bard-bing-chatbots-misinformation
A. Rouvroy, « Big data : l’enjeu est moins la donnée personnelle que la disparition de la personne », Blog Binaire, 22 janvier 2016.
Y. LeCun, « L’intelligence artificielle a moins de sens commun qu’un rat », entretien avec S. Sermondadaz, Sciences et avenir, 24 octobre 2018 .
Conseil National du Numérique, Votre attention s’il vous plaît ! Quels leviers face à l’économie numérique de l’attention ?, janvier 2022 : https://cnnumerique.fr/votre-attention-sil-vous-plait-quels-leviers-face-leconomie-de-lattention