La face cachée de l’« intelligence artificielle » : enjeux écologiques, psychiques et politiques des automates numériques

Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose. 

Introduction 

Le jeudi 15 février 2024, l’entreprise OpenAI annonçait l’arrivée imminente de Sora, un nouveau logiciel d’« intelligence artificielle générative » capable de produire des images ultraréalistes sur la base de commandes écrites (les « prompts »). Cette annonce s’inscrit dans un contexte de course à l’innovation enclenchée par la même entreprise un peu plus d’un an auparavant, à travers la diffusion massive d’un dispositif nommé ChatGPT. Ce logiciel de génération automatique de texte agence de gros modèles de langage (LLM) comme GPT-3 ou GPT-4 avec une interface interactive permettant aux utilisateurs de passer commande pour obtenir non pas des images ultraréalistes, mais des textes très standardisés qui ressemblent à s’y méprendre à des textes écrits par des humains. Depuis presque deux ans, les débats autour des bienfaits et des méfaits de ces « intelligences artificielles génératives » n’ont cessé de se déployer, générant autant de fantasmes que d’inquiétudes.  

Cependant, tant qu’elles portent sur cette notion d’« intelligence artificielle », il n’est pas sûr que les questions soient bien posées. Dans les discours médiatiques, en particulier, un ensemble de métaphores anthropomorphiques, comme celles d’ « intelligence artificielle », d’ « apprentissage automatique », d’ « agents conversationnels », sont souvent utilisées. A travers de telles dénominations, nous attribuons implicitement à des dispositifs électroniques et numériques des capacités mentales, intellectuelles ou psychiques (l’intelligence, l’apprentissage, l’agentivité) auparavant…

Cet article est temporairement en accès restreint

Retrouvez le sur le site de notre partenaire CAIRN