Introduction
Le jeudi 15 février 2024, l’entreprise OpenAI annonçait l’arrivée imminente de Sora, un nouveau logiciel d’« intelligence artificielle générative » capable de produire des images ultraréalistes sur la base de commandes écrites (les « prompts »). Cette annonce s’inscrit dans un contexte de course à l’innovation enclenchée par la même entreprise un peu plus d’un an auparavant, à travers la diffusion massive d’un dispositif nommé ChatGPT. Ce logiciel de génération automatique de texte agence de gros modèles de langage (LLM) comme GPT-3 ou GPT-4 avec une interface interactive permettant aux utilisateurs de passer commande pour obtenir non pas des images ultraréalistes, mais des textes très standardisés qui ressemblent à s’y méprendre à des textes écrits par des humains. Depuis presque deux ans, les débats autour des bienfaits et des méfaits de ces « intelligences artificielles génératives » n’ont cessé de se déployer, générant autant de fantasmes que d’inquiétudes.
Cependant, tant qu’elles portent sur cette notion d’« intelligence artificielle », il n’est pas sûr que les questions soient bien posées. Dans les discours médiatiques, en particulier, un ensemble de métaphores anthropomorphiques, comme celles d’ « intelligence artificielle », d’ « apprentissage automatique », d’ « agents conversationnels », sont souvent utilisées. A travers de telles dénominations, nous attribuons implicitement à des dispositifs électroniques et numériques des capacités mentales, intellectuelles ou psychiques (l’intelligence, l’apprentissage, l’agentivité) auparavant…