L’universitaire partage son expertise et sa vision des défis de l’intelligence artificielle en général et dans le domaine de l’art en particulier.
Né en 1968, à New York, Antonio Somaini est professeur de théorie du cinéma, des médias et de la culture visuelle à l’Université Sorbonne Nouvelle. Depuis septembre 2022, il est aussi membre sénior de l’Institut universitaire de France. Il est le codirecteur du dernier numéro de la revue annuelle Transbordeur, « Photographie et algorithmes » (éditions Macula). Il est le commissaire de l’exposition « Le Monde selon l’IA », au Jeu de Paume, jusqu’au 21 septembre.
C’est de voir comment les artistes depuis une dizaine d’années réagissent à la présence croissante d’algorithmes et de modèles de l’IA qui s’infiltrent partout à travers toutes les strates de la société et de la culture, de l’économie et de la science, de la technologie et des opérations militaires…, car je pense qu’ils sont actuellement à l’avant-garde dans la tentative de comprendre comment l’IA transforme notre relation visuelle et sensible au monde. Une exposition de ce type demande aussi de donner des jalons et des explications de ce que recouvrent certains termes obscurs pour beaucoup de gens.
C’est le mathématicien et informaticien John McCarthy qui en fait pour la première fois usage en 1955 dans sa note d’intention au Dartmouth Summer Research Project on Artificial Intelligence qui s’est tenu un an plus tard et qui a consacré l’IA comme un champ de recherche à part entière. Depuis, le terme d’« intelligence artificielle » a souvent changé de signification, en lien avec le développement des technologies informatiques. Aujourd’hui, je préfère d’ailleurs utiliser l’acronyme « IA », plus abstrait car l’expression « intelligence artificielle » renvoie un peu trop à l’idée d’une intelligence qui deviendrait semblable à l’intelligence humaine alors que dans son état actuel l’IA est essentiellement une question de modèles mathématiques qui effectuent des opérations de plus en plus complexes et qui reposent sur des processus de calcul extrêmement énergivores et sur l’extraction massive de ressources. Pour entraîner ces modèles, des quantités considérables de données sont collectées sur Internet sans consentement de leurs producteurs. Par ailleurs, des millions de personnes dans le Sud global sous-rémunérées et exploitées effectuent des tâches en ligne sur Internet, nécessaires à l’entraînement des systèmes d’IA et au contrôle des contenus qu’ils génèrent. C’est un monde souvent caché qu’abordent au Jeu de Paume les œuvres d’Agnieszka Kurant et de Hito Steyerl, avec leur tentative de rendre visible la contribution de ces « travailleurs du clic ». Il est important de prendre la mesure de la dimension matérielle et environnementale de l’IA, de cartographier ces espaces latents.
Cette expression se réfère à l’espace mathématique abstrait au sein duquel des milliards de données (textes, images et sons trouvés sur Internet) sont encodés et transformés en vecteurs, et à partir duquel, par différentes opérations mathématiques, de nouvelles images et/ou de nouveaux textes émergeront. Dans une culture de plus en plus traversée par des modèles d’IA, les espaces latents jouent un rôle clé dans le traitement et la transformation de quantités massives de contenus visuels et textuels stockés sur Internet. Il s’agit donc de comprendre leur fonctionnement compte tenu de leur impact profond sur notre relation aux images et sur notre culture visuelle. Chaque modèle d’IA, élaboré par une des grandes sociétés de la tech (Google, Meta, OpenAI…), a son propre espace latent. Souvent ces sociétés ne donnent aucune information sur l’architecture et les données utilisées pour l’entraînement des modèles car elles sont concurrentes. L’inaccessibilité des espaces latents est aussi liée au fait que ces entités abstraites et mathématiques ont des dimensions qu’aucun chercheur pourrait lui-même explorer dans leur totalité ni établir la chaîne de calculs qui mène par exemple d’un prompt dans ChatGPT à la génération d’une image. Tout ce qui s’y se passe est trop complexe et engage trop de calculs, de paramètres inaccessibles.
C’est inévitablement anxiogène car l’IA redéfinit profondément la place de l’humain et nous amène à repenser la ligne entre l’humain et le non humain, entre ce qui vient de notre pensée, de nos idées et de nos croyances, et ce qui est élaboré automatiquement par ces systèmes. C’est l’être humain qui est remis en question, repositionné, recadré. Ce qui est très inquiétant en termes d’impact sur le monde du travail par exemple, mais en même temps, plus on connaît ces systèmes, plus on peut participer à ces vastes transformations et ne pas les subir.
Il y a une distinction à faire entre les modèles d’IA diffusés en open source (accès libre) comme Stable Diffusion – un modèle text-to-image, pour la génération d’images à partir de prompts, que l’on peut télécharger et modifier – et ceux sur lesquels les sociétés qui les commercialisent, gardent complètement le contrôle en exerçant une censure sur l’utilisation de certains mots ou certaines images : c’est le cas par exemple de ChatGPT de OpenAI. Au Jeu de Paume, plusieurs artistes nous montrent qu’on peut s’emparer de ces modèles pour les comprendre, les détourner et en faire autre chose que ce qu’imposent les grandes sociétés de la tech. Le projet « Exposing.ai » d’Adam Harvey et Jules Laplace présente ainsi une cartographie détaillée de la manière dont sont entraînés les systèmes d’IA de reconnaissance faciale et d’analyse biométrique. Les artistes et musiciens Holly Herndon et Mat Dryhurst, qui militent pour une IA Collective, ouverte et juste, sont en train d’entraîner un nouveau modèle text-to-image en libre accès, Public Diffusion, entraîné avec des images libres de droits ou pour lesquelles les gens ont donné leurs consentements. D’autres artistes utilisent des modèles ouverts comme Stable Diffusion pour explorer leurs espaces latents et en faire émerger des images qui visualisent des passés possibles et des histoires contrefactuelles : c’est le cas de Grégory Chatonsky, qui dans son installation met en scène des fragments des vies possibles qu’il aurait pu vivre.
C’est une grande question. Dans un article paru dans la revue Nature, en juillet 2024, des chercheurs ont montré que l’entraînement des modèles d’IA avec des données générées par l’IA risque de provoquer un « Model Collpase », une détérioration des modèles. Il est donc dans l’intérêt des sociétés de l’IA d’essayer de distinguer les textes et les images générées par l’IA de celles qui ne sont pas générées par elle. Cette tâche, par contre, devient de plus en plus difficile, parce que les images et les textes deviennent de plus en plus « hybrides » : ils sont le résultat de collaborations de plus en plus complexes entre humains et modèles d’IA.
Il est difficile de faire des prévisions car tout change à une telle vitesse. Mais je pense que nous devons tous faire vraiment un effort d’alphabétisation par rapport à ce nouveau contexte et essayer de comprendre comment ces modèles d’IA fonctionnent, quels en sont les termes, le langage afin de pouvoir, et savoir, les analyser et, autant que possible, les maîtriser. Car nous sommes au milieu d’un tournant technologique majeur que l’on peut comparer à l’arrivée d’Internet dans les années 1990 et si l’on va encore plus en arrière à l’invention de la photographie ou à celle de l’imprimerie. À l’état actuel, l’IA est encore profondément humaine : partout, il y a des choix faits par des humains. Est-ce que ce sera le cas dans cinq ou dix ans ? On peut craindre que certains de ces systèmes deviennent autonomes au point de viser leur propre survie ou de viser leur propre amélioration comme priorité, et que cela échappe aux sociétés qui produisent ces modèles. Mais on n’en est pas encore là.
L’accès à la totalité de l’article est réservé à nos abonné(e)s
Antonio Somaini : « Plus on connaît l’IA, moins on la subit »
Déjà abonné(e) ?
Se connecterPas encore abonné(e) ?
Avec notre offre sans engagement,
• Accédez à tous les contenus du site
• Soutenez une rédaction indépendante
• Recevez la newsletter quotidienne
Abonnez-vous dès 1 €Cet article a été publié dans Le Journal des Arts n°652 du 28 mars 2025, avec le titre suivant : Antonio Somaini, : « Plus on connaît l’IA, moins on la subit »