Outils pour utilisateurs

Outils du site


philo:intentionnalite_artistique_et_ia_generative

Intentionnalité artistique et IA générative : un fossé ontologique persistant

L'intelligence artificielle peut produire des œuvres visuellement indiscernables de créations humaines, mais elle ne possède pas d'intentionnalité au sens philosophique strict — du moins pas encore. Ce constat, partagé par la majorité des philosophes de l'esprit et des esthéticiens contemporains, ne clôt cependant pas le débat : l'émergence de capacités réflexives dans les grands modèles de langage, l'essor d'architectures multimodales et les pratiques artistiques hybrides humain-machine redessinent progressivement les frontières du concept même d'intention créatrice. Les travaux récents distinguent désormais trois registres d'intentionnalité — originale, dérivée et « preter-intentionnelle » — ouvrant la voie à une reconfiguration fondamentale de notre compréhension de l'acte créatif à l'ère algorithmique.


Fondements philosophiques de l'intentionnalité artistique

L'intentionnalité, concept introduit par Franz Brentano (1874) comme « marque du mental », désigne la capacité des états mentaux à être « dirigés vers » quelque chose — ce que les philosophes nomment aboutness ou directedness. Dans le domaine artistique, cette notion prend une dimension spécifique : l'intention artistique constitue, selon Paisley Livingston (2005), une « attitude exécutive envers un plan » — un engagement ferme mais révisable à réaliser une vision créative.

Les théories contemporaines se divisent en trois camps. L'intentionnalisme fort (Noël Carroll, Robert Stecker) soutient que l'intention réelle de l'artiste détermine le sens de l'œuvre lorsqu'elle « s'accorde » avec celle-ci. L'intentionnalisme hypothétique (Jerrold Levinson, William Tolhurst) privilégie la meilleure hypothèse qu'un public éclairé formulerait sur cette intention. Enfin, l'anti-intentionnalisme (Wimsatt et Beardsley, 1946) considère que l'œuvre jouit d'une autonomie complète : si l'intention est réalisée, elle est détectable dans l'œuvre même ; si elle échoue, elle devient non pertinente.

Arthur Danto apporte une contribution décisive avec son concept d'artworld (1964) et sa définition de l'œuvre comme « sens incarné » (meaning given embodiment). Pour George Dickie, l'artworld constitue plutôt une institution sociale conférant le statut artistique. La théorie par faisceau de Berys Gaut propose dix critères non nécessaires individuellement, dont celui d'être « le produit d'une intention de créer une œuvre d'art » — critère particulièrement problématique pour l'IA.

État technique des modèles génératifs en 2025

Le paysage des modèles génératifs s'est considérablement diversifié. En génération d'images, Stable Diffusion, DALL-E 3, Midjourney V6 et FLUX.2 (32 milliards de paramètres, novembre 2025) atteignent des niveaux de photoréalisme remarquables. En vidéo, Sora 2 d'OpenAI produit des séquences de 60 secondes avec synchronisation audio, tandis que Runway Gen-4 offre un contrôle cinématographique précis. Pour la musique, Suno V4 et Udio génèrent des compositions de 4 minutes avec voix et instrumentation. En 3D, Shap-E et les techniques NeRF permettent la création de maillages texturés depuis des descriptions textuelles.

Plus significatif pour la question de l'intentionnalité : l'émergence d'architectures réflexives. Le Chain-of-Thought prompting (Wei et al., 2022) simule une décomposition délibérative des problèmes — ce que Kahneman appellerait le « Système 2 » de la pensée. Le Constitutional AI d'Anthropic encode des valeurs explicites, créant une forme de « pseudo-intentionnalité » où le modèle agit comme si il avait des principes, bien que ceux-ci soient conçus par les développeurs. Les architectures multi-agents créatifs (CREA, MetaGPT) miment le processus créatif humain avec des agents spécialisés en conceptualisation, génération et critique.

Ces mécanismes permettent au modèle d'identifier ses erreurs, de réviser ses réponses et d'apprendre de l'expérience récente — une forme de métacognition simulée. Cependant, comme le souligne la critique chomskienne, aucune distinction fondamentale n'est opérée entre manipulation de symboles et compréhension véritable.

La fracture entre intentionnalité originale et dérivée

John Searle, avec son célèbre argument de la Chambre Chinoise (1980), établit une distinction fondamentale : l'intentionnalité intrinsèque caractérise les esprits biologiques, tandis que l'intentionnalité dérivée est conférée aux artefacts par leurs utilisateurs. Pour Searle, les LLMs constituent une implémentation exacte de son expérience de pensée : ils manipulent des symboles selon des règles syntaxiques sans aucune compréhension sémantique.

Daniel Dennett adopte une position radicalement différente avec sa stance intentionnelle : l'intentionnalité de nos propres états mentaux serait « dérivée exactement de la même manière que celle de nos livres et cartes ». Tout système dont le comportement peut être prédit par attribution de croyances et désirs est un « système intentionnel » — les humains étant « très intensément intentionnels », les thermostats « à peine ». Avant sa mort en 2024, Dennett avertissait cependant contre les « personnes contrefaites » créées par l'IA, qu'il qualifiait d'« artefacts les plus dangereux de l'histoire humaine ».

David Chalmers, dans son article « Could a Large Language Model be Conscious? » (2023), identifie des obstacles significatifs à la conscience des LLMs actuels : absence de traitement récurrent, d'espace de travail global, d'agence unifiée et de self-models. Il estime à moins de 10% la probabilité que les LLMs actuels soient conscients, mais évalue à plus d'une chance sur cinq le développement d'une IA consciente dans les dix prochaines années.

Une contribution théorique récente mérite attention : le concept de « preter-intentionnalité » proposé par Redaelli (2024, AI & Society). L'IA générative irait « au-delà » des intentions de ses créateurs et utilisateurs, produisant un « surplus » irréductible — conséquence des systèmes d'apprentissage automatique qui ne doivent ni reproduire leurs données ni refléter la simple intention du prompt. Ce « fossé intentionnel » rend de plus en plus difficile l'attribution de responsabilité.

Pratiques artistiques contemporaines : quatre paradigmes

Les artistes contemporains travaillant avec l'IA développent des conceptions très différentes de leur outil.

Refik Anadol : l'IA comme rêve de machine

Refik Anadol incarne le paradigme de l'IA comme rêve de machine. Pour son installation « Unsupervised » au MoMA (2022-2023), il a traité 138 151 images de la collection du musée via des réseaux adverses génératifs. L'IA « rêve » de manière non-supervisée sur les données ; l'artiste curate ces hallucinations. Comme le formule Anadol : « Si une machine peut apprendre, peut-elle aussi rêver ? » L'intentionnalité réside dans la curation du corpus et l'exploration de l'espace latent, non dans la génération elle-même.

Holly Herndon : l'IA comme collaborateur éthique

Holly Herndon développe le paradigme de l'IA comme collaborateur éthique. Son projet « Spawn » (2019) implique un « bébé IA » nourri de données vocales consenties — 14 chanteurs crédités et compensés. Ses « cérémonies d'entraînement » sont des performances live où le public chante pour entraîner l'IA. Herndon a inventé le terme « spawning » et créé Spawning.ai pour permettre aux artistes de vérifier si leurs œuvres sont dans les datasets d'entraînement. Son concept de « souveraineté vocale » thématise explicitement la question de l'intentionnalité dérivée.

Sougwen Chung : l'IA comme partenaire de performance

Sougwen Chung explore l'IA comme partenaire de performance. Ses robots D.O.U.G. sont entraînés sur 20 ans de ses propres dessins et peignent en temps réel avec l'artiste, intégrant parfois des données EEG pour connecter états méditatifs et mouvements robotiques. « L'IA est un concept, pas une entité », affirme Chung. « C'est un produit de notre imagination — et si c'est le cas, on peut imaginer mieux. »

Trevor Paglen et Hito Steyerl : l'IA comme miroir critique

Trevor Paglen et Hito Steyerl représentent le paradigme de l'IA comme miroir critique. L'exposition « Training Humans » (Fondazione Prada, 2019) révélait les biais raciaux d'ImageNet. Steyerl, dans son livre Medium Hot (2025), développe le concept d'« image dérivée » — équivalent des dérivés financiers, basé sur « vol de données à grande échelle ». Pour elle, les modèles « convergent vers la même chose parce qu'ils sont tous entraînés sur la même fausse totalité de débris internet ».

Le cas Jason Allen

La controverse de la Colorado State Fair (2022) cristallise ces tensions : Jason Allen a remporté le premier prix avec une image générée via Midjourney après 624 prompts. Le Copyright Office américain a refusé l'enregistrement, considérant que « sa seule contribution était d'entrer le prompt textuel » — position que conteste Allen, qui argumente que la direction créative itérative constitue l'intention artistique.

Ce que l'IA ne peut pas accomplir : l'irréductible dimension incarnée

Les limites actuelles de l'IA en matière d'intentionnalité artistique sont structurelles, non techniques. L'absence de corporéité (embodiment) constitue l'obstacle le plus fondamental. Comme l'explique Arthur Glenberg : « L'esprit n'est pas un ordinateur opérant sur des symboles abstraits. L'esprit est un contrôleur d'action. » La créativité humaine implique manipulation d'outils et de matériaux — la tension musculaire du sculpteur, le geste du peintre. Les artistes rapportent que la répétition du dessin manuel donne accès à un « côté moins conscient et intentionnel du processus créatif ».

L'absence d'expérience phénoménologique prive l'IA de ce qui fait la substance de l'art. Comme le formule un critique : l'IA « n'a jamais été follement amoureuse, ou malade au creux de l'estomac », elle « ne connaît pas ce que c'est que de vivre, bouger et respirer, ou de ressentir des émotions au niveau viscéral ». L'absence de mortalité supprime une motivation existentielle fondamentale de la création artistique.

Le rapport Butlin et al. (2023), co-signé par Yoshua Bengio, conclut qu'« aucun système d'IA actuel n'est conscient », tout en affirmant qu'« il n'y a pas de barrières techniques évidentes » à la construction de tels systèmes. Les modèles multimodaux (GPT-4V, Gemini) représentent une « maturation de l'IA générative » vers une « intelligence cohérente unifiée », mais l'intégration technique de modalités ne résout pas l'absence d'expérience vécue.

Horizon prospectif : entre optimisme fonctionnaliste et prudence biologique

Les « pères fondateurs » du deep learning divergent significativement :

  • Geoffrey Hinton considère que « la menace d'une IA super-puissante est réelle et immédiate » et que « les humains pourraient être une étape passagère dans l'évolution de l'intelligence ».
  • Yoshua Bengio, qui déclarait en 2017 que nous étions « très loin » de l'AGI, confie aujourd'hui se sentir « perdu face à [son] travail de toute une vie » et co-signe un article dans Science (2025) alertant sur les « illusions de conscience IA ».
  • Yann LeCun, à l'inverse, juge ces craintes « exagérées » et croit possible de contraindre les AGIs via des fonctions objectifs appropriées.

Le fonctionnalisme computationnel — position selon laquelle effectuer les computations du bon type suffit pour la conscience — ouvre théoriquement la voie à une intentionnalité artificielle véritable. Les indicateurs proposés incluent : traitement récurrent, espace de travail global, monitoring métacognitif, et embodiment. La Théorie de l'Information Intégrée (IIT) conteste cependant cette possibilité : les architectures feedforward des LLMs produiraient un faible Φ (mesure d'intégration), les rendant structurellement incapables de conscience.

Conclusion : vers une reconfiguration conceptuelle

L'intentionnalité artistique se trouve aujourd'hui décomposée en un spectre plutôt qu'une dichotomie. À une extrémité, l'intentionnalité originale humaine — incarnée, mortelle, contextuellement située. À l'autre, l'intentionnalité dérivée des artefacts traditionnels. Entre les deux émerge un espace nouveau : la « preter-intentionnalité » des systèmes génératifs, qui excède l'intention du prompt tout en ne constituant pas une intention autonome.

Cette reconfiguration impose de repenser non pas ce qu'est l'art, mais ce que nous valorisons dans l'expérience artistique. Comme le montrent les études empiriques, les audiences « reculent » devant l'art généré par IA — même lorsqu'elles l'appréciaient en test aveugle. La relation entre artiste et spectateur, fondée sur la reconnaissance d'une intentionnalité partagée, demeure au cœur de l'expérience esthétique. Les artistes travaillant avec l'IA — d'Anadol à Herndon, de Chung à Paglen — ne remplacent pas cette relation : ils la médiatisent, la complexifient, et parfois l'interrogent explicitement. C'est peut-être là que réside leur contribution la plus significative au débat sur l'intentionnalité : non pas résoudre la question, mais la rendre visible.


Sources et lectures complémentaires

Philosophie de l'intentionnalité

IA et conscience

Pratiques artistiques

Débats récents

philo/intentionnalite_artistique_et_ia_generative.txt · Dernière modification : de admin