____________________________
Tout sur les artistes émergents qui explorent le pouvoir créatif de l’IA
Le diable, commentant le premier dessin tracé dans la terre par le premier homme, lui souffla à l’oreille : «c’est bien mais… est-ce de l’art?» (Orson Welles, F for Fake, 1972).
Portrait of Edmond of Belamy, 2018, de l’artiste IA « min G max D x [log (D(x))] + z [log(1 – D (G(z)))] ».
Questionner et repousser sans cesse les limites de ce qu’est, ou ce que devrait être, l’art, est la tâche que se sont assignée bon nombre d’artistes au cours du vingtième siècle, notamment dans le cadre de l’art dit conceptuel. Celui-ci constitue moins un mouvement artistique comme tel qu’il ne correspond en fait à l’adoption par l’artiste d’un point de vue critique le conduisant à prendre position dans son œuvre, ou plutôt à faire de son œuvre même une prise de position face au monde de l’art, et aussi face au monde tout court. Les frontières, notamment, entre l’art et le commerce, entre l’objet appelé traditionnellement « objet d’art » et l’objet manufacturé, l’objet utilitaire ou l’objet produit en série, ont été examinées et ont vu leur légitimité questionnée. Mais ce qui fait d’une œuvre d’art une « œuvre d’art » dans ce contexte réside dans la simplicité sans faute du geste typique de l’art conceptuel à son meilleur, ainsi que dans son caractère novateur et provocateur. La valeur de l’« œuvre » se confond ici avec l’assurance avec laquelle l’artiste passe de l’intention à l’action. Cette valeur est également fonction de la manière dont ladite intention et ladite action sont reçues et perçues dans le monde de l’art dans lequel elles s’inscrivent.
Intention. Le mot est lâché. Peut-il y avoir œuvre d’art sans intention ? « Je veux être une machine », affirmait Andy Warhol en 1963. De nos jours ce sont les machines qui deviennent des artistes. Mais peuvent-elles le vouloir vraiment ?
Andreas Mueller, For All Seasons, 2005
L’art créé par ordinateur remonte aux années 1950 et est loin d’être un nouveau phénomène. Le terme d’art « informatique » (« computer art ») lui-même date justement (est-ce une coïncidence ?) de 1963 ; et le premier article sur le sujet est paru en 1964[1]. Or cet article s’intitule justement « The Electronic Computer as an Artist »[2] (les italiques sont de moi). Dans les années 1990 et 2000, l’avènement du web a permis à l’art « web » ou « numérique » de s’épanouir sous de multiples formes en mettant notamment l’accent sur l’interactivité avec le spectateur/visiteur facilitée par ce nouveau médium.
Raymond Queneau, Cent mille milliards de poèmes, 1961
Le Magazine électronique du CIAC a publié entre 1997 et 2014 quarante numéros thématiques qui exploraient chacun une facette de ce type d’art. Je soulignerai plus particulièrement pour le propos qui nous occupera ici les numéros consacrés l’un à l’aléatoire[3] et l’autre à la notion de contrainte[4]. Dans ces numéros, nous nous sommes attachés dans plusieurs textes à remonter en amont, aux racines pré-informatiques et parfois fort lointaines du jeu entre le hasard et la nécessité, l’intentionnel et le non-intentionnel caractéristique de nombreux projets artistiques à travers le temps et en particulier à partir du début du vingtième siècle – des cadavres exquis à l’OULIPO[5] jusqu’à l’art généré par ordinateur – et ce afin de poser la question, en aval, de la nouveauté des propositions issues de l’art web et de de la nature de cette nouveauté. Ainsi, dans le dossier du numéro 24 sur la littérature à contraintes, Evelyne Boudroux, maître de conférence en Sciences de l’information et de la communication à l’Institut national des techniques de la documentation (INTD) à Paris, faisait observer que « la génération est entrée aujourd’hui dans de nombreuses œuvres de créations numériques. De la notion de texte à programme (tel que Perec l’aborde dans son organigramme intitulé « L’art et la manière d’aborder son chef de service pour lui demander une augmentation ») on est passé à celle de texte programmé, c’est-à-dire produit par un programme. C’est cette notion de programme qui a rassemblé dans le groupe Transitoire Observable, les auteurs Philippe Bootz, Alexandre Gherban, Tibor Papp, Jean-Pierre Balpe et Antoine Schmitt), autour de la notion de littérature et art programmés ». « Mais », se demandait-elle à la fin de son texte, « est-ce encore de la littérature… » ?[6]
La même question se repose aujourd’hui à propos de l’art « artificiel », c’est-à-dire des œuvres d’art créées par ou avec l’assistance d’une « intelligence artificielle ». Est-ce encore de l’art ?
L’intelligence artificielle est le mieux définie, dans le sens le plus large possible, comme le domaine consacré à la construction d’« agents intelligents » qui reçoivent des percepts de l’environnement et effectuent des actions, et qui imitent et dépassent parfois le comportement rationnel humain. Bien que l’intelligence artificielle ait ses racines dans la logique et dans la philosophie de l’esprit, le domaine est officiellement né lors d’une conférence parrainée par la Defense Advanced Research Projects Agency (DARPA) en 1956[7], où le terme « intelligence artificielle » a été inventé[8]. L’intelligence artificielle englobe de nombreux sous-domaines, les principaux étant la robotique, les systèmes experts (basés sur les connaissances) et l’apprentissage automatique (« machine learning »).
Le perceptron de Frank Rosenblatt (1957)
Au début de l’intelligence artificielle, les systèmes basés sur les règles dominaient le domaine. Ils se sont avérés très efficaces pour résoudre des problèmes et effectuer des tâches comme par exemple des opérations arithmétiques qui peuvent être décrites comme une liste de règles formelles explicites encodées à la main par des experts en informatique. Mais de nombreuses tâches plus intuitives, comme la reconnaissance de la parole ou des images, ne pouvaient pas être abordées de cette façon, car elles sont difficiles à décrire formellement. En revanche, les systèmes d’apprentissage automatique (dits les « apprenants ») n’ont pas besoin d’une liste explicite d’instructions pour effectuer une tâche ou résoudre un problème : ils apprennent par eux-mêmes en identifiant des motifs, en faisant des généralisations et des inférences à partir des données, sur la base desquelles ils sont capables de faire des prédictions précises sur du matériel jamais rencontré auparavant. L’apprentissage automatique n’est pas une idée nouvelle. Les précurseurs incluent le programme de jeu de dames d’Arthur Samuel créé en 1952[9] et le perceptron de Frank Rosenblatt en 1957[10]. Le perceptron de Frank Rosenblatt (1957). Inspiré des neurones du cerveau, c’est le premier système artificiel capable d’apprendre par expérience. Mais les systèmes d’apprentissage automatique ont connu une grande résurgence au cours des dernières années, grâce à l’explosion des méga-données et à l’augmentation spectaculaire de la puissance de l’ordinateur. Notons que l’apprentissage automatique (le « machine learning ») ne doit surtout pas être confondu avec l’apprentissage basé sur des réseaux de neurones (et dont l’apprentissage profond – le « deep learning » – consitue une forme particulièrement performante). L’apprentissage automatique englobe également d’autres types d’apprentissage, chacune nantie de ses propres langages et outils de choix[11].
Dans le monde de l’art, très récemment (en octobre 2018), une vente chez Christie’s a fait grand bruit et suscité une grande controverse. Il s’agit du « portrait » d’un gentleman imaginaire, Edmond de Belamy, dont l’« auteur » est un système de réseaux adverses génératifs (GAN en anglais, pour generative adversarial networks) (voir le portrait au début de cet article). Ce type de système a été proposé par Ian Goodfellow et al. en 2014. Les GANs tirent avantage du fait que les réseaux de neurones utilisés dans l’apprentissage profond et qui s’avèrent si performants dans de nombreux cas, notamment pour la reconnaissance des images et du langage, sont néanmoins faciles à tromper. Les hackers n’ont d’ailleurs pas manquer de s’en aviser. L’originalité des GANs est de se servir de cette faiblesse en la transformant en force pour améliorer la performance du réseau. Les GANs mettent ainsi en compétition deux réseaux de neurones. Le premier réseau (le générateur), entraîné à partir d’une base de données massives qui lui ont été fournies en cours d’apprentissage en guise d’exemples, génère une image. Le deuxième réseau (le discriminateur) doit déterminer l’origine de l’image : s’agit-il d’une image tirée de la base de données, ou d’une image créée par le générateur sur le modèle des exemples qui lui ont été fournis ? Le but est de générer une image aussi proche que possible des exemples contenus dans la base de données, afin d’arriver à tromper le discriminateur. Dans le cas du « portrait » d’Edmond de Belamy, le générateur a été nourri lors de son apprentissage d’une énorme base de données composée de portraits peints entre le XIVe et le XXe siècle. Au terme du processus, le GAN a généré des milliers de portraits parmi lesquels celui vendu chez Christie’s a été sélectionné, imprimé, encadré et signé à l’aide d’un fragment du code utilisé (« min G max D x [log (D(x))] + z [log(1 – D (G(z)))] ») par Obvious, un collectif d’étudiants français composé de Hugo Caselles-Dupré, Pierre Fautrel et Gauthier Vernier. L’« œuvre » a été adjugée à un acheteur anonyme au prix de 432,500 $.
La controverse a été suscitée par plusieurs facteurs. Premièrement, les membres du collectif ne sont pas les auteurs du code utilisé dans la production de l’« œuvre ». L’auteur du code est Robbie Barrat, un jeune développeur et artiste qui en a profité pour engager une discussion sur Twitter à ce propos[12].
Les autres facteurs de controverse nous intéressent plus particulièrement ici, parce qu’ils posent à nouveaux frais les questions abordées précédemment. Les membres d’Obvious attribuent à l’algorithme la création de leur œuvre. Leur devise est la suivante : « la créativité n’est pas seulement pour les humains ».
Mais à quel point cette affirmation est-elle vraie ? Et si elle est vraie, à quel point le statut d’œuvre d’art du portrait est-il remis en question ? Une machine peut-elle être la créatrice de quoi que ce soit ? Et quel effet cela fait-il d’être un ordinateur qui fait de l’art ? La machine peut-elle être considérée comme ayant des états intentionnels ? Une machine pour être créatrice doit-elle être considérée comme ayant des états intentionnels ? En quel sens l’art généré par ordinateur peut-il être considéré comme représentationnel ? Et que représente-t-il ? Que peut nous apprendre l’art généré par ordinateur sur la créativité ?
Nous poursuivrons cette réflexion que nous n’avons fait qu’amorcer ici dans les prochains numéros.
Notes :
[1] Voir Grant D. Taylor. When the Machine Made Art. The Troubled History of Computer Art. 2014, introduction et chapitre 1.
[2] Leslie Mezei et Arnold Rockmann, “The Electronic Computer as an Artist”, Canadian Art Magazine, vol. 21, no. 6, 1964, pp. 365–367.
[3] Magazine électronique du CIAC no 19, 2004, https://ciac.ca/documents/magazine/no_19/index.html
[4] Magazine électronique du CIAC no 24, 2006, https://ciac.ca/documents/magazine/no_24/index.html
[5] Ouvroir de littérature potentielle, fondé en 1960 par Raymond Queneau, Italo Calvino et Georges Perec, et d’autres. Site officiel : https://www.oulipo.net/
[6] Evelyne Boudroux, « De la contrainte au programme », Magazine électronique du CIAC no 24, 2006, https://ciac.ca/documents/magazine/no_24/dossier.htm
[7] La Defense Advanced Research Projects Agency est une agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire fondée en 1958. Voir : https://www.darpa.mil/
[8] Voir Selmer Bringsjord et Naveen Sundar Govindarajulu, « Artificial Intelligence », Stanford Encyclopedia of Philosophy, 2018.
[9] Voir le programme de dames d’Arthur Samuel,
https://fr.wikipedia.org/wiki/Programme_de_dames_d%27Arthur_Samuel
[10] Le perceptron est un algorithme d’apprentissage de classifieurs binaires. Il permet de classifier des inputs selon qu’ils appartiennent ou non à deux classes respectives. Le perceptron est l’ancêtre des réseaux de neurones artificiels utilisés aujourd’hui dans l’apprentissage profond. Voir https://fr.wikipedia.org/wiki/Perceptron
[11] Voir Pedro Domingos, The Master Algorithm, Basic Books, 2015.
[12] Voir James Vincent, « How three French students used borrowed code to put the first AI portrait in Christie’s », The Verge, 2018, https://www.theverge.com/2018/10/23/18013190/ai-art-portrait-auction-christies-belamy-obvious-robbie-barrat-gans. Nous reviendrons dans un prochain numéro sur le travail très intéressant de Robbie Barrat.
La menace que ferait planer sur le futur de l’humanité l’avènement d’une hypothétique « singularité » en intelligence artificielle – c’est-à-dire l’avènement de systèmes dotés d’une « superintelligence » et échappant à tout contrôle – a souvent fait la manchette ces dernières années…
Lire la suitePublication : Olliver DYENS, La terreur et le sublime : humaniser l’intelligence artificielle pour construire un nouveau monde.
Événement : Le AI Art Lab, un laboratoire international multidisciplinaire en IA.
Lire la suite