IA-LOGO_400x300_Transparent_Recoloré_Ombrage-blanc

Intelligence artificielle et création artistique

 
NUMÉRO 1 ⎯ 15 FÉVRIER 2020
LES MACHINES CRÉATRICES

____________________________

 

Tout sur les artistes émergents qui explorent le pouvoir créatif de l’IA
et les intervenants les plus reconnus du domaine de l’IA et de l’art génératif. 

 

 

QU’ARRIVERA-T-IL SI NOUS RÉUSSISSONS ?

par Anne-Marie Boisvert

Compte rendu de Human Compatible: Artificial Intelligence and the Problem of Control, de Stuart Russell (Viking, 2019).

 

 

Stuart Russell est professeur d’ingénierie électrique et de sciences informatiques, titulaire de la chaire Smith-Zadeh d’ingénierie à l’Université de Californie à Berkeley (UC Berkeley). Il a également été professeur adjoint de chirurgie neurologique à l’université de Californie, à San Francisco, et vice-président du Conseil sur l’IA et la robotique du Forum économique mondial. Il a fondé avec un groupe d’universitaires le Center for Human-Compatible Artificial Intelligence (CHAI) en 2016. Le CHAI est un centre de recherche de l’Université de Californie à Berkeley (UC Berkeley) qui vise à développer des méthodes de sécurité avancées en intelligence artificielle.

 

Publications notables : 

 

La menace que ferait planer sur le futur de l’humanité l’avènement d’une hypothétique « singularité » en intelligence artificielle – c’est-à-dire l’avènement de systèmes dotés d’une « superintelligence » et échappant à tout contrôle – a souvent fait la manchette ces dernières années.

 

L’intelligence artificielle dite « étroite » ou « faible » est la seule forme d’intelligence artificielle qui existe actuellement. De tels systèmes accomplissent extrêmement bien certaines tâches précises dans un contexte très limité. Un système conçu pour reconnaître les images, par exemple, ne peut faire également des suggestions d’achat. L’intelligence artificielle dite « générale » ou « forte » est le type d’intelligence artificielle qui peut comprendre son environnement, raisonner et accomplir des tâche multiples comme le ferait un humain. Selon les experts, nous en serions probablement encore loin. Mais une fois ce seuil atteint, la menace serait que la croissance en intelligence des systèmes devienne exponentielle, des systèmes de plus en plus intelligents donnant « naissance » à des systèmes de plus en plus intelligents échappant à tout contrôle humain. « Qu’arrivera-t-il si nous réussissons ? » (« What if we succeed ? ») demande Stuart Russell.

 

Des scientifiques respectés, comme notamment Stephen Hawking, ainsi que des experts en intelligence artificielle, ont pris cette menace suffisamment au sérieux pour tirer la sonnette d’alarme dans la sphère publique. Ils ont ainsi publié en janvier 2015 une lettre ouverte intitulée Priorités de recherches pour une intelligence artificielle solide et bénéfique appelant les chercheurs à se pencher sur les impacts sociétaux de l’intelligence artificielle. D’autres experts en intelligence artificielle ont minimisé ou carrément tourné en dérision ces craintes. Yann LeCun, l’un des inventeurs de l’apprentissage profond, a ainsi co-signé avec Anthony Zador un article intitulé « Don’t Fear the Terminator » (Scientific American Blog Network, 27 septembre 2019).

 

Terminator (T-800) (Creative Commons)Terminator (T-800)

 

Le titre de cet article est une allusion bien sûr à la manière dont l’intelligence artificielle est comprise dans le grand public. Dans les scénarios de science-fiction, les robots ou les ordinateurs évolués devenus superintelligents accèdent à la conscience et se retournent ensuite contre leurs créateurs humains dans le but d’asservir leurs anciens maîtres. Mais, comme le fait observer Stuart Russell, cette vue est erronée :

 

« Supposons que je vous donne un programme et que je vous demande s’il représente une menace pour l’humanité. Vous analysez le code et vous réalisez qu’en effet, une fois exécuté, le code formera et exécutera un plan dont le résultat sera la destruction de la race humaine, tout comme un programme d’échecs formera et exécutera un plan dont le résultat sera la défaite de tout humain qui lui fera face. Maintenant, supposons que je vous dise que le code, lorsqu’il est exécuté, crée également une forme de conscience dans la machine. Cela changera-t-il votre prédiction ? Pas du tout. Cela ne fait absolument aucune différence. Votre prédiction sur son comportement est exactement la même, car la prédiction est basée sur le code. Toutes ces intrigues hollywoodiennes sur les machines qui deviennent mystérieusement conscientes et qui haïssent les humains passent vraiment à côté de l’essentiel : c’est la compétence, et non la conscience, qui compte » (pp. 16-17).

 

Stuart Russell est un expert en informatique. En 1995, Il a co-écrit avec Peter Norvig Artificial Intelligence : A Modern Approach qui est devenu l’un des ouvrages considérés comme classiques sur le sujet et qui a été réédité à de nombreuses reprises. Son point de vue est pour cette raison plus difficile à rejeter d’un revers de main. Dans son ouvrage, Russell en substance identifie ce qui constitue à son sens le grand problème dans le mode de développement passé et actuel des systèmes en intelligence artificielle, et propose une solution.

 

Le problème est ce qu’il appelle le « modèle standard » dans la création des systèmes, basé sur une conception « standard » de l’intelligence humaine. De même que  les humains peuvent être considérés comme intelligents dans la mesure où leurs actions leur servent à atteindre leurs objectifs, les machines peuvent être considérées comme intelligentes dans la mesure où leurs actions leur servent à atteindre leurs objectifs. Mais parce que les machines, contrairement aux humains, n’ont pas d’objectifs qui leur sont propres, ce sont nous qui leur en assignons. Nous construisons des machines dont le but est l’optimisation des objectifs que nous leur avons assignés. Le problème est que les objectifs assignés peuvent être trop étroits. C’est que Russell appelle le « problème de Midas » : tout comme le roi Midas dans la mythologie qui a souhaité avoir le pouvoir de tout changé en or et qui après avoir vu son souhait exaucé est mort de faim et de soif, il est possible (et il arrive souvent) que des objectifs qui semblaient désirables à court terme se révèlent désastreux à long terme. Or une machine conçue selon le modèle standard poursuivra aveuglément la réalisation de tout objectif qui lui est assigné ; et plus elle sera compétente (« intelligente »), plus elle réussira à l’atteindre, de la manière qu’elle jugera comme étant la plus efficace possible, peu importe les conséquences. Russell donne entre autres comme exemple hypothétique celui d’un système qui serait chargé de trouver une solution au problème de l’accumulation du CO2 dans l’atmosphère. La solution la plus efficace qu’il pourrait retenir serait l’éradication de la race humaine à la source du problème.

 

La solution que préconise Russell est le remplacement de ce modèle standard par un modèle conduisant à la création de « machines bénéfiques » pour les humains, c’est-à-dire de machines dont les actions servent à atteindre nos objectifs. Dans le chapitre sept de son livre (p. 173), Russell propose trois principes conduisant à la réalisation de telles machines :

 

  1. Le seul objectif de la machine est de maximiser la réalisation des préférences humaines. (Notons que le terme de « préférence » est ici entendu au sens qu’il a en théorie de la décision en sciences sociales, c’est-à-dire au sens d’une attitude, favorable ou défavorable, qu’une personne peut entretenir envers telle ou telle chose, idée, personne ou pratique).
  2. Au départ, la machine est incertaine de ce que sont ces préférences.
  3. La source ultime d’information sur les préférences humaines est le comportement humain.

 

Ainsi, ayant désormais pour objectif non la réalisation d’un objectif étroit fixé à l’avance, mais celui, nécessairement plus large et plus vague, de « maximiser la réalisation des préférences humaines » non fixées à l’avance, la machine se basera plutôt sur l’observation du comportement humain pour apprendre quelles peuvent être ces préférences. Et dans le doute, elle s’abstiendra d’agir et s’emploiera à recueillir davantage d’information.

 

L’ouvrage de Russell a le mérite de jeter un éclairage sur le débat trop souvent passionné et étroitement partisan entourant le développement de l’intelligence artificielle. Évitant le jargon technique, il est passionnant à lire et facilement accessible aux non-spécialistes.

 

 

N.B. Sur la notion de « superintelligence », voir également Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014.

[embedyt] https://www.youtube.com/embed?listType=playlist&list=PLW1MsxpG6Rx3lAARV63_HqSZ2Qer29faG&layout=gallery[/embedyt] Edmond_de_Belamy_case

QUE VEULENT LES MACHINES ?

par Anne-Marie Boisvert

Le diable, commentant le premier dessin tracé dans la terre par le premier homme, lui souffla à l’oreille : « c’est bien mais… est-ce de l’art ? ». Questionner et repousser sans cesse les limites de ce qu’est, ou ce que devrait être, l’art, est la tâche que se sont assignée bon nombre d’artistes au cours du vingtième siècle…

Lire la suite Terreursublime_case

ACTUALITÉS

Publication : Olliver DYENS, La terreur et le sublime : humaniser l’intelligence artificielle pour construire un nouveau monde.

 

Événement : Le AI Art Lab, un laboratoire international multidisciplinaire en IA.

Lire la suite