Apparue dans les années 1950 grâce au mathématicien Alan Turing, l’intelligence artificielle est à ce moment décrite comme une hypothèse, celle d’apporter aux machines une forme d’intelligence. Il y décrit alors un test connu de tous aujourd’hui : le test de turing, au sein duquel un sujet interagit avec une machine et si le sujet ne peut pas affirmer que c’est une machine, alors le test est réussi par celle-ci et on peut la considérer comme “intelligente”.
De nos jours, ce test assez simpliste, bien qu’il soit toujours une référence, est de plus en plus difficile à être considéré comme viable, tant les IA actuelles sont capables de bon sens dans leur prédiction ou génération. Cependant elles ne sont toujours pas considérées comme une forme d’intelligence réelle (au point de la comparer à l’être humain) et ce non pas à cause de ses résultats, mais plutôt du côté très spécifique de son “intelligence”. En effet, l’intelligence artificielle de nos jours est capable de beaucoup de choses, mais toujours dans le domaine précis où elle a été entraînée, et on ne peut ainsi pas considérer réellement qu’elle est dotée de raison ou de logique comme un humain. Et comme il existe une multitude de domaines différents auxquels l’intelligence artificielle peut s’appliquer, il est difficile de vraiment définir une intelligence artificielle.
En effet, le domaine de l’intelligence artificielle englobant tellement de concepts et technologies différentes, il est même considéré comme “Le grand mythe de notre temps” d’après la CNIL (Commission Nationale de l’Informatique et des Libertés) tant il est difficile de le définir. Ce qui est sûr en revanche, c’est que ce grand mythe fascine, et suscite interprétations, avancées technologiques mais aussi fantasmes, science-fiction et inquiétude.
Dans cet article, nous traiterons d’un domaine précis : celui de l’art, et plus précisément de la génération d’images à partir d’une intelligence artificielle. Nous verrons ainsi comment, chronologiquement l’IA a évolué dans ce domaine, de ses débuts jusqu’à nos jours afin d’ensuite étudier ce qui se fait actuellement, et enfin nous verrons les potentielles perspectives d’avenir dans ce domaine ainsi que l’impact que cela pourrait avoir sur notre société.
1929 – Une machine pour lire des caractères
Environ 20 ans avant le légendaire test de Turing, un ingénieur autrichien nommé Gustav Tauschek dépose un brevet pour un appareil doté de capteur optique capable de reconnaître des caractères. Si on est bien loin d’avoir réellement une intelligence artificielle, cet appareil marque une étape très importante dans l’avancée des ordinateurs et a déjà, à son époque, suscité de nombreux questionnements dont beaucoup sont toujours d’actualité pour bon nombre d’entre nous : “Comment une machine peut voir ?”
1950 – Le jeu des imitations ou test de Turing
Le test de Turing, également connu sous le nom de jeu d’imitation, fait surface. Il devient très vite un test de référence pour la capacité d’une machine à afficher un comportement intelligent indiscernable d’un humain, en “imitant” le comportement de ce dernier. Ce test pose pour la première fois une réponse à “La machine est-elle intelligente ?”
1968 – Début de l’art par des machines
C’est durant les années 1960 que les artistes commencent à s’intéresser aux créations “cybernétique”, et aux arts de “vie artificielle”. La plus notable de ces créations est celle de Jean Tinguely, un sculpteur, peintre et dessinateur Suisse qui propose lors de l’exposition “Cybernetic serendipity” à Londres une machine proposant aux visiteurs de créer une œuvre d’art abstraite. Cette machine est dotée d’un stylo, dont les visiteurs choisissent la couleur, le point de départ et le nombre d’itérations souhaitées. Puis la machine effectue des mouvements non prédictibles afin de créer un dessin abstrait. Nous sommes encore loin de l’intelligence artificielle, mais cette étape est-elle aussi clé notamment dans l’attrait pour l’art des futurs innovateurs.
1973 – Le premier ordinateur générateur d’image autonome
Durant cette année, l’artiste Harold Cohen développe des algorithmes qui permettent à un ordinateur de dessiner. Cet ordinateur, nommé Aaron, est l’un des premiers exemples d’un créateur d’images correctement autonome. Il ne crée pas aléatoirement des choses abstraites mais plutôt des objets spécifiques et Cohen découvre que certaines de ses instructions génèrent des formes qu’il n’avait pas imaginées auparavant et que donc la machine prenait des sortes de “décisions”. Cohen expose son ordinateur à la Documenta 6 de Kassel en 1977, et l’année suivante au Stedelijk Museum d’Amsterdam.
1981 – Les ordinateurs personnels arrivent
Étape décisive de l’informatique telle qu’on la connaît aujourd’hui, l’apparition des ordinateurs personnels a permis à une partie de la population de découvrir, s’intéresser et même se découvrir une passion pour l’informatique. Ainsi, le nombre croissant de personnes à la recherche d’innovations ou encore de programmeurs font naître une multitude de nouvelles créations technologiques.
1990-2010 – Ramification de l’intelligence artificielle
La multitude de nouveaux passionnés permet à l’intelligence artificielle de progresser, et de cibler des domaines précis (Mathématiques, Art, Langage…) Cependant, l’avancée perd petit à petit de son souffle pour plusieurs raisons. Premièrement, les algorithmes sont de plus en plus complexes, au point que même leur propre créateur expliquent difficilement ce qu’il s’y passe (on parle de boîte noire), laissant ainsi perplexes les acteurs économiques qui avaient foi en l’IA. Également, les ordinateurs deviennent fréquents, et les interrogations de la population sur l’éventuel futur de l’informatique sont assez pessimistes : c’est le début de la peur de l’évolution technologique. Cependant un domaine précis de l’intelligence artificielle à ce moment continue d’avancer, celui des chatbots, grandement apprécié par les entreprises.
2014 – Les GAN sont développés
Pour de nombreux acteurs dans le domaine de l’intelligence artificielle, cette date, avec la création des GAN, représente une année décisive, où la frontière entre l’intelligence artificielle et l’être humain se rapproche drastiquement. Les GAN (Generative Adversarial Network) sont deux réseaux de neurones dit “antagonistes”, simplement car ils s’affrontent. Le premier, décrit comme le “générateur” va avoir pour rôle de générer une image. Une seconde intelligence artificielle entre ensuite en jeu, il s’agit du “discriminateur” et son rôle est de déterminer si l’image générée par le générateur n’est pas réelle. Ainsi, au fur et à mesure de leurs entraînements, l’un comme l’autre, constamment remis en question par son adversaire va s’améliorer, jusqu’au moment où le discriminateur sera systématiquement trompé et pensera que l’image générée par le générateur est réelle.
2017 – Les GANS, fer de lance des grandes entreprises technologiques
La révolution qu’a créée l’innovation des GAN a bien entendu tout de suite attiré l’attention des plus grandes entreprises du monde. Si bien que dès 2017, toutes ont voulu avoir leur propre GAN. Cependant, si cela peut paraître étonnant pour beaucoup, ces entreprises ont décidé de rendre public leur GAN bruts non formés, pour inciter à de nouvelles innovations. C’est ainsi que sont apparus Tensorflow (Google), Torch (Facebook devenu Meta) pour citer les plus connus. A partir de ce moment, nombre de générateurs d’image de tout type ont pris forme.
2018 – Première vente d’images générées par Intelligence artificielle
Après avoir réalisés plus de 15 000 portraits du XIVe au XXe siècle avec leur GAN, le collectif français Obvious ont demandé à leur IA de générer son propre portrait. Le résultat, considéré comme une étape importante dans l’histoire de l’art et de l’IA à tout de suite attiré l’attention d’acheteurs. Si bien que le portrait à été vendu aux enchères pour la somme de 432 000 €
Aujourd’hui
Les GAN sont désormais assez courants, et il est même possible aujourd’hui d’en créer chez soi seul sur son ordinateur avec la multitude de librairies à disposition. En parallèle, de grandes entreprises comme Google ou OpenAI continuent à développer des modèles. L’évolution se fait principalement sur la quantité de paramètres utilisés par le langage. C’est -à-dire la propriété apprise des données utilisées pour l’entraînement comme par exemple le poids de chaque neurone d’un réseau. Récemment, OpenAI a dévoilé et mis en ligne DALL-E (faisant référence à Salvador Dali), un programme d’intelligence artificielle capable de créer des images à partir de descriptions textuelles. Il utilise pas moins de 12 milliards de paramètres, appliqués à un modèle réputé, provenant lui aussi de cette entreprise : GPT-3. La grande spécificité et innovation de ce programme est qu’il est aussi bien capable de produire des rendus photo réaliste, que des rendus qui sont totalement irréalistes comme par exemple “un astronaute chevauchant un éléphant sur Mars”. Voici quelques exemples parlants pour visualiser une infime partie des capacités de DALL-E :
Une réponse