Partager
Intelligence artificielle, intelligence humaine : la double énigme
Tel est le titre d'un livre écrit par Daniel Andler cette année aux éditions Gallimard Essais. Voici une présentation de cet ouvrage.
Point de départ
L’intelligence artificielle constitue une énigme, l’intelligence humaine aussi.
Une énigme l'intelligence artificielle car dorénavant, le "verum-factum" de Vico, autrement dit le fait de connaître ce que l'on fabrique, n’est pas toujours vérifié. Il y a dualité entre ce que l’on sait de ce que l’algorithme fait et ce qu’il fait.
L'intelligence humaine, elle, n’est pas une fonction mais elle qualifie le rapport entre un individu et son monde.
Voici un point de vocabulaire indiqué par l'auteur :
- "IA" : le domaine académique et professionnel,
- "IA stricto sensu" : la réalisation de tâches qui complètent l’action humaine dans bien des domaines, la résolution de problèmes,
- "IA largo sensu" : la numérisphère, les IA dans notre monde digital quotidien.
Si bon nombre de concepteurs d' "IA stricto sensu" visent à ce que l'intelligence artificielle devienne l’égale de l’intelligence humaine, cette cette cible ne semble jamais se rapprocher. Mais l'objectif demeure.
Pour l'auteur, les efforts que consacre l’IA à conférer aux systèmes une autonomie aussi large que possible, c'est quelque chose d'incohérent, de dangereux et d'inutile.
- incohérent : l’autonomie véritable des humains est de l’ordre du mystère,
- dangereux : cela ne peut conduire qu’à des systèmes difficiles à comprendre, et à contrôler,
- inutile : il ne nous faut que des outils puissants, dociles, versatiles. Concevons-les et ce sera déjà bien.
Première partie : Le projet, l'entreprise, le parcours
La premier chapitre s'intitule "L’intelligence artificielle survolée : de la vision au repli stratégique". L'auteur y explique comment un système expert emmagasine des règles empiriques, les systèmes d'IA reposent sur des statistiques, des faits généraux de nature mathématique. La machine ne réfléchit pas. Les systèmes d'IA dessaisissent pour une part l’expert. Ce que produit l'IA est opératoire. Le savoir général s’est révélé impossible à découvrir.
Le deuxième chapitre, "Les sources de l’intelligence artificielle" décrit ce qu'est un algorithme à savoir : une série d’instructions, exécutables mécaniquement, conduisant en un temps fini à la solution d’un problème d’un type donné tandis que le troisième chapitre, intitulé "L’ère classique" mais l'accent sur toute l' "intelligence" qui est comme "en conserve" et sur la prédiction, la prédiction utile pour l'action. L'IA des débuts est l' "IA symbolique" suivi par le connexionnisme des années 1980.
Le chapitre 4, "L’âge du connexionnisme" s'intéresse à une branche active de l'IA aujourd'hui qui est le "deep learning". L'apprentissage en question est supervisé. Des IA apprennent à reconnaître des images de chats, déterminer des indemnisations légitimes, faire des traductions. Le système apprend par "rétropropagation". Beaucoup de petites mains humaines se chargent de l’étiquetage de grandes quantités de données. Ces IA parviennent à faire beaucoup de choses.
Voici leurs limites : elles ne peuvent pas se saisir de cas éloignés de ce qu’elles apprennent, elles ne savent pas extrapoler. Chaque modèle est spécialisé. Elles ne peuvent pas prendre en compte la nouveauté. Elles ne savent pas simuler des raisonnements de longueur arbitraire et n'ont pas les ressources nécessaires pour le raisonnement causal. Leurs limites en font aussi leurs vertus.
Le chapitre 5 est très intéressant et très dans notre actualité avec ChatGPT et s'intitule "Les prémisses d’une troisième époque ?". L'auteur explique qu'on assiste à une transformation majeure dans les systèmes d'IA qui est "la prise en compte des dépendances à longue distance entre éléments de la suite grâce à un mécanisme "d’attention" pour situer un contexte". C'est très fort ! Se combine à cela de l’apprentissage par transfert d’un contexte à un autre.
C'est là qu'on entre dans la génération de GPT, Generative Pre-trained Transformer. Il a ratissé le web pour les 4/5 de ses items. Dans le même genre, il y a Wu-Dao, 10 fois plus gros que GPT3 qui vient de Chine, et d’autres, dont BLOOM, résultant de la collaboration d’institutions publiques.
Ces IA héritent des faiblesses générales du deap learning : ils sont capables de produire des résultats aberrants, ils ne "savent" pas de quoi ils "parlent" et ils héritent de biais d’apprentissage. Ce sont des "perroquets statistiques" (l'expression est d’Emily Bender). Ceci dit, il faut prendre la mesure de tout ce qu'ils réussissent !
Leur performance et plus généralement leur comportement restent en attente d’une explication satisfaisante, le fameux "verum factum" de Vico. C’est là un problème largement ouvert. Par exemple, comment se fait-il qu’il puisse écrire un conte de fée à la manière de Shakespeare qui n’en n’a pas écrit ? Il semble clair qu’en acquérant la capacité de prévoir le mot suivant à partir de l’ « étude » statistique d’un corpus gigantesque, le modèle a acquis d’autres capacités. Lesquelles ? Il y a des hypothèses. Pas plus. Là, on parle de texte mais, il se passe la même chose avec les images avec Dall-e.
Ce qui est alarmant aussi, c’est que toutes ces productions noient les productions humaines.
Seconde partie : La question de l’intelligence et l’avenir de l’IA
Le chapitre 6 a pour titre cette question : "Peut-on comparer intelligence artificielle et intelligence humaine ?"
Nous devons nous contenter de constater que l’intelligence artificielle est actuellement impuissante devant nombre de types de problèmes accessibles à l’intelligence humaine ; en revanche elle résout des problèmes inaccessibles à l’intelligence humaine, question de vitesse et question de nombre obligent.
S’agissant de l’avenir prévisible, l’IA, dans son périmètre actuel, n’est pas du tout sur le point de surmonter ses limitations présentes, pour des raisons liées à des questions de conscience, de sens, de sens commun, de métacognition, d’affects, d’unicité. L’intelligence artificielle ne possède aucune unité intrinsèque et se présente comme une myriade de systèmes d’IA spécialisés.
Le chapitre suivant a pour titre "Intelligence et animalité". L’intelligence est relative à la nature. Il y a une dimension biologique de l’intelligence. Elle se déploie lorsqu’il "faut faire quelque chose", qu’on en prend conscience et qu’on forme l’intention de faire le nécessaire. Le milieu, c’est ce qui fait sens, ce qui impose contraintes et permet d’agir. L’intelligence d’un animal est relative à son milieu. L’intelligence est la capacité d’agir au mieux dans une situation.
Il se prolonge par celui-ci : "Intelligence et humanité". Au sein du règne animal, la cognition humaine occupe une place très particulière. L’intelligence est produite par l’appareil cognitif mais s’en distingue comme la pluie des nuages. Faire face à une situation, ce n’est pas résoudre un problème. Le deep learning n’est pas équipé pour faire face au vaste monde. Aucune description du milieu humain, si riche soit-elle, ne fait du milieu humain le milieu du système d’IA. « The view from nowhere » (expression de Thomas Nagel) n’existe pas.
L’objectif d’une intelligence artificielle pleinement intelligente à l’image de l’intelligence humaine, et même la création d'une "intelligence surhumaine", reste porté par la plupart des chercheurs en IA. Le chapitre 9, "L’intelligence artificielle rêvée" raconte cela. Et "l'intelligence générale artificielle" progresse. Elle inclut la possibilité de faire face à de la nouveauté, transférer le savoir-faire acquis au cours des expériences, précisément par sa "généralité".
Pour autant, la "singularité" est un train fantôme qui cache un train qui l’est moins, à savoir l’éventualité d’une intelligence artificielle qui excéderait de beaucoup les capacités de l’intelligence humaine dans des domaines beaucoup plus larges que ceux que touchent l’IA aujourd’hui. Certes la versatilité et la fluidité tant convoitées propres de l'intelligence humaine sont hors de portée des IA. Parce que ce qu'il manque aux IA c'est : d'être personnellement engagés, d'affectés par la réussite ou l’échec, d'être capable de faire provisoirement abstraction de toute considération rationnelle. Pour autant, l’éventualité d’une intelligence artificielle qui serait "trop" puissante sans répondre à la description de la super-intelligence est là.
Prenons l’exemple des algorithmes de recommandations : ils sont censés être à notre service. A la vérité, ils portent atteinte à notre autonomie de trois manières : ils sont capteurs de notre attention, ils modifient nos préférences, et il organisent une maximisation du temps passé sur les plateformes, ce dont on se moque peut-être.
L’intelligence artificielle et le bien, tel est le titre du dernier chapitre
Selon l'auteur, les deux domaines les plus profondément touchés par les progrès de l’intelligence artificielle sont le travail et la démocratie. L’IA met en danger bien des emplois et les libertés démocratiques sont mises en danger par les systèmes de surveillance fondées sur l’intelligence artificielle. Ceci n'est pas une fatalité, l'IA pourrait par exemple être mise au défi de la neutralisation des campagnes de fausses informations. Et en matière d’emploi, on pourrait en créer dans la santé et l’enseignement à hauteur de ce qui n’était pas possible jusque-là.
Il existe des chartes. A la vérité, il faudrait garantir de l’alignement de valeurs. Or ceci n’est pas possible. Et puis, quelles valeurs ? Pour viser les valeurs de qui ?
En somme, s'assurer qu’une super-intelligence autonome reste au service des humains semble difficile, voire impossible. En vertu de cela, l'auteur conclut pour ces principes : ne faire appel à l’intelligence artificielle que lorsque sa contribution nette est positive et éviter de donner aux SAI un habillage humanoïde. "Nous voulons des instruments pas des collègues" !
Note de lecture par Rosario, août 2023
Qu'en dites vous ?
Pour réagir à cet article, connectez-vous ou créez votre profil