Milad Doueihi est historien des religions, titulaire de la Chaire de recherche sur les cultures numériques à l’université Laval au Québec. Il a publié
Pour un humanisme numérique (Seuil, 2011),
La grande conversion numérique (Seuil, 2011),
Solitude de l’incomparable, Augustin et Spinoza (Seuil, 2009),
Le Paradis terrestre : Mythes et philosophies (Seuil, 2006),
Une histoire perverse du cœur humain (Seuil, 1996). Il prépare un nouveau livre sur le concept d’intelligence.
Jean-Gabriel Ganascia est informaticien et philosophe, spécialiste d’intelligence artificielle et de sciences cognitives, professeur à l’université Pierre et Marie Curie (UPMC) et chercheur au LIP6. Il est aussi directeur adjoint du Labex OBVIL au sein duquel son équipe collabore avec les équipes de littérature de l’université Paris-Sorbonne pour promouvoir le versant littéraire des humanités numériques.
La Vie des idées : Milad Doueihi, vous écriviez dans Pour un humanisme numérique que « la culture numérique ne cesse de faire appel à des mythes » car « cette technique devenue culture a été animée par un souci de l’intelligent et de l’humain, de l’intelligent comme expression de l’humain » (Seuil, 2011, p. 56). Comment se situent par rapport à cela vos recherches actuelles sur l’intelligence artificielle ?
Milad Doueihi : Il me semble qu’il faut repartir de la notion d’intelligence pour aborder la question de l’intelligence artificielle. Il existe une différence profonde entre les deux concepts, éclipsée en partie par la diversité des écoles de l’intelligence artificielle, et qui revient aujourd’hui après une certaine absence.
Je crois que l’on peut dire de manière objective que l’intelligence, et non pas l’intelligence artificielle, est un des mythes fondateurs de l’informatique. J’essaie donc de relire les premiers textes de l’informatique – ceux des « quatre mousquetaires » : Turing, Von Neumann, Wiener et Shannon (on pourrait en ajouter d’autres bien sûr, mais ces auteurs là sont les plus importants) – pour voir comment dans chacun des cas cette notion d’intelligence, qu’elle soit explicite ou implicite, véhicule des présupposés et des conceptions qui ont permis la construction de la première machine informatique, le développement matériel et conceptuel de cette science et sa réception.
Ce qui m’a intéressé, c’est l’évolution de ce modèle de l’intelligence vis-à-vis de la technique. D’un point de vue méthodologique, en France, les discours sur la technique restent ancrés dans une tradition métaphysique, par exemple chez des auteurs comme Ellul, qui parle des systèmes techniciens et du problème de l’autonomie des machines, Gilbert Simondon, qui parle du mode d’existence des objets techniques et fonde une ontologie technique, et enfin Bruno Latour, quand il dit que « technique et moralité se trouvent indissolublement mélangées » (« La fin des moyens », Revue Réseaux, volume 18 n°100, 2000).
Or, la question que je pose c’est : l’informatique ne met-elle pas en question la viabilité du mot technique pour désigner ce que c’est que le numérique aujourd’hui ? C’est une question complexe mais qui devient urgente, étant donné les questions qui se posent aujourd’hui avec le développement des algorithmes, sur les liens qui peuvent exister entre l’autonomie et l’automatisation. L’autonomie d’un logiciel, de l’algorithme, ou d’autres êtres culturels, est une question informatique, politique et éthique.
On a toujours articulé l’intelligence avec l’intelligence artificielle, comme du « naturel suscité », pour reprendre une belle expression de Simondon. Il me semble que cette question de « naturel suscité » est difficile à appréhender car elle est de nature mathématique. Von Neumann, à la fin de son court texte Le Cerveau et l’ordinateur, se pose une question qu’il faut se reposer aujourd’hui, et que la plus grande majorité des informaticiens ont, à mon sens, négligée. D’après lui, on a toujours considéré que les mathématiques sont des normes universelles et de ce fait, on pense que l’informatique, parce qu’elle est en partie mathématique, nous donnerait accès à un langage du cerveau. Von Neumann a un doute, ou peut-être une hésitation : il faut plutôt penser que l’informatique, telle qu’elle a été inventée à l’époque, est quelque chose comme un short code, qui donne accès aux mêmes résultats que le cerveau mais jamais au langage du cerveau (les short codes, théorisés par Turing, permettent à une machine d’imiter le comportement d’une autre machine à partir du moment où ce dernier est encodé). Il se joue ici quelque chose de fondamental, qui va nous permettre de délimiter les modèles de l’intelligence et de l’intelligence artificielle, mais aussi d’interroger la dimension universelle de ce que Jeannette Wing appelle computational rationality. En somme, la définition de l’intelligence par rapport à l’intelligence artificielle nous invite à questionner la ou plutôt les rationalités à l’œuvre dans l’informatique.
Jean-Gabriel Ganascia : L’apparition du terme « intelligence artificielle » est très précisément datée. En 1955, John Mc Carthy, qui est un prodigieux mathématicien de 30 ans, disciple de Von Neumann, désire créer une nouvelle discipline. Il réunit trois comparses : Shannon, à l’époque très connu pour avoir théorisé l’information et en particulier la notion d’entropie avec Wiener, Marvin Minsky et Nicholas Rochester, cadre chez IBM. Ils déposent un projet à la National Science Foundation et obtiennent d’organiser une école d’été en 1956 sur ce qu’ils appellent « l’intelligence artificielle ». La définition qu’ils en donnent alors n’est pas de reproduire l’intelligence, mais d’étudier l’intelligence avec les moyens de l’artificiel. Ils pensent qu’on peut décomposer l’intelligence en différents aspects, et que chaque aspect séparément peut être reproduit par une machine. Très vite, cela a été compris par le grand public comme la reconstitution de l’intelligence par les moyens de l’artificiel. Pourtant, ce n’était pas tout à fait le projet scientifique qui est d’étudier l’intelligence grâce à de l’artificiel.
Le projet n’était pas sans précédents. Le concept d’intelligence est étudié dès le XIXe siècle, notamment par Taine qui dans son ouvrage De l’intelligence (1892), montre que, pour l’aborder scientifiquement, il faut se débarrasser des préjugés de la philosophie. D’autre part, les premiers mécanismes de calculs, avant même l’invention de l’ordinateur, ont été théorisés par la cybernétique en 1943 : face à la complexité des réseaux d’information, les cybernéticiens font le lien entre l’information et le raisonnement, et donnent naissance au premier « réseau de neurones » (le modèle de calcul inspiré du fonctionnement des neurones biologiques).
Les théoriciens, les quatre mousquetaires dont parle Milad Doueihi, Shannon, Wiener, Turing, Von Neumann, ont travaillé sur l’intelligence, mais pas sur l’intelligence artificielle. Turing a écrit deux articles en 1947 et en 1950, posant, en tant que mathématicien, la question de savoir ce que c’est que « penser » pour une machine. Wiener avait un projet politique, une sorte de « théorie du gouvernement », dont il tire le terme « cybernétique », d’ailleurs. L’intelligence artificielle est d’une certaine façon moins ambitieuse que la cybernétique, car il ne s’agit pas de trouver des lois générales, mais simplement de regarder certains aspects de l’intelligence. L’intelligence artificielle se construit à la fois comme un projet scientifique, et comme une fiction (Marvin Minsky est passionné de science-fiction, Mc Carthy a lui-même écrit une nouvelle…). Il me paraît important de montrer qu’il y a une véritable intelligence de l’intelligence artificielle, qui repose sur le fait que la discipline naît sans avoir à définir son propre terme.
La Vie des idées : Quelle est la différence entre l’intelligence artificielle et les sciences cognitives ?
Jean-Gabriel Ganascia : Les sciences cognitives sont l’étude de la cognition avec les moyens de l’artificiel. L’intelligence artificielle se contente de fabriquer des machines qui peuvent avoir un certain nombre de capacités, alors que les sciences cognitives vont plus loin et abordent des questions comme celle de la conscience.
C’est pour critiquer cela que Searle introduit la notion « d’intelligence artificielle forte ». Pour lui, les ingénieurs modélisent certes des choses très importantes, mais il y a aussi des limites fondamentales à respecter, d’où son expérience de pensée autour de la chambre chinoise (qui est une expérience imaginée par Searle dans les années 1980 pour montrer qu’un programme informatique, si complexe soit-il, n’a rien à voir avec l’esprit humain). Paradoxalement, Searle est beaucoup repris par des chercheurs en intelligence artificielle, à partir de la notion d’acte de langage par exemple, qui sert à modéliser les normes des agents intelligents.
Le terme « sciences cognitives » apparaît au moment où la discipline de l’intelligence artificielle connaît une relative faiblesse, dans les années 1970. Quand l’intelligence artificielle est apparue en 1956, les approches étaient essentiellement le fait d’ingénieurs et de mathématiciens. Au milieu des années 1960, on s’est rendu compte que ces approches étaient vouées à l’échec. Des gens comme Robert Schank ont voulu créer une discipline qui irait plus loin. C’est à partir d’un courant particulier de l’intelligence artificielle qu’on appelle l’ « intelligence sémantique » que naît la représentation des connaissances : et c’est pour faire vivre cela qu’on a créé le terme « sciences cognitives ». Ensuite, à partir des années 1980, l’intérêt s’est déplacé vers les modèles cybernétiques, et les sciences cognitives ont un peu abandonné la question de l’intelligence.
Parmi les courants contemporains de l’intelligence artificielle, l’idée qu’on va pouvoir fabriquer de l’intelligence avec une machine est extrêmement présente, avec d’un côté les transhumanistes, et de l’autre les représentants de l’Artificial General Intelligence (A.G.I.). On tend à confondre les deux, mais pourtant leur projet est très différent. Le documentaire Plug and Pray le montre bien, dans lequel sont opposés deux personnages : Joseph Weizenbaum, scientifique qui a pris position pendant la guerre du Vietnam sur la question de l’utilisation des technologies pour les besoins de la guerre, et Ray Kurzweil qui croit à l’universalité technologique.
Milad Doueihi : C’est très important car il y a eu le même écart entre Wiener et Von Neumann vis-à-vis de la guerre. Wiener a toujours refusé de participer aux projets de guerre.
Jean-Gabriel Ganascia : Effectivement, Kurzweil dit qu’il ne fait que reprendre l’argument de John Von Neumann sur l’évolution exponentielle des capacités de la technologie alors que Von Neumann disait autre chose : ce n’est pas parce qu’on peut créer des capacités exponentielles de la technologie, que la technologie peut dépasser l’homme.
La Vie des idées : Quel lien peut-on faire entre cette question de l’intelligence artificielle et le développement récent des humanités numériques ?
Jean-Gabriel Ganascia : Ces soixante dernières années, les plus grands bouleversements humains sont liés à l’intelligence artificielle. Prenons Internet : c’est de l’intelligence artificielle. Cela ne veut pas dire que les réseaux sont intelligents, mais qu’ils supposent une certaine modélisation de la mémoire. Le premier hypertexte, la Memex de Vannevar Bush, a été conçu afin de modéliser un cerveau humain (Voir le célèbre article de Bush dans Atlantic Monthly « How we may think »).
Milad Doueihi : Je crois que pour comprendre les humanités numériques, même si l’on parle toujours du travail du père Busa sur les corpus linguistiques et sur la Somme théologique de Saint Thomas d’Aquin, il faut revenir à Turing. Turing concilie un regard philosophique et littéraire dans sa conception de la machine apprenante, pouvant penser. C’est d’abord là qu’il faut chercher une généalogie des humanités numériques, plutôt que dans des pratiques qui réduisent l’informatique à des outils, qu’ils soient statistiques ou autre… Turing est le seul à cette époque, dans les années 1950 chez qui on trouve une interface entre le littéraire et l’informatique.
Jean-Gabriel Ganascia : Il est important de comprendre que les humanités numériques ne sont pas qu’une manière d’étudier des textes avec des instruments, mais qu’elles doivent interroger et proposer des « opérateurs d’interprétation ». On a voulu faire des sciences de la culture avec une rigueur égale aux sciences de la nature, ce qui est critiquable. Ricoeur, ou Cassirer, ont pourtant bien montré la différence fondamentale de logique entre les deux ensembles. D’un côté, on a de l’induction (on rassemble le divers sous une hypothèse générique) alors que de l’autre, on étudie le cas particulier, en tant qu’il est paradigmatique. Il me semble que l’intelligence artificielle change les sciences de la nature autant que les sciences de la culture, et c’est là que la notion d’humanisme numérique prend tout son sens.
Milad Doueihi : On peut faire une histoire des sciences humaines comme « sciences », de leur prétention scientifique à l’objectivité, avec toutes les conséquences que cela a pu avoir. Ce problème de la scientificité des humanités doit être revisité à l’ère du numérique. Il faut s’éloigner des modèles d’objectivité qui sont ceux des sciences de la nature. Prenons, par exemple Wikipédia : ils ont adopté un modèle d’objectivité scientifique pour tous les articles étudiés, ce qui pose problème, car cela requiert un consensus. Or, en sciences humaines, le consensus n’est pas le plus souvent ce que l’on recherche. De ce fait, on a du mal à y trouver des articles de grande qualité, à cause justement d’un geste éditorial qui est façonné sur le modèle scientifique, et qui peut fonctionner remarquablement en physique ou en chimie, mais qui dans les disciplines qui sont les miennes, n’est pas souhaitable.
La pensée humaniste est souvent associée à l’émergence d’une forme technique qui vient en retour questionner ce qu’est l’homme. Qu’y a t il dans ce mot « humanisme », pourquoi est-il toujours le plus éloquent pour parler de quelque chose qui semble toujours dépassé ? Je crois que c’est lié à la construction de la technique dans l’imaginaire. Et l’informatique, pour moi – pas le numérique, si l’on maintient la différence – change complétement les règles et la donne, car ce n’est pas une technique.
Jean-Gabriel Ganascia : Ce qui a fondé l’humanisme, c’est de trouver un lien de continuité entre des hommes qui étaient dans le passé. C’est ce qu’on retrouve aujourd’hui dans l’humanisme numérique : on construit cette continuité.