Print this page

Des intelligences TRÈS artificielles

Par Jean-Louis Dessalles, Enseignant-chercheur à Telecom Paris (Institut Polytechnique de Paris)*

L’intelligence artificielle (IA) va envahir nos vies, le plus souvent sans que nous nous en doutions. Les personnes qui s’en apercevront les premières sont celles qui verront leur emploi menacé.

Jusqu’où ce processus ira-t-il ? L’IA est-elle un danger, ou bien représente-t-elle un formidable progrès ? Et ce progrès-là ne risque-t-il pas de s’emballer, jusqu’au point ou tout pouvoir de décision finirait par nous être ôté pour devenir automatisé ?

L’emballement, pour l’instant, a surtout concerné les médias. Ceux-ci ont donné un large écho aux déclarations alarmistes d’Elon Musk, Steven Hawking et Bill Gates qui annonçaient rien de moins que la fin prochaine de l’humanité après la prise de contrôle de l’IA sur nos vies. D’autres prévisions, moins extrêmes mais dramatiques tout de même, prévoyaient un chômage de masse. Par exemple, l’étude de Carl Frey et Michael Osborne (1), largement reprise dans la presse à l’époque, envisageait la mise en danger de 40 % des emplois à un horizon de quatre ans. C’était en 2013 !

Une émergence récente

Toute cette effervescence a commencé en 2010. Comme la plupart de mes collègues spécialistes de l’intelligence artificielle, j’ai été surpris par le retour en force de techniques comme les réseaux de neurones, sous la forme de l’apprentissage profond (deep learning). Pour la première fois, l’IA était capable de traiter de vrais problèmes en partant de données brutes, des images par exemple. Pour le grand public, la révélation a eu lieu en 2016 lorsqu’un programme, Alpha-go, a battu le champion du monde de go, Lee Sedol (2). Un autre exemple emblématique est ce programme, disponible comme application sur les téléphones, qui permet de diagnostiquer des mélanomes (3). Très récemment, j’ai été impressionné par le projet Debater d’IBM. Ce programme donne l’impression de pouvoir raisonner et argumenter comme vous et moi, ou même mieux, puisqu’il s’est montré capable de produire un point de vue convaincant dans un concours d’éloquence, sur un sujet qu’il ne connaissait pas à l’avance (4).

Il y a longtemps que les machines remplacent nos muscles. Voilà maintenant qu’elles remplacent notre intelligence. Devons-nous pour autant nous alarmer au point de nous dire que la messe est dite, que l’espèce humaine est obsolète ? N’allons pas trop vite. En tant que chercheur en intelligence artificielle, je sais à quel point il est difficile de faire faire quoi que ce soit d’intelligent à un ordinateur. Car ce qui est frappant, c’est à quel point ces programmes qui réalisent des prouesses peuvent en même temps se montrer stupides. Si Lee Sedol avait triché contre Alpha-go en posant deux pierres de suite au lieu d’une seule, le programme n’y aurait vu que du feu. Autrement dit, le programme champion du monde de go ne connaît même pas la règle la plus élémentaire de ce jeu, selon laquelle chaque joueur ne pose qu’une seule pierre à chaque tour.

Des techniques « conservatrices »

L’intelligence artificielle qui connaît l’essor que l’on sait repose sur un petit nombre de techniques, comme l’apprentissage profond, le plongement lexical (word embedding), l’apprentissage par renforcement et la fouille de texte. Ces techniques ont en commun l’exploitation statistique de masses de données. Par définition, ces techniques sont « conservatrices » : elles font du neuf avec du vieux. Prenons l’exemple d’un système de traduction automatique auquel on demande de traduire des expressions comme « jus de fruit » ou « jus de noix » dans une autre langue. Il a certainement rencontré la première expression dans plusieurs textes déjà traduits ; il se contente alors de reproduire la traduction humaine la plus fréquente. Si la seconde expression, « jus de noix », est absente de son corpus, il va en chercher une autre dont le sens est proche. Il connaît des expressions comme « récolte de noix » ou « manger des noix », ainsi que « récolte d’oranges » ou « manger des oranges ». Il en déduit que « noix » et « oranges » doivent avoir des sens apparentés, puisque ces mots apparaissent dans les mêmes contextes, « récolte des… » et « manger des… ». C’est en confiance qu’il calquera sa traduction de « jus de noix » sur celle de « jus d’orange », en substituant le mot « orange » par le mot « noix » dans la langue cible.

On peut se dire qu’une mécanique aussi aveugle ne peut pas produire de bonnes traductions. Les systèmes actuels démontrent le contraire. Ils sont même capables de capter le sens des mots, non pas comme nous (la machine n’a aucune idée du goût d’un jus d’orange), mais en calculant la proximité entre les significations.

Ce mode de fonctionnement à base de « prédigestion » de masses de données fait merveille tant que la machine est chargée de travailler sur des cas standard : traduire un texte ne contenant que des expressions normales, prendre des décisions qui ressemblent à des décisions souvent prises. En clair, ces techniques d’IA sont excellentes pour tout ce qui ressemble à des tâches routinières.

Le cas de la fouille de texte peut sembler troublant. Le Debater d’IBM est capable de produire un dossier argumenté original sur n’importe quel sujet. On ne saurait parler de routine, dans ce cas. Certes, mais cette performance n’est possible que si le sujet à traiter a été abondamment discuté sur la Toile. Il s’agit-là encore une fois d’exploiter une expertise prédigérée, sauf que dans ce cas la prédigestion a été effectuée par des humains et non par des machines.

Les limites de l’IA statistique

Il y a un revers de médaille pour toutes ces techniques qui fonctionnent à base de statistiques élaborées sur des masses de données. Elles sont aveugles à tout ce qui fait la singularité des situations. Dans Des intelligences TRÈS artificielles, je me suis attaché à contraster ce type d’IA avec notre propre fonctionnement, celui de l’intelligence humaine. Lorsqu’un banquier regarde le dossier d’un emprunteur, il ou elle est immédiatement alerté(e) par toute caractéristique qui rend ce dossier différent, par exemple le fait que l’emprunteur reçoit des versements d’argent irréguliers en plus de son salaire. Un programme ne verra pas cette caractéristique si on ne l’a pas prévue dans la grille qui décrit le dossier. L’esprit humain est spécialisé pour repérer la singularité, alors que les IA actuelles sont spécialisées, à l’inverse, pour ne voir que ce qui est fréquent. Pour illustrer cette différence entre l’humain et la machine, prenons l’exemple de l’image d’un chat auquel il manque une oreille. Un système d’apprentissage profond y détectera avec confiance un chat quasiment parfait. Au contraire, un jeune enfant ne pourra pas s’empêcher de « voir » ce qui n’est pas dans l’image, l’oreille manquante.

Cette incapacité à repérer l’unicité, l’inattendu ou le caractère anormal peut représenter un handicap considérable pour l’IA statistique. Ce sera le cas chaque fois qu’une caractéristique essentielle pour la décision est trop rare pour avoir été repérée lors de l’apprentissage. Ce sera aussi le cas chaque fois que la décision dépend d’un calcul qui doit être effectué en contexte. Ainsi, les machines statistiques ne pourront jamais prendre de bonnes décisions en matière d’enquêtes policières, car elles sont incapables d’anticiper toute la variété des situations de crime.

Le futur de l’IA

L’IA statistique connaît bien d’autres limitations, comme l’incapacité à représenter des structures, à utiliser le sens commun, à détecter ce qui est pertinent ou à raisonner dans le temps et l’espace. Tant que nos ordinateurs n’auront accès qu’à des versions amplifiées de l’IA actuelle, leur intelligence restera cantonnée à des champs d’expertise extrêmement étroits et déconnectés entre eux. Ils nous remplaceront tout au plus dans des tâches spécifiques et routinières. Peut-être cesserons-nous, dans quelques années, de qualifier ces performances « d’intelligentes. » Il ne s’agit pas, toutefois, de manquements irrémédiables pour l’intelligence artificielle. La thèse du livre est que ces problèmes pourront être surmontés un jour, et certaines pistes y sont même proposées. Simplement, ces progrès passent par des innovations qualitatives impossibles à dater. 


(1) Frey, C. B. & Osborne, M. A. (2013). The future of employment : how susceptible are jobs to computerisation ? Technological forecasting and social change, 114, 254-280.


(2) Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., van den Driessche, G., Schrittwieser, J. & et al., (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529 (7587), 484-489.


(3) Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M. & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature, 542 (7639), 115-118.


(4) Voir la vidéo du débat mise en ligne sur le site d’IBM : https://www.ibm.com/blogs/research/2019/02/ai-debate-recap-think-2019/


* Jean-Louis Dessalles est enseignant-chercheur à Telecom Paris (Institut Polytechnique de Paris). Son travail porte sur la modélisation, par l’intelligence artificielle, des processus cognitifs liés au langage. Il est l’auteur de plusieurs livres, dont Aux origines du langage (Hermes-Sciences, 2000), Le fil de la vie (avec C. Gaucherel et P.-H. Gouyon) (Odile Jacob, 2016) et tout récemment Des intelligences TRÈS artificielles (Odile Jacob, 2019).