Partagez cette page :

A l’heure où le plus fort du hype[1] récent sur l’IA semble enfin passer, il apparaît opportun de s’interroger avec un peu de recul sur ce que les succès indéniables des techniques avancées d’apprentissage machine représentent conceptuellement et ont vraiment changé concrètement. Le parti pris ici choisi est de brasser les axes d’analyse multidisciplinaires afin de saisir les principaux enjeux, de nature diverse, posés par ces mécanismes d’apprentissage et de prises de décisions autonomes.

Revenons seulement vingt ans en arrière. Pierre-Gilles de Gennes présentait ses travaux novateurs sur les cristaux liquides à travers toute la France, et conseillait à son public, souvent notoirement réfractaire à l’étude de la chimie (dont j’étais), de s’essayer à la lecture du système périodique de Primo Levi[2], collection de récits, chacun inspiré d’un épisode autobiographique et d’un élément de la table de Mendeleïev.

Incitation didactique bienvenue, tant la chimie, ingrate au premier abord, pouvait rebuter ses publics très divers, les non scientifiques comme les étudiants en taupe, qui n’y décelaient parfois que peu de grâce au regard d’autres sciences réputées plus « dures ».

Ce conseil me revient à la mémoire, en ces temps où l’expression d’Intelligence Artificielle sature les ondes. Cette invitation à faire se croiser différents regards, et à éclairer les uns par les autres vaut plus que jamais : convier littérature, sciences mathématiques et physique, sociologie me semble bienvenu pour mieux saisir, et ressentir, les enjeux de l’IA.

L’IA actuelle est celle de l’apprentissage machine (machine learning), plus Intuition Artificielle qu’Intelligence ?

Reculons encore le curseur historique jusqu’aux années cinquante. Il est à présent généralement admis que l’officialisation d’un champ de recherche concernant l’Intelligence Artificielle (IA) trouve son origine dans la conférence de Dartmouth en 1956, organisée principalement par John McCarthy et Marvin Minsky, avec la participation notable d’Herbert Simon et de Claude Shannon. Elle est le prolongement direct de mouvements plus anciens, tels que la cybernétique[3] (du grec ancien signifiant « gouverner, piloter ») de Norbert Wiener, développée dès 1947, nommée ainsi en l’honneur de… Platon.

A l’origine (1956), logique formelle et apprentissage machine

Les technologies présentées lors de la conférence ont fait date : dès 1956, l’algorithme de preuve formelle, permettant à des machines de démontrer certains résultats mathématiques[4] ; et l’embryon algorithmique de machines expertes au jeu des échecs. Puis en 1957, le perceptron de Frank Rosenblatt, élément constitutif des, à présent fameux, réseaux de neurones artificiels. Ce dernier introduit en pionnier un concept majeur, car si les premiers algorithmes partaient classiquement d’une approche déductive (= partir de règles, et prédire) celui-ci appelle une approche inductive (= partir des résultats, et bâtir un système de prédiction…), rendue possible par un système d’inspiration bio-mimétique. Et pour cela, la machine doit donc apprendre mais, fait déroutant, même sans… comprendre, ni pouvoir expliciter, dans des règles, son cheminement final.

C’est le règne de l’analogie, de la prédiction du futur en fonction des corrélations apprises dans le passé, et ceci sans explicitation de lien causal[5].

Les deux approches sont ainsi en opposition conceptuelle frontale et ce sont successivement les espoirs, les déconvenues et les récents succès de l’approche inductive qui occupent depuis quelques années le devant de la scène. Ces systèmes d’apprentissage statistique par les machines ont en effet connu depuis les années 2010 des succès remarquables dans les tâches liées aux perceptions sensorielles (vision, langage), celles précisément dans lesquelles le cerveau humain excelle.

L’IA serait ainsi une impulsion donnée à la fois aux sciences cognitives et à certains systèmes informatiques afin d’émuler les capacités mentales humaines. L’IA n’est donc pas une technologie, mais un champ de recherche qui vise en asymptote, lointaine, la recréation d’une véritable intelligence humaine sur des substrats artificiels variés. Les systèmes actuels, s’ils excellent depuis peu sur certaines applications de perception, sont loin d’atteindre encore cet objectif.

Intelligence Humaine ? Géométrie et finesse pascaliennes

Si l’on se propose d’illustrer l’intelligence humaine, telle qu’elle était vue par les informaticiens et mathématiciens de Dartmouth, convoquons Pascal un moment, qui distingue les esprits de géométrie (déductif) et ceux de finesse (plus inductif, intuitif). C’est en fait, de façon ramassée, l’évocation de tout un continuum de pensée entre rationalisme et empirisme. Stéphane Mallat rappelle dans ses séries d’exposés au Collège de France[6] que les approches de l’intelligence (inter-legere, choisir entre) évoluent sans chronologie depuis la pure spéculation abstraite jusqu’à l’apprentissage au plus près de l’expérience, reliant ainsi Platon, Leibnitz, Descartes, Kant, Wittgenstein, Hume, à Locke, Aristote…. Il n’y a pas ici comme ailleurs de sens de l’Histoire ou de déterminisme, progrès irréversible de la compréhension humaine dans un sens unique, mais bien plutôt pléthore d’approches théoriques différentes. Fait nouveau, toutefois : le formidable défi pour considérer l’intelligence humaine non seulement comme innée, structurelle et purement logique, mais également largement construite, définie par un long processus d’apprentissages successifs nourri des corrélations et causalités observées lors de multiples expériences comparables.

Que retirer de ces mises en perspective ?

LIA actuelle est davantage une « Intuition Artificielle »

Tout d’abord que l’engouement médiatique récent sur ce sujet repose finalement sur un concept technique ancien, l’apprentissage machine, et sur les succès concrets récents d’algorithmes d’apprentissage statistique, rendus enfin utilisables par la conjonction de la numérisation récente des comportements humains dans un premier temps, puis dans un second temps par la mise à disposition de machines assez puissantes pour apprendre de ces traces numériques, massives et variées. Et ce, bien que les concepts initiaux aient leurs racines dans les années 40-50.

Ensuite que le terme d’Intelligence est actuellement ambigu et souvent abusif.
Ambigu, car en France, pays au cartésianisme encore triomphant, l’intelligence est vue principalement comme mathématique, déductive et causale beaucoup plus que dans des cultures, anglo-saxonnes par exemple, privilégiant l’empirisme, l’intuition.

Abusif, car comme le rappelle Yann Le Cun par exemple, le champ cognitif couvert par les intelligences artificielles actuelles reste extrêmement étroit : le plus puissant des supercalculateurs couplé aux algorithmes les plus innovants est très loin de savoir traiter « autant de problèmes que ne le fait le cerveau, même d’un rat ».

Enfin, que ces intelligences nouvelles apprennent des données, mais sans nous donner en retour de règles explicites. Dans les années 90, les systèmes experts traduisaient explicitement en algorithmes les règles métier des experts humains. Les systèmes de réseaux de neurones, supports de nombreuses IA actuelles, sont constitués de gigantesques matrices de chiffres. A la manière des hologrammes, les règles apprises par les systèmes neuronaux sont distribuées dans l’ensemble des nœuds du système neuronal, et ses… millions de paramètres[7]. Ils sont donc opaques par construction : de même que ce n’est pas en étudiant une image d’IRM cérébrale, fût-elle prise à la granularité des neurones activés ou inhibés (~80 milliards dans un cerveau humain), que nous accèderons à l’instantané d’un raisonnement, ou à la personnalité explicite d’un patient.

Ces intelligences sont ainsi largement des intuitions, et leur demander de nous expliquer leur fonctionnement supposerait d’elles, à l’heure actuelle, un effort… d’introspection ! que leur principe de construction rend particulièrement difficile à réaliser.

L’IA, nouvel « or noir » : parachèvement d’une tendance bi-séculaire d’automatisation

Conséquence de cet engouement, sont apparues de très nombreuses études anxiogènes liées à l’automatisation : quelles professions sont les plus menacées, en fonction du secteur, ou de la plus ou moindre grande répétitivité des tâches? D’où une sorte de sidération généralisée : « Serai-je touché moi aussi ? La société sera-t-elle divisée entre les experts des IA et les autres …? ». Si ces refrains lancinants sont en fait connus et récurrents depuis plus de deux siècles, et les fameux luddites de 1811 en Angleterre ou les canuts lyonnais, l’IA me semble toutefois porter en soi, conceptuellement, de quoi mener le phénomène d’automatisation à son terme. Comment reprendre un cheminement éclairant sur ce sujet ?

Automatisation et hiérarchisation des tâches humaines

En 1958, soit deux ans après la conférence de Dartmouth, Hannah Arendt propose dans « Condition de l’Homme Moderne » un regard philosophico-historique, notamment sur le travail, qui fait date. Elle rappelle tout d’abord la hiérarchie des valeurs tacitement admise par l’Occident depuis Aristote, plaçant tout en haut les actions non nécessaires à la survie : action politique, philosophie, contemplation (theoria) ; et au second plan, les tâches que l’on définirait actuellement comme celles du bas de la pyramide de Maslow. Les deux siècles précédents ont vu l’automatisation croissante de ces dernières (agriculture, commerce, …) grâce à l’exploitation conjuguée des ressources naturelles, les matières premières et les énergies.

L’IA se propose d’achever le mouvement, et de nous débarrasser, également, à terme, du souci des tâches cognitives.

Certes, mais que nous restera-t-il, à nous individus ou sociétés ? Quelle réponse individuelle à cette nouvelle condition de l’existentialisme, de l’absurde ? Quelle cohésion collective nouvelle faire advenir en ciment des groupements humains ?

Quêtes de sens : collective ? individuelle ?

Hannah Arendt anticipait les conséquences de ce mouvement sur deux plans.

Collectivement d’abord, deux siècles d’industrialisation progressive ont construit une société de travailleurs. Si l’on reprend sa formule, l’automatisation continûment croissante des tâches manuelles, amenuisant toujours plus la part de travail réalisée par les humains, consacrerait donc, in fine, l’avènement d’une société de « travailleurs sans travail ». L’IA pousse à parachever largement ce mouvement et à défaire aussi progressivement les hommes du souci des tâches plus cognitives encore préservées dans l’échelle de valeur aristotélicienne. Et par là, à effacer la dernière barrière sociale induite par l’opposition entre travail manuel/répétitif/automatisable, et travail intellectuel/original/créatif. C’est donc à terme le dernier clivage social qui est amené à tomber, l’automatisation touchant alors l’ensemble des groupements sociaux.

Individuellement ensuite, quel impact ? Poncif du management, appel est fait à tous les managers de donner envie à chacun dans leurs équipes « de se lever tous les matins » et, fait nouveau, en « donnant du sens à ses actions ». Apparaît alors un paradoxe structurel : l’automatisation a retiré la nécessité d’employer son temps à des tâches nécessaires quand, dans le même temps, la société valorisait des tâches dont l’utilité pratique est beaucoup moins immédiatement perceptible, et qui elles-mêmes, s’automatisant, se dévaloriseront. Je me risque donc à l’hypothèse qu’une large partie de l’inconfort individuel confusément ressenti par beaucoup aujourd’hui tire ses racines profondes de cette vacance de sens toujours croissante des tâches humaines, finalement confusément perçues comme majoritairement inutiles[8]. Intuition décrite par Hannah Arendt dès 1958, base aussi de l’absurde camusien « né à mi-distance de la misère et du soleil »[9], écartelé entre la contemplation de la beauté éternelle du monde et l’absurde en contraste de nombre d’activités humaines.

Quels enjeux principaux, individuels et sociétaux, retenir de l’automatisation par l’IA ?

Impact en retour sur l’Intelligence Humaine ?

Enfin, poussons encore un cran plus loin. Georges Bernanos (dans La France contre les Robots, 1947, notamment) anticipe les effets du machinisme sur la « matière humaine » même, et par là, les organisations politiques et économiques. C’est une préoccupation proche des intuitions de Marshall MacLuhan (développées dans La Galaxie Gutenberg, 1962), qui soutenait que le média lui-même influençait l’homme, parfois plus encore que le message qu’il véhiculait. Ainsi l’homme de tradition orale sur-développe une hypermnésie, des capacités de mémorisation[10]. L’homme de tradition écrite développera plus ses capacités déductives, et beaucoup moins ses capacités mémorielles. Dit autrement : si l’apprentissage manuel s’amenuise par l’automatisation, puis l’apprentissage cognitif est réduit par l’IA, quel pourrait être l’impact sur la formation de l’Intelligence Humaine ?[11] Quel sera « l’Homme de l’IA ? »

Hannah Arendt, poursuivant son raisonnement, et s’appuyant sur la difficulté de compréhension, même par les experts, de découvertes scientifiques telles la mécanique quantique ou les théories de relativité, souligne que la condition humaine était également changée par ce fait que, nous les hommes n’étions dès lors intrinsèquement « plus capables de comprendre, c’est-à-dire de penser et d’exprimer des choses que nous sommes cependant capables de faire ».  Elle risque alors, dès 1958, qu’il faudra certainement s’adjoindre des outils capables de nous aider à penser cette complexité. Sans parler de transhumanisme, il est cependant dès à présent indispensable de se doter des outils permettant de mieux comprendre le comportement des modèles d’IA que nous avons entraînés.

Quels impacts sociétaux principaux ?

Tout d’abord une bonne nouvelle : les prophètes d’apocalypse faisant leur fond de commerce d’une séparation entre élite maîtrisant et utilisant les IA et le reste de l’humanité ont certainement tort, pour deux raisons[12].

D’une part, l’automatisation des tâches touchera à terme toute la population, quelle que soit donc la noblesse perçue des tâches qui lui incombaient auparavant (tertiaire inclus).
D’autre part, même les plus experts en IA, leurs concepteurs, sont et seront toujours plus incapables de comprendre eux-mêmes les systèmes qu’ils auront créés, du fait de la complexité conjuguée des données et des algorithmes (ex : 15 millions d’image d’apprentissage[13] et de l’ordre de 100 millions de paramètres pour les systèmes de reconnaissance d’images), et de l’empilement algorithmique (système de systèmes).

Ensuite, la sobriété nécessaire en temps de raréfaction des ressources amènera certainement également une sobriété… d’automatisation. Car tout comme les vagues précédentes d’automatisation, l’IA est énergivore : ce nouvel « or noir » tant vanté est lui-même fort consommateur d’énergie et de ressources rares. Les deux tendances d’automatisation matérielles et cognitives reposent sur les mêmes prérequis, d’hyperabondance d’énergie et de ressources naturelles. Le Shift Project, par exemple, évalue à 10 % la part des technologies de l’information dans la consommation d’énergie mondiale. Là encore, pas de sens, unique, de l’Histoire.

Enfin, l’effort d’éducation est d’ores et déjà de premier ordre afin qu’une part croissante de la population connaisse ces mécanismes statistiques (cursus de Data Science en généralisation ; formation continue au sein des entreprises à ces nouveaux outils et enjeux) à défaut de vraiment les comprendre. L’effort de recherche est également nécessaire[14], afin de les faire évoluer vers des mécanismes plus explicables, et de les doter nativement d’interfaces explicatives.

Ces efforts devront être poursuivis, afin de garder un contrôle humain, et de veiller à ce que les mécanismes d’IA demeurent « responsables », quelque complexes qu’ils soient : les enjeux de déploiement avec succès, d’acceptation par les régulateurs, mais aussi et surtout les enjeux éthiques le commandent. Enjeux très différents selon que l’IA est individuelle ou collective, et selon l’acception précise que l’on donnera au mot « éthique ».

***

Fin de la première partie de l’article de David Cortés.
La deuxième partie sera publiée lundi 17 février sous le titre : « Enjeux éthiques et systémiques des IA, individuelles et collectives ».

Mots-clefs : intelligence artificielle – apprentissage machine – automatisation – robotique


[1] Cf. courbe du Hype de Gartner, pour les phénomènes d’emballement sur des termes technologiques

[2] « Le système périodique », Primo Levi. 1975.

[3] D’autres initiatives, telle l’école de Palo Alto du même Norbert Wiener, invitaient à une approche très multidisciplinaire, entre informatique, physique, sciences de l’information, et sciences moins « dures ».

[4] Logic Theorist par Allen Newell, Herbert A. Simon et Cliff Shaw. Considéré comme le premier véritable programme d’intelligence artificielle, capable de prouver 38 des 52 théorèmes des Principia Mathematica de Whitehead et Russell. Source : Wikipédia.

[5] Pour une approche explicative par… la physique statistique, et les verres de spin / ferromagnétisme, voir Marc Mézard, 1990 : https://www.persee.fr/doc/intel_0769-4113_1990_num_9_1_884. Sur la causalité : « The book of Why » de Judea Pearl.

[6] « Sciences des données et apprentissage en grande dimension », Stéphane Mallat, Paris • Collège de France/Fayard coll. Leçons inaugurales • 2018 • 80 p. •

[7] cf. « Architects of Intelligence », Martin Ford, avec G.Hinton, et le principe de représentations distribuées.

[8] Les catégorisations générationnelles (Y « Why ?») se rattachent bien littéralement à cette quête de sens

[9] Préface à la réédition de « L’Envers et l’endroit ».

[10] On pensera aux conséquences de l’effort de mémorisation des >12 000 hexamètres dactyliques de l’Iliade d’une part, et de l’Odyssée d’autre part…

[11] « Bilan de l’intelligence », Paul Valéry, conférence de 1935.

[12] On trouve de nombreuses racines littéraires à ce courant de pensée : on pourra citer Gustave Le Bon, « Psychologie des foules » dès 1895, ou de façon extrême, H.G. Wells, « The Time Machine ».

[13] Célèbre Dataset « ImageNet », projet dirigé par Fei-Fei Li.

[14] Plusieurs Chaires universitaires, en France notamment, s’attellent en ce moment à ce défi.

Partagez cette page :