Le numérique n’est pas seulement un ensemble de technologies, c’est aussi un « milieu » dans lequel nous évoluons. C’est ainsi que l’envisage l’armée, en France mais aussi Etats-Unis, qui identifie 5 milieux en interaction, avec leurs contraintes propres : air, terre, mer, espace et « cyber ». Ce milieu baigne nos relations interpersonnelles et sociales, nos interactions avec l’Etat, notre lien à la connaissance, à l’imagination ou à l’art, et les remodèle. Il redéfinit la limite entre sphère privée et sphère publique autant qu’entre surveillance et liberté, il donne corps à la société du spectacle permanent, par tous et pour tous, il occupe voire manipule nos cerveaux : le numérique est un vecteur essentiel de projet(s) politique(s).
Avec Internet, ce vecteur politique a d’abord permis la diffusion des idées au sein d’une agora mondiale qui s’est construite par la base, par sérendipité et pratiquement sans contrôle ; cette agora nouvelle a ouvert des espaces et des espoirs de tolérance, qui ont culminé avec les printemps arabes et les révolutions de couleur. Pourtant l’agora mondiale des débuts se dilue désormais dans une multitude de bulles de filtres où se développent défiance et agressivité, et se retrouve confrontée à la menace d’un « splinternet » déjà quasiment acté en Chine. Cette dissolution est largement liée à l’évolution des plateformes depuis une dizaine d’années, qui ont imposé un développement d’Internet et des technologies numériques centralisé et très « descendant ». Quelques acteurs technologiques ont progressivement imposé des usages : certains remettent en cause des fondements de la société à l’instar de Uber, d’autres organisent des manipulations à l’instar de Cambridge Analytica[1] via Facebook, ou plus récemment Team Jorge via tous les réseaux sociaux, comme l’a révélé le collectif Forbidden Stories[2]. Ceci est rendu possible par la vitesse de déploiement des technologies et leur ubiquité : les usages sont là avant de pouvoir être compris, avant que leur impact sur la société puisse être interprété, et donc avant toute forme de débat sérieux. La régulation arrive a posteriori tant bien que (surtout) mal : en attendant la démocratie est mise en danger, les ingérences informationnelles se multiplient, des fake news sont amplifiées et des élections sont manipulées comme le Brexit ou les élections US en 2016.
Algorithmes : un enjeu politique
L’urgence de l’enjeu démocratique du numérique s’est intensifiée avec l’intelligence artificielle. D’abord parce que celle-ci se déploie actuellement à une vitesse phénoménale, bien plus rapidement que notre temps politique. Ensuite parce que l’« algorithme » passe (à tort) pour un objet lointain, virtuel, complexe et opaque. Renoncer à comprendre est alors la solution de facilité pour les politiques comme pour leurs électeurs : le marketing de la technologie incite d’ailleurs à cette renonciation. Dès lors l’opacité des algorithmes s’impose comme allant de soi, comme inévitable : or l’opacité dessert toujours la démocratie.
Un des premiers usages de masse de l’intelligence artificielle est arrivé avec les plateformes et leur besoin d’hyperpersonnalisation des contenus pour créer « de l’engagement » et vendre leurs utilisateurs comme cibles publicitaires disponibles et qualifiées. Pour « hyperpersonnaliser », chaque plateforme va développer des algorithmes d’IA capables d’apprendre qui nous sommes, d’analyser et de ficher le profil psychologique de chacun sur des centaines de variables, englobant ses habitudes sociales, son profil de consommation, aussi bien ses inclinations sexuelles ou politiques : ainsi en 230 « likes », Facebook a une meilleure connaissance de votre profil psychologique que votre conjoint[3]… Lorsque la publicité qui est envoyée est une « fake news » on entre dans le domaine de la manipulation, le revenu publicitaire permettant de financer des organes de désinformation sectaires ou factieux[4]. Lorsque le mécanisme de profilage psychologique est utilisé pour du scoring social, on entre dans le domaine de la surveillance de masse et à terme du totalitarisme[5].
Il y a là un glissement politique qui mérite vigilance. Des usages « cool » flattent l’unicité de la personnalité de chacun, et nécessitent pour fonctionner des algorithmes de ciblage personnalisé qui relèvent in fine de la surveillance de masse : comme les fiches du KGB ou de la Stasi au XXème siècle, mais mieux faites, plus complètes, sur tout le monde et sans frontière. Ce glissement procède d’une hybridation de jeux, de « je » et de surveillance qui se devine très bien dans un TikTok, dont la survie de ses dirigeants dépend de leur allégeance au régime et donc de leur contribution à ses ambitions de surveillance totale. C’est la dérive vers le « capitalisme de surveillance » décrite par Shoshanna Zuboff[6]. Notre soumission à cette surveillance de masse ne se joue pas qu’à Paris : elle se joue aussi à Pékin et très largement dans notre faiblesse à laisser installer son mouchard dans les téléphones de nos enfants.
Ethique et IA : les travailleurs de l’amer
Figure de proue actuelle de l’IA, Sam Altmann, fondateur de OpenAI et créateur ChatGPT, se dit d’ailleurs « un peu effrayé »[7] par les perspectives de transformation de la société ouvertes par l’IA. Autre cofondateur de OpenAI, Ilya Sutskever explique de la même manière pourquoi les modèles d’IA de la société, conçus initialement pour contribuer à une science ouverte et collaborative, sont désormais fermés et opaques[8] : une IA générative comme GPT-4 a trop de puissance, trop de dérives possibles, trop d’usages potentiellement dangereux, pour être accessible à n’importe qui. En effet, une technologie qui promet de transformer radicalement le travail de la majorité des cols blancs, aussi bien que la recherche sur les médicaments, mérite, si ce n’est de la frayeur, au moins de l’attention et une compréhension détaillée… Mais du coup qui doit en avoir la maitrise et en assurer la gouvernance pour que le bien commun soit assuré ?
A travers de nombreux exemples, la mathématicienne Cathy O’Neil a illustré que l’IA n’est ni intelligente ni objective[9] : elle véhicule des biais, dits « biais algorithmiques », avec d’importantes conséquences sur ses usages, que ce soit dans un contexte judiciaire, de notation des professeurs, de prévention de la criminalité ou de l’attribution de prêts ou d’assurances. Ces biais ne sont pas uniquement une question de données d’entrainement comme on l’entend trop souvent, mais aussi et surtout une conséquence des règles écrites par les développeurs pour définir le fonctionnement de chaque algorithme d’IA. A travers leur travail les développeurs d’une IA imposent leurs biais cognitifs, idéologiques ou politiques : c’est normal et inévitable. Ce biais des programmeurs se voit par exemple quand Baidu déploie son IA conversationnelle qui intègre la censure dans ses règles et refuse d’aborder tout sujet de politique chinoise ou américaine[10] : ce n’est pas une question de données mais de contraintes posées par ses programmeurs. La personnalité et l’éthique du groupe de personnes qui programme ou définit l’IA est donc une question fondamentale.
Pour regarder cette éthique, on peut observer l’aval de l’algorithme, son résultat, on peut aussi observer son amont, la méthode pour le mettre en place son apprentissage. Ainsi OpenAI, malgré 1,5Mds$ d’investissement, s’est appuyée sur le travail de personnes payées sous le seuil de pauvreté au Kenya pour entrainer ChatGPT pendant 2 ans[11]. Chaque dirigeant de OpenAI jure qu’il ne savait pas, que cela se déroulait « à l’insu de son plein gré ». Nihil novi sub sole, il n’y a là rien de très innovant : on exploite aussi en silence des gamines dans les usines textiles au Bangladesh ou au Népal, ou des Ouighours pour fabriquer des vêtements pour de grandes marques de « fast fashion ». Pourtant dans toutes les industries les questions éthiques émergent sous la forme des enjeux RSE et de durabilité : alors que les équipes « sustainability » montent en puissance, entrent dans les Comex et amènent l’éthique dans le reporting extra-financier, chez Microsoft, qui a investi massivement (10Mds$) dans ChatGPT[12], le mouvement est inverse : suppression de l’équipe « éthique » qui travaillait sur les impacts de l’IA[13]. Le sujet éthique y est manifestement une gêne plus qu’une priorité… comme chez Meta ou partiellement Google auparavant. On retrouve là des comportements dénoncés par Frances Haugen il y a deux ans[14] : la réflexion éthique vue comme une entrave, une contrainte inutile ; si l’éthique interroge désagréablement l’innovation, si elle menace de gêner les affaires, il suffit de se débarrasser de l’éthique…
Rien ne s’oppose à la nuit
Il y a, chez une poignée de dirigeants du numérique, un découplage entre « innovation » et « progrès », avec une approche de l’innovation technologique qui s’accommode de pratiques rétrogrades, stigmates d’une vision de la société où tout doit être permis, y compris l’exploitation. Cette proposition de société n’est pas le résultat inéluctable de lois de l’économie ou de l’innovation : c’est juste une normalisation de la prédation et de l’exploitation. Tout cela se fait au nom d’une liberté dont la démocratie serait l’ennemie, pour reprendre la vision de Peter Thiel, centre de cette galaxie « libertarienne », autour duquel gravitent par exemple Elon Musk, Sam Altman, Alex Karp, Mark Zuckerberg, Reid Hoffman, Eric Schmidt, sans oublier l’ultra-droite trumpiste aux Etats-Unis qu’il finance[15]. Tous apportent des usages technologiques dont nous nous émerveillons qu’ils viennent transformer la société en profondeur, sans tellement nous interroger sur la nature des transformations que ces gens promeuvent.
« Code is law » alertait le juriste de Harvard Lawrence Lessig en 2000[16] : la technologie crée l’usage qui crée la loi, et cela crée un risque de transfert de la fabrique des règles de la société depuis des représentants élus, choisis ou désignés, vers des gens qui écrivent ou financent la technologie, c’est à dire vers une forme d’autoritarisme, vers une « technocratie » au sens strict du terme. Le vote récent de la loi sur le déploiement d’IA de surveillance (dite « vidéo surveillance algorithmique ») dans l’espace public pour Paris 2024 est symptomatique. Un vote sans débat public, sans aucune étude d’impact, sans aucune étude probante sur l’efficacité, sans que l’enjeu éthique soit porté sur la place publique, comme si c’était un choix technologique et non un choix de société fondamental. Or si nous renonçons à débattre de la place et de l’usage de la technologie, alors nous renonçons à décider de notre avenir et de ses règles, et laissons la décision à quelques technologistes, quelques financiers, dont tout montre qu’ils voient bien volontiers la prédation comme un moyen. Organiser un arbitrage démocratique de la place du numérique dans la société n’est pas seulement nécessaire, c’est aussi possible : nous le faisons couramment avec d’autres innovations comme le nucléaire, des médicaments ou le clonage. Simplement il ne faut pas laisser s’installer la renonciation politique mais nous approprier collectivement cet objet fondamental du débat.
Cet article a été initialement publié le 24 avril.
Mots-clés : algorithme – IA – éthique – surveillance – démocratie – politique
[1] https://www.lesinrocks.com/2018/04/12/actualite/mark-zuckerberg-admet-que-ses-propres-donnees-ont-ete-detournees-par-cambridge-analytica-111070485/
[2] https://www.france24.com/fr/france/20230215-des-dizaines-d-élections-influencées-par-une-entreprise-israélienne-selon-forbidden-stories
[3] https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/video-facebook-avec-230-likes-l-algorithme-vous-connait-mieux-que-votre-conjoint_2702592.html
[4] https://www.newsguardtech.com/fr/special-reports/marques-milliards-sites-mesinformation-newsguard-comscore/
[5] https://www.lemonde.fr/idees/article/2020/01/16/le-credit-social-les-devoirs-avant-les-droits_6026047_3232.html
[6] https://shoshanazuboff.com/book/about/
[7] https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122
[8] https://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilya-sutskever-interview
[9] https://en.wikipedia.org/wiki/Weapons_of_Math_Destruction
[10] https://www.wsj.com/articles/when-chatbots-run-up-against-chinas-censorship-f7ee1cea
[11] https://time.com/6247678/openai-chatgpt-kenya-workers/
[12] https://www.bloomberg.com/news/articles/2023-01-23/microsoft-makes-multibillion-dollar-investment-in-openai
[13] https://www.theverge.com/2023/3/13/23638823/microsoft-ethics-society-team-responsible-ai-layoffs
[14] https://www.lemonde.fr/pixels/article/2021/11/08/facebook-files-frances-haugen-lanceuse-d-alerte-nouvelle-generation_6101330_4408996.html
[15] https://www.theguardian.com/technology/2022/may/30/peter-thiel-republican-midterms-trump-paypal-mafia
[16] https://www.harvardmagazine.com/2000/01/code-is-law-html
- Intelligence artificielle : cet obscur objet du débat - 24 août 2023
- Le numérique, un enjeu majeur de souveraineté de l’Europe - 5 août 2021
Excellent article qui retrace bien les enjeux. Bravo.
Merci pour cet article aussi instructif …qu’inquiétant pour l’avenir de nos démocraties et donc pour le notre.
De façon générale, je trouve les articles de « variances » très intéressants.Ils mériteraient en général une diffusion plus étendue qui contribuerait aussi à la renommée de l’ENSAE.
Excellent article, merci Matthieu !
Je partage l’interview de Satya Nadella (Microsoft) et Sam Altman (OpenAI) par Emily Chang https://youtu.be/6ydFDwv-n8w?si=RPE13aCf0kl3BXm7
Après son tour du monde Sam Altman semble plus positif… mais le fond de ton propos demeure. Sans prise de conscience des enjeux et des impacts, nous serons non seulement dépassés économiquement mais aussi aliénés à la volonté de quelques-uns.