{"id":4722,"date":"2020-02-17T08:15:20","date_gmt":"2020-02-17T06:15:20","guid":{"rendered":"http:\/\/variances.eu\/?p=4722"},"modified":"2020-02-17T09:47:23","modified_gmt":"2020-02-17T07:47:23","slug":"enjeux-ethiques-et-systemiques-des-ia-individuelles-et-collectives","status":"publish","type":"post","link":"https:\/\/variances.eu\/?p=4722","title":{"rendered":"Enjeux \u00e9thiques et syst\u00e9miques des IA, individuelles et collectives"},"content":{"rendered":"<p><em>Cet article fait suite \u00e0 l\u2019article\u00a0: \u00ab\u00a0<span style=\"text-decoration: underline; color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"http:\/\/variances.eu\/?p=4713\">Intelligence ou Intuition Artificielle ? Les enjeux de l\u2019automatisation<\/a><\/span>\u00a0\u00bb paru jeudi 13 f\u00e9vrier dans variances.eu.<\/em><\/p>\n<p style=\"text-align: center;\">***<\/p>\n<p>Une IA omnipotente (ou encore \u00ab\u00a0g\u00e9n\u00e9rale\u00a0\u00bb), autonome, capable de raisonnement d\u00e9ductif innovant n\u2019est pas encore \u00e0 l\u2019ordre du jour. L\u2019humain augment\u00e9 encore moins. Les questions juridiques, nouvelles, de la responsabilit\u00e9, d\u2019un robot, IA ou homme hybrid\u00e9, appelant \u00e0 l\u00e9gif\u00e9rer en anticipation via une r\u00e9ponse ad hoc, <em>sui generis<\/em>, ne sont, \u00e0 mon sens, pas op\u00e9rationnellement les plus urgentes \u00e0 se poser.<\/p>\n<p>En revanche, la diffusion progressive des \u00ab\u00a0IA\u00a0actuelles \u00bb \u00e0 tous les secteurs, pour des t\u00e2ches vari\u00e9es, suscite d\u00e9j\u00e0 des inqui\u00e9tudes l\u00e9gitimes. Avant de faire confiance sans r\u00e9serve \u00e0 des m\u00e9canismes de prises de d\u00e9cision dont les r\u00e8gles sont difficilement accessibles, et changeantes selon les donn\u00e9es utilis\u00e9es en entr\u00e9e lors des apprentissages, tout un chacun se pose confus\u00e9ment les questions\u00a0: est-ce une bonne chose\u00a0? Les IA agissent-elles \u00e9quitablement, avec justice\u00a0? Est-ce bien l\u00e9gal\u00a0?<\/p>\n<p>Le d\u00e9fi pos\u00e9 ici est donc que les algorithmes d\u2019IA n\u2019\u00e9chappent pas au contr\u00f4le humain.<\/p>\n<p>Or l\u2019Histoire est riche d\u2019exemples pour lesquels ces cat\u00e9gories du bien, du juste, et du l\u00e9gal ont imp\u00e9rativement d\u00fb \u00eatre distingu\u00e9es. L\u2019Europe, particuli\u00e8rement sensible \u00e0 ces questionnements, a d\u00e9j\u00e0 pos\u00e9 de premiers jalons l\u00e9gaux (le RGPD notamment), obligeant les acteurs priv\u00e9s \u00e0 exposer la finalit\u00e9 des traitements des donn\u00e9es personnelles, refl\u00e9tant ainsi dans le droit les inqui\u00e9tudes publiques quant aux intentions et au niveau de contr\u00f4le des utilisateurs des donn\u00e9es. A l\u2019origine de ces questionnements est donc l\u2019id\u00e9e de la finalit\u00e9, de la volont\u00e9 des acteurs\u00a0: de leur \u00e9thique. Revenons tout d\u2019abord sur ce terme.<\/p>\n<h3><strong style=\"font-size: 16px;\">Ethique de l\u2019IA<\/strong><strong style=\"font-size: 16px;\">,<\/strong><strong style=\"font-size: 16px;\"> plus qu\u2019IA \u00e9thique, et IA responsable\u00a0<\/strong><strong><br \/>\n<\/strong><\/h3>\n<p>S\u2019il semble pr\u00e9matur\u00e9 de parler d\u2019\u00ab\u00a0IA \u00e9thique\u00a0\u00bb, actuellement, comme l\u2019on parlerait d\u2019un individu \u00e9thique<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a> il appara\u00eet indispensable de parler, d\u00e8s \u00e0 pr\u00e9sent, d\u2019\u00ab\u00a0\u00e9thique des IA\u00a0\u00bb, et des nouveaux enjeux soci\u00e9taux qu\u2019elles soul\u00e8vent.<\/p>\n<h5><strong>Le r\u00eave d\u2019une IA \u00e9thique universelle, la r\u00e9alit\u00e9 d\u2019une \u00e9thique des IA<\/strong><\/h5>\n<p>L\u2019\u00e9thique est \u00e9tymologiquement le \u00ab\u00a0caract\u00e8re habituel\u00a0\u00bb. Elle prit le sens de \u00ab\u00a0morale\u00a0\u00bb d\u00e8s lors qu\u2019on se r\u00e9f\u00e9ra \u00e0 la posture platonicienne visant \u00e0 accorder ses actions habituelles \u00e0 ce que l\u2019on per\u00e7oit de l\u2019harmonie du monde.<\/p>\n<p>L\u2019approche litt\u00e9rale nous aide ainsi \u00e0 tirer des cons\u00e9quences de l\u2019exp\u00e9rience plan\u00e9taire de la <em>Moral Machine<\/em> du MIT. Celle-ci consistait \u00e0 r\u00e9pondre \u00e0 un questionnaire pour savoir qui vous choisiriez d\u2019\u00e9pargner si vous \u00e9tiez une voiture autonome contrainte de trancher entre plusieurs man\u0153uvres toutes fatales. Les r\u00e9sultats furent \u00e9tonnants, et s\u00e9paraient le globe en trois grandes g\u00e9ographies de r\u00e9sultats<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a>, fruit des habitudes et valeurs locales des populations.<\/p>\n<p>De la m\u00eame fa\u00e7on, parler d\u2019\u00e9thique pour des processus de d\u00e9cision en entreprises (\u00ab\u00a0personnes morales\u00a0\u00bb\u2026), dans toute leur diversit\u00e9, n\u2019a de sens pr\u00e9cis que dans la recherche, pour chacune, de mise en conformit\u00e9 de ses d\u00e9cisions op\u00e9rationnelles quotidiennes au regard de sa raison d\u2019\u00eatre proclam\u00e9e, de ses valeurs d\u2019entreprise. La r\u00e9cente loi PACTE va dans un sens favorable \u00e0 cet \u00e9claircissement, invitant chaque entreprise \u00e0 d\u00e9finir formellement une raison d\u2019\u00eatre, et un objectif d\u2019int\u00e9r\u00eat social.<\/p>\n<p>Au vu de la diversit\u00e9 des cultures pour les hommes, ou des missions et valeurs pour les entreprises, viser une \u00e9thique universelle appara\u00eet ainsi comme un beau r\u00eave, mais hors sol.<\/p>\n<p>Comment alors penser une \u00e9thique des IA\u00a0? La principale caract\u00e9ristique nouvelle est que ces intelligences ou \u00ab\u00a0intuitions artificielles\u00a0\u00bb refl\u00e8tent justement une quintessence des caract\u00e8res habituels des hommes ou des ph\u00e9nom\u00e8nes qu\u2019elles singent. Si les donn\u00e9es d\u2019apprentissage refl\u00e8tent des biais cognitifs, affectifs, culturels, alors les comportements des IA seront tout autant biais\u00e9s, discriminants.<a href=\"#_ftn3\" name=\"_ftnref3\">[3]<\/a> Elles n\u2019ont aucunement, comme pr\u00e9alable \u00e0 leur construction de d\u00e9finir une \u00e9quit\u00e9, \u00e9thique particuli\u00e8re, mais refl\u00e8tent le comportement et donc l\u2019\u00e9thique tacite d\u2019un groupe, ou de sous-groupes d\u2019humains.<\/p>\n<p>Charge donc aux responsables des d\u00e9ploiements des \u00ab\u00a0IA\u00a0\u00bb de veiller activement \u00e0 r\u00e9aliser des automatisations non discriminantes, exemptes de biais, tout au long des cycles de vie de ces IA. Ainsi nous faut-il <u>veiller \u00e0 une \u00e9thique de l<\/u><u>\u2019<\/u><u>IA, pour chacun des usages, et d\u00e8s sa conception<\/u>. Quitte \u00e0 en demander \u00e0 pr\u00e9sent plus aux machines que nous ne le faisions des hommes qu\u2019elles secondent, ou remplacent.<\/p>\n<h5><strong>Ethique des IA : aller au-del\u00e0 de la transparence, vers une IA responsable<\/strong><\/h5>\n<p>Pour ces raisons, apporter la plus parfaite transparence sur les traitements ne suffit pas. On retrouve, certes exacerb\u00e9s, les termes d\u2019une probl\u00e9matique d\u00e9j\u00e0 bien connue de manque de transparence des traitements classiques, d\u00e9terministes, rendus insuffisamment publics (type\u00a0: GAFAM et Cambridge Analytica). Celle-ci se r\u00e9soudrait ais\u00e9ment suivant des m\u00e9canismes et processus classiques\u00a0: r\u00e9f\u00e9rencer et tracer les donn\u00e9es d\u2019apprentissage et les algorithmes utilis\u00e9s\u00a0; adopter une charte \u00e9thique \u00e0 laquelle les d\u00e9veloppeurs ne peuvent d\u00e9roger, pour se pr\u00e9munir des biais humains\u00a0lors des phases de construction ; veiller \u00e0 l\u2019absence de d\u00e9rive dans le temps\u00a0; tester l\u2019absence de biais\u00a0; documenter les finalit\u00e9s de chaque traitement et les algorithmes associ\u00e9s, et les faire avaliser par un comit\u00e9 d\u2019\u00e9thique interne, compos\u00e9 de l\u2019ensemble des parties prenantes\u00a0; enfin, auditer les processus, les donn\u00e9es utilis\u00e9es, et finalement les mod\u00e8les statistiques par des tiers de confiance<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a>&#8230;<\/p>\n<p>Tout ceci correspond \u00e0 la mise en place ou l\u2019adaptation de \u00ab\u00a0gouvernance\u00a0\u00bb classique.<\/p>\n<p>Mais deux probl\u00e9matiques radicalement nouvelles, et probablement d\u2019\u00e9gale importance, se font jour.<\/p>\n<h3><strong>Enjeux nouveaux\u00a0: expliquer les mod\u00e8les et pr\u00e9server la diversit\u00e9<\/strong><\/h3>\n<h5><strong>Expliquer les mod\u00e8les d\u2019IA\u00a0: b\u00e2tir la confiance<\/strong><\/h5>\n<p>La premi\u00e8re est que la transparence unitaire, algorithme par algorithme, m\u00eame totale, ne suffit pas \u00e0 comprendre le comportement des mod\u00e8les entra\u00een\u00e9s. Celle-ci se pose dans des termes d\u2019explicabilit\u00e9, d\u2019interpr\u00e9tabilit\u00e9 finale des traitements. Quand les enjeux des prises de d\u00e9cision sont vitaux, un comportement trop probabiliste est \u00e0 proscrire (par ex\u00a0: diagnostic m\u00e9dical, v\u00e9hicules autonomes). L\u2019euphorie des d\u00e9buts a ainsi amen\u00e9 \u00e0 utiliser les algorithmes aux meilleures performances pr\u00e9dictives, au d\u00e9triment de l\u2019explicabilit\u00e9 de leur fonctionnement. Et si le ph\u00e9nom\u00e8ne \u00e0 pr\u00e9dire est complexe, alors le mod\u00e8le pr\u00e9dictif devra l\u2019\u00eatre \u00e9galement.<\/p>\n<p>Tout un pan de recherche est ainsi \u00e0 mener pour, tout d\u2019abord, d\u00e9velopper les nouveaux outils d\u2019explication\/interpr\u00e9tation des mod\u00e8les<a href=\"#_ftn5\" name=\"_ftnref5\">[5]<\/a>\u00a0; mais \u00e9galement afin de faire \u00e9voluer ces algorithmes vers plus de sobri\u00e9t\u00e9, et de mettre au point, \u00e0 terme, de nouveaux algorithmes, les plus parcimonieux possibles, l\u00e0 o\u00f9 l\u2019explicabilit\u00e9 est clef. Et quand il est d\u2019ores et d\u00e9j\u00e0 imp\u00e9ratif de devoir expliquer afin de donner des garanties de fonctionnement (par exemple, suite \u00e0 la crise financi\u00e8re de 2008, dans le cadre du <em>Model Risk Management<\/em> impos\u00e9 par les r\u00e9gulateurs pour certains mod\u00e8les financiers), un compromis entre performance et explicabilit\u00e9 doit \u00eatre trouv\u00e9<a href=\"#_ftn6\" name=\"_ftnref6\">[6]<\/a>.<\/p>\n<p>Ceci passera certainement \u00e0 terme par un souci de r\u00e9-introduction de plus de rationalisme dans ces mod\u00e8les statistiques, et notamment probablement d\u2019hybridation entre des mod\u00e8les peu explicables sur des sous-t\u00e2ches non critiques, et d\u2019autres tr\u00e8s explicables dans les t\u00e2ches explicites de prise de d\u00e9cision.<\/p>\n<p>Plus g\u00e9n\u00e9ralement, quantifier cette sobri\u00e9t\u00e9 maximale des IA, tant en donn\u00e9es d\u2019apprentissage qu\u2019en puissance de calcul n\u00e9cessaire, et quelle que soit leur \u00ab\u00a0nature\u00a0\u00bb, appelle l\u2019\u00e9quivalent ni plus ni moins d\u2019une th\u00e9orie de Shannon des mod\u00e8les, comme celui-ci la d\u00e9veloppa pour l\u2019information. Et notamment sa notion d\u2019entropie, &#8211; mesure de la quantit\u00e9 irr\u00e9ductible d\u2019informations contenue dans une image, un son -, mais pour les mod\u00e8les eux-m\u00eames, qu\u2019il sera certainement n\u00e9cessaire de d\u00e9velopper. Beau d\u00e9fi pour une prochaine vague d\u2019IA\u00a0: pour celle-ci, la qualit\u00e9 des math\u00e9maticiens et ing\u00e9nieurs syst\u00e8me devrait compter au moins autant que la disponibilit\u00e9 des donn\u00e9es abondantes et des super-calculateurs. R\u00e9jouissant, finalement, \u00ab\u00a0quand on n\u2019a pas de (ce nouveau) p\u00e9trole\u2026\u00a0\u00bb<\/p>\n<h5><strong>Se pr\u00e9munir des effets pervers du panoptique, l\u2019uniformisation<\/strong><\/h5>\n<p>La deuxi\u00e8me probl\u00e9matique r\u00e9side dans la r\u00e9sultante syst\u00e9mique de la transparence. Elle se pose dans les termes d\u2019un panoptique num\u00e9rique. C\u2019est l\u2019utilisation de techniques algorithmiques pouss\u00e9es qui dote acteurs priv\u00e9s et agences de renseignement d\u2019outils puissants pour conna\u00eetre contin\u00fbment, et de fa\u00e7on ubiquitaire, des caract\u00e9ristiques intimes de chaque client ou citoyen<a href=\"#_ftn7\" name=\"_ftnref7\">[7]<\/a>.<\/p>\n<p>Reprenant les travaux des fr\u00e8res Bentham du XVIII\u00e8me si\u00e8cle sur les structures carc\u00e9rales \u00ab\u00a0panoptiques\u00a0\u00bb permettant une transparence de tous les instants, Michel Foucault soutenait que la probl\u00e9matique majeure ne venait pas tant de la possibilit\u00e9 de \u00ab\u00a0voir sans \u00eatre vu\u00a0\u00bb, que de celle d\u2019\u00ab\u00a0imposer une conduite quelconque \u00e0 une multiplicit\u00e9 humaine quelconque\u00a0\u00bb<a href=\"#_ftn8\" name=\"_ftnref8\">[8]<\/a>.<\/p>\n<p>Les m\u00e9canismes d\u2019IA bas\u00e9s sur l\u2019analogie poussent effectivement par nature \u00e0 la prolongation du pass\u00e9, et \u00e0 l\u2019uniformisation des pr\u00e9dictions, \u00e0 la r\u00e9duction des atypies, tant par les acteurs priv\u00e9s que publics. Une prime est donc accord\u00e9e aux comportements moutonniers. Ces algorithmes exacerbent donc de fa\u00e7on syst\u00e9mique les tendances sociales, politiques que Tocqueville<a href=\"#_ftn9\" name=\"_ftnref9\">[9]<\/a> ou Bernanos<a href=\"#_ftn10\" name=\"_ftnref10\">[10]<\/a> anticipaient, et qui devaient d\u00e9boucher sur une sorte de molle tyrannie, o\u00f9 pr\u00e9domineraient progressivement \u00ab\u00a0l\u2019Etat sur la Patrie\u00a0\u00bb, la Technique (et la bureaucratie) sur l\u2019Etre, et les rivalit\u00e9s mim\u00e9tiques entre tous<a href=\"#_ftn11\" name=\"_ftnref11\">[11]<\/a>. Y sommes-nous\u00a0d\u00e9j\u00e0 ?<\/p>\n<h3><strong>Pr\u00e9server la diversit\u00e9<\/strong><strong>\u00a0<\/strong><strong>: imp\u00e9ratif \u00e9thique autant que facteur-clef de succ\u00e8s des IA collectives<\/strong><\/h3>\n<h5><strong>Les Intelligences Artificielles performantes actuelles sont collectives<\/strong><\/h5>\n<p>Si les promesses de v\u00e9ritable intelligence artificielle individuelle renvoient \u00e0 un horizon encore lointain, ce sont de fa\u00e7on encore assez m\u00e9connue les formes d\u2019intelligence artificielle collective qui portent d\u2019ores et d\u00e9j\u00e0 le plus de fruits.<\/p>\n<p>Paul Val\u00e9ry, dans \u00ab\u00a0<em>Regards sur le monde actuel<\/em>\u00a0\u00bb d\u00e8s 1931, traduit dans une pr\u00e9face visionnaire nombre de ces enjeux actuels, sa m\u00e9thodologie<a href=\"#_ftn12\" name=\"_ftnref12\">[12]<\/a> (ici appliqu\u00e9e \u00e0 l\u2019\u00e9tude historique, \u00e9voluant d\u2019une analyse \u00e9v\u00e9nementielle \u00e0 l\u2019\u00e9tude des grandes tendances structurelles) d\u00e9passant le recours \u00e0 de simples similitudes. Ces grandes tendances \u00ab\u00a0porteuses d\u2019avenir\u00a0\u00bb, fa\u00e7onnant le monde \u00e0 long terme ont pu \u00eatre ainsi mat\u00e9rielles, tel l\u2019av\u00e8nement de l\u2019\u00e9lectricit\u00e9, ou plus conceptuelle, telle la diffusion mondiale d\u2019une singularit\u00e9 europ\u00e9enne des Lumi\u00e8res. Il les r\u00e9sume ainsi au d\u00e9but du XX\u00e8me si\u00e8cle\u00a0: \u00ab\u00a0Accroissement de nettet\u00e9 et de pr\u00e9cision, accroissement de puissance<em>, <\/em>voil\u00e0 les faits essentiels de l\u2019histoire des temps modernes\u00a0\u00bb.<\/p>\n<p>En quoi l\u2019IA prolonge-t-elle cette tendance\u00a0? L\u2019accroissement de pr\u00e9cision de l\u2019IA individuelle via la prise en compte de beaucoup plus de facteurs pr\u00e9dictifs que ne peut le faire un cerveau humain contribue \u00e0 renforcer la qualit\u00e9 des pr\u00e9dictions. Mais paradoxalement, dans le m\u00eame temps, cela r\u00e9duit de fa\u00e7on syst\u00e9mique la vari\u00e9t\u00e9 des pr\u00e9visions possibles (par exemple l\u2019amplification des emballements mim\u00e9tiques, cons\u00e9quences de la g\u00e9n\u00e9ralisation des algorithmes de recommandation).<\/p>\n<p>Or, cette r\u00e9duction de diversit\u00e9 a \u00e9galement pour effet d\u2019amoindrir la qualit\u00e9 des intelligences collectives. Emile Servan-Schreiber<a href=\"#_ftn13\" name=\"_ftnref13\">[13]<\/a> souligne par exemple que le ph\u00e9nom\u00e8ne de sagesse des foules ne fonctionne que si la diversit\u00e9 des biais de chacun est suffisante pour que l\u2019effet de moyenne sur le grand nombre permette une pr\u00e9diction efficace. Et les formes les plus efficaces d\u2019intelligence collective actuelle (moteurs de recherche<a href=\"#_ftn14\" name=\"_ftnref14\">[14]<\/a>, graphes de causalit\u00e9,\u2026) tirent leur force pr\u00e9cis\u00e9ment de l\u2019exploitation bien au-del\u00e0 des capacit\u00e9s humaines individuelles ou collectives, de cette diversit\u00e9 d\u2019avis humains. Jusqu\u2019aux algorithmes d\u2019IA eux-m\u00eames, de types <em>Random Forest<\/em> ou <em>Boosting trees<\/em> ou <em>Bootstrap<\/em> qui g\u00e9n\u00e8rent un foisonnement d\u2019algorithmes ou d\u2019\u00e9chantillons et en moyennent les pr\u00e9dictions, pour \u00e9viter le surapprentissage\u2026 et qui s\u2019appuient de plus, tr\u00e8s souvent, sur un intense travail humain pr\u00e9alable (notamment pour l\u2019apprentissage profond)<a href=\"#_ftn15\" name=\"_ftnref15\">[15]<\/a>.<\/p>\n<p>L\u2019IA porte donc intrins\u00e8quement les deux tendances, syst\u00e9miquement oppos\u00e9es, d\u2019am\u00e9lioration de la pr\u00e9cision individuelle (IA individuelle), mais en retour d\u2019une perte de diversit\u00e9 des points de vue, limitant \u00e0 terme ses performances (IA collective).<\/p>\n<p>L\u2019enjeu soci\u00e9tal principal ne serait-il pas finalement plus encore que dans l\u2019\u00e9thique des IA (une IA entra\u00een\u00e9e sur des donn\u00e9es chinoises par exemple et utilis\u00e9e en France refl\u00e8terait des m\u0153urs chinoises) dans l\u2019uniformisation croissante du savoir, des actions humaines\u00a0<em>? <\/em><\/p>\n<p>L\u2019usage des IA mim\u00e9tiques actuelles renforce ainsi finalement une autre tendance majeure que percevait Claude L\u00e9vi-Strauss d\u00e8s 1955\u00a0: \u00ab\u00a0L\u2019humanit\u00e9 s\u2019installe dans la monoculture\u00a0; elle s\u2019appr\u00eate \u00e0 produire la civilisation en masse, comme la betterave. Son ordinaire ne comportera plus que ce plat.\u00a0\u00bb <a href=\"#_ftn16\" name=\"_ftnref16\"><em><sup><strong>[16]<\/strong><\/sup><\/em><\/a><\/p>\n<h5><strong>IA \u00e9thique, l\u00e9gale, juste<\/strong><strong>\u00a0<\/strong><strong>? <\/strong><\/h5>\n<p>R\u00e9sumons-nous. Une IA \u00e9thique ne pourra \u00eatre approch\u00e9e qu\u2019en veillant \u00e0 d\u00e9finir des \u00e9thiques de l\u2019IA. Une IA reposant sur des technologies d\u2019apprentissage automatique refl\u00e9tera par d\u00e9faut les biais et discriminations qu\u2019elle aura observ\u00e9es. Une IA sera donc juste si on travaille \u00e0 s\u2019affranchir activement des biais et discriminations existantes, et donc si l\u2019on se d\u00e9finit explicitement des objectifs \u00e9thiques\u00a0: d\u2019\u00e9quit\u00e9, de non-discriminations.<\/p>\n<p>Quel sens donner \u00e0 une IA l\u00e9gale\u00a0? Ce dernier point est finalement presque le plus simple\u00a0: les r\u00e9gulateurs de chaque secteur y travaillent actuellement, et les acteurs politiques s\u2019attellent s\u00e9rieusement \u00e0 d\u00e9finir en Europe le prolongement du RGPD\u00a0: un groupe de 40 experts travaillent actuellement aupr\u00e8s de la Commission Europ\u00e9enne pour d\u00e9finir \u00ab\u00a0une IA digne de confiance\u00a0\u00bb pour l\u2019Union Europ\u00e9enne. Le CEPEJ y travaille \u00e9galement. L\u2019IEEE<a href=\"#_ftn17\" name=\"_ftnref17\">[17]<\/a> travaille par exemple \u00e9galement \u00e0 des \u00e9l\u00e9ments normatifs de <em>process<\/em> de d\u00e9veloppement\u00a0: une possible norme type ISO sur ces sujets est envisag\u00e9e.<\/p>\n<p>Les acteurs travaillant sur ces sujets d\u2019\u00e9thique des IA parviennent finalement \u00e0 une conclusion commune, face aux difficult\u00e9s et aux connexions nombreuses entre les aspects certes \u00e9thiques, mais \u00e9galement op\u00e9rationnels et juridiques, et convergent vers la n\u00e9cessit\u00e9 de faire que ces IA soient \u00ab\u00a0responsables\u00a0\u00bb <a href=\"#_ftn18\" name=\"_ftnref18\">[18]<\/a>, que l\u2019on puisse leur \u00ab\u00a0poser la question\u00a0: pourquoi\u00a0?\u00a0\u00bb et qu\u2019elles puissent r\u00e9pondre. Besoin humain de ne faire confiance que lorsque l\u2019histoire explicative qu\u2019on lui d\u00e9livre se formule en relation de causalit\u00e9\u2026 et non comme le r\u00e9sultat d\u2019une co\u00efncidence, corr\u00e9lation possiblement fortuite.<\/p>\n<p>Et tout comme on ne saurait d\u00e9finir une \u00e9thique universelle acceptable par tous, expliquer des IA s\u2019av\u00e8re un exercice sensiblement diff\u00e9rent en fonction du public et des buts poursuivis. Cette d\u00e9marche est cependant indispensable, et \u2026 bienvenue pour tous.<\/p>\n<p>Quels enjeux rev\u00eat cette responsabilisation n\u00e9cessaire de l\u2019IA\u00a0en fonction des acteurs\u00a0?<\/p>\n<p>On pourra d\u00e9j\u00e0 bri\u00e8vement citer ici qu\u2019expliquer \u00e0 un r\u00e9gulateur ou un l\u00e9gislateur, c\u2019est s\u2019assurer des garanties de fonctionnement des algorithmes. Et c\u2019est n\u00e9cessaire pour assurer la stabilit\u00e9, la robustesse et la r\u00e9silience d\u2019un \u00e9cosyst\u00e8me. Expliquer \u00e0 des collaborateurs ce que fait leur nouvel outil d\u2019IA, d\u00e9fini id\u00e9alement avec eux tout au long de son \u00e9laboration, c\u2019est un facteur-clef de succ\u00e8s d\u2019acceptation et de d\u00e9ploiement r\u00e9ussi en entreprise. Enfin, expliquer aux clients finaux et aux citoyens est indispensable aux succ\u00e8s commerciaux des nouveaux produits et services, ainsi que pour \u00e9viter les pi\u00e8ges tendus d\u2019un horizon de panoptique<a href=\"#_ftn19\" name=\"_ftnref19\">[19]<\/a>.<br \/>\nPour ces derniers en effet, les traitements des donn\u00e9es pouss\u00e9s par les Etats eux-m\u00eames entra\u00eeneraient pour les meilleures intentions de s\u00e9curit\u00e9 des citoyens, une tendance croissante \u00e0 identifier tout comportement d\u00e9viant, statistiquement, et sans possibilit\u00e9 de rendre public les crit\u00e8res de s\u00e9lection retenus. Se pose donc de fa\u00e7on cruciale pour un avenir d\u00e9mocratique la question de la responsabilit\u00e9 publique des acteurs priv\u00e9s d\u00e9tenteurs de donn\u00e9es, certes mais \u00e9galement de la responsabilit\u00e9 citoyenne des acteurs publics.<\/p>\n<h3><strong>R\u00e9ussir une automatisation intelligente ubiquitaire et responsable<\/strong><\/h3>\n<p>A l\u2019heure donc o\u00f9 les technologies d\u2019apprentissage statistique machine se g\u00e9n\u00e9ralisent, que retenir donc des enjeux individuels et soci\u00e9taux majeurs\u00a0?<\/p>\n<p>Si le terme d\u2019Intelligence Artificielle est ancien, et encore abusivement employ\u00e9 pour d\u00e9signer les syst\u00e8mes d\u2019apprentissage statistique actuels, le retour en force de la notion d\u2019apprentissage automatique a permis de r\u00e9aliser des perc\u00e9es op\u00e9rationnelles et conceptuelles majeures (\u00ab\u00a0apprentissage profond\u00a0\u00bb). Ces syst\u00e8mes prolongent cependant d\u2019autres technologies parfois plus performantes sur certaines t\u00e2ches et plus explicables, tels les syst\u00e8mes experts, ou des mod\u00e8les de recherche op\u00e9rationnelle, moins mises en valeur actuellement. Charge aux responsables d\u2019enseignement de ne pas c\u00e9der \u00e0 la mode exclusive de l\u2019apprentissage statistique, mais de veiller \u00e0 maintenir vives ces technologies, g\u00e9n\u00e9ralement plus explicables et parfois plus efficaces.<\/p>\n<p>Encore insuffisamment soulign\u00e9e, c\u2019est \u00e9galement l\u2019intelligence artificielle <u>collective<\/u> qui apporte les avanc\u00e9es majeures, utilisant les possibilit\u00e9s informatiques afin de d\u00e9multiplier notre capacit\u00e9 d\u2019analyse et de synth\u00e8se des savoirs humains<a href=\"#_ftn20\" name=\"_ftnref20\">[20]<\/a>. L\u2019efficience sid\u00e9rante des moteurs de recherche en t\u00e9moignent.<\/p>\n<p>Qu\u2019ils soient \u00ab\u00a0individuels\u00a0\u00bb ou \u00ab\u00a0collectifs\u00a0\u00bb, ces m\u00e9canismes d\u2019IA reposant sur l\u2019analogie posent principalement deux nouveaux d\u00e9fis majeurs\u00a0: leur opacit\u00e9 (par nature), et leur capacit\u00e9 normative \u00e0 tendanciellement renforcer l\u2019uniformisation globale. La question de l\u2019\u00e9thique de ces IA appelle une vigilance nouvelle de la part de toutes les parties prenantes\u00a0: citoyens, collaborateurs en entreprises, clients comme r\u00e9gulateurs et l\u00e9gislateurs.<\/p>\n<p>Vigilance \u00e0 maintenir, au regard de la c\u00e9l\u00e9rit\u00e9 d\u2019av\u00e8nement de ruptures majeures\u00a0: qu\u2019attendre \u00e9thiquement, concr\u00e8tement, par exemple de futurs syst\u00e8mes massivement multi-agents, des groupements d\u2019intelligences autonomes, communiquant entre elles, cr\u00e9ant ainsi une intelligence collective distribu\u00e9e, multicorporelle, mat\u00e9rialis\u00e9e par exemple dans un\u00a0essaim de drones\u00a0interconnect\u00e9s ?<\/p>\n<p>Quelles que soient les caract\u00e9ristiques des futurs syst\u00e8mes d\u2019IA, \u201csuper intelligence humaine\u201d, ou toute autre forme plus originale encore, un contr\u00f4le humain sera n\u00e9cessaire. L\u2019enjeu alors sera de doter ces syst\u00e8mes d\u2019une capacit\u00e9 \u00e0 toujours pouvoir r\u00e9pondre de leurs d\u00e9cisions, et s\u2019expliquer. <strong>Il est imp\u00e9ratif donc d\u2019\u0153uvrer d\u00e8s \u00e0 pr\u00e9sent \u00e0 une IA Responsable.<\/strong><\/p>\n<p><em>Mots-clefs : Intelligence artificielle &#8211;\u00a0 IA &#8211; \u00e9thique &#8211; IA r\u00e9gulation &#8211; IA responsable &#8211; Intelligence collective<\/em><\/p>\n<hr \/>\n<p><em><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> Sont souvent \u00e9voqu\u00e9es et amplement d\u00e9battues ailleurs les \u00ab\u00a0lois d\u2019Asimov\u00a0\u00bb, simples mais aboutissant \u00e0 des paradoxes non surmontables, pour garantir la non-nocivit\u00e9 des d\u00e9cisions de robots autonomes envers leur cr\u00e9ateur.<\/em><\/p>\n<p><em><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a> Une plaque asiatique, privil\u00e9giant les anciens et le groupe. Une plaque occidentale, sans pr\u00e9f\u00e9rence marqu\u00e9e. Et une plaque \u00ab\u00a0sud\u00a0\u00bb, incluant en Europe la France, accordant sa pr\u00e9f\u00e9rence aux jeunes et aux femmes.<\/em><\/p>\n<p><em><a href=\"#_ftnref3\" name=\"_ftn3\">[3]<\/a> Cathy O\u2019Neil, Weapon of Math Destruction. Cf la note de lecture d\u2019Alain Minczeles, <span style=\"text-decoration: underline;\"><a href=\"http:\/\/variances.eu\/?p=3859\"><span style=\"color: #0000ff; text-decoration: underline;\">http:\/\/variances.eu\/?p=3859<\/span><\/a><\/span>,<\/em><\/p>\n<p><em><a href=\"#_ftnref4\" name=\"_ftn4\">[4]<\/a> Pr\u00e9conisation du \u00ab\u00a0rapport Villani\u00a0\u00bb, appelant \u00e0 la cr\u00e9ation d\u2019un organisme public de contr\u00f4le.<\/em><\/p>\n<p><em><a href=\"#_ftnref5\" name=\"_ftn5\">[5]<\/a> Cf. le programme X-IA de la DARPA, par exemple.<\/em><\/p>\n<p><em><a href=\"#_ftnref6\" name=\"_ftn6\">[6]<\/a> Ceci \u00e9tend et compl\u00e8te le concept connu des Data Scientists de compromis \u00ab\u00a0Biais\/variance\u00a0\u00bb.<\/em><\/p>\n<p><em><a href=\"#_ftnref7\" name=\"_ftn7\">[7]<\/a> Cf. Eric Schmidt, ex-CEO de Google. IFA Berlin 2019. \u00ab\u00a0We know where you are. We know where you\u2019ve been. We can more or less know what you\u2019re thinking about \u00bb.<\/em><\/p>\n<p><em><a href=\"#_ftnref8\" name=\"_ftn8\">[8]<\/a> <span style=\"text-decoration: underline; color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/fr.wikipedia.org\/wiki\/Gilles_Deleuze\">Gilles Deleuze<\/a><\/span>,\u00a0Foucault,\u00a0<span style=\"text-decoration: underline; color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/fr.wikipedia.org\/wiki\/Editions_de_Minuit\">Editions de Minuit<\/a><\/span>, 1986\/2004, p.41<\/em><\/p>\n<p><em><a href=\"#_ftnref9\" name=\"_ftn9\">[9]<\/a> \u00ab\u00a0De la D\u00e9mocratie en Am\u00e9rique, vol II\u00a0\u00bb (Quatri\u00e8me Partie : Chapitre VI) publi\u00e9 en 1840.<\/em><\/p>\n<p><em><a href=\"#_ftnref10\" name=\"_ftn10\">[10]<\/a> \u00ab\u00a0La France contre les Robots\u00a0\u00bb , \u00ab\u00a0La libert\u00e9, pour quoi faire\u00a0?\u00a0\u00bb<\/em><\/p>\n<p><em><a href=\"#_ftnref11\" name=\"_ftn11\">[11]<\/a> Sur les tendances spontan\u00e9es et universelles au mim\u00e9tisme, cf Ren\u00e9 Girard \u00ab\u00a0La violence et le sacr\u00e9\u00a0\u00bb.<\/em><\/p>\n<p><em><a href=\"#_ftnref12\" name=\"_ftn12\">[12]<\/a> \u00ab\u00a0Introduction \u00e0 la m\u00e9thode de L\u00e9onard de Vinci\u00a0\u00bb<\/em><\/p>\n<p><em><a href=\"#_ftnref13\" name=\"_ftn13\">[13]<\/a> \u00ab\u00a0SuperCollectif\u00a0\u00bb essai. Fayard, oct. 2018<\/em><\/p>\n<p><em><a href=\"#_ftnref14\" name=\"_ftn14\">[14]<\/a> A titre d\u2019exemple, une des briques essentielles des algorithmes originaux de Google (PageRank) reposait sur l\u2019observation des pages les plus r\u00e9f\u00e9renc\u00e9es par les autres pages pour \u00e9tablir une hi\u00e9rarchie entre elles. L\u2019utilisation d\u2019une IA pour produire des r\u00e9f\u00e9rencements vers d\u2019autres pages web aurait pour cons\u00e9quence d\u2019appauvrir drastiquement la vari\u00e9t\u00e9 des r\u00e9sultats.<\/em><\/p>\n<p><em><a href=\"#_ftnref15\" name=\"_ftn15\">[15]<\/a> Environ 500\u00a0000 personnes \u00e9tiquettent des donn\u00e9es quotidiennement pour nourrir les algorithmes \u00ab\u00a0automatiques\u00a0\u00bb, prolongation indirecte du \u00ab\u00a0turc m\u00e9canique\u00a0\u00bb.<\/em><\/p>\n<p><em><a href=\"#_ftnref16\" name=\"_ftn16\"><sup>[16]<\/sup><\/a> in Tristes Tropiques, Claude L\u00e9vi-Strauss. 1955<\/em><\/p>\n<p><em><a href=\"#_ftnref17\" name=\"_ftn17\">[17]<\/a> IEEE Standards Association &#8211; <span style=\"text-decoration: underline; color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/ethicsinaction.ieee.org\/\">https:\/\/ethicsinaction.ieee.org\/<\/a><\/span><\/em><\/p>\n<p><em><a href=\"#_ftnref18\" name=\"_ftn18\">[18]<\/a> \u00ab Int\u00e9grer l\u2019\u00e9thique dans les algorithmes soul\u00e8ve des d\u00e9fis titanesques\u00a0\u00bb David Bounie, Winston Maxwell. <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/www.lemonde.fr\/idees\/article\/2019\/12\/07\/integrer-l-ethique-dans-les-algorithmes-souleve-des-defis-titanesques_6022013_3232.html\">https:\/\/www.lemonde.fr\/idees\/article\/2019\/12\/07\/integrer-l-ethique-dans-les-algorithmes-souleve-des-defis-titanesques_6022013_3232.html<\/a><\/span><\/span><\/em><\/p>\n<p><em><a href=\"#_ftnref19\" name=\"_ftn19\">[19]<\/a> Cf. Les asym\u00e9tries d\u2019information, comme menaces au fonctionnement d\u00e9mocratique. Nozha Boujemaa, Bertrand Thirion\u00a0: Institut DataIA. <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"http:\/\/dataia.eu\/\">http:\/\/dataia.eu\/<\/a><\/span><\/span><\/em><\/p>\n<p><em><a href=\"#_ftnref20\" name=\"_ftn20\">[20]<\/a> Techniques de NLP (Natural Language Processing) + graphes de connaissances notamment.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cet article fait suite \u00e0 l\u2019article\u00a0: \u00ab\u00a0Intelligence ou Intuition Artificielle ? Les enjeux de l\u2019automatisation\u00a0\u00bb paru jeudi 13 f\u00e9vrier dans variances.eu. *** Une IA omnipotente (ou encore \u00ab\u00a0g\u00e9n\u00e9rale\u00a0\u00bb), autonome, capable de raisonnement d\u00e9ductif innovant n\u2019est pas encore \u00e0 l\u2019ordre du jour. L\u2019humain augment\u00e9 encore moins. Les questions juridiques, nouvelles, de la responsabilit\u00e9, d\u2019un robot, IA [&hellip;]<\/p>\n","protected":false},"author":282,"featured_media":4724,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[164,133],"tags":[],"class_list":["post-4722","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificielle","category-themes","et-has-post-format-content","et_post_format-et-post-format-standard"],"_links":{"self":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/4722","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/users\/282"}],"replies":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=4722"}],"version-history":[{"count":0,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/4722\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/media\/4724"}],"wp:attachment":[{"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=4722"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=4722"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=4722"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}