{"id":7396,"date":"2023-08-24T07:20:52","date_gmt":"2023-08-24T05:20:52","guid":{"rendered":"https:\/\/variances.eu\/?p=7396"},"modified":"2023-08-24T07:42:11","modified_gmt":"2023-08-24T05:42:11","slug":"intelligence-artificielle-cet-obscur-objet-du-debat","status":"publish","type":"post","link":"https:\/\/variances.eu\/?p=7396","title":{"rendered":"Intelligence artificielle : cet obscur objet du d\u00e9bat"},"content":{"rendered":"<p>Le num\u00e9rique n\u2019est pas seulement un ensemble de technologies, c\u2019est aussi un \u00ab\u00a0milieu\u00a0\u00bb dans lequel nous \u00e9voluons. C\u2019est ainsi que l\u2019envisage l\u2019arm\u00e9e, en France mais aussi Etats-Unis, qui identifie 5 milieux en interaction, avec leurs contraintes propres : air, terre, mer, espace et \u00ab\u00a0cyber\u00a0\u00bb. Ce milieu baigne nos relations interpersonnelles et sociales, nos interactions avec l\u2019Etat, notre lien \u00e0 la connaissance, \u00e0 l\u2019imagination ou \u00e0 l\u2019art, et les remod\u00e8le. Il red\u00e9finit la limite entre sph\u00e8re priv\u00e9e et sph\u00e8re publique autant qu\u2019entre surveillance et libert\u00e9, il donne corps \u00e0 la soci\u00e9t\u00e9 du spectacle permanent, par tous et pour tous, il occupe voire manipule nos cerveaux\u00a0: le num\u00e9rique est un vecteur essentiel de projet(s) politique(s).<\/p>\n<p>Avec Internet, ce vecteur politique a d\u2019abord permis la diffusion des id\u00e9es au sein d\u2019une agora mondiale qui s\u2019est construite par la base, par s\u00e9rendipit\u00e9 et pratiquement sans contr\u00f4le\u00a0; cette agora nouvelle a ouvert des espaces et des espoirs de tol\u00e9rance, qui ont culmin\u00e9 avec les printemps arabes et les r\u00e9volutions de couleur. Pourtant l\u2019agora mondiale des d\u00e9buts se dilue d\u00e9sormais dans une multitude de bulles de filtres o\u00f9 se d\u00e9veloppent d\u00e9fiance et agressivit\u00e9, et se retrouve confront\u00e9e \u00e0 la menace d\u2019un \u00ab\u00a0splinternet\u00a0\u00bb d\u00e9j\u00e0 quasiment act\u00e9 en Chine. Cette dissolution est largement li\u00e9e \u00e0 l\u2019\u00e9volution des plateformes depuis une dizaine d\u2019ann\u00e9es, qui ont impos\u00e9 un d\u00e9veloppement d\u2019Internet et des technologies num\u00e9riques centralis\u00e9 et tr\u00e8s \u00ab\u00a0descendant\u00a0\u00bb. Quelques acteurs technologiques ont progressivement impos\u00e9 des usages\u00a0: certains remettent en cause des fondements de la soci\u00e9t\u00e9 \u00e0 l\u2019instar de Uber, d\u2019autres organisent des manipulations \u00e0 l\u2019instar de Cambridge Analytica<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a> via Facebook, ou plus r\u00e9cemment Team Jorge via tous les r\u00e9seaux sociaux, comme l\u2019a r\u00e9v\u00e9l\u00e9 le collectif Forbidden Stories<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a>. Ceci est rendu possible par la vitesse de d\u00e9ploiement des technologies et leur ubiquit\u00e9\u00a0: les usages sont l\u00e0 avant de pouvoir \u00eatre compris, avant que leur impact sur la soci\u00e9t\u00e9 puisse \u00eatre interpr\u00e9t\u00e9, et donc avant toute forme de d\u00e9bat s\u00e9rieux. La r\u00e9gulation arrive a posteriori tant bien que (surtout) mal\u00a0: en attendant la d\u00e9mocratie est mise en danger, les ing\u00e9rences informationnelles se multiplient, des fake news sont amplifi\u00e9es et des \u00e9lections sont manipul\u00e9es comme le Brexit ou les \u00e9lections US en 2016.<\/p>\n<h3>Algorithmes\u00a0: un enjeu politique<\/h3>\n<p>L\u2019urgence de l\u2019enjeu d\u00e9mocratique du num\u00e9rique s\u2019est intensifi\u00e9e avec l\u2019intelligence artificielle. D\u2019abord parce que celle-ci se d\u00e9ploie actuellement \u00e0 une vitesse ph\u00e9nom\u00e9nale, bien plus rapidement que notre temps politique. Ensuite parce que l\u2019\u00ab\u00a0algorithme\u00a0\u00bb passe (\u00e0 tort) pour un objet lointain, virtuel, complexe et opaque. Renoncer \u00e0 comprendre est alors la solution de facilit\u00e9 pour les politiques comme pour leurs \u00e9lecteurs\u00a0: le marketing de la technologie incite d\u2019ailleurs \u00e0 cette renonciation. D\u00e8s lors l\u2019opacit\u00e9 des algorithmes s\u2019impose comme allant de soi, comme in\u00e9vitable : or l\u2019opacit\u00e9 dessert toujours la d\u00e9mocratie.<\/p>\n<p>Un des premiers usages de masse de l\u2019intelligence artificielle est arriv\u00e9 avec les plateformes et leur besoin d\u2019hyperpersonnalisation des contenus pour cr\u00e9er \u00ab\u00a0de l\u2019engagement\u00a0\u00bb et vendre leurs utilisateurs comme cibles publicitaires disponibles et qualifi\u00e9es. Pour \u00ab\u00a0hyperpersonnaliser\u00a0\u00bb, chaque plateforme va d\u00e9velopper des algorithmes d\u2019IA capables d\u2019apprendre qui nous sommes, d\u2019analyser et de ficher le profil psychologique de chacun sur des centaines de variables, englobant ses habitudes sociales, son profil de consommation, aussi bien ses inclinations sexuelles ou politiques\u00a0: ainsi en 230 \u00ab\u00a0likes\u00a0\u00bb, Facebook a une meilleure connaissance de votre profil psychologique que votre conjoint<a href=\"#_ftn3\" name=\"_ftnref3\">[3]<\/a>\u2026 Lorsque la publicit\u00e9 qui est envoy\u00e9e est une \u00ab\u00a0fake news\u00a0\u00bb on entre dans le domaine de la manipulation, le revenu publicitaire permettant de financer des organes de d\u00e9sinformation sectaires ou factieux<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a>. Lorsque le m\u00e9canisme de profilage psychologique est utilis\u00e9 pour du scoring social, on entre dans le domaine de la surveillance de masse et \u00e0 terme du totalitarisme<a href=\"#_ftn5\" name=\"_ftnref5\">[5]<\/a>.<\/p>\n<p>Il y a l\u00e0 un glissement politique qui m\u00e9rite vigilance. Des usages \u00ab\u00a0cool\u00a0\u00bb flattent l\u2019unicit\u00e9 de la personnalit\u00e9 de chacun, et n\u00e9cessitent pour fonctionner des algorithmes de ciblage personnalis\u00e9 qui rel\u00e8vent in fine de la surveillance de masse : comme les fiches du KGB ou de la Stasi au XX\u00e8me si\u00e8cle, mais mieux faites, plus compl\u00e8tes, sur tout le monde et sans fronti\u00e8re. Ce glissement proc\u00e8de d\u2019une hybridation de jeux, de \u00ab\u00a0je\u00a0\u00bb et de surveillance qui se devine tr\u00e8s bien dans un TikTok, dont la survie de ses dirigeants d\u00e9pend de leur all\u00e9geance au r\u00e9gime et donc de leur contribution \u00e0 ses ambitions de surveillance totale. C\u2019est la d\u00e9rive vers le \u00ab\u00a0capitalisme de surveillance\u00a0\u00bb d\u00e9crite par Shoshanna Zuboff<a href=\"#_ftn6\" name=\"_ftnref6\">[6]<\/a>. Notre soumission \u00e0 cette surveillance de masse ne se joue pas qu\u2019\u00e0 Paris\u00a0: elle se joue aussi \u00e0 P\u00e9kin et tr\u00e8s largement dans notre faiblesse \u00e0 laisser installer son mouchard dans les t\u00e9l\u00e9phones de nos enfants.<\/p>\n<h3>Ethique et IA\u00a0: les travailleurs de l\u2019amer<\/h3>\n<p>Figure de proue actuelle de l\u2019IA, Sam Altmann, fondateur de OpenAI et cr\u00e9ateur ChatGPT, se dit d\u2019ailleurs \u00ab\u00a0un peu effray\u00e9\u00a0\u00bb<a href=\"#_ftn7\" name=\"_ftnref7\">[7]<\/a> par les perspectives de transformation de la soci\u00e9t\u00e9 ouvertes par l\u2019IA. Autre cofondateur de OpenAI, Ilya Sutskever explique de la m\u00eame mani\u00e8re pourquoi les mod\u00e8les d\u2019IA de la soci\u00e9t\u00e9, con\u00e7us initialement pour contribuer \u00e0 une science ouverte et collaborative, sont d\u00e9sormais ferm\u00e9s et opaques<a href=\"#_ftn8\" name=\"_ftnref8\">[8]<\/a>\u00a0: une IA g\u00e9n\u00e9rative comme GPT-4 a trop de puissance, trop de d\u00e9rives possibles, trop d\u2019usages potentiellement dangereux, pour \u00eatre accessible \u00e0 n\u2019importe qui. En effet, une technologie qui promet de transformer radicalement le travail de la majorit\u00e9 des cols blancs, aussi bien que la recherche sur les m\u00e9dicaments, m\u00e9rite, si ce n\u2019est de la frayeur, au moins de l\u2019attention et une compr\u00e9hension d\u00e9taill\u00e9e\u2026 Mais du coup qui doit en avoir la maitrise et en assurer la gouvernance pour que le bien commun soit assur\u00e9\u00a0?<\/p>\n<p>A travers de nombreux exemples, la math\u00e9maticienne Cathy O\u2019Neil a illustr\u00e9 que l\u2019IA n\u2019est ni intelligente ni objective<a href=\"#_ftn9\" name=\"_ftnref9\">[9]<\/a>\u00a0: elle v\u00e9hicule des biais, dits \u00ab\u00a0biais algorithmiques\u00a0\u00bb, avec d\u2019importantes cons\u00e9quences sur ses usages, que ce soit dans un contexte judiciaire, de notation des professeurs, de pr\u00e9vention de la criminalit\u00e9 ou de l\u2019attribution de pr\u00eats ou d\u2019assurances. Ces biais ne sont pas uniquement une question de donn\u00e9es d\u2019entrainement comme on l\u2019entend trop souvent, mais aussi et surtout une cons\u00e9quence des r\u00e8gles \u00e9crites par les d\u00e9veloppeurs pour d\u00e9finir le fonctionnement de chaque algorithme d\u2019IA. A travers leur travail les d\u00e9veloppeurs d\u2019une IA imposent leurs biais cognitifs, id\u00e9ologiques ou politiques\u00a0: c\u2019est normal et in\u00e9vitable. Ce biais des programmeurs se voit par exemple quand Baidu d\u00e9ploie son IA conversationnelle qui int\u00e8gre la censure dans ses r\u00e8gles et refuse d\u2019aborder tout sujet de politique chinoise ou am\u00e9ricaine<a href=\"#_ftn10\" name=\"_ftnref10\">[10]<\/a>\u00a0: ce n\u2019est pas une question de donn\u00e9es mais de contraintes pos\u00e9es par ses programmeurs. La personnalit\u00e9 et l\u2019\u00e9thique du groupe de personnes qui programme ou d\u00e9finit l\u2019IA est donc une question fondamentale.<\/p>\n<p>Pour regarder cette \u00e9thique, on peut observer l\u2019aval de l\u2019algorithme, son r\u00e9sultat, on peut aussi observer son amont, la m\u00e9thode pour le mettre en place son apprentissage. Ainsi OpenAI, malgr\u00e9 1,5Mds$ d&rsquo;investissement, s&rsquo;est appuy\u00e9e sur le travail de personnes pay\u00e9es sous le seuil de pauvret\u00e9 au Kenya pour entrainer ChatGPT pendant 2 ans<a href=\"#_ftn11\" name=\"_ftnref11\">[11]<\/a>. Chaque dirigeant de OpenAI jure qu\u2019il ne savait pas, que cela se d\u00e9roulait \u00ab\u00a0\u00e0 l\u2019insu de son plein gr\u00e9\u00a0\u00bb. <em>Nihil novi sub sole<\/em>, il n\u2019y a l\u00e0 rien de tr\u00e8s innovant\u00a0: on exploite aussi en silence des gamines dans les usines textiles au Bangladesh ou au N\u00e9pal, ou des Ouighours pour fabriquer des v\u00eatements pour de grandes marques de \u00ab\u00a0fast fashion\u00a0\u00bb. Pourtant dans toutes les industries les questions \u00e9thiques \u00e9mergent sous la forme des enjeux RSE et de durabilit\u00e9\u00a0: alors que les \u00e9quipes \u00ab\u00a0<em>sustainability<\/em>\u00a0\u00bb montent en puissance, entrent dans les Comex et am\u00e8nent l\u2019\u00e9thique dans le reporting extra-financier, chez Microsoft, qui a investi massivement (10Mds$) dans ChatGPT<a href=\"#_ftn12\" name=\"_ftnref12\">[12]<\/a>, le mouvement est inverse\u00a0: suppression de l&rsquo;\u00e9quipe \u00ab\u00a0\u00e9thique\u00a0\u00bb qui travaillait sur les impacts de l\u2019IA<a href=\"#_ftn13\" name=\"_ftnref13\">[13]<\/a>. Le sujet \u00e9thique y est manifestement une g\u00eane plus qu\u2019une priorit\u00e9\u2026 comme chez Meta ou partiellement Google auparavant. On retrouve l\u00e0 des comportements d\u00e9nonc\u00e9s par Frances Haugen il y a deux ans<a href=\"#_ftn14\" name=\"_ftnref14\">[14]<\/a>\u00a0: la r\u00e9flexion \u00e9thique vue comme une entrave, une contrainte inutile\u00a0; si l\u2019\u00e9thique interroge d\u00e9sagr\u00e9ablement l\u2019innovation, si elle menace de g\u00eaner les affaires, il suffit de se d\u00e9barrasser de l\u2019\u00e9thique\u2026<\/p>\n<h3>Rien ne s\u2019oppose \u00e0 la nuit<\/h3>\n<p>Il y a, chez une poign\u00e9e de dirigeants du num\u00e9rique, un d\u00e9couplage entre \u00ab\u00a0innovation\u00a0\u00bb et \u00ab\u00a0progr\u00e8s\u00a0\u00bb, avec une approche de l\u2019innovation technologique qui s\u2019accommode de pratiques r\u00e9trogrades, stigmates d\u2019une vision de la soci\u00e9t\u00e9 o\u00f9 tout doit \u00eatre permis, y compris l\u2019exploitation. Cette proposition de soci\u00e9t\u00e9 n&rsquo;est pas le r\u00e9sultat in\u00e9luctable de lois de l&rsquo;\u00e9conomie ou de l&rsquo;innovation\u00a0: c\u2019est juste une normalisation de la pr\u00e9dation et de l\u2019exploitation. Tout cela se fait au nom d\u2019une libert\u00e9 dont la d\u00e9mocratie serait l\u2019ennemie, pour reprendre la vision de Peter Thiel, centre de cette galaxie \u00ab\u00a0libertarienne\u00a0\u00bb, autour duquel gravitent par exemple Elon Musk, Sam Altman, Alex Karp, Mark Zuckerberg, Reid Hoffman, Eric Schmidt, sans oublier l\u2019ultra-droite trumpiste aux Etats-Unis qu\u2019il finance<a href=\"#_ftn15\" name=\"_ftnref15\">[15]<\/a>. Tous apportent des usages technologiques dont nous nous \u00e9merveillons qu\u2019ils viennent transformer la soci\u00e9t\u00e9 en profondeur, sans tellement nous interroger sur la nature des transformations que ces gens promeuvent.<\/p>\n<p>\u00ab\u00a0<em>Code is law<\/em>\u00a0\u00bb alertait le juriste de Harvard Lawrence Lessig en 2000<a href=\"#_ftn16\" name=\"_ftnref16\">[16]<\/a>\u00a0: la technologie cr\u00e9e l\u2019usage qui cr\u00e9e la loi, et cela cr\u00e9e un risque de transfert de la fabrique des r\u00e8gles de la soci\u00e9t\u00e9 depuis des repr\u00e9sentants \u00e9lus, choisis ou d\u00e9sign\u00e9s, vers des gens qui \u00e9crivent ou financent la technologie, c\u2019est \u00e0 dire vers une forme d\u2019autoritarisme, vers une \u00ab\u00a0technocratie\u00a0\u00bb au sens strict du terme. Le vote r\u00e9cent de la loi sur le d\u00e9ploiement d\u2019IA de surveillance (dite \u00ab\u00a0vid\u00e9o surveillance algorithmique\u00a0\u00bb) dans l\u2019espace public pour Paris 2024 est symptomatique. Un vote sans d\u00e9bat public, sans aucune \u00e9tude d\u2019impact, sans aucune \u00e9tude probante sur l\u2019efficacit\u00e9, sans que l\u2019enjeu \u00e9thique soit port\u00e9 sur la place publique, comme si c\u2019\u00e9tait un choix technologique et non un choix de soci\u00e9t\u00e9 fondamental. Or si nous renon\u00e7ons \u00e0 d\u00e9battre de la place et de l\u2019usage de la technologie, alors nous renon\u00e7ons \u00e0 d\u00e9cider de notre avenir et de ses r\u00e8gles, et laissons la d\u00e9cision \u00e0 quelques technologistes, quelques financiers, dont tout montre qu\u2019ils voient bien volontiers la pr\u00e9dation comme un moyen. Organiser un arbitrage d\u00e9mocratique de la place du num\u00e9rique dans la soci\u00e9t\u00e9 n\u2019est pas seulement n\u00e9cessaire, c\u2019est aussi possible\u00a0: nous le faisons couramment avec d\u2019autres innovations comme le nucl\u00e9aire, des m\u00e9dicaments ou le clonage. Simplement il ne faut pas laisser s\u2019installer la renonciation politique mais nous approprier collectivement cet objet fondamental du d\u00e9bat.<\/p>\n<p>&nbsp;<\/p>\n<p><em>Cet article a \u00e9t\u00e9 initialement publi\u00e9 le 24 avril.<\/em><\/p>\n<p>&nbsp;<\/p>\n<p><em>Mots-cl\u00e9s : algorithme &#8211; IA &#8211; \u00e9thique &#8211; surveillance &#8211; d\u00e9mocratie &#8211; politique<\/em><\/p>\n<hr \/>\n<p><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.lesinrocks.com\/2018\/04\/12\/actualite\/mark-zuckerberg-admet-que-ses-propres-donnees-ont-ete-detournees-par-cambridge-analytica-111070485\/<\/span><\/span><\/p>\n<p><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.france24.com\/fr\/france\/20230215-des-dizaines-d-\u00e9lections-influenc\u00e9es-par-une-entreprise-isra\u00e9lienne-selon-forbidden-stories<\/span><\/span><\/p>\n<p><a href=\"#_ftnref3\" name=\"_ftn3\">[3]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.francetvinfo.fr\/internet\/reseaux-sociaux\/facebook\/video-facebook-avec-230-likes-l-algorithme-vous-connait-mieux-que-votre-conjoint_2702592.html<\/span><\/span><\/p>\n<p><a href=\"#_ftnref4\" name=\"_ftn4\">[4]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.newsguardtech.com\/fr\/special-reports\/marques-milliards-sites-mesinformation-newsguard-comscore\/<\/span><\/span><\/p>\n<p><a href=\"#_ftnref5\" name=\"_ftn5\">[5]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.lemonde.fr\/idees\/article\/2020\/01\/16\/le-credit-social-les-devoirs-avant-les-droits_6026047_3232.html<\/span><\/span><\/p>\n<p><a href=\"#_ftnref6\" name=\"_ftn6\">[6]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/shoshanazuboff.com\/book\/about\/<\/span><\/span><\/p>\n<p><a href=\"#_ftnref7\" name=\"_ftn7\">[7]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/abcnews.go.com\/Technology\/openai-ceo-sam-altman-ai-reshape-society-acknowledges\/story?id=97897122<\/span><\/span><\/p>\n<p><a href=\"#_ftnref8\" name=\"_ftn8\">[8]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.theverge.com\/2023\/3\/15\/23640180\/openai-gpt-4-launch-closed-research-ilya-sutskever-interview<\/span><\/span><\/p>\n<p><a href=\"#_ftnref9\" name=\"_ftn9\">[9]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/en.wikipedia.org\/wiki\/Weapons_of_Math_Destruction<\/span><\/span><\/p>\n<p><a href=\"#_ftnref10\" name=\"_ftn10\">[10]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/www.wsj.com\/articles\/when-chatbots-run-up-against-chinas-censorship-f7ee1cea\">https:\/\/www.wsj.com\/articles\/when-chatbots-run-up-against-chinas-censorship-f7ee1cea<\/a><\/span><\/span><\/p>\n<p><a href=\"#_ftnref11\" name=\"_ftn11\">[11]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/time.com\/6247678\/openai-chatgpt-kenya-workers\/<\/span><\/span><\/p>\n<p><a href=\"#_ftnref12\" name=\"_ftn12\">[12]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.bloomberg.com\/news\/articles\/2023-01-23\/microsoft-makes-multibillion-dollar-investment-in-openai<\/span><\/span><\/p>\n<p><a href=\"#_ftnref13\" name=\"_ftn13\">[13]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.theverge.com\/2023\/3\/13\/23638823\/microsoft-ethics-society-team-responsible-ai-layoffs<\/span><\/span><\/p>\n<p><a href=\"#_ftnref14\" name=\"_ftn14\">[14]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.lemonde.fr\/pixels\/article\/2021\/11\/08\/facebook-files-frances-haugen-lanceuse-d-alerte-nouvelle-generation_6101330_4408996.html<\/span><\/span><\/p>\n<p><a href=\"#_ftnref15\" name=\"_ftn15\">[15]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.theguardian.com\/technology\/2022\/may\/30\/peter-thiel-republican-midterms-trump-paypal-mafia<\/span><\/span><\/p>\n<p><a href=\"#_ftnref16\" name=\"_ftn16\">[16]<\/a> <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\">https:\/\/www.harvardmagazine.com\/2000\/01\/code-is-law-html<\/span><\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Le num\u00e9rique n\u2019est pas seulement un ensemble de technologies, c\u2019est aussi un \u00ab\u00a0milieu\u00a0\u00bb dans lequel nous \u00e9voluons. C\u2019est ainsi que l\u2019envisage l\u2019arm\u00e9e, en France mais aussi Etats-Unis, qui identifie 5 milieux en interaction, avec leurs contraintes propres : air, terre, mer, espace et \u00ab\u00a0cyber\u00a0\u00bb. Ce milieu baigne nos relations interpersonnelles et sociales, nos interactions avec [&hellip;]<\/p>\n","protected":false},"author":342,"featured_media":7397,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[164],"tags":[],"class_list":["post-7396","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificielle","et-has-post-format-content","et_post_format-et-post-format-standard"],"_links":{"self":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/7396","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/users\/342"}],"replies":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=7396"}],"version-history":[{"count":0,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/7396\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/media\/7397"}],"wp:attachment":[{"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=7396"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=7396"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=7396"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}