{"id":8250,"date":"2024-09-19T07:10:07","date_gmt":"2024-09-19T05:10:07","guid":{"rendered":"https:\/\/variances.eu\/?p=8250"},"modified":"2024-09-19T07:17:15","modified_gmt":"2024-09-19T05:17:15","slug":"faire-face-a-linvasion-du-faux-partie-2-les-remedes-technologiques-et-juridiques","status":"publish","type":"post","link":"https:\/\/variances.eu\/?p=8250","title":{"rendered":"Faire face \u00e0 l\u2019invasion du faux !* &#8211; Partie 2. Les rem\u00e8des technologiques et juridiques"},"content":{"rendered":"<p>Dans la <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/variances.eu\/?p=8236\">premi\u00e8re partie de cet article<\/a><\/span><\/span>, nous avons dress\u00e9 un tableau des pathologies de l\u2019information, avant d\u2019examiner leurs effets sur la formation des opinions et le comportement des citoyens. Nous avons \u00e9galement discut\u00e9 d\u2019une \u00e9ventuelle mutation du virus \u00ab infox \u00bb, \u00e0 la faveur des d\u00e9veloppements de l\u2019intelligence artificielle, notamment g\u00e9n\u00e9rative. Dans cette seconde partie, nous montrons le r\u00f4le positif inversement jou\u00e9 par l\u2019IA dans la lutte contre l\u2019infox, avant de d\u00e9crire tr\u00e8s succinctement le cadre r\u00e9glementaire fran\u00e7ais et europ\u00e9en.<\/p>\n<h3><strong>Les outils de lutte contre la d\u00e9sinformation<\/strong><\/h3>\n<p>L\u2019IA, telle le <em>pharm\u00e0kon<\/em> des Grecs anciens, est \u00e0 la fois poison et rem\u00e8de, venin et antidote\u00a0: si elle peut \u00eatre falsificatrice, elle sait aussi se faire r\u00e9paratrice. Du c\u00f4t\u00e9 face de la m\u00e9daille, l\u2019IA permet par exemple de rep\u00e9rer sur les r\u00e9seaux sociaux des \u00ab\u00a0comportements non authentiques coordonn\u00e9s\u00a0\u00bb, r\u00e9v\u00e9lant la pr\u00e9sence d\u2019un nid d\u2019agents conversationnels artificiels (<em>chatbots<\/em>). Elle permet \u00e9galement d\u2019identifier des contenus de synth\u00e8se issus de l\u2019IA g\u00e9n\u00e9rative, quels qu\u2019en soient les supports\u00a0: sur cet aspect, les initiatives se multiplient en Europe et dans le Monde, \u00e9manant de l\u2019industrie comme des institutions publiques.<\/p>\n<p>Dans le cadre de la <em>Coalition for Content Provenance and Authenticity<\/em> (C2PA)<a href=\"#_ftn1\" name=\"_ftnref1\"><sup>[1]<\/sup><\/a>, groupement professionnel visant \u00e0 instaurer un syst\u00e8me de <em>Content Credentials<\/em>, Adobe a cr\u00e9\u00e9 un symbole pour inciter au marquage des contenus engendr\u00e9s par l\u2019IA (<em>watermarking<\/em>), adopt\u00e9 par les principales plateformes\u00a0: Google, Microsoft ou Meta. Cependant, il est facile d\u2019\u00e9chapper \u00e0 ces d\u00e9marches volontaires et, plus ais\u00e9 encore, d\u2019ajouter de faux <em>watermarks<\/em> \u00e0 d\u2019authentiques images.<\/p>\n<p>Des organisations \u00e0 but non lucratif, telles que <em>TrueMedia<\/em><a href=\"#_ftn2\" name=\"_ftnref2\"><sup>[2]<\/sup><\/a>, mettent \u00e0 la disposition des professionnels et des particuliers des outils de d\u00e9tection. Ces outils utilisent l\u2019apprentissage automatique et le traitement du langage naturel. Ils visent principalement \u00e0 rep\u00e9rer ce qui serait \u00ab\u00a0authentiquement\u00a0\u00bb d\u2019origine humaine. Cependant, ils ne fournissent que des conclusions probabilistes, laissant ainsi une grande marge d\u2019interpr\u00e9tation.<\/p>\n<p>Le projet europ\u00e9en <em>vera.ai<\/em>, lanc\u00e9 en septembre 2022, a pour ambition de d\u00e9velopper de nouveaux outils multilingues de lutte contre la d\u00e9sinformation attach\u00e9e \u00e0 tout type de marqueur \u2013 texte, photo, vid\u00e9o, audio \u2013, en recourant \u00e0 des algorithmes et des m\u00e9thodes d\u2019intelligence artificielle<a href=\"#_ftn3\" name=\"_ftnref3\"><sup>[3]<\/sup><\/a>. Vera.ai d\u00e9veloppe et teste ses outils en collaboration avec des <em>fact checkers<\/em>, dont 130 journalistes d\u2019investigation couvrant 85 pays. L\u2019Agence France-Presse (AFP) est fortement engag\u00e9e dans cette d\u00e9marche\u00a0: elle a cr\u00e9\u00e9 la structure Medialab pour participer \u00e0 des programmes d\u2019innovation et de recherche, notamment le navigateur <em>InVID-WeVerify<\/em>, actuellement utilis\u00e9 par 90\u00a0000 internautes et 224 pays, dont l\u2019objectif est de v\u00e9rifier les contenus du web, singuli\u00e8rement sur les r\u00e9seaux sociaux, par la combinaison d\u2019une approche humaine participative, d\u2019algorithmes en <em>open source<\/em> et de l\u2019apprentissage machine.<\/p>\n<p>Le papier blanc <em>\u00ab\u00a0Generative AI and Disinformation\u00a0: Recent Advances, Challenges, and Opportunities\u00a0\u00bb<\/em>, co-\u00e9crit par AI4media, AI4TRUST, TITAN et vera.ai, identifie avec clart\u00e9 les d\u00e9fis et les limites de l\u2019IA au service de la lutte contre la m\u00e9sinformation, en distinguant les diff\u00e9rents m\u00e9diums concern\u00e9s (Bontheva, 2024). Qu\u2019en ressort-il principalement\u00a0?<\/p>\n<p>En premier lieu, les progr\u00e8s dans la d\u00e9tection d\u2019images et vid\u00e9os synth\u00e9tiques, bien que non n\u00e9gligeables, restent limit\u00e9s.<\/p>\n<div style=\"width: auto; border: 1px solid #2E86C1; text-align: justify; background: #F0F0F0; padding: 10px;\">\n<p><u>Vid<\/u><u>\u00e9os et images.<\/u> La d\u00e9tection d\u2019images et vid\u00e9os synth\u00e9tiques repose sur\u00a0l\u2019entrainement de mod\u00e8les de <em>deep learning<\/em> \u00e0 l\u2019aide des bases de donn\u00e9es publiques les plus populaires, telle <em>FaceForensics<\/em>\u00a0(base de 500 000 images contenant des visages provenant de 1004 vid\u00e9os, utilisable pour reconna\u00eetre des contrefa\u00e7ons d\u2019images ou de vid\u00e9os), ou encore <em>ForgeryNet<\/em> (base de 2,9 millions d\u2019images et 221 247 vid\u00e9os, annot\u00e9es et classifi\u00e9es pour d\u00e9tecter les contrefa\u00e7ons faciales).<\/p>\n<p>Les architectures de d\u00e9tection sont des r\u00e9seaux convolutifs, tels que <em>ResNets<\/em> (r\u00e9seaux de neurones r\u00e9siduels) ou, plus r\u00e9cemment, <em>VisionTransformers<\/em> (d\u00e9composition d\u2019une image d\u2019entr\u00e9e en une s\u00e9rie de <em>patchs<\/em> pour am\u00e9liorer la classification). Un outil de fragmentation des vid\u00e9os aliment\u00e9 par l\u2019IA, tr\u00e8s utilis\u00e9, permet d\u2019extraire des images cl\u00e9s qui sont ensuite soumises \u00e0 des moteurs de recherche, afin de v\u00e9rifier si elles sont d\u00e9j\u00e0 connues et index\u00e9es.<\/p>\n<p>Des avanc\u00e9es r\u00e9centes portent sur la scrutation de vid\u00e9os multi-identit\u00e9s, par exemple provenant de t\u00e9l\u00e9phones. Vera.ai s\u2019appuie sur les caract\u00e9ristiques audio et visuelles d\u2019une personne class\u00e9e \u00ab <em>person of interest<\/em>\u00a0\u00bb, pour cr\u00e9er un d\u00e9tecteur de <em>deep fake<\/em>. Si la d\u00e9tection est la plus avanc\u00e9e pour les vid\u00e9os et pour le son, des progr\u00e8s sont \u00e9galement accomplis dans la d\u00e9tection de photos synth\u00e9tiques.<\/p>\n<p>Cependant, ces diff\u00e9rentes perc\u00e9es demeurent embryonnaires. Certains outils, tel Adobe Firefly, \u00e9chappent encore \u00e0 la d\u00e9tection. Mais, surtout, chaque mod\u00e8le de d\u00e9tection est sp\u00e9cialis\u00e9. Il faudrait donc combiner une batterie de mod\u00e8les au sein d\u2019un syst\u00e8me global, afin de g\u00e9n\u00e9raliser la d\u00e9tection. Par ailleurs, les \u00ab\u00a0faux positifs\u00a0\u00bb, c\u2019est-\u00e0-dire les vid\u00e9os d\u00e9clar\u00e9es comme fausses, alors qu\u2019elles sont vraies, discr\u00e9ditent en partie la d\u00e9marche. Enfin, les d\u00e9fis techniques s\u2019accumulent\u00a0: obsolescence des outils en raison de l\u2019apparition de nouveaux formats d\u2019encodage\u00a0; manque de fiabilit\u00e9 face \u00e0 la faible qualit\u00e9 et le haut niveau de compression qui caract\u00e9risent les contenus sur internet\u00a0; et, tout \u00e0 l\u2019inverse, exigence d\u2019une grande puissance de calcul afin d\u2019examiner des vid\u00e9os longues en haute d\u00e9finition.<\/p>\n<\/div>\n<p>En deuxi\u00e8me lieu, l\u2019identification de contenus sonores synth\u00e9tiques p\u00e2tit \u00e0 ce stade d\u2019un d\u00e9faut de financement et de la disponibilit\u00e9 de bases de donn\u00e9es d\u2019entrainement, qui entravent la dynamique de cet axe d\u2019innovation.<\/p>\n<div style=\"width: auto; border: 1px solid #2E86C1; text-align: justify; background: #F0F0F0; padding: 10px;\">\n<p><u>Sons<\/u>. La d\u00e9tection de sons synth\u00e9tiques, \u00e0 travers les syst\u00e8mes <em>Text-to-Speech<\/em> (TTS) ou <em>Voice Conversion<\/em> (VC), est r\u00e9cente. Elle n\u2019est en effet devenue une priorit\u00e9 que lorsque sont apparus des premiers discours de synth\u00e8se suffisamment sophistiqu\u00e9s pour \u00eatre jug\u00e9s probl\u00e9matiques. Afin de satisfaire \u00e0 cette priorit\u00e9, il convient urgemment\u00a0: d\u2019une part, de b\u00e2tir un \u00e9cosyst\u00e8me robuste de recherche et de d\u00e9veloppement sur cette th\u00e9matique, au financement assur\u00e9\u00a0; d\u2019autre part, de disposer de bases de donn\u00e9es qui soient \u00e0 la fois conformes \u00e0 la r\u00e9glementation et de taille suffisante pour entrainer et tester les technologies de d\u00e9tection.<\/p>\n<p>En outre, plut\u00f4t que se concentrer uniquement sur la reconnaissance de l\u2019origine des contenus sonores, il serait pr\u00e9cieux de proc\u00e9der parall\u00e8lement \u00e0 des recherches linguistiques visant \u00e0 mieux cerner les m\u00e9canismes de manipulation par le langage oral, de mieux appr\u00e9hender la culture \u00e9nonciative\u00a0de la falsification.<\/p>\n<\/div>\n<p>En troisi\u00e8me lieu, la d\u00e9tection d\u2019\u00e9crits de synth\u00e8se s\u2019est jusqu\u2019ici focalis\u00e9e sur des contenus en langue anglaise.<\/p>\n<div style=\"width: auto; border: 1px solid #2E86C1; text-align: justify; background: #F0F0F0; padding: 10px;\">\n<p><u>\u00c9crits<\/u>. La d\u00e9tection de d\u00e9sinformations engendr\u00e9es par l\u2019IA sous un format \u00e9crit est une voie de recherche tr\u00e8s active. Les chercheurs ont montr\u00e9 que les textes de synth\u00e8se sont tellement fluides qu\u2019un humain ne peut gu\u00e8re les identifier, et peut m\u00eame les consid\u00e9rer comme plus fiables que des textes authentiques (Zellers <em>et alii<\/em>, 2020). Les syst\u00e8mes de d\u00e9tection reposent sur la \u00ab\u00a0stylom\u00e9trie\u00a0\u00bb, ou reconnaissance des sp\u00e9cificit\u00e9s stylistiques d\u2019un auteur. Ils utilisent le <em>deep learning<\/em> et la statistique\u00a0: hybrid\u00e9es, ces deux techniques sont performantes et savent tr\u00e8s bien d\u00e9tecter des formats longs, articles ou blogs artificiels.<\/p>\n<p>En revanche, la d\u00e9tection automatique appliqu\u00e9e \u00e0 des textes courts est d\u00e9faillante. Or elle devrait \u00eatre une priorit\u00e9, dans la mesure o\u00f9 les grands mod\u00e8les de langage (LLM) engendrent des messages courts de plus en plus \u00e9labor\u00e9s et cr\u00e9dibles, et o\u00f9 la multiplication des <em>bots<\/em> pilot\u00e9s par l\u2019IA sur des plateformes telles que X cr\u00e9e un puissant vecteur de d\u00e9sinformation potentielle.<\/p>\n<p>Dans leur majorit\u00e9, les outils de d\u00e9tection ont \u00e9t\u00e9 exclusivement entrain\u00e9s et test\u00e9s sur des contenus r\u00e9dig\u00e9s en anglais. Les textes engendr\u00e9s par l\u2019IA dans d\u2019autres langues ne sont donc pas d\u00e9tect\u00e9s, ou pi\u00e8trement d\u00e9tect\u00e9s \u00e0 l\u2019aide d\u2019une approche exclusivement statistique. Il est par cons\u00e9quent \u00e0 craindre que les pays dont les langues sont les moins parl\u00e9es, pour lesquels les bases de donn\u00e9es sont les moins fournies, soient les plus cibl\u00e9s par des man\u0153uvres de d\u00e9sinformation. D\u2019o\u00f9 l\u2019ambition des initiatives europ\u00e9ennes VIGILANT et vera.ai de constituer un corpus d\u2019entrainement et une batterie de mod\u00e8les multilingues\u00a0: la cr\u00e9ation de bases de donn\u00e9es dans toutes les langues parl\u00e9es en Europe, dont certaines annot\u00e9es par l\u2019homme afin d\u2019am\u00e9liorer la performance, est d\u00e9sormais une imp\u00e9rieuse n\u00e9cessit\u00e9 pour l\u2019entra\u00eenement de mod\u00e8les europ\u00e9ens.<\/p>\n<\/div>\n<p>Plusieurs points sensibles sont de nature transversale, c\u2019est-\u00e0-dire ind\u00e9pendants du support\u00a0:<\/p>\n<ul>\n<li>Les syst\u00e8mes de d\u00e9tection, parce que programm\u00e9s en <em>open source<\/em>, sont accessibles aux acteurs de la d\u00e9sinformation qui savent comment d\u00e9jouer ces syst\u00e8mes, en appliquant des techniques d\u2019obstruction ou de correction humainement ind\u00e9tectables.<\/li>\n<li>Aussi efficaces que soient les mod\u00e8les de reconnaissance des \u00ab\u00a0informations\u00a0\u00bb cr\u00e9\u00e9es par l\u2019intelligence artificielle g\u00e9n\u00e9rative, distinguer le \u00ab\u00a0vrai\u00a0\u00bb du \u00ab\u00a0faux\u00a0\u00bb ne peut pour autant \u00eatre totalement automatis\u00e9 et r\u00e9clame une expertise humaine en dernier ressort. Ce \u00ab\u00a0principe d\u2019un humain dans la boucle\u00a0\u00bb (<em>human oversight<\/em>), au c\u0153ur du R\u00e8glement europ\u00e9en <em>AI Act<\/em>, soul\u00e8ve \u00e0 son tour d\u2019autres questions : que doit-on v\u00e9rifier, \u00e0 quelles fins, quand et par qui (Enquvist, 2023)\u00a0?<\/li>\n<li>Les outils de d\u00e9tection, parce qu\u2019ils b\u00e9n\u00e9ficient des avanc\u00e9es de l\u2019IA, permettent d\u2019analyser un volume toujours plus important de donn\u00e9es. Mais ils ne peuvent que tr\u00e8s imparfaitement, du moins \u00e0 ce stade, saisir les subtilit\u00e9s de l\u2019intentionnalit\u00e9 humaine, d\u00e9tecter \u00e0 coup s\u00fbr les \u00e9l\u00e9ments stylistiques typiques des <em>fake news<\/em> tels que la polarisation \u00e9motionnelle<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a>, ni d\u00e9celer les m\u00e9canismes de manipulation psychologique qui exploitent les vuln\u00e9rabilit\u00e9s et les pr\u00e9jug\u00e9s.<\/li>\n<\/ul>\n<h3><strong>Aider les professionnels de l\u2019information<\/strong><\/h3>\n<p>Ayant pour principe d\u2019identifier la source d\u2019une information afin d\u2019en v\u00e9rifier la fiabilit\u00e9, les plateformes luttant contre la d\u00e9sinformation sont d\u00e9munies face \u00e0 l\u2019IA g\u00e9n\u00e9rative, celle-ci brouillant par nature la tra\u00e7abilit\u00e9\u00a0de l\u2019information. \u00c0 cet \u00e9gard, l\u2019IA curatrice fournit de pr\u00e9cieux instruments d\u2019assistance aux v\u00e9rificateurs de faits (<em>fact checkers<\/em>) et aux journalistes\u00a0: elle est tout \u00e0 la fois utile \u00e0 identifier les risques de m\u00e9sinformation, \u00e0 am\u00e9liorer la fiabilit\u00e9 des contenus, et \u00e0 former les professionnels de l\u2019information.<\/p>\n<p>L\u2019imp\u00e9ratif premier est de sensibiliser aux risques de d\u00e9sinformation li\u00e9s \u00e0 l\u2019IA. Le projet europ\u00e9en AI-CODE d\u00e9veloppe \u00e0 cet effet des modules d\u2019\u00e9ducation \u00e0 destination des m\u00e9dias, aidant \u00e0 mieux comprendre les technologies d\u2019IA g\u00e9n\u00e9rative, leurs risques et leurs limites. Ce syst\u00e8me interconnect\u00e9 de diff\u00e9rents services d\u2019IA est d\u00e9velopp\u00e9 avec des professionnels, afin non seulement d\u2019identifier des contenus fallacieux, mais \u00e9galement de proposer des mesures proactives contre la d\u00e9sinformation. Un assistant bas\u00e9 sur l\u2019IA g\u00e9n\u00e9rative fournit aux journalistes un instrument d\u2019\u00e9valuation et de suivi de leur propre cr\u00e9ation de contenus, afin de mieux leur faire percevoir la menace potentielle de d\u00e9sinformation qui r\u00e9sulterait d\u2019un d\u00e9tournement de leur canevas argumentatif et d\u2019une r\u00e9interpr\u00e9tation contrefaite de leurs analyses.<\/p>\n<p>Une entreprise plus ambitieuse consiste \u00e0 s\u2019appuyer sur l\u2019IA pour aider les f<em>act-checkers<\/em>, dont le travail est devenu tr\u00e8s lourd et complexe. Le projet AI4TRUST<a href=\"#_ftn5\" name=\"_ftnref5\"><sup>[5]<\/sup><\/a> a ainsi pour objectif de mettre \u00e0 leur disposition une plateforme d\u2019outils dont l\u2019originalit\u00e9 r\u00e9side dans son socle fondateur\u00a0: une mod\u00e9lisation des m\u00e9canismes sociaux \u00e0 l\u2019\u0153uvre dans la d\u00e9sinformation. La plateforme permet d\u2019identifier des sch\u00e9mas comportementaux et relationnels propices \u00e0 la diffusion de l\u2019infox et de rep\u00e9rer des groupes \u00e0 risque favorisant la diffusion de d\u00e9sinformation. Cette dimension sociom\u00e9trique du projet conduit ainsi \u00e0 une caract\u00e9risation des profils des <em>super-spreaders<\/em>, individus diffusant massivement l\u2019information.<\/p>\n<p>S\u2019agissant de la s\u00e9lection et de la v\u00e9rification des sources, l\u2019IA peut aider \u00e0 r\u00e9f\u00e9rencer les contenus de notices encyclop\u00e9diques. Wikipedia a pour r\u00e8gle d\u2019asseoir ses affirmations sur des citations sourc\u00e9es\u00a0: anim\u00e9s par leur sens des responsabilit\u00e9s, les \u00e9diteurs v\u00e9rifient ces sources, leur fiabilit\u00e9, comme leur pertinence, ce qui suppose une compr\u00e9hension fine du langage. La plateforme SIDE utilise l\u2019IA pour\u00a0:\u00a0d\u2019une part, aider les \u00e9diteurs de Wikipedia \u00e0 identifier les citations dont les sources sont contestables\u00a0; et, d\u2019autre part, rechercher sur le web des sources alternatives, plus pertinentes. SIDE a \u00e9t\u00e9 entrain\u00e9 sur le corpus Wikipedia en langue anglaise et il a \u00e9t\u00e9 \u00e9valu\u00e9 \u2013 sous forme d\u2019annotation humaine \u2013 au regard de sa capacit\u00e9 \u00e0 proposer des citations alternatives appartenant d\u00e9j\u00e0 au corpus Wikipedia dans des articles jug\u00e9s de haute qualit\u00e9. Il est estim\u00e9 que, dans 60 % des cas, les v\u00e9rificateurs pr\u00e9f\u00e8rent les citations sugg\u00e9r\u00e9es par SIDE (Petroni <em>et alii<\/em>, 2023).<\/p>\n<p>Pour conclure sur l\u2019IA curatrice, il appara\u00eet qu\u2019en d\u00e9pit des nombreuses initiatives dont elle est l\u2019objet, son bilan est en demi-teinte\u00a0: elle progresse avec retard par rapport \u00e0 l\u2019IA falsificatrice. Plus pr\u00e9cis\u00e9ment, ainsi que nous l\u2019avons soulign\u00e9 <em>supra<\/em>, si les apports de l\u2019intelligence artificielle dans la lutte contre la d\u00e9sinformation demeurent modestes, les freins sont moins technologiques que budg\u00e9taires. Tr\u00e8s frappant est le d\u00e9s\u00e9quilibre des moyens engag\u00e9s entre\u00a0: d\u2019un c\u00f4t\u00e9 les compagnies, qui investissent des milliards dans le d\u00e9veloppement des LLM (<em>Large Language Models<\/em>) et des NLP (<em>Natural Language Processing<\/em>)\u00a0; et, de l\u2019autre, l\u2019Europe et les \u00c9tats, qui parviennent p\u00e9niblement \u00e0 mobiliser quelques dizaines de millions d\u2019euros pour d\u00e9velopper des recherches et des outils de lutte contre la d\u00e9sinformation.<\/p>\n<p>On peut enfin regretter que les ressources documentaires sur la capacit\u00e9 de l\u2019IA \u00e0 d\u00e9tecter des contextes ou des indices de d\u00e9sinformation soient moins abondantes que celles consacr\u00e9es \u00e0 la d\u00e9tection des contenus de synth\u00e8se. Cette voie semble pourtant particuli\u00e8rement prometteuse, dans la mesure o\u00f9 l\u2019IA y joue pleinement son r\u00f4le d\u2019appui \u00e0 l\u2019intelligence humaine.<\/p>\n<h3><strong>Les dispositions r\u00e9glementaires<\/strong><\/h3>\n<p>Par rapport \u00e0 d\u2019autres r\u00e9gions du monde, l\u2019Europe est en avance, s\u2019agissant de la production de textes l\u00e9gislatifs visant \u00e0 \u00e9radiquer la d\u00e9sinformation en ligne et \u00e0 promouvoir l\u2019honn\u00eatet\u00e9 de l\u2019information. Devan\u00e7ant le processus europ\u00e9en, la France a promulgu\u00e9, d\u00e8s d\u00e9cembre 2018, une loi de lutte contre la manipulation de l\u2019information, dite loi \u00ab\u00a0infox\u00a0\u00bb. Celle-ci impose notamment aux grandes plateformes num\u00e9riques l\u2019obligation de mettre en \u0153uvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l\u2019ordre public ou d\u2019alt\u00e9rer la sinc\u00e9rit\u00e9 d\u2019un scrutin \u00e9lectoral.<\/p>\n<p>La loi fournit par ailleurs, sans toutefois l\u2019assortir de sanctions en cas d\u2019infraction, une liste de recommandations s\u2019adressant aux acteurs num\u00e9riques\u00a0: plus grande transparence sur les algorithmes\u00a0; mise en avant des contenus issus des m\u00e9dias traditionnels\u00a0; lutte contre la propagation massive de fausses informations\u00a0; affichage de la sponsorisation de certains contenus\u00a0; information des utilisateurs sur la nature, l\u2019origine et les modalit\u00e9s de diffusion des contenus\u00a0; contribution \u00e0 l\u2019\u00e9ducation aux m\u00e9dias et \u00e0 l\u2019information du public.<\/p>\n<p>Sorti en 2022, le R\u00e8glement europ\u00e9en sur les services num\u00e9riques (<em>Digital Services Act<\/em> ou DSA) impose aux plateformes d\u2019effectuer une analyse de risques de d\u00e9sinformation et de mettre en \u0153uvre des mesures techniques et humaines pour les r\u00e9duire. Le R\u00e8glement est assorti d\u2019un code informel de bonnes pratiques, ayant vocation \u00e0 s\u2019y int\u00e9grer progressivement. Il s\u2019applique en France depuis le printemps 2024, o\u00f9 ses dispositions se substituent \u00e0 celles de la loi de 2018, en les renfor\u00e7ant. Par ailleurs le R\u00e8glement sur l\u2019intelligence artificielle (<em>AI Act<\/em>), fra\u00eechement paru d\u00e9but ao\u00fbt 2024, contient plusieurs dispositions compl\u00e9tant celles du DSA, obligeant notamment les fournisseurs de services d\u2019IA \u00e0 marquer les contenus synth\u00e9tiques et les exploitants de ces services \u00e0 signaler les infox qu\u2019ils d\u00e9tectent. Enfin, en mati\u00e8re de risque d\u2019ing\u00e9rences \u00e9trang\u00e8res, a \u00e9t\u00e9 cr\u00e9\u00e9 en France en 2021 le service VIGINUM, rattach\u00e9 au Secr\u00e9tariat national de la d\u00e9fense et de la s\u00e9curit\u00e9 nationale.<\/p>\n<p>En bref, m\u00eame si certaines dispositions compl\u00e9mentaires \u2013 notamment en mati\u00e8re de sanctions applicables en cas d\u2019infraction \u2013 gagneraient \u00e0 \u00eatre ajout\u00e9es, nous disposons d\u2019un cadre r\u00e9glementaire pertinent, au service d\u2019un enjeu d\u00e9mocratique fondamental\u00a0: la confiance raisonn\u00e9e des citoyens en leurs moyens d\u2019information \u00e0 l\u2019\u00e8re num\u00e9rique.<\/p>\n<p>&nbsp;<\/p>\n<p><em>Mots-cl\u00e9s : D\u00e9sinformation &#8211; Deep fake &#8211; Intelligence artificielle g\u00e9n\u00e9rative &#8211; D\u00e9tection des contenus de synth\u00e8se &#8211; Fact-checkers &#8211; Journalisme &#8211; AI Act &#8211; Digital Services Act &#8211; \u00c9lections &#8211; R\u00e9gulation.<\/em><\/p>\n<p>&nbsp;<\/p>\n<p>* Cet article en deux parties est tir\u00e9 d\u2019une conf\u00e9rence donn\u00e9e par l\u2019auteur lors d\u2019une soir\u00e9e-d\u00e9bat sur le th\u00e8me \u00ab\u00a0<em>IA g\u00e9n\u00e9rative et m\u00e9sinformation\u00a0: un cataclysme\u2026 ou pas\u00a0?<\/em> \u00bb, organis\u00e9e le 13 juin 2024 par l\u2019association ENSAE Alumni, dans le cadre de son cycle Data &amp;IA. L\u2019article s\u2019inspire par ailleurs des travaux actuellement men\u00e9s par le groupe de travail \u00ab\u00a0<em>M\u00e9sinformation et IA g\u00e9n\u00e9rative<\/em> \u00bb, pilot\u00e9 par l\u2019auteur au sein de l\u2019Acad\u00e9mie des technologies ; que soient ainsi remerci\u00e9s les membres de ce groupe, en particulier Chantal Jouanno, Jo\u00eblle Toledano et Winston Maxwell, dont les apports ont nourri la conf\u00e9rence comme l\u2019article. Enfin, ce texte compl\u00e8te et enrichit deux articles pr\u00e9c\u00e9demment parus dans Variances :\u00a0 le premier, datant de juin 2023,\u00a0 porte sur les r\u00e9cents d\u00e9veloppements de l\u2019IA : \u00ab <em>Que faut-il conna\u00eetre, esp\u00e9rer et craindre de l\u2019intelligence artificielle g\u00e9n\u00e9rative ?<\/em> \u00bb, partie 1 \u00ab <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/variances.eu\/?p=7526\">Qui est-elle et que fait-elle ?<\/a><\/span><\/span> \u00bb, partie 2 \u00ab <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/variances.eu\/?p=7531\">Quels risques, quelles r\u00e9gulations<\/a><\/span><\/span> \u00bb (juin 2023) ; et le second, datant de mai 2020, aborde la crise de la cognition : \u00ab <span style=\"text-decoration: underline;\"><span style=\"color: #0000ff; text-decoration: underline;\"><a style=\"color: #0000ff; text-decoration: underline;\" href=\"https:\/\/variances.eu\/?p=5024\">Connaissance \u00e0 l\u2019\u00e8re num\u00e9rique : la possibilit\u00e9 du vrai ?<\/a><\/span><\/span> \u00bb .<\/p>\n<hr \/>\n<h3><strong>R\u00e9f\u00e9rences<\/strong><\/h3>\n<p>Enqvist, Lena, \u00ab\u00a0Human oversight in the EU artificial intelligence act: what, when and by whom?\u201d, <em>Law, Innovation and technology, volume 15<\/em> (2023).<\/p>\n<p>Petroni, Fabio, <em>et alii<\/em>, \u201cImproving Wikipedia Verifiability with AI\u201d in <em>Nature machine intelligence<\/em>, 5: 1142-1148 (2023).<\/p>\n<p>Bontcheva, Kalina, <em>et alii<\/em>, \u201cGenerative AI and Disinformation: Recent Advances, Challenges, and Opportunities\u201d, editor <em>University of Sheffield<\/em>, (February 2024).<\/p>\n<p>Zellers, Rowan <em>et alli<\/em>, \u201cDefending Against Neural Fake News\u201d, <em>Proceedings of the 33<sup>rd<\/sup> International Conference on Neural Information Processing Systems<\/em> (2019).<\/p>\n<hr \/>\n<p><a href=\"#_ftnref1\" name=\"_ftn1\"><sup>[1]<\/sup><\/a> C2PA d\u00e9veloppe des standards techniques de certification de la source et de la provenance des contenus m\u00e9diatiques en ligne. Le projet r\u00e9sulte d\u2019une alliance entre Adobe, Arm, Intel, Microsoft et Truepic.<\/p>\n<p><a href=\"#_ftnref2\" name=\"_ftn2\"><sup>[2]<\/sup><\/a> Outre <em>TrueMedia<\/em>, fond\u00e9e par le docteur Etzioni, on peut \u00e9galement citer <em>Copyleaks<\/em>, <em>Content at Scale<\/em>, <em>OriginalityAI<\/em>, <em>GPT Zero<\/em> ou encore <em>Crossplag<\/em>.<\/p>\n<p><a href=\"#_ftnref3\" name=\"_ftn3\"><sup>[3]<\/sup><\/a> Le projet, auquel participent les m\u00e9dias suisses (EBU) et allemands (<em>Deustche Welle<\/em>) et dont le Centre Borelli de l\u2019ENS de Paris-Saclay est \u00e9galement partenaire, est coordonn\u00e9 par l\u2019\u00e9quipe Mever (<em>Media Verification<\/em>) de l\u2019Institut de recherche en informatique de Thessalonique (ITI-CERTH).<\/p>\n<p><a href=\"#_ftnref4\" name=\"_ftn4\"><sup>[4]<\/sup><\/a> Cet aspect particulier est examin\u00e9 au sein du projet allemand DeFakts, pilot\u00e9 par le Centre de recherches sur l\u2019informatique (FZI), en collaboration avec les Minist\u00e8res f\u00e9d\u00e9raux de l\u2019\u00e9ducation et de la recherche\u00a0; pour d\u00e9celer la d\u00e9sinformation sur les r\u00e9seaux sociaux et les groupes de messageries, l\u2019\u00e9quipe a constitu\u00e9 des bases de donn\u00e9es provenant de X et de Telegram.<\/p>\n<p><a href=\"#_ftnref5\" name=\"_ftn5\"><sup>[5]<\/sup><\/a> Projet financ\u00e9 par l\u2019Union europ\u00e9enne, coordonn\u00e9 par la Fondazione Bruno Kessler et impliquant un consortium de partenaires, dont le CNRS, issus de 11 pays.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dans la premi\u00e8re partie de cet article, nous avons dress\u00e9 un tableau des pathologies de l\u2019information, avant d\u2019examiner leurs effets sur la formation des opinions et le comportement des citoyens. Nous avons \u00e9galement discut\u00e9 d\u2019une \u00e9ventuelle mutation du virus \u00ab infox \u00bb, \u00e0 la faveur des d\u00e9veloppements de l\u2019intelligence artificielle, notamment g\u00e9n\u00e9rative. Dans cette seconde [&hellip;]<\/p>\n","protected":false},"author":229,"featured_media":8253,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[164],"tags":[],"class_list":["post-8250","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificielle","et-has-post-format-content","et_post_format-et-post-format-standard"],"_links":{"self":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/8250","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/users\/229"}],"replies":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=8250"}],"version-history":[{"count":5,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/8250\/revisions"}],"predecessor-version":[{"id":8254,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/posts\/8250\/revisions\/8254"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=\/wp\/v2\/media\/8253"}],"wp:attachment":[{"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=8250"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=8250"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/variances.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=8250"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}