Manipulation de l'information : Un rapport français prévient que le pire est à venir
Publié le 16 Novembre 2018
Les progrès technologiques vont faciliter les campagnes de désinformation, prévient le rapport.
Celles-ci pourraient viser à « déstabiliser le débat démocratique ».
Il sera aussi possible de truquer seulement une partie d’un discours « pour diluer l’authentique dans la confusion ».
Il est difficile d’anticiper quels seront les défis futurs. Nos adversaires sont créatifs et s’adaptent vite, les technologies et les supports médiatiques évoluent rapidement, et l’arrivée de nouveaux acteurs est aisée (les coûts d’entrée sont nuls, les risques d’être pris très faibles grâce aux difficultés de l’attribution et les gains potentiels très élevés). Pour l’ensemble de ces
raisons, il faut s’attendre à ce que les manipulations de l’information se généralisent et impliquent toujours davantage d’acteurs.
Quiconque aurait dit, il y a dix ans, que les grands réseaux sociaux qui venaient d’être créés (Facebook en 2004, Twitter en 2008, Instagram n’existait pas encore) auraient autant d’effet sur la vie de milliards de personnes et feraient partie d’un problème informationnel massif menaçant nos démocraties, aurait eu du mal à être cru. Il est donc difficile d’imaginer ce qui, dans dix ans, façonnera nos relations sociales et nous posera les problèmes les plus importants. On peut par exemple faire l’hypothèse d’une perte de vitesse des réseaux ouverts actuels et du développement des réseaux fermés (WhatsApp, Telegram, etc.) qui poseront d’autres types de difficultés aux autorités, notamment en matière de cryptographie.
Les manipulations de l’information ne sont pas nouvelles mais ont pris une dimension sans précédent en raison des capacités inédites de diffusion et de viralité offertes par internet et les réseaux sociaux, ainsi que de la crise de confiance que vivent nos démocraties.
Ce phénomène s’est manifesté par plusieurs ingérences électorales ces dernières années ; il menace les démocraties et la souveraineté de leurs institutions. Le CAPS et l’IRSEM ont donc uni leurs forces pour l’étudier.
Ce rapport est le fruit d’une enquête de terrain (une centaine d’entretiens menés dans une vingtaine de pays) pour mieux saisir la nature du problème et identifier les bonnes pratiques mises en œuvre par les États et les sociétés civiles. Il s’appuie également sur l’abondante littérature scientifique disponible. Il examine les causes, les conséquences et les réponses aux manipulations de l’information d’origine étatique et visant les populations d’autres États, avant de formuler 50 recommandations d’action.
Présenté pour la première fois le 28 août 2018 à l’occasion de la XXVIe conférence des Ambassadeurs et des Ambassadrices organisée par le ministère de l’Europe et des Affaires étrangères, il est officiellement présenté le 4 septembre 2018 à l’Ecole militaire, dans une conférence ouverte par Florence Parly, ministre des Armées. Disponible en français et en anglais, il est téléchargeable sur les sites du ministère de l’Europe et des Affaires étrangères, du ministère des Armées et de l’IRSEM.
L'étude, intitulée « Les manipulations de l’information, un défi pour nos démocraties », prévient que les nouvelles technologies donnent une ampleur nouvelle au phénomène...
Les logiciels d’édition photo, audio et vidéo, par exemple, permettront demain (certains même aujourd’hui), de faire dire n’importe quoi à n’importe qui, en rendant la désinformation indétectable.
Pour obtenir EFFICACEMENT l'attention des médias (inter)nationaux
Dans tous les cas, l’innovation technologique sera déterminante.
Non seulement l’innovation, mais aussi sa démocratisation : l’accessibilité et le coût vont décroître, en même temps que l’efficacité, la performance et la vitesse de propagation vont s’accroître. L’intelligence artificielle rendra les bots plus humains, donc moins détectables.
Elle fera progressivement sauter les barrières de la langue et de la culture (qui sont pour certains pays autant de remparts aux efforts d’influence étrangers), notamment avec le perfectionnement des logiciels de traduction.
Les logiciels d’édition photo, audio et vidéo, par exemple, permettront demain (certains même aujourd’hui), de faire dire n’importe quoi à n’importe qui, en rendant la désinformation indétectable.
Les deepfake videos, consistant à modifier numériquement les visages de personnalités afin de leur faire dire ou faire ce que l’on veut, sont déjà très crédibles. Ces vidéos altérées ont d’ailleurs été identifiées par le département de Défense américain comme un enjeu des élections de mi-mandat de 2018. À ce titre, la US Defense Advanced Research Projects Agency (DARPA) a même financé le Media Forensics Project dont l’objectif est de développer des technologies capables de cibler et identifier automatiquement ces deepfake videos1 . Un plus grand danger encore, car plus subtil que la création d’un faux, est l’altération discrète d’une partie seulement d’un contenu audio ou vidéo, un discours par exemple. Ou encore la possibilité d’en faire un grand nombre de variations – diffuser une vingtaine de variantes du même discours, par exemple, pour diluer l’authentique dans la confusion. Les personnalités fictives sont un autre risque. Pendant trois ans, de 2014 à 2017, Jenna Abrams était une militante pro-Trump connue, icône de l’alt-right américaine, citée par les grands médias (dont The Washington Post, The New York Times, The Independent et France 24) et suivie par 70 000 comptes sur Twitter. Mais Jenna Abrams n’existait pas : son compte était une création de l’IRA, l’usine à trolls de Saint-Pétersbourg .
L’intelligence artificielle rendra ces personnalités fictives plus sophistiquées, moins détectables. Elles pourront donner des interviews, écrire des tribunes dans la presse, avant d’être découvertes
Ces tendances vont participer d’une atomisation extrême de l’information, avec la disparition ou la fragilisation des acteurs pouvant servir de « tiers de confiance » (notamment les grands médias jouissant de la confiance du public, la parole publique continuant pour sa part à être décrédibilisée d’avance).
Dans un tel univers, la question centrale sera de savoir comment recréer des tiers de confiance.
Outre le renforcement du modèle économique et de la crédibilité des médias traditionnels, d’autres approches ont déjà été proposées et mériteraient d’être explorées (comme l’utilisation de la technologie dite de la chaîne de blocs (blockchain) permettant d’accroître la traçabilité de l’information). Même les progrès de la recherche en psychologie sociale, en particulier sur la manière dont nous prenons des décisions, pourront être « arsenalisés », en permettant de faire du micro-targeting plus précis et plus efficace.
La puissance qui alliera ces trois ingrédients – connaissances en psychologie sociale, big data et intelligence artificielle – pourra fabriquer une arme de division massive
Autres sources :
Le moteur de recherche de Google va débusquer les fausses informations - OOKAWA Corp.
En rendant ces vérifications plus visibles dans les résultats de recherche, nous pensons qu'il sera plus facile pour les gens de les examiner et de les évaluer, pour ensuite se faire leur propre...
Le moteur de recherche de Google va débusquer les fausses informations - OOKAWA Corp.
Faux fake influenceurs - fake followers - réseaux sociaux : analysez les indices pour détecter les VRAIS des FAUX ! MÉFIEZ-VOUS DES FAUX INFLUENCEURS Faux Followers En même temps que la montée...
Faux fake influenceurs - fake followers - réseaux sociaux : analysez les indices pour détecter les VRAIS des FAUX ! - OOKAWA Corp.
Thousands of fake companies added to Google Maps every month - OOKAWA Corp.
Thousands of fake companies added to Google Maps every month Don't always pin your hopes on the map Local businesses on Google Maps aren't always as local as they seem. Tens of thousands of bogus ...
Thousands of fake companies added to Google Maps every month - OOKAWA Corp.
Trump accuse Google, Twitter et Facebook de manque d'impartialité et de "censure" - OOKAWA Corp.
Toute tentative de Trump de " rectifier " les résultats des moteurs de recherche violerait le premier amendement " de la Constitution américaine garantissant la liberté de la presse La recherche...
Trump accuse Google, Twitter et Facebook de manque d'impartialité et de "censure" - OOKAWA Corp.