Après l’enthousiasme initial, le premier sentiment qui saisit les expérimentateurs de ChatGPT est… la désillusion, devant la masse d’informations erronées qu’on le voit énoncer avec un aplomb complet pour satisfaire son interlocuteur (https://www.numerama.com/tech/1251982-ne-faites-pas-confiance-a-chatgpt-il-ment-tout-le-temps.html). Rappelons aussi le fiasco très coûteux de la démo de Bard de Google sur la prétendue première photo d’exoplanète par le télescope James Webb… qui n’en est pas l’auteur (https://www.bbc.com/news/business-64576225).
Aux fausses informations générées par des algorithmes d’IA, non intentionnelles, on pourrait opposer, bien plus inquiétantes, les hordes de deepfakes (https://fr.wikipedia.org/wiki/Deepfake), qui risquent de faire passer les « fake news » de nuisances mineures à armes de destructions massives ; citons l’exemple connu de Barak Obama déclamant des insultes contre Donald Trump.
Quant à Twitter (désormais connu sous la marque X), l’échec de son « badge bleu » qui permet à n’importe qui d’usurper une identité faute de vérification, participe à la longue déchéance de la plate-forme (https://www.slate.fr/story/241904/service-premium-twitter-blue-elon-musk-echec-abonnement-payant-badge-bleu-certification-reseau-social).
Quel point commun peut-on mettre en avant sur ces problématiques ? Celui de la confiance en la source. Dans le cas des propos erronés de ChatGPT, l’émetteur de l’information n’est pas identifié. Dans le cas des deepfakes, on tente d’usurper l’identité de cet émetteur. Quant à Twitter, on y donne l’illusion de garantir l’identité…sans aucune vérification réelle.
Or, avoir un moyen d’authentifier de façon fiable et sécurisée la source d’une information ou d’un contenu numérique, est un sujet épineux connu depuis longtemps par les archivistes et notamment traité par le règlement eIDAS (https://www.ssi.gouv.fr/administration/reglementation/confiance-numerique/le-reglement-eidas/#:~:text=Le%20r%C3%A8glement%20eIDAS%20s’applique,march%C3%A9%20de%20la%20confiance%20num%C3%A9rique). Cela part d’un constat simple : archiver des documents électroniques, c’est bien, les signer électroniquement pendant l’archivage, c’est mieux, mais vérifier leur authenticité avant de les archiver, c’est encore mieux ! C’est là qu’intervient le complexe processus de vérification de signature électronique, incluant par exemple le contrôle de non-révocation des certificats, qu’il faut pratiquer en amont de l’archivage d’un document.
Ce sujet regorge néanmoins de paradoxes. Citons ce paragraphe, qui m’a particulièrement marqué, de l’étude « Intégrité, signature et processus d’archivage » de Françoise Banat-Berger et Anne Canteaut (https://www.rocq.inria.fr/secret/Anne.Canteaut/Publications/BaCa07.pdf):
«Demande-t-on aujourd’hui à un archiviste de vérifier les signatures manuscrites qui figurent sur les documents qu’il reçoit ? ce qu’on demande à l’archiviste, c’est de garantir le processus d’archivage y compris paradoxalement pour les documents qui seraient des faux : l’archiviste doit pouvoir prouver qu’il a parfaitement conservé des faux ! »
Pour revenir sur notre parallèle avec ChatGPT ou des deep fakes, il s’agirait de prouver de façon infalsifiable que l’information donnée proviendrait bien de la NASA, ou que la vidéo de Barak Obama montre bien le réel président des USA (on peut citer l’article « Protecting World Leaders Against Deep Fakes » qui évoque une solution de détection basée sur une signature biométrique des personnes :https://openaccess.thecvf.com/content_CVPRW_2019/papers/Media%20Forensics/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf). Le mécanisme de chaîne de certificats de la signature électronique pourrait très bien être une source d’inspiration !
Supposons qu’on a réglé le problème de l’authenticité. Tout comme les archives, authentifier la source ne signifie pas que cette source a émis des propos véridiques. On connait les limites de « l’argument d’autorité ». Ainsi, les prix Nobel ayant « déraillé » vers des théories farfelues ou des pseudo-sciences sont si nombreux qu’ils ont été regroupés sous le vocable de « la maladie du Nobel » (https://www.lalibre.be/planete/sciences-espace/2022/02/10/la-maladie-du-nobel-quand-les-scientifiques-deraillent-UZ32J66SORBJ5MSWMXYKKISPJI/).
Il s’agit donc de compléter cette preuve d’authenticité, dont le mécanisme resterait à construire, par une preuve de véracité. Le « fact checking » en serait une brique. Toutefois, il faut prendre conscience que la science du « veracity assessment » n’en est qu’à ses balbutiements (comme le souligne la publication https://www.sciencedirect.com/science/article/pii/S0167923619301617). Contrairement à la signature électronique, ce n’est pas un aspect qui semble encore préoccuper les producteurs d’archives numériques. Mais jusqu’à quand ?
Une autre piste possible est le contrôle humain à la soumission des archives. C’est là que la notion de workflow en entrée, qui ne permet l’entrée dans le système d’archivage que si un validateur humain a explicitement accepté l’archive, peut jouer un rôle.
On peut rêver qu’une synergie féconde se mette progressivement en place dans le domaine de l’information numérique sur le thème de la confiance. C’est peut-être même la condition de la survie du secteur !
Mikaël Mechoulam