Aller au contenu
Accueil » Actualités » IA & Préservation numérique : qui est le bon, la brute et le truand ? Table ronde – Documation 2025 

IA & Préservation numérique : qui est le bon, la brute et le truand ? Table ronde – Documation 2025 

    Lors du salon Documation 2025 à Paris, quatre experts issus des mondes de l’information, de l’archivage numérique et de l’intelligence artificielle ont échangé autour d’une question simple, mais stratégique : l’IA est-elle une alliée, une menace ou un facteur incontrôlable pour nos systèmes de conservation à long terme ? Sous la houlette de Clémence Jost, rédactrice en chef du magazine Archimag, la discussion a croisé regards techniques, juridiques, archivistiques et normatifs. 

    Les intervenants : 

    • Morgan Attias, responsable de l’innovation produit dans le domaine de la préservation numérique. 
    • Fabrice Le Gascoin, consultant indépendant et enseignant, spécialiste des usages métiers de l’intelligence artificielle. 
    • Édouard Vasseur, professeur à l’École nationale des chartes, expert en archivistique et en conception de systèmes de préservation. 
    • Jean-Pierre La Hausse de Lalouvière, président d’une association professionnelle engagée dans l’évolution des normes de la transformation numérique. 

    Entre espoirs et inquiétudes 

    En introduction, Clémence Jost rappelle les résultats d’une enquête menée en 2024 : 86 % des professionnels de l’information disent ressentir de la crainte vis-à-vis de l’IA, mais 80 % se déclarent également optimistes. Cette tension traduit bien les attentes du secteur, pris entre la promesse d’automatisation et la peur d’un recul sur la maîtrise et la fiabilité des archives. 

    Atout ou illusion d’efficacité ? 

    Morgan Attias ouvre le débat en soulignant les bénéfices concrets de l’IA pour la préservation numérique : traitement rapide de volumes importants, assistance à la décision pour des utilisateurs non experts, ou encore automatisation de tâches comme l’indexation ou le pré-classement. Il évoque aussi les apports ponctuels des IA génératives pour créer des scripts ou des assistants intelligents, à condition d’en encadrer l’usage. 

    Fabrice Le Gascoin nuance ce propos. Pour lui, les IA peuvent produire des erreurs systémiques, notamment dans la génération de métadonnées ou la classification de documents, avec à la clé des archives faussées. Il alerte également sur la complexité croissante des systèmes, leur dépendance aux éditeurs technologiques et les risques que cela fait peser sur la pérennité des outils. 

    Jean-Pierre La Hausse apporte un éclairage plus inclusif, en soulignant le rôle de l’IA dans la démocratisation de l’information. Dans certains pays, comme en Afrique, la traduction automatique permet de rendre accessibles des documents publics dans des langues locales non numérisées, un levier puissant pour l’archivage citoyen. 

    Une menace pour la fiabilité des archives ? 

    Édouard Vasseur alerte sur un risque croissant : la confusion entre contenus authentiques et contenus générés. Deepfakes, hallucinations d’IA ou textes inventés peuvent être pris à tort pour des sources fiables. Intégrés dans des systèmes de préservation, ces documents deviennent des références… pourtant falsifiées. Il insiste sur la nécessité de garder un œil humain sur les productions de l’IA. 

    Jean-Pierre La Hausse de Lalouvière renforce cette idée avec un cas concret : un avocat utilisant un cloud grand public a vu son compte supprimé après une alerte automatique, entraînant la perte de toutes ses archives. Ce genre d’incident souligne l’importance cruciale de la souveraineté technologique dans le choix des solutions d’archivage. 

    Fabrice Le Gascoin rappelle enfin que les outils de détection de contenus générés par IA sont imparfaits, voire biaisés. Certains textes produits manuellement sont identifiés comme artificiels, pendant que de véritables textes IA passent inaperçus. Cela renforce l’idée que seul le regard humain reste fiable. 

    Comment éviter que l’IA ne devienne le “truand” ? 

    Morgan Attias met en avant la nécessité de renforcer la traçabilité : chaque document doit conserver une chaîne de provenance claire, incluant auteur, date, outil utilisé et transformations éventuelles. Il recommande de restreindre strictement les usages d’IA dans les outils de préservation, notamment l’enrichissement ou la traduction sans validation humaine. 

    Jean-Pierre La Hausse de Lalouvière invite à repositionner l’IA comme un outil, rien de plus. Il distingue trois profils d’utilisateurs : ceux qui refusent l’IA et s’exposent à l’obsolescence, ceux qui l’adoptent sans discernement, et ceux qui l’intègrent avec lucidité, comme un levier parmi d’autres. Il cite l’exemple d’un hôpital ayant gagné du temps grâce à une IA de pré-analyse des radios, tout en maintenant un contrôle humain systématique. 

    Quel avenir pour l’IA dans la préservation ? 

    Pour Morgan Attias, l’IA est comparable aux smartphones à leurs débuts : elle semble accessoire aujourd’hui, mais deviendra vite incontournable. Il appelle à un encadrement rigoureux, tant sur le plan technique que légal et alerte sur l’impact environnemental des IA génératives, à prendre en compte dans les choix d’architecture. 

    Fabrice Le Gascoin souligne que les IA génératives, non déterministes par nature, posent un véritable problème de reproductibilité, critère clé en archivistique. Il note cependant que le décalage entre la vitesse d’évolution des IA et celle des entreprises peut être une opportunité pour expérimenter en toute lucidité. 

    Édouard Vasseur identifie un frein majeur au développement d’IA utiles pour l’archivage : l’inaccessibilité des corpus d’entraînement pour des raisons juridiques. Il plaide pour une ouverture encadrée de ces ressources à la recherche publique, afin de concevoir des outils adaptés aux métiers de la mémoire. 

    Enfin, Jean-Pierre La Hausse de Lalouvière conclut sur une vision plus géopolitique : la maîtrise de l’IA est un enjeu stratégique pour l’Europe, qui doit conserver sa souveraineté sur les technologies critiques. Il évoque aussi l’arrivée imminente de l’informatique quantique, qui bouleversera à son tour les équilibres, y compris dans la conservation. 

    Conclusion : rester curieux, critiques et vigilants 

    Les intervenants partagent une conviction commune : l’IA n’est ni bonne ni mauvaise en soi. Tout dépend de la manière dont elle est pensée, utilisée et contrôlée. Dans un environnement avec lequel les technologies évoluent sans cesse, les professionnels de la préservation doivent rester ouverts, tester, corriger, se former en continu, et surtout, garder un regard critique sur les résultats produits. 

    Car au-delà des outils, c’est bien une certaine idée de la mémoire et de la responsabilité humaine qu’il faut préserver.