Comment échapper au trou noir numérique ?

TRIBUNES

Certains archivistes en sont sûrs. Pour protéger un email plus de 500 ans, mieux vaut le microfilmer. Leur confiance dans le support digital est très faible pour une conservation qui dépasse le cap des 5 ans. En effet, la machine peut tomber en panne, l’organe de stockage devenir désuet, et le format de fichier illisible. Cette solution consiste à redonner une forme physique à l’immatériel pour échapper au trou noir numérique qui plongerait le monde dans un « digital dark age ». Ce danger est une anticipation d’un futur pas si lointain où des pans entiers de connaissance seront inaccessibles à cause de l’obsolescence des supports et de leurs contenus numériques.

La science, première victime

Rares sont les organismes et les entreprises qui se sentent concernés comme en témoigne le projet de sensibilisation CASPAR porté par la Commission européenne. Et pourtant, qui aurait pu croire que la NASA, l’agence spatiale qui gère des robots martiens, pourrait être une des premières victimes de ce Moyen Âge numérique ? Aux confins du système solaire, les sondes Pioneer 10 et 11 lancées dans les années 70 ont commencé à décélérer légèrement. Difficile pour les gestionnaires du programme de se résoudre à contredire les lois de la physique pour expliquer le phénomène ! Les équipes du Jet Propulsion Laboratory de l’agence aérospatiale ont voulu comprendre ce qui clochait dans leurs calculs ou dans la conception des engins. Et pour cela, ils ont dû exhumer des données enregistrées pendant la fabrication et le vol des sondes. Mais l’obscurantisme digital avait déjà accompli sa besogne : impossible de consulter les bandes perforées de l’époque et de retrouver tous les schémas. Une somme considérable d’efforts a été déployée sur plusieurs années pour réveiller les informations endormies sur des supports vieillots et parfois défaillants.

L’art numérique victime de son empressement

Si la NASA est impactée, il est évident que d’autres institutions ont laissé une partie de leur mémoire se fragiliser. À commencer par l’Ircam. Quand l’éditeur de Diadèmes de Marc-André Dalbavie a voulu réactiver cette pièce de 1986 pour un concert aux États-Unis, le réalisateur en informatique musicale, Serge Lemouton a découvert que les synthétiseurs Yamaha utilisés n’étaient plus en fonction. Que la partie technologique de l’œuvre réalisée sur de vieilles versions de logiciels et de vieilles machines n’était pas interprétable en l’état. Des semaines de travail ont été nécessaires pour assurer le portage sur des outils modernes. La musique, comme la science, sont donc dépassés par le tempo fulgurant du numérique. Les installations d’art contemporain bâties sur de vieilles versions de logiciels s’empilent dans les tiroirs des FRAC sous la forme de cédéroms illisibles. Quand une peinture rupestre tracée dans une grotte il y a plus de dix mille ans est encore visible, une œuvre commandée il y a 10 ans à peine n’est déjà plus accessible. Il faut contacter l’artiste pour récupérer le code source afin de le porter sur un logiciel récent. Souvent, le contrat d’achat ne prévoyait pas cette clause et l’artiste attaché à la forme initiale de diffusion ne souhaite pas d’adaptation. Dans les jeux vidéo, le bourbier numérique est aussi présent car l’industrie pense que la conservation du patrimoine se fait aux dépens de l’innovation. Des activistes passionnés se chargent de pérenniser les œuvres. Une association française (MO5.Com) s’est spécialisée dans la conservation des titres et des supports de jeu pour maintenir l’interaction initiale. Grâce à leur travail, il est possible de jouer à « Alone in the dark » de Frédérick Raynal sur un clavier datant de 1992. Encore faut-il se rendre à une de leurs expositions. Il est en revanche plus aisé de regarder un film de Marcel Carné gravé sur un disque au format BluRay. Le cinéma a entamé sa mue vers le numérique mais il est toujours obligatoire en France de déposer une bobine photochimique au CNC qui se charge de les entreposer dans ses archives.

Les bonnes pratiques du numérique

Si le numérique est un danger à moyen terme, il est tout de même une bonne manière de construire, de diffuser et de stocker. Il faut donc affronter le problème et déployer dès à présent des stratégies subtiles. La première consiste à programmer dans des langages interprétables dans le futur. Il y aura toujours un ingénieur futé pour réveiller un carré de silicium. Alors il faut faire en sorte que les lignes mémorisées soient compréhensibles et compilables. Pour cela, rien de tel qu’un langage mâture assez proche de la machine mais bien structuré. Le C et son affidé le C++ sont d’excellents candidats : nés dans les années 70, ils ont traversé les bouleversements technologiques.

Pour les documents eux-mêmes, tout est affaire de choix de format. Les logiciels tombent souvent en désuétude au gré de leur cycle commercial, emportant avec eux les verrous propriétaires. Le point DOC a été mis en service par Corel et repris par Microsoft. D’innombrables documents ont été rédigés et stockés dans ce format. Pourtant, il est en passe d’être abandonné par la firme de Redmond car sa rétrocompatibilité est trop lourde à maintenir. Il semble donc préférable de privilégier les formats ouverts dont les spécifications sont publiques. Séparer le contenu de sa mise en forme est aussi un axe de préservation. C’est un des concepts de « LaTeX » (prononcer Latèque) qui remporte un franc succès dans la communauté scientifique qui l’affectionne pour sa transparence de fonctionnement issue des logiciels libres.

Le fameux « open source » semble en effet apporter une forme d’assurance pérennité. Les projets impliquent d’importantes communautés. Les connaissances sont partagées et tous les travaux sont accessibles de manière ouverte. Un utilisateur a donc toutes les clés d’un produit qui n’est plus une boîte noire. Le serveur mondial GitHub est le lieu d’échange favori autour de ces programmes. Les codes sources sont déposés dans ce répertoire mondial inscrit sur des baies de serveurs réparties sur la toile. C’est d’ailleurs ce principe de stockage qui concentre aujourd’hui l’attention sous la dénomination « cloud ». Ce nuage est en fait constitué d’immenses centres de données dispersés dans le monde. Les serveurs sont reliés entre eux pour recevoir les données de manière synchrone et les distribuer en fonction du trafic.

En plaçant ses informations sur de tels dispositifs, l’utilisateur s’affranchit des contraintes matérielles et système. Il se contente de déposer ses objets sur ces disques à travers le Web. C’est l’hébergeur lui-même qui assume les changements de serveurs tout en garantissant une disponibilité permanente. Les questions de confidentialité et de volatilité des données sont souvent évoquées pour mettre en cause ce genre de stockage. En attendant un « cloud » national plus rassurant, des bioinformaticiens réalisent des expériences pour encoder des documents au format ADN. Après tout, ces chaînes de molécules qui sont les clés d’information du vivant sont un format simple à produire et à stocker. Et les quelques milliards d’années qui nous séparent des premières cellules sont un message rassurant pour les conservateurs.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>