IPRES 2009 (2) – les processus et l’Humain

Un deuxième thème récurrent de la conférence IPRES (après « la valeur et le temps ») c’est l’approche organisationnelle et humaine de la préservation numérique.

J’avoue que je suis arrivée à IPRES avec une attention particulière pour ce sujet, dans la mesure où je présentais moi-même un article, rédigé avec Louise Fauduet, sur les problématiques organisationnelles et humaines du numérique. Le programme m’avait laissé à penser que cet aspect serait peut traité mais en réalité, il était assez omniprésent. Ça prouve, semble-t-il, que « moving into the maintream » n’était pas seulement un vœu pieu pour le titre de la conférence, mais une réalité des actions menées par les uns et les autres.

La question des organisations a été en particulier traitée à travers celle des réseaux et de la constitution d’archives distribuées, et ce en particulier dans la présentation de Martha Anderson de la Library of Congress, et au cours du Panel qui a suivi.
Martha a présenté les résultats d’une étude réalisée par IBM pour le NDIIPP. Elle nous a montré différents modèles de réseaux d’organisations, avec un pilotage plus ou moins fort, et ce qu’ils impliquent en termes d’efforts et de coûts. Le panel portait sur la mise en place de Private LOCKSS Networks.
J’ai bien aimé la réflexion sur le passage à l’échelle de la collaboration. C’est un peu comme la commission européenne… quand on est peu nombreux on arrive à fonctionner de façon informelle, mais si on veut s’étendre et accueillir de nouveaux membres, il faut passer par une phase de formalisation des stratégies, de la politique, de la gouvernance, et aussi des méthodes d’accompagnement et de formation.
Les effets de seuil existent aussi bien sur le plan technique, quand on passe de quelques centaines de GigaOctets à plusieurs dizaines ou centaines de Téra, que sur le plan organisationnel et humain. Cela implique aussi la mise en place d’outils appropriés comme les « micro-services » de la California Digital Library ou le système proposé par Chronopolis.

L’analyse des processus et la mise en place d’outils comme des guides de bonnes pratiques pour fluidifier les processus jouent un rôle essentiel dans cette formalisation.

Il existe des initiatives telles que les travaux réalisés par le réseau allemand Nestor sur la négociation du versement (« Into the archive »), ou les résultats du projet européen Planets. Toutefois on peut se demander, et la question a été posée en ces termes, qui fait réellement de la planification de la préservation aujourd’hui… Les différentes enquêtes réalisées dans le cadre de projets européens (et je dis, différentes, à dessein car il y en a eu plusieurs, souvent apparemment redondantes…) montrent encore pas mal d’incertitudes sur les actions à prendre, les stratégies à adopter, les normes à recommander.

Le lendemain d’IPRES, j’ai assisté à la journée « Active solutions » organisée par le consortium IIPC pour l’archivage du Web, et je dois avouer que j’ai été impressionnée par le degré de maturité de cette communauté sur toutes ces questions.
Leur approche des questions techniques (comme le format WARC) est résolument pilotée par une vision de long terme qui intègre les problématiques de planification de la préservation dès le début de la chaîne. L’après-midi était consacré aux questions d’organisation et de processus.
Cette journée m’a donné à penser que les « web-archivistes », une fois qu’ils auront résolu leurs (enôôôrmes) problèmes techniques, auront tellement d’avance qu’ils seront capables d’absorber tous les problèmes de préservation numérique des bibliothèques, enfin d’en réduire l’onde de choc, un peu comme un gros air-bag. Plus que jamais, préserver la mémoire du Web m’est apparu non pas comme un défi un peu fou, mais comme une action organisée, qui a du sens dans la perspective de l’histoire et des collections.
Une grande bouffée d’espoir donc ;-)

IPRES 2009 (1) – La valeur et le Temps

La conférence IPRES 2009, dédiée à la conservation numérique, vient de se terminer. Elle était cette année accueillie par l’Université de Californie – San Francisco et organisée par la California Digital Library.

Je m’épate moi-même quand je vois la complétude avec laquelle j’avais couvert l’événement en 2006, à Cornell… Aujourd’hui, une bonne partie de mon énergie est passée sur Twitter, où la conférence était couverte en direct par plusieurs personnes (tag #ipres09). Pour ceux qui dorment la nuit, vous pouvez aussi consulter le blog de Chris Rusbridge, qui a couvert en temps réel une bonne partie des sessions, à raison d’un billet par présentation.

Pour ma part, je vais me contenter d’une synthèse assez générale.
IPRES est résolument devenu un événement incontournable pour les bibliothécaires qui gèrent des collections numériques. Cette année le thème « moving into the mainstream » laissait supposer une certaine maturité du sujet et des questionnements liés à la mise en production de la préservation numérique.

Je dois dire que j’ai été frappée par le fait qu’il existe dans la communauté un besoin assez fort de justifier l’intérêt et la valeur de l’activité, et d’articuler les temporalités de la préservation numérique – c’est-à-dire, le passé (ce qu’on essaye de conserver), le présent (ce qu’on sait qu’on voudrait conserver, ce qui est utile à nos utilisateurs actuels) et le futur (les attentes inconnues des futurs utilisateurs à l’égard d’une collection inconnue).
Démontrer la valeur est essentiel dans un contexte où la préoccupation concernant les coûts est omniprésente. Il s’agit donc d’évaluer les coûts et le retour sur investissement, et en particulier la « soutenabilité », donc pas seulement les coûts de départ, mais aussi les coûts continus qui sont nécessaires pour pérenniser l’activité une fois qu’elle a démarré.

La première « keynote » posait la question des archives privées des entreprises, et de leur intérêt public. Qu’advient-il des archives numériques d’une compagnie qui disparaît, et ce dans un monde où les compagnies tendent à disparaître de plus en plus vite ou fréquemment… L’exemple de Brobeck Closed Archive montre le type de « sauvetage » qu’on peut envisager si on intervient au moment où la société est mise en faillite.
Ensuite nous avons assisté à un panel sur les coûts et la soutenabilité, animé par des gens qui étaient impliqués dans le Blue Ribbon Task Force. Plusieurs d’entre eux ont argumenté sur le fait qu’il faut prouver la valeur de l’activité de préservation numérique au regard de l’accès et des utilisateurs actuels, pas futurs. Ainsi pour convaincre, il ne faut pas dire aux gens qu’on va les aider à préserver leur données, il faut leur dire qu’on va les aider à faire leur travail. Mais ce n’est pas évident pour tous les types de collections numériques (penser aux archives du Web…) : on ne peut pas toujours se baser sur la loi de l’offre et de la demande en supposant que ceux qui offrent (les gens qui préservent) et ceux qui demandent (les usagers) sont les mêmes, ou que les premiers connaissent effectivement les besoins des seconds. C’est un problème qu’on connaît bien en bibliothèque.

Les deux autres sessions plénières, l’une consacrée à l’archivage des mondes virtuels, l’autre aux données ouvertes de la recherche, posaient aussi la question de la valeur et du temps.
J’ai bien aimé ces deux présentations, car elles étaient très ancrées dans la réalité du Web d’aujourd’hui, posant la question de la construction de la mémoire du Web, non pas en termes de publications au sens traditionnel, mais en terme de processus, d’humain, et « d’histoire ».
Ainsi pour garder la mémoire des mondes virtuels comme second life, savoir reproduire le fonctionnement du logiciel n’est pas très utile. Ce qu’il faut, c’est être en mesure de conserver le « contexte »de ce qui se passe dans ces mondes, c’est à dire des traces de ce que les gens y vivent et de ce qu’ils en retiennent : des copies d’écran, des billets de blog, des films etc.
Mais au fait : on ne préserve pas le Monde lui-même, seulement des documents qui le décrivent… préserver les mondes virtuels m’a fait l’effet d’une utopie d’historien un peu folle.
En ce qui concerne les données de la recherche, on retombe sur l’enjeu de gérer dans la même temporalité l’ouverture des données et leur préservation. C’est le but du projet Data-pass. Il faut gérer dans un même « mouvement » l’ouverture des données, la confidentialité et les autres questions juridiques, et la problématique de réutilisation des données, le tout dans une perspective de pérenniser les données de la recherche. Quand on parle des « données », cela signifie, pas seulement à travers les vues limitées qu’on en a dans les publications (comme les articles) des chercheurs, mais aussi en rendant possible la réutilisation des données source et la création de nouvelles connaissances.

Finalement, toutes ces réflexions montraient un certain réalisme, parfois un peu désabusé, face à la préservation numérique. On voudrait bien pouvoir conserver tout, pour toujours, mais on n’en a pas les moyens, il va donc falloir choisir. On se pose aussi des questions sur ce que cela nous coûtera de ne pas faire de préservation numérique. Avec le numérique, le nouveau sens de « pour toujours » c’est « pour 10 ans ». Et il ne faut pas avoir honte de faire de la préservation très basique, au niveau du train de bits, car c’est déjà mieux que rien.
Dernière idée qui me semble importante à retenir sur ce thème : la valeur réside dans les contenus et dans l’humain, pas dans la technologie. C’est toujours utile de le rappeler.