Quelques trucs

My Library Manual : un guide pour gérer des collections numériques avec le logiciel MyLibrary. La permière partie est assez largement applicable au-delà de ce seul logiciel.

Un arbre de décision pour décider quelles collections doivent entrer dans un entrepôt de préservation. Le système de l’arbre est marrant.

Oxford Journals signe avec Portico, le système d’archivage de Jstor. Auquel adhère aussi Elezvier.

Gérer les risques de votre institutionnal reposritory : cela devrait être la première étape du projet. Beaucoup plus conceptuel qu’il n’y paraît. Je vous raconterai, un jour. Ceci dit, celui-ci me paraît un peu optimiste, pour le coup.

Dossier sur les métadonnées sur bibliodoc. Il y est aussi question d’identifiants.

Boîte à idées

Vous vous souvenez de l’appel à idées lancé par la Commission Européenne sur les bibliothèques numériques ?

Toutes les réponses qui ont été envoyées ont été publiées sur le site I2010. Un sacré gros beau tas de choses à lire, dans toutes les langues, de toutes les longueurs, et avec une infinie palette de nuances.

Mais les ont-ils vraiment lues avant de les publier ? Parce que, à votre avis, qu’est-ce que ça apporte au débat ?

Mise à jour :

Annonce officielle et suites ici.

Confiture de « pff j’ai pas eu le temps de bloguer cette semaine »

J’ai lu un article très intéressant d’Alain Giffard sur les bibliothèques numériques en général et celle de Google en particulier.

Des gens ont parlé d’identifiants pérennes : sur catalogablog et chez Lorcan Dempsey.

Ca a bougé côté DLF : au sujet du DLF Framework qui a pour objectif de modéliser l’activité des bibliothèques si je comprends ce qu’en dit Lorcan, avec la publication des présentations d’une conférence intitulée Managing Digital Assets, et aussi avec la publication d’un document à réviser sur l’utilisation de MODS pour le patrimoine (via Digitization Blog celui-là).

Ca a bougé côté OCLC : avec la publication du rapport annuel 2005, et celle d’un autre rapport intitulé Perceptions of Libraries and Information Resources, sur les usages et les pratiques, et qui s’inscrit en continuité du 2003 OCLC Environmental Scan: Pattern Recognition vraiment à lire si vous ne l’aviez pas fait à l’époque.

Moi, pendant ce temps, j’étais occupée à aller au ciné, faire une conférence, et rencontrer des vrais gens dans la vraie vie. C’était bien aussi.

Numérisation en Europe : cadrage

Un peu de lecture rapidement : deux documents de cadrage des initiatives de numérisation en Europe viennent d’être publiés.

Le premier nous vient du JISC et il porte sur la coordination d’une initiative nationale au Royaume-Uni : 2005 Digitization Report, pdf, 38p.

Le second nous vient du projet Minerva, donc au niveau de l’Europe. Il fait la liste des actions à entreprendre et en particulier celles qui peuvent être menées immédiatement : Plan d’action dynamique pour la coordination dans l’U.E. de la numérisation du contenu culturel et scientifique.

Construire un « institutional repository »

Le MIT nous propose un tutoriel très complet pour mettre en place un institutional repository, qu’on pourrait traduire imparfaitement par "entrepôt numérique" : LEADIRS (PDF, 134 pages). On y trouve notamment toute sorte de renseignements utiles sur le plan organisationnel, légal, et budgétaire. Il y a aussi un comparatif des solutions logicielles existantes : Dspace, Fedora, Eprints, Greenstone, etc. Une lecture indispensable pour tout bibliothécaire qui se pépare à mettre en place un système de gestion de documents numériques.

Visualiser des documents numériques

Ces derniers temps, on m’a demandé à plusieurs reprises de réfléchir à des maquettes de visualisation de documents numériques et j’ai aussi eu l’occasion de donner mon avis sur celle (entre autres) de l’OCA, Open library. Alors je crois qu’il faut que je m’explique sur ce concept d‘exemple inquiétant d’un phénomène de résistance des mentalités à la technologie qui n’est sans doute que transitoire – même si Got fait ça déjà si bien dans son Du livre électronique au wiki, que tout le monde a déjà cité mais qu’importe, un peu de pub, ça fait pas de mal.

Donc première chose, un visualiseur se conçoit de manière générique. A moins que la politique documentaire de votre projet de numérisation soit de sélectionner uniquement les in-8° imprimés en Times corps 12, il faut prévoir que vous allez devoir potentiellement donner accès à des trucs aussi affreusement divers que de des journaux (en colonnes et en très petits caractères sur des très grandes feuilles), des manuscrits et des livres anciens (en couleur pour que ce soit joli, et en détail pour que ce soit utilisable), des dictionnaires (écrits tout petit sur du papier tout fin), toutes sortes de feuillets dépliants de tableaux et autres trucs de taille non conventionnelle cachés entre deux pages, et pourquoi pas des photos, des estampes, des objets en 3D et même, horreur suprême, des plans qu’on ne peut pas lire si on ne peut pas les retourner à 180°.
Donc un bon visualiseur doit être capable de zoomer, de retourner l’image, de s’adapter à la taille du document pour la lecture à l’écran et pour l’impression : c’est un minimum, on peut faire toutes ces choses avec un livre.
Vous pouvez toujours contourner le problème en proposant une interface de consultation dédiée pour chaque type de document. C’est le modèle anglosaxon, à découvrir aux USA, en Angleterre ou encore en Ecosse.

Deuxièmement, un visualiseur doit être capable de gérer ce qu’on peut appeler le paratexte, et les métadonnées. Ce paratexte, c’est notamment la pagination de l’ouvrage, sa table des matières, sa notice… C’est plutôt pas mal dans la Bibliothèque virtuelle des humanistes.
Cela impose aussi d’être capable de gérer différentes versions d’un même document et là, ça se complique. Si le document est indexé en plein texte, cela veut dire qu’on en a une version textuelle. De plus en plus, on propose une version textuelle imparfaite, obtenue automatiquement par OCR, et "cachée" virtuellement derrière l’image, ce qui signifie qu’on enregistre toutes les coordonnées des mots sur la page pour être capable de savoir précisément sur quelle page et à quel endroit de la page se trouve un mot. C’est ce qui permet de souligner joliment (enfin chacun ses goûts) en jaune l’occurence trouvée, ou de placer un petit post-it entre les pages virtuelles de notre livre numérique.
Dans ce cas-là, on peut faire de la recherche plein-texte, mais on ne bénéficie pas de toutes les choses merveilleuses qu’on pourrait faire si on avait accès à cette version textuelle : la copier pour pouvoir la transcrire plus rapidement, jeter un oeil pour évaluer la pertinence de l’OCR et donc le risque de "silence" sur sa requête… On voit ça correctement mis en oeuvre dans Persée.
Si on a une version textuelle corrigée du texte en plus de l’image, une véritable numérisation en mode texte, ça se complique encore plus. Il faut imaginer les outils qui permettent de passer en souplesse d’une version à l’autre, suivant les besoins. Pour voir ce que ça donne quand c’est bien fait, rendez-vous sur les Cartulaires numérisés d’Ile de France.
Je ne parlerai même pas de la question de la visualisation d’une numérisation uniquement en mode texte, il y aurait trop à dire.

Enfin, en vrac (ou en confiture ;-) parmi les choses auxquelles il faut penser :

  • une référence simple et efficace, c’est à dire de belles URL propres, si possible sur chaque page du document numérisé
  • la gestion des documents multiples, les périodiques par exemple ; réfléchir comment on va passer d’un numéro au suivant
  • les possibilités d’impression et de téléchargement d’une page, de plusieurs pages
  • les outils d’aperçus ou de feuilletage, comme les vignettes ou les mosaïques
  • les documents complexes, qui mélangent de l’image et du son, ou du son et du texte, ou autre chose
  • l’accessibilité pour les personnes handicapées
  • etc.

Je ne parlerai pas non plus du problème de l’accès aux documents qui est en amont de la visualisation proprement dite, mais il y aurait beaucoup à dire.

Pour finir sur cette question essentielle de savoir ce qui me chiffonne dans les interfaces qui "imitent" le livre, comme Open library, c’est que d’emblée elles rejettent la spécificité du média numérique.
Le tourne-page, la visualisation en double page, les petits post-its et autres gadgets sont en fait très rassurant pour des gens qui sont peu familiarisés avec Internet, ce qui est le cas de la plupart des décideurs qui tiennent les cordons de la bourse. Mais en proposant une telle interface, on se prive des possibilités ouvertes par le nouveau média pour manipuler le document. On se prive également des possibilités ouvertes par l’ancien média, puisqu’en essayant de copier ce qui était performant sur le papier, on perd de la qualité et de la lisibilité sur l’écran.
Il ne nous reste plus qu’à télécharger l’ouvrage entier en PDF ce qui, à mes yeux, est certes une fonctionnalité indispensable mais aussi un constat d’échec sur l’appropriation du numérique.

Je ne suis pas résolument opposée à l’interface que propose Open library. Je trouve juste qu’elle met de manière excessive l’accent sur des fonctionnalités qui ne sont finalement que "jolies", aux dépends de ce qu’elle pourrait proposer d’efficace, de pertinent et de pratique. Mais je suis consciente que c’est peut-être moi qui ai tort.

Je vous recommande tout de même la lecture de deux articles sympathiques en relation plus ou moins avec ce sujet :

Chez OCA on repeint la façade

En fait ce n’est pas une façade, ni même une vitrine, mais carrément une vision que l’on peut trouver sur le site The open library.

Une vision d’un monde séduisant aux couleurs compassées, dans lequel on choisit un livre à la couleur de sa couverture, dans lequel les pages virtuelles des livres numériques se tournent comme en vrai, dans lequel rien ne vient polluer la lecture, ni menu, ni navigation intempestive. La recherche plein-texte ajoute des petits signets jaunes entre les pages, les métadonnées s’affichent sous la forme d’une fiche cartonnée, à l’ancienne, il y a même le trou pour le tringlage.

So librarian !

(Ca me fait penser à la ville de Spectre dans Big Fish de Tim Burton.)

Cette vision, c’est peut-être ce que nous offrira demain l’OCA, forte déjà de ses nouveaux partenaires.

Pour ceux qui n’auraient pas encore complètement saturé, je recommande la lecture de l’article de JM Salaün, qui fait bien le tour de la question "Google print" en la remettant dans son contexte, économique en particulier.
A noter aussi, le mémoire de Delphine Berroneau intitulé Les bibliothèques numériques. D’hier à aujourd’hui, la transmission d’un savoir. (master soutenu à Poitiers en 2005). Malgré un peu de légèreté concernant certains points de l’analyse, on y trouve une bonne définition de ce qu’est une bibliothèque numérique, et une pertinente mise en contexte au niveau francophone. (Via JB Soufron.)

Alors, qui sont les gentils ?

On avait Google print, puis la bibliothèque numérique européenne. Tout à coup débarque un troisième larron et il devient de plus en plus difficile de s’y retrouver : qui a raison, qui a tort ? Qui sont les gentils et qui sont les méchants ? J’espère ici démystifier un peu cette surenchère autour des bibliothèques numériques en proposant une approche chronologique en même temps qu’un décorticage stratégique.

Google print ou l’approche médiatique

« Nous vous proposons d’utiliser nos ressources et nos compétences parce que nous voulons votre bien » : tel pourrait être le mot d’ordre de Google Print si ce n’était pas déjà « notre mission est d’organiser l’information du monde ». De coup médiatique en coup médiatique, Google propulse son projet de numérisation – au milieu de bien d’autres projets dont je ne parlerai pas ici. Analysons simplement l’offre de Google print.
D’abord, un projet Google print éditeur (GPPP) qui fait du bruit mais n’a rien de nouveau, l’idée ayant été lancée par Amazon avec un peu moins de verve, mais annoncée dans le NY Times dès le 21 juin 2003 pour un lancement à l’automne 2003. Rappelons que GPPP a été annoncé en octobre 2004 et lancé officiellement (avec une interface spécifique) en mai 2005. GPPP n’invente donc rien, pas même l’objectif : faire vendre, en faisant des liens depuis le texte cherchable des ouvrages vers des librairies en ligne.
Un peu plus tard (décembre 2004) Google print s’élargit avec le Google Print Library Project, GPLP de son petit nom, et provoque la polémique que l’on saiten France à partir de janvier, mais aussi tout un tas de réaction de l’autre côté de l’Atlantique, bibliothécaires dubitatifs et éditeurs réticents.
Ce qu’on peut dire sur ce projet, c’est que dès le départ, il essaye de faire vibrer la corde sensible en offrant de numériser gratuitement des masses de livres. C’est l’utopie de la reproduction universelle, décrit par F. Barbier dans le BBF (pardon, mais maintenant on ne fait plus de liens, on cite à l’ancienne, débrouillez-vous avec ça : Barbier, Frédéric, « Patrimoine, production, reproduction », BBF, 2004, n° 5, p. 11-20) – je cite pour vous simplifier quand même la vie :

D’une manière générale, l’expert, donc le bibliothécaire, devra être sensible aux utopies de la reproduction : l’utopie de la reproduction universelle (tous les textes seraient transposés sur un nouveau support), alors que les processus de translittération qui se sont déjà produits au cours de l’histoire ont toujours montré qu’ils s’accompagnaient de pertes plus ou moins considérables. L’utopie, aussi, de la reproduction « transparente » – laquelle rejoint, dans une certaine mesure, l’utopie de l’information « transparente ».

Donc finalement on est dans le domaine de l’utopie, et pas dans celui d’une bibliothèque numérique, Google print ne s’étant jamais assimilé de lui-même à une « digital library ». Mais le résultat est là : on peut chercher des livres dans Google (pas les consulter, ce qui prouve bien qu’on n’est pas dans une bibliothèque numérique).

Open Content Alliance ou l’approche pragmatique.

Voici maintenant qu’on nous annonce que Yahoo s’y met à son tour, avec un projet intitulé OCA. Si on creuse un peu, on trouve derrière ce projet non pas Yahoo, mais Brewster Khale et son Internet Archive. Brewster ne s’y était pas trompé sur la possibilité d’utiliser Google print comme tremplin. En farfouillant dans les archives des press release d’Internet Archive, on observe des remous vers décembre 2004 (comme par hasard) : un projet de numérisation de livres avec l’Université de Toronto qui utilise un « cool new page turning robot » (tiens tiens, ne serait-ce pas ce truc révolutionnaire qu’on a vu passer dans le Monde?) et un projet de open access text archive probablement lié d’une façon ou d’une autre au fameux million book project dont personne ne parle.
La clef est là : personne n’en parle. Or, rien n’appâte tant les médias que de voir deux titans se battre pour un lopin de gloire. L’idée d’associer Yahoo est donc excellente pour l’image du projet. En outre, OCA a laissé le temps de se décanter à l’opération Google, juste le temps nécessaire pour repérer ses principales erreurs et les éviter. OCA se proclame donc respectueux des droits d’auteurs, ce qui peut étonner quand on sait qu’Internet Archive est un des inventeurs de l’opt-out si décrié dans le projet Google print :

If the author or publisher of some part of the Archive does not want his or her work in our Collections, then we may remove that portion of the Collections without notice.(Vu ici).

Par ailleurs, OCA met l’accent sur l’accès ouvert en utilisant quelques mots-clef – catalogue, métadonnées, OAI, RSS, PDF – susceptibles d’amadouer les bibliothécaires pour être accepté dans le panthéon des bibliothèques numériques.
Le résultat : un joli site Web mais pas grand-chose de concret pour l’instant, il faut attendre de voir si le pragmatisme de ce projet, présent également dans la sélection des partenaires, lui permettra d’être à la pointe.

La bibliothèque numérique européenne ou l’approche méthodique

Entre les deux, on trouve l’initiative européenne. Un Comité de pilotage, une consultation, des appels à projet : autant de procédures qui paraissent lourdes et interminables, en tout cas, qui n’ont ni l’insouciance de Google print, ni le pragmatisme de OCA. Mais cette troisième initiative se donne pour objectif de travailler en profondeur, susciter des bonnes pratiques dans les bibliothèques elles-mêmes, avec une vision méthodique des moyens pour les faire entrer dans le numérique. Pour prendre un exemple, elle est la seule à se soucier de la préservation à long terme des documents numériques. Il s’agit donc de faire avancer le métier et cela ne peut se faire en un jour. On essaye de susciter une dynamique de réflexion et d’action sur le long terme, qui sera sans doute plus longue à démarrer que les deux projets précédents, mais qui permettra aux bibliothèques d’évoluer à leur rythme et avec leurs moyens (humains et financiers).
Le résultat : on le verra plus tard. Dans un an, deux ans, dix ans ? Son objectif n’est pas d’être immédiat mais d’être profondément enraciné dans les pratiques bibliothéconomiques.

Conclusion

Chacun de ces trois projets a sa dynamique et aussi ses défauts. Chacun pourrait être contesté s’il était tout seul, en situation de monopole. La bonne nouvelle, c’est que ces trois projets existent. Ils garantissent que les ressources de demain sur le Web seront réparties, diversifiées, nombreuses et adaptées à des publics différents. Et ça, c’est une excellente nouvelle.

Et vous, qu’en pensez-vous ?

La commission européenne nous demande notre avis sur le sujet épineux (et brûlant) des bibliothèques numériques. Elle nous propose plusieurs textes ainsi que le contexte qui a suscité ce déploiement d’énergie.

On a donc une communication datée du 30 septembre 2005 et un document de travail (uniquement en anglais) à commenter suivant cette grille d’analyse avant le 20 janvier 2006. Deux séries de questions concernent d’une part la numérisation et l’accessibilité des contenus, et d’autre part la préservation des documents numériques.

La contribution est ouverte à tous, aux organisations publiques et privées, et les commentaires seront publiés.

A vos plumes !

Merci à PluriTAL.

Pratique

Vous l’avez peut-être remarqué, je ne suis pas très en forme cette semaine donc excusez-moi si les billets sont courts et mélangés.

Aujourd’hui, quelques trucs pratiques…

Le premier c’est une page de personnalisation de fil RSS pour obtenir les nouveautés de sa bibliothèque. On peut choisir par classe de la Dewey ou une autre classification plus générale, et on choisit les critères de tri des résultats ainsi que la fréquence d’actualisation.

Le second c’est Lookleap, un outil qui sert à générer des URL raccourcies pour citer une ressource. Il permet aussi d’annoter des pages Web et d’envoyer des mails préformattés avec un lien. Enfin, si on lui donne à manger un PDF, il en propose une version "cache" très propre en HTML. Un peu comme la transformation du PDF proposée par Google, mais en propre. C’est spécial pour les gens qui haïssent le PDF.

Le dernier est un manuel de numérisation édité électroniquement et accessible librement en ligne. L’ouvrage date de 2005 et on peut l’acheter 30$ sur Amazon (pour les gens qui arrivent pas à lire sur écran ;-) mais il faudra attendre le 30 novembre !