Je relisais ce matin le billet de B. Calenge « Pourquoi les catalogues ne peuvent pas être 2.0 » et je me disais que la vision qu’il donne du catalogue est tout à fait dans l’air du temps, c’est-à-dire, dans un mouvement de désaffection à l’égard de l’outil qui a incarné depuis tant d’années (depuis toujours ?) le cœur du métier de bibliothécaire.
En fait, le problème avec le catalogue, c’est justement sa nature multiforme et la difficulté de définir précisément à quoi il sert. Les bibliothécaires ont longtemps projeté leur propre vision du catalogue sur les usagers, et c’est ce qu’ils font encore quand ils essayent de construire le « catalogue 2.0 ». Mais en même temps, le catalogue est leur outil de travail, un outil de « gestion », principalement dédié à la « localisation » des ouvrages d’une bibliothèque donnée, un outil « local ».
Quand B. C. parle de « laisser disséminer les données bibliographiques » il se place dans une toute autre vision ; il n’est plus question « du catalogue » mais « des données ». C’est autre choses, on sort de cette vision centrée autour d’un outil.
Éviter la redondance (donc que plein de catalogueurs ressaisissent plein de fois la même information), permettre de lier les données du catalogue, permettre de les réutiliser, ce sont là les principaux défis du catalogue aujourd’hui.
Un pléthore de rapports ont été publiés récemment sur ce sujet ou des sujets connexes :
– réflexions du NISO sur la chaîne de production des métadonnées du livre
– réflexions de la Library of Congress sur le « marché » des notices MARC
– réflexion d’OCLC sur l’utilisation des champs MARC, dans une perspective de rationalisation du catalogage pour atteindre différents objectifs, dont l’utilisation par des machines
– etc.
Ce qui tend à en faire non plus un outil destiné à des humains, mais un ensemble de données réutilisables par des machines…
… donc nous pousse vers le Web sémantique. Dans ce billet, Karen Coyle explique bien quelles sont les limites des formats MARC quand on essaye de rendre les données des catalogues plus utilisables dans le Web. Il paraît clair qu’il faudra aller au-delà des formats MARC pour y arriver, et vers le Web sémantique… mais comment s’en sortir avec toutes ces données existantes en MARC qui sont dans nos catalogues ? qui pourra piloter cet énorme changement ? Plus grave, les acteurs majeurs ont-ils vraiment intérêt à y aller, ou freinent-ils des 4 fers ?
J’y vois une autre difficulté : cette évolution ne fera qu’amplifier la tendance à la désaffection des bibliothécaires pour ces sujets, de la formation initiale (apprendre à cataloguer, c’est vraiment trop has been) aux enjeux stratégiques et budgétaires des bibliothèques (investir dans le catalogue, c’est vraiment trop has been).
Qu’on ne se méprenne pas, je trouve cela normal, et même justifié, que la plupart des collègues se recentrent sur les questions de publics, de médiation, etc. plutôt que sur les questions rébarbatives de métadonnées.
Mais ces métadonnées, on en aura besoin. Elle constituent la colonne vertébrale de tout le reste. Pas de bibliothèques numériques, de blogs, de machins 2.0 sans une solide base de métadonnées sur laquelle construire tout cela.
Les bibliothécaires qui constitueront ce réservoir de métadonnées seront moins nombreux mais plus experts ; leurs compétences seront d’autant plus précieuses, car c’est un sujet complexe, beaucoup plus complexe que ce qu’on pourrait imaginer.
Il ne faut pas abandonner les métadonnées.
Le problème avec le catalogue est qu’il n’intéresse que les bibliothécaire dans sa remise en question. A quand la folksonomie?
correction : bibliothécaireS, merci.
Bonjour,
Une évolution possible : les métadonnées ne seront-elles pas plus « embarquées » ? C’est à dire qu’elles seront fournies (achetées) par l’éditeur, l’archive ouverte, l’archiviste, bref délivrées par celui qui met à disposition dans le web (et dans quelques temps dans le web de données) les données. Donc, premier travail, travailler sur les vocabulaires pivots de métadonnées. Avec le web de données, les métadonnées sont « embarquées » (disponibles) dans la donnée elle-même (on le voit déjà avec les métadonnées IPTC, EXIF pour l’image fixe) ainsi le travail change dans les étapes de fabrication du catalogue. Le catalogue est là, à l’acquisition, et en fait, il faut l’enrichir : en présenter plusieurs formes, le valoriser, le « mashup-er », le pousser vers d’autres machines via l’OAI-PMH en attendant de bon moteur de recherche fondés sur RDF. Cela entrain un « effet de bord » : la distinction entre les métiers de bibliothécaires et de documentalistes n’est plus évidente en fait, là aussi il y a un mash-up des métiers.
Stéphane.
Concernant les limites de certains schémas de métadonnées, j’ai un cas qui me laisse perplexe. Il faut dire aussi que je suis vraiment néophyte en la matière et mes recherches ne m’ont pas permis de trouver une solution.
Imaginons dans un catalogue sur une collection d’œuvres, une « notice critique » sur une œuvre dans une page html.
Nous souhaitons associer à ce « document » web des métadonnées Dublin core .
Théoriquement il me semble que le document est la notice. Mais le document en rapport à ce document est l’œuvre. Bref nous avons 2 documents. Les métadonnées portent sur l’œuvre ou la notice ?
Pour la métadonnée auteur soit on met celui ou celle qui a réalisé l’œuvre, soit on met celui qui a rédigé la notice, soit on met les deux (ce qui paraît de prime abord exclu car créant une ambiguïté insoluble sans complément d’information).
En pratique les différentes approches sont légitimes. On peut aussi bien s’intéresser à l’œuvre ou à la notice.
Le cas doit être connu, même si je n’ai rien trouvé dessus. Mais il me semble qu’on peut percevoir ici l’intérêt énorme des modélisations par graphes qui pourraient logiquement répondre au problème.
Ce billet est tellement riche qu’il en devient un vrai trampoline sur lequel on aimerait pouvoir rebondir partout.
Concernant la désaffectation pour les questions non pas des métadonnées mais plus largement des « données web », et la sous-estimation de ces enjeux avec en parallèle une stratégie numérique des institutions culturelles axée bien souvent essentiellement sur les questions de médiation, il y a un exemple qui pourrait apporter de l’eau au moulin.
Yannick Vernet, Chef de projet multimédia au MuCEM , a fait un diaporama passionnant sur
« Les questions du numérique dans les musées » :
Ce vaste panorama est très axé sur les questions de médiation, les nouvelles possibilités technologiques (3D video audio), l’importance des réseaux sociaux pour les institutions muséales et j’en oublie beaucoup. C’est très riche, varié, donne un aperçu très large de changements importants dans les pratiques et permet de découvrir de nombreux projets innovants.
La première partie porte sur la valorisation des collections
Et les 2 premiers exemples cités sont intéressants :
– Les collections du Louvre.
Par mon expérience (aujourd’hui par exemple), la consultation de la base Atlas n’est pas toujours aisée.
– Les collections d’Orsay
Là c’est l’inverse. J’ai souvent grand bonheur à y naviguer.
Malheureusement l’outil Découverte n’est pas mentionné. C’est pourtant un outil formidable offrant une navigation reposant sur les métadonnées.
Après ce sont les collections du Victoria and Albert museum puis de la Tate et hop on passe aux expositions virtuelles.
Les questions de systèmes d’information (valorisation des données patrimoniales, format des données, interopérabilité des contenus, moteur de recherche, création, production de savoir scientifique, enjeux juridiques…) ne sont malheureusement pas évoquées.
Et pourtant si pour les institutions culturelles la médiation est essentielle, la question de la production et de la mise à disposition des données publiques culturelles numériques l’est aussi. Comme il est écrit ici il ne faut ni hiérarchiser ni opposer ces deux domaines. Le premier a en partie besoin du deuxième pour se nourrir et le deuxième existe en partie en nourrissant le premier.
Heureusement même si la mode n’est pas aux métadonnées, il y a quand même des perspectives et des projets encourageants dans ce domaine.
Un autre billet intéressant sur le sujet :
http://henriverdier.blogspot.com/2010/03/refonder-lalliance-entre-culture-et.html
Le ministère de la Culture est assez actif dans ce domaine.
Signalons d’abord le rapport sur justement « la diffusion et de la réutilisation des données publiques culturelles numériques » (Partage notre patrimoine culturel http://pauillac.inria.fr/~lang/pla-doc/2009_Partager-notre-patrimoine-culturel_rapport-Culture_complet.pdf)
Il y a bien sûr tous les travaux de la Bnf dont ce blog rend régulièrement compte au moins de façon indirecte. Par exemple quand j’ai eu besoin de m’intéresser au Dublin core, les travaux et documentations de la Bnf m’ont été plus qu’utiles (http://www.bnf.fr/fr/professionnels/catalogage_indexation.html).
Le métamoteur Collections (http://www.culture.fr/fr/sections/collections/accueil) constitue déjà un outil permettant d’accéder à de nombreux fonds dans un environnement assez hétérogène du point de vue des métadonnées.
Par ailleurs le ministère a une entité très active chargée si j’ai bien compris d’établir de bonnes pratiques dans la production et la normalisation des données et métadonnées patrimoniales.
Enfin relevons dans le rapport Tessier (http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Mission-sur-la-numerisation-du-patrimoine-ecrit/Rapport-Tessier), cette partie dans l’annexe 3 à la lecture réjouissante et au titre explicite « au cœur du système les métadonnées ».
Cher Shonagon, vous devriez envisager de créer votre propre blog ;-)
En effet, Dublin Core présente à première vue une structure assez « plate » qui ne permet pas d’exprimer toute cette complexité. Toutefois, il existe des formats de métadonnées plus complexes qui permettent de donner des informations à la fois sur une ressource primaire et sur une ressource secondaire.
Revenons à la question du catalogue 2.0 et voyons s’il n’y a quand même pas une piste à creuser au delà des avis, opinions ou tags émis par les internautes.
La qualité d’un catalogue provient de son architecture, de l’expertise des contributeurs, de ces processus éditoriaux (normalisation, indexation, corrections, validation), de ses interfaces de saisie et de consultation, de la disponibilité des données… et de sa capacité à s’enrichir et à être corrigé après publication.
Sur cette capacité d’un catalogue à s’enrichir et à être corrigé, il pourrait y avoir des innovations à apporter où les pratiques du web participatif pourraient constituer un potentiel appréciable.
Comment se constituent les catalogues ? Sans être exhaustif :
– par création ex nihilo avec un ou plusieurs auteurs
– par reprise de contenus
– par reversements
Se déroulent ensuite des étapes où l’on complète, harmonise, corrige, relit, valide.
Néanmoins certaines de ces étapes peuvent n’être pas complètement achevées.
Par exemple en cas de reversement très important quantitativement dans un catalogue existant, si la mise à disposition rapide des notices est plus importante que leur normalisation par rapport au cadre éditorial du catalogue, on se retrouve avec des notices incomplètes, parfois vite relues.
Ou des erreurs ou des oublis peuvent se glisser dans le travail le plus rigoureux.
Un contributeur peut ne pas voir un détail, reprendre une information erronée précédemment publiée…
Bref même avec la meilleure volonté du monde, un catalogue peut contenir des erreurs et des lacunes. Et c’est même presque toujours le cas à des degrés divers. Précisons quand même que la rigueur éditoriale prédomine largement aujourd’hui. Néanmoins à l’usage, il arrive de dénicher des erreurs, de remarquer de nombreuses lacunes … et de ne pas savoir comment les corriger ou les combler.
C’est justement sur ce point que la production de savoir collaborative révèle toute sa force. Ceux qui n’ont rien vu à Wikipedia, ont coutume de souligner les nombreuses erreurs présentes dans l’encyclopédie collaborative, alors qu’au contraire il faudrait souligner la capacité de ce système d’information à les corriger. Les tests d’erreurs volontaires placées de façon pernicieuse ont révélé ainsi que celles-ci ont fini par être corrigées dans délais relativement courts (jours, semaines).
En revanche dans un catalogue en ligne une erreur peut rester plusieurs années, être repérée, pas forcément signalée et … rester.
Il n’est bien sûr pas question de passer les catalogues en ligne sur le mode de Wikipedia, le processus de validation scientifique devant demeurer.
Mais il est notable que si peu offrent la possibilité de signaler une erreur directement dans l’interface de la notice. Ou de permettre d’enrichir des champs incomplets ou vides.
Il reste la page contact ou le courriel où, d’une part, bien peu de ceux qui ont repéré quelque chose vont, et où d’autre part, on se positionne involontairement dans une perspective antagoniste entre le non-initié remettant en cause l’autorité de l’expert.
Une démarche collaborative dans la correction ou l’ajout d’information dans un catalogue est certainement encore à inventer. Dans celle-ci l’expert ne serait plus seulement le producteur mais également celui qui superviserait et validerait les nouvelles productions et modifications de contenu.
Peut-être, c’est une idée.
En attendant c’est un plaisir de poster ici et d’apporter ma contribution à une source qui m’a tant abreuvé et qui continue d’éclairer nos lanternes. :-)
Rebond : http://lafeuille.blog.lemonde.fr/2010/04/28/pourquoi-avons-nous-besoin-de-catalogues-20