DC 2010…

Me voici donc à Pittsburgh pour la conférence «Dublin Core 2010», où le DC fête ses 15 ans, et la conférence ses 10 ans.
Un petit mot sur cette communauté : on compte ici environ 150 personnes, ce qui fait peu, je trouve, si on considère que c’est une des conférences majeures sur les métadonnées (à croire que les experts en métadonnées ne sont pas légion ;-)

Bien qu’il y ait beaucoup de «nouveaux», de gens qui comme moi assistent à leur première conférence DC, ma première impression a été celle d’une communauté arrivée à un moment critique de son existence, en quête d’un difficile équilibre entre l’expérience sur laquelle elle est assise, associée à un certain effet d’inertie, et son image de communauté innovante ancrée dans l’écosystème du Web.
Ainsi, quand la communauté se retourne pour regarder les 15 années passées derrière elle, ce n’est pas sans une certaine amertume… Impression qui ressortait particulièrement de la «Keynote» de Stu Weibel, un des fondateurs du DC, qui est revenu sur les succès et les échecs de 15 années de normalisation. Un bilan quand même assez désabusé, face à la complexification croissante de ce qui se voulait un standard simple, et les difficultés pour se conformer véritablement au mode de fonctionnement et au développement du Web.

Mais à part cela, le Linked Data est partout, et l’initiative du LLD XG a été citée de façon répétée, apparaissant comme une porte de sortie, ou plutôt un espoir de transition vers quelque chose de nouveau, un nouveau souffle pour la communauté.
Il faut dire qu’avec 42 use cases collectés, le LLD XG semble réunir le matériau nécessaire pour démontrer à la fois l’importance et l’utilité du Web de données, et la voie pour y arriver.
J’ai assisté à une grande partie de la session «spéciale» sur le Linked Data organisée par Karen Coyle et Corey Harper. Dans le groupe de travail «Library Community», le Linked Data était aussi à l’honneur, avec une présentation du XG, et des initiatives allemandes (Univ. de Mannheim et DNB).

Autre sujet brûlant, les FRBR. Il y avait une session plénière qui leur était consacrée, mais on en a aussi beaucoup parlé dans la session spéciale Linked Data, qui portait sur les «domain models».
Cela soulève beaucoup de questions : les FRBR sont-ils trop complexes ? sont-ils le modèle adapté pour décrire l’information des bibliothèques, en particulier une information «héritée» (legacy data) qui n’est pas conforme au modèle ? Est-ce que la complexité du modèle ne risque pas de complexifier les données ?

A suivre…

Publicité

Une réaction sur “DC 2010…

  1. >>Cela soulève beaucoup de questions : les FRBR sont-ils trop complexes ? Sont-ils le modèle adapté pour décrire l’information des bibliothèques, en particulier une information «héritée» (legacy data) qui n’est pas conforme au modèle ? Est-ce que la complexité du modèle ne risque pas de complexifier les données ?

    Je connais trop peu le monde des bibliothèques, ses acteurs et ses systèmes d’informations, pour pouvoir donner un avis, mais connaissant un peu plus celui des musées c’est en effet des questions essentielles que beaucoup se posent lorsqu’il s’agit de modélisation des données et de mise en place de systèmes d’informations.

    Ahma, le monde du catalogage des bibliothèques est déjà familiarisé aux notions d’œuvre et de ses exemplaires. Dès lors les FRBR apparaissent comme une nouvelle couche conceptuelle à un modèle déjà multicouche. La complexité s’en trouve d’autant amoindrie.

    En revanche transposer une telle logique conceptuelle, aussi séduisante soit-elle sur le plan théorique, à d’autres domaines, même proches, ne me paraît pas nécessairement opportun. Par exemple dans le monde des musées les systèmes d’information ne sont clairement pas adaptés, les acteurs nombreux, bien souvent multitâches, isolés et disposant de peu de moyens. La singularité du bien culturel en tant qu’ensemble conceptuel unique suffisant, règne pour des raisons historiques, culturelles et pratiques. Et cela serait (sera ?) bien difficile de changer cela.

    En d’autres termes, si on prend par exemple, une gravure reprenant un tableau célèbre et deux de ses exemplaires disponibles dans deux collections, des relations pourront se faire horizontalement mais difficilement verticalement. Il sera difficile de les situer conceptuellement dans une logique FRBR, les agrégateurs d’informations manquent ou ne répondent ni à ce besoin, ni à cette logique, et les systèmes en cours ne sont pas adaptés. Concrètement avec deux gravures, on aura deux objets, et non des entités conceptuelles avec deux items.

    Bien sûr, ça peut paraître bien dommage tout ça. Les informations sont cloisonnées, redondantes et ne faciliteront pas l’émergence d’outils de catalogages, reposant sur une meilleure modélisation, facilitant notamment les liaisons et la recherche.
    Amha, dans ce domaine, c’est un système hybride, déséquilibré mais souple, qui serait sans doute le mieux adapté. On pourrait garder à un certain niveau une modélisation simple, et dans des niveaux supérieurs d’agrégation de données, pourraient se mettre des modélisations conceptuelles plus complexes. Et l’on aurait à chaque niveau une complexité utile, adaptée et possible.

    Ce qui fait la réussite d’une spécification c’est son usage. Et le boiteux, si diabolique soit-il, peut parfois fort bien avancer. Et l’on se garderait bien parfois de vouloir bâtir des cathédrales de verre. Évidemment il est des domaines de systèmes d’informations dans lesquels la complexité est nécessaire et intransigeante. Mais introduire des spécifications dans des systèmes hétérogènes, établis depuis de puis un certain temps et avec de nombreux et divers acteurs, est un sacré challenge qu’une trop grande complexité risquerait en effet de compromettre. Bref il faut tenir compte des systèmes existants et du public cible. De point de vue le naufrage du paquebot xhtml 2 pourrait faire cas d’école.

    Il ne s’agit là que de réflexions personnelles en cours sur une question qui ma paraît en effet essentielle.

Les commentaires sont fermés.