Tout est affaire de qualité

Je me suis enfin décidée à aller visiter Opquast, un site sur les bonnes pratiques qualité pour les services en ligne.

Ben oui, je me disais, encore un truc de geeks… mais pas du tout. En fait, c’est un site très pratique qui récapitule tout ce qu’il faut faire ou ne pas faire avec son site Web… Ceci classé par type de site : service public, blog et autres.

Allez, essayez de passer le site de votre bibliothèque aux critères Opquast. Encore plus drole, essayez l’opac Web de votre SIGB…

Opquast est un site Tristan Nitot validated et OpenWeb validated, donc c’est forcément très super bien.

Toujours dans le domaine de la qualité, on trouve aussi quelques renseignements (mais à côté ça fait maigre figure) sur le site Cadre Qualité Bruxelles, ou quand l’Europe se mêle de la qualité des programmes culturels en ligne.

Enfin, le W3C a sorti aujourd’hui un nouveau draft de son document sur l’architecture du Web, où l’on trouve également des recommandations de bonnes pratiques.

Sans transition, puisqu’on en est à parler de qualité, je voudrais signaler Into the Blogosphere, un blog lié à l’initiative UThink qui publie des articles de chercheurs sur les blogs et la blogosphère. Originalité de la chose, ce blog fonctionne avec un système de peer-review élaboré pour la séléction des articles. Est-ce toujours un blog…

Curiosités bibliothéconomiques

J’ai eu un vrai coup de coeur pour ce site en portugais (brésilien pour être précise), Diretório de curiosidades sobre Biblioteconomia, Documentação, Gestão e Ciência da Informação.

On y trouve une foule de ressources "non-officielles" sur la bibliothéconomie : des blogs, des citations (attention, powered by IFLA), des petites BD… c’est tout ce que j’aime, un peu de sérieux, beaucoup d’humour, et… partout de la bibliothéconomie.

Surtout ne vous laissez pas rebuter par le fait que le site soit en portugais. Il se traduit volontiers en un anglais à peu près compréhensible en un clic (grâce à Google), et il recense autant de ressources anglophones que portugaises ou espagnoles, et même un peu de français (merci à lui).

A ne pas manquer.

Errol

Voici un petit outil qui s’agite depuis un moment dans un coin de mes marque-pages : Errol.

Errol est à la fois un projet pour créer des identifiants pérennes à partir de requêtes OAI, un outil de navigation dans des entrepôts OAI, et un générateur de valeur ajoutée : on peut par exemple créer le fil RSS d’un entrepôt OAI en utilisant la syntaxe suivante

« http://errol.oclc.org/ » + RepositoryIdentifier + « .rss »

A noter toutefois, le « OAI Viewer » ne fonctionne vraiment bien que sous IE, et il faut que l’entrepôt OAI de vos rêves soit enregistré dans leur répertoire pour que ça fonctionne. Mais sinon c’est pas mal.

Pour en savoir plus sur les implications profondes du projet, consulter les Powerpoint de son papa Jeff Young : ici et .

OpenURL : qu’est-ce que c’est ?

OpenURL est un protocole en cours de normalisation qui sert à créer des liens contextuels. Concrètement, il s’agit de lier des métadonnées (par exemple, les références bibliographiques d’un article) à la ressource elle-même (l’article en plein-texte).

Vous me direz, un protocole de métadonnées, très bien, on en a déjà qui fonctionnent parfaitement, OAI par exemple. Oui mais là, il ne s’agit pas d’un simple lien, mais d’un lien contextuel. Pour une ressource (toujours notre article) on connaît le contexte dans lequel elle est citée (la bibliographie qui la cite), décrite (les métadonnées de l’article et qui les a rédigées), utilisée (le lecteur qui la recherche et les droits dont il dispose), et la façon dont on utilise le protocole (quel résolveur, pour obtenir quel service) pour la lier à ce qu’elle décrit (l’article lui-même).

En fait, la norme OpenURL Framework se compose de trois choses

  • le ContextObject : le paquet de métadonnées qui contient les informations sur une ressource et son contexte
  • l’OpenURL proprement dit : un protocole de transport de ces paquets basé sur HTTP
  • le registry qui contient les spécifications des différents éléments constitutifs des ContextObjects et de l’OpenURL.

Qu’est-ce qu’un ContextObject ?

Il s’agit d’un paquet de métadonnées qui décrivent une ressource et son contexte :

  • les métadonnées elles-mêmes (referent)
  • leur source : qui a rédigé ces métadonnées (referrer)
  • l’objet qui contient l’objet référencé par les métadonnées, par exemple la bibliographie où est prise la citation (referring entity)
  • l’utilisateur qui demande le service (requester)

Plus au niveau du protocole lui-même :

  • l’adresse du résolveur de lien utilisé (resolver)
  • le type de service demandé par l’utilisateur, par exemple "obtenir le texte intégral de l’article" (service type entity).

Que peut-on mettre dedans ?

A l’origine, un ContextObject décrit une ressource bibliographique et son contexte. En réalité, on peut y mettre un peu ce qu’on veut… pourvu que les métadonnées soient dans le bon format.

Le format d’origine pour représenter les ContextObject d’appelle Key Encoded Value (KEV) Il repose sur des paires clef/valeur (par exemple : Nom=Paul).

Dans la deuxième version de la norme (OpenURL 1.0), on peut décrire les ContectObjects en XML, avec un schéma associé spécifique : le schéma XML ContextObject Format (CTX).

A cela s’ajoutent des métadonnées supplémentaires, que l’on peut soit inclure directement dans le ContextObject, soit référencer sous forme de lien (on donne alors l’adresse du schéma qu’elles suivent et l’adresse où on peut les trouver).

Les métadonnées stockées dans le ContextObject doivent suivre les formats de métadonnées autorisés, stockés dans le repository : en KEV on dispose de formats pour books / dissertation / journal / patent, et chacun de ces formats possède sa traduction en XML. En outre, pour le XML seulement, s’y ajoutent entre autres MARC21 et oai_dc.

Les métadonnées ajoutées sous forme de lien peuvent suivre n’importe quel schéma pourvu que celui-ci ait une adresse (URI) et qu’il soit dans le même langage que le ContextObject (soit KEV, soit XML, au choix).

Concrètement, comment ça marche ?

Sur cette question, j’ai été éclairée par le JC-blog et par un papier intitulé tout ce que vous avez toujours voulu savoir sur SFX sans oser le demander.
Les étapes sont les suivantes :

  • quelqu’un crée un ContextObject. Par exemple, un éditeur de revues en lignes comme Elzevier. Ou alors, une bibliothèque avec son catalogue.
  • le lecteur voit, à côté de la référence bibliographique, un bouton qui correspond à ce ContextObject.
  • le lecteur clique, aussitôt le ContextObject est envoyé sous forme de requête HTTP à un résolveur de lien, qui analyse les métadonnées, les droits de l’usager et le service demandé.
  • en fonction de ce qui a été spécifié pour l’interface, le résolveur trie les références auxquelles le lecteur peut avoir accès et écarte celles auxquelles il n’a pas accès.
  • en réponse, le lecteur reçoit une liste de liens correspondant à sa demande, par exemple l’article complet chez Elzevier + l’article dans une archive ouverte. Mais pas l’article chez un autre éditeur pour lequel sa bibliothèque n’est pas abonnée.

Mais alors, quelles différences entre OpenURL 0.1. et OpenURL 1.0 ?

OpenURL 0.1 a été créé sur la base d’une architecture développée par un logiciel résolveur de lien nommé SFX. C’est à partir de ce produit qu’a été développée la standardisation du protocole de liens contextuels dans le cadre d’OpenURL.

L’OpenURL 1.0. repose donc en quelque sorte sur un retour d’expérience de l’utilisation d’OpenURL 0.1. La norme ainsi élargie a été spécifiée par un document soumis à approbation par NISO de janvier à mars 2004.

Ce qu’OpenURL 1.0 apporte par rapport à 0.1 :

  • il intègre le XML
  • les notions de « requester », « referring entity » et « service type entity » qui n’étaient pas proprement spécifiées auparavant
  • il supporte plusieurs formats de métadonnées et de nombreux namespaces (parmi lesquels : DOI, identifiants OAI, URN, ISBN, ISSN …), et ce de manière extensible
  • la 2e partie de la norme intègre la spécification du repository qui contient les spécifications des formats de description des objets contextuels (KEV et XML) + les formats de métadonnées autorisés + les namespaces autorisés + les spécifications de l’encodage des caractères + les spécifications des protocoles de transport des données + les « communautés de profils » qui définissent un mode d’exploitation choisi de la norme (il y en 2, une compatible avec la version 0.1 qui utilise KVE, l’autre étendue qui utilise XML).

Il en résulte que OpenURL 1.0 est d’application potentiellement plus large que la précédente car rien ne spécifie que la ressource décrite doit obligatoirement être d’ordre bibliographique.

En conclusion, OpenURL permet à des résolveurs de liens de lier des métadonnées, pourvu qu’elles soient encodées dans un certain format, à des ressources paramétrées, en tenant compte des droits de l’utilisateur et d’autres paramètres éventuels.

L’application la plus évidente est l’interconnexion des bases de données bibliographiques avec les bases de journaux en ligne, qui se fait directement et de manière quasi transparente pour l’utilisateur, grâce à ce protocole. Mais avec la norme 1.0, cette fonctionnalité pourrait être étendue, et il y a d’autres idées à creuser : booster le catalogue, faire des passerelles avec un entrepôt OAI… que sais-je encore.

Ressources

La norme

Publications

Site Web

Catalogue de manuscrits enluminés : So British !

La British Library a sorti son catalogue informatisé de manuscrits enluminés. Ou plutôt, en langage British, et avec le sens de l’hyperbole approprié :

the first ever digitally illustrated and searchable catalogue of western illuminated medieval and renaissance manuscripts held in the British Library’s collections.

Il est vrai que les fonctionnalités de ce catalogue de manuscrits sont remarquables : on peut faire dès la page d’accueil une recherche rapide dans une seule case à la Google. On nous propose un formulaire pour la recherche simple et un pour la recherche avancée. La recherche par cote est aussi accessible pour obtenir la description d’un manuscrit particulier. Enfin, on nous propose une visite guidée et de naviguer dans un glossaire issu d’un ouvrage imprimé.

En plus c’est joli. Les notices sont longues et détaillées, et s’accompagnent des images des feuillets numérisés (richement enluminés bien sûr).

Comme à son habitude, la British Library nous en met donc plein la vue. On peut simplement regretter que derrière tout cela on ne trouve pas un format standardisé et adapté, comme XML et sa DTD EAD faite exprès (ou presque) pour décrire des manuscrits, mais… une base Access migrée sur Microsoft SQL Server. C’est leur choix. Et il restera chez eux, probablement.

Vu sur RessourceShelf.

Architecture de l’information

J’ai mentionné trop rapidement la dernière fois l’architecture de l’information, et son site phare, l’AIFIA, qui possède également une traduction française. En creusant un peu, ce domaine semble vraiment digne d’intérêt.

Aussi voudrais-je enrichir les plate-bandes des voisins en ajoutant quelques ressources "IA" notamment sur le Web sémantique :

  • un document qui compare les topic maps avec les autres types de métadonnées
  • un site wiki sur l’IA bourré de ressources, et en plus intelligemment agencé (c’est le moins qu’on puisse espérer…) avec ses index et ses backlinks… et qui, cerise sur le gâteau, recense des blogs sur le sujet
  • une page-ressource assez indigeste mais bien complète sur RDF.

A nous le Web sémantique ! Nous devons toutes ces adresses à nos amis les techie librarians. Mais je m’aperçois que j’ai encore frappé presque dans le tout anglophone, alors pour compenser, je vais rajouter deux blogs sympathiques en français : le blog de Fred Cavazza actuellement en vacances, et AkaSig en français à ses heures.

Enfin, n’oublions pas la phrase du jour :

« L’internet est un navire qui peut nous porter sur les rivages resplendissants, mais il ne faut pas oublier que des requins dangereux nous guettent. »

Et son utile complément (hommage) :

« Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes ».

La fin du booléen ?

J’ai lu hier un intéressant article intitulé Is Boolean Dead?, signalé à raison par Diglet. L’auteur compare les professionnels de l’information aux Macs et aux Ipod. Les premiers savent que leur système, bien qu’un peu cher, est le meilleur, et ils n’en démordent pas. Les seconds ont compris qu’ils ne survivront que grâce à l’interopérabilité, à l’ouverture, et en allant au devant des attentes de leur client, et pas en attendant que celui-ci s’adapte à leur système. L’article poursuit en abordant la question de ces moteurs de recherche qui offrent une visualisation graphique de l’information.

C’est vrai que vu le bruit qu’a fait ces derniers temps la sortie de Gnod ou de Newsmap, il semblerait que ces outils perdent leur image de gadget et soulèvent de plus en plus d’intérêt. Peut-être deviendront-ils des outils ordinaires et indispensables dans l’Internet de demain. Il faudra alors mettre nos OPAC à la page et, peut-être, enterrer le docteur ET-OU-SAUF bien profond sous les couches d’une interrogation plus intuitive que jamais.

Plus d’infos sur la cartographie d’informations chez outils froids.

Trucs de geek

Oh la la, dur dur de garder le rythme, en vacances ! Bon, ça va être un peu fouilli, mais voici quelques trucs qui devraient être utiles (enfin, plus ou moins) aux geeks, aux techie librarians, et d’une façon générale aux gens qui passent leur vie devant leur écran (allumé et connecté) même s’ils ne l’utilisent pas :

  • Online News Screensaver, un économiseur d’écran qui affiche des fils rss de news sur différents domaines. Pour rester informé même quand on est au téléphone… ou qu’on fait un autre truc en même temps… enfin si on est pas devant ça sert pas à grand chose, non ?
  • spécialement dédicacé aux gens qui n’utilisent pas Internet Explorer, un petit outil pour calculer vite et facilement le pagerank de votre site.
  • enfin, une nouvelle liste de discussion, à l’usage des bibliothécaires, pour parler de métadonnées, de Web sémantique, de XML, de data management, enfin de tas de trucs intéressants : techie librarian (râââhh, rien que le nom, ça donne envie !)

Merci à Library Stuff, à ODP weblog et à usr/lib.

Un site qui a de la ressource

Oh oui ! Encore du gratuit ! On trouve ici, classés par titre et par sujets, une liste de journaux mais aussi de newsletters en ligne dont le contenu est accessible librement.

Ce site mérite plus d’un clic, car son sympathique auteur, Tom Wilson, encore un amoureux des chats, est aussi l’éditeur du périodique en ligne Information Research.

Il a aussi mis en ligne une liste de toutes les formations en sciences de l’info du monde (si, si !) classée par pays. Et un site de ressources pédagogiques sur les méthodologies de la recherche documentaire. Et pas mal de ses propres publications. Et un blog.

Je vais me faire une super orgie de mots-clefs sur ce billet !

Au fait, merci à Marcus Zillman pour le premier clic.

Quels outils pour les bibliothèques de demain ?

Quelle est la tendance actuelle des fournisseurs de logiciels de bibliothèque ? C’est la question à laquelle répond un article instructif de David Dorman. Et d’ailleurs, apparemment, la réponse ne lui a pas fait plaisir, puisqu’entre temps, il s’est mis à l’évangélisme (NB pour les non-geeks : rien à voir avec une révélation mystique, il s’est juste lancé dans l’apologie du logiciel libre) et a publié cet excellent article à ne pas manquer sur le logiciel libre en bibliothèque, mais revenons à nos moutons.

Nos fournisseurs de logiciels de bibliothèque, donc, ne cherchent plus à converger vers des fonctionnalités identiques, très bibliothéconomiques, qu’ils maîtrisent au demeurant parfaitement. Au contraire, ils divergent vers des fonctions nouvelles dont ils font leur spécialité et leur spécificité sur le marché : qui le wi-fi, qui RFID, qui le data-mining, qui la recherche fédérée.

Tiens, à propos de recherche fédérée, l’autre jour j’en parlais comme d’un fantasme, mais elle a aussi ses détracteurs. Voici un bon exercice pour s’entraîner à réfuter les arguments les plus éculés, voire farfelus contre le metasearch. On a droit à tout, depuis les fonctionnalités de recherche qui manquent, jusqu’au pauvre lecteur désemparé devant une information hétérogène, en passant par l’impossibilité d’égaler Google, la médiocrité supposée des résultats et le coût trop élevé. Et puis enfin, il n’a qu’à apprendre à faire ses recherches documentaires tout seul, le lecteur, ou demander de l’aide aux bibliothécaires, ils sont là pour ça.

De l’autre côté de la force, il y a ceux qui l’ont fait : en l’occurence, un groupe de partenaires de la région Languedoc-Roussillon. Il publient dans le nouveau numéro de Documentaliste, la revue de l’ADBS, un article qui raconte leur croisade de 6 ans pour mettre en place AskOnce, le logiciel qui génère la recherche fédérée pour leur Bibliothèque Ouverte. Eux, ils ont songé à faire gagner du temps à leurs lecteurs et à augmenter la visibilité de leurs ressources.

Et c’est pas tous les jours qu’on voit des bibliothécaires qui ne cherchent pas à tout prix à rester indispensables.