Le bon grain de l’ivraie

Chiche que j’aborde un sujet dont tout le monde parle : les folksonomies.

Avec les folksonomies en général, et le tagging en particulier, ce qui fait le plus peur aux bibliothécaires, c’est le problème de la qualité. Olivier Le Deuff dans son article décrit bien les problèmes que l’on rencontre en confiant à des utilisateurs inexpérimentés le soin d’indexer des documents.

Je vous suggère de voir comment Google aborde le problème. Un double problème, en fait :

  • on ne sait pas indexer des images et on n’a pas les ressources pour le faire,
  • les utilisateurs peuvent le faire mais ils sont stupides.

Comment contrôler le travail d’utilisateurs incompétents ? Il suffit de les pousser sur la pente glissante qui les entraîne vers le bas.

Pour preuve, ce nouveau service : Google image labeler.

Pour motiver sa communauté d’utilisateurs, Google présente le taguing sous forme de jeu : vous avez un partenaire tiré au hasard et un peu moins d’1 minute pour taguer un maximum d’images. Pour qu’une image soit taguée, il faut que vous et votre partenaire inconnu saisissiez le même tag. A chaque image taguée, vous gagnez 100 points.

Qu’est-ce qu’on gagne ? Rien, mais la rapidité et l’émulation rendent le jeu prenant et il est difficile de s’arrêter. Du coup, les utilisateurs vont taguer plein d’images, et avec des tags supposés plus pertinents puisque deux utilisateurs les ont choisis en même temps.

C’est très malin, mais à mon avis pas très efficace. En effet, on est plus tenté de « gagner » que d’être utile et efficace, donc au lieu de réfléchir à ce qui décrirait le mieux l’image, on essaye d’imaginer ce que le partenaire va trouver. Au final on aura plein d’images taggées « red », « people », « man », « map » ou « building ». Je ne sais pas si ça aidera beaucoup, mais Google nous le dira.

A part ça, chez Panlibus ils pensent aussi que Google abuse d’utiliser un nouveau terme, "label", alors que le monde entier dit "tag". Franchement.

C’est du joli !

On peut se demander si la visualisation ou cartographie d’informations est un gadget, ou si elle représente (ou, au moins, annonce) un changement de paradigme dans l’accès à l’information. Je ne pense pas que nous ayons encore de réponse à cette question aujourd’hui, mais il est un fait certain, c’est qu’elle n’est plus accueillie par des « pfff », mais par des « ôôôh ». C’est-à-dire qu’elle a désormais des moyens de convaincre, y compris des décideurs, qu’elle apporte quelque chose dans leur interface (ne serait-ce que parce que « ça en jette »).

Après, d’un point de vue fonctionnel (dépassons le concept "c’est joli" et posons-nous la question "est-ce utile ?"), le jour où on se retrouve avec un impératif du type "mettez-moi un peu de visualisation là-dedans", de nouvelles questions se posent telles que : où, et comment ?
Je vous propose d’aborder la question en trois temps.

Le premier temps c’est celui de la cartographie pure et dure. On va représenter notre collection sous forme d’une image, une carte, de façon à en donner une vue d’ensemble avec un accès supposé plus intuitif aux documents.
L’intérêt du procédé est que la cartographie peut être considérée comme un ensemble de conventions pour représenter de l’information, et on va utiliser ces conventions (formes, couleurs, etc.) et éventuellement les détourner pour donner une image graphique de la collection. Ainsi dans cette carte de la collection d’Amazon les couleurs font référence à des thèmes et les tailles des "continents" au nombre de documents disponibles (ce n’est écrit nulle part mais c’est assez intuitif). Ensuite on utilise un système de zoom (correspondant, dans les conventions cartographiques, à un changement d’échelle) pour "entrer" dans la collection, de plus en plus profondément, jusqu’à accéder aux pages de titres des ouvrages.
Personnellement, mon avis sur ce type de procédés cartographiques c’est qu’ils sont assez frustrants pour l’utilisateur. Bien sûr, "c’est joli" et l’utilisation des conventions de formes et de couleurs est un vrai plus au sens où cela permet de visualiser efficacement les points forts et les points faibles de la collection.
Mais l’intérêt s’arrête là. L’accès à l’information est très hiérarchique, en entonnoir. Il ne permet pas vraiment à l’utilisateur d’exploiter cette information nouvelle qu’on lui donne, pour cela il faudrait lui donner la main sur les paramètres de création de la carte et tout de suite on plonge dans des choses beaucoup plus complexes et réservées à des experts, c’est un peu ennuyeux pour une bibliothèque.
Une autre dimension consiste à utiliser l’information géographique disponible pour disposer les documents sur une vraie carte. Ici, chapeau bas et même très bas au nouveau service de flickr qui permet aux utilisateurs de géotagger hyper facilement leurs photos pour constituer des cartes d’accès vraiment impressionnantes. En plus, ils savent utiliser le pouvoir des internautes 2.0 puisque plus d’un millions de photos ont été géotaggées en moins de 24h (selon Internet Actu) !
Là il y a une vraie valeur ajoutée et cela vaudrait le coup d’étudier la mise en relation de notre indexation géographique textuelle avec des référentiels d’information géographique pour faire des liens de manière automatisée (on a du pain sur la planche).

Le deuxième temps, c’est celui des résultats de recherche. On utilise toujours des conventions de représentation graphique, mais au lieu de les appliquer à l’ensemble de la collection pour créer un nouvel accès hiérarchique ou arborescent, on les applique à une requête posée par l’utilisateur afin de lui présenter les résultats de façon plus sympathique qu’une simple liste.
Aussi loin que je me souvienne de mes cours de recherche documentaire, Kartoo a toujours existé ; aujourd’hui on trouve d’autres outils comme Grokker dont j’avais déjà parlé et qui récemment a été adopté par l’éditeur Ebsco ("visual search" étant une nouvelle option de recherche, mise au même niveau que "basic search" et "advanced search").
Comme tout est basé sur la requête de l’utilisateur, cela pallie en partie au problème que je soulevais plus haut avec les cartes. Davantage de manipulation et de souplesse : on peut dire qu’un outil comme grokker a de grandes chances de rendre l’expérience de recherche documentaire plus riche, ou au moins plus attrayante. La faiblesse du système c’est peut-être le côté parfois abscons des regroupements qui sont proposés par le moteur pour créer la carte. On navigue un peu au hasard dans ces paquets et il est difficile de dire au final ce qu’on y a vraiment gagné (à part de s’être bien amusé). Cela serait peut-être différent avec des données très structurées comme peuvent l’être les notices des catalogues.

Le troisième temps, à mon sens le plus intéressant, consiste à s’intéresser au document lui-même et à son "environnement", ou son contexte si vous préférez. Dans une collection de bibliothèque, un document n’est jamais seul : on peut toujours trouver, en utilisant les métadonnés (indexation sujet, cotes, autorités etc.) des liens ou des "rebonds" vers d’autres ouvrages probablement pertinents.
Et si on représentait ces rebonds sous forme graphique ? C’est ce que fait Omnigator pour les opéras. On peut rebondir, d’ouvrage en ouvrage, sans fin, sur les métadonnées modélisées sous forme de Topic Maps (autres exemples d’application chez Got).
On pourrait même imaginer d’aller plus loin et d’y ajouter des données de "sociabilité" : pouvoir afficher d’un seul coup d’oeil, non seulement les relations d’un document avec son environnement documentaire, mais aussi des informations sur qui l’a consulté, commenté, taggé, etc. et les autres documents choisis par ces personnes.
Là, je pense qu’on touche quelque chose de nouveau.

Redlightgreen R.I.P.

Tantôt, je vous ai parlé de Redlightgreen, l’interface "grand public" des catalogues de RLG. Maintenant que RLG et OCLC ont fusionné, Redlightgreen va fermer le 1er novembre 2006, au profit du tout neuf Worldcat, qui vient d’ouvrir au public une vraie interface (oui, sans être obligé de poser des questions abracadabrantesques à Google).

La FRBRisation, le classement par pertinence, les « facettes » pour affiner la recherche et le formattage de citation sont des fonctionnalités qui étaient développées dans les deux catalogues.

Il y a un autre truc très important, c’est que ces deux catalogues sont adressables : on peut faire un lien pérenne vers une notice. Enfin, pérenne, jusqu’au jour où le catalogue est supprimé.

Il vous reste un peu moins de deux mois pour profiter des jolies couleurs de Redlightgreen. Ensuite tout sera fondu dans l’unique bleu worldcatien.

Si cela vous énerve, vous pouvez aussi lire les récriminations de Librarian.net sur les ratés de Worldcat, et sur le "décalage" des gens d’OCLC par rapport aux réalités du terrain (là je n’ai pas grand chose à leur envier je le reconnais).

Sinon vous pouvez aussi vous énerver contre Google, un sport très prisé ces derniers temps.

L’Europe numérique (suite !)

Bon alors voilà, l’Europe numérique continue, avec la fameuse recommandation de la commission européenne aux états, qui consiste en deux injonctions majeures (je résume) :

  • numérisez et mettez en ligne !
  • conservez ce que vous avez numérisé !

C’est vrai, quoi, il fallait y penser : conserver des documents numériques ! Puisque manifestement il fallait que quelqu’un le dise pour que ce soit pris en compte, maintenant c’est fait.

Je signale aussi, via Prosper, ce numéro de revue consacré à la bibliothèque numérique européenne. J’avoue ne l’avoir pas lu.

Risques et terreurs du numérique

A force de nager dans la préservation du numérique, j’ai fini par outrepasser la terreur et l’accablement qu’on ressent, au tout début, quand on voit exposés les risques et obstacles innombrables qui s’élèvent entre nous et cette difficile mission. On retrouve facilement cette sensation, mais en plus grisante, lorsqu’on se met dans la peau de celui qui explique ces risques, ces obstacles.

Pour vous y replonger un peu je vous propose un nouveau blog : Digital preservation strategies. (Re)découvrez les différentes menaces et les pires problèmes qui menacent nos chers petites séries de zéros et de uns.

Après ça, si vous vous sentez encore d’attaque, je vous recommande une petite infusion de DRMs sous forme de dessins animés. Et puis dormez bien, si vous le pouvez encore !

Le Ravin de la Désillusion

Montagnes

La première fois que j’ai vu les "Hype cycles" de Gartner, c’était en 2003 dans le rapport d’OCLC sur l’environnement des bibliothèques, un rapport dont l’objectif était de dégager de grandes tendances dans ce paysage, et qui reste encore largement d’actualité à mon avis. Déjà à l’époque, j’avais été très séduite par cette vision de l’innovation technologique, qui nous rappelle qu’après l’engouement (parfois irrationnel) suscité par tout nouveau projet, il faut affronter le Ravin de la Désillusion et remonter péniblement la Pente des Lumières avant d’atteindre enfin le doux Plateau de la Production stable.
On retrouve bien aussi, en regardant le graphe, l’idée de "surfer sur la vague", mais il ne faut pas oublier qu’après la vague il y a un creux dangereux et difficile.

Mon métier et la façon dont je travaille font que je passe mon temps à gravir le Sommet des Grandes Espérances, et même si c’est là une activité particulièrement épuisante moralement parce qu’elle se termine toujours au creux du Ravin, je dois avouer que de là-haut, on a une chouette vue sur le paysage, devant et derrière, et qu’on voit venir de très loin les technologies de demain avec tous les espoirs qu’elles portent.

D’après l’article d’Internet Actu ce sont aujourd’hui le Web 2.0 et les Folksonomies qui sont sur le Sommet, tandis que les blogs et les wikis sont déjà dans le creux de la vague.
Je ne peux m’empêcher d’éprouver un peu de frustration à l’idée que les bibliothèques semblent toujours avoir un pas de retard, surtout en France, mais je me console en me disant que leur place n’est pas en haut du Sommet mais bien sur le Plateau, là où les choses fonctionnent pour de bon et sont enfin accessibles aux vrais gens. C’est grâce au Ravin de la Désillusion, et en prouvant qu’elles peuvent lui survivre, que les technologies du Web ont une véritable chance aujourdhui de changer la face du monde.

Mi-figues, mi-raisin

Voilà une belle expression que je vous propose aujourd’hui d’illustrer à l’aide d’un fromage : le Boursin figues et noix.

Mi-figue, mi-raisin, tel est mon avis concernant ce fromage qui bien que très bon, frais avec un petit goût sucré et le croquant des noix, s’avère un peu décevant du strict point de vue des figues.
En effet, en lisant plus attentivement la liste des ingrédients, on découvre que pour seulement 2% d’une préparation de figues augmentée de sucre, on trouve aussi une certaine quantité de raisins secs entiers. On tombe d’ailleurs aisément sur ces derniers en tartinant le fromage.

Les corinthiens du XVe siècle mélangeaient des figues sèches, plus lourdes et moins coûteuses, à leurs précieux raisins de Corinthe, trompant ainsi leurs acheteurs avec un produit contenant du mauvais et du bon (mi-figue, mi-raisin).
A l’inverse, nos amis de chez Boursin nous vendent du raisin en le faisant passer pour de la figue. Voici une inversion caractéristique du bon (autrefois le raisin, aujourd’hui la figue) et du mauvais (et vice versa).

Belle année pour les figues

Des figues de Solliès grosses comme le poing, des fruits qui éclatent au soleil sur les arbres dès la fin août, tous les signes annoncent une année particulièrement bonne pour toutes les sortes de figues.

Un jour j’ai bien fait rigoler tout le monde quand, à la question "est-ce que vous regardez les statistiques de votre blog, et combien de gens le lisent" j’ai répondu qu’il y avait toujours un pic de fréquentation lors de la saison des figues.

Alors voilà les chiffres. Depuis le début du mois d’août :

  • plus de 10 000 visiteurs uniques (contre 8000 d’habitude en moyenne)
  • l’accès par un moteur de recherche monte à 10% (contre environ 5% en temps normal)
  • la requête la plus fréquente : « confiture de figue(s) » avec 700 requêtes (contre une vingtaine en temps normal)
  • le mot le plus souvent recherché : « figue(s) » avec plus de 4400 recherches contenant ce mot (contre 200 à 300 le reste de l’année).

Amateurs de figues, soyez les bienvenus : apparemment, vos arbres regorgent de fruits murs et sucrés, et vous cherchez les moyens de faire des confitures, des fruits au sirop, des figues sèches et même de les congeler (je n’ai jamais essayé mais apparemment cela se fait, néanmoins je me méfie un peu, les figues congelées de chez Picard sont un peu molles et gluantes, mais ça va à peu près pour agrémenter les plats salés de type tajines).

Ben vous avez bien de la chance ;-)

Un peu de pub

Nous aimons par dessus tout, Got et moi, faire la route dans des coins de France inconnus et nous arrêter dans des petits villages pour y découvrir des beautés le plus souvent méconnues (sauf exceptions).

Pour repérer ces villages, nous avons pris l’habitude de nous fier à un label, celui des plus beaux villages de France. Nous n’avons jamais, ou presque, été déçus par ce label même si tous ces villages sont très différents y compris d’un point de vue émotionnel.

Alors, se fiant à son expertise d’utilisateur désormais avancé de FlickR, Got a créé un groupe pour rassembler les photos prises dans les villages qui portent ce label.

Vous qui avez visité Castelnou, Vézelay, Conques, St Guilhem le désert, ou bien Gerberoy, Roussillon, St Véran, Flavigny ou Riquewihr, ou encore un des 148 villages qui portent ce label, si vous avez un compte Flickr et des photos de ces coins, rejoignez notre groupe ! Soyez nombreux ! Mettez plein de jolies photos ! N’oubliez pas de taguer avec le nom du village !

Fin de l’intermède publicitaire.

PS: la photo ci-dessus a été prise à Fourcès dans le Gers, bien avant que me vienne l’idée d’avoir un compte Flickr ;-)

Tarte au chèvre et au basilic

Cette recette m’a été transmise par quelqu’un qui vivait près de Marseille. J’ai pas mal diminué les proportions qu’elle m’avait données pour que ce soit plus léger, mais vous pouvez les faire varier à votre aise sans que cela influe trop sur la réussite de la recette.

Il vous faudra :

  • 3 oeufs
  • un pot de fromage de chèvre frais (type « chavroux »)
  • 100g de crème fraîche
  • 25cl de lait
  • du basilic frais (au moins une douzaine de grandes feuilles, ou 3 pieds de petites feuilles, et plus il y en a meilleur c’est)
  • une pâte à tarte, brisée ou feuilletée selon votre préférence.

D’abord on prépare la garniture : dans un saladier, casser les oeufs, puis mélanger avec le fromage de chèvre jusqu’à ce que cela soit bien liquide et homogène. Puis on ajoute la crème et le lait, toujours en mélangeant bien. Saler et poivrer selon votre goût. Enfin émincer grossièrement les feuilles de basilic et les ajouter à la préparation. Celle-ci doit être bien liquide et le basilic flotte à la surface.

Cette préparation doit reposer au moins 20mn. Ensuite on dispose la pâte à tarte en appuyant bien sur les bords (sinon ils s’écroulent au moment de la cuisson) et on verse la préparation sur la pâte.

Enfin on enfourne comme pour une tarte (ça dépend des fours, chez moi c’est 220° et 30mn). Dans le four, vous verrez la garniture gonfler et se craqueler ; il faut sortir la tarte juste au moment où elle commence à prendre une couleur légèrement dorée. En refroidissant la garniture retombe et prend une consistance légère et crémeuse.

Se mange tiède ou froid avec une salade de tomates, et des figues fraîches cueillies dans les vignes en dessert !