Google et la lecture à l’écran

J’ai pas mal râlé contre les interfaces de lecture de livres numérisés qui ne prennent pas en compte des fonctionnalités simples comme le zoom, l’affichage de la structure, etc.

Et voilà que Google annonce son nouveau visualiseur de livre : qui propose, en vrac

  • un zoom avant-arrière
  • un tourne-page pour les amoureux du livre « à l’ancienne »
  • un ascenseur vertical, avec chargement progressif des pages, pour les amoureux de la lecture dans Word
  • un affichage « plein-écran » pour plus de confort
  • un système de palettes refermables pour les différents services (notice, achat en librairie, etc.)
  • une table des matières en mode texte (parfois un peu limitée, mais bon, elle existe)
  • un lien vers un service de recommandation et vers Google Scholar

et toujours

  • une interface simple et intuitive
  • le téléchargement de l’ouvrage complet en PDF
  • la recherche de mots dans le livre.

D’un point de vue fonctionnel, c’est presque parfait. Avec ce nouvel outil, Google nous montre une fois de plus à quel point ils sont réactifs face aux critiques, capables de trouver les compétences adéquates quand ils en ont besoin, et efficaces quand il s’agit de faire progresser leurs applications.

Evidemment, ça ne change rien à tout ce qu’on a pu dire sur la qualité de numérisation qui laisse parfois à désirer, ou sur la façon douteuse de constituer la collection et les listes de résultats. Mais ça progresse.

Et puis, n’oublions pas que pour atteindre cet objectif, ils ont des moyens quasiment illimités et une puissance machine démentielle pour soutenir cette belle interface en Ajax (ce qui n’est pas le cas de tout le monde).

C’est Noël

Voilà, mon nouveau graphisme est en place. Vous avez le droit de protester avec véhémence dans les commentaires de ce billet, surtout si ça ne passe pas bien dans votre résolution d’écran ou avec votre navigateur/aggrégateur préféré. Vous remarquerez qu’il n’y a pas de violet… et si vous n’aimez pas non plus le rose, c’est le même prix !

La Tentation

Ce sujet a été abordé à IPRES. Et si la numérisation (et la perspective de sa conservation sur le long terme) avait un effet pervers : les décideurs pourraient penser qu’il n’est plus utile de conserver les originaux, et en profiter pour les vendre au meilleur prix afin de réinvestir dans autre chose.

La tentation de St Antoine, par Callot

Cette tentation ne paraît pas si hallucinante, quand on voit qu’à Karlsruhe des gens sont prêts à revendre les manuscrits de la bibliothèque, sans même avoir songé à les numériser d’abord !

Je trouve totalement scandaleux qu’on puisse seulement avoir l’idée de vendre ce genre de patrimoine dans une bibliothèque, quelle qu’en soit la raison (enfin, encore si c’était pour sauver des gens ou résoudre définitivement le problème de la faim dans le monde). Et il m’est tout aussi odieux de penser qu’on puisse sacrifier sur l’autel de la numérisation des originaux qui n’ont fait de mal à personne.

Quand on commence un projet de numérisation, il est essentiel de défendre dès le départ le principe d’intégrité des originaux : une intégrité qui suppose qu’on ne les détruit pas, et qu’on ne les aliène pas non plus.

Dans un environnement patrimonial, la numérisation devrait également jouer son rôle conservation préventive : la communication des originaux n’étant dès lors accordée que si elle est vraiment nécessaire (je sens que là, certains de mes lecteurs vont commencer à me détester ;-). Mais cela suppose alors de mettre au point des outils de visualisation très performants, qui vont très au-delà d’une simple copie des fonctionnalités du livre.
C’est à ça qu’on différencie(ra ?) une véritable interface de consultation de bibliothèque numérique, faite pour la lecture (et, dans le cas des manuscrits, participant au plan de conservation d’une bibliothèque patrimoniale) d’une interface de butinage dont le but est manifestement d’inciter à se procurer une version "papier" de l’original.

Tiens on dirait que ce billet m’a entraînée plus loin que je ne voulais aller au départ…

Illustration : petit clin d’oeil à Belit Seri qui comme moi apprécie cette estampe de Callot.

Le bon grain de l’ivraie

Chiche que j’aborde un sujet dont tout le monde parle : les folksonomies.

Avec les folksonomies en général, et le tagging en particulier, ce qui fait le plus peur aux bibliothécaires, c’est le problème de la qualité. Olivier Le Deuff dans son article décrit bien les problèmes que l’on rencontre en confiant à des utilisateurs inexpérimentés le soin d’indexer des documents.

Je vous suggère de voir comment Google aborde le problème. Un double problème, en fait :

  • on ne sait pas indexer des images et on n’a pas les ressources pour le faire,
  • les utilisateurs peuvent le faire mais ils sont stupides.

Comment contrôler le travail d’utilisateurs incompétents ? Il suffit de les pousser sur la pente glissante qui les entraîne vers le bas.

Pour preuve, ce nouveau service : Google image labeler.

Pour motiver sa communauté d’utilisateurs, Google présente le taguing sous forme de jeu : vous avez un partenaire tiré au hasard et un peu moins d’1 minute pour taguer un maximum d’images. Pour qu’une image soit taguée, il faut que vous et votre partenaire inconnu saisissiez le même tag. A chaque image taguée, vous gagnez 100 points.

Qu’est-ce qu’on gagne ? Rien, mais la rapidité et l’émulation rendent le jeu prenant et il est difficile de s’arrêter. Du coup, les utilisateurs vont taguer plein d’images, et avec des tags supposés plus pertinents puisque deux utilisateurs les ont choisis en même temps.

C’est très malin, mais à mon avis pas très efficace. En effet, on est plus tenté de « gagner » que d’être utile et efficace, donc au lieu de réfléchir à ce qui décrirait le mieux l’image, on essaye d’imaginer ce que le partenaire va trouver. Au final on aura plein d’images taggées « red », « people », « man », « map » ou « building ». Je ne sais pas si ça aidera beaucoup, mais Google nous le dira.

A part ça, chez Panlibus ils pensent aussi que Google abuse d’utiliser un nouveau terme, "label", alors que le monde entier dit "tag". Franchement.

C’est du joli !

On peut se demander si la visualisation ou cartographie d’informations est un gadget, ou si elle représente (ou, au moins, annonce) un changement de paradigme dans l’accès à l’information. Je ne pense pas que nous ayons encore de réponse à cette question aujourd’hui, mais il est un fait certain, c’est qu’elle n’est plus accueillie par des « pfff », mais par des « ôôôh ». C’est-à-dire qu’elle a désormais des moyens de convaincre, y compris des décideurs, qu’elle apporte quelque chose dans leur interface (ne serait-ce que parce que « ça en jette »).

Après, d’un point de vue fonctionnel (dépassons le concept "c’est joli" et posons-nous la question "est-ce utile ?"), le jour où on se retrouve avec un impératif du type "mettez-moi un peu de visualisation là-dedans", de nouvelles questions se posent telles que : où, et comment ?
Je vous propose d’aborder la question en trois temps.

Le premier temps c’est celui de la cartographie pure et dure. On va représenter notre collection sous forme d’une image, une carte, de façon à en donner une vue d’ensemble avec un accès supposé plus intuitif aux documents.
L’intérêt du procédé est que la cartographie peut être considérée comme un ensemble de conventions pour représenter de l’information, et on va utiliser ces conventions (formes, couleurs, etc.) et éventuellement les détourner pour donner une image graphique de la collection. Ainsi dans cette carte de la collection d’Amazon les couleurs font référence à des thèmes et les tailles des "continents" au nombre de documents disponibles (ce n’est écrit nulle part mais c’est assez intuitif). Ensuite on utilise un système de zoom (correspondant, dans les conventions cartographiques, à un changement d’échelle) pour "entrer" dans la collection, de plus en plus profondément, jusqu’à accéder aux pages de titres des ouvrages.
Personnellement, mon avis sur ce type de procédés cartographiques c’est qu’ils sont assez frustrants pour l’utilisateur. Bien sûr, "c’est joli" et l’utilisation des conventions de formes et de couleurs est un vrai plus au sens où cela permet de visualiser efficacement les points forts et les points faibles de la collection.
Mais l’intérêt s’arrête là. L’accès à l’information est très hiérarchique, en entonnoir. Il ne permet pas vraiment à l’utilisateur d’exploiter cette information nouvelle qu’on lui donne, pour cela il faudrait lui donner la main sur les paramètres de création de la carte et tout de suite on plonge dans des choses beaucoup plus complexes et réservées à des experts, c’est un peu ennuyeux pour une bibliothèque.
Une autre dimension consiste à utiliser l’information géographique disponible pour disposer les documents sur une vraie carte. Ici, chapeau bas et même très bas au nouveau service de flickr qui permet aux utilisateurs de géotagger hyper facilement leurs photos pour constituer des cartes d’accès vraiment impressionnantes. En plus, ils savent utiliser le pouvoir des internautes 2.0 puisque plus d’un millions de photos ont été géotaggées en moins de 24h (selon Internet Actu) !
Là il y a une vraie valeur ajoutée et cela vaudrait le coup d’étudier la mise en relation de notre indexation géographique textuelle avec des référentiels d’information géographique pour faire des liens de manière automatisée (on a du pain sur la planche).

Le deuxième temps, c’est celui des résultats de recherche. On utilise toujours des conventions de représentation graphique, mais au lieu de les appliquer à l’ensemble de la collection pour créer un nouvel accès hiérarchique ou arborescent, on les applique à une requête posée par l’utilisateur afin de lui présenter les résultats de façon plus sympathique qu’une simple liste.
Aussi loin que je me souvienne de mes cours de recherche documentaire, Kartoo a toujours existé ; aujourd’hui on trouve d’autres outils comme Grokker dont j’avais déjà parlé et qui récemment a été adopté par l’éditeur Ebsco ("visual search" étant une nouvelle option de recherche, mise au même niveau que "basic search" et "advanced search").
Comme tout est basé sur la requête de l’utilisateur, cela pallie en partie au problème que je soulevais plus haut avec les cartes. Davantage de manipulation et de souplesse : on peut dire qu’un outil comme grokker a de grandes chances de rendre l’expérience de recherche documentaire plus riche, ou au moins plus attrayante. La faiblesse du système c’est peut-être le côté parfois abscons des regroupements qui sont proposés par le moteur pour créer la carte. On navigue un peu au hasard dans ces paquets et il est difficile de dire au final ce qu’on y a vraiment gagné (à part de s’être bien amusé). Cela serait peut-être différent avec des données très structurées comme peuvent l’être les notices des catalogues.

Le troisième temps, à mon sens le plus intéressant, consiste à s’intéresser au document lui-même et à son "environnement", ou son contexte si vous préférez. Dans une collection de bibliothèque, un document n’est jamais seul : on peut toujours trouver, en utilisant les métadonnés (indexation sujet, cotes, autorités etc.) des liens ou des "rebonds" vers d’autres ouvrages probablement pertinents.
Et si on représentait ces rebonds sous forme graphique ? C’est ce que fait Omnigator pour les opéras. On peut rebondir, d’ouvrage en ouvrage, sans fin, sur les métadonnées modélisées sous forme de Topic Maps (autres exemples d’application chez Got).
On pourrait même imaginer d’aller plus loin et d’y ajouter des données de "sociabilité" : pouvoir afficher d’un seul coup d’oeil, non seulement les relations d’un document avec son environnement documentaire, mais aussi des informations sur qui l’a consulté, commenté, taggé, etc. et les autres documents choisis par ces personnes.
Là, je pense qu’on touche quelque chose de nouveau.

Quelques réflexions sur les services dans les bibliothèques numériques

Pendant que je faisais autre chose que bloguer, j’ai pas mal réfléchi aux implications sur les bibliothèques numériques des services du « web 2.0 », qu’on appelle parfois, dans les bibliothèques, de façon plus traditionnelle, les services d’annotation collaborative ou de « lecture assistée par ordinateur ». Aujourd’hui ces trois appellations ont assez de passif pour faire hurler certaines personnes aussi je préfèrerais parler de services pour les usagers-internautes, tout simplement.

Le premier constat à faire sur ce sujet c’est que nous avons beaucoup à apprendre, encore plus que ne pensais.

Ce qui est intéressant dans un service comme Flickr, c’est sa capacité à être abordé suivant un système de niveaux plutôt performant. Ainsi, quand on découvre le service, on ne va utiliser qu’une, ou deux fonctionnalités : basiquement l’upload et la visualisation. Puis on découvre petit à petit les fonctions d’organisation, les tags, les sets. Puis on sort de son compte et on découvre la recherche, les photos des autres et enfin les groupes.

Plus l’usager avance dans cette découverte fonctionnelle, plus il va être amené à maîtriser les aspects complexes de l’interface. Mais il y a à mon avis deux points essentiels à retenir :

  • tant qu’il ne les utilise pas, ces aspects complexes ne le dérangent pas
  • il est suffisamment fidélisé par la performance des services de base pour acquérir la culture du site et donc la maîtrise d’outils de plus en plus complexes.

Si on projette cela sur notre bibliothèque numérique, on rencontre d’abord un gros problème d’érgonomie : écartelée entre le « grand public » (voire le public empêché) mythique qu’il faut à tout prix atteindre, et l’afficionados, le chercheur, l’habitué qui est une valeur sûre, la bibliothèque est en perpétuelle oscillation entre simplicité et performance. Il semblerait que trop souvent elle fasse le choix de taper à peu près au milieu entre les deux, ce qui est bien sûr voué à l’échec. Il y a un défi ergonomique à relever, celui d’une interface « à niveaux » dans laquelle on peut d’abord échapper aux fonctions les plus complexes, pour y venir par la suite quand on se sent prêt.

Le second problème, c’est celui des communautés et de la fidélisation des internautes. On peut se donner beaucoup de mal pour faire que les lecteurs se sentent bien dans nos murs virtuels et pourtant ne pas les voir venir, et pourquoi ? Je n’ai pas de réponse toute faite. Je ne suis pas sûre que les nouveaux services du Web seront une réponse adéquate. On va tomber sur le problème du lecteur solitaire : quel lecteur, quand il va à la bibliothèque, a envie qu’on lui tape sur l’épaule au milieu de sa lecture en lui disant "hep, m’sieur, vous avez vu le type en bleu là-bas, il a lu le même livre que vous ! Vous pourriez vous entendre tous les deux !"
(Le cas des étudiants qui ne fréquentent Ste-Geneviève le soir que pour rencontrer les étudiantes qui, elles, la fréquentent pour travailler est un cas à part.)

Je n’ai pas de conclusion toute faite, seulement une proposition : il faut essayer. Relever le défi de mettre en place ces services, vraiment, au lieu d’en discuter, et voir si ça marche. Certains trucs, certaines interfaces ou fonctionnalités semblent franchement absconses dans notre contexte, je le reconnais. Mais sommes-nous bien sûrs de connaître nos usagers-internautes et leurs besoins ?

Quelques lectures en relation :

Ours polaires 2.0

J’ouvre une phase de grande réconciliation avec tout un tas de notions qui avaient plutôt tendance à m’énerver, et le premier à faire l’objet de mon regard exceptionnellement indulgent sera ce soir le Web 2.0.

Le site Polar Bear expedition Digital Collection est ainsi un merveilleux site 2.0 consacré aux ours polaires, euh à une expédition polaire datant de 1918-1919.

On y trouve des documents d’archives numérisés, avec leurs inventaires en EAD accessibles en ligne, et bien sûr on peut accéder à un tas de navigation par listes, créer un compte, commenter les documents, obtenir des recommandations (« Researchers who viewed this page also viewed… »), et pas s’abonner à un fil RSS mais ils ont dû oublier.

Comme quoi, le Web 2.0 ce n’est pas incompatible avec l’archivistique, et ce n’est pas notre ami Archivemati.ca qui risque de me contredire… Il ne reste plus qu’à inventer la diplomatique 2.0 ;-)

L’INA m’a bluffée

J’ai attendu quelques jours avant de me connecter à la nouvelle vidéothèque numérique de l’INA… que celui dont le site Web n’a jamais été submergé ou victime d’une défaillance technique leur jette la première pierre. Voilà, donc c’était pour dire que je ne suis pas la première à en faire la remarque, mais chapeau.

Bien sûr on peut les complimenter sur l’intérêt de leurs abondantes ressources et la pertinence de leur modèle économique, mais je voudrais aller un peu plus loin que ça et les féliciter pour leur site, pour son organisation et pour leur architecture de l’information remarquable.

Quelques leçons à prendre sur le site de l’INA.

Ce qui est chouette…

D’abord dans cette catégorie je mettrais la navigation par listes. Elle n’est pas encore à facettes – on doit suivre l’arborescence préétablie – mais pour butiner la collection c’est vraiment très bien.

Mon deuxième va aux fonctionnalités de personnalisation. D’abord j’aime beaucoup la petite barre de vignettes pour récapituler la navigation sur le site, on peut trouver cela gadget mais c’est joli. Ensuite, il y a un panier pour acheter et un espace personnel pour ranger ses vidéos préférées. Et on a même envie de s’inscrire (et pourtant ce genre d’impulsion est rare chez moi).

Mon troisième va à la visualisation des documents, avec des zones spécifiques pour les fonctions d’achat, pour les fonctions de « sociabilité » (genre envoyer à un ami, qui marche pas super bien apparemment ceci dit) et une zone de rebond sur mots-clefs bien pratique, suffisamment discrète et visible à la fois.

Enfin un petit bonus pour le formulaire de recherche, conçu intelligemment dans la façon d’affiner la requête et qui possède un tri sur pertinence. Les listes de résultats sont bien aussi.

Ce qui est moins chouette…

Après on peut toujours trouver des défauts et discuter. Le graphisme est un peu minimaliste et trop statique, la chronologie est laborieuse et donne de faux espoirs (je recherche encore la vidéo de Vanessa Paradis à 5 ans dans l’Ecole des Fans :-( toute une époque). Les textes ne sont pas très lisibles et tous ces petits ascenseurs partout, ça perturbe.

Le forum truffé de remarques désobligeantes montre bien qu’il ne suffit pas de mettre un forum avec de jolies catégories et qu’il faut susciter une communauté. Je leur souhaite d’y arriver.

Enfin leur splash screen sur le site institutionnel ressemble tellement à une pub en flash pour Ikea que je l’ignorais par réflexe et il m’a fallu 3 minutes pour trouver l’entrée du site.

Enfin bon, il y en a toujours qui vont trouver les moyens de critiquer (non je n’ai pas regardé le code source et même, je m’en fous, na) mais tout ça pour dire que depuis le Louvre j’avais pas vu de site de ressources numériques publiques aussi bluffant. Et puis c’est vrai que les petits films sont vraiment sympas à regarder.

Ma table lumineuse

Pour sauvegarder des informations personnelles dans un espace numérique, on connaissait les paniers (« mettre dans le panier », un grand classique des sites qui veulent vous faire acheter quelque chose) et même parfois les caddies.

Evidemment, tout cela n’est pas très bibliothéconomique ; on a rarement vu les lecteurs parcourir les rayonnages armés d’un grand panier en osier ou d’un caddie de supermarché. Que pourrait-on inventer ? Le chariot à livres ? Le pupitre ?

A la bibliothèque numérique de l’INHA ils ont trouvé qu’il fallait que ce soit non seulement bibliothéconomique, mais encore histoire-de-l’art-esque, d’où probablement le choix du terme de "table lumineuse". Ca m’a interloquée, j’attends toujours de trouver le bouton où il y a la lumière.

Le choix du PDF pour le visualiseur, avec toutes ces fenêtres qui s’ouvrent pour un oui ou pour un non, est aussi assez décevant à mon avis – même si c’est un beau PDF avec une table de structure physique et des vignettes des pages.

A part ça il y a plein d’estampes numérisées et ça c’est chouette.

Chacun cherche son chat

Je me faisais cette réflexion car, après un crash de profil firefox (ça m’arrive régulièrement au boulot, donc je ne dramatise plus, et j’utilise del.icio.us pour mes bookmarks), je cherchais un nouveau thème pour faire plus joli que le truc gris par défaut. Alors je suis tombée sur le thème "chats" (version bleue) que j’ai aussitôt installé et ça a mis un peu de lumière dans ma journée.

Après ça, quand je repassais dans mes diverses autres applications, je me demandais : mais pourquoi diable les applications doivent-elles obligatoirement être aussi moches ? Pourquoi cette convention des barres grises, des arêtes tranchées, des boutons authentiques 10 ans d’âge, des icônes aussi bavardes que laides ? Alors que sur le Web on se permet à peu près n’importe quoi, les applications continuent à rivaliser de tristesse et de manque d’originalité.

En fait, on peut observer que les utilisateurs non expérimentés sont très perturbés par les applications jolies. C’est vrai, un thème Firefox ne change rien aux fonctionnalités, c’est juste le design des boutons. Et pourtant, il y a des gens qui ne penseront jamais à cliquer sur la flèche, parce qu’il y a un chat dessus.

Deuxièmement, ça ne fait pas sérieux. Eh oui, pour avoir l’air d’une vraie application pour les grands, et pas d’un truc loufoque sur le Web, il faut adopter le gris conventionnel et les icônes de Bill, sinon question crédibilité, on en prend un coup.

Et ben vous savez quoi ? Moi je préfère mes chats.