Faisons-le arriver !

Et voilà, après un an de travail et même plusieurs années de préparation, la journée satellite de l’IFLA sur le Web de données en bibliothèque est passée.

Nous avions intitulé cette journée « Let’s make it happen! » (titre que les collègues de la BnF ont fort heureusement traduit par « du projet à la pratique » et pas « faisons-le arriver » – la traduction est un art… ;-) parce que nous voulions que cette journée aborde le Web de données sous l’angle des mises en œuvre concrètes et non de la recherche ou de l’expérimentation.

Les participants ont bien joué le jeu, en choisissant de présenter leurs réalisations du point de vue de la gestion de projet (dans le cas de data.bnf.fr) ou du retour d’expérience (avec TEL, la NDL du Japon ou encore Electre).
J’ai trouvé très intéressante l’analyse proposée par Lukas Koster et Rurik Greenall, qui ont détaillé de façon plutôt abstraite les différents chemins qu’il est possible d’emprunter pour implémenter un projet de Web de données en bibliothèque, du do-it-yourself à l’utilisation de logiciels commerciaux en passant par l’open-source.
La question des autorités était omniprésente, de même que celle des vocabulaires qui ont été abordés sous différents angles (les créer, les maintenir, les utiliser) lors de la session de l’après-midi.

En parallèle de la conférence, nous avions également organisé deux ateliers, l’un destiné aux débutants et l’autre aux managers, afin de permettre des échanges plus interactifs.
Le tutoriel « débutants », animé par Ted Fons d’OCLC, a fait apparaître le fait que trois ingrédients sont indispensables pour faire du Web de données en bibliothèque : des personnes compétentes, des données et des outils. Si on n’a pas au moins deux des trois, mieux vaut s’abstenir !
Pour ma part j’animais avec Gildas Illien le tutoriel pour les managers. Nous avons essayé de donner quelques clefs pour susciter l’adhésion à un tel projet à l’intérieur d’une organisation, aussi bien auprès d’équipes opérationnelles comme les catalogueurs qu’auprès des décideurs. Les discussions ont été nourries et fort riches.

Enfin, j’avais invité plusieurs fournisseurs de logiciels et de services à clore la journée en partageant autour d’une table ronde ce que signifiait pour eux faire du Web de données en bibliothèque.
Pour Shlomo Sanders, d’Ex-Libris, la recette consiste à engager les développements internes de leurs logiciels dans la direction du Web sémantique, par exemple en utilisant systématiquement des URI. Pour Richard Wallis, d’OCLC, il s’agit de passer d’une logique orientée notice ou document à une logique qui s’appuie sur les « entités » (personnes, œuvres, concepts…). Enfin Nicolas Chauvat de Logilab a décrit ce que le Web pouvait apporter aux bibliothèques en termes de scalabilité et d’extensibilité.

Au final une journée réussie, si l’on en juge par les retours des participants. Les articles et résumés sont déjà en ligne, les présentations et captations vidéo des interventions devraient les rejoindre prochainement.
Un grand merci à tous ceux qui ont participé à l’organisation d’une façon ou d’une autre et à tous les participants qui étaient nombreux au rendez-vous.

Cette semaine nous poursuivons nos travaux à l’IFLA avec, en ce qui me concerne plus particulièrement, deux réunions du Semantic Web SIG :
– lundi à 15h, un « business meeting » c’est-à-dire une réunion de travail. Comme les réunions des standing committee, celle-ci est ouverte à toutes les personnes intéressées par l’avenir du groupe, ses activités… Nous évoquerons en particulier la nécessité de nommer un nouveau responsable de groupe, puisque je vais passer la main.
– Mardi à 16h c’est la « session ouverte » cette fois : au menu, discussions en petits groupes sur des sujets liés au Web de données et au Web sémantique, un peu comme l’année dernière.

J’espère que vous serez nombreux à venir parmi les 1000 français qui participent à ce congrès lyonnais !

Publicités

IFLA satellite meeting : Linked Data in Libraries

Cet été, le 14 août, aura lieu à la BnF une conférence satellite de l’IFLA intitulée Linked Data in Libraries: Let’s make it happen! Elle est organisée par la section Information Technology de l’IFLA et le groupe d’intérêt spécialisé sur le web sémantique, le SWSIG dont je suis responsable.

L’appel à communication est encore ouvert pour une semaine. Les inscriptions sont aussi ouvertes, pour ceux qui sont assez mordus pour avoir envie de s’inscrire avant même de connaître le programme…

La conférence est organisée en deux sessions parallèles : une session de présentations, articles et tables rondes, et une session dédiée à des tutoriels ou ateliers.
En ce qui concerne la conférence elle-même, je ne peux pas en dire plus pour l’instant, nous attendons les (nombreuses, j’espère) soumissions d’articles.
L’idée des ateliers est de permettre à un public peu familier de ces notions (Web sémantique, Linked Data, RDF etc.) d’assister à cette conférence dans un esprit de découverte. Les ateliers sont conçus pour cibler des publics particuliers : un atelier stratégique pour les managers et décideurs, et pour les métadonneurs pratiquants, un atelier d’initiation et un atelier d’approfondissement. En toute logique, on vous invite donc à vous inscrire à un seul des trois ateliers, suivant votre profil.

Il n’est nullement obligatoire de participer au congrès de l’IFLA lui-même (qui a lieu la semaine suivante à Lyon) pour participer à cette conférence-ci donc n’hésitez pas à vous inscrire.
Dernière précision : la conférence, bien qu’ayant lieu à Paris, se déroulera intégralement en anglais, sans traduction simultanée.

Plus d’info sur le site de la conférence et le site du SWSIG.

Le Web sémantique en bibliothèque [texte imprimé]

Je trouve enfin le temps d’annoncer ici la sortie du livre Le Web sémantique en bibliothèque que j’ai rédigé avec la complicité d’Antoine Isaac et Gautier Poupeau. Oui, un livre en papier, je vais enfin avoir ma notice d’autorité dans le catalogue de la BnF !

Couverture

D’abord c’est une super excuse pour le ralentissement des publications sur ce blog : pensez, quand on est occupé à écrire un livre, c’est plus compliqué de garder le rythme du blog en parallèle. Au final, tout y est condensé en 171 pages, disponibles également au format numérique.

Vous y trouverez une synthèse de tout ce que nous racontons régulièrement dans les formations et les journées d’étude, augmentée de quatre cas pratiques, tirés de notre expérience personnelle, qui vous aideront à conduire votre propre projet de Web sémantique en bibliothèque (ou dans tout autre établissement culturel ou non d’ailleurs, l’intérêt de l’ouvrage n’étant pas limité aux bibliothèques mais pouvant toucher les professionnels de l’information en général).

Un petit mot enfin sur les coulisses de l’élaboration de cet ouvrage : l’idée m’en est venue lors d’un salon du livre en discutant avec Martine Poulain, qui dirige la collection Bibliothèques du Cercle de la librairie et que je remercie d’avoir cru en ce projet, même lorsqu’il m’a fallu plus d’un an pour trouver le temps d’en poser la première ligne.
J’ai rédigé une grande partie du texte qui constitue cet ouvrage à partir du matériau brut que constituaient nos notes, articles, présentations etc. à tous les trois. Les idées qu’il contient n’auraient jamais pu voir le jour sans les longues conversations que j’ai pu avoir avec mes deux co-auteurs, qui ont également relu le tout (plusieurs fois !) avec l’œil scrutateur qui assure une critique constructive.
Je remercie enfin mes différents interlocuteurs chez Electre pour avoir assuré dans un temps record une publication d’une grande qualité, malgré la technicité du contenu, et pour avoir veillé au moindre détail (jusqu’à la couleur figue de la couverture !)

Bonne lecture…

La TMA expliquée par la plomberie

Ceux qui ont à gérer une prestation de maintenance (tierce maintenance applicative ou TMA) pour leur catalogue ou leur site Web pourraient se reconnaître dans cette aventure qui démontre que de l’informatique à la plomberie, il n’y a qu’un pas. Ce petit mode d’emploi est directement inspiré de faits réels vécus avec mon plombier.

Épisode 1 : la Hotline
– Allô ? Je vous appelle pour signaler une fuite d’eau…
– Bonjour. Vous êtes en contact avec notre répondeur téléphonique. Nos bureaux sont ouverts du lundi au vendredi, de 9h à 12h et de 14h à 17h. Merci de renouveler votre appel.
*clic*

Épisode 2 : la Hotline (suite)
– Allô ? Je vous appelle pour signaler une fuite d’eau…
– Avez-vous vérifié que le robinet était bien fermé ?
– Euh… Oui…
– C’est sûrement les joints. Changez les joints et rappelez-nous.
– Mais je ne crois pas que…
*clic*

Épisode 3 : la qualification de l’incident
– Allô ? Je vous appelle pour signaler une fuite d’eau. C’est pas les joints.
– Et c’est grave ?
– Oh oui, quand même.
– Grave au point d’appeler les pompiers et qu’ils défoncent votre porte si nécessaire ?
– Euh non, quand même pas mais…
– Alors rappelez dans quinze jours.
*clic*

Épisode 4 : la planification de l’intervention
– Allô, bonjour, je suis le plombier de la société XX, mandaté par votre propriétaire pour votre problème de fuite.
– Ah, enfin, super !
– Je peux vous proposer d’intervenir demain entre 13h et 16h.
– Euh mais… c’est que ce n’est pas l’horaire qui m’arrange forcément le plus…
– Je n’ai rien d’autre à vous proposer.
– Ah bon ? Ah. Eh bien d’accord, à demain 13h.
*clic*

Épisode 5 : la planification de l’intervention (suite)
– Allô, voilà, c’est au sujet de la fuite, vous m’aviez dit que vous passeriez entre 13h et 16h mais il est déjà 16h15 et…
– Ah oui, c’est vrai. Désolé, j’ai été retenu chez un autre client.
– Mais j’ai posé congé pour vous attendre, moi ! Vous auriez au moins pu me prévenir.
– Désolé. Je peux passer demain, entre 13h et 16h.
– Eh bien en termes d’horaires ce n’est pas ce qui m’arrange le plus…
– Je n’ai rien d’autre à vous proposer.
Damn it. Très bien, à demain.
*clic*

Épisode 6 : la solution de contournement
– Elle est sérieuse, votre fuite, dites-donc.
– Ben oui, c’est ce que je me tue à vous…
– Du coup, il faut changer toute l’arrivée d’eau. Je ne vais pas pouvoir le faire aujourd’hui, mais rassurez-vous : cela ne fuira plus, vu que j’ai condamné votre évier de cuisine.
– Ah ? Mais ça va être moins pratique… Combien de temps je vais rester comme ça ?
– Eh bien, nous allons vous envoyer un devis.

Épisode 7 : le devis (option 1 : plombier qui va droit au but)
– Alors il y a deux solutions. Soit on refait la tuyauterie de façon apparente. Évidemment ce sera moins joli, mais sinon il faut défoncer les murs, les plafonds, le parquet…
– OK, OK. Va pour la tuyauterie apparente.

Épisode 7bis : le devis (option 2 : plombier doué en marketing)
– Eh bien cela vous fera X000 euros.
– Quoi !? Mon Dieu ! Mais comment est-ce possible, j’ai presque autant intérêt à racheter un autre appartement.
– Eh bien le problème c’est qu’il faut défoncer les murs, les plafonds, le parquet…
– Ce n’est pas possible. There has to be another way.
– Oui : sinon on refait la tuyauterie de façon apparente. Évidemment ce sera moins joli, mais…
– OK, OK. Va pour la tuyauterie apparente.

Il faut rendre justice à mon plombier : en général passée l’étape du devis tout se déroule pour le mieux. Et à la fin on a un évier neuf, c’est chouette quand même. Jusqu’à la prochaine fuite.

I want you… For IFLA 2014

Comme vous le savez (sinon c’est que vous ne suivez pas, là, quand même !) le congrès de l’IFLA aura lieu l’année prochaine en France, à Lyon. Un congrès réussi se mesure au nombre de participants du pays organisateur : imaginez, Singapour c’est quand même tout petit et il y avait 800 bibliothécaires singapouriens inscrits au congrès ! 800 ! Alors il va falloir faire au moins aussi bien.

Pour vous motiver à participer à cet événement incroyable voici 10 bonnes raisons de participer à l’IFLA à Lyon en 2014.

1) Parce que vous n’avez jamais vu 3000 bibliothécaires réunis en un seul lieu. C’est un peu flippant mais ça vaut le détour, quand même.
2) Parce que vous n’avez jamais vu 100 bibliothécaires en folie danser sur Abba. Si vous l’avez déjà vu, vous rêvez d’y avoir droit encore une fois, avouez-le.
3) Pour se faire des amis dans les 7 langues officielles des 150 pays de l’IFLA.
4) Parce que quel que soit votre sujet de prédilection, il y a toujours quelque chose d’intéressant qui se passe à l’IFLA. Avec un peu de chance vous pouvez même présenter votre propre projet dans l’une des sessions du congrès, en répondant à l’un des appels à communication qui vont fleurir cet hiver.
5) Parce que c’est pas tous les jours que l’IFLA a lieu dans votre pays, ne laissez pas passer cette chance (la dernière fois c’était en 1989 et il n’y a même pas un site Web pour en témoigner).
6) Pour manger gratos – c’est un peu la débrouille mais on y arrive toujours.
7) Parce que de toute façon en août vous vous ennuyez, votre B.U. est fermée et les vacances sont beaucoup trop longues.
8) Pour pouvoir vous glisser dans les réunions des sections qui vous intéressent, et peut-être envisager d’en devenir membre un jour.
9) Parce que c’est à Lyon et qu’il y aura donc du saucisson brioché, de la cervelle de canut, du tablier de sapeur, des quenelles et d’autres délices décadents que vous pourrez agréablement digérer pendant votre sieste au parc de la Tête d’Or (tout en vous efforçant de faire abstraction de votre mauvaise conscience à l’évocation des conférences passionnantes que vous êtes en train de louper).
10) Pour faire Cycling4Libs en Vélov.

Et en prime, 5 bonnes raisons de devenir volontaire (on cherche encore 200 volontaires alors allez, on se motive !)

1) Pour assister aux conférences gratos.
2) Pour avoir un joli tee-shirt (gratos).
3) Pour apprendre à dire « saucisson brioché » et « quenelles de saumon » dans les 6 autres langues officielles de l’IFLA.
4) Pour manger gratos encore plus facilement que les congressistes.
5) Pour avoir le privilège de découvrir l’ambiance unique de l’hébergement en cité universitaire en plein mois d’août.

Retrouvez plein d’infos utiles sur le congrès de Lyon 2014 sur le site du CFI-bd.

Le Web sémantique à l’IFLA, saison 2013

J’ai déjà parlé de notre rencontre satellite avant le congrès de l’IFLA à Singapour, mais comme les années précédentes, le congrès lui-même a aussi été l’occasion de parler Web sémantique et Web de données.

Ce sujet était à l’honneur dans la session de l’UNIMARC Core activity dont les communications sont en ligne dans le nouvel entrepôt d’articles de l’IFLA.

J’ai pour ma part participé à deux événements récurrents : la table ronde Linked Data organisée par Richard Wallis d’OCLC, et la réunion du groupe d’intérêt spécialisé sur le Web sémantique (SWSIG) dont je suis responsable.

Cette année, pour la réunion du SWSIG, nous avions décidé de ne pas reproduire l’expérience des années passées qui avait consisté à enchaîner une série de « lightning talks » (présentations éclair) rendant compte de l’actualité des bibliothèques dans le domaine du Web sémantique. Deux raisons à ce choix : tout d’abord, cette actualité devient presque trop foisonnante pour en rendre compte de cette manière sans faire l’impasse sur un certain nombre de projets intéressants. Par ailleurs, ces présentations très courtes étaient finalement difficiles à digérer pour les participants, qui étaient demandeurs d’une expérience plus interactive.

J’ai donc organisé la séance, avec l’aide de plusieurs complices, autour de 4 groupes de discussion sur des sujets particuliers : les standards et les conversions, les liens et la coopération, l’utilisation et la réutilisation des données, et les outils et recettes. Sur l’inspiration du moment (ou presque ;-) un cinquième groupe a été créé, destiné à offrir une introduction aux débutants ou en tout cas, aux personnes qui ne se sentaient pas suffisamment à l’aise avec le sujet pour rejoindre l’un des autres groupes.

C’est moi qui ai animé ce dernier groupe qui s’est avéré le plus nombreux. Les questions posées dans les autres groupes, dont on peut lire le compte-rendu dans le rapport en ligne, étaient apparemment tout à fait passionnantes. Pour ma part, j’étais contente d’engager le dialogue avec les soi-disant « débutants », dialogue que j’ai commencé en leur demandant ce qu’ils faisaient là !
Trois profils ont peu à peu émergé :
– les managers, qui entendent parler du Web sémantique dans leurs équipes mais ont besoin d’en comprendre mieux l’importance stratégique,
– les affamés, qui ont déjà lu tout ce qu’ils trouvaient sur le sujet mais ont besoin de plus pour comprendre,
– les curieux, qui se disaient que peut-être cette session était l’occasion d’enfin consacrer un peu de temps à un sujet dont ils avaient seulement vaguement entendu parler jusque là.
Ceci démontre, s’il était besoin, qu’il reste important d’aborder ces sujets à l’IFLA. Certes les experts n’ont pas besoin de ce genre de conférences (ils sont tous à DCMI la semaine prochaine à Lisbonne !) Cependant, elles sont essentielles pour permettre aux personnes qui ne fréquentent pas les rencontres plus techniques d’avoir un aperçu tangible des évolutions en cours et de leur importance stratégique.

L’année prochaine, nous serons au rendez-vous avec ces événements récurrents, mais aussi comme je l’indiquais dans mon précédent billet, avec une conférence satellite qui se déroulera à Paris, à la BnF, le 14 août. A ce sujet le teasing continue… Plus d’information très bientôt !

UILLD : un satellite de l’IFLA

Me voici en direct de Singapour où j’ai assisté au 79e congrès de l’IFLA – il était temps que je me mette à bloguer car c’est le dernier jour ici ! Je ne ferai pas un compte-rendu exhaustif de ce congrès, mais je voudrais revenir sur quelques éléments liés à ma marotte habituelle : le Web sémantique.

Cette année, la section Information Technology dont je fais partie organisait une « rencontre satellite » sur un sujet particulièrement intéressant : les interfaces utilisateurs basées sur le Web de données en bibliothèque (User Interaction Based on Library Linked Data ou UILLD). En effet, après plusieurs années passées à se focaliser de manière principale sur la technologie d’une part, la publication des données d’autre part, il semblait important d’aborder la question du Linked Data du point de vue de ce qu’il apporte à l’utilisateur final.

La conférence durait toute une journée ; elle se déroulait dans la Jurong Regional Library de Singapour.
Un mot sur les satellites : c’est une véritable tradition de l’IFLA. Ils se déroulent avant ou après le congrès lui-même, durent une à deux journées et s’intéressent à un sujet en particulier parmi la pléthore des thèmes abordés par les différentes sections. Ces derniers temps il y en avait une bonne vingtaine autour de chaque congrès.
Parce qu’ils se focalisent sur un sujet précis et prennent le temps de le traiter en détail, je trouve que les satellites sont généralement plus intéressants que les sessions du congrès lui-même (en tout cas, c’était mon 2e satellite et cette impression que j’avais eue la première fois s’est vérifiée). Il n’est donc pas rare que des gens viennent uniquement pour assister à l’un de ces satellites et pas au congrès lui-même.

Pour en revenir à UILLD, je vais reprendre ici une citation tirée de la présentation de Martin Malmsten : vouloir « vendre » (au sens marketing du terme) l’idée de Web de données sans montrer d’interface, c’est un peu comme de vouloir vendre un fax alors que le papier n’aurait pas encore été inventé. Les interfaces ne sont peut-être pas au cœur du problème quand on parle de Web sémantique, mais au stade où nous en sommes, elles sont devenues absolument nécessaires pour démontrer à un public de non spécialistes, en particulier aux décideurs, l’intérêt de cette technologie.
C’est la raison pour laquelle il semblait vital d’organiser un événement focalisé sur ce sujet au sein de l’IFLA, parce que l’IFLA est justement un lieu où l’on touche beaucoup de professionnels de divers horizons et en particulier des cadres.

En ce qui concerne le contenu de cette rencontre, j’ai eu l’occasion de présenter l’interface du Centre Pompidou virtuel et Patrick Le Bœuf a évoqué le projet Opencat dont j’ai déjà parlé ici. Il semblerait qu’OpenCat ait bien évolué et je trouve que ce projet reste vital pour notre communauté, car il est le premier à démontrer l’utilisation des technologies du Web sémantique pour réaliser la même chose que ce qu’on faisait avec le catalogage partagé traditionnel, mais en mieux ;-)

Nous avons aussi pu voir des démonstrations d’interfaces réalisées par des personnes en dehors de notre communauté (développeurs, chercheurs) et qui utilisent des données de bibliothèque grâce à leur existence dans le Web de données : c’était le cas d’une application de visualisation pour terminaux mobiles (présentée par Bernhard Humm), ou d’un espace d’échanges de notes entre chercheurs (que nous a montré Ryan Shaw). Ils utilisent en particulier des données d’autorité pour servir de référentiels de personnes.
Ces expériences tendent à montrer que ces données n’auraient pas pu être utilisées (ou pas aussi facilement, ou l’idée ne leur serait pas venue) si elles n’avaient pas été présentes dans le Web de données. Plus encore, ils ont témoigné que les données de bibliothèques ont été choisies, après comparaison avec d’autres sources, pour leur qualité et leur précision ! C’est plutôt une bonne nouvelle.

Je suppose que les diverses présentations et articles complets seront mis en ligne prochainement. J’essayerai de penser à mettre à jour ce billet…

Je vais conclure en annonçant que l’année prochaine, nous organisons également un satellite sur le Web de données en bibliothèque. Il aura lieu à Paris, à la BnF, le 14 août. Plus d’infos à ce sujet bientôt.

Web sémantique, FRBR et RDA en tournée dans toute la France

Depuis quelques mois, bien que tenue à l’écart de l’évolution des normes de catalogage par d’autres activités, j’ai eu la chance de participer au tour de France entrepris par quelques collègues sous l’égide du CNFPT pour présenter « les catalogues au défi du Web ». Nancy, Montpellier, Dunkerque, Angers, plus deux journées sur un thème similaire organisées à Reims et Strasbourg par Médial et une excursion aux journées RNBM à Marseille : on peut dire qu’on a sacrément bourlingué.

Au programme, parmi les sujets évoqués, on a parlé du projet OpenCat réalisé par la BnF et la médiathèque de Fresnes, qui ont construit un OPAC (interface d’accès de catalogue) en ligne en s’appuyant sur data.bnf.fr et d’autres données du Linked Data (le prototype est maintenant consultable en ligne).
On a discuté des nouvelles règles du Sudoc qui visent à mieux préparer la FRBRisation et le passage à RDA, ou encore de la FRBRisation des thèses.
On a abordé Bibframe, l’initiative pragmatique (trop pragmatique ?) des américains pour faire évoluer les formats MARC. On a parlé du rapport du comité stratégique bibliographique sur l’avenir des catalogues en France, et des actions menées par le groupe EURIG pour faire évoluer RDA vers un code de catalogage vraiment international et pas seulement anglo-saxon.

Bref, autant dire qu’il y a trop de sujets intéressants et d’évolutions passionnantes pour tout faire tenir en un seul billet. Et puis c’est vrai que si j’ai continué à travailler d’arrache-pied sur le Web sémantique (avec un projet de livre en préparation !) je me suis un peu éloignée de ces sujets plus strictement bibliothéconomiques et je ne me sens pas vraiment très à la page pour en parler.

Pour ceux qui auraient raté ces rencontres passionnantes, sachez qu’une session de rattrapage est organisée par le CNFPT le 19 novembre prochain à Paris. Je serai là encore au rendez-vous, pour introduire le propos en expliquant ce que change le Web…

La culture, c’est notre Data

La semaine dernière a eu lieu la première rencontre « data culture » entre établissements du Ministère de la Culture sur le thème de l’open data. Faisant suite à la parution du Guide Data Culture, cette journée avait pour objectif d’initier la mise en place d’un réseau de professionnels intéressés par l’enjeu de l’ouverture des données au sein du ministère. L’après-midi, des ateliers ont permis d’agiter un peu nos cellules grises autour de cas d’utilisation.

Je vous laisse découvrir le storify de la journée qui a été abondamment twittée, et la petite vidéo qui résume l’essentiel du guide sus-nommé.

J’ai particulièrement apprécié la présentation d’Henri Verdier, le directeur d’Etalab et j’ai été assez frappée par le fait que les réutilisations proposées, aussi bien existantes qu’imaginaires, étaient quasiment toutes tournées vers le développement d’applications pour mobiles. Le nouvel El Dorado quoi…

Le titre de ce billet est spécialement dédicacé à Romain ;-)

Compte-rendu du séminaire IDPF

A l’occasion du Salon du Livre de Paris, j’ai eu la chance d’assister au séminaire organisé par l’IDPF (International Digital Publishing Forum) le 25 mars dernier. L’objectif de ce séminaire technique était de présenter aux éditeurs les fonctionnalités de l’ePub3 et les perspectives offertes par ce standard. Je rends compte ici de ce que j’ai pu y entendre.

L’IDPF est un organisme de normalisation dont le sujet de travail principal est la normalisation du format ePub. Le séminaire s’est ouvert sur une conférence introductive de Bill Mc Coy, directeur exécutif de l’IDPF, qui avait pour objet de démontrer entre autres que la distinction entre sites internet, applications natives et livres numériques a de moins en moins de sens aujourd’hui avec la mutualisation des moyens de développement entre ces plateformes. Il pose le constat que le modèle économique de l’application native ne fonctionne pas : elles coûtent trop cher à produire et les modalités de production ne sont pas scalables à l’ensemble du catalogue d’un éditeur qui publie plusieurs centaines ou milliers de titres par an. Il est donc nécessaire de faire évoluer ce mode de travail. Il est probable qu’à l’avenir on se dirige de plus en plus vers un format de contenus structuré qui sera réutilisable dans plusieurs contextes. L’ePub3 est appelé à jouer un rôle dans ce contexte grâce à la conjonction avec HTML5.

La présentation d’HTML5 était effectuée par Robin Berjon qui représentait le W3C (je m’excuse d’avance pour l’inexactitude probable avec laquelle je vais rapporter ses propos…) L’ePub3 était présenté par Daniel Weck du consortium Daisy (un organisme qui travaille sur l’accessibilité du livre numérique) (ses diapos en ePub dans le texte ici.)

HTML5 est plus une galaxie de normes qu’une norme unique. Il y a une centaine de spécifications liées entre elles qui incluent HTML5 proprement dit mais aussi d’autres standards tels que CSS par exemple (pour la mise en forme), Javascript, etc. L’ensemble est désigné sous le terme générique de « the Open Web Platform ».

HTML5 apporte de nouvelles fonctionnalités par rapport au HTML traditionnel :
– support natif de la vidéo et de l’audio : on n’a plus besoin d’installer un plug-in (ex. Flash) pour lire ces médias
– interactivité native grâce à « canvas », une sorte de langage qui permet de coder directement en HTML des applications interactive (jeux, 3D…) de même type que ce qu’on pouvait faire avec Flash
– de nouvelles fonctions de présentation (il semblerait qu’on puisse faire des ligatures grâce à HTML5 et CSS par ex. :-)
– le support natif de Ruby (utile pour les écritures japonaises et chinoises), MathML (pour les équations mathématiques) et SVG (images vectorielles qui permettent par exemple d’agrandir les images sans pixellisation)
l’amélioration des formulaires
– de nombreuses APIs qui permettent notamment d’interagir avec le terminal (dans le cas d’un terminal mobile cela permet de gérer par exemple l’orientation portrait/paysage, de détecter les vibrations, d’interagir avec le micro, la lumière ambiante, etc.)
– une meilleure sémantique de structuration de la page qui permet maintenant de distinguer un en-tête et pied de page, des menus de navigation, etc.

On le voit, toutes ces nouvelles fonctions de HTML5 sont extrêmement pertinentes dans le contexte d’un usage en mobilité et plus spécifiquement dans le contexte du livre numérique enrichi.
Dans la mesure où ePub3 est complètement basé sur HTML5, on dispose nativement de tout l’outillage nécessaire pour ajouter des médias, interagir avec des terminaux de lecture de type eReader / tablette, et structurer le contenu d’une manière cohérente avec les pratiques traditionnelles du livre (en séparant le texte lui-même du paratexte – titres, tables des matières, notes, etc.)

ePub3 est donc basé sur HTML5 mais vient également y ajouter un certain nombre d’éléments :
– l’empaquetage : en plus de l’empaquetage physique (un fichier ePub est en fait une sorte de « zip » qui contient plusieurs fichiers) il s’agit de déclarer toutes les composantes d’un paquet : navigation linéaire, table des matières, liste des pages physiques (permet des renvois depuis les références du livre imprimé)
– le paquet peut aussi contenir des métadonnées et inclure les polices spécifiques dont on a besoin pour la présentation. Cela permet à l’ePub d’être autonome et autodescriptif ;
– l’accessibilité : à l’origine le consortium Daisy travaillait sur son propre format XML pour les personnes en situation de handicap (le XML Daisy). Ils ont décidé de s’impliquer dans la normalisation d’ePub3 pour palier aux défauts d’accessibilité qui étaient ceux d’ePub2. Il est ainsi possible de synthétiser automatiquement une lecture audio à partir du texte en faisant appel à certaines fonctions de CSS (choix du type de voix, ajout d’un fichier de prononciation pour les termes ambigus par ex.)
– un système de liens performants, le système CFI (Canonical Fragment Identification) gère les notes de bas de page – qui deviennent d’ailleurs plutôt des pop-up dans ce contexte – et les tables des matières directement en HTML5 (en ePub2, il y avait un format distinct pour encoder la table des matières. Le fait qu’elle soit un simple fichier HTML permet de la présenter comme une page normale et pas seulement comme un outil de navigation)
– les méthodes de cryptage, de signature et de gestion des DRM.

A titre d’illustration de ces potentialités, un autre intervenant, Peter Meyers, nous a présenté trois exemples de livres numériques qui tirent tout le potentiel du média interactif :
The good man, une nouvelle interactive
Welcome to Pinepoint par Paul Shoebridge et Michael Simons (en Flash) qui fonctionne un peu comme un scrapbook multimedia
Fish, un essai de Robin Sloan conçu pour la lecture sur smartphone.
Il s’agit ici d’inventer de nouvelles modalités d’écriture et de lecture dans un monde numérique.

Luc Audrain d’Hachette a ensuite présenté la problématique de l’industrialisation de la production de livres numériques pour les gros éditeurs.
Il a commencé son exposé en notant que contrairement à une idée reçue, transformer un livre papier en livre numérique n’est pas une opération qu’on fait une fois pour toutes. Au contraire, il faut la répéter plusieurs fois : pour corriger des erreurs, pour prendre en compte des nouvelles versions du format, etc. L’industrialisation de la production est donc d’autant plus une nécessité.

Il nous propose ensuite une grille d’analyse matricielle permettant de différencier les types d’ouvrages en fonction de leur niveau de structuration et de l’importance de la mise en page :
– peu structuré, peu maquetté (ex. romans)
– très structuré, peu maquetté (ex. dictionnaires)
– très structuré, très maquetté (ex. livres de recettes de cuisine)
– peu structuré, très maquetté (ex. livres d’art).
Cette grille permet de faire un choix entre deux stratégies de conversion : les ePub adaptables (dont la mise en page se réorganise en fonction de la taille et du format de l’écran) et les ePub fixés (qui respectent strictement la maquette d’origine).
Le ePub adaptable est très immersif et adapté à la lecture linéaire. Interopérable, il peut être produit à partir d’un flux XML. Cependant, la mise en page est limitée.
Le ePub fixé respecte la maquette du papier ce qui permet des coûts de production très bas. Toutefois, on perd en accessibilité et on ne distribue que sur un nombre limité de plateformes.
Pour Luc Audrain, si on ne fait que du texte, cela ne vaut pas la peine de passer à ePub3 qui n’est pas encore largement supporté, il vaut mieux rester à ePub2.

Plusieurs chaînes sont possibles pour produire les ePub adaptables :
– export ePub direct à partir d’InDesign : nécessite une grande vigilance de base sur la conception du fichier InDesign et de reprendre les ePub à la main ;
– deuxième possibilité, on structure un fichier Word pour obtenir de l’XML. Ce fichier XML est ensuite utilisé pour générer le PDF imprimeur et une version XML du contenu. On stocke l’ensemble dans un système de DAM (Digital Asset Management). L’ePub peut être généré en sortie. Cette chaîne fonctionne si on travaille à partir du fichier remis par l’auteur : pour le rétrospectif, on doit repartir du PDF imprimeur, voir du scan+OCR de la version papier.

Pour l’ePub fixé, on part de la maquette du papier et on produit :
– soit du HTML5+CSS (on crée un cadre dit « viewport » et ensuite on positionne les blocs de texte et d’image en absolu)
– soit une image vectorielle (SVG) ce qui revient au même principe en utilisant une technologie différente. N’importe quel PDF peut être facilement transformé en SVG, mais ce format n’est pas toujours supporté dans les logiciels de lecture d’ePub
– soit par une simple image de type JPG (méthode à l’abandon car fournit une expérience de piètre qualité notamment quand on agrandit l’image). Toutefois il peut être utile d’intégrer l’image dans le HTML5 afin qu’elle puisse servir de présentation alternative si le format n’est pas supporté.

Les contenus fortement structurés sont de plus en plus souvent stockés dans une base de données. Des équipes éditoriales les préparent alors en vue d’en faire des publications : vers du papier, des applications, des sites web, des fichiers ePub. Il existe des outils sur le marché permettant de gérer ce type de chaîne. Les auteurs n’écrivent plus uniquement pour le papier mais produisent des contenus.

Enfin il reste évidemment possible de créer un ePub ex-nihilo. L’outil Bluegriffon par exemple est un éditeur Web wysiwyg pour HTML5 et il permet également de générer des ePub2 et des ePub3.

La dernière étape réside dans le contrôle qualité. Il existe des outils de validation comme ePubcheck pour la structure des fichiers ePub. Il faut ensuite procéder à une validation visuelle grâce à un lecteur d’ePub comme Readium.

Une présentation de Marc Bide, du consortium EDItEUR a permis de rappeler que les métadonnées jouent un rôle encore plus important pour le livre numérique que pour le livre imprimé, car elles sont l’unique moyen de trouver le livre pour l’utilisateur final. Elles sont donc capitales pour la chaîne de distribution, mais aussi pour la bibliothèque personnelle de l’usager : tous les ebooks embarquent un minimum de métadonnées à cette fin. Toutefois celles-ci ne sont pas toujours suffisantes : c’est quand même énervant quand on a tous les livres d’une série d’être obligé de regarder dans wikipédia pour savoir dans quel ordre les lire !

L’ISBN est important pour faire le lien entre l’ouvrage et ses métadonnées. Marc Bide rappelle qu’il est important de fournir des ISBN différents pour la version papier et pour la version numérique. En effet, l’ISBN sert à différencier les éditions et non à les relier. On fournit un ISBN différent pour chaque format entrant (ex. PDF et ePub) ; c’est par contre optionnel si on a différents formats de sortie (ex. ePub et Mobi).

EDItEUR a sorti en 2009 une nouvelle version d’Onix, Onix 3.0, qui est beaucoup plus adaptée au livre numérique que l’ancienne version Onix 2.1. Elle permet entre autres de décrire des contraintes d’usage associées à un livre numérique.

Pour l’IDPF, la problématique majeure aujourd’hui est de faciliter l’adoption de l’ePub3 qui n’est pas encore très largement supporté, et même quand il l’est c’est souvent de manière incomplète.
Le BISG (Book Industry Study Group) maintient un outil qui permet de savoir quelle plateforme supporte ou non quelle fonctionnalité d’ePub3 : le ePub3 support grid.

Pour pallier à cette problématique, les tenants de l’HTML5 et de l’ePub3 encouragent le développement en « fallback design » : c’est-à-dire un design qui s’adapte aux capacités des différentes plateformes.
Il en existe deux sortes :
– « graceful degradation » : le développement est effectué en visant les plateformes les plus performantes, mais si une fonctionnalité n’est pas supportée, des formats alternatifs sont proposés
– « progressive enhancement » : la version présentée par défaut est la plus basique, ensuite on teste en javascript l’environnement de l’utilisateur et on fournit progressivement les contenus plus avancés si la plateforme le permet.

L’IDPF s’implique également dans le développement de Readium, qui est considéré comme le logiciel de lecture d’ePub3 de référence. Le jour du séminaire, l’IDPF annonçait la création de la Readium Foundation, dont l’objectif est de fournir des briques logicielles pour accélérer l’adoption d’ePub3. L’un des moyens utilisés sera la création d’un Readium SDK que les développeurs pourront utiliser pour intégrer les fonctions de Readium dans leurs propres applications.