Le Web sémantique en 10 mn, 40 mn, 2h et… 2 jours

Un petit interlude publicitaire… Pour ceux qui n’auraient pas le temps ou le courage de lire dans son intégralité l’ouvrage sur le web sémantique en bibliothèque que j’ai commis avec Gautier et Antoine, je tenais à rappeler ici l’existence de quelques alternatives :

Puisque je suis dans la pub, j’en profite pour signaler que la susdite série de vidéos du CNFPT contient d’autres choses intéressantes, et notamment une intervention sur les identifiants pérennes par Sébastien Peyrard. Un visionnage qui pourra utilement être complété par la lecture du vade-mecum sur les identifiants pérennes à l’attention des producteurs de données, réalisé dans le cadre de la feuille de route web 3.0 du ministère de la culture. Celui-ci propose un parcours en 12 questions, illustrées d’exemples, pour bien concevoir ses identifiants pérennes pour le web de données.

Publicité

#EuropeanaElects : ma campagne sur Twitter

europeana-test

Europeana, je la connais depuis sa plus tendre enfance. En fait, elle n’était même pas encore née qu’on était dans une salle de réunion à Luxembourg, avec quelques collègues dont certains sont depuis devenus des amis, et on parlait d’interopérabilité comme on lance une balle à la passe-à-dix, priant pour qu’elle ne retombe jamais.

Puis il y a eu cette époque où on rêvait qu’Europeana ne soit pas encore un énième portail, où devant une bière sur une place ensoleillée de La Haye on griffonnait sur un bout de papier notre idée du réseau d’informations sémantiques, œuvres, personnes, événements… qui donnerait du sens à l’information culturelle diffusée sur le web. C’est comme ça qu’on s’est lancés dans la création du Europeana Data Model, EDM de son petit nom.

Puis il y a eu l’ère des projets, avec leur cortège de « proposal submissions », « work packages », « deliverables », « prototypes » etc. Ils sont bientôt devenus tellement nombreux que même les organiser et comprendre comment ils s’articulaient les uns avec les autres était devenu un défi. Pendant ce temps, le portail, lui, s’enrichissait de nouvelles fonctionnalités, s’ouvrait à des expositions virtuelles, agrégeait toujours plus de données provenant de toujours plus d’institutions dans toute l’Europe.

Où en est-on aujourd’hui ? Une nouvelle version du portail est en train de voir le jour. Même si on est encore loin de notre rêve initial, les progrès sont énormes. Et surtout, ce qui me paraît beaucoup plus important, le portail n’est que la partie émergée de l’iceberg.

Pour moi, la grande réussite d’Europeana, ce n’est pas d’avoir agrégé toutes ces données (même si je ne dis pas que c’était facile) mais d’avoir fourni une énorme impulsion dans la communauté culturelle en Europe pour permettre la numérisation du patrimoine. Des pays ou des institutions qui n’en auraient jamais fait un axe prioritaire se sont organisés pour obtenir des financements et lancer des projets. Ceux qui s’étaient déjà lancés ont apporté leurs collections mais aussi leur savoir-faire et leur expertise. Cet effort a été transverse (archives, bibliothèques, musées, audiovisuel) et a facilité l’émergence d’une préoccupation pour l’interopérabilité des collections même quand celles-ci sont constituées d’objets par définition uniques. Enfin Europeana a été un ardent promoteur de l’open data.EUfinal01-Cloud-V8-1024x768

La stratégie d’Europeana a évolué pour aller vers une infrastructure numérique partagée dont l’objectif est de servir aussi bien la communauté des professionnels des institutions européennes que celle des usagers. Les données ont été ouvertes en Linked Open Data, et leur redistribution via des dispositifs d’API pour encourager des réutilisations diverses et variées est considéré comme aussi importante, voire davantage, que le portail lui-même. L’ambition est également de partager des outils de traitements de données, d’enrichissement, de transformation et de préservation qui permettront aux institutions qui n’ont pas les moyens de les construire d’en bénéficier et d’enrichir leurs données et leurs services.

Enfin, Europeana est devenu un réseau, une communauté. Cette communauté partage son expertise professionnelle, technique et scientifique mais aussi sa motivation et son implication pour rendre accessible la culture européenne au plus grand nombre grâce au numérique. Construire et animer une communauté est une tâche ardue et parfois ingrate, mais c’est aussi ce qui permet aux idées de naître, de murir, de circuler et finalement de déboucher sur des projets et des réalisations qui peuvent transformer davantage que nos métiers et nos communautés. Transformer le monde par la culture, c’est l’ambition d’Europeana.

EUfinal07-Impact-V9Il ne faut pas oublier qu’Europeana est née d’une idée politique : elle a encore les moyens, grâce aux énergies qu’elle fédère, de peser en faveur des politiques culturelles des États de l’Europe et d’aider à mobiliser des moyens pour continuer à les développer. C’est parce que je crois sincèrement que sans Europeana, nous ne serions pas où nous en sommes aujourd’hui en matière de développement de l’accès numérique à la culture, qu’il était important pour moi de faire partie de l’association et de candidater pour devenir membre du conseil. On m’a invitée à faire campagne pour les élections qui se dérouleront en ligne du 3 au 9 novembre : c’est l’occasion pour moi de (re)poster sur Twitter quelques liens et idées sur Europeana. A suivre sur #EuropeanaElect.

Le livre numérique en bibliothèque

Il y a quelques mois, j’ai eu la chance d’être invitée par les organisateurs du cycle « Bibliothèque en débat » (à savoir Martine Poulain, qui dirige la collection « Bibliothèques » au Cercle de la Librairie, et mes collègues de la direction des collections de la BnF) à participer à la séance portant sur le livre de Laurent Soual, Le livre numérique en bibliothèque : état des lieux et perspectives. Y participait également Guillaume de la Taille, en charge de la mise en œuvre du projet PNB au sein des bibliothèques de la ville de Paris. Vous pouvez réécouter le débat (audio, 1h24) sur le site de la BnF. A l’époque, je m’étais promis d’écrire une revue du livre de Laurent Soual, mais je n’en ai pas trouvé le temps.

Aujourd’hui, à moins de vivre dans une grotte, vous avez probablement remarqué que le service de prêt numérique lancé par les bibliothèques de la ville de Paris mi-octobre suscite quelques débats dans la communauté professionnelle. C’est donc l’occasion de ressortir le livre de Laurent Soual, qui constitue une excellente synthèse et un panorama très complet des problématiques posées par le livre numérique, pas seulement en bibliothèque d’ailleurs. On y remonte à l’origine de l’historique des initiatives actuelles, on y décortique le cadre législatif et on y décrypte le vocabulaire technique, on y présente les nombreux acteurs de la complexe chaîne du livre numérique, et on y détaille les modalités d’acquisition pour les bibliothèques, en France et à l’étranger. Pour le bibliothécaire qui veut se lancer dans le sujet et avoir une vue d’ensemble des enjeux, c’est un excellent point de départ.

Bien sûr, le livre vous donnera quelques clefs sur le projet PNB (Prêt numérique en bibliothèque), comment il s’est élaboré et quels en sont les acteurs et les contraintes. Mais il aborde aussi des modèles différents reposant sur des acquisitions de bouquets et de l’accès en streaming. En effet, PNB n’est ni le seul ni le premier service permettant de mettre à disposition des livres numériques dans les bibliothèques ; fort heureusement, d’ailleurs, car ce qu’il propose  à la fois en termes de contenus et de mode d’accès (le fameux système des « jetons ») n’est pas adaptés aux besoins, par exemple, des bibliothèques universitaires et de leurs usagers étudiants et chercheurs.

En fait, PNB cherche à répondre à une problématique précise : celle du prêt d’ouvrages principalement destinés à une lecture linéaire, nomade et pas nécessairement connectée (par ex. sur liseuse), de type lecture publique. Le dispositif vise donc surtout les ouvrages de librairie courante et notamment la fiction récente, ce qui a nécessité la recherche d’un consensus complexe avec les acteurs dont le modèle économique repose sur la commercialisation de ces ouvrages.

La réception par le public des premières initiatives comme Bibook à Grenoble (étude d’usage en cours de publication) semble démontrer qu’il existe bel et bien un public et des usages pour cette offre ciblée. Toutefois, cela n’oblitère en rien le besoin d’autres modèles pour des usages d’étude ou de recherche, ou tout simplement des pratiques de lecture plus tournées vers la « longue traîne » auxquelles le fonds documentaire actuellement proposé par PNB ne répond pas et qui impliquent pour les bibliothèques des durées d’usage beaucoup plus longues.

Pour en savoir plus sur PNB, je vous conseille de lire les comptes-rendus de l’association CAREL (dernier point en février 2015), et pour plonger dans le débat : le point de vue des bibliothécaires expérimentateurs de PNB sur lettrenumeriques.be et le récapitulatif fouillé publié par le collectif SavoirsCom1.

Big data et bibliothèques

Le big data (« mégadonnées » pour ceux qui veulent parler français) ce n’est pas tout neuf, cela fait quelques années qu’on en parle ; d’ailleurs, le Gartner hype cycle le place en 2014 sur la pente descendante qui va plonger dans le ravin de la désillusion. J’en déduis que c’est le bon moment pour les bibliothèques de commencer à s’y intéresser sérieusement  – mais non, pas parce que les bibliothèques ne s’intéressent qu’à ce qui est dépassé, mais parce qu’on commence à voir au-delà du « buzz » pour se diriger vers le plateau de la stabilité.

En tout cas, c’est le moment que j’ai choisi pour ma part pour lancer une veille sur le sujet. D’avance je sollicite l’indulgence des éventuels lecteurs du Figoblog, ce travail étant rétrospectif et réalisé dans un temps limité. Si vous avez des critiques ou des références intéressantes que j’aurais loupées, n’hésitez pas à les mentionner en commentaire.

D’abord quelques éléments de définition (vous pouvez aussi lire Wikipédia) : le big data se caractérise par la règle des 3 V : volume, vélocité, variété. On parle de masses énormes de données (de l’ordre du téra ou du péta octet, voire plus) produites dans une temporalité de l’ordre de la seconde et qui peuvent être de toute sorte : structurées ou non, du texte, de l’image, du mail, n’importe quoi. L’exemple emblématique c’est Twitter qui génère 7 téra-octets de données par jour (toujours selon Wikipédia).

A cause de ces 3 V, les données en questions ne sont pas manipulables avec des outils classiques comme les bases de données relationnelles. Et ce d’autant que l’enjeu est de les exploiter en temps réel (l’exemple typique étant l’analyse des données de la bourse par les traders, où tout peut se jouer dans une nanoseconde). Des outils spécifiques ont donc été créés pour permettre de les stocker et de paralléliser les requêtes, le plus connu étant sans doute le framework Hadoop.

Pour savoir en quoi cela peut nous intéresser, nous bibliothécaires, je vous invite à lire par exemple cette introduction de base au big data sur le site de l’ALA (2013) ou à feuilleter ce diaporama de la Library of Congress (2012). Si vous avez un peu plus de temps, un cours en ligne (environ 1h, 2013) est disponible sur le site Digitization 101 (sur lequel je n’avais pas mis les pieds depuis une éternité, ça fait plaisir de retrouver Jill en vidéo !) Vous allez me dire que je ne vous propose que des vieux trucs en anglais… alors vous pouvez tenter les vidéos du colloque « Quelles stratégies de recherche face à la nouvelle massification des données » organisé par l’ADBU en décembre 2014. Cependant, on y trouve plutôt un panorama des enjeux stratégiques que des explications ou solutions techniques.

Pour synthétiser, j’identifie aujourd’hui trois pistes de réflexion pour les bibliothèques.

La première réside dans le fait que les « data » sont de plus en plus un objet que les bibliothèques de recherche en particulier vont être amenées à collecter et conserver, en tant que produit du travail des chercheurs, au même titre qu’on le faisait auparavant pour leur production documentaire imprimée puis numérique (articles, thèses, etc.). Or ces données ont des caractéristiques différentes des documents : elles se présentent sous la forme de flux et non de stock (« data is a lifecycle » ) et nécessitent des outils d’analyse pour pouvoir être utilisées.
Un exemple d’application de ces réflexions à la bibliothèque de l’Université de San Diego est détaillé dans cette vidéo de 30 mn (déc. 2013) :

Deuxième piste de réflexion : l’utilisation du big data pour analyser les statistiques de consultation des bibliothèques en vue de fournir de nouveaux services aux usagers ou aux bibliothécaires. C’est ce que fait le réseau des bibliothèques de Singapour : un réseau de bibliothèques publiques qui a développé l’utilisation du big data pour analyser les statistiques des prêts en lien avec les données bibliographiques, et ainsi proposer à ses usagers des recommandations.
Cette technologie est aussi utilisée pour gérer la politique d’acquisition en prenant en compte des données telles que le profil sociologique des lecteurs qui fréquentent chaque bibliothèque du réseau, les contraintes de place et le taux de rotation des collections.
L’article présente des développements intéressants sur la méthodologie de mise en place « des » projets big data : en effet, chaque application big data pour un usage particulier est perçue comme un projet à part entière, avec son équipe propre qui travaille sur le profilage des données à utiliser.

Enfin, la troisième piste c’est l’évolution des usages des chercheurs. Je suis tombée un peu par hasard sur ce compte-rendu d’une journée d’étude tenue par des sociologues à la British Library (2013) qui me semble bien illustrer le problème. Dans certaines disciplines, notamment en sciences humaines, l’enjeu de l’exploitation des collections par les chercheurs est en train de se déplacer : ils ne veulent plus « lire » le contenu des documents mais exploiter de façon globale la collection et son organisation par les bibliothécaires, qui devient signifiante en tant que telle. Savoir combien de documents concernant tel ou tel sujet ont été publiés entre telle ou telle date, combien d’occurrences du nom d’une personne, d’un lieu ou d’un concept apparaissent dans un corpus donné deviennent des clefs de recherche aussi intéressantes que ce qu’on pourrait apprendre en dépouillant dans le détail ces documents ou ces corpus.
Dès lors, la question va être de savoir si les bibliothèques seront capables d’offrir aux chercheurs un service de big data sur les collections qu’elles conservent : leur permettre de définir leur propre corpus, leurs critères et d’appliquer des outils d’analyse pour extraire de nouvelles informations à partir des données.

Ayant eu récemment le plaisir de rouvrir le dossier Archives de l’Internet, j’ai enfin réussi à entrevoir l’étape qui prendra la suite de la vision que j’avais eue en 2009 lors de la journée IIPC. Il me manquait alors l’idée que les outils qui permettraient d’étudier cette collection ne se limiteraient pas à la restituer telle quelle ou à l’indexer en plein texte, mais nécessiteraient de la triturer sous tous les angles en extrayant, autant que possible, les data. Si dans les archives du Web il y a de la donnée structurée (par exemple celle qui serait issue du Web de données…) cela pourrait bien être un atout de premier plan. Je pense que j’aurai l’occasion de creuser cette idée dans les mois à venir.

Je vais conclure cette réflexion avec cet article récent sur le big data en France (via GFII) qui s’inquiète de ne pas le voir décoller. On pourra aussi utilement feuilleter la feuille de route big data du ministère de l’Économie pour achever de se convaincre que les bibliothèques françaises ont encore quelques années lumières à parcourir avant d’apparaître dans le paysage. Mais ce seront des années intéressantes.

Un dernier lien à ne cliquer que si vous êtes un geek hardcore, trouvé sur le profil twitter de Got que je remercie comme d’habitude pour les discussions sur le canapé.

Réflexion autour de Bibframe et la formation au Web sémantique

Je n’avais jamais eu le temps de me pencher véritablement sur Bibframe, ce « format » développé par la bibliothèque du congrès dans le cadre de sa transition bibliographique, avec pour objectif annoncé de « remplacer les formats MARC ». J’ai pu récemment réparer ce tort grâce à une étude d’une collègue de la BnF (merci Suzanne) suivie d’une très riche discussion avec plusieurs autres collègues (privilège des grandes maisons !)

Au départ, l’idée de Bibframe nous a laissés plutôt songeurs. Pour commencer, peut-on vraiment parler de « format » ? Naturellement, entre gens habitués depuis plusieurs années à manipuler des vocabulaires RDF et des triplets, nous avons plutôt employé le terme de « modèle ». Or, ce modèle est assez troublant. Sans se raccrocher explicitement à d’autres modèles/vocabulaires comme FRBR ou Dublin Core, il ne paraît pas non plus incompatible avec eux.
En termes d’usage, difficile également d’avoir les idées claires : Bibframe serait-il un « format » de production ? Dans ce cas il ne paraît pas assez détaillé. Un « format » d’échange ? Mais alors pourquoi n’avoir pas privilégié un vocabulaire existant et déjà bien implanté, comme le Dublin Core… Serait-il alors un « format » destiné principalement à transformer en graphe des notices MARC existantes ? Hypothèse peut-être la plus plausible, mais la souplesse du modèle est telle qu’il permettrait de le faire de mille façons différentes.
Au terme de la discussion, Bibframe ne nous semblait pas avoir vraiment de sens dans une perspective technique. Rien de ce qui est fait dans Bibframe ne semble impossible à faire en combinant des vocabulaires existants comme par exemple dans le modèle de données de data.bnf.fr. On a donc l’impression d’avoir affaire au énième standard qui vient se surajouter à tous les autres pour essayer de les réconcilier… et ne fait que créer une nouvelle couche de complexité (cf cette fameuse BD).

Cependant, en y réfléchissant en résonance avec divers événements, j’ai commencé à regarder les choses autrement.

D’abord, il y a eu Semweb.pro, le mois dernier, et la conférence de clôture de Phil Archer. Dans celle-ci, il a émis l’idée que l’important à transmettre à nos développeurs et autres professionnels n’était pas « faites du Web sémantique » car dans la plupart des cas, ils n’avaient en fait pas besoin du niveau de complexité qui est associé à cette technologie. Pour, lui il suffit dans la plupart des cas de se limiter à trois choses :
– attribuer des URI,
– penser en graphe,
– faire du JSON-LD (cette sérialisation très simple de RDF semble être la meilleure promesse d’adoption par les développeurs depuis l’invention du Web sémantique).
Alors ils feraient du Web sémantique sans y penser, comme Monsieur Jourdain faisait de la prose.

Ensuite, j’ai participé le 26 novembre à la 2e saison de la formation du CNFPT « les catalogues au défi du Web ». Au cours des différentes discussions, notamment la très intéressante table ronde de l’après-midi, je réfléchissais au fait qu’il ne serait ni possible, ni utile de former tous les catalogueurs ou tous les bibliothécaires au Web sémantique.
Je me suis souvenue qu’à l’époque où j’ai fait l’ENSSIB, nous avions des cours sur la modélisation des bases de données relationnelles et sur le requêtage SQL. A part pour les tordus dans mon genre qui ont besoin de comprendre comment fonctionnent les choses sous le capot, cela n’avait aucun intérêt. Difficile de placer le curseur de l’apprentissage technologique pour des gens qui n’auront pas à pratiquer au quotidien… C’était ce qu’on appelait dans le temps « le niveau technico-stratégique » : le niveau de base de connaissance technique qui permet de comprendre et donc de décider. Mais tout le monde n’en a pas besoin.

En effet, après avoir déployé pas mal d’énergie à essayer de former des bibliothécaires au Web sémantique (on a même écrit un bouquin, c’est dire) je suis aujourd’hui convaincue que la plupart d’entre eux peuvent vivre très confortablement sans savoir ce qu’est le Web sémantique ou comment ça marche. Par contre, ils manipuleront et pour certains, créeront de la donnée en RDF, mais façon M. Jourdain, sans en avoir conscience.
Finalement, seuls les modélisateurs de données ont vraiment besoin de connaître et comprendre en détail le Web sémantique et ils sont assez peu nombreux. D’ailleurs, cela fait peu de différence avec la situation antérieure : combien de catalogueurs savent qu’en fait de MARC, il produisent en réalité de l’ISO 2709 stocké dans les tables d’une base de données relationnelle ?
Pour revenir à Bibframe, je pense qu’on pourrait interpréter de cette façon le besoin d’avoir un « format » pour remplacer MARC.
Si on souhaite que les catalogueurs et les développeurs de SIGB (ces deux groupes en priorité) manipulent des URI et des triplets sans avoir besoin d’une formation extensive à RDF, SPARQL, OWL etc., et sans même avoir besoin de maîtriser les 5 vocabulaires de base du Web sémantique, nous avons besoin d’un outil (appelons-le « format ») qui permette d’expliquer de manière simple le nouveau modèle des données bibliographiques. Nous avons besoin qu’il soit suffisamment homogène et cohérent pour qu’on puisse expliquer ce format, uniquement ce format, et que dans la phase de transition cela permette aux catalogueurs et aux développeurs de SIGB d’acquérir une maîtrise des données suffisante pour les tâches qu’ils ont à effectuer. Enfin, nous avons besoin que ce « format » ait un nom afin de pouvoir faire passer aux managers des bibliothèques et aux décideurs un message simple : « on va remplacer MARC par X ».

Alors, pourquoi pas Bibframe ?
Bibframe est un outil qui est déjà associé à la transition bibliographique et à l’idée qu’il y aura un « après-MARC » que l’on doit commencer à construire dans les bibliothèques. Il est suffisamment souple pour être compatible avec les anciens formats (MARC aux différents parfums) et les nouveaux modèles (FRBR & Co). Bien sûr il manque encore pas mal de choses dans Bibframe (rien n’est fourni, par exemple, pour décrire les autorités) mais on pourrait le compléter ou l’étendre, l’adapter à nos besoins, en faire un profil français, voire établir ses correspondances avec d’autres vocabulaires du Web sémantique que nous utilisons par ailleurs.

Bibframe n’est en fait pas un format mais un « cadre » (framework, comme son nom l’indique) permettant d’accompagner la transition vers le Web sémantique pour les bibliothèques.
A l’heure où nous entamons en France notre propre transition bibliographique nationale, nous aurons dans doute également besoin d’un outil qui serve de support à la formation des producteurs de données et des développeurs, et qui soit plus simple que la machine de guerre Web sémantique : des URI, un graphe, une sérialisation simple.
Je ne sais pas si Bibframe sera cet outil mais on pourrait en tout cas s’inspirer de la démarche.

Faisons-le arriver !

Et voilà, après un an de travail et même plusieurs années de préparation, la journée satellite de l’IFLA sur le Web de données en bibliothèque est passée.

Nous avions intitulé cette journée « Let’s make it happen! » (titre que les collègues de la BnF ont fort heureusement traduit par « du projet à la pratique » et pas « faisons-le arriver » – la traduction est un art… ;-) parce que nous voulions que cette journée aborde le Web de données sous l’angle des mises en œuvre concrètes et non de la recherche ou de l’expérimentation.

Les participants ont bien joué le jeu, en choisissant de présenter leurs réalisations du point de vue de la gestion de projet (dans le cas de data.bnf.fr) ou du retour d’expérience (avec TEL, la NDL du Japon ou encore Electre).
J’ai trouvé très intéressante l’analyse proposée par Lukas Koster et Rurik Greenall, qui ont détaillé de façon plutôt abstraite les différents chemins qu’il est possible d’emprunter pour implémenter un projet de Web de données en bibliothèque, du do-it-yourself à l’utilisation de logiciels commerciaux en passant par l’open-source.
La question des autorités était omniprésente, de même que celle des vocabulaires qui ont été abordés sous différents angles (les créer, les maintenir, les utiliser) lors de la session de l’après-midi.

En parallèle de la conférence, nous avions également organisé deux ateliers, l’un destiné aux débutants et l’autre aux managers, afin de permettre des échanges plus interactifs.
Le tutoriel « débutants », animé par Ted Fons d’OCLC, a fait apparaître le fait que trois ingrédients sont indispensables pour faire du Web de données en bibliothèque : des personnes compétentes, des données et des outils. Si on n’a pas au moins deux des trois, mieux vaut s’abstenir !
Pour ma part j’animais avec Gildas Illien le tutoriel pour les managers. Nous avons essayé de donner quelques clefs pour susciter l’adhésion à un tel projet à l’intérieur d’une organisation, aussi bien auprès d’équipes opérationnelles comme les catalogueurs qu’auprès des décideurs. Les discussions ont été nourries et fort riches.

Enfin, j’avais invité plusieurs fournisseurs de logiciels et de services à clore la journée en partageant autour d’une table ronde ce que signifiait pour eux faire du Web de données en bibliothèque.
Pour Shlomo Sanders, d’Ex-Libris, la recette consiste à engager les développements internes de leurs logiciels dans la direction du Web sémantique, par exemple en utilisant systématiquement des URI. Pour Richard Wallis, d’OCLC, il s’agit de passer d’une logique orientée notice ou document à une logique qui s’appuie sur les « entités » (personnes, œuvres, concepts…). Enfin Nicolas Chauvat de Logilab a décrit ce que le Web pouvait apporter aux bibliothèques en termes de scalabilité et d’extensibilité.

Au final une journée réussie, si l’on en juge par les retours des participants. Les articles et résumés sont déjà en ligne, les présentations et captations vidéo des interventions devraient les rejoindre prochainement.
Un grand merci à tous ceux qui ont participé à l’organisation d’une façon ou d’une autre et à tous les participants qui étaient nombreux au rendez-vous.

Cette semaine nous poursuivons nos travaux à l’IFLA avec, en ce qui me concerne plus particulièrement, deux réunions du Semantic Web SIG :
– lundi à 15h, un « business meeting » c’est-à-dire une réunion de travail. Comme les réunions des standing committee, celle-ci est ouverte à toutes les personnes intéressées par l’avenir du groupe, ses activités… Nous évoquerons en particulier la nécessité de nommer un nouveau responsable de groupe, puisque je vais passer la main.
– Mardi à 16h c’est la « session ouverte » cette fois : au menu, discussions en petits groupes sur des sujets liés au Web de données et au Web sémantique, un peu comme l’année dernière.

J’espère que vous serez nombreux à venir parmi les 1000 français qui participent à ce congrès lyonnais !

IFLA satellite meeting : Linked Data in Libraries

Cet été, le 14 août, aura lieu à la BnF une conférence satellite de l’IFLA intitulée Linked Data in Libraries: Let’s make it happen! Elle est organisée par la section Information Technology de l’IFLA et le groupe d’intérêt spécialisé sur le web sémantique, le SWSIG dont je suis responsable.

L’appel à communication est encore ouvert pour une semaine. Les inscriptions sont aussi ouvertes, pour ceux qui sont assez mordus pour avoir envie de s’inscrire avant même de connaître le programme…

La conférence est organisée en deux sessions parallèles : une session de présentations, articles et tables rondes, et une session dédiée à des tutoriels ou ateliers.
En ce qui concerne la conférence elle-même, je ne peux pas en dire plus pour l’instant, nous attendons les (nombreuses, j’espère) soumissions d’articles.
L’idée des ateliers est de permettre à un public peu familier de ces notions (Web sémantique, Linked Data, RDF etc.) d’assister à cette conférence dans un esprit de découverte. Les ateliers sont conçus pour cibler des publics particuliers : un atelier stratégique pour les managers et décideurs, et pour les métadonneurs pratiquants, un atelier d’initiation et un atelier d’approfondissement. En toute logique, on vous invite donc à vous inscrire à un seul des trois ateliers, suivant votre profil.

Il n’est nullement obligatoire de participer au congrès de l’IFLA lui-même (qui a lieu la semaine suivante à Lyon) pour participer à cette conférence-ci donc n’hésitez pas à vous inscrire.
Dernière précision : la conférence, bien qu’ayant lieu à Paris, se déroulera intégralement en anglais, sans traduction simultanée.

Plus d’info sur le site de la conférence et le site du SWSIG.

Le Web sémantique en bibliothèque [texte imprimé]

Je trouve enfin le temps d’annoncer ici la sortie du livre Le Web sémantique en bibliothèque que j’ai rédigé avec la complicité d’Antoine Isaac et Gautier Poupeau. Oui, un livre en papier, je vais enfin avoir ma notice d’autorité dans le catalogue de la BnF !

Couverture

D’abord c’est une super excuse pour le ralentissement des publications sur ce blog : pensez, quand on est occupé à écrire un livre, c’est plus compliqué de garder le rythme du blog en parallèle. Au final, tout y est condensé en 171 pages, disponibles également au format numérique.

Vous y trouverez une synthèse de tout ce que nous racontons régulièrement dans les formations et les journées d’étude, augmentée de quatre cas pratiques, tirés de notre expérience personnelle, qui vous aideront à conduire votre propre projet de Web sémantique en bibliothèque (ou dans tout autre établissement culturel ou non d’ailleurs, l’intérêt de l’ouvrage n’étant pas limité aux bibliothèques mais pouvant toucher les professionnels de l’information en général).

Un petit mot enfin sur les coulisses de l’élaboration de cet ouvrage : l’idée m’en est venue lors d’un salon du livre en discutant avec Martine Poulain, qui dirige la collection Bibliothèques du Cercle de la librairie et que je remercie d’avoir cru en ce projet, même lorsqu’il m’a fallu plus d’un an pour trouver le temps d’en poser la première ligne.
J’ai rédigé une grande partie du texte qui constitue cet ouvrage à partir du matériau brut que constituaient nos notes, articles, présentations etc. à tous les trois. Les idées qu’il contient n’auraient jamais pu voir le jour sans les longues conversations que j’ai pu avoir avec mes deux co-auteurs, qui ont également relu le tout (plusieurs fois !) avec l’œil scrutateur qui assure une critique constructive.
Je remercie enfin mes différents interlocuteurs chez Electre pour avoir assuré dans un temps record une publication d’une grande qualité, malgré la technicité du contenu, et pour avoir veillé au moindre détail (jusqu’à la couleur figue de la couverture !)

Bonne lecture…

I want you… For IFLA 2014

Comme vous le savez (sinon c’est que vous ne suivez pas, là, quand même !) le congrès de l’IFLA aura lieu l’année prochaine en France, à Lyon. Un congrès réussi se mesure au nombre de participants du pays organisateur : imaginez, Singapour c’est quand même tout petit et il y avait 800 bibliothécaires singapouriens inscrits au congrès ! 800 ! Alors il va falloir faire au moins aussi bien.

Pour vous motiver à participer à cet événement incroyable voici 10 bonnes raisons de participer à l’IFLA à Lyon en 2014.

1) Parce que vous n’avez jamais vu 3000 bibliothécaires réunis en un seul lieu. C’est un peu flippant mais ça vaut le détour, quand même.
2) Parce que vous n’avez jamais vu 100 bibliothécaires en folie danser sur Abba. Si vous l’avez déjà vu, vous rêvez d’y avoir droit encore une fois, avouez-le.
3) Pour se faire des amis dans les 7 langues officielles des 150 pays de l’IFLA.
4) Parce que quel que soit votre sujet de prédilection, il y a toujours quelque chose d’intéressant qui se passe à l’IFLA. Avec un peu de chance vous pouvez même présenter votre propre projet dans l’une des sessions du congrès, en répondant à l’un des appels à communication qui vont fleurir cet hiver.
5) Parce que c’est pas tous les jours que l’IFLA a lieu dans votre pays, ne laissez pas passer cette chance (la dernière fois c’était en 1989 et il n’y a même pas un site Web pour en témoigner).
6) Pour manger gratos – c’est un peu la débrouille mais on y arrive toujours.
7) Parce que de toute façon en août vous vous ennuyez, votre B.U. est fermée et les vacances sont beaucoup trop longues.
8) Pour pouvoir vous glisser dans les réunions des sections qui vous intéressent, et peut-être envisager d’en devenir membre un jour.
9) Parce que c’est à Lyon et qu’il y aura donc du saucisson brioché, de la cervelle de canut, du tablier de sapeur, des quenelles et d’autres délices décadents que vous pourrez agréablement digérer pendant votre sieste au parc de la Tête d’Or (tout en vous efforçant de faire abstraction de votre mauvaise conscience à l’évocation des conférences passionnantes que vous êtes en train de louper).
10) Pour faire Cycling4Libs en Vélov.

Et en prime, 5 bonnes raisons de devenir volontaire (on cherche encore 200 volontaires alors allez, on se motive !)

1) Pour assister aux conférences gratos.
2) Pour avoir un joli tee-shirt (gratos).
3) Pour apprendre à dire « saucisson brioché » et « quenelles de saumon » dans les 6 autres langues officielles de l’IFLA.
4) Pour manger gratos encore plus facilement que les congressistes.
5) Pour avoir le privilège de découvrir l’ambiance unique de l’hébergement en cité universitaire en plein mois d’août.

Retrouvez plein d’infos utiles sur le congrès de Lyon 2014 sur le site du CFI-bd.

Le Web sémantique à l’IFLA, saison 2013

J’ai déjà parlé de notre rencontre satellite avant le congrès de l’IFLA à Singapour, mais comme les années précédentes, le congrès lui-même a aussi été l’occasion de parler Web sémantique et Web de données.

Ce sujet était à l’honneur dans la session de l’UNIMARC Core activity dont les communications sont en ligne dans le nouvel entrepôt d’articles de l’IFLA.

J’ai pour ma part participé à deux événements récurrents : la table ronde Linked Data organisée par Richard Wallis d’OCLC, et la réunion du groupe d’intérêt spécialisé sur le Web sémantique (SWSIG) dont je suis responsable.

Cette année, pour la réunion du SWSIG, nous avions décidé de ne pas reproduire l’expérience des années passées qui avait consisté à enchaîner une série de « lightning talks » (présentations éclair) rendant compte de l’actualité des bibliothèques dans le domaine du Web sémantique. Deux raisons à ce choix : tout d’abord, cette actualité devient presque trop foisonnante pour en rendre compte de cette manière sans faire l’impasse sur un certain nombre de projets intéressants. Par ailleurs, ces présentations très courtes étaient finalement difficiles à digérer pour les participants, qui étaient demandeurs d’une expérience plus interactive.

J’ai donc organisé la séance, avec l’aide de plusieurs complices, autour de 4 groupes de discussion sur des sujets particuliers : les standards et les conversions, les liens et la coopération, l’utilisation et la réutilisation des données, et les outils et recettes. Sur l’inspiration du moment (ou presque ;-) un cinquième groupe a été créé, destiné à offrir une introduction aux débutants ou en tout cas, aux personnes qui ne se sentaient pas suffisamment à l’aise avec le sujet pour rejoindre l’un des autres groupes.

C’est moi qui ai animé ce dernier groupe qui s’est avéré le plus nombreux. Les questions posées dans les autres groupes, dont on peut lire le compte-rendu dans le rapport en ligne, étaient apparemment tout à fait passionnantes. Pour ma part, j’étais contente d’engager le dialogue avec les soi-disant « débutants », dialogue que j’ai commencé en leur demandant ce qu’ils faisaient là !
Trois profils ont peu à peu émergé :
– les managers, qui entendent parler du Web sémantique dans leurs équipes mais ont besoin d’en comprendre mieux l’importance stratégique,
– les affamés, qui ont déjà lu tout ce qu’ils trouvaient sur le sujet mais ont besoin de plus pour comprendre,
– les curieux, qui se disaient que peut-être cette session était l’occasion d’enfin consacrer un peu de temps à un sujet dont ils avaient seulement vaguement entendu parler jusque là.
Ceci démontre, s’il était besoin, qu’il reste important d’aborder ces sujets à l’IFLA. Certes les experts n’ont pas besoin de ce genre de conférences (ils sont tous à DCMI la semaine prochaine à Lisbonne !) Cependant, elles sont essentielles pour permettre aux personnes qui ne fréquentent pas les rencontres plus techniques d’avoir un aperçu tangible des évolutions en cours et de leur importance stratégique.

L’année prochaine, nous serons au rendez-vous avec ces événements récurrents, mais aussi comme je l’indiquais dans mon précédent billet, avec une conférence satellite qui se déroulera à Paris, à la BnF, le 14 août. A ce sujet le teasing continue… Plus d’information très bientôt !