Papoter avec Molière ?

Utiliser la création artistique pour relever un défi scientifique et technique tout en nous plaçant face à des interrogations très humaines, tel était l’objectif du projet Litté_bot, financé par l’EUR ArTec. Le questionnement de départ peut paraître simple : si on entraînait une IA à partir des textes de Molière, pourrait-on engager virtuellement une conversation avec le dramaturge ou un de ses personnages ? Dans les faits, la création d’un agent conversationnel – ou chatbot – capable de soutenir un tel échange pose beaucoup de questions, parmi lesquelles la volumétrie (insuffisante !) du corpus de départ, l’imitation de la langue du XVIIe siècle, l’équilibre à trouver entre système ouvert ou fermé, ou encore le choix du bon modèle d’entraînement.

Finalement, c’est le personnage de Dom Juan qui a été mis en scène : vous pouvez vous entretenir avec lui dans le BOT°PHONE, un dispositif placé à la sortie de l’exposition Molière sur le site Richelieu de la BnF jusqu’au 15 janvier.

Mais si vous préférez le tester depuis votre salon, vous pouvez également accéder au dispositif expérimental en ligne.

Au final, ce qui est sans doute le plus fascinant, c’est d’écouter Rocio Berenguer, l’artiste qui est à l’origine du dispositif, expliquer comment elle a imaginé l’expérience et en donner son interprétation : « dans n’importe quelle situation, n’importe quel échange, en tant qu’humains, on va générer du sens. (…) C’est une capacité magnifique, une puissance à laquelle on ne donne pas assez d’importance. En fait, j’aimerais que l’échange avec une machine nous permette de nous rendre compte de la puissance de nos capacités cognitives à nous. »

Je me suis intéressée au projet dans le cadre de la feuille de route IA de la BnF, qui pose la question du rapport entre l’humain et la machine comme une problématique centrale. Pour en savoir plus, notamment sur les enjeux techniques du projet, vous pouvez consulter l’article sur le carnet Hypothèse de la BnF, l’interview de Rocio Berenguer dans L’ADN, ou encore regarder la présentation d’Anna Pappa pour AI4LAM. Merci à Arnaud L. pour les références :-)

Le grenier

Oh trop fou ! Ce ne serait pas la clef de mon blog, coincée là entre une soutenance de thèse, une pandémie et un gros tas de bazar ? Elle est un peu rouillée, je me demande si elle marche toujours…

(Essuie la clef avec son écharpe et la glisse dans la serrure.)

Bah ! Pouah ! Kof kof kof ! Y en a de la poussière là-dedans !

(Écarte quelques toiles d’araignées et attrape le premier papier qui traîne.)

Oh ! Trop drôle, mon dernier billet ! Je parlais de la conférence Fantastic futures à Stanford… je faisais un teasing de dingue, j’y croyais vraiment, que j’allais organiser une conférence internationale en décembre 2020, ah ah ! Bon au final elle a bien eu lieu… avec un an de retard. Et puis c’était pas vraiment comme les conférences du monde d’avant, il faut bien le reconnaître… mais c’était chouette. Il nous reste les vidéos et les supports. Et le super article de Céline dans le BBF. Bon c’est sûr, plein de gens n’ont pas pu venir à cause de la crise, tout ça, mais on va jouer les prolongations pendant les community calls d’ai4lam les 15 février et 15 mars…

Tiens c’est quoi ce truc ?

(Ouvre un grand coffre rempli de paperasse.)

Oh !!! Ma thèse ! Enfin je veux dire, mon doctorat sur travaux. « Le numérique en bibliothèque : naissance d’un patrimoine : l’exemple de la Bibliothèque nationale de France (1997-2019). » Rien que ça. Genre, il y a deux fois deux points dans titre, je ne doute de rien, moi… Heureusement qu’ils n’interdisent pas les titres à rallonge pour mettre en ligne dans Hal, sinon j’aurais l’air maligne ! N’empêche, c’était sympa cette histoire d’émotions patrimoniales. J’en avais même fait un article dans la Revue de la BnF. Et puis la soutenance… une vraie soutenance dans la salle Léopold Delisle de l’Ecole des chartes, en présentiel comme on dit maintenant. Et sans masques ! On a revécu toute l’histoire de la BnF sur les 25 dernières années… d’ailleurs ça a atterri dans le livre sur l’Histoire de la Bibliothèque nationale de France qui sort cette année à l’occasion de la réouverture de Richelieu. Que des bons souvenirs, quoi.

(Se remet à fouiller à droite et à gauche.)

Il doit bien y avoir encore quelques trucs intéressants là-dedans… L’ouverture du DataLab en octobre 2021… Le Schéma numérique 2020 de la BnF… La recette du pain d’épices… Mais où est ce fichu… Ah ! Le voilà ! Il n’est pas beau, ce numéro de Chroniques spécial intelligence artificielle ? Si j’avais su il y a deux ans que cette technologie prendrait une telle place dans ma vie… En tout cas, les illustrations sont magiques et il contient un joli portrait professionnel de votre serviteuse. Cela fait quand même plus sérieux que le selfie pris dans mon bureau pour illustrer mon interview sur Europeana Pro ! Ah, le plaisir de fouiller dans les greniers pour retrouver de vieilles photos ! Il n’y a rien de tel.

Tiens, voilà autre chose…

(S’approche d’un mur couvert de post-its à moitié décollés.)

Mes challenges personnels pour 2022, tout un programme. « Arrêter de fumer… Publier ma thèse… Voyager au Danemark ou en Irlande… » T’as raison, l’espoir fait vivre. Et tiens, « Ecrire sur mon blog » ! Eh bien voilà au moins une case que je peux cocher. Restons positifs :-) (mais pas au Covid >_<)

Qu’est-ce que le numérique ?

Cette année, mon été est particulièrement studieux. J’étais donc au bord de la piscine, en train de lire le petit opus de Pierre Mounier Les humanités numériques paru en 2018 à l’issue du séminaire organisé à l’EHESS avec Aurélien Berra, quand je suis tombée sur cette phrase qu’il place sous la plume de Milad Doueihi : « le numérique se fait culture et modifie (…) notre rapport au monde et aux autres hommes, dans toutes ses dimensions ».

Comme cela faisait plusieurs jours que je réfléchissais à ce que pourrait être une définition du numérique, dans le contexte des bibliothèques en général et de la mienne en particulier, je me suis dit que j’allais partager ici cette pensée estivale.

On trouve une pléthore d’auteurs qui, depuis le début des années 2000 environ (je prends si vous avez des références plus anciennes) annoncent que le « numérique » est une révolution dont l’ampleur est comparable à celle de Gutenberg, voire plus importante. Ces auteurs analysent cette évolution sur différents plans : documentaire, scientifique, social… mais ce que je trouve intéressant ici, c’est l’idée d’un impact global embrassant et dépassant tous ces aspects. Il est un peu vain de chercher à définir si l’émergence du livre imprimé – et son impact sur la diffusion des connaissances, des idées et d’une façon plus générale, sur l’évolution des sociétés occidentales – a été « plus » ou « moins » importante que ne l’est celle du « numérique ». Ce qui est intéressant, c’est de reconnaître cet impact culturel, au sens large du mot culture qui englobe toutes les pratiques, connaissances, normes et traditions qui sous-tendent globalement le fonctionnement de la société.

Vu comme une « culture » qui modifie notre rapport au monde, le « numérique » embrasse plusieurs aspects, sans se confondre avec eux. Ils en sont plutôt, à mon avis, des composantes.

Tout d’abord, l’informatique ou plutôt, la micro-informatique telle qu’elle a commencé à conquérir les foyers et les bureaux depuis les années 1980, pour aboutir aujourd’hui dans tous les terminaux « mobiles » (smartphones, etc.) et les objets connectés (montres etc.) qui ne feront que se développer encore davantage. Dans le contexte des bibliothèques et de l’édition, on a pu parler également « d’électronique ». Il s’agit d’une technologie, qui se répand, se perfectionne et se développe, condition nécessaire à l’émergence d’une société numérique, comme la machine à vapeur a été nécessaire à l’émergence d’une société industrielle.

Ensuite, Internet et le web. Les deux ne se recouvrent pas mais le premier est nécessaire au fonctionnement du second, et le second est et a été l’instrument de la démocratisation du premier. Pour qu’une véritable culture numérique puisse émerger, il faut ajouter un autre ingrédient, survenu quelques années après la création du web : la connectivité permanente, partout et tout le temps, pour un coût devenu aussi négligeable – ou en tout cas intégré à nos vies – que l’électricité. Au point qu’être connecté devient aussi indispensable et naturel qu’avoir le chauffage ou la lumière.

Enfin, il y a le « digital » et le « virtuel », qui ne sont pas seulement des mots, des presque synonymes, mais témoignent d’une réalité : l’appropriation du numérique dans certaines pratiques, usages et expériences de la vie.

Entre « digital » et « numérique », il y a davantage qu’un problème d’anglicisme : l’étymologie confère à « digital » une proximité avec la main, les doigts, et donc la dimension artisanale du numérique : quelque chose que chaque individu peut exercer avec ses mains, un outil du quotidien. C’est aussi cette acception qui à mon avis prévaut derrière la « transformation digitale » des entreprises (terme banni depuis longtemps, s’il a jamais été utilisé, dans les bibliothèques). Ainsi, le sens originel de « numérique » fait référence à la dimension mathématique de l’informatique (les zéros et les uns) et se traduirait par « computing » en anglais, tandis que le « digital » anglo-saxon correspondrait à notre « numérique » au sens large. Ce qui ne nous dit pas comment traduire en anglais ce « digital » au sens restreint de « avec les doigts », que l’on utilise parfois en français… Si quelqu’un a une idée !

Quant à « virtuel », il témoigne de l’idée que le numérique a fait émerger dans nos vies des dimensions immatérielles, qui paraissent réelles à nos sens et à nos cerveaux, et même à nos émotions, tout en étant totalement dématérialisées. Prenons par exemple la « réalité virtuelle » : elle n’a rien d’une réalité, il s’agit plutôt d’une sorte de cinéma interactif très performant, qui parvient par l’immersion des sens à nous approcher beaucoup plus près de l’illusion de la réalité qu’un écran en 2 dimensions ou même équipé de lunettes 3D. Le « virtuel » nous immerge dans un monde qui ressemble au nôtre mais est construit de toutes pièces. Si on s’intéresse aux réseaux sociaux, où émergent des dimensions virtuelles liées aux émotions (comme l’amitié virtuelle entre deux personnes qui ne se sont jamais rencontrées « IRL »), le monde « virtuel » apparaît même comme un prolongement ou une extension de celui que nous expérimentons physiquement et spatialement, mais qui, dans les interactions sociales qu’il suscite, est tout aussi « réel ». Ce monde virtuel est aussi un monde d’infini possibles, de potentialités illimitées parce qu’elles sont libérées des contraintes du monde physique.

Le numérique c’est donc tout cela : une technologie faite de terminaux et de réseaux, et son appropriation par les humains dans toutes les dimensions : corporelle, émotionnelle et sociale.

Le numérique n’est donc pas qu’une technologie. Pour en revenir à Gutenberg, l’imprimerie à caractères mobiles n’a pas suffi à elle seule à faire émerger une culture de l’écrit. Celle-ci a pris une nouvelle ampleur lorsqu’on a su fabriquer le papier de manière industrielle, pour un coût très bas. Le livre imprimé a permis, in fine, non seulement à presque tout le monde d’apprendre à lire, mais aussi à écrire, avec les doigts. Des infrastructures comme la poste ont permis de véhiculer l’écrit dans le temps et l’espace, jusque dans l’intime de nos vies. La société s’est ainsi transformée pour augmenter encore la disponibilité de l’écrit, et l’écrit a transformé tous les aspects des relations sociales et les règles qui régissent le monde. La question de la « culture numérique » est donc de savoir si on assiste à un changement de la même ampleur, dans un laps de temps beaucoup plus resserré.

Finalement, au vu de cette définition, que faire du « numérique en bibliothèque » ou du numérique patrimonial ? Dans notre profession, nous utilisons parfois le terme « numérique » pour désigner les collections qui partagent cette caractéristique : acquisitions électroniques, documents numérisés, archives du web etc. (notez l’emploi des différents termes…) Il s’agirait donc encore d’une autre acception. Finalement, le « numérique » en bibliothèque est aussi imprécis que le mot « livre » qui recouvre en fait plusieurs réalités : « le livre » au sens de la culture de l’écrit, et « les livres » au sens des collections.

Vers de nouveaux catalogues

 

image

Après un an de travail, le livre Vers de nouveaux catalogues que j’ai dirigé au Cercle de la librairie (collection bibliothèques) est à présent disponible. Je profite de ce billet pour remercier tous les contributeurs, pour la qualité de leurs articles et pour leur réactivité. Grâce à eux, le résultat obtenu est riche, dense et passionnant… Lisez-le !

Pour vous allécher un peu, je vous propose ci-dessous mon introduction à l’ouvrage, qui expose les différents axes qui y sont traités, suivie de sa table des matières.

Introduction : vers de nouveaux catalogues ?

Vers de nouveaux catalogues : voici bien un titre qu’il aurait fallu, à l’heure où nous entreprenons l’écriture de cet ouvrage, doter d’un point d’interrogation. En effet, peut-on parler de « nouveaux » catalogues aujourd’hui, alors que depuis le dernier quart du siècle précédent, les catalogues de bibliothèques n’ont cessé de se réinventer ? Des premières heures de l’informatisation aux OPAC dits de « nouvelle génération », des systèmes intégrés de gestion de bibliothèque (SIGB) aux portails de découverte, le catalogue a endossé au fil du temps plusieurs fonctions. Outil de gestion des collections pour les professionnels, système informatisé permettant d’automatiser les processus métier tels que le catalogage et la circulation des documents, le catalogue est aussi, avant tout, l’interface proposée aux lecteurs pour chercher et trouver les documents et ressources de la bibliothèque.
Évoluant dans différentes directions pour répondre aux besoins et attentes liés à ces rôles multiples, le catalogue ou plutôt, devrait-on dire, les catalogues, présentent aujourd’hui des visages pluriels qu’il serait bien ambitieux de vouloir figer pour dresser le bilan de leur état actuel. Aussi le présent ouvrage ne prétend-il pas proposer une somme de référence sur le sujet, mais plutôt dresser un panorama de ces évolutions dans un contexte en mutation, qui continuera sans doute d’évoluer dans les années à venir.

En effet, l’évolution des catalogues s’inscrit dans un contexte qui est marqué par des tendances longues, liées à des cycles de transformation de leur environnement qui ne sont pas encore achevés.
La première de ces tendances est bien sûr l’irruption du web, qui a transformé les usages aussi bien des lecteurs que des professionnels de l’information et a positionné les catalogues en concurrence avec des outils à la force de frappe technologique incomparable : les moteurs de recherche. Rapidité de réponse, classement des résultats par pertinence, point d’entrée unique pour toutes les recherches, ergonomie simple et intuitive sont devenus des exigences naturelles à la hauteur desquelles le catalogue doit se hisser s’il souhaite continuer à exister en tant que tel. Deux types d’applications, les « OPAC nouvelle génération », apparus vers la fin des années 2000 et les « portails de découverte » au début des années 2010, se sont donné pour objectif de répondre à cette problématique. Un travail approfondi sur l’ergonomie de l’interface de recherche et la qualité du moteur a permis d’améliorer globalement l’expérience de l’utilisateur de ces outils, les rapprochant d’univers devenus familiers à tout internaute.
Les portails de découverte ont également l’ambition de répondre à une autre des tendances de long terme qui affecte les catalogues : la transition d’une partie significative des ressources intéressant les bibliothèques vers le numérique. Entamée dès les années 1990 avec les publications scientifiques, cette évolution n’épargne plus aujourd’hui les bibliothèques publiques, qui construisent pour leurs usagers des offres d’accès à des livres numériques en prêt ou en streaming mais aussi à des plateformes de vidéo à la demande ou de musique numérique. Or ces ressources numériques constituent, dans le domaine du signalement, une véritable révolution. Elles se présentent sous forme de flux continu et non plus avec une périodicité fixe, se décrivent à un niveau de granularité beaucoup plus fin (article, chapitre, plage d’un album de musique…), évoluent même constamment dans leur contenu et dans leur nature si on pense aux sites web. Au début des années 2000, les « portails de recherche fédérée » s’appuyaient sur des technologies d’interopérabilité propres au monde documentaire comme Z39.50, SRU/SRW ou encore OAI-PMH pour interroger simultanément plusieurs bases. Les « portails de découverte » qui leur ont succédé empruntent aux moteurs de recherche des méthodes plus simples et plus fluides. De nouveaux catalogues « dans les nuages » mutualisent les moyens nécessaires pour faire face à ces problématiques et s’appuient sur des bases de connaissances qui proposent des métadonnées préenregistrées pour une partie des ressources numériques.
Face à de tels changements, le monde des bibliothèques s’est également posé la question de l’évolution de son modèle de données, remettant en cause les formats MARC dont les principes remontaient à une informatique bien antérieure au web et cherchant à s’éloigner du carcan de la notice, héritée des catalogues sur fiches. Cette évolution commence en 1998 avec la création au sein de l’IFLA du modèle FRBR, qui propose de s’appuyer sur les besoins des usagers pour déterminer le contenu de la notice bibliographique et définit la notion d’œuvre, entité intellectuelle qui s’affranchit de la matérialité du document. Ce nouveau modèle a également pour effet d’attribuer une importance nouvelle aux données d’autorité, plaçant désormais au cœur de la description bibliographique les entités que sont les auteurs, les œuvres ou les sujets. Il faut cependant attendre 2005 pour voir émerger les prémices d’une évolution des pratiques de catalogage, avec les premiers travaux sur le nouveau code RDA (Ressources : description et accès) destiné à succéder aux règles de catalogage anglo-américaines (AACR2) puis le projet Bibframe de la Bibliothèque du Congrès. L’ensemble de ces évolutions, connu aujourd’hui sous le nom de « transition bibliographique », implique une transformation en profondeur des normes et des pratiques de catalogage, mais aussi des systèmes capables de produire et d’exploiter ces nouvelles données : plus qu’un grand soir du catalogage qui verrait la fin des formats MARC, c’est le début d’une période de mutation qui s’effectuera progressivement sur plusieurs années.

Parmi les bénéfices attendus de la transition bibliographique, celle-ci devrait permettre aux catalogues de s’acclimater plus aisément à la quatrième des tendances longues qui les affecte : l’émergence d’un nouvel environnement technologique de la « data ». Ce nouvel environnement se caractérise par une ouverture juridique (open data) visant à favoriser la réutilisation des données, par une évolution du web intégrant la spécificité des données structurées et liées (linked data ou web de données), par l’émergence de technologies permettant de manipuler en temps réel des masses très importantes de données (big data) et par de nouvelles interfaces alliant élégance graphique et force narrative (data visualisation). Extérieur à l’univers des bibliothèques, ce mouvement présente l’originalité de toucher des problématiques de société qui lui donnent une envergure médiatique très large : transparence de l’information publique, risques liés aux traitements de masse des données personnelles, orchestration de fuites liées à des données sensibles comme les « Panama papers » et data journalisme font la une de l’actualité, amenant la « data » à un niveau de conscience collective face auquel les bibliothèques font figure de nain cherchant à se jucher sur les épaules de géants.
Dans ce contexte, ce ne sont plus tant les catalogues qui comptent que les données qu’ils contiennent : dans un premier temps, les bibliothèques se préoccupent de diffuser leurs données dans ce nouvel environnement, adoptant les standards juridiques (licences ouvertes) et techniques (web de données) qu’il suppose dans l’espoir de permettre à leurs données d’interagir avec celles d’autres communautés et de gagner en visibilité sur web. Ainsi, le catalogue ne cherche plus à imiter l’interface des moteurs de recherche généralistes, mais à pousser ses données vers eux de manière à se rendre visible là où les utilisateurs se trouvent. De manière plus prospective se pose la question de l’utilisation de briques technologiques nouvelles permettant aux bibliothèques de bénéficier des innovations qu’apporte le nouvel environnement de la data : traitements automatisés, machine learning, algorithmes de recommandation, etc. Les catalogues se réinventent en entrepôts ou « hubs » de métadonnées, capables de produire, transformer et traiter en masse des données d’origines variées en vue d’une multiplicité d’usages.

Parler des catalogues aujourd’hui, c’est prendre acte de la diversité des mutations qui les affectent et se propagent par étapes à des rythmes différents. Les portails de découverte n’ont pas fait disparaître le besoin de disposer d’un SIGB pour assurer les fonctions traditionnelles de la bibliothèque ; le web de données n’a pas remplacé les modèles de catalogage partagé basés sur la récupération de notices ; le catalogage en RDA ou en EAD pour les archives et manuscrits devra coexister pendant encore plusieurs années avec les traditionnels formats MARC ; les hubs de métadonnées capables de gérer flux et traitements devront continuer à s’articuler avec des bases de données plus traditionnelles.
Le paysage actuel des catalogues, tel qu’il se dresse à la lecture des contributions au présent ouvrage, voit ces différents systèmes et pratiques évoluer de manières diverses, prenant inspiration dans un environnement technologique extrêmement stimulant, qui favorise les coopérations et l’inventivité et ouvre de nouveaux possibles. Loin de céder à une vision pessimiste des catalogues traditionnels, cœur de métier des bibliothèques menacé de disparition, il laisse espérer l’émergence de « nouveaux catalogues », qui n’en porteront peut-être plus le nom, mais continueront à constituer la plateforme technologique sur laquelle se construit la mission première des bibliothèques : l’accès de tous à la connaissance et aux savoirs.

Table des matières

Vers de nouveaux catalogues ? Propos introductif par Emmanuelle Bermès (Bibliothèque nationale de France)

1) Le catalogue au défi du Web

L’open data, un levier pour l’évolution des catalogues, par Romain Wenz (Service interministériel des archives de France)

Vers un catalogue orienté entités : la FRBRisation des catalogues, par Emmanuelle Bermès (Bibliothèque nationale de France)

Visualiser les données du catalogue, par Raphaëlle Lapôtre (Bibliothèque nationale de France)

2) Réinventer le catalogue aujourd’hui

La transition bibliographique, par Françoise Leresche (Bibliothèque nationale de France)

L’autre catalogue ? Décrire des archives et des manuscrits, par Florent Palluault (Médiathèque François-Mitterrand de Poitiers) et Patrick Latour (Bibliothèque Mazarine)

Un projet Open source, collaboratif et orienté utilisateur en BU : BRISE ES, par Caroline Bruley (Service Commun de Documentation de l’université Jean Monnet, Saint-Etienne)

3) Le catalogue dans son écosystème : une affaire de flux

La constitution et la réutilisation des données entre bibliothèques, par Guillaume Adreani (Le Défenseur des droits)

Flux de données entre éditeurs et bibliothèques: le format ONIX, par Jean-Charles Pajou (Bibliothèque nationale de France)

Atomes crochus : les métadonnées des éditeurs et l’ABES, par Yann Nicolas (Agence Bibliographique de l’Enseignement Supérieur)

4) Outils et systèmes

Portails et catalogues en bibliothèque publique, l’enjeu du numérique, par Guillaume Hatt (Bibliothèque municipale de Grenoble)

Le catalogue dans les nuages : vers un SGB mutualisé, par Sandrine Berthier (Université de Bordeaux)

La donnée : nouvelle perspective pour les bibliothèques, par Gautier Poupeau (Institut national de l’audiovisuel)

La TMA expliquée par la plomberie

Ceux qui ont à gérer une prestation de maintenance (tierce maintenance applicative ou TMA) pour leur catalogue ou leur site Web pourraient se reconnaître dans cette aventure qui démontre que de l’informatique à la plomberie, il n’y a qu’un pas. Ce petit mode d’emploi est directement inspiré de faits réels vécus avec mon plombier.

Épisode 1 : la Hotline
– Allô ? Je vous appelle pour signaler une fuite d’eau…
– Bonjour. Vous êtes en contact avec notre répondeur téléphonique. Nos bureaux sont ouverts du lundi au vendredi, de 9h à 12h et de 14h à 17h. Merci de renouveler votre appel.
*clic*

Épisode 2 : la Hotline (suite)
– Allô ? Je vous appelle pour signaler une fuite d’eau…
– Avez-vous vérifié que le robinet était bien fermé ?
– Euh… Oui…
– C’est sûrement les joints. Changez les joints et rappelez-nous.
– Mais je ne crois pas que…
*clic*

Épisode 3 : la qualification de l’incident
– Allô ? Je vous appelle pour signaler une fuite d’eau. C’est pas les joints.
– Et c’est grave ?
– Oh oui, quand même.
– Grave au point d’appeler les pompiers et qu’ils défoncent votre porte si nécessaire ?
– Euh non, quand même pas mais…
– Alors rappelez dans quinze jours.
*clic*

Épisode 4 : la planification de l’intervention
– Allô, bonjour, je suis le plombier de la société XX, mandaté par votre propriétaire pour votre problème de fuite.
– Ah, enfin, super !
– Je peux vous proposer d’intervenir demain entre 13h et 16h.
– Euh mais… c’est que ce n’est pas l’horaire qui m’arrange forcément le plus…
– Je n’ai rien d’autre à vous proposer.
– Ah bon ? Ah. Eh bien d’accord, à demain 13h.
*clic*

Épisode 5 : la planification de l’intervention (suite)
– Allô, voilà, c’est au sujet de la fuite, vous m’aviez dit que vous passeriez entre 13h et 16h mais il est déjà 16h15 et…
– Ah oui, c’est vrai. Désolé, j’ai été retenu chez un autre client.
– Mais j’ai posé congé pour vous attendre, moi ! Vous auriez au moins pu me prévenir.
– Désolé. Je peux passer demain, entre 13h et 16h.
– Eh bien en termes d’horaires ce n’est pas ce qui m’arrange le plus…
– Je n’ai rien d’autre à vous proposer.
Damn it. Très bien, à demain.
*clic*

Épisode 6 : la solution de contournement
– Elle est sérieuse, votre fuite, dites-donc.
– Ben oui, c’est ce que je me tue à vous…
– Du coup, il faut changer toute l’arrivée d’eau. Je ne vais pas pouvoir le faire aujourd’hui, mais rassurez-vous : cela ne fuira plus, vu que j’ai condamné votre évier de cuisine.
– Ah ? Mais ça va être moins pratique… Combien de temps je vais rester comme ça ?
– Eh bien, nous allons vous envoyer un devis.

Épisode 7 : le devis (option 1 : plombier qui va droit au but)
– Alors il y a deux solutions. Soit on refait la tuyauterie de façon apparente. Évidemment ce sera moins joli, mais sinon il faut défoncer les murs, les plafonds, le parquet…
– OK, OK. Va pour la tuyauterie apparente.

Épisode 7bis : le devis (option 2 : plombier doué en marketing)
– Eh bien cela vous fera X000 euros.
– Quoi !? Mon Dieu ! Mais comment est-ce possible, j’ai presque autant intérêt à racheter un autre appartement.
– Eh bien le problème c’est qu’il faut défoncer les murs, les plafonds, le parquet…
– Ce n’est pas possible. There has to be another way.
– Oui : sinon on refait la tuyauterie de façon apparente. Évidemment ce sera moins joli, mais…
– OK, OK. Va pour la tuyauterie apparente.

Il faut rendre justice à mon plombier : en général passée l’étape du devis tout se déroule pour le mieux. Et à la fin on a un évier neuf, c’est chouette quand même. Jusqu’à la prochaine fuite.

La culture, c’est notre Data

La semaine dernière a eu lieu la première rencontre « data culture » entre établissements du Ministère de la Culture sur le thème de l’open data. Faisant suite à la parution du Guide Data Culture, cette journée avait pour objectif d’initier la mise en place d’un réseau de professionnels intéressés par l’enjeu de l’ouverture des données au sein du ministère. L’après-midi, des ateliers ont permis d’agiter un peu nos cellules grises autour de cas d’utilisation.

Je vous laisse découvrir le storify de la journée qui a été abondamment twittée, et la petite vidéo qui résume l’essentiel du guide sus-nommé.

J’ai particulièrement apprécié la présentation d’Henri Verdier, le directeur d’Etalab et j’ai été assez frappée par le fait que les réutilisations proposées, aussi bien existantes qu’imaginaires, étaient quasiment toutes tournées vers le développement d’applications pour mobiles. Le nouvel El Dorado quoi…

Le titre de ce billet est spécialement dédicacé à Romain ;-)

Le droit de ReLIRE

Je travaille dans l’édition.

Je sais, c’est curieux, certains d’entre vous se demandent s’ils n’auraient pas loupé le dernier rebondissement de ma vie professionnelle ; je vous rassure, au départ c’est juste une bizarrerie d’organigramme : au Centre Pompidou, le service qui s’occupe du site web est rattaché à la direction des éditions. Au départ, on coexistait un peu, les éditions et moi. Et puis petit à petit, à force de m’intéresser, de monter des projets ensemble, d’assister aux réunions de service, de plancher sur le budget, j’ai fini par avoir l’impression de faire quand même partie de la famille. Une famille proche, finalement, plus que le musée, d’une certaine manière.

C’est peut-être à cause de cela que je n’arrive pas à voir le projet du jour, le ReLIRE de la BnF, d’un mauvais œil. Je vous le décris juste en trois mots, la littérature sur ce sujet sur le Web est pléthorique, les points de vue contradictoires ne manquent pas.
L’objectif est de remettre dans le circuit de la commercialisation des ouvrages avant 2001, devenus indisponibles, mais qui sont encore couverts par les droits d’auteur. En général les droits d’auteur ont été cédés à un éditeur, mais il est d’usage, si celui-ci n’exploite plus l’ouvrage, que les droits soient rétrocédés à l’auteur. C’est dans la loi et en général c’est aussi précisé dans le contrat d’édition si celui-ci est bien fait. Et de toute façon, les contrats d’édition de cette époque prévoyaient rarement l’exploitation numérique (nous on a commencé en 2010).
Partant de ce principe, l’idée est de numériser en masse ces (nombreux) ouvrages indisponibles, afin de pouvoir les réinjecter dans le circuit de distribution sous une forme numérique. Tâche confiée à la BnF parce que d’une part, elle a un savoir-faire dans le domaine de la numérisation de masse, et d’autre part… les livres sont là, sur place, dans ses magasins.
ReLIRE propose un premier recensement de 60 000 œuvres, qui sera augmenté chaque année jusqu’à atteindre les 500 000 estimées. Les auteurs peuvent dans les 6 mois s’opposer à l’inclusion de leur(s) titre(s) dans le registre. Les éditeurs le peuvent également, à condition qu’ils s’engagent à réexploiter l’ouvrage sous format papier ou numérique (ou s’ils le font déjà). En l’absence d’opposition, les livres seront numérisés et confiés à une société de gestion collective chargée d’exploiter commercialement ce fonds et de rémunérer les ayants-droit.

Je ne suis pas juriste, ni expert du droit d’auteur, je ne peux donner sur ce projet qu’un ressenti personnel à la hauteur de mon expérience et de ma pratique personnelles. Mais vu de chez moi, le déchaînement d’indignation suscité par ReLIRE est assez incompréhensible.

Quand on connaît la situation de l’édition aujourd’hui et son mode de fonctionnement, il faut vraiment faire preuve d’une immense naïveté (ou mauvaise foi) pour penser que ces livres devenus indisponibles depuis plus de 10 ans et qui le sont restés depuis ont la moindre chance d’être réédités en dehors de ce dispositif. La durée d’exploitation d’un titre est actuellement de quelques mois à peine, sa présence en librairie de quelques semaines. Les éditeurs tirent les exemplaires au plus juste pour éviter les stocks, tout ce qui n’est pas écoulé dans ce délai de quelques mois est pilonné. La probabilité de voir les distributeurs et les libraires accepter de remettre en place un titre qui n’est pas neuf est quasi nulle, si bien qu’un éditeur préfèrera toujours publier quelque chose de nouveau qu’il pourra marketer comme tel que de ressortir des textes des tiroirs, même s’ils sont bons. Même les distributeurs numériques effectuent une sélection dans ce qu’ils diffusent, ils ne font pas de numérisation de masse et ne vont certainement pas rechercher les titres d’il y a dix ans quand le marché les inonde de plus de 60 000 monographies par an. Les auteurs qui ont la chance d’être constamment réédités et vendus sont peu nombreux, mais en passant, ce ne sont pas eux qui sont concernés par le dispositif ReLIRE.

Alors évidemment, constituer comme on peut un registre de 60 000 titres et demander aux auteurs de faire de l’opt-out ce n’est peut-être pas le système idéal, mais quoi d’autre ? Négocier individuellement avec chacun ses droits numériques ? Ce serait une tâche dantesque, j’en sais quelque chose moi qui ai la charge de le faire pour les quelque 6000 artistes dont les œuvres sont conservées au Centre Pompidou. Et dans quel but ? Quand je pense que mes quelques Œuvres Papier commises (en tant qu’auteur) pour le Cercle de la Librairie m’ont rapporté chacune à peine une centaine d’euros, sur plusieurs années (et elles ne sont pas indisponibles !!) je doute que ces auteurs dont les œuvres étaient oubliées ne fassent fortune. Au moins, la mise en place d’une gestion collective et d’une commercialisation leur permettra de toucher quelque chose. S’ils trouvent cela ridicule, libre à eux de se retirer du dispositif et de mettre leurs œuvres en ligne gratuitement (à condition qu’ils aient récupéré leurs droits auprès de leur éditeur, of course… un autre parcours du combattant, malgré tout, dans lequel seuls les plus tenaces s’engageront).
On peut aussi critiquer le système de l’opt-out et se dire que la base de données proposée par la BnF devrait être parfaite du premier coup et intégrer toutes les informations qui n’existent pas, comme le registre centralisé de toutes les éditions numériques déjà existantes, FRBRisé s’il-vous-plaît pour qu’on puisse savoir de quelle édition papier la version numérique est dérivée. Ceux qui ont déjà géré une base de données bibliographique de 60 000 références savent qu’il n’y a rien là d’anodin (et je tire mon chapeau au passage aux collègues de la BnF pour le travail réalisé en un temps record, moi qui ai toujours claironné que faire aboutir un projet en moins de 2 ans dans cet établissement était impossible.)
On pourrait objecter que le délai d’opposition, 6 mois, est bien court. Je fais cent pour cent confiance aux auteurs et à leurs ayants-droit pour aller vérifier le registre dans les 6 mois. Ces gens-là sont soucieux de ce qu’il advient de leur production. S’ils ne le sont pas, alors on peut penser qu’ils n’auraient jamais fait la moindre démarche pour que leurs bouquins redeviennent disponibles, c’est donc heureux que quelqu’un le fasse à leur place.

On ne peut pas à la fois critiquer la loi sur le droit d’auteur dans le fait qu’elle est inadaptée au monde numérique, et en même temps tirer à boulets rouges sur la première initiative visant à essayer de trouver des solutions intermédiaires. Évidemment, le monde serait plus beau et les licornes pataugeraient au pied de cascades de guimauve si tous les auteurs, même les plus obscurs, pouvaient voir leur prose toujours accessible, sans que cela ne nécessite de construire un modèle économique pour que quelqu’un (les éditeurs par exemple) assument les coûts associés, et qu’en plus tout le monde puisse en vivre grassement. Mais il faut être un peu réaliste. Le dispositif proposé présente au moins l’avantage d’offrir une seconde vie à des ouvrages qui n’en auraient jamais eu.

NB : « le droit de relire », l’un des droits fondamentaux du lecteur selon Daniel Pennac, Comme un roman, 1992.

Un an en un billet

Ah ah, vous pensiez que le Figoblog était mort. Vous m’avez croisée lors d’une conférence et entendu parler de « feu mon blog ». Vous pensiez que le seul moyen d’être encore au courant de mes faits et gestes était de vous abonner à mon compte twitter. Mais non ! Je m’étais donné un an pour déclarer pour de bon sa mort clinique, et le voici qui sursaute, à l’approche de l’IFLA. Bon sang un an déjà, et ce n’est pas comme s’il ne s’était rien passé. Je vous propose de revivre cette année en accéléré en un billet…

17 août 2011. Lors du congrès de l’IFLA à San Juan, Puerto Rico, se réunit pour la première fois le nouveau groupe d’intérêt de l’IFLA sur le Web sémantique (SWSIG). Une centaine de personnes ont assisté à ce qui fut l’acte de naissance de ce groupe (sa fondation ayant été ratifiée officiellement par l’IFLA quelques mois plus tard, ce qui lui a permis d’être doté d’une page web bien à lui). Au programme de cette réunion, une présentation du rapport final du LLD XG (voir ci-dessous), un rapport d’avancement sur les activités de normalisation de l’IFLA dans le domaine, et une série de courtes présentations montée quasiment au débotté avec les personnes présentes (voir les diapos en ligne). Ce fut une session très réussie.

18 août 2011. D’ailleurs il ne faut pas croire que je me suis arrêtée de bloguer, lors de ce congrès de l’IFLA 2011. Simplement je l’ai fait sur un autre blog, celui du CFI.

8 septembre 2011. Dans le cadre du « meetup web sémantique », rencontre dans la salle Piazza du Centre Pompidou sur le thème « Patrimoine et Web de données » à l’occasion duquel j’ai pu parler du projet qui a occupé mes jours, mes nuits, mes week-ends depuis un an (comment ça j’exagère ??) à savoir le Centre Pompidou virtuel. Plus d’infos à ce sujet un peu plus loin. En tout cas grâce à l’IRI et à son polemic tweet, vous pouvez revivre ce moment en vidéo ici.

21 septembre 2011. Je suis à La Haye pour la conférence DC2011. Le vendredi, dans une mémorable keynote (ben oui je suis contente, c’était ma première !) j’ai parlé de ratatouille, mis le feu à la BBC et raconté des contes pour enfants à un auditoire mal réveillé mais ravi.

12 octobre 2011. Je suis à la foire du livre de Francfort, cette fois pour présenter le Centre Pompidou virtuel à l’association internationale des éditeurs de musées. Un événement qui ne semble pas avoir laissé de traces en ligne.

25 octobre 2011. Publication officielle du rapport final du Library Linked Data Incubator Group du W3C (plus connu sous le petit nom de « LLD XG ») : enfin le terme d’une année de travail très intense !
Le rapport se compose en fait de 3 documents :
– le rapport final ;
– une première annexe qui liste les vocabulaires et données déjà disponibles ;
– une seconde annexe qui reprend et synthétise les cas d’utilisation réunis par le groupe pour élaborer son rapport.
Le rapport final est en cours de traduction en français.

29-30 novembre 2011. J’ai failli aller à Hambourg pour assister à SWIB mais en fait non. Consolation en vidéo ici : 29/11 et 30/11.

8 décembre 2011. L’ADBS et l’EBD organisent une journée d’étude intitulée « L’accès à l’information dans tous ses états ». Devinez ce que j’y présente… oui, le Centre Pompidou Virtuel (eh toi là au fond qui bâille ! je t’ai vu !)

14 décembre 2011. J’ai failli aller à Madrid pour participer à une rencontre sur le Linked Data organisée par la Bibliothèque nationale d’Espagne pour présenter son projet datos.bne.es mais je suis retenue à Paris par d’autres obligations. On trouve le compte-rendu de cette rencontre narrée sur le blog Open bibliography and Open Bibliographic Data.

13 janvier 2012. Un petit saut à l’INHA pour la journée d’étude « Signes et balises : L’édition numérique en histoire de l’art, réalisations, projets, enjeux ». C’est marrant comme ce genre d’événements ne laissent pas de traces en ligne.

13 mars 2012. L’hiver a été long, mais pas improductif : on a pu assister à plusieurs des intéressantes conférences des séminaires de l’IRI : celui sur l’éditorialisation, et celui sur la muséographie. Et voici que j’y suis invitée pour présenter…. devinez quoi… (j’espère que vous aimez le comique de répétition). En vidéo ici (je vous laisse chercher pour retrouver les autres vidéos !)

19-20 avril 2012. Je suis invitée à Aix pour deux passionnantes journées sur le thème de l’Open Data culturel, organisée par l’AGCCPF-PACA (inutile d’essayer de m’extorquer la résolution du sigle). Ah, Aix-en-Provence, sa météo clémente, le charme de ses rues médiévales… (je préfère ne pas dire de quoi je parlais ;-) Yannick Vernet explique en détail sa démarche sur le c-blog.

2 mai 2012. Je participe à la conférence SemWeb.pro où je répète infatigablement la même chose. Mais cette fois devant un parterre de geeks, ça change. Et puis ça contribue à la présence d’une représentation féminine au sein des intervenants, il y en a besoin.

4 mai 2012. OCLC annonce la mise à disposition public de VIAF sous licence ouverte. Le fichier peut être téléchargé en RDF ou dans d’autres formats moins connus comme MARC21, depuis l’adresse http://viaf.org/viaf/data/. Les biblio-geeks font des bonds.

22 mai 2012. Il y aura une vie après MARC21. En tout cas, la Library of Congress y travaille… avec Zepheira, elle élabore un modèle qui devrait permettre de lancer la grande discussion que nous attendons tous sur la transition des formats MARC vers le Web de données.

20 juin 2012. Worldcat est publié en Linked Data. Ah en fait non, ils ont juste mis du Schema.org dans les pages. Déjà pas mal, vous me direz. Plus d’info chez Richard Wallis, célèbre évangéliste du biblio-web-sémantique qui a quitté Talis pour rejoindre OCLC en avril.

21 juin 2012. Invitée à ouvrir la 2e journée du colloque « Patrimoine et humanités numériques » organisé par Paris 8, je fais preuve d’un incroyable sursaut d’originalité et décide de parler de réintermédiation numérique par les données. Pour ceux que ça intrigue, j’ai écrit un beau texte qui devrait être mis en ligne quelque part (patience…)

29 juin 2012. Retour à la BnF le temps d’une journée : la fameuse journée annuelle BnF/Afnor qui s’intéresse cette année au livre numérique. Je modère une table ronde sur les métadonnées. Tout est révélé ici.

En juillet, j’ai pris quelques vacances (en partie consacrées à la rédaction de mon intervention pour le séminaire INRIA du mois d’octobre sur le Web sémantique) avant de repartir pour une nouvelle année sur les chapeaux de roue. Toutes mes excuses à tous les gens qui m’ont invitée quelque part et à qui j’ai dit non parce que j’étais déjà trop occupée. Vous voyez que je n’ai pas menti. Pour un commentaire en temps réel des événements à venir, rendez-vous sur twitter

Passerelles

L’un des grands atouts de l’Ecole des chartes, c’est qu’elle forme aux métiers du patrimoine dans leur ensemble : bibliothèques, archives, musées. Attention, je ne dis pas que la formation qu’on y reçoit est suffisante pour apprendre l’un de ces trois métiers, c’est d’ailleurs pour cela qu’il y a les écoles d’application, l’ENSSIB et l’INP (qui ne sont peut-être pas vraiment suffisantes non plus, mais c’est une autre histoire). Mais on acquiert une sensibilité.

Ceux qui, comme moi, éprouvent face à cette pluridisciplinarité une curiosité boulimique, font une thèse sur l’estampe. Cela leur permet d’avoir un pied dans les trois mondes : l’histoire de l’art grâce à l’image, l’histoire du livre grâce aux techniques d’impression, et l’archivistique grâce aux sources.

On découvre alors que ces trois « patrimoines », s’ils ont des points communs, ont surtout une façon extrêmement différente d’aborder leur objet. Prenons (par exemple, et tout à fait au hasard) la notion d’œuvre.
Dans les musées (au sens large, j’inclus aussi le patrimoine architectural, etc.) l’œuvre est souvent un objet unique, caractérisé par une relation intime avec son ou ses créateur(s). Cependant, d’une certaine façon, l’intérêt que l’œuvre suscite fait voler en éclats cette unicité : il y a de multiples reproductions (je n’aime pas beaucoup ce terme, on pourrait dire plutôt représentations, mais ça ferait sûrement débat), l’œuvre a été exposée dans tel ou tel musée, dans telle ou telle exposition, elle a subi des restaurations, etc. et tout cela a pu laisser des traces. Ainsi c’est la « vie de l’œuvre » qui est intéressante, au-delà de l’œuvre elle-même.
Grâce aux FRBR, les bibliothèques se sont à leur tour approprié cette notion d’œuvre, pensant qu’elle aiderait les catalogues à être plus utiles pour les usagers. Mais en bibliothéconomie il n’existe aucun référent matériel, aucun objet physique, qui corresponde à l’œuvre. Par exemple, si on prend Hamlet de Shakespeare, l’œuvre ne se confond pas avec le manuscrit original, ni avec l’édition princeps, ni même avec la première représentation de la pièce. L’œuvre est une notion abstraite, et par là, sujet à de nombreux débats. Au final, l’œuvre c’est la somme de toutes ses manifestations, le tout étant plus que la somme des parties.
Dans les archives, il n’y a pas de notion d’œuvre. Mais à mon avis, ce qui s’en approcherait le plus serait le fonds. Le fonds tient son unité de l’entité qui l’a produit et du processus dont il est issu ; si on s’arrête à cette définition, on peut assez bien remplacer « fonds » par « œuvre ». Toutefois ce qui intéresse tant les archivistes dans la notion de fonds, c’est le contexte : l’idée qu’une pièce dans un dossier ou une série n’est compréhensible qu’en fonction des autres pièces et dossiers qui constituent le fonds.

Au final, cet exemple autour de l’œuvre montre bien que lorsque l’on s’intéresse à l’objet « patrimoine », on rencontre toujours ces problématiques du tout et des parties, mais la logique est profondément différente dans les archives, les bibliothèques, les musées.

En sortant de l’Ecole des chartes, les chemins divergents : les archivistes deviendront des maniaques du respect des fonds, les bibliothécaires seront obsédés par la description de leurs collections et la médiation, et les conservateurs de musée eh bien… Je n’en connais pas suffisamment pour généraliser, mais je peux dire que les spécimens que j’ai côtoyés sont, comme leurs œuvres, uniques en leur genre ;-)
Mais il y a des passerelles. On peut être archiviste et travailler en bibliothèque, cela s’est vu. On peut aussi être bibliothécaire et travailler dans un musée, en tout cas ça se tente ;-) Je ne connais pas d’exemple de gens qui seraient passés des musées ou des bibliothèques aux archives, mais ce n’est certainement pas impossible.
Je trouve que cette compréhension de l’objet patrimonial, et cette conscience des points communs et surtout des différences fondamentales dans l’appréhension de ces objets, est une des richesses essentielles de nos métiers, et sans doute une grande motivation pour tenter l’aventure de passer d’un monde à l’autre.
Le numérique pousse nos professions à rechercher leurs points communs et à essayer de gommer leurs différences, à la recherche d’une mystérieuse et intangible interopérabilité. Toutefois, à mon avis, ignorer les différences de perspective de ces trois métiers conduirait à de grosses erreurs du point de vue des données. Il faut au contraire prendre acte de leurs différences, bien les comprendre, pour pouvoir les interpréter correctement et les restituer dans le monde numérique d’une façon satisfaisante.
Pour le dire autrement : faut faire du Web sémantique en Linked Data, pas du Dublin Core simple en OAI ;-)

Quelques trucs

Je le sais, vous êtes là, à l’affut derrière votre lecteur de flux RSS, en train de vous demander « mais que Manue fait-elle donc de ses journées, pour n’avoir le temps de bloguer qu’une fois par mois ? »

J’ai donc décidé de vous parler en vrac de quelques-uns de ces trucs.

Ainsi, dernièrement, j’ai passé un peu de temps sur la rédaction des pages « Web sémantique, Web de données » sur le site de la BnF. Ne loupez pas, dans la colonne de droite, le lien vers les infos techniques (il passe assez facilement inaperçu…)

Nous avons aussi organisé une journée d’études : la journée des utilisateurs des produits bibliographiques, au cours de laquelle on a beaucoup parlé des données, et de l’évolution des catalogues. Les actes ont été mis en ligne.

Au fait, il y a maintenant un flux RSS qui vous permet d’être au courant au fur et à mesure de ces actualités professionnelles sur le site.

Côté LLD XG, nous avons publié l’appel à « use case » qui nous servira de matériau brut pour le travail du groupe. N’hésitez pas à contribuer, jusqu’au 15 octobre de préférence, mais on ne vous jettera pas si vous arrivez après. La date butoir est due au fait que nous nous rencontrons, physiquement (le fameux « face to face meeting »), lors de la conférence DC-2010 à Pittsburgh – à suivre pour le blogging en direct ;-)

Pour ceux qui ont envie de me rencontrer « face to face », mais moins loin, je serai à Bordeaux le 9 novembre avec Lionel Dujol pour une journée sur l’avenir des catalogues. Quelque chose du même ordre devrait avoir lieu à Toulouse le 10 décembre.

Je participerai aux rencontres GLAM organisées par Wikimedia à Paris les 3 et 4 décembre, pour présenter principalement l’activité du LLD XG. (GLAM ça veut dire Galleries, Libraries, Archives, Museums, pour ceux qui se posaient la question – voir aussi .)

Il n’y a pas que les catalogues et le Web sémantique dans la vie : il n’est pas exclu que j’anime un atelier dans une formation AFNOR/ADBS, qui porterait sur les identifiants normalisés et se déroulerait en décembre (elle était initialement prévue en septembre, voir ici.)

Enfin, se préparent pour le mois de janvier (17 et 18 précisément) à Paris des premières rencontres francophones autour du Web sémantique, les SemWeb.pro. Je fais partie du comité de programme, qui a lancé un appel à communications dont la date limite est fixée au 15 octobre itou.

Ouf, c’est à peu près tout pour mes activités « publiques » ! À côté de tout ça, j’ai aussi une vie professionnelle (une vraie, parce que tout ça c’est juste pour s’amuser…) et une vie familiale (une vraie aussi !), et puis même que ces derniers temps, j’essaye d’avoir une vie privée… alors le blog…