Communautés et institutions : la cohabitation impossible ?

J’ai eu souvent affaire à cette question ces derniers temps, que ce soit dans le contexte de l’association Europeana, d’IIPC ou encore des projets collaboratifs de la BnF : comment faire cohabiter harmonieusement les modes de fonctionnement radicalement différents d’une institution et d’une communauté ?

Les institutions ont plusieurs atouts dans leur manche. Elles sont organisées, pérennes et souvent dotées de ressources telles que des moyens financiers ou logistiques. Wikipédia ne pourrait pas exister s’il n’y avait pas quelqu’un qui faisait tourner les serveurs et lançait les campagnes annuelles de collecte de dons. Bien sûr, Wikipédia n’existerait pas non plus s’il n’y avait la communauté pour créer, organiser, surveiller et améliorer les contenus. Le succès de l’entreprise repose sur la bonne entente des deux colocataires, qui se répartissent harmonieusement les tâches ménagères (les anglo-saxons utilisent d’ailleurs le terme de « housekeeping » pour désigner les affaires administratives). Pourtant la lourdeur des institutions, avec les règles parfois rigides dont elles sont obligées de se doter pour fonctionner, peut avoir pour conséquence un désintérêt, une désaffection voire franchement une défiance de la part des communautés.
Face à ce problème, on peut avoir rapidement l’impression d’essayer de réconcilier deux colocataires qui doivent vivre dans le même appartement alors que l’un est maniaque et psychorigide et l’autre joyeux et bordélique. Au départ, sur le papier, on a l’impression qu’ils sont faits pour s’entendre : l’un des deux apportera la bonne ambiance, les fêtes et la bonne bouffe, l’autre se chargera du ménage le lendemain et de la bonne tenue du foyer. Sauf que rapidement la colocation vire au cauchemar, chacun ayant l’impression de donner plus qu’il ne retire de bénéfices dans l’opération.

De façon assez intéressante, j’ai dernièrement eu l’occasion de regarder le problème sous les deux angles, à travers mon expérience dans Europeana et dans IIPC.
Côté Europeana, on observe un équilibre (ou une tension, ce qui revient au même) intéressant entre l’institution, représentée par la Fondation qui met en œuvre le portail Europeana Collections, et l’Association, qui est censée représenter les intérêts de la communauté. Lequel des deux est le plus important ? Qu’est-ce qui apporte plus de valeur au citoyen européen, entre un portail donnant accès à cinquante millions de ressources numérisées et une plateforme destinée à dynamiser un réseau de professionnels ? Le produit ou la communauté ? J’ai déjà donné mon avis sur la question…
Côté IIPC, le consortium qui a atteint l’âge vénérable de 12 ans doit aujourd’hui passer d’un modèle institutionnel (consistant à définir des projets puis les financer et les piloter) à un modèle de communauté où les projets émergent d’eux-mêmes et pour lesquels il agit comme un facilitateur. Ce changement de logique est compliqué à opérer, mais essentiel pour sa survie et sa croissance.
Enfin, ma récente visite à la British Library, avec la présentation des communautés qu’ils animent comme le Knowledge Quarter ou le Digital scholarship avec son Labs, m’a permis de mieux comprendre les différences entre la logique institutionnelle, qui repose sur la mise en œuvre de projets ou de produits, et celle qui anime les communautés. Il s’agit vraiment de deux façons complètement différentes d’aborder un sujet ; elles ne sont pas forcément incompatibles mais reposent à plusieurs égards sur des logiques opposées.

Le point de départ : think big
La communauté se caractérise par un concept de départ autour duquel il y a une compréhension partagée du problème qu’on cherche à résoudre. Des concepts comme « open innovation », « digital scholarship » ou « knowledge quarter » en sont de bons exemples.  Une fois qu’on a réussi à mettre tout le monde d’accord sur le mot à utiliser qui va guider la communauté et faire converger les énergies, le reste suit.
Côté projet, on ne part pas d’un concept mais d’un programme, d’un résultat attendu ou livrable. On définit ce qu’on veut construire, puis on met en place le programme qui permet d’y arriver. Les dix minutes passées à choisir un acronyme imbitable qui deviendra la marque du projet pour le meilleur et pour le pire sont rarement une priorité.
Le « programme » qui sert de point de départ au projet est orienté résultat, alors que le concept qui permet de fonder la communauté est centré sur une compréhension partagée du problème (indépendamment des solutions qu’on peut lui apporter).

Les ressources : fund raising vs. call for proposals
Communautés et projets recourent à des méthodes très différentes pour réunir du financement.
Parce qu’elles reposent sur des concepts partagés et puissants, les communautés ont la capacité d’inciter leurs contributeurs à contribuer à la hauteur des moyens dont ils disposent (ou qu’ils souhaitent apporter), qu’il s’agisse d’argent, de moyens en nature (lieux, fournitures, etc.) ou de compétences. Les moyens apportés peuvent être très petits mais innombrables (cas de Wikipédia aussi bien dans la levée de fonds – crowdfunding – que dans la production de contenus – crowdsourcing) ou ponctuels mais énormes (cas du mécénat apporté par de grosses fondations ou entreprises américaines). Ils sont dans tous les cas difficilement prévisibles à l’avance et obligent la communauté à adapter ses actions aux moyens disponibles, en croissance aussi bien qu’en décroissance suivant la conjoncture.
Côté institutions et projets, le modèle qui prévaut est la subvention : on commence par évaluer combien coûte ce qu’on veut fabriquer, on se partage le gâteau entre partenaires en fonction de l’effort que chacun peut mettre et on va voir un tiers pour obtenir la somme. Ce tiers peut être un pouvoir public (tutelle, agence comme l’ANR…) mais ce modèle est aussi très souvent utilisé par les institutions dans leur recherche de mécénat.

Les méthodes de travail : start small, fail often
Cette différence dans la manière de financer leurs activités a bien sûr un impact sur ce que communautés et projets sont capables de produire et la méthode employée pour ce faire. Là où le projet s’impose dès le départ un résultat à atteindre et un calendrier, la communauté préfère lancer une multitude de petits projets, dont certains échoueront, mais ce n’est pas grave. On est dans la logique de l’essai-erreur, le principe étant de concrétiser aussi vite que possible les idées pour pouvoir se débarrasser rapidement de ce qui ne fonctionne pas et laisser grossir les « best-sellers », presque naturellement emportés par leur succès.

Les dépenses : hacking & yacking
De façon tout à fait logique, les communautés ne dépensent pas non plus leur argent de la même manière que les institutions. Se vivant comme des facilitateurs, elles vont consacrer une part significative de leurs ressources à permettre aux êtres humains qui constituent les communautés de travailler ensemble. Et que font les êtres humains ? Ils mangent, boivent, se rencontrent et communiquent. Rien d’étonnant, donc, que dans une communauté les dépenses soient souvent orientées vers des frais de déplacement, de bouche, de communication ou de logistique. Et s’il y a des emplois à financer, ils seront le plus souvent tournés vers ce type d’activité (planification d’événements, etc.). Le reste, la ressource qui produit réellement du travail, est en fait apportée par la communauté. L’exemple typique c’est le hackathon : l’institution ou l’organisateur fournit un lieu sympa, du café à volonté et des pizzas (yacking), la communauté fournit des idées, de la force de travail et des compétences (hacking).
Vu depuis une logique de projet, l’équilibre financier d’une communauté est une aberration. Un projet va en général consacrer 10 à 20% de son budget à sa propre gestion et communication. Le reste sert à financier des emplois, des équipements, du matériel, bref à acquérir ce que la communauté génère par synergie mais sans garantie de résultat. Si on veut des résultats garantis, il faut aussi garantir les moyens. Cela semble logique, en tout cas vu depuis l’institution…

La mesure du succès : empower & engage
La communauté se considère comme un facilitateur : son objectif principal est d’impliquer (to engage) ses membres et de leur donner des moyens (to empower) pour créer les conditions de la concrétisation de leurs propres idées. L’institution, elle, s’approprie les résultats du projet ou le produit, pas forcément au sens de la propriété intellectuelle mais au moins en tant qu’autorité productrice de ces résultats, généralement mesurables au moyen d’indicateurs. L’approche projet donne donc en apparence un retour sur investissement plus concret. Le résultat est un produit visible, tangible, dont l’institution peut revendiquer la paternité. Pour autant, ce produit sera-t-il suffisamment évolutif, maintenable, et tout simplement réussi ? La communauté de ses utilisateurs sera finalement seul juge.
Quand on cherche à mesurer les résultats de la communauté, on peut avoir l’impression d’une situation contrastée, entre quelques grandes réussites fulgurantes d’une part et une multitude d’initiatives dispersées et pas forcément très pérennes d’autre part. De plus, il n’est pas toujours évident de mesurer la part que la communauté a joué dans le succès d’un projet né en son sein.
Au final, les communautés et les projets ont des moyens très différents de mesurer leur succès. L’objectif premier du projet est de réussir, c’est à dire de livrer des résultats qui correspondent à ce qui était annoncé au départ. Les communautés, elles, cherchent à grossir, à engager de plus en plus de gens, sans poser de limites ou d’objectifs.

Finalement, les communautés sont-elles utiles ?
Si vous vous posez cette question, c’est que vous n’avez probablement pas (encore) intégré le mode de pensée qui sous-tend les communautés. Les communautés sont comme les fées : elles n’existent que par et pour ceux qui y croient. Je n’irais pas jusqu’à dire qu’il suffit de taper dans ses mains, mais l’idée est là : parce que leur but premier est de réunir des gens qui partagent les mêmes valeurs et les mêmes buts et sont prêts à y consacrer des ressources (du temps, des moyens, de l’énergie), les communautés n’ont pas besoin de prouver leur utilité pour exister. Le seul fait qu’elles existent crée de la valeur, une valeur parfois difficilement mesurable et observable de l’extérieur mais clairement ressentie par ses membres, qui perçoivent l’apport de la communauté à leur réussite, même si cet apport est difficile à quantifier ou à retracer de manière directe. Cette valeur se réalise parfois de façon concrète dans des ressources partagées qu’on appelle les communs.

Dans leur livre L’âge de la multitude, N. Colin et H. Verdier qualifient la multitude (ce que j’ai appelé ici les communautés, car à mon avis la multitude n’est pas une réalité unique mais plurielle) d’ « externalité positive » : quelque chose qui est en dehors du projet ou du produit, mais contribue à créer de la valeur qui joue en faveur de sa réussite de manière plus ou moins mesurable. Pour eux, le principal enjeu de la transition numérique, pour les organisations, institutions ou entreprises, est d’entrer en synergie avec la multitude. Pour cela, les institutions doivent devenir des plateformes principalement dédiées à permettre à la multitude de s’en emparer et ainsi déployer sa créativité.
Ce modèle qui a fait le succès des Uber, Amazon, Facebook et autres Twitter implique, pour des institutions comme les bibliothèques, de lâcher prise sur un certain nombre choses : les projets et les produits, les indicateurs de performance, la propriété de ce qu’elles créent. Il suppose de se définir comme une plateforme et donc se recentrer sur le service qu’on offre aux communautés, leur permettant d’exprimer leur créativité ; de se poser en facilitateur d’une expérience plutôt qu’en fournisseur d’un produit (en l’occurrence la collection) ; de concevoir ses propres objectifs en mineure et ceux de ses usagers en majeure. C’est ce que les bibliothèques ont commencé à faire avec la notion de « troisième lieu ».

Parce que toute réflexion de fond sur les bibliothèques ramène toujours à cet ouvrage indispensable qu’est La sagesse du bibliothécaire, je vais conclure en reprenant la citation de Michel Melot retenue par Mathilde Servet dans son article : « Pour atteindre son seuil critique, il faut que la bibliothèque ait de nombreux lecteurs et bien d’autres usages que la simple lecture. La bibliothèque n’existe que par la communauté […] [Le bibliothécaire] ne parle pas pour lui-même mais pour la communauté qu’il sert. Il doit en refléter les goûts et les opinions, mais aussi les ouvrir à d’autres. Son choix doit être celui de la pluralité […], cette “bigarrure” qui caractérise les sociétés libres. »

IFLA 2012 – plongée dans l’organisation

Cela fait maintenant 4 ans que je participe à l’IFLA, et sans oser me comparer aux routard(e)s qui ont fait Moscou, Pékin et Durban, je dois dire que cette année je commence à savourer la familiarité des rituels qui se répètent : réunions des comités permanents, caucus des francophones, cérémonie d’ouverture… L’IFLA c’est un peu comme de se retrouver une semaine par an chez soi partout dans le monde. Bref, je vous renvoie à Göteborg pour une explication des premières étapes du congrès et des rouages de l’IFLA.

Je pense qu’il y a trois catégories de gens qui apprécient l’IFLA : les hypersociaux qui savourent le bain de foule, les travailleurs qui élaborent courageusement des normes en suant 20h par jour dans des salles sans fenêtre pendant une semaine, et les gens qui éprouvent une fascination morbide pour le développement endémique de l’organisation en soi.
Vous l’aurez compris, je fais partie de la troisième catégorie. La première année à Milan, j’avais été très déçue de découvrir que la « Newcomer session », session des nouveaux, relevait davantage d’un événement social destiné à propager le mantra de l’IFLA comme lieu de bonheur que d’un endroit où l’on découvrait les rouages de cette incroyable institution internationale. À force de creuser, à Göteborg j’avais commencé à comprendre comment la machine fonctionnait.

Puis j’ai trouvé mes semblables : on les appelle « IFLA officers », et sans eux rien ne pourrait fonctionner. Ils ont accepté la responsabilité d’être élus président, secrétaire ou chargé de communication d’une section. Ils assistent à des sessions où il est question de budget, de rédaction de plans stratégiques et d’élections. Ils connaissent les membres du Governing Board et du Professional Committee par leur nom et savent même à quoi servent ces organes. Ils remplissent des formulaires dans les temps tout au long de l’année pour que le congrès puisse avoir lieu.

Mon statut de « convenor » du groupe d’intérêt spécialisé Semantic Web (SWSIG) m’a permis de me joindre aux officiers de l’IFLA pour le Leadership Brief et le Division Leadership forum de la division III (Library services) et de plonger plus avant dans les méandres de cette passionnante institution. Pour ceux qui comme moi aiment savoir comment ça marche, et pas seulement profiter du résultat, les deux sessions de formation des officiers (« officiers training session » – mardi à 13:45 et mercredi à 11h45) sont ouvertes aux curieux et aux vocations.

Un groupe « Bibliothèques et Web de données » au sein du W3C

Le W3C vient d’annoncer le lancement d’un groupe d’incubation « Bibliothèques et Web de données » (Library linked data).
Pour moi, c’est l’aboutissement de plusieurs mois de réflexions, prises de contact, argumentation, maturation, explications, bref pas mal de travail pour aboutir à ce résultat, même si ce n’est qu’un début ! Je suis donc extrêmement heureuse de pouvoir vous en dire plus sur cette initiative.

Pourquoi le W3C ?
Le W3C est le principal organisme de normalisation du Web.
Traditionnellement, les bibliothèques font un important travail de normalisation, soit au sein d’organismes propres à leur communauté (IFLA) soit au sein d’organismes de normalisation traditionnels (ISO, AFNOR). La normalisation est d’ailleurs perçue comme un réel atout de notre communauté.
Aujourd’hui, la tendance est à la recherche de convergence, c’est-à-dire à ne plus faire des normes spécifiques à une communauté, mais des normes valables dans un environnement plus global. S’agissant de technologies de l’information, cet environnement global s’appelle le Web. Il est donc vital que les bibliothèques, aujourd’hui presque totalement absentes de la normalisation au W3C, se mobilisent et se coordonnent pour y participer.
La participation à tous les groupes de normalisation qui travaillent sur des standards potentiellement applicables en bibliothèque est inenvisageable. Ces groupes sont trop nombreux, leur propos est souvent très technique et requerrait de mobiliser fortement les informaticiens des bibliothèques, ce qui est impossible.
L’autre solution était donc de créer une structure, au sein du W3C, correspondant au domaine des bibliothèques, qui leur permettrait de s’exprimer en tant que communauté sur leurs besoins et leurs usages des normes du W3C. C’est le rôle de ce groupe.

Pourquoi un « groupe d’incubation » ?
Un « incubator group » (qui s’abrège en « XG ») a vocation à faire des propositions au W3C sur de nouveaux travaux à démarrer. C’est donc le préalable à toute action plus durable qui pourrait être entreprise au sein du W3C.
Autre avantage, c’est une structure légère à créer : il suffit que 3 organisations membres le soutiennent pour le lancer.
Le Library Linked Data XG va donc travailler pendant un an (jusqu’à fin mai 2011) pour élaborer un rapport dans lequel on trouvera des préconisations pour d’autres actions à conduire sur le plus long terme.

Pourquoi les bibliothèques ?
Du côté des bibliothèques c’était vraiment le bon moment : les formats de demain (RDA notamment) et les projets internationaux majeurs (VIAF par exemple) s’appuient fortement sur les technologies du Web sémantique. Ces actions sont encore expérimentales, jeunes, il est donc temps de les utiliser comme un tremplin pour préparer l’environnement normatif de demain.
Le W3C a été sensible à cette tendance de convergence recherchée par les bibliothèques, et l’intérêt d’un tel groupe n’a fait aucun doute de leur côté.
Cela ne veut pas dire que les autres acteurs « proches », c’est-à-dire principalement du monde patrimonial (archives, musées, etc.) ou de l’édition (éditeurs, libraires…) sont exclus de notre réflexion, bien au contraire. Simplement il fallait se fixer un objectif raisonnable et atteignable, d’où le choix des bibliothèques comme point de départ. Le rapport du groupe devra contenir des recommandations sur les modalités de rapprochement avec ces autres communautés.

Pourquoi le Web de données (Linked Data) ?
Nous avons hésité à focaliser le groupe sur le Web sémantique, mais nous avons finalement préféré le Web de données pour deux raisons.
Déjà, le Web sémantique est un terme dont l’ambiguïté pose problème, même dans les communautés supposées connaître ces technologies. C’est un fait qui est même reconnu au sein du W3C.
Mais surtout, le choix de faire référence au Web de données implique que la problématique du groupe sera l’interopérabilité globale des données de bibliothèques sur le Web, et pas seulement le Web sémantique. Le Web de données inclut la réflexion sur des standards du Web qui ne font pas uniquement partie de la sphère du Web sémantique (comme HTTP ou les URI).
Tout ceci est expliqué dans la charte du groupe.

Qui fera partie de ce groupe ?
Ce groupe a été initié par des acteurs majeurs du monde des bibliothèques, comme la Library of Congress, OCLC, et Talis, et du domaine du Web sémantique comme le DERI, l’Université libre d’Amsterdam, l’Université Aalto à Helsinki, etc.
Tous ces acteurs, ainsi que tous les membres du W3C, peuvent de droit nommer des représentants dans le groupe. De plus, les présidents du groupe peuvent faire appel à des experts invités, même si ceux-ci n’appartiennent pas à une organisation membre du W3C. Le W3C devrait publier bientôt un appel à contributions pour enclencher ce processus de nominations.
Le groupe a trois co-présidents, Tom Baker, Antoine Isaac et moi-même. Nous espérons être rejoints par une vingtaine de participants actifs (qui assisteront aux téléconférences hebdomadaires et rédigeront les documents). Mais la communauté qui va se créer autour du groupe sera beaucoup plus importante : tout le monde pourra suivre la progression de ses travaux, via le wiki et la liste de diffusion publique.

Et maintenant ?
Et maintenant, au travail. Nous avons un an pour faire un bilan de l’état des technologies du Web de données appliquées dans le domaine des bibliothèques, identifier des acquis et des pistes de travail, mettre les acteurs en présence, construire une vision qui fasse l’objet d’un consensus. Je crois que cette année va passer très vite. Si mon blog reste un peu trop silencieux, rendez-vous sur le site du W3C…

Identité et mémoire : la réputation des internautes sur le Web

Cet texte a été extrait d’un article rédigé récemment avec Clément Oury dans la revue Documentaliste, intitulé « Web 2.0 et mémoire : de la conversation à la conservation ». Ce passage avait dû être retiré car l’article était trop long. J’en ai profité ici pour le mettre à jour et l’enrichir de quelques nouvelles références. Merci à mes principales sources Brainsfeed, Internet Actu et Outils froids.

En faisant de l’internaute non plus un spectateur passif, mais un acteur à part entière de la production d’informations sur le Web, le Web 2.0 a profondément bouleversé les enjeux liés à la mémoire individuelle, en introduisant des technologies permettant à chacun de s’exprimer, de commenter, de contribuer, sur des types de sites diversifiés.

Dans le Web 2.0, l’internaute crée ou met en ligne des contenus qui autrefois restaient dans sa sphère personnelle. Sur Flickr, la proportion de photos de famille, d’amis ou d’animaux familiers est écrasante. Les premières études Médiamétrie sur la blogosphère (2005) montraient déjà une scission, avec une forte majorité de blogs ayant en moyenne un seul lecteur : c’était en particulier le cas des skyblogs, utilisés par les jeunes davantage pour communiquer entre eux que pour publier sur le Web (Voir par ex. Gautier Poupeau, « Blogs et Wiki, quand le Web s’approprie la société de l’information », BBF). Le succès de réseaux sociaux comme Facebook confirme un usage des technologies en ligne destiné à renforcer des liens existants, des communautés déjà soudées (Voir les premiers résultats de l’enquête « sociogeek » http://sociogeek.admin-mag.com/ portant sur l’exposition personnelle sur le Web). En parallèle, on voit se développer des tendances très fortes de création de communautés totalement virtuelles, comme par exemple sur YouTube, où un individu, seul devant sa Webcam, se lance dans une introspection dont la dimension intime est plus ou moins véridique, et autour de laquelle finit par se mettre en place un groupe de fidèles dont la croissance est soutenue par la dimension virale du média (Cf. Michael Wesh, « An anthropological introduction to Youtube », présentation à la Library of Congress, 23 juin 2008).

Or, il existe sur le Web 2 .0 une dimension paradoxale de la permanence des contenus : alors que les contenus les plus institutionnalisés ou travaillés reposent sur un investissement technologique de leur créateur (maintenance du site Web, renouvellement annuel du nom de domaine, etc.) et donc tendent à disparaître lorsque celui-ci s’en désintéresse ou n’est plus en mesure de les maintenir, les contenus générés par les utilisateurs et hébergés sur les plateformes 2.0 ont une permanence forte puisque ces plateformes continuent à fonctionner même une fois que leur auteur s’en est détourné. C’est ainsi qu’apparaissent sur le Web 2.0 des « friches », des blogs qui restent en ligne mais ne sont plus consultés ni mis à jour : ce serait le cas de 94 % des 133 millions de blogs nés en 2002 (d’après Françoise Benhamou, « Va-t-on vers la disparition des blogs ? » Rue 89, 3 décembre 2008).
Ainsi, alors que l’on voit de précieuses informations s’évanouir, d’autres ne veulent pas disparaître. D’innombrables données sont stockées, parfois à l’insu de leurs producteurs, par des sociétés commerciales, constituant un réseau d’informations personnelles sur lesquelles repose la réputation des individus. Des moteurs de recherche comme 123people se consacrent spécifiquement au recoupement de ces informations, et permettent en un clic de trouver, sur une personne, toutes les informations disponibles en ligne : photo, adresse, n° de téléphone, comptes Facebook, Twitter et autre, adresse du blog…

On parle maintenant d’identité numérique pour désigner ces données dont le recoupement pose questions. Des questions juridiques et économiques par exemple, comme celles explorées dans le rapport de la FING : Le nouveau paysage des données personnelles : quelles conséquences sur les droits des individus ? Mais aussi des problèmes techniques liés aux systèmes de gestion d’identité (voir Exposé sur les identités numériques à la Fulbi par S. Bortzmeier et Exposé pédagogique sur la cryptographie par F. Pailler pour le groupe PIN). Le site DatalossDB est un projet de recherche qui recense les incidents de pertes de données sensibles, de quoi se donner bien des frissons. D’autres projets de recherche explorent la question sous différents angles.

Alors, « Pourquoi sommes-nous si impudiques ? » En réalité, si les internautes consentent à fournir une quantité croissante d’information personnelle sur les sites du Web 2.0, c’est parce que cette information, de plus en plus, est maîtrisée. L’enjeu est moins de cacher les contenus nuisibles à sa réputation qui pourraient persister en ligne, le concept de « droit à l’oubli » s’avérant largement impraticable sur le Web, que de construire une image de soi dont l’objectif « promotionnel » tend à creuser l’écart entre la réalité et l’image donnée ou perçue, jusqu’au mensonge (Cf Hubert Guillaud, « Genevieve Bell : secrets, mensonges et déceptions », Internet Actu, 20 février 2008).
Le blog Doppelganger.name, tenu par trois consultants spécialistes en techniques managériales et en Web 2.0, étudie les rapports entre identité et réputation sur le Web : il montre comment les pratiques de recrutement sont aujourd’hui infléchies par cette réputation numérique.

Face au besoin de maîtriser son identité numérique, des ressources se mettent en place : comme cette liste de 300 et plus outils de gestion d’identité numérique ou ces conseils pour savoir comment effacer son profil sur les sites de réseaux sociaux. Pour éviter d’en arriver jusque là, on envisage de former les étudiants à la gestion de leur identité numérique, ce serait en effet la moindre des choses, et pas seulement pour des professionnels de l’information.

Catalogues de bibliothèques et développements agiles

Dans le dernier numéro de Code4Lib Journal, deux informaticiens de la bibliothèque nationale de Suède publient un article intitulé « User-Centred Design and Agile Development: Rebuilding the Swedish National Union Catalogue ».

Il s’agit d’un retour d’expérience sur l’adoption d’une méthode de développement dite « agile » pour le catalogue collectif des bibliothèques suédoises, Libris.
Il s’agissait de reconstruire le système de A à Z, en un an seulement, y compris la partie moteur de recherche. Pour favoriser l’innovation, ils ont opté pour mener en parallèle une conception orientée utilisateurs, s’appuyant sur des études d’usages, et un développement itératif de type agile (SCRUM).
Côté étude d’usages, ils ont d’abord fait un questionnaire, puis des focus groups conduits sur la base de scénarios d’utilisation, et enfin des tests d’usabilité sur un prototype et une interface en version beta. Tout ça nous est assez familier, mais ce qui est nouveau, c’est d’adapter la méthode de développement de façon à ce que les retours des utilisateurs puissent être pris en compte dans la réalisation informatique au fil de l’eau.

Dans une méthode agile, l’objectif est de prendre en compte le fait que les conditions et les objectifs peuvent évoluer avec le temps, même pendant que se déroule le projet.
Cela implique de favoriser :
– les individus et leurs interactions plutôt que les processus et les outils
– les logiciels qui fonctionnent plutôt qu’une documentation extensive
– la collaboration avec le client plutôt la négociation contractuelle
– de répondre au changement plutôt que suivre un plan pré-établi.

Comme le dit très justement l’article, ces principes, pour séduisants qu’ils sont surtout vus depuis les utilisateurs du futur système, posent un certain nombre de problèmes. D’abord, ils sont plus inconfortables pour les décideurs, qui perdent en visibilité sur les charges et les dates ce que le projet gagne en souplesse. Il est donc important d’obtenir dès le départ le soutien des décideurs sur la méthodologie, et de bien leur expliquer que même s’ils ne peuvent pas voir les spécifications, le produit final sera bon. D’autre part, le code ainsi construit peut au final s’avérer instable, ce qu’ils ont résolu dans le projet cité en planifiant une session de 3 semaines dédiée à une évaluation fine de la qualité du code.
Tout cela est en grande partie une question de confiance et un des facteurs décisifs du projet a été la mise à disposition d’un espace commun pour les développeurs, où se tenaient également les réunions de travail avec l’équipe projet.

En conclusion, leur retour d’expérience est plutôt bon sur la méthode agile, qui semble avoir évité bien des écueils. Ce qui leur manque c’est plutôt la documentation et le transfert de compétences entre développeurs. Et ils auraient voulu impliquer encore davantage les utilisateurs dans le processus.
Je ne voudrais pas paraphraser la conclusion, qui est classe, donc la voici :

Finally, we would like to conclude that working with user-centred design in combination with iterative development is a better, faster and cheaper way of software development, compared to traditional models. Better – the product being released at the end is a more up-to-date and bug-free version than had we worked with a more traditional approach. Faster – it is our conviction that with traditional methodology we would not have finished on time, or at least not with the same amount of features implemented. Cheaper – if the same number of people are able to do a better job in a shorter amount of time, it is a more cost-effective way of getting the job done.

Il faut reconnaître que le résultat est pas mal du tout : même en suédois, on arrive à s’en servir ce qui prouve que niveau usabilité, c’est plutôt bien fait !!! Enfin pour expérimenter moi aussi la méthode agile en ce moment, je dois dire que cela me paraît effectivement très prometteur pour les projets innovants en bibliothèque.
Merci à Pintini pour la référence.

Politique

Je ne suis pas spécialement une adepte du métablogging (le métablogging est au blog ce que les métadonnées sont aux données : bloguer à propos du blog :-) ce qui fait que j’ai pu écrire pendant des années sans jamais ressentir le besoin d’expliquer ma « politique éditoriale » (à part de façon minimaliste, ou pour indiquer que je partais en vacances). Pourtant elle existe bel et bien, et régulièrement, je la remets en cause, en change une règle ou deux, m’accorde (ou ne m’accorde pas) des exceptions et des digressions.

Aujourd’hui, alors que j’ai sérieusement envisagé d’arrêter de bloguer, je ressens davantage le besoin de faire un point sur : pourquoi / comment je blogue ? Aussi parce que je ne peux plus tout à fait ignorer le fait que quelques personnes lisent ce que j’écris, que je n’écris pas que pour moi-même. Le contrat de lecture ne peut plus être totalement implicite, j’ai besoin de m’expliquer.

Voici donc, en 10 points, la politique éditoriale de mon blog.

Mon blog est un outil de gestion de connaissances personnel (PKM pour les intimes… oups !)
Je blogue d’abord pour moi-même, cela a toujours été le cas et doit le rester. Le fait de vouloir bloguer pour les gens qui me lisent est la première marche vers le découragement : peur de ne pas être à la hauteur de leurs attentes, peur d’être trop technique ou pas assez, risque de se sentir obligé de bloguer sur des sujets qu’on n’a pas envie, risque de devenir médiocre en recherchant l’audience… Tout cela finit par me donner l’impression que je perds mon temps en bloguant. Donc, avant chaque billet, m’astreindre à me demander s’il m’est utile, à moi.

Mon blog n’est pas exhaustif
Cela m’est parfois arrivé de me sentir obligée de bloguer un truc simplement pour être exhaustive dans ma veille sur certains sujets, « au cas où les gens compteraient sur moi » pour en parler. Je ne veux plus me fixer ce genre d’impératifs. Nous sommes suffisamment nombreux maintenant dans la biblioblogosphère francophone pour qu’aucun de nous ne se sente obligé de bloguer. Considérons que l’exhaustivité ne peut être que collégiale.

Mon blog n’est pas unique
Et son contraire est vrai également : il m’est arrivé de m’interdire de bloguer un truc parce que quelqu’un l’avait fait avant moi. Ce qui est idiot car après, quand j’ai besoin de réutiliser l’info pour un autre usage, c’est dans mon blog que je cherche, pas dans celui des autres. Je m’autoriserai donc à doublonner.

Mon blog est un réservoir bibliographique…
En effet, un des principaux usages avérés de mon blog est d’être un réservoir directement utilisable quand je dois écrire un article ou préparer un support sur un sujet. Je l’utilise pour récupérer les références amassées et gagner du temps sur la rédaction et la structuration de mes idées.

… inexploré
Jusqu’à maintenant, j’avais une règle qui était de ne pas publier une référence sans avoir pris le temps de la lire et d’en faire une revue critique. Clairement, ce n’est plus possible aujourd’hui, je n’ai plus le temps. J’envisage donc de publier plus régulièrement des liens sans avoir lu leur contenu, de façon à pouvoir les stocker pour plus tard. (Auparavant je faisais cela dans Delicious, mais Delicious n’est pas un réservoir de liens, c’est un cimetière ;-)

Mon blog reflète mes intérêts, pas mon expertise
Beaucoup de blogueurs privessionnels ont expérimenté cela : on a pu m’attribuer une certaine expertise sur des sujets qui reviennent régulièrement sur ce blog. Mais cela me semble utile de rappeler que j’utilise le plus souvent le blog comme outil de réflexion sur les sujets que justement, je voudrais maîtriser mieux. Bloguer sur les sujets où on se sent expert finit par être plutôt ennuyeux et redondant. Je me fixe comme objectif d’élargir le champ de mes centres d’intérêts, et d’en abandonner des vieux au profit des nouveaux.

Mon blog est un terrain d’apprentissage
Le fait de m’astreindre à écrire, donc à structurer ma pensée et à documenter mon propos, me permet de monter en compétences sur le sujet que j’aborde. Quand je relis des vieux billets je souris parfois devant ma naïveté passée… mais c’est très important pour moi justement de préserver cet espace de naïveté. Je suis comme un stagiaire à qui on demande une fiche de lecture sur un sujet pour voir s’il en a bien compris les enjeux. Ce sont des billets de « réflexion apprenante » sur lesquels je sollicite également l’oeil critique de mes lecteurs.

Il ne faut pas mélanger travail et plaisir. Enfin si.
Bloguer utile, c’est bloguer sur les sujets qui vont alimenter les projets en cours, les réflexions sur le feu et les sujets d’actualité du boulot. Il y a donc un déterminisme fort du travail sur le blog… Mais le blog c’est pour le plaisir avant tout, alors pas de contraintes ! Le blog est aussi une démarche personnelle et indépendante, avec toute liberté de s’éloigner du dur labeur quotidien.

Mon blog n’est pas prioritaire sur la vie
Vous m’y avez vous-mêmes encouragée, il faut tolérer le ralentissement. Quand on a autre chose à faire, on ne blogue pas et ce n’est pas grave. Je vous annonce donc très officiellement que je me suis fixé d’écrire un billet par semaine, et que je n’ai pas l’intention de m’y tenir ;-)

Bloguer libre ou mourir !
Je voudrais surtout éviter d’avoir à me prendre la tête sur chaque mot que j’écris en me demandant comment il pourrait être (mal) perçu. Considérons donc cette mise au point comme la porte ouverte sur la possibilité de bloguer exactement comme j’en ai envie, avec insouciance, irrégularité, dans l’approximation et l’imperfection, et sans me prendre au sérieux. Comme j’ai toujours essayé de le faire.

To blog or not to blog ?

Récemment, deux événements importants sont arrivés dans ma vie, l’un dans ma vie personnelle, l’autre dans ma vie professionnelle. Ces deux événements ont été synonymes de changement, dans le sens de davantage de responsabilités, et le temps dont je dispose pour bloguer en a été directement affecté.
On voit bien le résultat : sur toute l’année 2008 je n’ai même pas écrit 30 billets (soit moins d’un par semaine), alors qu’avant je maintenais sans trop de difficultés de le rythme d’un billet tous les deux ou trois jours.

Devant un tel constat, et le peu d’espoir que tout à coup je me remette miraculeusement à avoir du temps pour moi, une décision radicale s’impose. Il faut que je décide quoi faire de ce blog, s’il doit, s’il peut vivre… ou non.

Le premier événement dont je parle (pour ceux qui n’auraient pas suivi, j’ai eu un bébé) m’a fait réaliser une chose importante. Un blog « privessionnel » se situe dans la sphère du professionnel plus que dans celle du privé. Le travail nourrit le blog, même si on ne blogue pas son travail mais sa profession : ainsi, ayant été en congés pendant des mois, je me suis dit « chouette, je vais avoir plein de temps pour bloguer ! » Et pourtant je ne l’ai pas fait, ou si peu. Je continuais à faire de la veille, à lire des biblio-choses, pour la plupart intéressantes… mais l’envie de bloguer, ou la capacité, n’était pas là.

Or me voici de retour parmi les actifs, et maintenant confrontée au second événement : tout en restant dans le même établissement, j’ai changé de poste et je me trouve maintenant face à un éventail beaucoup plus large d’activités et de personnes, et sollicitée de façon beaucoup plus intense. Pourtant, tout en étant parfois complètement noyée sous le boulot dans mon nouveau poste, j’ai retrouvé l’envie et l’énergie de bloguer, des sujets d’intérêt, une structuration de ma pensée appropriée. Le blog se nourrit de l’infobésité, de la surcharge d’activité fébrile des périodes de travail intense.
Enfin, autant que faire se peut ! Après tous ce temps de silence, je me suis retrouvée victime d’une vieille terreur, l’angoisse de la page blanche, la timidité du blogueur débutant. Depuis ma nouvelle place, je ne savais plus comment me lancer dans ce monologue public qu’est le blog, je ne savais plus comment concilier mes différentes identités, notamment vis à vis de mes collègues (je sais que vous êtes là, c’est pas discret, vous vous appelez tous athena.bnf.fr ;-)

Il faut réussir à concilier tout cela, trouver sa place, se reposer les questions de base : qui suis-je ? pourquoi blogué-je ? etc.

Des changements s’annoncent.
Pour mieux gérer mon temps, je vais devoir changer ma façon de faire ma veille. Pour mieux gérer le rapport entre mon travail et mon blog, je vais devoir ajuster ma « politique de publication ».
Bref, mon blog va changer. J’y réfléchis, et dès que j’arrive à quelque chose, je vous préviens ;-)

Organisation de la préservation numérique dans les BN

Ces derniers temps, quand je réussissais à m’arrêter de courrir deux minutes, je mon plongeais dans la lecture de ceci : Networking for digital preservation. Current practice in 15 national libraries. Rapport d’Ingeborg Verheul de la KB pour l’IFLA en 2006 sur un sondage effectué auprès de 15 bibliothèques nationales dans le monde sur leurs pratiques en terme de préservation numérique.

Je m’intéressais en particulier aux aspects organisationnels, qui sont bien mis en valeur dans ce rapport : que faut-il comme structure, entités, organisation pour savoir faire de la préservation numérique dans une bibliothèque nationale ?
Malheureusement, je manque d’énergie pour structurer vraiment ma pensée mais je vous livre en vrac quelques réflexions qui m’ont été inspirées par cette lecture.

La première, c’est que cette étude a été réalisée pour une section de l’IFLA qui s’appelle ICABS (Ifla-CDNL Alliance for Bibliographic Standards). On pourrait se demander, à priori, pourquoi des gens versés dans le biblographique s’intéresseraient soudain à la préservation numérique… Je crois que la réponse réside dans le fait que la préservation numérique est avant tout une question de bonne gestion de l’information (vous vous souvenez, les fameux « paquets » dans l’OAIS…)

Du coup on pourrait se demander, et la question est soulevée dans le rapport, si la préservation numérique doit vraiment être rapprochée de la conservation « traditionnelle ». Jusqu’à un certain point, elles jouent dans des cours bien différentes, mais elles peuvent avoir une méthodologie partagée (je pense par exemple à la gestion des risques).

D’une façon générale, le rapport rappelle à plusieurs reprises que la préservation numérique met en jeu des activités trop diversifiées pour qu’elles puissent être centralisées dans un seul service (aquisitions, catalogage, gestion de collection, informatique notamment). De fait, si les 15 bibliothèques interviewées ont toutes au moins une entité dédiée au numérique, aucune n’y concentre la totalité de son activité de préservation numérique. En fait il y a un phénomène d’évolution dans le temps : plus on est proche de la phase de démarrage, plus l’organisation est centralisée. Ensuite, quand l’activité de préservation numérique tend à entrer en phase de mise en oeuvre et de gestion quotidienne, les responsabilités sont de plus en plus réparties dans la bibliothèque en fonction de compétences déjà existantes. De plus la plupart de ces bibliothèques se dotent également de structures transverses telles que des groupes de travail dont le but est « d’ancrer la préservation numérique dans le quotidien futur de la bibliothèque, grâce à la coopération et au partage des connaissances ».

Certes, on a un peu l’impression d’enfoncer des portes ouvertes mais parfois ça va mieux en le disant.
En annexe, on trouve tous les organigrammes des bibliothèques interviewées ce qui est assez instructif aussi. On y découvre que la propension à une profusion organisationnelle parfois difficile à décrypter pour un oeil externe est une caractéristique partagée pour ce type d’établissement…