Oui ou non ?

Quand je lis des arguments comme "moi, la Constitution, je l’ai pas lue, alors je dis non" mon sang ne fait qu’un tour. C’est pas comme si c’était difficile de trouver le texte, il suffit de taper constitution européenne dans son moteur de recherche préféré pour tomber dessus.

Bon, ceci dit, c’est vrai que le texte est long et particulièrement indigeste en PDF.

Si vous faîtes partie de ces gens qui pense que le PDF n’est pas forcément le meilleur format pour publier des textes lisibles sur le Web, vous pouvez aussi la consulter en HTML, et même, maintenant, en wiki sur NotreConstitution.net.

J’ai découvert ça sur Libé hier et c’est vraiment sympa comme site, la constitution est présentée de manière arborescente, mais on peut aussi faire des recherches (via le moteur de Jean Véronis ou un autre), cartographier les mots, et bien sûr, discuter en wiki autour du processus de référendum (pas du oui ou du non, ce n’est pas un site politique).

Pour ceux qui trouveraient ça encore trop compliqué, il peuvent même lire la constitution en langage texto. Alors franchement, de quoi se plaint-on.

Histoire libre

Should Historical Scholarship Be Free? Tel est le titre d’un article que l’on peut lire sur le site de l’Association des historiens américains. Comme on peut l’imaginer, il s’agit de débattre de l’opportunité et de la faisabilité d’appliquer les concepts de l’open access, bien connu en sciences dites dures, aux sciences historiques.

L’auteur de l’article brosse un panorama général accessible pour des gens qui n’auraient (presque) jamais entendu parler de l’Open access. Il termine par une liste de possibilités, incluant celle de faire participer les bibliothèques.

J’ai commencé par me dire, ah mon dieu, encore quelqu’un qui pense que les bibliothèques devraient faire de l’édition. Que nenni : les auteurs sont bien placés pour savoir à qui ils veulent confier leur travail pour le publier (à des éditeurs bien sûr). L’idée est donc tout autre : proposer aux bibliothèques de participer, à la fois financièrement (à la place de payer des abonnements), et par un effort d’archivage pérenne, à la conservation et la diffusion des journaux électroniques. Et en échange de ce service, les offrir en libre accès.

Evidemment, les bibliothécaires savent aussi faire du signalement, comme le montre cette page sur le site de l’Amercian Libraries Association, consacrée à l’histoire médiévale.

Merci à Open Access News et à ResourceShelf.

Longue vie aux données

Le National Science Board, un organisme américain d’expertise et de conseil dans le domaine de la science et de l’industrie, vient de publier le "brouillon" d’un rapport sur les collections de données numériques et leur préservation : Long-Lived Digital Data Collections: Enabling Research and Education in the 21st Century (PDF, 64 pages). Le document est soumis aux commentaires de la populace internationale.

Le champ de ce rapport est large, puisque sous le terme de "data" on trouve any information that can be stored in digital form, including text, numbers, images, video or movies, audio, software, algorithms, equations, animations, models, simulations. On focalise ensuite sur l’idée que ces données sont organisées, structurées en collections dans leur stockage, mais aussi dans leur production et leur consultation. Et enfin, le point clef est la nécessité de conserver ces données dans le temps, en faisant référence au modèle OAIS.

Je n’ai pour l’instant que jeté un oeil rapide à la table des matières, mais l’impression que cela donne est que l’approche disciplinaire plus ou moins orientée sur les données scientifiques devrait être intéressante pour nous, bibliothécaires. Cela permet toujours de sortir de nos concepts bibliothéconomiques, et en voyant comment ils peuvent s’appliquer dans d’autre domaines, à mieux les comprendre et les conceptualiser.

Merci à 10kyBlog.

Si j’avais un jardin…

Si j’avais un jardin, je me dirais, tiens c’est le printemps, et si j’achetais des choses pour mon jardin. Je me rendrais chez un fameux marchand de mobilier en banlieue et j’irais au rayon des trucs pour le jardin.

Evidemment, si on me demandait ce que je voudrais acheter comme objet en faïence kitsch à la place de mon nain de jardin qui a fini par prendre sa retraite, je dirais, bien sûr : une figue géante.

Eh ben, croyez-le ou pas, au milieu des champignons en porcelaine, des concombres pas masqués et des cactus en plastique, on trouve des figues géantes en faïence chez Ikea. Trop fou.

(Heureusement pour mon geek, notre nouveau chez-nous n’a pas de jardin !)

La numérisation de la Licorne

Ce matin avec mon petit déjeuner, j’ai savouré un article passionnant qui raconte l’aventure de la numérisation des tapisseries de la Chasse à la Licorne du Cloister’s Museum de New York.

Tout commence en 1998 au moment où on décide de rénover la salle où les précieuses tapisseries sont présentées. On en profite pour les rappatrier au Metropolitan pour les restaurer. Lorsqu’on les retire de leur cadre, on s’aperçoit que le dos des tapisseries, jamais exposé donc parfaitement protégé, est le miroir du recto mais avec des couleurs chatoyantes. On décide alors de numériser les tapisseries, recto et verso.

Un mécanisme compliqué est mis en place pour photographier les tapisseries, mètre carré par mètre carré (si je ne m’abuse sur les conversions de système métrique), avec des recouvrements qui doivent permettre de reconstituer virtuellement l’image complète. Les tapisseries sont posées horizontalement, face vers le bas.

Résultat de l’opération : deux semaines de prises de vues, 200 CD de photographies en haute résolution, prises dans les meilleures conditions techniques possibles. Et pourtant, au moment de reconstituer les images, impossible de faire converger les recouvrements d’images. Les images sont trop nombreuses et trop lourdes, mais même en les dégradant, on n’arrive à rien de satisfaisant et l’équipe abandonne.

En 2003, deux mathématiciens spécialisés dans le traitement des images numériques ressortent les CD et se penchent à nouveau sur le problème. D’abord, ils pensent que les photos ont été mal prises ou modifiées. Puis ils en viennent à cette conclusion : les tapisseries de la Licorne, présentées verticalement pendant tant de siècles, et tout à coup placées à l’horizontale, ont changé de forme, se sont relaxées, ont respiré, se sont contracté. Les fibres ont tourné et bougé. Les tapisseries faites de laine, sont des objets en trois dimensions, liquides, vivants. Entre chaque prise de vue, ces imperceptibles mouvements du matériau ont faussé l’exactitude du cadrage et transformé ce qui devait être une simple opération de puzzle numérique en véritable cauchemar.

Je vous passe les détails de l’équation nécessaire pour rétablir l’uniformité des images numériques. La morale de cette belle histoire, c’est que l’oeuvre ne se laisse pas capturer si facilement sous forme de zéros et de uns. Elle se tord, résiste, et dans sa sublime inexactitude, elle vit.

Merci à Digitization 101.

Annotation collaborative

Pas besoin de développer des interfaces extraordinaires pour permettre l’annotation collaborative d’une ressource disponible en ligne, comme le montre le site  »Annotated NY Times. Celui-ci est construit à partir des fils rss des blogs qui commentent les articles du New York Times. On peut suivre les discussions par article, par auteur des articles ou par thème. Le site agrège les billets qui citent le NY Times, et propose plus de 6000 fils RSS pour suivre chaque discussion.

"NOT affiliated with The New York Times" peut-on lire sur la page learn more. C’est dommage… et si les journaux utilisaient la puissance de RSS et la richesse des blogs pour permettre de suivre l’impact d’un article sur le Web ?

Je trouve cette initiative vraiment intéressante et elle montre bien qu’avec des outils simples on peut construire un véritable contexte collaboratif autour d’une ressource. Un journal, mais pourquoi pas, demain, un inventaire d’archives en EAD annoté par les chercheurs qui font du dépouillement, un catalogue de bibliothèque commenté et annoté par les lecteurs, ou encore une bibliothèque numérique enrichie ? Bien sûr, il faudrait que les institutions soient prêtes à s’ouvrir à des contenus dont la validation leur échappe, ou plutôt, dont la validation se fait a posteriori du côté des lecteurs, par simple confrontation de la multiplicité des sources. Il faudrait aussi qu’il y ait plus de sources donc beaucoup plus de blogs, mais pour ça, je suis confiante en l’avenir :-)

Vu sur e-cuaderno.

Tiens, presque en même temps, une expérience du même genre avec un wiki et un texte juridique : voir sur Juriblog.

Relire Borges

En lisant cet article signé par un sénateur (vu chez S. Bailly), je me suis dit qu’il était vraiment temps de relire Borges et sa Bibliothèque de Babel :

La bibliothèque imaginée par Borges est une métaphore de l’univers (…) « Et si la bibliothèque contenait tous les mondes » écrit Borges. 50 ans avant l’avènement du Web, Borges avait déjà inventé le concept d’hyperlien et d’hypertexte, et pressenti l’avènement des mondes virtuels ! (…) « La bibliothèque universelle, Borges l’a rêvée, Google l’a fait »

Cela me laisse sans voix. Il faut relire la nouvelle de Borges avant de parler du « rêve » de la bibliothèque universelle. Ce n’est pas un rêve, mais bien un cauchemar, dans lequel la bibliothèque devenue inutile par excès de perfection en vient à menacer l’humain.

Lisez donc plutôt cet autre article d’Alberto Manguel, l’auteur des excellents Une histoire de la lecture et Le livre d’images.

Avec ce projet, Google tend vers le cauchemar de Borges à propos de la bibliothèque de Babel: tout ce qui peut être dit ou écrit par la combinaison des lettres de l’alphabet y est. (…) En un sens, Internet est l’incarnation de ce labyrinthe-là.

Bon la conclusion est en fait la même : Internet (Google ?) est l’incarnation de cette bibliothèque de Babel. Rêve ou cauchemar, telle est la question.

Ordinateurs et bibliothèques

Les présentations de la conférence Computers in Libraries 2005 sont en ligne.

Il y en a un peu pour tous les goûts, je note par exemple :

  • le design d’interfaces pour la recherche fédérée
  • les blogs collaboratifs (retour d’expérience de LISnews)
  • les moteurs de recherche
  • les bibliothèques et la gestion de contenu
  • OpenURL
  • la visualisation de données
  • Google et le contrôle de l’information (sympa celui-là, dommage qu’il ne mentionne pas les extra-terrestres
  • XML et XSLT
  • l’OAI

Bon j’arrête. Si j’étais sympa j’aurais mis à chaque fois le lien vers les présentations mais bon, mettre des liens vers tous ces fichiers powerpoint, beuah.

Cela vaut le détour en tout cas.

Submergée

Eh oui, voilà ce qui arrive quand on fait des billets bidons au lieu d’être sérieux, et aussi quand on a des problèmes de connexion à répétition :-( Les choses intéressantes s’accumulent, on n’a pas le temps de les lire, et encore moins de les bloguer.

Bon, je vais essayer de résumer.

Du côté de la Library of Congress, plusieurs infos intéressantes :

  • le rapport Amega sur les applications de génération automatique de métadonnées
  • un autre travail sur l’Access level cataloguing pour les ressources en ligne (???)
  • dans le cadre du NDIIPP, leur groupement national de veille sur la préservation des documents numériques, ils ont mis en place un toolkit ou un modèle d’archivage, dont l’objectif est de fournir une métohodologie pour la mise en oeuvre de l’archivage de documents numériques.

Dans le domaine de la préservation, il y a un questionnaire qui circule, composé d’une seule et étrange question : combien de temps voudriez-vous que votre support de stockage soit capable de durer ? En gros, vos CD, est-ce que vous comptez dessus pour 20, 30, 40 ans ? Vu que le minimum c’est 20 ans, tout ceci me paraît légèrement utopique. J’aurais dit 5.

Bon et puis dernier truc, un outil vient de sortir, le TeiPublisher, qui permet de gérer des collections de documents en XML ou XHTML (pas forcément en TEI d’ailleurs apparemment). Il est basé sur le moteur Lucene et sur la base de données XML native eXist. En open-source, of course.

Pour tout ça, merci principalement à Catalogablog et à Digitization 101.

Google et le contrôle de l’information

On a enfin découvert pourquoi Google cherche à contrôler l’ensemble de l’information de la planète. D’après un communiqué du SETI (Search for Extraterrestrial Intelligence Institute) publié en ce vendredi 1er avril, l’observatoire SOFIA aurait enregistré des communications dans une langue inconnue entre le Googleplex de Mountain View et des objets volants non identifiés de petite taille, situés en orbite de la Terre, et qui étaient auparavant considérés comme des météorites inoffensives. Ces météorites seraient en réalité composées d’un matériau inconnu dans notre galaxie, capable de stocker des milliers de teraoctets de données sur une surface minuscule.

A l’échelle de cette découverte, on comprend mieux comment Google fait pour offrir désormais 2 gigas de stockage aux utilisateurs de son système de messagerie Gmail. Cela fait en fait partie d’un grand complot intergallactique visant à contrôler tous les flux d’informations de la planète Terre, utilisés comme source d’énergie primaire par les extraterrestres ayant mis en place cet ingénieux processus. En fait, plus l’espace de stockage occupé est important, plus le flux d’information générée est intense, et peut ainsi être réutilisé pour fournir de l’énergie.

Il paraîtrait même que les extraterrestres qui ont mis en place Google auraient lancé une boisson énergétique, le GoogleGulp, dont l’objectif est en réalité d’implanter des modifications biologiques dans les êtres humains, qui permettent d’utiliser les ressources non utilsées du cerveau comme espace de stockage de données, sans prendre le risque d’être confronté à l’obsolescence des formats et des supports qui caractérise notre société primitive.

Nous vivons vraiment une époque formidable.

Mise à jour :

Dans le même genre :