Confiture de belles images

Dans la série retrouvons le plaisir de surfer ailleurs que sur les blogs, voici quelques ressources intéressantes dans le domaine de l’histoire du livre, avec plein de jolies choses numérisées…

  • un site qui réunit des plans anciens de Paris numérisés, avec un bon outil de zoom pour les consulter
  • un site qui permet de trouver des cartes de Rome
  • un joli site plein de belles images sur l’histoire du livre et de l’édition à l’époque moderne : Textes rares
  • le site personnel de D. Varry où on trouve de nombreuses ressources en histoire du livre et en particulier en bibliographie matérielle.

Parmi ces dernières je vous recommande tout particulièrement la base de données catalane de marques d’imprimeurs, très pratique et où on trouve plein de jolies choses comme cette licorne de Kerver…

Confiture de liens spéciale jeunesse

Ces derniers temps, ayant commencé à entendre les mots « Internet », « blog » et autres sortir naturellement de la bouche de ma mini beta-testeuse, je me suis mise en quête de nouvelles activités à faire avec elle sur le Web. En ces temps de vacances, je vous propose de les partager ici…

  • les jeux de Lulu : plein de jeux tout simples, souvent éducatifs, qui remportent un succès certain malgré leur aspect sobre
  • sur le site Takatrouver, une rubrique de jeux mais qui s’épuise rapidement. Le jeu des associations reste une valeur sûre.
  • Decod’Art : un magazine trimestriel pour découvrir l’art, alliant le joli à l’agréable.

Et maintenant, dans la rubrique pas encore testé :

  • les jeux de Kidado
  • le site de Caat, il y aussi des jeux dans la rubrique "web works"
  • la très jolie pâte à sons

Spéciale dédicace à Marlène ;-) et merci à Mimi et à d’autres.

Histoire et Internet

Je me suis trouvée l’autre jour à cette journée d’étude organisée par la BDIC sur le thème "Classification et histoire". La deuxième journée a commencé par une intervention brillante de Philippe Rygiel dont je ne ferai pas le résumé ici de peur de trahir ses idées… Mais il abordait la question d’Internet utilisé comme source de l’histoire, ainsi que de l’impact d’Internet et de l’informatique d’une manière plus générale sur l’histoire et l’écriture de l’histoire.

Bref, il a cité entre autres ce site : Atlas interactif de l’immigration en France qui est une initative très intéressante. A partir d’une base qui réunit des données sur l’immigration en 1931 et 1936, il permet à l’internaute de choisir ses paramètres pour construire sa propre carte de l’immigration. On peut par exemple demander l’immigration des hommes belges en 1936 et la proportion de belges par rapport aux autres étrangers dans chaque département ;-)

Au passage, je signale que dans la revue de la BDIC Matériaux pour l’histoire de notre temps il y a un numéro spécial sur l’utilisation d’Internet comme source par les historiens (avec un article de Rygiel justement).

Parmi les conclusions de son intervention, Rygiel soulignait que l’histoire savante est presque absente du Web, et qu’en tout cas les historiens qui s’expriment dans les forums ou les listes de discussion ne proposent quasiment jamais de débats ni de textes. Il y voyait une difficulté d’appropriation du média mais aussi, peut-être, la conséquence d’un enjeu de pouvoir, en particulier si le Web devait s’affirmer pour l’historien comme un espace d’expression "libre" hors de son institution. Ca m’a fait penser aux blogs

Pratique

Vous l’avez peut-être remarqué, je ne suis pas très en forme cette semaine donc excusez-moi si les billets sont courts et mélangés.

Aujourd’hui, quelques trucs pratiques…

Le premier c’est une page de personnalisation de fil RSS pour obtenir les nouveautés de sa bibliothèque. On peut choisir par classe de la Dewey ou une autre classification plus générale, et on choisit les critères de tri des résultats ainsi que la fréquence d’actualisation.

Le second c’est Lookleap, un outil qui sert à générer des URL raccourcies pour citer une ressource. Il permet aussi d’annoter des pages Web et d’envoyer des mails préformattés avec un lien. Enfin, si on lui donne à manger un PDF, il en propose une version "cache" très propre en HTML. Un peu comme la transformation du PDF proposée par Google, mais en propre. C’est spécial pour les gens qui haïssent le PDF.

Le dernier est un manuel de numérisation édité électroniquement et accessible librement en ligne. L’ouvrage date de 2005 et on peut l’acheter 30$ sur Amazon (pour les gens qui arrivent pas à lire sur écran ;-) mais il faudra attendre le 30 novembre !

Semantic Grid

Je suis tombée grâce à PluriTal sur ce bon article qui explique ce qu’est le semantic grid.

Le principe du Grid est d’utiliser des ressources distribuées pour accomplir une tâche. L’idée de Grille, par rapport à celle de Toile (Web) qu’on a l’habitude d’utiliser, suggère l’existence de ressources mises en réseau mais dans un système organisé, avec un niveau technique plus poussé.

En général, on connaît le grid computing, dans lequel c’est la puissance de calcul qui est répartie entre des machines distribuées. Un bon exemple quasi inoubliable est le SETI Institute et son SETI@home project visant à rechercher une intelligence extra-terrestre. Pour cela une énorme puissance de calcul est nécessaire, aussi les gens, vous et moi, sont invités à installer un petit logiciel qui va permettre d’exploiter les ressources dormantes de notre, votre ordinateur.

Il existe aussi des systèmes distribués qui permettent d’échanger des ressources ; ils sont plus connus sous le nom de peer to peer mais le principe est le même qu’un grid.

Ici on nous propose de réfléchir à un système de grid sémantique dans lequel ce ne sont pas les ressources qui sont échangées, mais leurs métadonnées au travers des technologies du Web sémantique comme RDF ou les ontologies.
L’idée est d’introduire la relation décrite sur le schéma ci-joint :

  • le grid est plus développé technologiquement que le Web
  • le Web sémantique est plus organisé que le Web
  • le grid sémantique est plus technologique ET organisé que le Web.

On peut dès lors imaginer des systèmes cohérents et « intelligents » qui permettent de traiter de grosses masses de métadonnées non pas de manière centralisée, comme le fait Google, ce qui est finalement très contraire à l’esprit du Web, mais de manière distribuée, avec plusieurs angles d’attaque et des métadonnées normalisées et ouvertes qui sont au coeur du système.

Consulter aussi le site consacré au semantic grid.

Vers des contenus participatifs ?

J’ai été interpellée par ce billet sur ResourceShelf qui évoquait cette annonce d’Internet Archive.

Un événement se produit et pour garder le plus possible de souvenirs de cet événement, on met tout le monde à contribution, tous les volontaires. A la fois pour faire de la politique documentaire – repérer les ressources pertinentes – et pour mettre en oeuvre la collecte elle-même.

Cette démarche est tout à fait dans l’esprit du Web, elle me fait assez penser à Wikipedia.
(Au passage, merci à Tristan pour m’avoir fait découvrir Uncyclopedia, une anti-encyclopédie-wiki qui ne véhicule que de l’information partiale, inutile et drôle – on remarquera que même une initiative de ce genre ne peut se passer de règles du jeu et d’une forme de contrôle par la communauté.)

Les bibliothèques ne pourront pas éternellement faire l’économie de ce genre de démarche participative dès lors qu’elles touchent au domaine du numérique. Les usagers familiers du Web ne comprendront (ne comprennent déjà ?) pas pourquoi un éditeur privé comme Amazon ou des fondations comme Internet Archive les invitent à participer à l’élaboration (ou à l’évaluation) des contenus, alors que les institutions du service public s’y refusent.

Il faudra donc trouver des solutions pour permettre aux lecteurs d’ajouter leur grain de sel dans l’information, sans pour autant mettre en danger la validation de celle-ci. Des systèmes de validation a posteriori sont possibles, les Archives des Yvelines en ont monté un très sympathique consultable ici. N’hésitez pas à demander un mot de passe et à tester les annotations, c’est gratuit et instantané.
Le principe est de permettre aux utilisateurs qui sont en train de consulter les archives de proposer une transcription, celle-ci étant fortement cadrée par les champs prédéfinis par les archivistes. On a ainsi un usage très contrôlé de l’annotation, qui devrait satisfaire à la fois les utilisateurs et les archivistes puisque la marge d’erreur (ou de loufoquerie) est assez faible.

Reste à savoir si les lecteurs marcheront dans la combine, ce qui revient à se demander si les bibliothèques sauront susciter une communauté d’utilisateurs désireux de construire ensemble quelque chose de meilleur. Ces communautés existent sur le Web, elles existent autour d’outils comme Wikipedia et elles existent dans les archives surtout avec les généalogistes. J’ai plus de doutes pour les bibliothèques.

Loosely coupled

Encore quelque chose de beau et d’intraduisible : les systèmes "loosely coupled" ; on pourrait dire légèrement attachés, ou reliés en douceur (allez-y, pour la traduction, lâchez-vous dans les commentaires).

Ce terme employé dans le domaine des Web services décrit des applications capables d’interagir de manière non contraignante. On en a un bon exemple ici, avec l’utilisation conjointe de "Find in a Library" de WorldCat et de Google Maps. Des systèmes "reliés en douceur", même s’ils utilisent des technologies incompatibles et s’ils évoluent en permanence, peuvent être rassemblés ou séparés sans conséquences graves sur les différents modules.
C’est donc juste un joli mot pour décrire un phénomène qu’on commence à bien connaître : la disparition des systèmes « intégrés » ou on gérait tout dans une seule grosse boîte noire, et leur remplacement par des systèmes « modulaires » ou l’on peut ajouter ou retirer un service sans faire s’écrouler l’édifice.

Il y a même un site consacré à cela : Loosely Coupled, où l’on trouve entre autres choses utiles un glossaire des termes consacrés aux Web services et même un blog.

Merci à Lorcan Dempsey.

Annotation collaborative

Pas besoin de développer des interfaces extraordinaires pour permettre l’annotation collaborative d’une ressource disponible en ligne, comme le montre le site  »Annotated NY Times. Celui-ci est construit à partir des fils rss des blogs qui commentent les articles du New York Times. On peut suivre les discussions par article, par auteur des articles ou par thème. Le site agrège les billets qui citent le NY Times, et propose plus de 6000 fils RSS pour suivre chaque discussion.

"NOT affiliated with The New York Times" peut-on lire sur la page learn more. C’est dommage… et si les journaux utilisaient la puissance de RSS et la richesse des blogs pour permettre de suivre l’impact d’un article sur le Web ?

Je trouve cette initiative vraiment intéressante et elle montre bien qu’avec des outils simples on peut construire un véritable contexte collaboratif autour d’une ressource. Un journal, mais pourquoi pas, demain, un inventaire d’archives en EAD annoté par les chercheurs qui font du dépouillement, un catalogue de bibliothèque commenté et annoté par les lecteurs, ou encore une bibliothèque numérique enrichie ? Bien sûr, il faudrait que les institutions soient prêtes à s’ouvrir à des contenus dont la validation leur échappe, ou plutôt, dont la validation se fait a posteriori du côté des lecteurs, par simple confrontation de la multiplicité des sources. Il faudrait aussi qu’il y ait plus de sources donc beaucoup plus de blogs, mais pour ça, je suis confiante en l’avenir :-)

Vu sur e-cuaderno.

Tiens, presque en même temps, une expérience du même genre avec un wiki et un texte juridique : voir sur Juriblog.

Google et le contrôle de l’information

On a enfin découvert pourquoi Google cherche à contrôler l’ensemble de l’information de la planète. D’après un communiqué du SETI (Search for Extraterrestrial Intelligence Institute) publié en ce vendredi 1er avril, l’observatoire SOFIA aurait enregistré des communications dans une langue inconnue entre le Googleplex de Mountain View et des objets volants non identifiés de petite taille, situés en orbite de la Terre, et qui étaient auparavant considérés comme des météorites inoffensives. Ces météorites seraient en réalité composées d’un matériau inconnu dans notre galaxie, capable de stocker des milliers de teraoctets de données sur une surface minuscule.

A l’échelle de cette découverte, on comprend mieux comment Google fait pour offrir désormais 2 gigas de stockage aux utilisateurs de son système de messagerie Gmail. Cela fait en fait partie d’un grand complot intergallactique visant à contrôler tous les flux d’informations de la planète Terre, utilisés comme source d’énergie primaire par les extraterrestres ayant mis en place cet ingénieux processus. En fait, plus l’espace de stockage occupé est important, plus le flux d’information générée est intense, et peut ainsi être réutilisé pour fournir de l’énergie.

Il paraîtrait même que les extraterrestres qui ont mis en place Google auraient lancé une boisson énergétique, le GoogleGulp, dont l’objectif est en réalité d’implanter des modifications biologiques dans les êtres humains, qui permettent d’utiliser les ressources non utilsées du cerveau comme espace de stockage de données, sans prendre le risque d’être confronté à l’obsolescence des formats et des supports qui caractérise notre société primitive.

Nous vivons vraiment une époque formidable.

Mise à jour :

Dans le même genre :