Pas besoin de développer des interfaces extraordinaires pour permettre l’annotation collaborative d’une ressource disponible en ligne, comme le montre le site »Annotated NY Times. Celui-ci est construit à partir des fils rss des blogs qui commentent les articles du New York Times. On peut suivre les discussions par article, par auteur des articles ou par thème. Le site agrège les billets qui citent le NY Times, et propose plus de 6000 fils RSS pour suivre chaque discussion.
"NOT affiliated with The New York Times" peut-on lire sur la page learn more. C’est dommage… et si les journaux utilisaient la puissance de RSS et la richesse des blogs pour permettre de suivre l’impact d’un article sur le Web ?
Je trouve cette initiative vraiment intéressante et elle montre bien qu’avec des outils simples on peut construire un véritable contexte collaboratif autour d’une ressource. Un journal, mais pourquoi pas, demain, un inventaire d’archives en EAD annoté par les chercheurs qui font du dépouillement, un catalogue de bibliothèque commenté et annoté par les lecteurs, ou encore une bibliothèque numérique enrichie ? Bien sûr, il faudrait que les institutions soient prêtes à s’ouvrir à des contenus dont la validation leur échappe, ou plutôt, dont la validation se fait a posteriori du côté des lecteurs, par simple confrontation de la multiplicité des sources. Il faudrait aussi qu’il y ait plus de sources donc beaucoup plus de blogs, mais pour ça, je suis confiante en l’avenir :-)
Vu sur e-cuaderno.
Tiens, presque en même temps, une expérience du même genre avec un wiki et un texte juridique : voir sur Juriblog.
Eh bien, je commence à accepter l’idée d’une potentielle validation a posteriori… C’est un long cheminement, je n’ai pas encore effectué ma conversion totale, mais je suis sensible à l’idée. Une nouvelle révolution copernicienne ? Il y a des risques qu’il faudra bientôt prendre… Attention aux bûchers! ;-)
Comme vous le signalez, le cas du NY « n’est qu’une » agrégation de message, une mise en commun.
Dans le 2ème cas cité (wiki), il s’agit d’une réelle coproduction. L’implication des co-auteurs n’est pas du tout de même nature, et il ne me semble pas que l’on puisse réellement parler d’annotation collaborative dans le 1er cas, chacun produisant sa propre annotation ? (les réponses à chacune des notes font parties de chacun des blogues-source).
Mais bien sûr toute capitalisation qui apporte de l’information (en l’occurrence sur de l’information ;-)) est la bienvenue. SD
Effectivement, le projet autour du NY Times ne peut être considéré vraiment comme de l’annotation collaborative dans le même sens qu’un wiki. Pour autant, cette façon de concevoir l’annotation est intéressante dans le cadre de la recherche scientifique, en particulier en sciences humaines. En effet, tous les projets ou presque d’annotation collaborative au sens strict ont échoué. A mon avis, cet échec est dû à plusieurs facteurs :
Dans la recherche, la place de l’écrit est très importante et très codifiée. Ainsi, écrire signifie mettre en place une réflexion et une argumentation complexe pour lesquels un formulaire Web comme pour les commentaires des blogs ne suffit pas. Les chercheurs ne trouvent pas les cadres adéquats pour s’exprimer. Les outils mis à leur disposition ne correspondent pas à ceux qu’ils ont l’habitude d’utiliser.
Un commentaire ou une annotation sont difficilement citables dans une bibliographie. Or, un chercheur doit publier des écrits pris en compte dans sa bibliographie pour pouvoir avancer dans sa carrière.
Un commentaire ou une annotation ne correspond à aucun type de publications auxquels sont habitués les chercheurs : article, monographie ou essais. Ainsi, bien souvent, les essais d’annotation collaborative se sont transformés en des recueis d’articles se répondant plus ou moins bien.
Enfin, la validation a-priori par les pairs, règle sacro-sainte dans la recherche scientifique, ne permet pas de mettre en place une annotation vivante et rapide et donc de parvenir à un résultat satisfaisant.
Or, dans le cadre de l’expérience autour du NY times, il s’agit d’annotation « décentralisé » c’est à dire que chaque personne écrit son billet ou son article en fonction d’un référent (dans ce cas, un article de journal, mais on peut aussi imaginer une problématique scientifique). Par conséquent, la personne n’a pas l’impression d’annoter, mais bien de mettre en place une argumentation construite, un écrit indépendant, citable et référençable en tant que tel. Ce n’est que l’agrégation de tous les articles qui permet l’émergence de l’annotation. Cela me paraît particulièrement intéressant, car dans ce cas, les trois premiers défauts que j’ai cité plus haut sont résolus ou presque.
Bien-sûr, il reste le problème de la validation. Pour résoudre ce problème, il faut attendre un changement des habitudes (« révolution copernicienne » tant que ça Zid ?), mais à l’image de Zid qui commence à se faire à cette idée (ce qui me ravit :-; ), il faut bien que les chercheurs et les professionnels de l’information comprennent que la circulation de l’information sur le Web est complètement différente des supports traditionnels et qu’un contrôle a-priori de l’information va à l’encontre de ses modes de fonctionnement. En revanche, validation a-posteriori ne signifie pas non-contrôle de l’information. Mais pour que cette validation a-posteriori fonctionne, il faut que les sources d’information soient nombreuses pour qu’une erreur puisse être corrigé rapidement mais aussi il faut apprendre à critiquer (au sens grec : analyser) l’information que tout un chacun lit sur le Web.
je m’arrête là, en remarquant que je n’ai pas pû m’empêcher de construire une argumentation comme pour un article pour écrire ce commentaire. Ah ! La force de l’habitude !