lundi 11 décembre 2006

Le serveur Hélène

Présentation de la collection

  • Nom : Hélène
  • Domaine : domaines multiples : scolaire, scientifique, œuvres littéraires…
  • Responsables : l’association Braillenet
  • Objectifs : cette collection a pour objectifs d’aider à la production d’ouvrages adaptés (braille ou gros caractères).
  • Date de lancement : 2003
  • Public visé : tout public déficient visuel et/ou autorisé à imprimer en braille ou gros caractères.

Organisation intellectuelle de la collection

  • Description du fonds : le fonds est constitué de 2450 ouvrages, ressources francophones, ouvrages scolaires, ouvrages scientifiques et documentation technique.
  • Présentation du fonds et qualité des textes introductifs : il n’y a pas de texte particulièrement introductif, mais une page appelée « à propos » explique très bien ce qu’est la collection Hélène, ses objectifs, ses utilisateurs, les conventions, les fournisseurs, la sécurisation, les formats…
  • Cohérence de la sélection documentaire : il n’y a pas de cohérence de sélection documentaires : tous les ouvrages sélectionnés ont pour objectifs d’être adaptables et le sont.
  • Base de données commune ou propre : c’est une base de donnée propre, individuelle.
  • Indexation : l’indexation est faite par titre et par auteur.
  • Métadonnées internes ou externes : des métadonnées externes sont disponibles dès que l’on se trouve sur la fiche d’un ouvrage. Les documents ne sont pas enregistrables sans posséder un identifiant au sein du serveur Hélène, on ne sait donc pas s’il y a des métadonnées internes.
  • Mode d’interrogation de la base : la collection peut être débord feuilletée en accédant au catalogue. Une fois dans ce catalogue, il est possible de classer la base par ordre alphabétique des auteurs ou des titres. Un mode de recherche simple est proposé sur quasiment toutes les pages. Enfin, une mode de recherche dit « recherche avancée » s’avère être assez simple finalement et permet d’interroger la base par ISBN, titre, auteur, éditeur, domaine ou transcripteur.
  • Statut juridique des documents : dans le cas de l’édition adaptée, le statut juridique des documents est un peu particulier puisque la révision du droit d’auteur pour l’édition adaptée a été voté fin juin 2006. Ce texte explique, en résumé, que dans le cas de l’édition adaptée (avec plusieurs auteurs conditions, bien sûr), il peut y avoir exception au droit d’auteur et reproduction d’une œuvre sans besoin d’autorisation, pour certaines personnes morales et établissements publics.
  • Nombre de liens : liens présents essentiellement vers Braillenet, responsable de la collections et vers les principaux partenaires.


Consultation des documents

  • Description technique : ouvrages téléchargeables aux formats RTF, TXT, DOC, PCB, XML-DTBOOKS, HTML, XHTML, et PDF.
  • Affichage : l’affichage des résultats d’une recherche ou du catalogue se font sous forme de tableau-liste contenant titre, auteur, éditeur, ISBN et le nombre de formats disponibles. Impossible de connaître l’affichage de documents puisqu’il faut être abonné.
  • Logiciel de visualisation : compte tenu des formats, on peut supposer que Word, bloc-notes, Word pad, Acrobat Reader et bien d’autre logiciels doivent permettrent la visualisation. En revanche.
  • Possibilité de suivre les publications nouvelles : les dix derniers documents mis en ligne sont mis en valeur sur la page d’accueil
  • Fonctionnalités proposées en plus de la visualisation : impression en braille ou en gros caractère pour ceux qui en ont le droit.

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : le site est conçut de manière très simple : à partir de la page d’accueil et de presque n’importe quelle page, il est possible d’accéder à l’accueil du site, au catalogue, à la recherche avancée, aux partenaires, aux renseignements sur le serveur Hélène et à une aide.
  • Aide à la navigation : l’aide en question permet d’obtenir des informations sur les ouvrages et les fichiers (recherche, ajout, réception d’e-mail cryptés), sur les autorisations des éditeurs, sur l’approche du serveur quant aux formats numériques. C’est une aide assez poussée et non une aide à la navigation, puisque cette dernière s’avère être assez simple.
  • Multilinguisme des instructions : le site est normalement accessible en italien et en anglais, mais cela ne fonctionne pas.
  • Qualité du graphisme, lisibilité et confort visuel des pages : le graphisme n’est pas très recherché et le pages assez peu agréables à lire. Il est certain que ce site étant à destination des déficients visuels, la forme importe moins que le fond.
  • Possibilité de communication : un onglet « contactez-nous » en bas de page est disponible, mais je n’ai pas réussi à voir à qui l’on s’adressait lorsque l’on souhaite contacter quelqu’un.
  • Adaptation du site aux personnes handicapées : adaptation toute particulière aux déficients visuels puisque l’impression peut se faire en braille ou en gros caractère, ce qui s’avère d’ailleurs être le but majeur de ce serveur.

Mon avis

C’est suite à ma fiche de lecture sur l’accès à la lecture pour les personnes handicapées visuelles (DESBUQUOIS Catherine. L'accès à la lecture et à l'information des personnes handicapées visuelles : réalité et perspectives. BBF, 2001, vol. 47, n°6, pp. 78-83.) que j’ai choisi d’analyser cette collection, afin d’avoir une vue plus claire de ce à quoi pouvait correspondre un serveur de documents adaptés aux déficients visuels.

J’ai retrouvé effectivement beaucoup d’éléments présents dans ledit article, notamment toute ce qui concerne l’exception aux droits d’auteurs, à cela près qu’entre 2001, date de l’article et 2006, les choses ont eut le temps d’évoluer. Cela m’a donc permit d’actualiser ce qui avait été vu dans l’article et donc de savoir que ce qui était en perspective il y a cinq ans est aujourd’hui mis en place, la loi ayant été votée il y a maintenant six mois : il est à présent possible pour certaines personnes morales et certains établissements d’avoir un droit de réutilisation de documents sans demander d’autorisation préalables à leurs auteurs.

Cela s’avère d’ailleurs assez frustrant : n’étant pas habilitée à imprimer des documents en braille, il m’était donc impossible de voir à quoi pouvaient ressembler l’affichage des documents proposés aux différents en formats.

L’analyse de cette collection n’a donc permis de répondre à plusieurs questions tout en continuant à la fois à me questionner sur la mise en pratique de toutes ces technologies particulières.

L'avenir du traitement plan par plan des images animées

Références bibliographiques :

TURNER James M. L'avenir du traitement plan par plan des images animées. BBF, 2001, vol. 46, n°5, pp. 48-53.


Résumé :

Dans son article, l'auteur nous fait d'abord un rappel de tout ce qui concerne le traitement des images fixes, puis nous présente les images animées et leur traitement, notamment celui plan par plan. Il nous explique ensuite les enjeux de ce type d'indexation, et finit par nous présenter rapidement les différentes approches adoptées pour ce type d'indexation ainsi que les perspectives d'avenir pour l'harmonisation de ces pratiques

Les images fixes peuvent être de trois type : images d'art, images documentaires ou images ordinaires. Chacun de ces types requiert des pratiques différentes d'organisation et de traitement.

Les images d'art par exemple demandent un traitement complet et élaboré. Les images documentaires se trouvent dans archives historiques, agences de presse, archives des médias. En général, ces images du type photo de presse sont toujours légendée, d'où l'aspect documentaire, en relation avec un texte. Le traitement consiste à avoir une légende ou d'autres informations, les métadonnées, pour identifier image, contenu et contexte. Enfin, l'image ordinaire est du type de la photographie personnelle, commerciale, d'illustration et ne nécessite qu'un traitement très rapide : ni photographe, ni de titre, ni de légende sont nécessaires, un classement par grandes catégories généralistes suffit. Les logiciels de gestions des images fixes sont en général à prix raisonnable.

Par images animées on entend images du type cinéma ou vidéo. Comme pour les images fixes, il existe les trois même types d'images : images d'art, documentaires ou ordinaires. Mais il est plus important d'être précis dans l'indexation, et de distinguer produits finis et éléments de production. Les produits finis demandent un traitement proche de celui du livre, très ressemblant, même si évidemment, des éléments en plus apparaissent (temps de projection, couleur/noir et blanc, multiplicité des auteurs...).

Le traitement plan par plan (ou séquence par séquence) est utilisé surtout dans les archives télévisuelles. Son coût est élevé mais c'est un traitement qui s'avère le plus souvent nécessaire, notamment dans le cas où l'on voudrait citer un passage particulier. La principale différence pour l'utilisateur concernant le traitement des images fixes ou animées est qu'il peut visionner à son rythme les images fixes, ce qui n'est pas le cas des images animées. Cette dernière est déjà plus difficile à trouver en libre accès, puis il faut trouver le plan à visionner, avoir le logiciel de visualisation, choses qui ne posent pas problème avec les images fixes. Pour cela il faudrait, dans le catalogage de vidéos, effectuer une description plan par plan avec une image fixe correspondante et une description très précise de l'information (une lecture rapide du texte permet d'éliminer rapidement des plans qui ne seraient pas nécessaires). L'indexation s'avère aussi importante, puisque c'est d'abord à partir des mots de l'indexation que l'utilisateur va éliminer ce qui ne l'intéresse pas.

L'indexation plan par plan est coûteuse et serait pourtant très utile pour les utilisateurs dans bien des situations. Une solution à ce problème de coût serait peut-être une indexation automatique qui existe déjà pour les textes depuis plusieurs décennies. De manière générale, la recherche d'images animées se fait par personnes, objets ou événements recherchés. Les indexeurs professionnels utilisant ces mots pour indexer les plans et qui sont aussi souvent dans le synopsis visuel, il semblerait donc possible d'indexer automatiquement les images animées à partir de textes déjà existants. L'indexation s'avère être possible aussi dans d'autres langues puisque par mots clés, sans utilisation d'éléments grammaticaux, éliminant ainsi tous les problèmes de traduction.

Différentes approches de l'indexation existent actuellement : des études menés en Amérique du nord pour voir les indexation les plus utilisées ont montré d'abord que le thésaurus n'était pas universel : il n'est pas construit selon normes précises, diffèrent d'un endroit à un autre... En moyenne chaque plan est indexé par douze mots et la précision de l'indexation peut aller du titre au plan, en passant par la séquence.

A ce jour, organisation dans la gestion des collections reste anarchique. Il serait donc souhaitable d'harmonier les pratiques dans le domaine. Pour cela, il faudrait d'abord permettre les échanges, pour cela avoir déjà des métadonnées communes, et si cela était possibles des structures communes de bases de données. Pour l'instant, cela n'est pas possible, car des différences de matériel ou d'attentes des usagers ne le permettent pas. Pour des métadonnées communes, l'utilisation de plusieurs normes serait possibles : Dublin Core, VRA Core, Digital Audiovisual Council, et d'autre encore... Mais on attend aussi beaucoup de la mise en place de la norme de l'ISAN (International Standard Audiovisual Number)...

Des idées de solutions pour harmoniser les pratiques, ont déjà été pensées, mais sont encore loin d'êtres mises en place du fait de la complexité dans le domaine. Les recherches continuent, notamment pour permettre une lisibilité par l'ensemble des outils du web et continuer ainsi dans une optique d'harmonisation des collections d'images animées.

Avis critique :

Il était intéressant d'analyser (enfin) un texte concernant les images animées, sujet qui ne compte pas tant d'articles. Le texte était assez clair et les exemples bien choisis pour expliquer les choses, même si toute la partie technique sur l'indexation automatique était assez difficile à comprendre.

Finalement, le bilan reste que l'objectif est toujours la mise en commun des collections et le Dublin Core réapparaît encore comme une solutions. Il n'en est pas moins qu'il y a l'air d'avoir encore du travail à effectuer dans le domaine tant sur l'indexation, que sur l'harmonisation des collections.

jeudi 7 décembre 2006

Revue de l’art du portail Persée

Présentation de la collection

  • Nom : Revue de l’art
  • URL :

http://www.persee.fr/listIssues.do;jsessionid=32370FF4DF5AD24DBCFC52A2D21F2808.vesta

  • Domaine : art médiéval, moderne et contemporain
  • Responsables : Ministère de l’éducation nationale, de la recherche et de l’enseignement supérieur.
  • Objectifs : permettre un accès public et gratuit à des collections numérisées afin de permettre une meilleure valorisation de la recherche en rendant plus visibles les travaux des chercheurs.
  • Date de lancement : 2005
  • Public visé : tout public, mais aussi public de chercheurs.

Organisation intellectuelle de la collection

  • Description du fonds : un fond de 60 revues sur le thème des arts, et des sciences humaines dans ce domaine, composées d’études, de chroniques, de notes, de documents et de comptes-rendus concernant l’art médiéval, moderne et contemporain
  • Présentation du fonds et qualité des textes introductifs : le fonds de la revue d’art est présenté rapidement mais très clairement.
  • Cohérence de la sélection documentaire : bon, tous les documents sont bien les revues de la collections des revues d’art.
  • Base de données commune ou propre : base de donnée propre puisque interrogeable à partir de la page dont le lien est donné ci-dessus (ce qui est d’ailleurs précisé lorsque l’on place le curseur dans la ligne de recherche), mais aussi commune avec toutes les autres bases de données de revues proposées sur le portail à partir de la page d’accueil du portail.
  • Indexation : en full text.
  • Métadonnées internes ou externes : des métadonnées internes sont présentes lorsque l’on enregistre le document pdf. On a alors accès au nom de l’auteur du document ainsi que le titre. Les métadonnées externes sont très simplifiées dans leurs présentations : titre de l’article, auteur, revue, numéro et pages sont affichés à la suite de manière hiérarchique afin de pouvoir revenir à un niveau précédent si besoin, ou d’avoir l’ensemble des articles de l’auteur.
  • Mode d’interrogation de la base : deux premières interrogations sont possibles car, comme expliqué ci-dessus, il est possible d’interroger l’ensemble des revues du portail ou seulement cette revue particulière de manière simple. Une troisième technique consiste à faire une recherche avancée, qui consiste à limiter la recherche dans le type de revues, les dates de publication, les disciplines, mais sans proposer de recherche par mots-clés (ou mot, tout court)
  • Statut juridique des documents : les documents ont des droits d’auteurs, mais les auteurs ont doivent autoriser l’utilisation de leurs textes.
  • Nombre de liens : seulement des liens à l’intérieur même du site, permettant d’avoir l’historique de navigation sur le site, mais aussi de naviguer à travers un article consulté.

Consultation des documents

  • Description technique : les documents sont dans un format qui permet l’OCR. Ils peuvent aussi être consultables au format html ou pdf.
  • Affichage : les résultats d’une recherche s’affichent par pertinence (mais l’ordre d’affichage peut être modifié par l’utilisateur qui peut les trier par titre, année ou revue). La pertinence est représentée par une barre permettant de visualiser à quel point l’article est pertinent, sûrement basée sur le nombre d’occurrences dans le texte (puisque la recherche se fait en full text). Une fois un document sélectionné, il s’affiche page par page avec les mots recherchés surlignés. Cet affichage peut aussi se faire sous forme de vignettes.
  • Logiciel de visualisation : aucune n’est nécessaire, sauf si l’on souhaite exporter le document sous pdf. Il faut alors être en possession d’Acrobat Reader.
  • Lisibilité des documents : plus ou moins bonne selon les documents.
  • Possibilité de suivre les publications nouvelles : aucune repérée en particulier.
  • Fonctionnalités proposées en plus de la visualisation : enregistrement au format pdf et possibilité de zoomer sur l’image.

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : très simple d’utilisation dès la page d’accueil. La collection des revues d’art est immédiatement disponible. Les pages s’affichent rapidement sauf lors de l’exportation au format pdf.
  • Aide à la navigation : une FAQ est disponible, même si elle est générale, des questions concernent plus particulièrement tout ce qui concerne les documents. Une aide est aussi proposée pour ce qui concerne les questions d’interrogation de la base
  • Multilinguisme des instructions : site disponible en français et en anglais.
  • Qualité du graphisme, lisibilité et confort visuel des pages : la page d’accueil du portail a une graphisme assez agréable. En revanche, dès que l’on s’intéresse à la page de la revue des arts (et des autres revues), si la lisibilité est bonne, la page est en revanche assez dépouillée est pas particulièrement agréable à regarder.
  • Possibilité de communication : possibilité de contacter le webmaster
  • Adaptation du site aux personnes handicapées : aucune

Mon avis

Une collection très simplement construite, même si le graphisme à l’intérieur même de la collection est à mon goût un peu « repoussant ». Des modes de recherche bien pensés, notamment celui de la recherche avancée qui permet une recherche moins commune mais pas moins intéressante.

L’affichage des résultats par pertinence est aussi plaisant dans la visualisation de la pertinence à travers la jauge ainsi que le surlignage des mots dans le texte ce qui permet vraiment d’aller plus rapidement à l’objet de cette recherche.

Enfin, l’historique de navigation permet lui aussi de revenir à un point vu lors d’une recherche précédente sans avoir à se rechercher les mots utilisés lors de la recherche. Bilan donc plutôt positif de l’analyse de cette collection.

mercredi 6 décembre 2006

L'accès à la lecture et à l'information des personnes handicapées visuelles : réalité et perspectives.

Références bibliographiques :

DESBUQUOIS Catherine. L'accès à la lecture et à l'information des personnes handicapées visuelles : réalité et perspectives. BBF, 2001, vol. 47, n°6, pp. 78-83.


Résumé :

Dans cet article, l'auteur nous expose très clairement l'état actuel des choses concernant l'accès à l'information pour les personnes handicapées visuelles : état des lieu, problèmes juridique, mais aussi de coûts, de réalisation, de production, de distribution, perspectives... Elle finit par se questionner sur la place que doivent adopter les bibliothèques publiques dans le domaine de l'édition adaptée.

A ce jour, les publics concernés par l'édition adaptée, c'est-à-dire la population mal/non voyant est difficile à chiffrer. A priori, 3,1million d'individus sont atteints visuellement parlant, et 10% de la population naît avec un problème de vision. Finalement, 77000 personnes en France sont aveugles, seulement 20% ont appris le braille et seulement 10% le pratique. Ce nombre ne représente pas un marché potentiel pour que les éditeurs s'y intéressent réellement. Jusqu'à ce jour, de manière générale, tout ce qui concerne la non/malvoyance est traité par des associations et non par le domaine public, même si des bibliothèques tentent de s'intéresser au problème. Ce sont pour l'instant les proches, les éducateurs, les associations qui réalisent un travail d'édition quand besoin est et s'ils sont en possession de scanners, imprimantes, photocopieurs en braille. La France n'agit pas énormément pour permettre le développement des ouvrages adaptés au handicapés visuels, contrairement aux Etats-Unis où a été mise en place le "National Library Service for Blind and Physically Handicapped of the Library of Congress" qui propose des lois (intégration personnes handicapées dans la société américaine : travail, logement, télécommunication, culture... ; possibilité de réimprimer des ouvrages en braille sans avoir besoin de l'autorisation de l'auteur), un budget en augmentation constante, de plus en plus de personnel avec un service "satisfaction" pour les usagers, un soutien constant des associations qui peuvent alors faire pression, mise en place d'un réseau de bibliothèques spécifiques...

Juridiquement parlant, se pose toujours la question du copyright : dans le code de la propriété intellectuelle, il n'y a pas de droit d'auteurs favorables à l'édition adaptée. Il faut alors demander l'autorisation aux éditeurs d'adapter les livres, ce qui fait beaucoup de travail pour les producteurs pour peu de chose (en réalité, 1/3 seulement des ouvrages en braille suit cette obligation). La logique dans le cas de l'édition adaptée voudrait qu'il y ait une dérogation automatique aux droits d'auteurs pour ces ouvrages particuliers. La Directive Européenne sur l'harmonisation des droits d'auteurs et des droits voisins dans la société de l'information stipule justement que la reproduction est autorisée même sans droit d'auteurs dans le cas où il y a une problème de handicap et tant que ce n'est pas utilisé à des fins commerciales, c'est un principe d'exception. Plusieurs pays européens ont déjà adopté ce principe. En font partie la Norvège, la Suède, le Danemark, la Finlande, le Portugal, l'Espagne, les Pays Bas (qui ont déjà passé un accord avec les éditeurs, sans besoin de législateur) et l'Irlande. D'autres pays sont en cours d'adoption : la Grande Bretagne, l'Allemagne et l'Autriche.

Cependant la Directive Européenne rentre en contradiction avec une autre partie de la loi qui dit que pour protéger le droit d'auteur, il faut que ce dernier mette en place des protections (cryptage, brouillage...) et empêche ainsi la reproduction illégale. La Directive Européenne est d'avis que ces protections doivent être supprimées dans le cadre de la partie de la loi concernant la reproduction autorisée en cas de handicap. En France, la loi est toujours en révision sous la pression des associations spécialisée dans le domaine du handicap.

L'édition adaptée a une économie bien particulière. Globalement, de plus en plus d'ouvrages sont adaptés aux handicapé visuels : en 2002, 7% des ouvrages disponibles sont adaptés, un augmentation considérable en un an. Cela peut se faire grâce à quatre techniques :

- les logiciels brailles : quatre sont particulièrement utilisés en France, ils permettent le travail sur ordinateur et l'impression en braille.

- les gros caractères : ce sont souvent des photocopies en grand format, ce qui permet de ne pas avoir de travail de remise en page.

- la scannérisation : c'est la numérisation d'un livre s'il n'y a pas de fichier source proposé (permettant l'impression en braille par exemple) par l'éditeur. Elle est plus longue et risquée au niveau du nombre d'erreurs possibles lors de la numérisation et de la reconnaissance optique de caractère. C'est la moins fiable des toutes les techniques.

- l'enregistrement sonore : c'est le plus répandu, il sera bientôt remplacé par enregistrement audionumérique. Le coût est souvent celui le moins élevé de toutes les techniques.

Les coûts sont globalement très élevés, pour l'impression des livres en braille du fait de l'adaptation qui demande des techniques bien particulières, mais aussi parce qu'ils sont tirés en nombre d'exemplaires très faible. Ces ouvrages sont souvent utilisés dans le cadre de prêt et bénéficient d'une exonération des taxes postales, sauf pour le transport aérien.

Quelles sont donc les perspectives pour les livres adaptés ? Il est utile de remarquer que le numérique, même s'il n'a pas réponse à tout, peut déjà apporter bien des solutions :

- le livre électronique peut être une première solution s'il est possible d'utiliser des périphériques permettant une lecture adaptée, par exemple en gros caractères (ce qui n’est pas encore trop possible car beaucoup de précautions sont prises par les éditeurs pour éviter le piratage). Pour l'instant, seule reste la possibilité d'utilisation des bibliothèques de documents numérisés en ligne. Mais il a aussi été mis en place un serveur, "Hélène", permettant un accès simplifié aux ouvrages imprimables pour les producteurs d'ouvrage en braille ou gros caractères.

- il est aussi possible d'avoir maintenant des livres sonores que l'on peut feuilleter de page en page, de chapitre en chapitre et d'y mettre toute trace de sa lecture que l'on jugerait nécessaire.

- Internet devient accessible aux handicapés visuels si tant est qu'ils soient en possession de logiciels spécifiques avec plages tactiles permettant la lecture en braille, l'impression en braille ou gros caractères...

Dans ce domaine, les bibliothèques publiques ont donc plusieurs possibilités de positionnement à adopter : être un producteur de document adaptés ou ne pas l'être. Une bibliothèque équipée de tout le matériel et personnel nécessaire pourra devenir producteur d'ouvrages adaptés, mais il y aura toujours le problème de savoir si elle est prête à effectuer un prêt à domicile ou à travers le territoire français. Dans le cas de bibliothèque non équipée à la production, il est alors possible de s'équiper au moins du matériel adapté pour permettre la lecture sur place. Leur rôle risque donc d’évoluer encore, dans un sens ou dans un autre.


Avis critique :

Si j'ai choisi ce texte c'est surtout en partant sur une question pratique : si l'on sait tous que le braille est l'écriture adapté aux handicapés visuels, il est existe sûrement d'autre techniques, lesquelles ? Par ailleurs, comment un texte numérique peut-il être lu par des déficients visuels, quelles sont les techniques du numérique ?

En choisissant ce texte, j'ai débord cru que je n'aurais réponse qu'à une partie de mes questionnements (les autres techniques de lecture que le braille), car il est vrai qu’il n'a au départ pas grand rapport avec le thème du numérique et traite plus de manière globale la question de la lecture adaptée tout en faisant vraiment un état des lieu de l'édition adapté. Mais en arrivant au passage des perspectives possibles pour l'avenir de l'édition adaptée aux personnes handicapée, beaucoup de choses se sont éclaircies : il existe donc des logiciels spécifiques qui permettent l'impression en braille ou en gros caractères ou qui traduisent le texte en document sonore. Le choix de cet article même s'il partait d'une envie un peu personnelle m'a donc bien apporté les réponses à toutes les questions que je me posais.

Conférences du campus numérique juif

Présentation de la collection

  • Nom : Conférences du campus numérique juif
  • URL : http://www.akadem.org/sommaire/index_sommaire.php
  • Domaines : vidéos de conférences sur les thèmes de l’histoire, politique, limoud, philosophie, vie juive
  • Responsables : le Fonds Social Juif Unifié est à l’origine du projet d’Akadem
  • Objectifs : produire, stocker et mettre a dispositions les avoirs que représentent les conférences.
  • Date de lancement : inconnue
  • Public visé : tout public, mais surtout la communauté juive

Organisation intellectuelle de la collection

  • Description du fonds : 217 vidéos sont disponibles sur ce site.
  • Présentation du fonds et qualité des textes introductifs : la collections, ses objectifs, ses caractéristiques… sont présentés très clairement dans le document appelé « notre charte » caché en bas de page d’accueil.
  • Cohérence de la sélection documentaire : tous les documents sont bien de vidéos classées selon les thèmes proposés
  • Base de données commune ou propre : c’est une base de données propre qui n’est mise en relation avec aucune autre base de donnée.
  • Indexation : il ne semble pas y avoir d’indexation particulière. Les documents se contentent d’être classés selon les grandes catégories citées précédemment (histoire, politique…)
  • Métadonnées internes ou externes : il était impossible d’enregistrer les vidéos, je n’ai donc pas réussi à savoir s’il y avait des métadonnées internes. Les seules métadonnées externes disponibles sont les titre, conférenciers, lieu de conférence, mais qui sont plutôt présentées comme grand titre du document que répertorié sous forme de notice.
  • Mode d’interrogation de la base : plusieurs mode d’interrogation sont possibles : le premier consiste à interroger de manière générale en écrivant l’objet de sa recherche dans la ligne recherche présent sur toutes la pages. L’interrogation se fait alors par mots-clés, en général, des mots du titre. Le second mode d’interrogation consiste à interroger par grande catégorie qui contient des sous catégories qui, de fil en aiguille, va proposer les conférences correspondantes. Ce mode de recherche est efficace pour les utilisateurs qui « feuillettent » les vidéos disponibles. Un dernier mode de recherche proposé, est dit « par index alphabétique ». Toutes les conférences sont présentées ensembles, mais je n’ai pas compris en quoi le classement était alphabétique.
  • Statut juridique des documents : toutes les vidéos possèdent des droits d’auteurs. Elles sont librement visualisables dans le cadre personnel et non commercial. A des fin pédagogiques, il faut demander une autorisation.
  • Nombre de liens : seulement à l’intérieur même du site.

Consultation des documents
  • Description technique : je n’ai pas réussi à trouver le format des documents
  • Affichage : il est impossible d’enregistrer les documents : ils sont seulement visualisables dans la fenêtre du navigateur.
  • Logiciel de visualisation : Windows Media Player.
  • Lisibilité des documents : je n’ai pas réussi à visualiser les vidéos et ne peut donc pas savoir si elles sont de bonne qualité.
  • Possibilité de suivre les publications nouvelles : il est possible de connaître les nouveautés. Pour cela, il est proposé en bas de pages un onglet « s’informer des nouveautés » qui propose de donner son adresse mail pour être informée régulièrement des nouvelles vidéos mise en ligne. De manière générale, les vidéos les plus récentes sont mises sur les premières pages.
  • Fonctionnalités proposées en plus de la visualisation : aucune

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : l’organisation du site est assez simple et propose plusieurs mode de navigation, soit par grand thème, soit par programme (« à la une », « les cycles », « les parcours »).
  • Aide à la navigation : aucune n’est disponible
  • Multilinguisme des instructions : le site est en français, mais certains documents sont écris en juif.
  • Qualité du graphisme, lisibilité et confort visuel des pages : les pages sont assez chargées en information, ce qui rend parfois le site plus difficilement lisible (notamment lors de l’affichage des vidéos où plusieurs petites fenêtre s’ouvrent autour. Il devient alors de faire un choix dans la multitude d’information).
  • Possibilité de communication : les noms de tous les membres de l’équipe qui s’occupe du site nous sont communiqués, mais pas leur adresse mail.
  • Adaptation du site aux personnes handicapées : aucune

Mon avis

Ce site est assez simple d’utilisation, même si on aimerait trouver un onglet « collection de vidéos » qui nous permettent ensuite d’être pleinement conscient de faire des recherches dans ces vidéos. Cela étant, une fois qu’il est clair dans notre esprit que ce site EST la collection de vidéos, il est alors assez simple de naviguer de thème en thème ou parmi les programmes.

Par ailleurs, le fait de proposer à chaque page du site la possibilité de faire une recherche est assez intéressante : on n’est plus obligé de cliquer de trop nombreuses fois sur « retour » pour retourner sur les pages de recherche.

Enfin, j’ai trouvé l’idée excellente de communiquer avec chaque document vidéo d’autres documents sur le même thème que la conférence à visualiser. Cela permet de compléter cette dernière. C’est la première fois qu’une des collections que j’analyse propose cette possibilité.

Donc globalement une collection assez intéressante à analyser et très claire à visiter.

Les stratégies de gestion et de conservation préventive des documents électroniques.

Références bibliographiques :

LUPOVICI Catherine. Les stratégies de gestion et de conservation préventive des documents électroniques. BBF, 2000, vol. 45, n°4, pp. 43-54.


Résumé :

Depuis toujours et quelque fût le type de document, ces derniers ont toujours demandé à ce que l'on s'attarde sur leur conservation : les documents papier pour être conservé dans les meilleures conditions ont une qualité de l'environnement à respecter ainsi qu'une politique à choisir pour la diffusion du document sur support de reproduction.

Le document même s'il est numérique pose toujours des questions de conservation, bien qu'un peu différentes. Dans cet article, l'auteur nous présente la problématique de la conservation des documents numériques, nous définit l'objet d'information numérique ainsi que l'organisation de l'archivage numérique et finit par nous présenter quelques projets d'archivage de documents numériques.

La ressource électronique c'est un contenu, mais aussi son mode de lecture, le programme. Les deux sont stockés sur un support. La problématique des conservations des documents numérique consiste à pouvoir assurer la visualisation de ce document, malgré le renouvellement rapide des technologies. Plusieurs techniques sont exploitées pour résoudre ce problème : techniques de rafraîchissement du support et d'émulation de l'environnement informatique du document, ou encore impression sur papier ou conservation de microreproductions.

Au départ, la conservation se faisait sur supports magnétiques, puis sont apparus le CD et le DVD. Ce dernier offre la possibilité de conserver beaucoup de données, mais risque finalement de leur faire perdre de la qualité. Le CD quant à lui a une durée de vie de cinq année seulement s'il est gravé et de 15 à 20 ans s'il est pressé. Il faut alors reporter régulièrement les données sur un support nouveau comme cela se faisait auparavant.

A cela s'ajoute le fait que l'environnement informatique évolue très rapidement ce qui implique un renouvellement régulier des différents programmes (qui généralement ont du mal à lire des document d'une version antérieure), périphériques, méthodes de traitement des données, techniques de stockage...

Il faut alors trouver des solutions. Deux sont plus particulièrement exploitées : la migration des données et l'émulation d'un environnement informatique. Le première solution propose changer les formats des documents électroniques d'un environnement matériel a un autre ou d'une génération de technologie a une autre, tout en préservant l'intégrité du document et permettant ainsi son utilisation pour la recherche et l'affichage de données. La seconde solution consiste à simuler un environnement informatique pour les documents qui ne seraient lisibles que sur PC ou sur Mac. Mais cette solution coûte cher car il faut développer les émulateurs, des techniques pour recréer le document numérique et des techniques permettant de préserver les documents et leur environnement pour prévenir de l'altération.

Quelles sont alors les caractéristiques particulières de l'objet d'information numérique ? L'objet numérique, c'est tout d'abord l'information qu'il contient. Plusieurs niveaux d'abstraction ont été définis : le niveau le plus bas est le niveau où l'information se contente d'être faite d'une 1 ou d'un 0. Il faut alors conserver la succession de bits constituants l'information. Il ne permettent cependant pas de rendre compte du format ni de la structure de l'information, et il existe de multiples codes ce qui ne simplifie pas la traduction des bits en information. Le niveau le plus élevé d'abstraction est celui qui présente le problème de migration des données ou d'émulation de l'environnement afin de retrouver un contenu intellectuel, une présentation, un mode de recherche et de navigation.

L'objet numérique est aussi définit par sa fixité, c'est-à-dire l'action de conserver une version stable et fixée de l'objet numérique qui doit comprendre des numérotations en cas de changement et donc de versions nouvelles. L'idéal est de fixer régulièrement un état de la totalité des bases de données.

La référence est encore une autre caractéristique de l'objet numérique. Pour la conservation et l'accès, il doit y avoir un besoin de référence unique et pérenne à l'objet numérique. La référence doit être un lien actif, elle se trouve généralement dans les bibliographies, catalogues, dictionnaires de données. Il existe des systèmes de description intégrant dans une notice bibliographique le lien direct, où il est alors possible d'inclure les références directement dans l'objet numérique, c'est l'équivalent des métadonnées, URL ou URN.

La provenance de l'objet numérique retrace ses origine, historique de conservation, environnement technique, qui permettent de s'assurer de l'authenticité de l'objet et de connaître son contexte de création.

Le contexte justement est la dernière caractéristique et s'avère être présent a plusieurs niveaux: d'abord au niveau technique d'utilisation : contraintes matérielles (PC, Mac...), contraintes logicielles (logiciel utilisé). Le contexte de l'objet numérique, cela peut aussi être le lien qu'il entretien avec d'autres objets. Cela peut poser problème dans le cas par exemple d'un document HTML qui pointe vers d'autres pages : il faudrait alors conserver toutes les adresses des objets pointés. Enfin, le contexte peut être lié à un moyen de communication.

Entre les objets d'information numérique et leur conservation apparaît alors le besoin d'organisation de toutes les responsabilités entre ceux qui créent ces objets et ceux qui les préservent. L'organisation à tendance à se faire entre les créateurs de l'information (fournisseurs, propriétaires de droits, qui sont responsables de l'archivage de leurs objets tant qu'il n'y a pas eu de transfert de responsabilité), les bibliothèques (présentes pour les problèmes techniques et juridiques tout en gardant leur mission de collecte et de préservation de l'héritage culturel et intellectuel) et enfin les communautés de créateurs souhaitant archiver sur le long terme sur le web. Les responsabilités diffèrent selon les pays c'est pourquoi ont finalement été mises en place certaines normes, par exemple l'OAIS (Open Archive Information System), instauré sur le principe des archives ouvertes. L'OAIS a pour but d'archiver tout document électronique pour pouvoir en assurer la pérennité, permettre aux demandeurs l'information qu'ils recherchent et doit pouvoir gérer les droits, les tarifs... c'est pour cela que l'archive OAIS est composée de plusieurs entités : l'entité d'ingestion, de stockage, de gestion des données, d'accès et d'administration. Un certain nombre de projets basé sur le système de l'OAIS sont en cours pour expérimenter justement ce système : PRESERV, PANDORA, NEDLIB, CEDARS. Ce dernier par exemple regroupe plusieurs bibliothèques nationales, universitaires, et de recherche de Grande-Bretagne pour expérimenter l'aspect du droit d'archivage en accord avec les éditeurs. Le projet NEDLIB cherche quant à lui à développer l'aspect de préservation sur le long terme et travaille donc sur les systèmes d'émulation et de migration des données, tout en consacrant aussi une partie de sont temps a l'étude des métadonnées nécessaires a la conservation des données. Le problème de la conservation des documents numériques n'est donc pas encore résolu, mais reste grandement étudié.


Avis critique :

J'ai trouvé ce texte globalement plutôt long, théorique et parfois trop précis. La longueur vient sûrement du fait que certaines choses reviennent souvent : archives ouvertes, métadonnées...

Il reste néanmoins intéressant de voir les solutions qui sont envisagées au problème de la conservation des données numériques, même si cela reste pour l'instant assez abstrait. Le schéma qui est proposé pour expliquer le système de l'OAIS était le bienvenu pour éclaircir un peu le texte.

Enfin, le texte datant de 2000, les choses ont eu le temps d'évoluer et les projets peut être d'aboutir, il serait intéressant de trouver des informations sur la suite des événements concernant ces problèmes de conservation des documents numériques.

Livre et partitions musicales de la Bibliothèque nationale du Québec

Présentation de la collection

  • Nom : Livre et partitions musicales
  • Domaine : musique mais uniquement écrite.
  • Responsables : Bibliothèque et Archives nationales du Québec.
  • Objectifs : transmettre les partitions musicales de plusieurs siècles aux personnes intéressées.
  • Date de lancement : 1998.
  • Public visé : tout public, mais plus particulièrement public musicien.

Organisation intellectuelle de la collection

  • Description du fonds : 1500 document du XIX et XXe siècle (de 1800 à 1996).
  • Présentation du fonds et qualité des textes introductifs : aucun textes introductifs présentant le fonds documentaire.
  • Cohérence de la sélection documentaire : ce sont effectivement bien des partitions musicales ou des livres dans le cas d’opéras par exemple.
  • Base de données commune ou propre : cette collection est commune avec d’autre collections numériques. Toutes peuvent être simultanément interrogeables depuis la page d’accueil des collections, en recherchant dans le catalogue IRIS, le Pistard Archives.
  • Indexation : indexation par auteur, titre, sujet et date, mais pas pour chaque document.
  • Métadonnées internes ou externes : je n’ai pas trouvé de métadonnées internes. En revanche, des métadonnées externes sont présentes à chaque notice : titre, auteur, sujet, date, nombre de pages, poids du fichier…
  • Mode d’interrogation de la base : la base propre peu être interrogée par auteur, titre, sujet ou date, soit les différents types d’indexation proposés. Chaque index est classé par ordre alphabétique (ou chronologique). Une fois une notice choisie, il est possible à l’intérieur de choisir un auteur ou un sujet pour lequel afficher tous les documents lui correspondant.
  • Statut juridique des documents : il n’est pas précisé, mais ce sont certainement des documents libres de droit puisque gratuitement téléchargeables et imprimables par les utilisateurs.
  • Nombre de liens : seulement des liens vers la BnQ.

Consultation des documents

  • Description technique : les documents sont enregistrés au format pdf.
  • Affichage : les documents d’affichent dans la page de navigation à la place de la notice. Pour les gros document le temps d’affichage est vraiment long.
  • Logiciel de visualisation : Acrobat Reader.
  • Lisibilité des documents : globalement assez bonnes pour les documents anciens. Très bonne pour les document plus récents, sûrement puisque ce sont des document numériques dès le départ et non des documents numérisés. Par ailleurs, il est possible dans ces documents de faire une recherche en full text, mais pas dans tous les documents : les documents trop anciens ne sont pas toujours assez lisibles.
  • Possibilité de suivre les publications nouvelles : aucune.
  • Fonctionnalités proposées en plus de la visualisation : possibilité d’enregistrer les documents, de les imprimer.

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : assez rapide sauf lorsqu’il s’agit d’afficher des documents d’une taille un peu trop importante. Le site est aussi simple d’utilisation : il est possible de retrouver facilement la collection dès l’accueil du site de la Bibliothèque Nationale du Québec puisque toutes les collections disponibles sont présentées dès la page d’accueil. On peut aussi y accéder en cliquant sur « collection » ce qui revient à retrouver la collection des partitions presque aussi rapidement (même si l’on s’attend à trouver la liste des collections mise en avant au centre de la page et non en menu pas tant visibles sur le côté). Une fois sur la page même de la collection des partitions, tout est simplifié : écran très clair, recherche beaucoup simplifiée (trop ?).
  • Aide à la navigation : aucune.
  • Multilinguisme des instructions : les site de la BnQ est accessibles en français, en anglais et (parfois) en espagnol.
  • Qualité du graphisme, lisibilité et confort visuel des pages : plutôt confortable : comme expliqué précédemment, les pages sont simples et non surchargées ce qui les rend plus agréables à lire.
  • Adaptation du site aux personnes handicapées : inexistante.

Mon avis

C’est une collection assez simple d’utilisation même si au premier abord, j’ai été surprise de ne pas trouver de recherche par mots-clés ou multicritère. La recherche par index s’avère finalement guider rapidement le lecteur qui ne sait pas ce qu’il cherche, mais aussi le lecteur qui connaît le nom ou l’auteur de la partition recherchée.

Cependant, j’ai trouvée un peu décevant la mauvaise qualité de diffusion de l’information pour une bibliothèque nationale : on s’attend dans ce cas particulier à trouver des documents présentant les politiques documentaires par exemple (il doit sûrement y en avoir), mais il est extrêmement difficile de mettre la main dessus (voire impossible dans mon cas).

De même certaines informations dans les notices n’ont absolument aucune visée informative a savoir, par exemple, des données du genre : Titre = seqb(0000287331), qui ne sont pas parlantes du tout. Compte tenu du fait du choix de la recherche par index, cela ne pose pas un problème primordial, mais pour le lecteur, cela représente une suite de chiffres insignifiants, plus encombrants qu’autre chose.

Enfin, les notices proposent de visualiser une notice plus complète du document en cliquant sur un lien menant au catalogue Iris. On s’attend alors directement à voir s’afficher la notice, ce qui n’est pas la cas : il faut recherche cette notice et donc se souvenir du titre du document (pas toujours évident) et finalement découvrir qu’il n’y a pas toujours de notice plus complète. Il aurait alors été plus judicieux de ne pas proposer ce service.

Outre cela, j’ai trouvé intéressant d’analyser une collection de partitions ce qui change des collections de textes (même si cela reste proches) et qui reste surtout moins commun.

Le Digital Object Identifier : le système du DOI

Références bibliographiques :

LUPOVICI Catherine. Le Digital Object Identifier : le système du DOI. BBF, 1998, vol. 43, n°3, pp. 49-54.

Résumé :

Dans cet article, Catherine Lupovici présente non seulement le DOI (Digital Object Identifier), mais aussi de manière générale les autres identifiants existants, qu'ils soient physiques, logiques, ou dans un réseau.

Lors de la création d'un document, lui est attribué un identifiant, généralement une suite de chiffres ayant tous rapport avec une unité d'information. L'identifiant permet comme tous les autres, d'identifier un objet lors de sa production, comme de sa diffusion et sert donc pour les éditeurs, librairies, bibliothèques, centres de documentation...

Les identifiants sont généralement choisis par les bibliothèques nationales et sont intégrés dans les descriptions bibliographiques. Les exemples les plus anciens d'identifiants documentaires physiques sont l'ISBN, représentant une suite de chiffre signifiants et l'ISSN, dont les chiffres le composant sont choisis de manière séquentielle. Cependant ces identifiants posent problème au sens ou l'ISBN d'un même ouvrage peut être différents selon si est relié ou broché. A l'inverse, l'ISSN d'une revue sera le même pour tout document quel que soit le support de diffusion.

Plusieurs autres types d'identifiant ont été mis en place pour désigner les parties d'un document électronique qui pouvaient être considérées comme unités documentaires en elles même : ce sont les identifiants logiques. Certains n'ont pas été retenus car s'avérant trop compliqués et finalement représentatifs à eux seul des données contenues dans une description bibliographique. D'autres, ont été retenus, c'est le cas du PII (Publisher Item Identifier) et du SICI (Serial Item & Contribution Identifier). Le premier existe depuis maintenant plus de dix ans et reste utilisé essentiellement pour les pré-publications dans le monde des sciences, techniques et médicine. C'est un numéro non signifiant attribué par les éditeurs lors de l'introduction du document dans la chaîne de publication, et qui peut s'appliquer à tout support. Le SICI est utilisé pour les différents niveaux de granularité des publications en série. Trois niveaux sont définis : le fascicule, l'article et la partie d'article. Cet identifiant peut donc se présenter sous trois formes différents selon le niveau de granularité auquel il fait référence. Les PII et SICI sont surtout utilisés pour effectuer des commandes, gérer les droits d'usage, rechercher en ligne...

Dans le contexte du réseau qu'est Internet, il a longtemps été considéré que les identifiants des documents mis en lignes étaient leur URL (Uniform Resource Locator). Cependant, on a vite réalisé que l'URL ne pouvait pas être un identifiant valable du fait d'abord qu'elle n'est pas pérenne, mais aussi parce que ce n'est pas un identifiant unique (un document pouvant être mis en ligne sur plusieurs sites). Un système d'URN (Uniform Resource Name) est en train d'être mis en place dans l'objectif de résoudre ce problème de multiplicité de localisation d’un document électronique à l'aide d'un système de répertoire d'enregistrement des ressources. En attendant la mise en place définitive de l'URN, la PURL (Permanent URL) devrait aussi permettre de rendre les URL toujours consultables en les mettant à jour régulièrement. Ce système dissocie la localisation de l'identification du document et ne garde que cette dernière si la localisation change.

Le dernier système mis en place par les éditeurs est le DOI (Digitial Object Identifier). Le DOI a été développé par le CNRI pour mettre en place un répertoire national d'identifiants permettant la gestion des droit d'utilisation des documents électroniques. Le DOI s'applique à l'objet quelle qu'en soit sa granularité. La Fondation DOI est une fondation internationale responsable du réseau-DOI. Les objectifs du DOI sont d'avoir un identifiant permettant l'accès à l'information électronique, tout en permettant aux éditeurs de gérer plus facilement leur droits, de choisir la publication partielle ou totale des oeuvres qu'ils distribuent, d'archiver les objets électroniques et de rendre le Web plus pérenne.

Le DOI est compatible avec les identifiants vus précédemment (URN, PII, SICI...). Il est concrètement composé de la manière suivante : identifiant de l'éditeur/identifiant de l'objet chez l'éditeur. L'identifiant de l'éditeur est attribué au niveau international et coûte 1000$US pour une attribution, quant à l'identifiant de l'objet, c'est l'éditeur qui le choisit (il peut correspondre à un identifiant déjà existant tel que l'ISBN, l'ISSN, le PII, le SICI...).

Le rôle des éditeurs dans le contexte du DOI consiste essentiellement à s'intéresser aux détenteurs de droits. Ils possèdent donc tous des bases de données pour gérer les documents qu'ils possèdent et qui peuvent donner les conditions d'accès à ces documents en fonction des droits (accès gratuit, ou par abonnement, licence, à l'unité...). Ces bases de données peuvent être consultables depuis le site du DOI, afin de trouver les meilleures propositions.

Un répertoire existe, qui gère les différents identifiants, les traduits dans les URL des détendeurs de droit, et redirige les utilisateurs vers ces pages. C'est par exemple ce même répertoire qui gère les droits en cas de cession pour changer l'URL du nouveau détenteur.

Le DOI permet donc d'optimiser l'accès aux objets électroniques tous en respectant au mieux les droits de ceux qui les possèdent.

Avis critique :

J'ai choisi cet article pour approfondir la partie de cours que nous avions vu sur le DOI. J'ai appris beaucoup de choses sur cet identifiant, mais aussi sur les nombreux autres identifiants existants, leur système de fonctionnement, dont je n'avais pas forcément entendu parler et que j'ai pu mettre en parallèle avec les ISBN et ISSN.

Cependant, certaines parties sont restées floues, du fait que l'auteur utilise parfois des termes un peu techniques et des concepts pas forcément compréhensibles, sûrement parce que je ne suis pas une professionnelle du monde de l'édition.

J'ai aussi trouvé cela surprenant que l'article affirme que le DOI serait payant, alors que si l'on met observe les archives de l'IFREMER que j'ai analysées il y a peu de temps, toutes les données étaient accessibles gratuitement, et la recherche pouvait pourtant s'effectuer par DOI.

Si cet article m'a donc appris beaucoup de chose, il me questionne aussi sur des contradictions observées.

Catalogue des films en ligne du CERIMES

Présentation de la collection

  • Nom : Catalogue des films en ligne du CERIMES
  • Domaine : plusieurs domaines sont concernés puisque les films sont classés selon la classification de Dewey (généralités, philosophie et psychologie, sciences sociales, langage, science de la nature et mathématiques, techniques, art, histoire et géographie).
  • Responsables : le CERIMES (Centre de ressources et d’information sur les multimédias pour l’enseignement supérieur) qui lui-même est sous la tutelle de la direction de la technologie du Ministère de l’Education Nationale, de l’Enseignement Supérieur et de la Recherche.
  • Objectifs : faciliter l’accès aux ressources multimédias en réalisant repérant et gérant ces ressources.
  • Date de lancement : non trouvée.
  • Public visé : chercheurs, enseignants et élèves de l’enseignement supérieur.

Organisation intellectuelle de la collection

  • Description du fonds : la collection de vidéo compte 219 vidéos.
  • Présentation du fonds et qualité des textes introductifs : il n’y a pas particulièrement de texte introductif. Les deux lignes proposées lorsqu’on arrive sur la page des vidéos nous rappellent rapidement quel logiciel doit être utilisé pour la visualisation des films.
  • Cohérence de la sélection documentaire : bonne puisqu’on a à faire seulement à des vidéos.
  • Base de données commune ou propre : la base de données des vidéos est propre et commune avec d’autres puisqu’elle peut être interrogeable séparément, mais aussi en commun avec tous les autres catalogues à l’aide de la recherche avancée.
  • Indexation : la collection est cataloguée selon la classification de Dewey.
  • Métadonnées internes ou externes : je n’ai pas trouvé de métadonnées internes en allant dans les propriétés des films une fois qu’ils sont enregistrés. En revanche, il est possible de rajouter ses propres métadonnées. Concernant les métadonnées externes, dès que l’on clique sur un film dans la liste de ceux proposés, on nous propose alors une notice comportant toute une série de métadonnées : provenance, sujet, auteurs, réalisateurs, producteurs mots-clés, dates, support, durée, langue, prix, droits…
  • Mode d’interrogation de la base : plusieurs mode de recherche sons possible.

Le premier consiste en un feuilletage de la base en partant des catégories de la classification de Dewey proposé sur la page d’accueil des films. Cette technique permet de trouver des documents sans en cherche un en particulier au départ.

Le second mode d’interrogation consiste à faire une recherche rapide en écrivant directement dans la ligne de recherche proposée toujours sur la page d’accueil des films ce que l’on recherche (de manière générale, cette recherche est multi champs et s’effectue alors dans le titre et les mots-clés).

Le troisième mode de recherche consiste à faire une recherche avancée. Dans ce cas, comme expliqué précédemment, la recherche s’effectue sur l’ensemble des collections, il faut donc penser à sectionner la collection des films si c’est la seule qui nous intéresse.

  • Statut juridique des documents : ces vidéos sont protégés par les droits d’auteurs. Ces droits sont précisés dans chacune des notices de film.
  • Nombre de liens : il n’y en pas particulièrement sur la page d’accueil des films en revanche, dans le site, il y en a vers les différents partenaires du CERIMES.

Consultation des documents

  • Description technique : les documents sont au format .rm.
  • Affichage : il y a deux possibilités d’affichage : l’affichage directement dans la page ou un affichage avec RealOne, auquel cas, les fichiers sont enregistrables et/ou visualisables dans une nouvelle fenêtre.
  • Logiciel de visualisation : RealPlayer
  • Lisibilité des documents : les documents s’ouvrent dans une petite fenêtre ou la définition n’est pas mauvaise, mais dès que l’on ouvre la fenêtre en grands format, la résolution est nettement moins bonne.
  • Possibilité de suivre les publications nouvelles : il est possible de suivre les nouvelles du CERIMES grâce à un fil RSS qu’ils proposent, mais ce fil RSS concerne l’ensemble du site et pas seulement la partie concernant les vidéos. On peut donc suivre en général les publications nouvelles du site.
  • Fonctionnalités proposées en plus de la visualisation : l’enregistrement des vidéos est aussi possible.

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : la navigation se fait de manière assez simple et rapide. Pour trouver la page concernant les vidéos, il n’y a pas de difficultés particulières puisqu’elle est mise en évidence dans le menu du site CERIMES, mais aussi dans le menu déroulant en haut permettant une navigation rapide.
  • Aide à la navigation : il n’y a pas d’aide particulière à la navigation, en revanche une FAQ est disponible.
  • Multilinguisme des instructions : seulement en français. En revanche, les films peuvent être parfois disponibles dans plusieurs langues.
  • Qualité du graphisme, lisibilité et confort visuel des pages : site assez confortable pour la lecture car peu surchargé et bien agencé.
  • Possibilité de communication : il est seulement possible de faire une demande d’information par mail (encore que, ça ne marche pas !).
  • Adaptation du site aux personnes handicapées : aucune.

Mon avis

Cette collection de vidéos est plutôt simple d’utilisation, assez claire, sans problème technique pour ce que j’ai pu en voir. En analysant une collection de vidéos, j’appréhendais de rencontrer des problèmes techniques de visualisation des documents ou de temps de téléchargement trop long. Elle est finalement le contraire de tout cela.

Par contre, je n’ai pas compris le principe de prix : toutes les vidéos sont visualisables et pourtant, chaque notice propose une fourchette de prix. Je pense que cela concerne donc les cas où l’on fait la demande de ces vidéos sur divers supports (DVD, CD, VHS), mais je n’ai pas trouvé d’information dessus.

L’affichage des résultats est bien fait pour permettre le classement des documents recherchés et trouvé par titre, support ou année de réalisation. Enfin, c’est la première fois que je trouve une collection où il est possible de laisser un commentaire sur une vidéo.

C’est donc une collection assez bien faite et très intuitive.

Du livre électronique au papier électronique : Nouveau papier, nouveau livre ?

Références bibliographiques :

KREBS Constance. Du livre électronique au papier électronique : Nouveau papier, nouveau livre ? BBF, 2006, vol.51, n°4, pp. 38-41.

Résumé :

Dans cet article, l'auteur nous fait la présentation du livre électronique (inspiration, création, principe de fonctionnement, avantages...), du papier électronique tout en nous présentant la nouvelle donne dans le domaine due à l'Internet

Le livre électronique, autrement appelé "e-book" commence à être commercialisé vers la fin du XXe siècle, au Etats-Unis, et au Japon d'abord. Léger, facilement transportable, capacité de mémoire de plusieurs livres, permettant la lecture en gros caractères (ou pas), de jour ou de nuit, de recherche dans dictionnaire, d'annoter grâce a un écran tactile et sans clavier ni périphérique... Tout est fait pour le rendre attirant. C'est retrouver le loisir de la lecture sans en avoir les inconvénients, c'est-à-dire en ne gardant que légèreté et mobilité. Il a porté plusieurs noms, certains l'appelleront bouquineur pour représenter la combinaison d'un logiciel, ordinateur et baladeur. C'est en fait une dématérialisation du livre : en 2000ans, on est passé du papyrus à l'hypertexte.

Après l'apparition du livre électronique ont été crées des écritures pour rendre la lecture à l'écran plus agréable. Microsoft fait partie de ces nouveaux créateurs et par là même, a créé une branche spécialisée dans la lecture électronique : Microsoft Reader (qui n'aura pas tant de succès du fait de problèmes de fonctionnement sur Mac par exemple)

L'e-book a été inspiré d'abord pas les assistants personnels électroniques qui peuvent être de plusieurs types selon les systèmes d'exploitations utilisés. Certains sont si petit que l'écran semble non adapté à la lecture, mais ils vont pourtant prendre le place des livres électroniques pendant quelques temps.

Suite au livre électronique a ensuite été inventé le papier électronique, car finalement, l'erreur principe de l'e-book à été de vouloir rivaliser le papier, support millénaire : tout ce qui est autour de la lecture lui manque. Pas de souplesse (au sens premier du terme), pas moyen de corner les pages, de griffonner dedans à la main, on pense alors que l'écran est plutôt fait pour les images et le papier pour la lecture. Apparaît alors le papier électronique, pour rassurer les lecteurs qui retrouveront la manière de tenir le papier tactilement parlant "comme avant". Ce papier contient des microcapsules qui grâce à une charge électrique ("l'encre") changent leur orientation et proposent une vision différente d'elles mêmes. Dès qu'on le souhaite, on efface le papier et on recommence. Maintenant les études sur le sujet essayent plutôt de chercher de nouveaux supports électroniques, autres que le papier : affiches, papier peint, tableau blanc...

Le papier électronique n'a pourtant pas encore trop marché, de même que les e-books qui ont un téléchargement des textes trop complexe mais aussi trop cher. C’est en fait l’utilisation de plus en plus importante d’Internet qui influe beaucoup sur le succès de ces deux technologies. En effet, la toile a influé sur la manière de penser de beaucoup d'utilisateurs de textes électroniques : si finalement tout utilisateur d’Internet est aussi inévitablement lecteur à l'écran, il reste cependant habitué a avoir toute son information gratuitement (une fois le fournisseur d'accès payé). La perspective de devoir payer pour obtenir un e-book, mais aussi et surtout le texte à lire ne lui effleureront alors pas tant l'esprit.

Pourtant, il peut peut-être y avoir une relance de l’e-book : de plus en plus livres sont mis en ligne, avec un haut débit présent dans des lieux de plus en plus nombreux. De même de nouvelle technologies apparaissent, notamment un journal lisible sur papier électronique, même dans des conditions particulières (par exemple sous la pluie, sans que cela s'efface) qui, a chaque clic propose la page suivante. Avec cela arrivent des perspectives nouvelles, d’avoir par exemple des capsules en couleurs dans les années a venir, mais aussi des sons associés à des mots, des images et pourquoi pas des vidéos.

Au Japon, on considère plutôt que ces technologies auront une visée communicationnelle. D’autres y voient plutôt une vision scolaire. Bill Gates, par exemple, considère que l’e-book est la solution a beaucoup de choses : il permet d'avoir des liens vers d'autres données, prendre des notes, mais aussi d'avoir des images, des sons ce qui pourrait permettre une meilleure alphabétisation, et un développement dans les pays en voie de développement.

Comme nous sommes passés des vinyles aux lecteurs de MP3, des films en salles à ceux disponibles sur Internet, la lecture à l’écran et donc l’e-book et le papier électronique seront la suite logique au livre papier. Une majeure partie de la population devrait donc les utiliser à l’avenir.

Avis critique :

Le ton utilisé par l’auteur se veut enjoué et sûrement proche du lecteur, ce qui rend le texte assez agréable à lire. Cependant, beaucoup d’informations notamment concernant l’e-book ne sont que répétition de ce qu’on a déjà vu dans plusieurs cours.

Pour ma part, je ne suis pas tout a fait d’accord avec le point de vue de l’auteur, plus particulièrement sur le fait qu'il y ait moins d'inconvénients avec un e-book qu'avec un livre traditionnel, si ce n’est le fait de pouvoir en avoir plusieurs en mémoire, sans avoir pour autant de poids en plus. Je ne suis pas non plus d’accord avec le point de vue un peu trop utopique à mon goût de Bill Gates. Compte tenu du prix de ce matériel, je ne vois pas en quoi cela pourra aider les pays en développement. En revanche, je pense qu’il pourrait y avoir un avenir potentiel pour le papier électronique : c’est une technologie vraiment intéressante, tant d’un point de vue praticité qu’écologique.

Collection Altitude

Présentation de la collection

  • Nom : Altitude
  • Domaine : photographies aériennes
  • Responsables : Isabelle LECHENET, la directrice de l’agence Altitude (fondée par Yann Arthus-Bertrand, auteur de « La Terre Vue du Ciel »), est responsable de cette photothèque.
  • Objectifs : cette collection a pour objectif de rassembler et de présenter des photographies aériennes utilisables ensuite par les professionnels de la publicité, de la presse, et de l’édition
  • Date de lancement : 1990
  • Public visé : professionnels de la publicité de la presse et de l’édition

Organisation intellectuelle de la collection

  • Description du fonds : 300000 images constituent le fonds de cette photothèque. Ces images sont toutes des photos aériennes couvrant le monde entier et de nombreux thèmes sont abordés : agriculture, atmosphère, bateaux, catastrophes naturelles et écologiques, communication et transports, couleurs dominantes, eau, environnement et développement durable, faune d’élevage, faune sauvage, formes et graphisme, géographies, géologie, industrie et énergie, monuments, paysages, reliefs, plan de prise de vue, saisons, sports et loisirs, urbanisme et habitat, zones climatiques…
  • Présentation du fonds et qualité des textes introductifs : c’est plus l’agence et ses objectifs qui sont présentés dans l’onglet Accueil/Présentation du menu en haut de page. Cela étant, toutes les images sont en rapport avec les objectifs de l’agence en question. La présentation n’a par ailleurs pas besoin d’être très longue : tout est clair.
  • Cohérence de la sélection documentaire : bonne : toutes les photos sont bien aériennes
  • Base de données commune ou propre : base de donnée propre à l’agence. Il n’y a pas d’autres base de données proposée et elle n’est pas interrogeable par ailleurs.
  • Indexation : c’est une indexation par mots-clés. Ces derniers sont tous répertoriés, classés selon différents thèmes et accessibles lors de a recherche (cf. plus tard).
  • Métadonnées internes ou externes : lorsque l’on interroge la base, avant que les images s’affichent, apparaissent à leur place leur titre, mais je ne sais pas si cela peut être considéré comme des métadonnées internes. S’il est par ailleurs possible d’enregistrer les photos, il ne semble pas y avoir dans leurs propriétés de données sur les photos. Concernant les métadonnées externes, une fois la liste des photos affichée, pour en savoir plus, il est possible de cliquer sur la photo ou sur le « + » proposé près du titre. S’affiche alors une notice mais qui propose comme métadonnées le titre de l’image, le lieu de prise de vue, l’année, le copyright et les mots-clés de l’image.
  • Mode d’interrogation de la base : il existe plusieurs mode d’interrogation de la base : le premier assez simple se présente dès la page d’accueil avec un champ « recherche » avec les opérateurs booléens AND et OR. Sur cette même page une aide à la recherche est proposée : des listes des thèmes, mots clés, lieux géographiques et photographes sont proposées. Les thèmes et mot-clés proposent finalement une recherche sur les mêmes mots, si ce n’est que dans la liste des thèmes, ils sont regroupés en grands thèmes et non par ordre alphabétique. Une troisième solution consiste à cliquer dans le menu Recherche/Recherche avancée, écran qui s’affiche aussi lors de l’affichage des résultats d’une recherche simple. Pour une possibilité de recherche avancée, il ne présente en plus que la possibilité de rechercher de manière standard, stricte ou « commençant par ». Enfin, la dernière possibilité de recherche a lieu lorsque la notice de l’image s’affiche : il est alors possible de sélectionner un mot-clé (ou plusieurs) et de relancer la recherche à partir de cette photo.
  • Statut juridique des documents : toutes les photos ont un droit d’auteur. Elles sont par ailleurs estampées du logo « Altitude » en filigrane pour empêcher la copie illégale. Dans chaque notice des photos d’Yann-Arthus Bertrand uniquement on peut lire une liste des restrictions quant à la copie. Pour obtenir ces photos sans le logo, il faut avoir un compte chez Altitude qui ensuite prête et loue ces photos, les auteurs gardant néanmoins leurs droits.
  • Nombre de liens : aucun


Consultation des documents
  • Description technique : toutes les images sont enregistrées au format JPEG
  • Affichage : les résultats d’une recherche s’affichent par défaut par six vignettes des photos par page. Ce format a le mérite de permettre d’avoir tout sur une même page sans avoir à faire appel au défilement de la page. Pour les recherches ayant de nombreux résultats, il est possibles d’afficher plus de vignettes par pages : 9, 30 ou 60. Il est aussi possible d’afficher les résultats sous forme de liste ou de planches (par défaut), ou encore de choisir de les trier par les numéros de photo (par défaut), les photographes ou les légendes. Lorsque l’on clique sur une vignette, l’image correspondante s’affiche dans une nouvelle page HTML.
  • Logiciel de visualisation : aucun n’est nécessaire puisque l’image s’affiche dans une nouvelle page HTML.
  • Lisibilité des documents : excellente
  • Possibilité de suivre les publications nouvelles : aucune
  • Fonctionnalités proposées en plus de la visualisation : il est possible d’imprimer les photos, mais aussi de les enregistrer (toujours avec le logo « Altitude » en filigrane) ou encore de demander un devis, pour les personnes ayant un compte chez Altitude.

Caractéristiques du site

  • Rapidité et simplicité d’utilisation : plutôt simple d’utilisation puisque dès la page d’accueil, il est possible de rechercher des photos. Le site est réduit au strict minimum ce qui permet de ne pas être noyé sous une masse d’information, sans trouver les fonctions simples comme celles de recherche.
  • Aide à la navigation : aucune
  • Multilinguisme des instructions : le site est accessible en français et en anglais. Pour cette langue, lors de la recherche par mot-clé, ceux qui sont proposés sont traduits en anglais. En revanche, la présentation de l’agence Altitude reste entièrement en français.
  • Qualité du graphisme, lisibilité et confort visuel des pages : graphisme basic, pages non surchargées et donc plus agréables à lire. La photo aléatoire en page d’accueil fait office d’accroche pour inciter à aller voir les autres.
  • Possibilité de communication : il est possible d’entrer en contact avec la directrice de la photothèque ainsi que l’iconographe.
  • Adaptation du site aux personnes handicapées : aucune

Mon avis

Il était intéressant pour moi d’analyser enfin une collection d’image et non de textes. Cela m’a permis de réfléchir à autre chose que l’indexation en full text (ou pas). L’indexation par mots clé est justement très intéressante pour la recherche lorsque l’utilisateur ne sait pas ce qu’il cherche. En l’occurrence, ce site s’adressant à des professionnels, l’indexation par mot-clé leur permet aussi d’aller directement aux sujets qu’ils recherchent.

N’étant justement pas inscrite chez Altitude (puisqu’il faut faire partie d’une société particulière), je pense que les fonctions comme « demander un devis » pour une photo de m’étaient pas accessibles. Mais il est intéressant de pouvoir visualiser la photothèque sans être inscrit pour autant, seulement pour le plaisir des yeux.

Folksonomies : les usagers indexent le web.

LE DEUFF Olivier. Folksonomies : les usagers indexent le web. BBF, 2006, vol. 51, n°4, pp. 66-70.


Résumé :

Dans son article, l'auteur nous présente d'abord les folksonomies (caractéristiques, types, avantages, inconvénents), mais aussi les différents débats qu'elles fédèrent et les moyens de mesure qu'elle représente, et enfin présente les différentes possibilités d'éduquer à la l'indexation.

Les folsonomies sont la combinaison de folk, l'usager et taxinomie, règles de classification. C'est un phénomène récent où l'indexation des document numériques est effectuée par l'usager, avec des tags. En anglais, le tag représente plusieurs notions assez proches : l'étiquetage, le traçage, le fléchage, le marquage... Dans le cas présent, cela représente en fait, les mots-clés d'indexation d'un document, des catégories de nom, des métadonnées, qui peuvent être de n'importe quel type et forme selon les besoins de l'usager et son niveau de maîtrise de la langue et de culture.

Le fait d'indexer personnellement ses documents avec ses propres mots-clés permet à l'utilisateur des les retrouver plus facilement. Le but reste personnel, il n'y a donc pas d'objectif d'exauhstivité dans le choix de catégories de classement comme pour les classification des Dewey ou la classification décimale universelle. L'usager peut tout indexer, de ses documents jusqu'au documents produits par d'autres, cela implique une notion de partage et de collaboration.

Il y a deux types de folksonomies : les folksonomies étroites qui ont un objectif individuel et les folksonomies générales pour une utilisation collective et collaborative. Ces dernières permettent la mise en relation d'usagers ayant les mêmes centres d'intérêt, donc finalement, les mots-clé choisis par un indexeur le representant en font un usager indexé.

La force principale des folksonomies reste qu'il n'y a besoin d'aucun consensus contrairement aux taxinomies, il ne peut donc pas y avoir de reproche sur des visions politiques ou idéologiques. Si elles sont souples d'utilisation, pour beaucoup, elles posent le risque d'une mauvaise indexation, mais aussi la possibilité d'attirer un utilisateur sur un site donné par mauvais utilisation de mots-clés, ou encore risquer la polysémie...

Plusieurs avis se démarquent nettement sur le sujet des folksonomies : certains pensent qu'elles représentent la réussite d'une indexation de contenus largement diffusée. En réponse, d'autre pensent que c'est, au contraire, une invasion de mots-clés qui ne permettent pas une recherche aussi pertinente que dans le cas où des professionnels se seraient occupés de l'indexation. Ce a quoi d'autres répondent encore que souvent le vocabulaire contrôlé n'est souvent pas adapté a l'indexation souhaitée.

Les folksonomies peuvent s'avérer être d'abord des moyens de veille sur des termes précis, mais aussi et surtout elles permettent la mesure, par exemple de la popularité de certains documents du type des billets publiés sur un blog (bien que la popularité ne soit pas pertinence).

Certains pensent que tout cela représente le web sémantique du pauvre. Finalement, c'est cela justement qui assure son succès, car elles permettent l'accès à des résultats de recherche pertinents qu'un moteur de recherche aurait pu ne pas repérer et elles ont le mérite d'exister contrairement au web sémantique qui reste limité.

Enfin, l'auteur juge important d'éduquer à l'indexation (la tag literacy), afin d'améliorer le système. Pour cela, il faudrait d'abord apprendre aux usagers à éliminer les mauvais tags, d'où la mise en place de "règles de bonne indexation par les tags", dont voici quelque exemples : penser collectivement en choississant ses tags, puisqu'il peut y avoir réutilisation, éviter les majuscules, utiliser l'underscore pour les groupes de mots, inclure des synonymes... Certains sites proposent même les tags les plus utilisés afin de simplifier le choix des tags par l'utilisateur.

Contribuer à l'indexation demande en général des compétence et aussi du temps. Si la folksonomie ne demande pas particulièrement de compétences ni de temps contrairement aux modèle contrôlés, elle en demande par contre lors de la recherche qui s'avère alors plus compliquée compte tenue du nombre de tags possibles, ce qui reviens finalement à un système bien plus coûteux que ce que beaucoup pensent.

On peut alors se demander si avec les folksonomies, nous avons à faire à un phénomène durable ou de mode. De même, il n'est pas anodin de se demander s'il remplacera les thésaurus et/ou les autres mode d'indexation ?

Avis critique :

Si ce texte explique très clairement les caractéristiques de folksonomies, je trouve en revanche qu'il est assez peu clair dans les différentes applications possibles : s'il n'y a pas d'existence officielle, on aimerait quand même voir concrêtement à quoi des documents numériques indexés par leur propres usagers ressemblent au niveau même de cette indexation. A la lecture de l'article, il semblerait justement que la recherche de ses documents soit possibles, mais je n'ai encore jamais trouvé de moteurs de recherche proposant cette recherche particulière.

Personnellement, je trouve le principe des floksonomies assez bien tant que l'utilisation ne se fait que dans un cadre strictement personnel. Dès qu'il en sort, je ne vois pas comment, compte-tenu des différences entre les milliards d'individus qui existent sur cette terre, la recherche pourrait être pertinente. Un indexation normalisée même si elle est plus contraignante me semblerais plus pertinente tant qu'elle est connue de tous.