470 likes | 582 Views
Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012 Quelle formation des élèves à l’art du filtrage ? Alexandre Serres URFIST de Rennes. En guise de plan. 1/ En introduction : 2 idées-force 2/ Comprendre la complexité de l’évaluation de l’information
E N D
Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012 Quelle formation des élèves à l’art du filtrage ? Alexandre SerresURFIST de Rennes
En guise de plan • 1/ En introduction : 2 idées-force • 2/ Comprendre la complexité de l’évaluation de l’information • 3/ Quelle formation à l’évaluation de l’information ? • 4/ En conclusion : des illusions à combattre 2 A. Serres, URFIST Rennes, 2012
1/ Introduction : deux idées-force • Prendre conscience de la complexité de la question de l’évaluation de l’information • Faire de cette complexité à la fois l’objectif et la base de la formation > quelles incidences de cette « approche par la complexité » pour les professeurs documentalistes ? 3 A. Serres, URFIST Rennes, 2012
2/ Comprendre la complexité de l’évaluation de l’information • Trois grands facteurs de complexité : • Multiplicité des dimensions de l'évaluation de l'information • Multiplicité des critères d'évaluation • Multiplicité des pratiques de l'évaluation 4 A. Serres, URFIST Rennes, 2012
2.1 Comprendre la complexité : la multiplicité des dimensions • Une activité et une question multi-dimensionnelle : • Au moins 10 dimensions à prendre en compte… • Importance de tenir compte de toutes ces dimensions pour la formation : • Éviter les approches réductrices, naïves 5 A. Serres, URFIST Rennes, 2012
La dimension socio-politique • La question de (la) confiance : • Prégnance du contexte socio-politique • Crise des autorités • Voir l’évaluation de l'information comme double symptôme : • de la crise de confiance envers les autorités • du rapport au monde des individus • Les enjeux socio-politiques des infopollutions : • La question de la fiabilité des infos sur le web • Et celle de la qualité des ressources 6 A. Serres, URFIST Rennes, 2012
La dimension socio-politique :sur l’autorité • « Il n'y a pas de si grand philosophe qui ne croie un million de choses sur la foi d'autrui et qui ne suppose beaucoup plus de vérités qu'il n'en établit (...) Il faut donc toujours, quoi qu'il arrive, que l'autorité se rencontre quelque part dans le monde intellectuel et moral.Sa place est variable mais elle a nécessairement sa place. » (Tocqueville, De la démocratie en Amérique, 1840) • Quelle est la place de l’autorité, intellectuelle et morale, sur les réseaux sociaux ? 7 A. Serres, URFIST Rennes, 2012
La dimension sociale, sociologique • Grande hétérogénéité des pratiques d'évaluation • Multiplicité des paramètres sociaux • La nécessaire connaissance des pratiques informationnelles des jeunes 8 A. Serres, URFIST Rennes, 2012
La dimension culturelle • Evaluation de l’information : aussi une pratique culturelle • Pratique de lecture, d’écriture • Pratique médiatique : rapports avec la presse, les médias… • Double mutation : • Evolution des pratiques culturelles des jeunes : • « Génération internet » • Mutation de la culture avec le numérique : • Changement des modes de lecture, d’apprentissage, de consommation culturelle… 9 A. Serres, URFIST Rennes, 2012
La dimension psycho-cognitive • Evaluer l’information = une activité cognitive complexe • Nombreuses compétences cognitives mobilisées : • décodage sémiotique, repérage , lecture, analyse… • Tenir compte des étapes du développement cognitif : • Ex. de notion de source, trop complexe avant 10 ans (Rouet) 10 A. Serres, URFIST Rennes, 2012
La dimension théorique • Mobilisation de notions théoriques complexes : • Crédibilité • Autorité • Qualité de l’information • Pertinence • Source • … • Maîtrise des notions indispensable aux tâches d’évaluation 11 A. Serres, URFIST Rennes, 2012
La dimension technique • Rôle-clé des outils, des évolutions du web : • outils du web social • apports du web sémantique • Développer une culture technique du web • Percevoir les limites des outils 12 A. Serres, URFIST Rennes, 2012
La dimension méthodologique • Evaluer l’information = mettre en œuvre plusieurs compétences méthodologiques • Différentes démarches d'évaluation : • Selon les contextes, les domaines, les publics… • Démarche de questionnement 13 A. Serres, URFIST Rennes, 2012
La dimension informationnelle • L’évaluation de l'information à la fois: • au coeur de la culture informationnelle • par ses enjeux, les notions, les compétences… • au carrefour des trois cultures de l’information : • médias, infodoc, informatique 14 A. Serres, URFIST Rennes, 2012
La dimension éducative • Importance des enjeux éducatifs : • formation au jugement critique • Caractère transversal de l'évaluation de l'information : • concerne tous les acteurs de l’école • identifier les acteurs et leur rôle 15 A. Serres, URFIST Rennes, 2012
La dimension didactique • Concerne plus spécifiquement les professeurs documentalistes : • identifier les contenus à enseigner • identifier les situations pédagogiques • mettre en place les dispositifs 16 A. Serres, URFIST Rennes, 2012
2.2 Comprendre la complexité :la multiplicité des critères de l’évaluation • Evaluer une ressource = mobiliser 2 grandes catégories de critères : • Des critères « transversaux », liés à des notions • Des critères « d'objet » , liés aux composantes d’une ressource 17 A. Serres, URFIST Rennes, 2012
Multiplicité des critères: l’imbrication des objets • Plusieurs objets à distinguer dans toute évaluation : • La source • L’auteur • L’information • La structuration du contenu • La présentation, le graphisme, la lisibilité… • L’usage, « l’utilisabilité » • Confusion fréquente des objets à évaluer : • Par ex. entre fiabilité de source et facilité d’accès 18 A. Serres, URFIST Rennes, 2012
Multiplicité des critères: l’imbrication des notions • Des « allants-de-soi » peu explicités : • « Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes • Mais qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? • Importance de définir et de distinguer ces notions, qui ne se recouvrent pas 19 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer :la crédibilité • Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » • Rôle-clé de la confiance : • Crédibilité toujours à construire • Plus proche d’un sentiment que d’une qualité factuelle • Crédibilité d’une ressource : • Qualité perçue, à partir de différents indices • Deux typologies de la crédibilité 20 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer :les objets de crédibilité • Quatre objets à mesurer : • Crédibilité de la source • Crédibilité de l’auteur • Crédibilité du support • Crédibilité du document • > pas de recouvrement automatique 21 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer :les facteurs de la crédibilité Typologie de Fogg et Tseng, 1999 • Crédibilité présumée (représentations) : • Confiance accordée a priori à quelqu’un, à une source, en fonction de ses représentations, de ses croyances… • Crédibilité réputée (réputation) : • Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité… • Crédibilité de surface (apparence, présentation) : • Confiance selon la présentation d’une personne, d’une ressource, d’un site web • Crédibilité d’expérience (usage) : • Confiance liée à l’expérience personnelle d’une personne, d’une ressource, d’un site… 22 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer : “l’autorité cognitive” • Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences » • Diversité des autorités cognitives : • Personnes, livres, organisations, outils… • Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise • Mais autorité plus forte que la crédibilité : • Notion d’influence choisie, de reconnaissance d’une expertise 23 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer :l’autorité informationnelle • Notion « d’autorité informationnelle » (E. Broudoux) • Quatre types d’autorités informationnelles : • L’autorité énonciative : • liée à un auteur, à un collectif… ; • L’autorité institutionnelle : • Éditeur, organisation, source… • L’autorité du support : • Liée au type de document ; • L’autorité de contenu : • « plausibilité intrinsèque » du texte 24 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer : la qualité de l’information • Trois grandes approches de la qualité : • « Qualité documentaire » : • Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource • Qualité de l’information, au sens info-news • Qualité des données (info-data) : • Très proche de la pertinence 25 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer : la pertinence • « Qualité de ce qui est adapté exactement à l'objet dont il s'agit. » • Notion complexe, nombreux modèles, nombreuses théories • Au fondement de la recherche documentaire : • "Degré de corrélation entre une question et la réponse apportée » • approche précise mais réductrice de la pertinence • Nécessité d’élargir la notion • Trois catégories de pertinences 26 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer : les trois catégories de pertinences • La « pertinence-système » : • pertinence de la représentationdu document (indexation...) et recherche d'information elle-même. • La « pertinence-utilisateur » : 2 types • pertinence de la formulation de la requête • pertinence du document par rapport au besoin : Concerne uniquement l’utilisateur • La « pertinence-thème » : • pertinence du contenu du document par rapport au thème évaluation formalisable de l’information 27 A. Serres, URFIST Rennes, 2012
Quatre notions à distinguer : en conclusion • Bien distinguer les combinaisons entre les notions • Une ressource peut être : • crédible, de qualité, mais non pertinente : • Ex. d’une thèse pour un lycéen • peu crédible, mais de qualité et pertinente : • Ex. d’un site personnel inconnu, mais de qualité et pertinent • crédible, mais de mauvaise qualité et non pertinente: • Ex. d’un article de revue de mauvaise qualité • non crédible et de mauvaise qualité mais pertinente • Ex. d’un site sectaire pour un dossier sur les secte • Pour l’usager, primauté de la pertinence sur tous les autres 28 A. Serres, URFIST Rennes, 2012
2.3 Comprendre la complexité :la multiplicité des pratiques de l’évaluation • A chacun sa pratique d’évaluation ! • 4 grands axes d’observation des pratiques d’évaluation de l’information : • Les publics • Les contextes • Les dispositifs • Les types d'informations • + Les critères • Nombreuses variables dans chaque axe 29 A. Serres, URFIST Rennes, 2012
La multiplicité des pratiques de l’évaluation 30 A. Serres, URFIST Rennes, 2012
3/ Quelle formation à l'évaluation de l'information ? Cinq questions, cinq défis • Comment former à l’autonomie de jugement ? > Le défi éducatif • Comment faire émerger les besoins de formation? > Le défi des représentations • Quelles sont les difficultés de l’évaluation de l’information ? > Le défi épistémologique • De qui relève cette formation ? > Le défi des acteurs • Former à quels contenus et comment ? > Le défi didactique 31 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi éducatif • Un défi éducatif global : • « A l’avenir, l’éducation aura pour but d’apprendre l’art du filtrage » Umberto Eco (Le Monde, 12 octobre 2010) 32 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi éducatif • Former pour quelles finalités ? • « La formation à la culture informationnelle doit ainsi s'inscrire dans les finalités éducatives et les valeurs propres à l'école, lesquelles touchent à la construction d'une autonomie de pensée, à la formation à l'attention, à la construction des savoirs, la formation citoyenne, à l’égalité des chances et à l’insertion professionnelle et sociale. »(Rapport du GRCDI, « Douze propositions pour l’élaboration d’un curriculum info-documentaire ») • La question de l’autonomie de jugement • Les paradoxes de l’autonomie sur internet • Former à l’évaluation = former au jugement critique • Finalités de la formation à l’évaluation = finalités de l’éducation à l’information = finalités de l’éducation • Défi éducatif : • concerne tous les acteurs de l’éducation : parents, enseignants, professionnels de l’information, étudiants… 33 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi des représentations Comment faire émerger les besoins de formation ? • Plusieurs aspects contradictoires : • Confiance globale envers le web comme média en hausse • Mais perception croissante de l’importance du problème de l’évaluation de l’information • Elévation relative des niveaux d’usage et des compétences numériques des jeunes • Besoins de formation non reconnus : • Chez les jeunes : • Appropriation des outils > autonomie technique > sentiment d’autonomie pour l’évaluation • Le sentiment d’autonomie comme nouvel obstacle cognitif pour la formation • Chez les enseignants : • Problème encore mal identifié 34 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ?Le défi des représentations • Quelques pistes (personnelles) : • Développer une pédagogie du questionnement • Connaître les pratiques réelles des élèves • Partir de ces pratiques : • Faire s'interroger les élèves sur leurs pratiques • Quels critères spontanés de crédibilité sur Facebook ou Twitter ? • Utiliser les infopollutions : • « Piéger » les élèves avec des exemples de désinformation • Faire questionner les notions 35 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi épistémologique • Principale difficulté d’une formation à l’évaluation = l’évaluation de l’information elle-même • Nombreux savoirs, différentes cultures mobilisés pour identifier et évaluer une ressource • Six types de cultures : • Culture « générale » • Cultures disciplinaires • Culture informationnelle (information literacy) • Culture informatique (computer literacy) • Culture numérique (digital literacy) • Culture médiatique (media literacy) • Initier les élèves à cette complexité et à la distinction des cultures et compétences 36 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi épistémologique • L’évaluation de l’information comme figure emblématique de la translittératie ? • Transliteracy : « l’habileté à lire, écrire et interagir par le biais d’une variété de plateformes, d’outils et de moyens de communication, de l’iconographie à l’oralité en passant par l’écriture manuscrite, l’édition, la télé, la radio et le cinéma, jusqu’aux réseaux sociaux » (Sue Thomas and al.) • Hybridation des cultures 37 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ?Le défi des acteurs de la formation • De qui relève cette formation ? • Enseignants ? Professionnels de l’info. ? • Question classique de l’articulation disciplines/documentation • Problème de la spécificité des apprentissages documentaires et d’une didactique autonome • La nécessaire approche transversale et multiple de l’évaluation • Le partage par les contenus et les objectifs 38 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi didactique • Quels contenus ? • Notions à enseigner : • Les 4 notions essentielles de l’évaluation de l’information • Notions de source, d’auteur, de validité… • Voir Dictionnaire didactique… • Notions des autres cultures de l’information • Compétences à viser : • Savoir identifier les sources • Savoir distinguer les critères d’évaluation • Savoir questionner les ressources 39 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi didactique • Quelles activités pédagogiques ? • Former à l’identification • Sensibiliser à la notion de crédibilité • Utiliser les infopollutions • Travailler sur les controverses sociotechniques : • Identifier les acteurs, les discours, les positions, les intérêts… • Ne pas entrer dans les contenus 40 A. Serres, URFIST Rennes, 2012
Quelle formation à l'évaluation de l'information ? Le défi didactique • Quelle progressivité ? • Collège : bases de culture de l’information • Repérage, décodage des ressources web, connaissance des documents… • Lycée : • Controverses sociotechniques • Notion de crédibilité • Quelle articulation avec la veille ? • L’évaluation de l'info. comme préalable à la veille 41 A. Serres, URFIST Rennes, 2012
En conclusion : 5 illusions à combattre • L’illusion sociale : • confiance excessive dans la communauté : • limites des réseaux de confiance • évaluation de l'information = jugement personnel • L’illusion techniciste : • délégation totale aux outils des tâches d'évaluation • l'impossible automatisation du jugement de fiabilité 42 A. Serres, URFIST Rennes, 2012
En conclusion : 5 illusions à combattre • L’illusion épistémologique : • la naïveté épistémologique face à l'information • perdre de vue le caractère toujours contextuel, construit... de l'information • L’illusion méthodologique : • croire en une méthodologie universelle, passe-partout • limites des démarches trop linéaires • "l'impossible méthodologie" ? • L’illusion pédagogique : • approche procédurale de l'évaluation, limites des référentiels • approche strictement info-documentaire • occulter la dimension trans-disciplinaire de l'évaluation 43 A. Serres, URFIST Rennes, 2012
Références bibliographiques • BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn: Contributions from a Research Field in Transition.Frankfurt : Peter Lang, 2007. Disp. sur : http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInfo.pdf. • FOGG, B. J., & TSENG, H. ”The elements of computer credibility”. Proceedings of the SIGCHI conference on Human Factors in Computing Systems, 1999, p. 80–87 • FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people evaluate a web site's credibility ? Results from a large study [En ligne]. Stanford, California : Persuasive Technology Lab Stanford University, 2002. 105 p. Disp. sur : < http://www.consumerwebwatch.org/pdfs/stanfordPTL.pdf > 44 A. Serres, URFIST Rennes, 2012
Références bibliographiques • LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly information on the web: A cross cultural study ». The International Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p. 102. Disp. sur : < http://dx.doi.org/10.1016/j.iilr.2005.05.004 • SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde [En ligne]. 15 Juillet 2010. • UCL (University College London), JISC (Joint Information Systems Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur. Information behaviour of the researcher of the future [En ligne]. Londres, Paris : UCL (University College London), JISC (Joint Information Systems Committee), 2008. Disp. sur : http://www.jisc.ac.uk/media/documents/programmes/reppres/gg_final_keynote_11012008.pdf ; Trad. en français disp. sur : http://www.savoirscdi.cndp.fr/fileadmin/fichiers_auteurs/PDF_manuels/Le_comportement__informationnel_du_chercheur_du_futur.pdf > 45 A. Serres, URFIST Rennes, 2012
Ressources personnelles sur l’évaluation de l’information • Supports de stage URFIST : • Evaluer la crédibilité d’une ressource sur internet • Evaluation de l’information sur internet • Signets personnels sur Diigo : Liste Evaluation information • « Dans le labyrinthe » 46 A. Serres, URFIST Rennes, 2012
Merci de votre attention ! Contact : alexandre.serres@uhb.fr Site web de l’URFIST de Rennes : http://www.sites.univ-rennes2.fr/urfist/ 47 A. Serres, URFIST Rennes, 2012