1 / 47

Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012

Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012 Quelle formation des élèves à l’art du filtrage ? Alexandre Serres URFIST de Rennes. En guise de plan. 1/ En introduction : 2 idées-force 2/ Comprendre la complexité de l’évaluation de l’information

kent
Download Presentation

Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Journée ADBEN Pays de la Loire IUFM d’Angers, 13 décembre 2012 Quelle formation des élèves à l’art du filtrage ? Alexandre SerresURFIST de Rennes

  2. En guise de plan • 1/ En introduction : 2 idées-force • 2/ Comprendre la complexité de l’évaluation de l’information • 3/ Quelle formation à l’évaluation de l’information ? • 4/ En conclusion : des illusions à combattre 2 A. Serres, URFIST Rennes, 2012

  3. 1/ Introduction : deux idées-force • Prendre conscience de la complexité de la question de l’évaluation de l’information • Faire de cette complexité à la fois l’objectif et la base de la formation > quelles incidences de cette « approche par la complexité » pour les professeurs documentalistes ? 3 A. Serres, URFIST Rennes, 2012

  4. 2/ Comprendre la complexité de l’évaluation de l’information • Trois grands facteurs de complexité : • Multiplicité des dimensions de l'évaluation de l'information • Multiplicité des critères d'évaluation • Multiplicité des pratiques de l'évaluation 4 A. Serres, URFIST Rennes, 2012

  5. 2.1 Comprendre la complexité : la multiplicité des dimensions • Une activité et une question multi-dimensionnelle : • Au moins 10 dimensions à prendre en compte… • Importance de tenir compte de toutes ces dimensions pour la formation : • Éviter les approches réductrices, naïves 5 A. Serres, URFIST Rennes, 2012

  6. La dimension socio-politique • La question de (la) confiance : • Prégnance du contexte socio-politique • Crise des autorités • Voir l’évaluation de l'information comme double symptôme : • de la crise de confiance envers les autorités • du rapport au monde des individus • Les enjeux socio-politiques des infopollutions : • La question de la fiabilité des infos sur le web • Et celle de la qualité des ressources 6 A. Serres, URFIST Rennes, 2012

  7. La dimension socio-politique :sur l’autorité • « Il n'y a pas de si grand philosophe qui ne croie un million de choses sur la foi d'autrui et qui ne suppose beaucoup plus de vérités qu'il n'en établit (...) Il faut donc toujours, quoi qu'il arrive, que l'autorité se rencontre quelque part dans le monde intellectuel et moral.Sa place est variable mais elle a nécessairement sa place. » (Tocqueville, De la démocratie en Amérique, 1840) • Quelle est la place de l’autorité, intellectuelle et morale, sur les réseaux sociaux ? 7 A. Serres, URFIST Rennes, 2012

  8. La dimension sociale, sociologique • Grande hétérogénéité des pratiques d'évaluation • Multiplicité des paramètres sociaux • La nécessaire connaissance des pratiques informationnelles des jeunes 8 A. Serres, URFIST Rennes, 2012

  9. La dimension culturelle • Evaluation de l’information : aussi une pratique culturelle • Pratique de lecture, d’écriture • Pratique médiatique : rapports avec la presse, les médias… • Double mutation : • Evolution des pratiques culturelles des jeunes : • « Génération internet » • Mutation de la culture avec le numérique : • Changement des modes de lecture, d’apprentissage, de consommation culturelle… 9 A. Serres, URFIST Rennes, 2012

  10. La dimension psycho-cognitive • Evaluer l’information = une activité cognitive complexe • Nombreuses compétences cognitives mobilisées : • décodage sémiotique, repérage , lecture, analyse… • Tenir compte des étapes du développement cognitif : • Ex. de notion de source, trop complexe avant 10 ans (Rouet) 10 A. Serres, URFIST Rennes, 2012

  11. La dimension théorique • Mobilisation de notions théoriques complexes : • Crédibilité • Autorité • Qualité de l’information • Pertinence • Source • … • Maîtrise des notions indispensable aux tâches d’évaluation 11 A. Serres, URFIST Rennes, 2012

  12. La dimension technique • Rôle-clé des outils, des évolutions du web : • outils du web social • apports du web sémantique • Développer une culture technique du web • Percevoir les limites des outils 12 A. Serres, URFIST Rennes, 2012

  13. La dimension méthodologique • Evaluer l’information = mettre en œuvre plusieurs compétences méthodologiques • Différentes démarches d'évaluation : • Selon les contextes, les domaines, les publics… • Démarche de questionnement 13 A. Serres, URFIST Rennes, 2012

  14. La dimension informationnelle • L’évaluation de l'information à la fois: • au coeur de la culture informationnelle • par ses enjeux, les notions, les compétences… • au carrefour des trois cultures de l’information : • médias, infodoc, informatique 14 A. Serres, URFIST Rennes, 2012

  15. La dimension éducative • Importance des enjeux éducatifs : • formation au jugement critique • Caractère transversal de l'évaluation de l'information : • concerne tous les acteurs de l’école • identifier les acteurs et leur rôle 15 A. Serres, URFIST Rennes, 2012

  16. La dimension didactique • Concerne plus spécifiquement les professeurs documentalistes : • identifier les contenus à enseigner • identifier les situations pédagogiques • mettre en place les dispositifs 16 A. Serres, URFIST Rennes, 2012

  17. 2.2 Comprendre la complexité :la multiplicité des critères de l’évaluation • Evaluer une ressource = mobiliser 2 grandes catégories de critères : • Des critères « transversaux », liés à des notions • Des critères « d'objet » , liés aux composantes d’une ressource 17 A. Serres, URFIST Rennes, 2012

  18. Multiplicité des critères: l’imbrication des objets • Plusieurs objets à distinguer dans toute évaluation : • La source • L’auteur • L’information • La structuration du contenu • La présentation, le graphisme, la lisibilité… • L’usage, « l’utilisabilité » • Confusion fréquente des objets à évaluer : • Par ex. entre fiabilité de source et facilité d’accès 18 A. Serres, URFIST Rennes, 2012

  19. Multiplicité des critères: l’imbrication des notions • Des « allants-de-soi » peu explicités : • « Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes • Mais qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? • Importance de définir et de distinguer ces notions, qui ne se recouvrent pas 19 A. Serres, URFIST Rennes, 2012

  20. Quatre notions à distinguer :la crédibilité • Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » • Rôle-clé de la confiance : • Crédibilité toujours à construire • Plus proche d’un sentiment que d’une qualité factuelle • Crédibilité d’une ressource : • Qualité perçue, à partir de différents indices • Deux typologies de la crédibilité 20 A. Serres, URFIST Rennes, 2012

  21. Quatre notions à distinguer :les objets de crédibilité • Quatre objets à mesurer : • Crédibilité de la source • Crédibilité de l’auteur • Crédibilité du support • Crédibilité du document • > pas de recouvrement automatique 21 A. Serres, URFIST Rennes, 2012

  22. Quatre notions à distinguer :les facteurs de la crédibilité Typologie de Fogg et Tseng, 1999 • Crédibilité présumée (représentations) : • Confiance accordée a priori à quelqu’un, à une source, en fonction de ses représentations, de ses croyances… • Crédibilité réputée (réputation) : • Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité… • Crédibilité de surface (apparence, présentation) : • Confiance selon la présentation d’une personne, d’une ressource, d’un site web • Crédibilité d’expérience (usage) : • Confiance liée à l’expérience personnelle d’une personne, d’une ressource, d’un site… 22 A. Serres, URFIST Rennes, 2012

  23. Quatre notions à distinguer : “l’autorité cognitive” • Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences » • Diversité des autorités cognitives : • Personnes, livres, organisations, outils… • Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise • Mais autorité plus forte que la crédibilité : • Notion d’influence choisie, de reconnaissance d’une expertise 23 A. Serres, URFIST Rennes, 2012

  24. Quatre notions à distinguer :l’autorité informationnelle • Notion « d’autorité informationnelle » (E. Broudoux) • Quatre types d’autorités informationnelles : • L’autorité énonciative : • liée à un auteur, à un collectif… ; • L’autorité institutionnelle : • Éditeur, organisation, source… • L’autorité du support : • Liée au type de document ; • L’autorité de contenu : • « plausibilité intrinsèque » du texte 24 A. Serres, URFIST Rennes, 2012

  25. Quatre notions à distinguer : la qualité de l’information • Trois grandes approches de la qualité : • « Qualité documentaire » : • Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource • Qualité de l’information, au sens info-news • Qualité des données (info-data) : • Très proche de la pertinence 25 A. Serres, URFIST Rennes, 2012

  26. Quatre notions à distinguer : la pertinence • « Qualité de ce qui est adapté exactement à l'objet dont il s'agit. » • Notion complexe, nombreux modèles, nombreuses théories • Au fondement de la recherche documentaire : • "Degré de corrélation entre une question et la réponse apportée » • approche précise mais réductrice de la pertinence • Nécessité d’élargir la notion • Trois catégories de pertinences 26 A. Serres, URFIST Rennes, 2012

  27. Quatre notions à distinguer : les trois catégories de pertinences • La « pertinence-système » : • pertinence de la représentationdu document (indexation...) et recherche d'information elle-même. • La « pertinence-utilisateur » : 2 types • pertinence de la formulation de la requête • pertinence du document par rapport au besoin :  Concerne uniquement l’utilisateur • La « pertinence-thème » : • pertinence du contenu du document par rapport au thème  évaluation formalisable de l’information 27 A. Serres, URFIST Rennes, 2012

  28. Quatre notions à distinguer : en conclusion • Bien distinguer les combinaisons entre les notions • Une ressource peut être : • crédible, de qualité, mais non pertinente : • Ex. d’une thèse pour un lycéen • peu crédible, mais de qualité et pertinente : • Ex. d’un site personnel inconnu, mais de qualité et pertinent • crédible, mais de mauvaise qualité et non pertinente: • Ex. d’un article de revue de mauvaise qualité • non crédible et de mauvaise qualité mais pertinente • Ex. d’un site sectaire pour un dossier sur les secte • Pour l’usager, primauté de la pertinence sur tous les autres 28 A. Serres, URFIST Rennes, 2012

  29. 2.3 Comprendre la complexité :la multiplicité des pratiques de l’évaluation • A chacun sa pratique d’évaluation ! • 4 grands axes d’observation des pratiques d’évaluation de l’information : • Les publics • Les contextes • Les dispositifs • Les types d'informations • + Les critères • Nombreuses variables dans chaque axe 29 A. Serres, URFIST Rennes, 2012

  30. La multiplicité des pratiques de l’évaluation 30 A. Serres, URFIST Rennes, 2012

  31. 3/ Quelle formation à l'évaluation de l'information ? Cinq questions, cinq défis • Comment former à l’autonomie de jugement ? > Le défi éducatif • Comment faire émerger les besoins de formation? > Le défi des représentations • Quelles sont les difficultés de l’évaluation de l’information ? > Le défi épistémologique • De qui relève cette formation ? > Le défi des acteurs • Former à quels contenus et comment ? > Le défi didactique 31 A. Serres, URFIST Rennes, 2012

  32. Quelle formation à l'évaluation de l'information ? Le défi éducatif • Un défi éducatif global : • « A l’avenir, l’éducation aura pour but d’apprendre l’art du filtrage » Umberto Eco (Le Monde, 12 octobre 2010) 32 A. Serres, URFIST Rennes, 2012

  33. Quelle formation à l'évaluation de l'information ? Le défi éducatif • Former pour quelles finalités ? • « La formation à la culture informationnelle doit ainsi s'inscrire dans les finalités éducatives et les valeurs propres à l'école, lesquelles touchent à la construction d'une autonomie de pensée, à la formation à l'attention, à la construction des savoirs, la formation citoyenne, à l’égalité des chances et à l’insertion professionnelle et sociale. »(Rapport du GRCDI, « Douze propositions pour l’élaboration d’un curriculum info-documentaire ») • La question de l’autonomie de jugement • Les paradoxes de l’autonomie sur internet • Former à l’évaluation = former au jugement critique • Finalités de la formation à l’évaluation = finalités de l’éducation à l’information = finalités de l’éducation • Défi éducatif : • concerne tous les acteurs de l’éducation : parents, enseignants, professionnels de l’information, étudiants… 33 A. Serres, URFIST Rennes, 2012

  34. Quelle formation à l'évaluation de l'information ? Le défi des représentations Comment faire émerger les besoins de formation ? • Plusieurs aspects contradictoires : • Confiance globale envers le web comme média en hausse • Mais perception croissante de l’importance du problème de l’évaluation de l’information • Elévation relative des niveaux d’usage et des compétences numériques des jeunes • Besoins de formation non reconnus : • Chez les jeunes : • Appropriation des outils > autonomie technique > sentiment d’autonomie pour l’évaluation • Le sentiment d’autonomie comme nouvel obstacle cognitif pour la formation • Chez les enseignants : • Problème encore mal identifié 34 A. Serres, URFIST Rennes, 2012

  35. Quelle formation à l'évaluation de l'information ?Le défi des représentations • Quelques pistes (personnelles) : • Développer une pédagogie du questionnement • Connaître les pratiques réelles des élèves • Partir de ces pratiques : • Faire s'interroger les élèves sur leurs pratiques • Quels critères spontanés de crédibilité sur Facebook ou Twitter ? • Utiliser les infopollutions : • « Piéger » les élèves avec des exemples de désinformation • Faire questionner les notions 35 A. Serres, URFIST Rennes, 2012

  36. Quelle formation à l'évaluation de l'information ? Le défi épistémologique • Principale difficulté d’une formation à l’évaluation = l’évaluation de l’information elle-même • Nombreux savoirs, différentes cultures mobilisés pour identifier et évaluer une ressource • Six types de cultures : • Culture « générale » • Cultures disciplinaires • Culture informationnelle (information literacy) • Culture informatique (computer literacy) • Culture numérique (digital literacy) • Culture médiatique (media literacy) • Initier les élèves à cette complexité et à la distinction des cultures et compétences 36 A. Serres, URFIST Rennes, 2012

  37. Quelle formation à l'évaluation de l'information ? Le défi épistémologique • L’évaluation de l’information comme figure emblématique de la translittératie ? • Transliteracy : « l’habileté à lire, écrire et interagir par le biais d’une variété de plateformes, d’outils et de moyens de communication, de l’iconographie à l’oralité en passant par l’écriture manuscrite, l’édition, la télé, la radio et le cinéma, jusqu’aux réseaux sociaux » (Sue Thomas and al.) • Hybridation des cultures 37 A. Serres, URFIST Rennes, 2012

  38. Quelle formation à l'évaluation de l'information ?Le défi des acteurs de la formation • De qui relève cette formation ? • Enseignants ? Professionnels de l’info. ? • Question classique de l’articulation disciplines/documentation • Problème de la spécificité des apprentissages documentaires et d’une didactique autonome • La nécessaire approche transversale et multiple de l’évaluation • Le partage par les contenus et les objectifs 38 A. Serres, URFIST Rennes, 2012

  39. Quelle formation à l'évaluation de l'information ? Le défi didactique • Quels contenus ? • Notions à enseigner : • Les 4 notions essentielles de l’évaluation de l’information • Notions de source, d’auteur, de validité… • Voir Dictionnaire didactique… • Notions des autres cultures de l’information • Compétences à viser : • Savoir identifier les sources • Savoir distinguer les critères d’évaluation • Savoir questionner les ressources 39 A. Serres, URFIST Rennes, 2012

  40. Quelle formation à l'évaluation de l'information ? Le défi didactique • Quelles activités pédagogiques ? • Former à l’identification • Sensibiliser à la notion de crédibilité • Utiliser les infopollutions • Travailler sur les controverses sociotechniques : • Identifier les acteurs, les discours, les positions, les intérêts… • Ne pas entrer dans les contenus 40 A. Serres, URFIST Rennes, 2012

  41. Quelle formation à l'évaluation de l'information ? Le défi didactique • Quelle progressivité ? • Collège : bases de culture de l’information • Repérage, décodage des ressources web, connaissance des documents… • Lycée : • Controverses sociotechniques • Notion de crédibilité • Quelle articulation avec la veille ? • L’évaluation de l'info. comme préalable à la veille 41 A. Serres, URFIST Rennes, 2012

  42. En conclusion : 5 illusions à combattre • L’illusion sociale : • confiance excessive dans la communauté : • limites des réseaux de confiance • évaluation de l'information = jugement personnel • L’illusion techniciste : • délégation totale aux outils des tâches d'évaluation • l'impossible automatisation du jugement de fiabilité 42 A. Serres, URFIST Rennes, 2012

  43. En conclusion : 5 illusions à combattre • L’illusion épistémologique : • la naïveté épistémologique face à l'information • perdre de vue le caractère toujours contextuel, construit... de l'information • L’illusion méthodologique : • croire en une méthodologie universelle, passe-partout • limites des démarches trop linéaires • "l'impossible méthodologie" ? • L’illusion pédagogique : • approche procédurale de l'évaluation, limites des référentiels • approche strictement info-documentaire • occulter la dimension trans-disciplinaire de l'évaluation 43 A. Serres, URFIST Rennes, 2012

  44. Références bibliographiques • BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn: Contributions from a Research Field in Transition.Frankfurt : Peter Lang, 2007. Disp. sur : http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInfo.pdf. • FOGG, B. J., & TSENG, H. ”The elements of computer credibility”. Proceedings of the SIGCHI conference on Human Factors in Computing Systems, 1999, p. 80–87 • FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people evaluate a web site's credibility ? Results from a large study [En ligne]. Stanford, California : Persuasive Technology Lab Stanford University, 2002. 105 p. Disp. sur : < http://www.consumerwebwatch.org/pdfs/stanfordPTL.pdf > 44 A. Serres, URFIST Rennes, 2012

  45. Références bibliographiques • LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly information on the web: A cross cultural study ». The International Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p. 102. Disp. sur : < http://dx.doi.org/10.1016/j.iilr.2005.05.004 • SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde [En ligne]. 15 Juillet 2010.  • UCL (University College London), JISC (Joint Information Systems Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur. Information behaviour of the researcher of the future [En ligne]. Londres, Paris : UCL (University College London), JISC (Joint Information Systems Committee), 2008. Disp. sur : http://www.jisc.ac.uk/media/documents/programmes/reppres/gg_final_keynote_11012008.pdf ; Trad. en français disp. sur : http://www.savoirscdi.cndp.fr/fileadmin/fichiers_auteurs/PDF_manuels/Le_comportement__informationnel_du_chercheur_du_futur.pdf > 45 A. Serres, URFIST Rennes, 2012

  46. Ressources personnelles sur l’évaluation de l’information • Supports de stage URFIST : • Evaluer la crédibilité d’une ressource sur internet • Evaluation de l’information sur internet • Signets personnels sur Diigo : Liste Evaluation information • « Dans le labyrinthe » 46 A. Serres, URFIST Rennes, 2012

  47. Merci de votre attention ! Contact : alexandre.serres@uhb.fr Site web de l’URFIST de Rennes : http://www.sites.univ-rennes2.fr/urfist/ 47 A. Serres, URFIST Rennes, 2012

More Related