1 / 46

Journée professionnelle académique des professeurs documentalistes

Journée professionnelle académique des professeurs documentalistes “ Parcours de lecture dans le contexte du web” ADBEN Bretagne Rennes, 14 mai 2014 Filtrer , évaluer l’information : quelle formation ? Alexandre Serres URFIST de Rennes.

Download Presentation

Journée professionnelle académique des professeurs documentalistes

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Journéeprofessionnelleacadémiquedes professeursdocumentalistes “Parcoursde lecture dans le contexte du web” ADBEN Bretagne Rennes, 14 mai 2014 Filtrer, évaluerl’information : quelle formation ? Alexandre SerresURFIST de Rennes

  2. En introduction : quelest le problème ? • Comprendre la complexité de l’évaluation de l’information • Quelle formation des élèves ? • En conclusion : deuxillusions à combattre En guise de plan A. Serres, URFIST Rennes, 2014

  3. Un processus complexe De nombreuses opérations cognitives et documentaires : Filtrer les résultats de la recherche Vérifier la pertinence des résultats par rapport à la requête Identifier les résultats jugés pertinents : Identifier la nature des sites web Identifier les sources, les auteurs Identifier les supports, les genres documentaires Juger de la crédibilité des sources retenues Evaluer la pertinence des ressources par rapport au besoin d’information Qualifier la nature des discours Mesurer l’autorité cognitive des auteurs Evaluer la fiabilité des informations Evaluer la qualité des ressources et des informations Retracer, recouper, comparer, vérifier Introduction : de quoi parle-t-on ? A. Serres, URFIST Rennes, 2014

  4. Comment renforcer la qualité des informations sur le web ? • Comment lutter contre les infopollutions? • Comment faire reculer la crédulité ? • Comment (r)établir la confiance ? • Comment évaluer l’information de manière autonome ? • Comment former les élèves à l’esprit critique ? Introduction : quel est le problème ? A. Serres, URFIST Rennes, 2014

  5. En amont : • Par l’amélioration des techniques de filtrage • Par les métadonnées, le web sémantique • Par les outils de traçabilité • Par des outils de vérification de l’information • Projet Phème • Ex. de Trooclick : • Méthodes d’IA, 36 critères de vérification • « À terme, tout type d’information pourrait être « fiabilisé » (santé, juridique, politique,…) sur 100% des sites Internet, revendique la startup ». • En aval : • Par les outils d’aide à l’identification des sites Trois réponses complémentaires:la réponse technique A. Serres, URFIST Rennes, 2014

  6. Trooclick La réponse technique : le fact-checkingautomatisé A. Serres, URFIST Rennes, 2014

  7. Questions posées par le fact-checking automatisé : • Fiabilité de la source = fiabilité de l’information ? • Fiabilité = véridicité ? • Vérification automatique de tous les types d’informations ? • Et le contexte ? • Effets pervers de l’automatisation du jugement de fiabilité : • Crise du journalisme ? • Délégation de la confiance dans les outils • Encouragement à la paresse intellectuelle… • > Illusion techniciste ! • Information toujours construite… Trois réponses complémentaires:la réponse technique A. Serres, URFIST Rennes, 2014

  8. La force des réseaux sociaux et du collectif : • Voir Wikipedia • Le filtrage collaboratif, les réseaux de confiance…: • Les plateformes de partage de signets, Twitter… • Illusion sociale ? • Caractère individuel de l’évaluation de l’information Trois réponses complémentaires:la réponse sociale A. Serres, URFIST Rennes, 2014

  9. L’indispensable formation des internautes, des élèves, des étudiants… • Caractère irremplaçable : • des capacités personnelles de jugement • de la culture personnelle des usagers • Meilleure garantie à long terme pour évaluer l’information : des citoyens formés et éclairés ! • Complémentarité des trois réponses Trois réponses complémentaires:la réponse éducative A. Serres, URFIST Rennes, 2014

  10. Trois réponses complémentaires :la réponse éducative • Prendre conscience de la complexité de la question de l’évaluation de l’information • Faire de cette complexité à la fois la base et l’objectif de la formation A. Serres, URFIST Rennes, 2012

  11. Trois grands facteurs de complexité : • Multiplicité des dimensions de l'évaluation de l'information • Multiplicité des critères d'évaluation • Multiplicité des pratiques de l'évaluation 2/ Comprendre la complexité de l’évaluation de l’information A. Serres, URFIST Rennes, 2014

  12. Une activité et une question multi-dimensionnelle : • Au moins 9 dimensions à prendre en compte… • Importance de tenir compte de toutes ces dimensions pour la formation : • Éviter les approches réductrices, naïves • Ne pas faire de l’évaluation de l’information une question strictement documentaire 2.1 Comprendre la complexité : la multiplicité des dimensions A. Serres, URFIST Rennes, 2014

  13. Dimension souvent occultée • Dimension politique présente dans : • Le contexte de l’évaluation des sources : • crise de confiance, crise des autorités, etc. • Essor des complotismes • Les enjeux éducatifs : • Question des finalités de la formation des élèves à l’information La dimension politique A. Serres, URFIST Rennes, 2014

  14. Les pratiques informationnelles : • Voir l’évaluation de l'information comme double symptôme : • du rapport au monde des individus : rapport aux médias, à la technologie, au politique… • de la crise de confiance envers les autorités • Prégnance du contexte socio-politique dans les pratiques des internautes, des étudiants • Perception de la crédibilité fortement dépendante des représentations La dimension politiquedans les pratiques A. Serres, URFIST Rennes, 2014

  15. Evaluation de l’information : aussi une pratique culturelle • Pratique de lecture, d’écriture • Pratique médiatique : rapports avec la presse, les médias… • Double mutation : • Evolution des pratiques culturelles des jeunes : • « Génération internet » • Mutation de la culture avec le numérique : • Changement des modes de lecture, d’apprentissage, de consommation culturelle… • Variation des critères de crédibilité selon les cultures d’origine La dimension culturelle A. Serres, URFIST Rennes, 2014

  16. Evaluer l’information = une activité cognitive complexe • Nombreuses compétences cognitives mobilisées : • décodage sémiotique, repérage , lecture, analyse… • Voir J.F. Rouet • Tenir compte des étapes du développement cognitif : • Ex. de notion de source, trop complexe avant 10 ans La dimension psycho-cognitive A. Serres, URFIST Rennes, 2014

  17. Mobilisation de notions théoriques complexes : • Crédibilité • Autorité • Qualité de l’information • Pertinence • Source • … • Maîtrise des notions indispensable aux tâches d’évaluation La dimension théorique A. Serres, URFIST Rennes, 2014

  18. Rôle-clé des outils, des évolutions du web : • outils du web social • apports du web sémantique • Développer une culture technique du web • Percevoir les limites des outils La dimension technique A. Serres, URFIST Rennes, 2014

  19. Evaluer l’information = mettre en œuvre plusieurs compétences méthodologiques • Différentes démarches d'évaluation : • Selon les contextes, les domaines, les publics… • Démarche de questionnement La dimension méthodologique A. Serres, URFIST Rennes, 2014

  20. L’évaluation de l'information à la fois: • au coeur de la culture informationnelle • par ses enjeux, les notions, les compétences… • au carrefour des trois cultures de l’information : • médias, infodoc, informatique La dimension informationnelle A. Serres, URFIST Rennes, 2014

  21. Importance des enjeux éducatifs : • formation au jugement critique • Caractère transversal de l'évaluation de l'information : • concerne tous les acteurs de l’école • identifier les acteurs et leur rôle La dimension éducative A. Serres, URFIST Rennes, 2014

  22. Concerne plus spécifiquement les professeurs documentalistes : • identifier les contenus à enseigner • identifier les situations pédagogiques • mettre en place les dispositifs La dimension didactique A. Serres, URFIST Rennes, 2014

  23. Evaluer une ressource = mobiliser 2 grandes catégories de critères : • Des critères « transversaux », liés à des notions • Des critères « d'objet » , liés aux composantes d’une ressource 2.2 Comprendre la complexité :la multiplicité des critères de l’évaluation A. Serres, URFIST Rennes, 2014

  24. Plusieurs objets à distinguer dans toute évaluation d’une ressource : • La source • L’auteur • L’information • La structuration du contenu • La présentation, le graphisme, la lisibilité… • L’usage, « l’utilisabilité » • Confusion fréquente des objets à évaluer : • Par ex. entre fiabilité de source et facilité d’accès Multiplicité des critères: l’imbrication des objets A. Serres, URFIST Rennes, 2014

  25. «Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes • Qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? • Importance de définir et de distinguer ces notions, qui ne se recouvrent pas Multiplicité des critères: l’imbrication des notions A. Serres, URFIST Rennes, 2014

  26. Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » • Rôle-clé de la confiance : • Crédibilitétoujours à construire • Plus proche d’un sentiment qued’unequalitéfactuelle • Crédibilitéd’uneressource : • Qualitéperçue, à partir de différents indices • Deux typologies de la crédibilité Quatre notions à distinguer :la crédibilité A. Serres, URFIST Rennes, 2014

  27. Quatre objets à mesurer : • Crédibilité de la source • Crédibilité de l’auteur • Crédibilité du support • Crédibilité du document • > pas de recouvrement automatique Quatre notions à distinguer :les objets de crédibilité A. Serres, URFIST Rennes, 2014

  28. Crédibilité présumée (représentations) : • Confiance accordée a priori à quelqu’un, à une source, en fonction de ses représentations, de ses croyances… • Crédibilité réputée (réputation) : • Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité… • Crédibilité de surface (apparence, présentation) : • Confiance selon la présentation d’une personne, d’une ressource, d’un site web • Crédibilité d’expérience (usage) : • Confiance liée à l’expérience personnelle d’une personne, d’une ressource, d’un site… Typologie de Fogg et Tseng, 1999 Quatre notions à distinguer :lesfacteurs de la crédibilité A. Serres, URFIST Rennes, 2014

  29. Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences » • Diversité des autorités cognitives : • Personnes, livres, organisations, outils… • Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise • Mais autorité plus forte que la crédibilité : • Notion d’influence choisie, de reconnaissance d’une expertise Quatre notions à distinguer : “l’autorité cognitive” A. Serres, URFIST Rennes, 2014

  30. Trois grandes approches de la qualité : • « Qualité documentaire » : • Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource • Qualité de l’information, au sens info-news • Qualité des données (info-data) : • Très proche de la pertinence Quatre notions à distinguer : la qualité de l’information A. Serres, URFIST Rennes, 2014

  31. « Qualité de ce qui est adapté exactement à l'objet dont il s'agit. » • Notion complexe, nombreux modèles, nombreuses théories • Au fondement de la recherche documentaire : • "Degré de corrélation entre une question et la réponse apportée » • approche précise mais réductrice de la pertinence • Nécessité d’élargir la notion • Trois catégories de pertinences Quatre notions à distinguer : la pertinence A. Serres, URFIST Rennes, 2014

  32. La « pertinence-système » : • pertinence de la représentationdu document (indexation...) et recherche d'information elle-même. • La « pertinence-utilisateur » : 2 types • pertinence de la formulation de la requête • pertinence du document par rapport au besoin :  Concerne uniquement l’utilisateur • La « pertinence-thème » : • pertinence du contenu du document par rapport au thème  évaluation formalisable de l’information Quatre notions à distinguer : les trois catégories de pertinences A. Serres, URFIST Rennes, 2014

  33. Grande hétérogénéité des pratiques d'évaluation : • Selon les publics, les niveaux, les domaines, les contextes… • Multiplicité des paramètres sociaux, culturels… > A chacun sa pratique d’évaluation ! 2.3 Comprendre la complexité :la multiplicité des pratiques de l’évaluation A. Serres, URFIST Rennes, 2014

  34. 4 grands axes d’observation des pratiques d’évaluation de l’information : • Les publics • Les contextes • Les dispositifs • Les types d'informations • + Les critères (crédibilité…) • Nombreuses variables dans chaque axe • Vaste chantier de recherche : • La nécessaire connaissance des pratiques informationnelles des jeunes • Nombreux travaux, mais domaine encore mal connu Comprendre la complexité :la multiplicité des pratiques de l’évaluation A. Serres, URFIST Rennes, 2014

  35. Un défi éducatif global : • « A l’avenir, l’éducation aura pour but d’apprendre l’art du filtrage » Umberto Eco (Le Monde, 12 octobre 2010) 3/ Quelle formation des élèves à l'évaluation de l'information ? A. Serres, URFIST Rennes, 2014

  36. Nombreuxsavoirs, différentes cultures mobilisés pour identifier et évalueruneressource • Six types de cultures : • Culture « générale » : • Repérage des infopollutions, compétences de base… • Cultures disciplinaires : • Évaluation des contenus des ressources, de l’autorité cognitive… • Culture informationnelle (information literacy) : • Compétencesinformationnelles : recherched’information, identification des ressources… • Culture informatique (computer literacy) : • Compréhensiond’internet, maîtrise des outils… • Culture numérique (digital literacy) : • Usages du numérique et d’internet : facilitéd’appropriation… • Culture médiatique (media literacy) : • Connaissance des médias, capacités critiques d’évaluation… • Hybridation des cultures Quelle formation à l'évaluation de l'information ?Savoirs et cultures A. Serres, URFIST Rennes, 2014

  37. Prendre en compte la multiplicité des variables de l’évaluation de l’information • D’âge, de niveau, de culture, de discipline, personnelles… • Pour la pédagogie : • Partir des pratiques réelles pour les faire évoluer • Ne pas vouloir imposer les « bonnes pratiques » documentaires Quelle formation à l'évaluation de l'information ?Connaître les pratiques A. Serres, URFIST Rennes, 2014

  38. Quelscontenus ? • Notions à enseigner : • Les 4 notions essentielles de l’évaluation de l’information • Notions de source, d’auteur, de validité… • VoirDictionnairedidactique… • Notions des autres cultures de l’information • Compétences à viser : • Savoir identifier les sources • Savoir distinguer les critères d’évaluation • Savoir questionner les ressources Quelle formation à l'évaluation de l'information ? Le défididactique A. Serres, URFIST Rennes, 2014

  39. Quelle formation à l'évaluation de l'information ?Quelle pédagogie ? • Multiplicité des modèles et des situations pédagogiques : • Coursmagistral, théorique : sur les enjeux, les notions… • TD sur la méthodologie • Coursspécifiques (en documentation) et disciplinaires • Auto-formation à distance : tests, QCM, exercices, documents… • Articulation à trouver entre : • Contenusdidactiquescommuns, stables, organisés… • Pistesd’exploitationpédagogiquetrèsdiverses, hétérogènes, libres… • Caractèreouvert du chantierpédagogique : • Identifier les situations pédagogiquespossibles, les tâches • Expérimentationpédagogique collective • Voir les nombreuxtravauxdansl’enseignementsecondaire

  40. Quelle formation à l'évaluation de l'information ?Quelle pédagogie ? • Quelques pistes pédagogiques (personnelles) : • Connaître les pratiques réelles des élèves • Partir de ces pratiques : • Faire s'interroger les élèves sur leurs pratiques • Quels critères spontanés de crédibilité mis en œuvre sur les sites web, sur les réseaux sociaux ? • Développer une pédagogie du questionnement : • Sur les différents critères d’évaluation • Utiliser les infopollutions : • Faire travailler les élèves sur des exemples de désinformation, de manipulation • Questionner les notions : • Brainstorming sur les notions de crédibilité, qualité, pertinence… • Montrer les contradictions entre les types de crédibilités: • Par ex. entre crédibilité de surface et crédibilité du contenu

  41. Quelques pistes pédagogiques (personnelles) : • Former à l’identification des ressources, des acteurs… • Sensibiliser à la notion de crédibilité • Décliner la notion de crédibilité selon les disciplines, les cultures • Travailler sur les controverses sociotechniques : • Identifier les acteurs, les discours, les positions, les intérêts… • Ne pas entrer dans les contenus Quelle formation à l'évaluation de l'information ? Le défididactique A. Serres, URFIST Rennes, 2014

  42. L’illusion méthodologique : • croire en une méthodologie universelle • limites des démarches trop linéaires • Dimension méthodologique importante, mais insuffisante pour former à l’évaluation de l’information • Tenir compte des autres dimensions : politique, culturelle… • L’illusion pédagogique info-documentaire : • approche procédurale de l'évaluation, limites des référentiels • Le réductionnisme du décodage des URL… • approche strictement info-documentaire : • L’évaluation de l’information concerne toutes les disciplines • occulter la dimension trans-disciplinaire de l'évaluation En conclusion : deux illusions à combattre A. Serres, URFIST Rennes, 2014

  43. La formation à l’évaluation de l’information : • Une question complexe, difficile mais passionnante • Au cœur de l’EMI • Un chantier de recherche • Une occasion d’innovations pédagogiques • Un enjeu pour les professeurs documentalistes En conclusion A. Serres, URFIST Rennes, 2014

  44. Supports de stage URFIST : • Evaluer la crédibilité d’une ressource sur internet • Evaluation de l’information sur internet • Publications récentes : • « Dans le labyrinthe », Caen, C&F Editions, 2012 • « Evaluation de l’information : l’impossible méthodologie ? ». In ArchimagGuide pratique, n°47, octobre 2012 • « Un exemple de translittératie : l'évaluation de l'information », In Les e-dossiers de l’audiovisuel, INA, janvier 2012, « L’éducation aux cultures de l’information ». • Veille : • Liste Evaluation information sur Diigo • Topic sur Scoop.it « Autour de l’art du filtrage » Ressources personnelles sur l’évaluation de l’information

  45. Un conseil de lecture… A. Serres, URFIST Rennes, 2014

  46. Merci de votre attention ! Contact : alexandre.serres@uhb.fr Site web de l’URFIST de Rennes : http://www.sites.univ-rennes2.fr/urfist/ A. Serres, URFIST Rennes, 2014

More Related