190 likes | 361 Views
Présenté par Maxime Boivin. Aude Dufresne Les filtres à la communication sur Internet. http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf . Une utilisation croissante d’Internet Une augmentation de l’accès à l’information Une place grandissante à la communication
E N D
Présenté par Maxime Boivin Aude DufresneLes filtres à la communication sur Internet http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf
Une utilisation croissante d’Internet Une augmentation de l’accès à l’information Une place grandissante à la communication Une diminution du contrôle sur les contenus Plusieurs tentatives de gestion des contenus Contexte
Les cyberfiltres sont des outils qui ont été créés afin de tenter de gérer le contenu. Nous sommes constamment en interaction avec ces filtres. Ils détiennent maintenant des pouvoirs qui viennent transformer notre rapport à la réalité et transformer les activités qu’ils sont supposés supporter. De nos jours, ces filtres sont souvent proactifs et paraissent donc de plus en plus humains. Ils apprennent et s’adaptent aux comportements des internautes. Les cyberfiltres
Une structure hypertexte • (vs structure linéaire) • Plus puissant mais plus désorganisé • Dans un contexte éclaté, il devient difficile pour les usagers d’assimiler l’information. La structure du web
Moteur de recherche : Application web permettant de retrouver des ressources associées à des mots-clés. Outils créés pour contrer les problèmes d’organisation du web Les moteurs de recherche
Chacun de ces moteurs de recherche connaît une croissance impressionnante : Statistiques Décembre 2009
Chaque moteur de recherche utilise un système qui lui est propre, quoique tous similaires. Outil de recherche constitué de robots qui parcourent automatiquement et régulièrement les sites web. Objectif des agents : découvrir les nouvelles adresses afin de les indexer dans une base de données rendue accessible aux internautes à partir de mots-clés. La première génération de moteurs de recherche comme Alta-Vista et Yahoo utilisaient les informations fournies par les auteurs des sites web et validées par des éditeurs pour organiser leur base de données. Mais comment ça fonctionne ?
Les moteurs de recherches utilisent des modules complémentaires afin d’améliorer les résultats. Ex. : correcteur d’orthographe, suppression de mots vides, etc. L’exploration (ou crawl) : effectuée par un robot d’indexation qui suit les hypertextes qui relient les pages entre elles. 2. L’indexation : extraction, à partir des ressources récupérées, des mots dits significatifs afin de les enregistrer dans une base de données. 3. La recherche : à partir des requêtes formulées par les usagers, un algorithme détermine les documents qui correspondent le mieux aux mots contenus dans la requête. Une classification en 3 étapes
PageRank, un des outils utilisés par Google pour déterminer l’ordre de présentation des résultats. • Les résultats des recherches sont présentés selon la pertinence établie par l’algorithme. • De nos jours, la pertinence est basée en grande partie sur la popularité : • les pages choisies par les usagers suite à une requête, • le nombre de liens qui réfèrent vers une page et même • l’importance des sites qui font référence à la page. La pertinence des résultats
Les résultats des recherches nous donnent en fait accès à ce que les autres regardent. C’est le filtre qui détermine au final la pertinence des documents. L’usager consent donc une certaine autonomie aux agents, souvent par manque d’options. Ne sachant pas ce qui a influencé les résultats obtenus, l’internaute en vient à douter. Or, le choix implique une compréhension, chose d’autant plus difficile étant donné le système hypertextuel. La limite des résultats
Le comportement des consommateurs sur Internet a donc beaucoup évolué Les agents ne sont pas infaillibles. La responsabilité de déterminer la crédibilité des ressources retombe donc sur les bras de l’usager. L’information perd de sa certitude. L’internaute doit être d’autant plus prudent puisqu’il existe une quantité de techniques de détournement des références qui nuisent à la pertinence des résultats. L’usager face à l’information
Le cloaking, les sites miroirs et le zurnisme sont des exemples de spamdexing. Plusieurs sites web utilisent des techniques de détournement des références qui sont jugées malhonnêtes. Le référencement abusif ou spamdexing : ensemble de techniques qui trompent les moteurs de recherche quant à la qualité ou à l’information contenue sur une page ou sur un site. L’objectif ? Obtenir un bon classement pour un certain mot-clé. Ces techniques sont sévèrement punies par les moteurs de recherche mais très difficiles à distinguer des méthodes jugées honnêtes. Le détournement malhonnête
Les sites commerciaux ont vite compris l’importance d’être parmi les premiers résultats de recherche. Ils s’en servent pour nous atteindre. SearchEngineOptimization : Technique de détournement des références jugée honnête et principalement utilisée par les entreprises. Technique visant à améliorer la compréhension du contenu d’une page ou d’un site web pour les robots d’indexation. Objectif ? Obtenir un bon positionnement dans les résultats de recherche sur un thème. Utiliser les robots pour pousser leurs biens et services aux consommateurs. Résultats ? Des recherches biaisés. SearchEngineOptimization
La publicité sur Internet semblent moins efficaces que par le passé. • Le financement des moteurs de recherche se fait souvent par la vente d’espaces publicitaires correspondants aux mots-clés recherchés. • Il existe 2 types de publicités : • les publicités classiques (encarts séparés du contenu) • la publicité intégrée aux résultats de recherche. • Ceci se fait malheureusement au détriment de la pertinence des résultats. La publicité
En 2008, le web invisible représentait 70 à 75% de l’ensemble, environ un trilliard de pages non indexées. • Une partie du web est accessible en ligne mais n’est pas indexée par les moteurs de recherche • Les principales raisons qui empêchent l’indexation : • contenu dynamique • contenu non lié (sans backlinks) • contenu à accès limité • contenu de script • contenu non indexable(format non supporté par les robots) • Certains outils, comme le protocole sitemap de Google, ont été créés afin de résoudre le problème. Le web invisible
Les cookies, par exemple, fournissent de l’information sur nos activités et permettent d’être reconnu. Il existe d’autres filtres qui viennent modifier notre rapport au monde. Développement d’un profil individuel selon le comportement de l’usager, sa réponse aux informations suggérées. Amazon fonctionne ainsi, suggérant des produits aux usagers selon les choix qu’ils ont effectués et les choix des autres usagers. D’autres filtres
Au final, les ordinateurs sont aujourd’hui une sorte de prothèse pour nous, effectuant plus rapidement et souvent mieux que nous certaines tâches. Malgré cette symbiose qui existe entre nous et ces outils, nous ne pouvons pas encore nous fier à eux aveuglément. COMPUTER Une symbiose humain-machine
http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf http://www.google.com/support/webmasters/bin/answer.py?answer=35769 http://www.seo.com/ http://www.indicateur.com/Doc/robots-indexation.asp http://marketshare.hitslink.com/search-engine-market-share.aspx?qprid=4&qptimeframe=Y http://www.clubic.com/actualite-321722-recherche-google-leader-microsoft-remonte.html http://www.google.com/support/webmasters/bin/answer.py?answer=35769 Pour plus d’information…
Des questions ? MERCI ! http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf