280 likes | 407 Views
Recherche et agrégation des activités d'apprentissage à base d'ontologies et de services web. Conference R2I Tizi-ouzou 12-14 juin 2011. Mr: Hadjila Fethallah. Plan. SOA web services e-learning problématique Contribution Conclusion. SOA. Service Oriented Architecture.
E N D
Recherche et agrégation des activités d'apprentissage à base d'ontologies et de services web Conference R2I Tizi-ouzou 12-14 juin 2011 Mr: Hadjila Fethallah
Plan • SOA • web services • e-learning • problématique • Contribution • Conclusion
Service Oriented Architecture • Définition du SOA: paradigme de développement des applications distribuées sur internet • Une application doit réutiliser le code logiciel des autres modules • Couplage faible des modules
Motivations • Interopérabilité des applications sur le web • B2B, E-learning • Intégration des nouvelles applications avec les systèmes hérités • EAI • Reutilisation du code logiciel • productivité
Solution • Les web services: instance particulière du paradigme SOA • Succès du à l’accord des différents industriels sur la technologie des services web • La normalisation des spécifications des services web
web service • Définition [IBM]: Web services are a new breed of Web application. They are self-contained, self-described, modular applications that can be published, located, and invoked across the Web. Web services perform functions, which can be anything from simple requests to complicated business processes. … .Once a Web service is deployed, other applications (and other Web services) can discover and invoke the deployed service.” IBM web service tutorial
Caracteristiques des services web • Les services web sont : • Réutilisables • Faiblementcouplés • Indépendant de • la plate-forme(UNIX, Windows, …) • l’implémentation (VB, C#, Java, …) • l’architecturesous-jacente (.NET, J2EE, Axis…)
SOAP, WSDL,UDDI • SOAP (Simple Object Access Protocol) : c’ est un protocole basé sur le langage XML ,pour l’echange de données entre des web services • WSDL (Web Service Description Langage) :C’est un langage basé sur XML, utilisé pour décrire les Web Services, C’est un standard de W3C • UDDI (Universal Description, Discovery and Integration) C’est l’annuaire des web services. C’est une collaboration de IBM, Microsoft, Ariba • Il est Accessible grâce à SOAP • Il supporte la recherche par Mots Clés. • Exemple d’annuaire : • uddi.microsoft.com • www.ibm.com/services/uddi • uddi.hp.com
E-learning • « Le e-Learning est l’utilisation des nouvelles technologies multimédias de l’Internet pour améliorer la qualité de l’apprentissage en facilitant d’une part l’accès à des ressources et à des services, d’autre part les échanges et la collaboration à distance » [2]. • [2]http://europa.eu.int/comm/education/eLearning/doc_en.html Le site Web officiel de la Commission Européenne sur l’initiative e-Learning. Dernière consultation 20/06/2010.
problématique • Les plateformes d’elearning actuelles sont fermées et monolithiques (faible interopérabilité) • elles ne tiennent pas compte de la recherche sémantique des activités d’apprentissage • L’objectif de ce travail est de développer un système qui : • Repose sur les web services (afin d’augmenter l’interoperabilité entre les plateformes) • Propose la recherche et l’agrégation des activités d’évaluations, selon les besoins des tuteurs, et en utilisant un matching sémantique du contenu.
Mesures de Similarité sémantiques • On distingue 04 types de mesures de similarité sémantique [slimani 07]: • Les méthodes basées sur les arcs • Les méthodes basées sur les nœuds • Les méthodes hybrides (combinant les nœuds et les arcs) • Les méthodes basées sur les espaces vectoriels
Mesures de Similarité sémantiques • Similarité basée sur les arcs: • Evaluer le cout du PCC reliant 02 • concepts X et Y • Similarité basée sur les nœuds • Evaluer la quantité d’information • Commune entre deux concepts • Similarité basée sur les E.V • Représenter sémantiquement les • 02 objets à comparer À l’aide des vecteurs • et appliquer les distances et les mesures usuelles • (distance euclidienne, hamming, …)
Mesure de similarité cosine • cosine (v1, v2)= (∑ v1(i)*v2(i))/(||v1||*||v2||) • V1,V2 : sont des vecteurs contenant les fréquences de concepts (issus d’une ontologie). • Exemple: supposons qu’on a juste 03 concepts c1,c2,c3 de l’ontologie de domaine: • Si v1=(2,1,4) et v2 =(6,2,0) alors • Cosine(v1,v2)= 14/(sqrt(40)*sqrt(21))= 0.48
Modélisation des activités d’évaluation • Exemple d’une activité d’évaluation
Meta-données associées à l’activité d’évaluation <metadata> ….. <keywords> <keyword>IPV6 </keyword> <keyword> adressage </keyword> </keywords> < difficulty> Easy< /difficulty> ….. </metadata>
Base de QCM generés Interface -Apprenant (2) Base d’activités d’évaluations et de métadonnées Système Interface -Tuteur (1) Interaction avec le système (1) a- authentification du tuteur b- invocation du service web SetQCM, qui Compose un questionnaire en faisant une recherche sémantique dans la base des activités d’apprentissage (voir l’algorithme ) c-SetQCM accepte comme entrées, un Certain nombre d’activités d’évaluations, et les métadonnées correspondantes, il retourne un document XML contenant le QCM. (2) a- authentification de l’apprenant b- choix du QCM à traiter, en invoquant le service web GetQCM, ce dernier accepte comme entrée le nom du QCM (ie le document XML du QCM) et renvoie son contenu de manière itérative. c- GetQCM fait appel à un web service désigné GetActivity qui renvoie le contenu d’une seule activité à la fois.
Algorithme de recherche proposé • Le processus de recherche est réalisé selon l’algorithme suivant : • soit R.c ={Ir1,Ir2,…Irn} les concepts (ou keywords) de la requête R. • augmenter chaque élément de l’ensemble R.c avec tous ses ascendants (subsumants) dans l’ontologie de domaine. • Par exemple si R.c ={c1 et c2 } et si c1 possède {c3 ,c4} comme subsumants, • et c2 possède {c3,c4,c5} comme subsumants, • alors R.c= {c1/1, c2/1, c3/2, c4/2, c5/1} • (parce que c4,c3 ont deux occurrences).
Algorithme de recherche proposé • pour toutes les activités d’évaluations A, modélisées avec l’ensemble A.c • (sachant que A.c ={Is1,Is2,…Isp} représente les concepts (ou keywords) de l’activité d’évaluation A.) • Faire • augmenter chaque élément de l’ensemble A.c avec tous ses ascendants (subsumants) dans l’ontologie de domaine.// meme chose que l’étape2. • Resultat1= {A, tel que (cos(R.c, A.c) ≥ α}, le α est choisi pendant l’expérimentation par l’utilisateur, il varie entre 0.5 et 1. • Fin_faire • pour toutes les activités d’évaluations A Resultat1 • retenir les activités A telles que A.nd=R.nd (cad celles qui ont un niveau de difficulté compatible avec celui de R) cet ensemble est appelé resultat2 • retourner resultat2 • L’utilisateur sélectionne interactivement une activité parmi l’ensemble • resultat2, et ré-exécute le même algorithme pour répondre aux requêtes suivantes
Performances • On possède 02 requêtes R1 et R2 chacune d’elles est représentée avec un ensemble de concepts (meta-données) • Requête 1 : adressage • Requête 2 : coucheApplication, TCP_IP • On dispose de 104 activités d’évaluation stockées dans la plateforme et annotées avec LOM. • On suppose aussi que les experts humains ont déjà fourni les réponses pertinentes pour chacune des requêtes
expérimentation • nous notons aussi que l’intervalle qui a donné le meilleur compromis rappel-précision est [0.6,0.67]. • Ces résultats peuvent être consolidés en multipliant le nombre de requêtes et en variant les ontologies de domaines
Conclusion • Nous avons proposé dans ce travail une système semi-automatique pour la recherche d’activités d’évaluations. • Le système proposé utilise la mesure de similarité cosine pour comparer une requête avec les meta-données des activités d’évaluations. • Nous avons utilisé aussi le niveau de difficulté de l’activité comme un deuxième filtre de recherche. • Nous proposer plusieurs perspectives à ce travail • L’utilisation des autres mesures de similarité • L’utilisation des autres attributs du modèle LOM • …