1 / 61

Introduction à la modélisation bayésienne

Introduction à la modélisation bayésienne. Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 30/11/2010 http://diard.wordpress.com Julien.Diard@upmf-grenoble.fr. Bayésien, un mot à la mode ?. Google scholar trend miner.

elinor
Download Presentation

Introduction à la modélisation bayésienne

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 30/11/2010 http://diard.wordpress.com Julien.Diard@upmf-grenoble.fr

  2. Bayésien, un mot à la mode ?

  3. Google scholar trend miner

  4. Êtes-vous « Bayésien » ? • I’m a bayesian if I use the word “probability”. • I’m a bayesian if I use the word “conditional probability”. • I’m a bayesian if I use Bayes’ rule. • I’m a bayesian if I use Bayes’ rule in order to make inference. • I’m a bayesian if I think that probabilities represent states of knowledge. • I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). • I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

  5. Quelques définitions du mot « bayésien » • En Intelligence Artificielle • En robotique • En sciences (physiques) • En sciences cognitives

  6. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • En sciences cognitives • Modélisation de la perception et de l’action

  7. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • En sciences cognitives • Modélisation de la perception et de l’action

  8. Intelligence Artificielle • Construire des systèmes qui • pensent / agissent • comme des humains / rationnellement • IA vs. Psychologie • IA ≅ psychologie où on construit le sujet • Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre

  9. IntelligenceArtificielle • 50s-70s • IA Symbolique • Systèmes experts • Blocks World

  10. Prolog : programmation logique louis therese gedeon aglae |__________| |_________________| | | | isabelle pierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->; ... • Exemple : système expert en généalogie • Programme = • Base de faits • Base de règles • Requêtes • Inférence logique : principe de Robinson etre_mere(X) -> mere(X,Y); parent(X,Y) -> mere(X,Y); parent(X,Y) -> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y) -> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y) -> pere(X,Z) parent(Z,Y); cousin(X,Y) -> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y) -> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y) -> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y) -> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); ancetre(louis, johan);

  11. Problème • 1966 • Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. • Sujet : « la vision par ordinateur » • Le monde réel n’est pas le « blocks world » • Modèle nécessairement incomplet • Ex : partie d’échecs (Deep Blue) vs. partie de football

  12. Intelligence Artificielle et monde réel • 80s-00s : L’IA symbolique devient la GOFAI • Good old fashioned AI • Méthodes numériques • Réseaux de neurones artificiels • Algorithmes génétiques • Modélisation Bayésienne (probabiliste) • Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement • Extension de la logique

  13. Modèles de raisonnement humain • Raisonnement déductif (logique) • modus ponens • A implique B, A est vrai : B est vrai • modus tollens • A implique B, B est faux : A est faux • Raisonnement plausible • S’il pleut, alors Jean a son parapluie • Jean a son parapluie • Il pleut, vraisemblablement

  14. Représentation et règles de calcul • Desiderata • Représentation de degrés de plausibilité par des nombres réels • Correspondance qualitative avec le sens commun • Consistance • Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin • Toutes les évidences sont utilisées pour une inférence • Des états de connaissances équivalents amènent à des plausibilités équivalentes • Probabilités • Règle du produit et règle de la somme

  15. Règles de calcul • Soient A, B, C, des propositions logiques • Règle du produit • Règle de la somme (de normalisation)

  16. Règles de calcul • Règle du produit  Théorème de Bayes • Règle de la somme  Règle de marginalisation Reverend Thomas Bayes (~1702-1761)

  17. Probability Theory As Extended Logic • Probabilités « subjectives » • Référence à un état de connaissance d’un sujet • P(« il pleut » | Jean), P(« il pleut » | Pierre) • Pas de référence à la limite d’occurrence d’un événement (fréquence) • Probabilités conditionnelles • P(A | π) et jamais P(A) • Probabilités « fréquentistes » • Une probabilité est une propriété physique d’un objet • Axiomatique de Kolmogorov, théorie des ensembles E.T. Jaynes (1922-1998)

  18. Inférence probabiliste • Théorème • Si on connaît la distribution conjointe P(X1 X2 … Xn | π) • Alors on peut calculer n’importe quelle « question » P(X1 | [Xn = xn] π) P(X2 X4 | [X3 = x3] π)

  19. Preuve

  20. Êtes-vous « Bayésien » ? • I’m a bayesian if I use the word “probability”. • I’m a bayesian if I use the word “conditional probability”. • I’m a bayesian if I use Bayes’ rule. • I’m a bayesian if I use Bayes’ rule in order to make inference. • I’m a bayesian if I think that probabilities represent states of knowledge. • I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). • I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

  21. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • En sciences cognitives • Modélisation de la perception et de l’action

  22. Logical Paradigm in robotics Incompleteness (Bessière, 03)

  23. P(MS | DC) Bayesian Paradigm in robotics =P(M | SDC)

  24. Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Uncertainty P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1 Bayesian Inference Decision Probability as Logic Incompleteness

  25. Programmation Bayésienne des Robots (PBR) Variables Décomposition Formes paramétriques Spécification Description P(X1 … Xn | C) Programme Identification Questions : P(Xi … Xj | Xk … Xl C) (Lebeltel, 99)

  26. Sensor Fusion • Objective • Find the position of a light source • Difficulty • No sensor to directly measure the position of a light source. • Solution • Model of each sensor • Fusion of the 8 models

  27. Lmi Description Utilization Question Model of a Light Sensor Specification • Variables ThetaL, DistL, Lmi • Decomposition • Parametrical Forms Program •  Preliminary Knowledge psensor Identification • A priori specification

  28. Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

  29. Model of a Light Sensor (3) P(ThetaL | Lmi ) P(DistL | Lmi ) Notion of ambiguity

  30. Description Utilization Question Sensor Fusion Model Specification • Variables ThetaL, DistL, Lm0, …, Lm7 • Decomposition (Conditional Independance Hypothesis) • Parametrical Forms Program Identification • No free parameters

  31. Classes de modèles probabilistes • Réseaux bayésiens • Réseaux bayésiens dynamiques • Filtres bayésiens • Modèles de Markov Cachés • Filtres de Kalman • Processus de décision markovien (partiellement observable) • …

  32. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • En sciences cognitives • Modélisation de la perception et de l’action

  33. Notation probabiliste • Soient • M = {m1, m2, …} ensemble de modèles • Θ = {θ1, θ2, …} paramètres des modèles • Δ = {δ1, δ2, …, δn} données expérimentales • δi = {x, y} une donnée • Un modèle • P(δi) = P(y | x) P(x) • P(δi | θ1) = P(y | x θ1) P(x | θ1) • P(δi | θ1 m1) = P(y | x θ1 m1) P(x | θ1 m1)

  34. Notation probabiliste • Un modèle • P(δi | [Θ = θ1] [M = m1]) • Plusieurs modèles • Méta-modèle, modèle hiérarchique

  35. Version « simplifiée » • Une seule classe de modèles M = m1 • Un modèle • P(δi | [Θ = θ1]) • Méta-modèle

  36. Sélection de modèle • Quel est le modèle le plus probable, au vu des données ? • Question ubiquitaire en sciences ! • Trouver θ qui maximise

  37. Posterior Vraisemblance Prior • Si P() = uniforme • Modèle de maximum de vraisemblance • Maximum Likelihood (MLE) • Si P()  uniforme • Modèle = prior  vraisemblance • Modèle de maximum a posteriori (MAP) • Méthode bayésienne

  38. Sélection de modèle Machine learning Identification de paramètres Active learning Design optimization Distinguabilité des modèles data set set of models set of parameters

  39. Êtes-vous « Bayésien » ? • I’m a bayesian if I use the word “probability”. • I’m a bayesian if I use the word “conditional probability”. • I’m a bayesian if I use Bayes’ rule. • I’m a bayesian if I use Bayes’ rule in order to make inference. • I’m a bayesian if I think that probabilities represent states of knowledge. • I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). • I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. • I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

  40. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • En sciences cognitives • Modélisation de la perception et de l’action

  41. Tel monsieur Jourdain… • Un phénomène génère des couples x,y • Un modèle • prédit y = F(x), F linéaire, F = ax + b • autorise du « bruit » dans les mesures • On observe D = {dx1, …, dxn} • Question • Quels sont les paramètres a, b les plus probables ?

  42. Tel monsieur Jourdain…

  43. Tel monsieur Jourdain…

  44. Least square fitting sur Mathworld http://mathworld.wolfram.com

  45. Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles  = {3x+2, 4x3-2x2+4} Priors hiérarchiques P( | ) Rasoir d’Occam automatique… Pour aller plus loin…

  46. Modélisation bayésienne et mesures d’erreurs

  47. Plan • Introduction à la modélisation bayésienne • En Intelligence Artificielle • Historique • En robotique • Exemple de Programme Bayésien • En sciences (physiques) • Méthodologie de sélection de modèles • Exemples de « bayésien caché » • Bonus : importance des variables cachées

  48. Importance des variables cachées

  49. Modélisation d’une série temporelle

More Related