1 / 70

Introduction à l’Intelligence Artificielle

Département de mathématiques et physique Faculté des Sciences appliquées. Introduction à l’Intelligence Artificielle. Nathanaël Ackerman. Le 2 décembre 2004. Introduction et Historique. Premières définitions et dichotomies Historique : dates, noms, programmes…

obelia
Download Presentation

Introduction à l’Intelligence Artificielle

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Département de mathématiques et physique Faculté des Sciences appliquées Introduction à l’Intelligence Artificielle Nathanaël Ackerman Le 2 décembre 2004

  2. Introduction et Historique • Premières définitions et dichotomies • Historique : dates, noms, programmes… • Domaines d’application actuels • Conclusions • Deux perspectives sur l’historique du domaine • Le « pourquoi » de l’IA • Concepts clés • Bibliographie

  3. Partie 1 : Premières définitions et dichotomies

  4. Définitions • Choix du nom 1956, conférence de Dartmouth • «  L’intelligence artificielle est la science qui consiste à faire faire à des machines ce que l’homme fait moyennant une certaine intelligence » M. Minsky • Problème de récursivité dans la définition

  5. La « complexité » mentale est-elle comparable à la complexité informatique ? La définition de Minsky exclut des domaines majeurs de l’IA : • La perception (vision et parole) • La robotique • La compréhension du langage naturel • Le sens commun

  6. Dictionnaires • Qu’est-ce que l’intelligence ? • Qu’est-ce que l’artificiel ?

  7. Remarques • La définition du terme « intelligence » change. • L’intelligence est liée à l’homme dans ses facultés de compréhension, et d’apprentissage, et observable grâce au comportement (adaptabilité). • Renvoi à des questions fondamentales : qu ’est-ce que la compréhension? Qu ’est-ce que l ’apprentissage ? Qu ’est-ce que la connaissance ?

  8. Les tentatives de définitions de l’IA, sont floues quant aux domaines d’application et s’inscrivent plutôt dans une perspective cognitiviste de simulation du cerveau humain. Elles excluent la possibilité d’une forme d’intelligence non humaine. • Le terme artificiel a une connotation relativement péjorative et induit une tension conflictuelle entre l’homme et l’ordinateur. L ’ordinateur reste subordonné à l ’homme.

  9. Définition « opérationnelle » • « L’IA est le domaine de l’informatique qui étudie comment faire faire à l’ordinateur des tâches pour lesquelles l’homme est aujourd’hui encore le meilleur. » E. Rich • Définition essentiellement évolutive, l ’IA est innovatrice :

  10. Domaines connexes • Philosophie des sciences, de la connaissance, de l’esprit • Logique • Linguistique • Neurophysiologie • Psychologie cognitive • Optimisation mathématique • Automatique et contrôle • Statistique • Théorie des graphes • Aquisition et traitement d’images • Dynamique des systèmes chaotiques • Programmation robotique …

  11. Dichotomies • Strong AI vs Weak AI • Niveau de compétence vs niveau de performance • Algorithmique vs non algorithmique • Vision analytique vs vision émergente de la résolution de problèmes • Sciences du naturels vs sciences de l’Artificiel • ...

  12. Strong AI VS Weak AI • Point de vue essentiellement philosophique relatif à la conscience des machines • La conscience peut-elle émerger de manipulations purement syntaxiques ? (cf Chambre Chinoise, Searle 81) • Hypothèse d ’un système physique de symboles (Newell 1980); la conscience du thermostat (D. Chalmers) • Matrix

  13. Niveau de compétence VSNiveau de performance • Distinction introduite par Chomsky : faire « comme » ou faire « aussi bien que ». • L’oiseau et l ’avion volent … • Jeux d ’échecs : les GMI réfléchissent différemment de Deep Blue • Question fondamentale en Sciences Cognitives : l ’aspect séquentiel du processeur limite-t-il la validité de l ’approche connexionniste?

  14. Algorithmique vs non Algorithmique • Un algorithme est une séquence finie d ’instructions qui permet de résoudre un problème en un temps fini. • La définition de l ’IA comme domaine de la programmation non algorithmique est équivoque.

  15. Vision analytique vs vision émergente • Décomposition de problèmes en sous-problèmes plus simples à résoudre (analyse procédurale, système experts basés sur la logique des prédicats) • Distribution des tâches à un ensemble d ’agents qui interagissent (NN, OO, Ant Algorithm) • Dans la même veine : • IA classique vs IA NN • IA symbolique vs IA numérique

  16. Plus court chemin (méthode analytique) f(x) x

  17. Plus court chemin(approche émergente) f(x) f(x) x x

  18. Sciences naturelles vs Sciences de l’artificiel • Compréhension des phénomènes de la nature • Cette compréhension passe par la construction de modèles capables de réaliser des simulations. D’où la possibilité d ’explorer effectivement les conséquences des postulats initiaux; éthologie des programmes informatiques • Sciences normatives par opposition au caractère descriptif des sciences naturelles.

  19. Caractéristiques de l’IA VS informatique classique • Informatique plus symbolique • Aspects plus déclaratif, moins procédural • On privilégie la satisfaction à l’optimisation (sauf si l’on introduit des méta-règles heuristiques) • Données incomplètes, inexactes, conflictuelles • La notion de représentation d’un problème est fondamentale • Pluridisciplinaire: logique, psycho-cognitive, biologie, neurosciences, philosophies, mathématiques …

  20. Partie 2 :Historique : dates, noms, programmes…

  21. Automates : recréer la vie

  22. Machines Programmables Métier à tisser (Jacquard 1805) Machine Analytique (Babbage & A. Ada Lovelace 1837)

  23. Quelques approches théoriques avant 1900 • XIII : Raymond Lulle (Ars Magna) • XVIII : Gottfried Wilhelm Leibnitz (calculus Ratiocinator) • XIX : • George Boole, The Laws of Thaught, 1854; • Gottlob Frege (1879 – logique des prédicats)

  24. Tentative de Leibnitz substance = 2 material = 3 immaterial = 5 animate = 7 inanimate = 11 sensitive = 13 insensitive = 17 rational = 19 irrationnal = 23 … Human = 2 x 3 x 7 x 13 x 19 = 10374 Mineral = 2 x 3 x 11 = 66 103674 mod 66 0 => a human is not a mineral Transitivité de l’héritage

  25. Formalisation du raisonnement • Logique des propositions syntaxe inductive permettant d’écrire des formules Sémantique vérifonctionnelle (+ table de vérité) (A (A  B))  B modus ponens ( B (A  B))   A) modus tollens • Logique des prédicats

  26. 1900-1945 • David Hilbert • 23 problèmes (Second Congrès International des mathématiques à Paris, 1900) • Russell et Whitehead • Principia mathematica (1913) • Emil Post • Systèmes de production • Gödel • théorème d’incomplétude (1931) • Turing • machine universelle (1936) • pas d’a priori sur la non prouvabilité d’un théorème

  27. La machine universelle

  28. Neurone formel Mac Cullogh & Pitts (1943) 0.3 1 -1  1 0 0.5 1

  29. Cybernétique (1947) • Norbert Wiener, s’inspirant de la biologie, introduit la notion de rétroaction dans les systèmes de traitement de l’information. • Idée des boucles réentrantes fondamentales en IA et Sciences Cognitives. Système output input controle feedback

  30. ENIAC 1945 • Electrical and Numerical Integrator and Calculator • Architecture de Von Neumann: ranger les données et les instructions dans une « mémoire »; le processeur – séparé – réalise les calculs. • 1900 tubes à vides, 1500 relais, des milliers de résistances, capacités … 200 KW • 10 khz (addition)

  31. The Turing Test (1950)

  32. Dartmouth 1956 « Chaque aspect de l’apprentissage, ou tout autre caractéristique de l’intelligence, peut en principe être décrit si précisément qu’il est possible de construire une machine pour le simuler » • Minsky : le dinosaure… • Newell et Simon (Prix Nobel d’économie 1978) • John McCarthy • Claude Shannon : théorie mathématique de l’information et de la communication (1960) • Selfridge : Pandemonium

  33. Approche Symbolique • Newell et Simon (CMU) • Logic Theorist : démonstration des théorèmes des Principia Mathematica de Russell et Whitehead • General Problem Solver (GPS 59) • Weizenbaum • Eliza (1966) simule un psycholgue rogerien • Dans la lignée de A. Turing • Traduction automatique du langage • Jeux d’ échecs

  34. Exemples typiques de problèmes (années 50-60) • Le fermier, le loup, la chèvre et le choux • Les recipients : comment obtenir 1 litre d’eau, avec deux récipients de capacité 2 litres et 5 litres (ce dernier étant rempli au départ) • Intégration symbolique de sin(x). cos(x) • Voyageur de commerce • Les huits reines • Les tours de Hanoi • Le Singe et les bananes

  35. Résultats • Première catégorisations sur les strucutres de données : arbre de recherche, définition d’un espace d’états, … • Algorithme de recherche : A, A*,… • Succès de l’application de la logique des prédicats • MacSyma et GPS • Échec flagrant de la traduction automatique : la sémantique émerge du contexte; peu de moyen pour représenter le sens commun

  36. Recherche dans un arbre

  37. 2 3 1 2 3 7 1 8 4 7 8 4 7 5 6 6 5 2 2 2 2 2 2 2 2 8 8 8 8 8 8 8 8 3 3 3 3 3 3 3 3 3 3 1 2 3 2 1 1 1 1 1 1 1 6 6 6 4 4 4 4 4 4 4 4 4 8 8 4 8 7 7 7 7 7 7 7 7 5 5 5 5 5 5 5 5 5 7 5 6 6 6 6 6 6 6 6 1 2 3 8 4 7 5 1 1 1 6 Algorithme A* - problème du taquin 1 + 5 2 + 4 3 + 4 5 + 2 4 5 3 + 2 0 + 4 2 + 3 1 + 3 4 + 1 5 + 0 3 + 4 1 + 5 2 + 3 7 5 GOAL 3 + 3 2

  38. Approche connexionniste • Mac Cullogh & Pitts • Développement du neurone formel (1943) • Hebb • relie les comportements de conditionnement simple à une loi de renforcement synaptique (1949) • Selfridge • Pandemonium (1956) • Rosenblatt • modèle du Perceptron (1958)

  39. Le perceptron • réseau de neurones à 2 couches inspiré du système visuel • Définition d’une règle d’apprentissage • La règle delta

  40. Les années 70 – début 80 • Période d’ombre pour l’approche connexionniste • Minsky et Papert, Perceptrons, 1969 • Impossibilité de l’apprentissage du XOR • Renforcement de l’approche symbolique : • Travaux sur la représentation de la connaissance : réseaux sémantiques, Scripts (Shank 1977), approche déclarative • Etude des micromondes : SHRDLU (Winograd, 1972) • Développement des Systèmes Experts, apparition de Prolog (1972)

  41. Réseaux sémantiques Winston 1970

  42. Ontologie Web (2002)

  43. Réseaux sémantiques

  44. SHRDLU : the Block World Winograd 1972

  45. SHRDLU 2001 HMM + NN Analyse Syntaxique Analyse Sémantique

  46. Base de connaissance (BC) mémoire à long terme Moteur d’inférence (MI) Base de faits (BF) mémoire de travail Systèmes Experts • Chainage avant (Rules) ou arrière (Prolog) • Dendral (1965), Mycin (1974); Prospector(1983)

  47. Mycin (1974 - …) • Aide au diagnostic / thérapie dans le domaine médical (septicémies, méningites …) • Connaissances représentées explicitement sous forme de règles • Prise en compte de l’incertain • Réelle compétence • Capacité à expliquer le raisonnement

  48. Mycin – exemple de règles • Si le site de culture est le sang, et que le germe est positif à la coloration de Gram et que la porte d’entrée est l’appareil gastro-intestinal et que • L’abdomen est le site d’infection ou • Le bassinet est le site d’infection Alors • Il y a de très fortes présomptions pour que les entérobactéries soient la classe d’organismes que la thérapie devra traiter.

More Related