1.75k likes | 4.1k Views
Département de mathématiques et physique Faculté des Sciences appliquées. Introduction à l’Intelligence Artificielle. Nathanaël Ackerman. Le 2 décembre 2004. Introduction et Historique. Premières définitions et dichotomies Historique : dates, noms, programmes…
E N D
Département de mathématiques et physique Faculté des Sciences appliquées Introduction à l’Intelligence Artificielle Nathanaël Ackerman Le 2 décembre 2004
Introduction et Historique • Premières définitions et dichotomies • Historique : dates, noms, programmes… • Domaines d’application actuels • Conclusions • Deux perspectives sur l’historique du domaine • Le « pourquoi » de l’IA • Concepts clés • Bibliographie
Définitions • Choix du nom 1956, conférence de Dartmouth • « L’intelligence artificielle est la science qui consiste à faire faire à des machines ce que l’homme fait moyennant une certaine intelligence » M. Minsky • Problème de récursivité dans la définition
La « complexité » mentale est-elle comparable à la complexité informatique ? La définition de Minsky exclut des domaines majeurs de l’IA : • La perception (vision et parole) • La robotique • La compréhension du langage naturel • Le sens commun
Dictionnaires • Qu’est-ce que l’intelligence ? • Qu’est-ce que l’artificiel ?
Remarques • La définition du terme « intelligence » change. • L’intelligence est liée à l’homme dans ses facultés de compréhension, et d’apprentissage, et observable grâce au comportement (adaptabilité). • Renvoi à des questions fondamentales : qu ’est-ce que la compréhension? Qu ’est-ce que l ’apprentissage ? Qu ’est-ce que la connaissance ?
Les tentatives de définitions de l’IA, sont floues quant aux domaines d’application et s’inscrivent plutôt dans une perspective cognitiviste de simulation du cerveau humain. Elles excluent la possibilité d’une forme d’intelligence non humaine. • Le terme artificiel a une connotation relativement péjorative et induit une tension conflictuelle entre l’homme et l’ordinateur. L ’ordinateur reste subordonné à l ’homme.
Définition « opérationnelle » • « L’IA est le domaine de l’informatique qui étudie comment faire faire à l’ordinateur des tâches pour lesquelles l’homme est aujourd’hui encore le meilleur. » E. Rich • Définition essentiellement évolutive, l ’IA est innovatrice :
Domaines connexes • Philosophie des sciences, de la connaissance, de l’esprit • Logique • Linguistique • Neurophysiologie • Psychologie cognitive • Optimisation mathématique • Automatique et contrôle • Statistique • Théorie des graphes • Aquisition et traitement d’images • Dynamique des systèmes chaotiques • Programmation robotique …
Dichotomies • Strong AI vs Weak AI • Niveau de compétence vs niveau de performance • Algorithmique vs non algorithmique • Vision analytique vs vision émergente de la résolution de problèmes • Sciences du naturels vs sciences de l’Artificiel • ...
Strong AI VS Weak AI • Point de vue essentiellement philosophique relatif à la conscience des machines • La conscience peut-elle émerger de manipulations purement syntaxiques ? (cf Chambre Chinoise, Searle 81) • Hypothèse d ’un système physique de symboles (Newell 1980); la conscience du thermostat (D. Chalmers) • Matrix
Niveau de compétence VSNiveau de performance • Distinction introduite par Chomsky : faire « comme » ou faire « aussi bien que ». • L’oiseau et l ’avion volent … • Jeux d ’échecs : les GMI réfléchissent différemment de Deep Blue • Question fondamentale en Sciences Cognitives : l ’aspect séquentiel du processeur limite-t-il la validité de l ’approche connexionniste?
Algorithmique vs non Algorithmique • Un algorithme est une séquence finie d ’instructions qui permet de résoudre un problème en un temps fini. • La définition de l ’IA comme domaine de la programmation non algorithmique est équivoque.
Vision analytique vs vision émergente • Décomposition de problèmes en sous-problèmes plus simples à résoudre (analyse procédurale, système experts basés sur la logique des prédicats) • Distribution des tâches à un ensemble d ’agents qui interagissent (NN, OO, Ant Algorithm) • Dans la même veine : • IA classique vs IA NN • IA symbolique vs IA numérique
Plus court chemin(approche émergente) f(x) f(x) x x
Sciences naturelles vs Sciences de l’artificiel • Compréhension des phénomènes de la nature • Cette compréhension passe par la construction de modèles capables de réaliser des simulations. D’où la possibilité d ’explorer effectivement les conséquences des postulats initiaux; éthologie des programmes informatiques • Sciences normatives par opposition au caractère descriptif des sciences naturelles.
Caractéristiques de l’IA VS informatique classique • Informatique plus symbolique • Aspects plus déclaratif, moins procédural • On privilégie la satisfaction à l’optimisation (sauf si l’on introduit des méta-règles heuristiques) • Données incomplètes, inexactes, conflictuelles • La notion de représentation d’un problème est fondamentale • Pluridisciplinaire: logique, psycho-cognitive, biologie, neurosciences, philosophies, mathématiques …
Machines Programmables Métier à tisser (Jacquard 1805) Machine Analytique (Babbage & A. Ada Lovelace 1837)
Quelques approches théoriques avant 1900 • XIII : Raymond Lulle (Ars Magna) • XVIII : Gottfried Wilhelm Leibnitz (calculus Ratiocinator) • XIX : • George Boole, The Laws of Thaught, 1854; • Gottlob Frege (1879 – logique des prédicats)
Tentative de Leibnitz substance = 2 material = 3 immaterial = 5 animate = 7 inanimate = 11 sensitive = 13 insensitive = 17 rational = 19 irrationnal = 23 … Human = 2 x 3 x 7 x 13 x 19 = 10374 Mineral = 2 x 3 x 11 = 66 103674 mod 66 0 => a human is not a mineral Transitivité de l’héritage
Formalisation du raisonnement • Logique des propositions syntaxe inductive permettant d’écrire des formules Sémantique vérifonctionnelle (+ table de vérité) (A (A B)) B modus ponens ( B (A B)) A) modus tollens • Logique des prédicats
1900-1945 • David Hilbert • 23 problèmes (Second Congrès International des mathématiques à Paris, 1900) • Russell et Whitehead • Principia mathematica (1913) • Emil Post • Systèmes de production • Gödel • théorème d’incomplétude (1931) • Turing • machine universelle (1936) • pas d’a priori sur la non prouvabilité d’un théorème
Neurone formel Mac Cullogh & Pitts (1943) 0.3 1 -1 1 0 0.5 1
Cybernétique (1947) • Norbert Wiener, s’inspirant de la biologie, introduit la notion de rétroaction dans les systèmes de traitement de l’information. • Idée des boucles réentrantes fondamentales en IA et Sciences Cognitives. Système output input controle feedback
ENIAC 1945 • Electrical and Numerical Integrator and Calculator • Architecture de Von Neumann: ranger les données et les instructions dans une « mémoire »; le processeur – séparé – réalise les calculs. • 1900 tubes à vides, 1500 relais, des milliers de résistances, capacités … 200 KW • 10 khz (addition)
Dartmouth 1956 « Chaque aspect de l’apprentissage, ou tout autre caractéristique de l’intelligence, peut en principe être décrit si précisément qu’il est possible de construire une machine pour le simuler » • Minsky : le dinosaure… • Newell et Simon (Prix Nobel d’économie 1978) • John McCarthy • Claude Shannon : théorie mathématique de l’information et de la communication (1960) • Selfridge : Pandemonium
Approche Symbolique • Newell et Simon (CMU) • Logic Theorist : démonstration des théorèmes des Principia Mathematica de Russell et Whitehead • General Problem Solver (GPS 59) • Weizenbaum • Eliza (1966) simule un psycholgue rogerien • Dans la lignée de A. Turing • Traduction automatique du langage • Jeux d’ échecs
Exemples typiques de problèmes (années 50-60) • Le fermier, le loup, la chèvre et le choux • Les recipients : comment obtenir 1 litre d’eau, avec deux récipients de capacité 2 litres et 5 litres (ce dernier étant rempli au départ) • Intégration symbolique de sin(x). cos(x) • Voyageur de commerce • Les huits reines • Les tours de Hanoi • Le Singe et les bananes
Résultats • Première catégorisations sur les strucutres de données : arbre de recherche, définition d’un espace d’états, … • Algorithme de recherche : A, A*,… • Succès de l’application de la logique des prédicats • MacSyma et GPS • Échec flagrant de la traduction automatique : la sémantique émerge du contexte; peu de moyen pour représenter le sens commun
2 3 1 2 3 7 1 8 4 7 8 4 7 5 6 6 5 2 2 2 2 2 2 2 2 8 8 8 8 8 8 8 8 3 3 3 3 3 3 3 3 3 3 1 2 3 2 1 1 1 1 1 1 1 6 6 6 4 4 4 4 4 4 4 4 4 8 8 4 8 7 7 7 7 7 7 7 7 5 5 5 5 5 5 5 5 5 7 5 6 6 6 6 6 6 6 6 1 2 3 8 4 7 5 1 1 1 6 Algorithme A* - problème du taquin 1 + 5 2 + 4 3 + 4 5 + 2 4 5 3 + 2 0 + 4 2 + 3 1 + 3 4 + 1 5 + 0 3 + 4 1 + 5 2 + 3 7 5 GOAL 3 + 3 2
Approche connexionniste • Mac Cullogh & Pitts • Développement du neurone formel (1943) • Hebb • relie les comportements de conditionnement simple à une loi de renforcement synaptique (1949) • Selfridge • Pandemonium (1956) • Rosenblatt • modèle du Perceptron (1958)
Le perceptron • réseau de neurones à 2 couches inspiré du système visuel • Définition d’une règle d’apprentissage • La règle delta
Les années 70 – début 80 • Période d’ombre pour l’approche connexionniste • Minsky et Papert, Perceptrons, 1969 • Impossibilité de l’apprentissage du XOR • Renforcement de l’approche symbolique : • Travaux sur la représentation de la connaissance : réseaux sémantiques, Scripts (Shank 1977), approche déclarative • Etude des micromondes : SHRDLU (Winograd, 1972) • Développement des Systèmes Experts, apparition de Prolog (1972)
Réseaux sémantiques Winston 1970
SHRDLU : the Block World Winograd 1972
SHRDLU 2001 HMM + NN Analyse Syntaxique Analyse Sémantique
Base de connaissance (BC) mémoire à long terme Moteur d’inférence (MI) Base de faits (BF) mémoire de travail Systèmes Experts • Chainage avant (Rules) ou arrière (Prolog) • Dendral (1965), Mycin (1974); Prospector(1983)
Mycin (1974 - …) • Aide au diagnostic / thérapie dans le domaine médical (septicémies, méningites …) • Connaissances représentées explicitement sous forme de règles • Prise en compte de l’incertain • Réelle compétence • Capacité à expliquer le raisonnement
Mycin – exemple de règles • Si le site de culture est le sang, et que le germe est positif à la coloration de Gram et que la porte d’entrée est l’appareil gastro-intestinal et que • L’abdomen est le site d’infection ou • Le bassinet est le site d’infection Alors • Il y a de très fortes présomptions pour que les entérobactéries soient la classe d’organismes que la thérapie devra traiter.