490 likes | 691 Views
Architektury kognitywne, czyli jak zbudować sztuczny umysł?. Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch Toruń, 23.10.2008. Plan. Podejście inżynierskie: zrozumieć = zbudować. Przegląd architektur kognitywnych przydatnych do modelowania umysłu + propozycja nowej.
E N D
Architektury kognitywne, czyli jak zbudować sztuczny umysł? Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch Toruń, 23.10.2008
Plan Podejście inżynierskie: zrozumieć = zbudować. Przegląd architektur kognitywnych przydatnych do modelowania umysłu + propozycja nowej. • Sukcesy i porażki sztucznej inteligencji • Wielkie wyzwania dla AI • Architektury symboliczne • Architektury emergentne • Architektury hybrydowe • Trendy rozwoju • Umysł i mózg, nowe (?) spojrzenie.
Sukcesy AI 1996 – Deep Blue przegrał z Kasparowem 2:3 1997 – Deep Blue wygrał z nim 3.5:2.5 2002 – program Deep Fritz na PC remisuje z Vladimirem Kramnikiem, który trenował z nim przez dwa miesiące. Nawet program na PC wygrywa w szachy! Warcaby zostały w pełni rozwiązane (2007, program Chinook). MoGo (Many Faces of Go, Ver. 12) na komputerze ~15Tfl, wygrał w 2008 roku z mistrzem Myungwan Kim (8 Dan) w go 19x19, przy handicapie 9 kamieni - w ciągu roku program poprawił się o 9 kamieni! Programy do algebry komputerowej, dowodzenie twierdzeń; systemy doradcze w chemii, medycynie, wielu dziedzinach; kontrolery do samochodów, samolotów (Predatory!), helikopterów, robotów rozpoznawanie mowy i zamiana na tekst, zrozumiałe tłumaczenie maszynowe z chińskiego lub japońskiego na angielski (ale nie na polski).
Porażki AI Wiele ambitnych projektów zmierzających do stworzenia AI skończyło się niepowodzeniem, np: A. Newell, H. Simon, General Problem Solver (1957). Eduardo Caianiello (1961) napisał równania „mnemoniczne”, które wyjaśniały wszystkie zachowania, ale nie były przydatne. Japoński projekt komputerów 5-tej generacji 1982-1994. • AI zawiodła w wielu zastosowaniach: • percepcji, rozumienia obrazów, • rozwiązywaniu problemów, rozumowaniu, • kontroli i planowaniu zachowania, robotyce, • rozumienia i używania języka naturalnego ... • Dlaczego? • Jesteśmy zbyt głupi? Stosujemy zbyt naiwne metody? • Zbyt teoretyczne, oderwane od zastosowań? • Ignorowanie prawdziwych problemów i wyzwań?
Kilka ambitnych projektów CYC, Douglas Lenat, 1984 rok, firma komercyjna CyCorp od 1995 roku. Zawiera obecnie ponad 2.5 milionów faktów (asercji)łączących ponad 150.000 pojęć zorganizowanych w tysiące mikro-teorii. Cyc-NLciągle figuruje jako “potencjalne zastosowanie”, reprezentacja wiedzy za pomocą ram daje wielkie możliwości, ale jest trudna w użyciu. Podejście symulujące procesy rozwojowe: Cog: od 1994 roku na MIT, grupa R. Brooksa, inteligencja behawioralna - nadal aktywna dziedzina. Założenie: inteligencja ludzka jest wynikiem procesów rozwojowych, oddziaływań społecznych, ucieleśnienia umysłu oraz integracji wielomodalnej informacji zmysłowej; konieczna jest ewolucja robota. Seria robotów Nomad/Darwin, G. Edelman. Hall baby brain – konwersacja z botem by rozwinąć umysł dziecka? www.a-i.com
Wyzwania: język • Test Turinga – pierwotny test zbyt trudny. • Warianty: pytania: tak/nie; osobisty test Turinga(Carpenter & Freeman), program udaje osobę, którą dobrze znamy. • Nagroda Loebnera: w stylu testu Turinga, od prawie 20 lat zawody botów i ludzi rozmawiających z sędziami, większość oparta na szablonach i dopasowaniu wzorców = oszustwo daje dość dużo. • Systemy Q/A, oceniane na Text Retrieval Conference (TREC).Why the sky is blue? Why is Mars red? Google już to wie ... • Gry słowne, np. gra w 20 pytań, wymagająca znajomości pojęć i ich własności, ale nie złożonych relacji pomiędzy nimi. Postępy w uczeniu się naturalnego języka zależą od automatycznego tworzenia, rozwijania i używania obszernych baz wiedzy. • Inteligentne systemy wspomagające nauczanie, kombinacja rozumowania i kompetencji językowych, trudne do oceny?
Wyzwania: rozumowanie • Partnerzy doradzający ludziom w pracy, oceniający ich rozumowanie (sprawdzanie twierdzeń), podsuwający kreatywne idee, interesujące skojarzenia, szukający istotnych informacji dla danego projektu. • Super-expertw wąskiej dziedzinie (Feigenbaum):potrzebuje sporo ogólnej inteligencji do komunikacji + wyrafinowanego wnioskowania; realne zastosowania w matematyce, prawie, bionaukach, partner dla eksperta stawiającego pytania, egzaminy jak studentów. • Podobny kierunek, ale bez NLP: Automated Theorem Proving (ATM) System Competitions (CASC) organizowany w wielu podkategoriach. • Ogólne AI w matematyce: dowodzenie twierdzeń z różnych dziedzin, techniki metauczenia + specializowane moduły + NLP. • Automatyczne rozwijanie genomicznych baz danych, tworzenie modeli procesów genetycznych, białkowych, metabolicznych bioorganizmów.
Ogólna AI, czyli AGI? • System ogólnego użytku, który mógłby się nauczyć wykonywania różnych prac, jaki procent zawodów wykonywanych przez ludzi mogą wykonywać systemy AI(Nilsson, “child machine” Turinga). • W dziedzinach wymagających przetwarzania informacji postęp można oceniać robiąc egzaminy, tak jak np. w księgowości. • Prace manualne wymagają koordynacji percepcji/działania, trudniejsze? • Wiele prac w przemyśle, usługach finansowych, drukarniach itd.zostało zautomatyzowanych przez zmianę organizacji pracy, a nie AI. • Zawody DARPA Desert & Urban Challenge (2005/07), stara technologia, integracja analizy obrazów i sygnałów, sterowania, rozumowania. • Robotyka humanoidalna: rozumienie percepcji, uwaga, nauka modeli przyczynowych, uczenie hierarchiczne z różnymi skalami czasowymi. • “Personal Assistants that Learn” (PAL), DARPA 2007, SRI+21 instytucji 5-letni projekt budowy partnerów/osobistych asystentów, a nie całkowitej eliminacji ludzi (projekt RADAR na CMU ma się sam douczać).
Projekty lingwistyczne Open Mind Common Sense Project (MIT): projekt kolaboracyjny WWW , ponad 15 000 autorów, którzy wpisali ponad 710000 faktów; wyniki posłużyły do utworzenia ConceptNet, bardzo dużej sieci semantycznej. Commonsense Computing @ MediaLab, MIT, miał stworzyć skalowalny system oparty na zdroworozsądkowej wiedzy, zbieranej z tekstów, zautomatyzowanych obserwacji i w projektach kolaboracyjnych. LifeNetzbiera informację o typowych wydarzeniach, opiera się na wersji Multi-Lingual ConceptNet używając sieci semantycznej, która ma 300000 węzłów; informacja o zdarzeniach ma być zbierana z sensorów. Honda Open Mind Indor Common Sense zbiera nadal info zadając pytania. Inne projekty: HowNet (Chinese Academy of Science), FrameNet (Berkeley), różne duże ontologie, MindNet (Microsoft), początkowo do tłumaczenia. Projekty te próbują zgromadzić fakty o świecie.
Architektury kognitywne Symboliczne Emergentne Hybrydowe Pamięć Pamięć Pamięć · Reguły lub grafy · Globalna, rozproszona lub lokalna - Uczenie Uczenie Uczenie Indukcyjne lub analityczne - Architektury kognitywne • AK służą często do modelowania ludzkich działań w sytuacjach wykonywania wielu czynności wymagających interakcji, a nie AGI. • Newell, Unified Theories of Cognition (1990), podał 12 kryteriów oceny AK: behawioralne: adaptacja, dynamika, elastyczność; rozwój, ewolucja, uczenie się, integracja wiedzy, rozległość wiedzy, zdolności językowe, sterowanie w czasie rzeczywistym, mózgopodobność. · Regułowa, symboliczna, lub koneksjonistyczna Asocjacyjnei/lub konkurencyjne · Mieszane
EPIC( (Executive-Process/InteractiveControl) EPIC (Kieras, Mayer 1997), model sprawności działania człowieka: HCI, humanfactor, "czynnik ludzki"), czyli uwzględnianie ograniczeń percepcyjno-poznawczo-ruchowych; odtwarza psychofizyczne zależności. EPIC odtwarza psychofizyczne zależności, takie jak potęgowe prawo uczenia się, pozwala odkryć sytuacje, w których nie będziemy mogli prawidłowo zareagować na zmiany. Procesor kognitywny: rozumowanie w SOAR.
Architektury symboliczne • Typy architektur ~ typom problemów. • Fizykalny system symboliczny (Newell & Simon): wejścia, wyjścia i manipulacja tokenami odpowiadającymi symbolom, cele i działania. • Większość symbolicznych AK ma: centralny nadzór nad przepływem informacji od sensorów przez pamięć do efektorów; rozumowanie logiczne; regułowa reprezentacja relacji postrzeżenie/działanie; ważna rola pamięci roboczej + semantycznej + funkcji wykonawczych. • Reprezentacje graficzne: sieci semantyczne i grafy koncepcji, ramy/schematy, zbiory reakcji (reactive action packages, RAPs). • Techniki uczenia: analityczne i indukcyjne. • Analityczne: prowadź wnioskowanie z którego wynikają dodatkowe fakty, np. explanation-based learning (EBL), uczenie przez analogię. • Indukcyjne: przykłady => reguły ogólne; np. knowledge-based inductive learning (KBIL), czy uczenie z opóźnioną krytyką (DRF). • Symbole statyczne i dynamiczne: istotne rozróżnienie? • Kilka AK jest dobrymi kandydatami na AGI.
Act-R-PM - architektura Wersja PM integruje percepcję (P) i działania motoryczne (M).Jej moduły można z grubsza powiązać z funkcjami różnych części mózgu, pamięcią deklaratywną (płaty skroniowe, hipokamp), roboczą w korze przedczołowej (PFC), jądrami podstawy mózgu. Setki zastosowań, od modelowania w psychologii przez programy nauczające matematyki; wyniki testów są 100% lepsze niż tradycyjne, czas nauki do 1/3 krótszy; komercyjna firma Carnegi Learning: http://www.carnegielearning.com/ program 475.000 uczniów (2007)!
SOAR • SOAR(State, Operator And Result): klasyczny przykład (rozwijany >25lat) architektury symbolicznej, aproksymacja regułowa AK systemu opartego na wiedzy, model ogólnej inteligencji. • Wiedza = reguły produkcji, wnioskowanie = operatory w p-ni problemu. • Uczenie przez porcjowanie (chunking), technika analityczna tworzenia reguł i makro-operacji z analizy historii rozwiązywania problemu. • Pokazano wiele funkcji wyższego rzędu: przetwarzanie złożonych baz wiedzy w planowaniu, rozwiązywaniu problemów, rozumieniu języka naturalnego (NL-SOAR) w czasie rzeczywistym w realnych warunkach. • Wiele rozszerzeń architektury SOAR, nie w pełni zintegrowanych: uczenie – z krytykiem, zmienia preferencje działań operatorów, uczenie epizodyczne oparte na historii ewolucji stanu systemu, uczenie semantyczne by lepiej opisać abstrakcyjną wiedzę, wyobraźnia przestrzenna, zachowania afektywne, uczucia ukierunkowujące uczeni z krytykiem i rozumowanie bezpośrednie. • Brakuje: zapominania, uwagi, selekcji informacji, uczenia hierarchicznych reprezentacji, uczenia w warunkach niepewności.
Inne symboliczne AK • NARS (Non-Axiomatic Reasoning System) (P. Wang, ~20 lat), semantyka oparta na doświadczeniu i języku, zbiór reguł wnioskowania, pamięć i mechanizm kontrolny, to różne aspekty tego samego procesu realizującego wyższe czynności poznawcze. • Prawdziwość oceniana jest na podstawie doświadczenia w używaniu danego wzorca, nie-aksjomatyczna logika pozwala na adaptację przy niewystarczającej wiedzy. Prototypy NARS stosowane były do prostych problemów. • SNePS (Semantic Network Processing System) (S. Shapiro ~30 lat); logika, ramy i koneksjonistyczna reprezentacja wiedzy, rozumowania i działania; schematy wnioskowania w oparciu o logikę, ramy i sieci semantycznie w pakiecie SNIP + system aktualizacji wiedzy. • SNePS Rational Engine kontroluje i planuje sekwencje działań w oparciu o założenia pozytywne i negatywne. • Stosowany w projektach NLP, rozumowania zdroworozsądkowego, systemach Q/A, agentach, ale żadnych większych aplikacji.
Emergentne AK Funkcje poznawcze powinny pojawić się w sieciach prostych neuropodobnych elementów. • Globalna bądź lokalna organizacja pamięci: uczenie się danych o złożonej strukturze logicznej wymaga obu! • Globalne: sieci MLP używają nielokalnych funkcji, projekcji, rozproszonych reprezentacji, reakcje zależą od wszystkich parametrów, dobrze generalizują ale czasami katastroficznie zapominają. • Lokalne: sieci wykorzystujące rozwinięcia na funkcje bazowe używają funkcji zlokalizowanych, rezultat zależy od lokalnych parametrów. • Modularna organizacja sieci zawsze może utworzyć grupy elementów przetwarzających, które będą reagować lokalnie. • Różna metodologia uczenia: heteroasocjacja w nadzorowanym lub wzmacnianym uczeniu, uczenie konkurencyjne (WTA lub WTM), uczenie korelacyjne (Hebb) do tworzenia modeli wewnętrznych. • Bliżej percepcji i niższych czynności niż czynności wyższych, które łatwiej jest zrealizować w oparciu o podejście symboliczne.
Synapsy Soma EPSP, IPSP Impuls Impuls Dynamika Synaptyczna Projekt BlueBrain 10 000 neuronów w kolumnie, 30M synaps
Grupa MNeurony Pole średnie czy impulsy? Mózg: 1011neuronów Połączone mikroobwody A B C Model pola średniego Sieci neuronów impulsujących Neuron Pools neuron spikes 1 2 3 M neuron 1 neuron 2 Aktywność grupy: Całkuj i impulsuj:
MIDAS Przykład architektury typu BICA, czyli BrainInspired Cognitive Architecture: projekt MIDAS opracowany przez NASA. Zastosowania: problemy związane z projektowaniem, skomplikowana architektura, http://www-midas.arc.nasa.gov/
Emergentne IBCA • IBCA (Integrated Biologically-based Cognitive Architecture), (O'Reilly, Y. Munakata 2000): wyróżnia 3 typy pamięci. • W korze ciemieniowej (PC), zazębiające się, rozproszone lokalnemoduły, hierarchiczne, sensomotoryczne wielomodalne działania. • W korze czołowej (FC) izolowana lokalna rekurencyjna reprezentacja odpowiedzialna za pamięć roboczą, wkład kombinatoryczny. • W hipokampie (HC) rzadka, koniunktywna organizacja globalna, scalająca wszystkie pobudzenia w PC i FC (pamięć epizodyczna). • Algorytm LEABRA łączy korelacyjne uczenie Hebbowskie, redukcję błędów do uczenia umiejętności i dynamikę konkurencyjną kWTA. • Moduły PC & FC: powolne uczenie się regularności. • Moduł HC: szybkie uczenie, zapamiętywanie i rozróżnianie epizodów. Współpraca HC - FC/PC realizuje komplementarne strategie uczenia. • Wyższe czynności poznawcze wynikają z aktualizacji reprezentacji modułu FC umożliwiającego samo-regulację. • Jedynie podstawowe fakty psychologiczne; cele? emocje? skalowanie?
Modele neuronowe Wiele zjawisk da się modelować na poziomie neuronowym, ale robiono to zwykle tylko na małą skalę. Przykłady: PDP++/Emergent Modele i eksperymenty psychologiczne dotyczące percepcji, uwagi, pamięci, oddziaływania różnych rodzajów pamięci ze sobą, języka, podejmowania decyzji i wielu innych zjawisk. Trudno na razie takie modele przeskalować do rozwiązywania realnych problemów. Masowo równoległe systemy;dalsze uproszczenia.
Emergent CA: others • NOMAD (Neurally Organized Mobile Adaptive Device) (Edelman >20 lat), oparty o teorię “neuronalnego Darwinizmu”, emergentna architektura rozpoznająca wzorce w czasie rzeczywistym. Symulacja ~105 neuronów i~107 synaps, rozwój poprzez zadania behawioralne, system wartości oparty o nagrody i adaptację pozwala na uczenie interesujących zachowań, własne ruchy istotne dla rozwoju percepcji, model hipokampa do nawigacji przestrzennej i pamięci epizodycznej, niezmiennicze rozpoznawanie obiektów widzianych na obrazach, scalanie cech obiektów dzięki synchronizacji neuronów, sterowanie współbieżne. Wyższe czynności poznawcze? • Cortronics (Hecht-Nielsen 2006), funkcje wzgórzowo-korowe. • Leksykon oparty na zlokalizowanych, cześciowo się nakrywjących, ensemblach korowych ze zwrotnymi połączeniami koduje symbole. Atomy wiedzy = połączone symbole, z uczeniem i wydobywaniem informacji przez konfabulację, konkurencyjną aktywację symboli. • Konfabulacja odpowiedzialna jest za antycypację, wyobraźnię, kreatywność, w skali czasu szybszej niż procesy rozumowania.
Emergentetrendy • TheNuPIC (Numenta Platform for Intelligent Computing) , J. Hawking (2004), Hierarchical Temporal Memory (HTM), każdy węzeł uczy się i ma pamięć. Specyficzne połączenia między warstwami dają niezmienniczą reprezentację obiektów. Podkreśla czasy aspekt percepcji, sekwencji pamiętanych zdarzeń, antycypację. • Autonomous mental development (J. Weng, ~10 y). • M.P. Shanahan(2006), symulacja stanów wewnętrznych z globalnej p-ni roboczejza pomocą bezwagowych sieci, prosta kontrola robota. • J. Anderson, Erzatz brain (2007), prosty model kory. • COLAMN (M. Denham, 2006), i “laminar computing” S. Grossberga. • E. Korner & G. Matsumoto: AK kontroluje ograniczenia używane do wyboru właściwego algorytmu dla rozwiązania specyficznego problemu. • DARPA Biologically-Inspired Cognitive Architectures (BICA) program (2006), “TOSCA: Comprehensive brain-based model of human mind”. • P. Haikonen “świadome maszyny” (2007) oparte na sieciach z rekurencją i mechanizmem WTA w modułach, ciekawe ale naiwne.
Hybrydowe AK: ACT-R6 • ACT-R(Adaptive Components of Thought-Rational) (J. Anderson, >20 lat rozwoju), symulacje szerokiej gamy zadań poznawczych. • Moduły sensomotoryczne, moduły pamięci, dopasowywanie wzorców. • Symboliczno-koneksjonistyczne structury pamięci deklaratywnej (DM), porcjowanie wiedzy; pamięć proceduralna (PM) w postaci reguł. Konstrukcje symboliczne związane są ze zbiorem niesymbolicznych parametrów które zapisują informacje o użyteczności w przeszłości, pozwalając ocenić przydatność skojarzeń, reguł i porcji wiedzyw przeszłości i w obecnym kontekście. • Bufory - WM dla komunikacji między modułami i dopasowanie wzorców dla szukania reguł, które pasują do informacji w buforach pamięci. • Uczenie wykorzystuje hipotezy, niesymboliczne parametry najbardziej przydatnych porcji wiedzy i reguł są dostrajane algorytmem Bayesa. • Architektura ACT-R może być z grubsza porównana z budową mózgu. • Wykorzystywany w wielu symulacjach psychologicznych, inteligentnych tutorach, brak ambitnych zastosowań do rozwiązywania problemów.
Kismet Naturalne interakcje z ludźmi wymagają analizy i ekspresji emocji: projekt Kismet doprowadził do zrobienia głowy robota, który reaguje na emocje, oraz robota Nexi.
Hybrydy • CLARION (Connectionist Learning Adaptive Rule Induction ON-line) (R. Sun, ~15 lat): celem jest tworzenie kognitywnych agentów oraz zrozumienie procesów psychologicznych uczenia się i rozumowania. 4 moduły pamięci, każdy ma reprezentację jawną i ukrytą: podsystemy działania (ACS), wiedzy (NCS) do pielęgnacji wiedzy zawartej w systemie, motywacji (MS), wpływa na postrzeganie, działanie, poznawanie, i najwyższy szczebel kontroli, meta-poznanie (MCS). • Dostępny jest program + przykłady symulacji; zrobiono złożony model podejmowania decyzji w czasie nawigacji po polu minowym. • Polyscheme (N.L. Cassimatis, 2002) integruje kilka metod reprezentacji, rozumowania i schematów rozwiązywania problemów w architekturze wieloagentowej, są tu warunki logiczne, ramy, skrypty, sieci neuronowe, itd; uwaga sterowana jest przez schematy skupiania się, jest wiele mechanizmów wnioskowania, pielęgnacji wiedzy i symulacji stochastycznych. AK przeznaczona zarówno do rozumowań abstrakcyjnych, sterowania robotem, modelownia rozumowania niemowlaka na temat zdarzeń, ich przyczyn, relacji przestrzennych.
Hybrydowe 4CAPS • 4CAPS (M.A. Just 1992) powstało z myślą o złożonych zadaniach, rozumieniu języka, rozwiązywaniu problemów i orientacji przestrzennej. • Zasada operacyjna: “Myślenie jest wynikiem jednoczesnej aktywności wielu obszarów w rozległych sieciach korowych”. • Aktywność modułów 4CAPS można skorelować z fMRI i innymi danymi. • Moduły 4CAPS odpowiadają konkretnym obszarom mózgu, mają różne style przetwarzania informacji. • Każdy obszar może brać udział w wielu funkcjach kognitywnych, ale ma ograniczone możliwości obliczeniowe. • Funkcje przypisywane są obszarom w zależności od tego jak już są obciążone, dlatego topologia całej sieci nie jest ustalona. • Użyteczne do modelowania szybkości reakcji i liczby błędów przy rozwiązywaniu problemów wymagających analogii, pracy z komputerem, rozumieniu tekstów i innych złożonych zadań rozwiązywanych przez normalnych ludzi jak i chorych psychicznie.
Inne hybrydy • LIDA (The Learning Intelligent Distribution Agent) (S. Franklin, 1997), schemat budowy agentów, idee globalnej przestrzeni roboczej. • LIDA: organizacja pamięci symboliczno-koneksjonistyczna, moduły percepcyjne, pamięci roboczej, emocji, pamięci semantycznej i epizodycznej, oczekiwań, wyboru akcji, uczenia proceduralnego, spełniania ograniczeń, negocjacji, rozwiązywania problemów, metapoznania i imitacji zachowań świadomych. • Współpraca kodletów, specjalizowanych podsieci. • Uczenie percepcyjne, epizodyczne i proceduralne, od danych. • DUAL (B. Kokinov 1994), inspirowane przez “Society of Mind” (Minsky)hybrydowa architektura wieloagentowa, emergentna dynamika obliczeń, micro-agenci realizują funkcje pamięci i przetwarzania informacji tworząc koalicje, na makropoziomie możliwe są interpretacje psychologiczne własności powstających w ten sposób modeli. • Mikro-ramy używane są do symbolicznej reprezentacji faktów, istotność w określonym kontekście <= wag połączeń i aktywacji sieci. • Stosowane w modelowaniu psychofizyki i rozumowania. Skalowanie?
Hybrid CA: others 2 • Shruti (Shastri 1993), biologicznie inspirowany model wnioskowania, koneksjonistyczna reprezentacja typów, związków przyczynowych, używając synchronizacji klastrów elementów, dopuszcza kwantyfikatory, stopnie zaufania do informacji. Synchronizacja pozwala na dynamiczne powiązania węzłów, pozwalając na reprezentację złożonej wiedzy i szybkie wnioskowanie. model ma duży potencjał, ale rozwija się powoli. • The Novamente AI Engine (B. Goertzel, 1993), oparty na modelupsynet i “filozofii umysłu opartej na wzorcach”: samoorganizujących się wzorcach odpowiadających stanom mentalnym. • Emergentne procesy wynikające z interakcji prowadzą do hierarchicznej i relacyjnej (heterarchicznej) organizacji wzorców. • Probabilistyczna logika termów (PTL), i algorytm Bayesowskiej Optymalizacji (BOA) odpowiedzialne są za wnioskowanie. • Akcje, postrzeżenia, stany wewnętrzne reprezentowane przez grafy. • Nowa architektura, skalowanie nie znane.
Dokąd zmierzamy? • Wiele AK, niektóre rozwijają się od ~ 30 lat, inne są nowe. • Jedynie nieliczne użyto w ambitnych projektach, nie było to łatwe. • Potrzebne jest skupienie na wielkich wyzwaniach + precyzyjnych krokach prowadzących do super-ludzkiego poziomu kompetencji. • AGI potrzebuje większej elastyczności, rozszerzenia demonstracji AK z trywialnych domen na rezultaty interesujące dla ekspertów, pomagające im jako partnerzy w pracy – vide projekty w realizacji. • Jakiego typu inteligencję chcemy zbudować? H. Gardner (1993) wyróżnił siedem typów inteligencji: logiczno-matematyczną, lingwistyczną, przestrzenną, muzyczną, kinestetyczną, inter i intra-personalną, ostatnio dodano do tego inteligencję emocjonalną i kilka innych. • Do pewnego stopnia są to niezależne rodzaje inteligencji! AGI nie musi dobra we wszystkim... musi być wystarczająco szeroka by osiągnąć kompetencje w kilku dziedzinach, np. różnych grach.
Inteligencja behawioralna? • R. Brooks: słonie nie grają w szachy, roboty potrzebują wzroku, słuchu i czucia by się “nauczyć myślenia w oparciu o doświadczenie działania, realizując coraz bardziej abstrakcyjne zadania”. • Projekt Cog ma wielu naśladowców, ale po 15 latach jest to nadal agent reaktywny i nie widać jak w nim zrealizować wyższe czynności. • W 7PR priorytet panelu „intelligence and cognition” określony został jako „deep embodiment, new materials, physics doing computations”. • Czy enaktywizm wystarczy?Czy jest konieczny? Jakie są ograniczenia podejścia symbolicznego, emergentnego, hybrydowego? • Słonie są inteligentne, ale nie grają w szachy ani nie dyskutują. • Rezultaty ostatnich dwóch dekad nie są dla AGI zachęcające. • Ogólne AK mogą nie wystarczyć do rozwiązania problemów z percepcją (np. Poggio lansuje BICA dla wzroku), języka naturalnego, specyficzne modele różnych funkcji mózgu mogą być konieczne do osiągnięcia poziomu organizmów biologicznych. • Znaczny postęp w robotyce.
Trendy • Dominują architektury hybrydowe, ale inspiracje biologiczne nabierają znaczenia, nowe architektury to głowie BICA. • Inspiracje głównie oparte na działaniu układu wzgórzowo-korowego i limbicznego, utożsamianego z aspektami kognitywnymi i afektywnymi. • Kilka kluczowych cech znajdzie się we wszystkich BICA: hierarchiczna organizacja przetwarzania informacji na wszystkich poziomach; mechanizmy uwagi, orientacji przestrzennej, elastyczne wykorzystanie zasobów, różne skale czasowe, różne typy pamięci , wyobraźnia, intuicja i kreatywność. Czego jeszcze brakuje: • Interakcji lewej i prawej półkuli w procesach poznawczych. • Regulacyjnej roli pnia mózgu w wyborze zachowań różnego typu. • W modelach ludzkiego zachowania brakuje bardziej subtelnych funkcji, np. różnych aspektów ja, lub rozróżnień strachu i lęku, za które odpowiedzialne są odmienne jądra migdałowate.
Pamięć Rozróżnienie typów pamięci jest ważne; rozumienie wymaga: • rozpoznawania elementarnych fonemów lub znaków, czyli mapowanie dźwięków lub stringów liter na unikalne termy; • rozstrzyganie wieloznaczności i mapowanie termów na pojęcia określone w ontologii; • pełna semantyczna reprezentacja tekstów wspomagająca rozumienie i odpowiedzi na pytania. • Te 3 krokiwymagają różnego typu pamięci. • Pamięć rozpoznawcza zwraca uwagę na odstępstwa od oczekiwań. • Pamięć semantyczna to nie tylko hierarchiczna ontologia, lecz również dynamiczny proces rozchodzenia się aktywacji, skojarzeń na podstawie strukturalnych własności pojęć i ich relacji. • Pamięć epizodyczna konieczna jest do tworzenia modelu sytuacji czy zdarzenia, scalenia różnych aspektów przeżywanego doświadczenia. • Pamięć robocza tworzy tymczasową przestrzeni do działania.
BICA jako aproksymacja • Znaczne postępy poczyniono wykorzystujące inspiracje z badań nad mózgiem do analizy percepcji, mniejsze dla wyższych czynności pozn. • Neurokognitywne podejście do lingwistyki stosowano do analizy zjawisk lingwistycznych ale nie ma ono wpływu na NLP. • Potrzebne są nowe matematyczne techniki by opisać procesy obliczeniowe w terminach “wzorców stanów mózgu” i rozchodzenia się aktywacjimiędzy takimi wzorcami. Jak to zrobić? Prototypy stanów neuronowych? Quasi-stacjonarne fale pobudzeń opisujące globalne stany mózgu (w,Cont)? Transformacja mózg-umysł? • Jak wyglądają ścieżki rozchodzenia się aktywacji w mózgu? Praktyczny algorytm rozszerza rep. pojęcia o te kategorie skojarzeń, które są pomocne w klasteryzacji i klasyfikacji (Duch i inn,NN w druku),usuwając słabe skojarzenia przez filtrowanie cech. • Prace nad automatycznym tworzeniem opisu pojęć na podstawie słowników, ontologii, encyklopedii i projektów kolaboracyjnych, oraz aktywnego szukania w swobodnych tekstach są w toku.
HIT – duży projekt … Learning Affective computing T-T-S synthesis Brain models Behavioralmodels Speech recognition HIT projects Cognitive Architectures Talking heads AI Robotics Cognitive science Graphics Lingu-bots A-Minds VR avatars Knowledgemodeling Info-retrieval WorkingMemory EpisodicMemory Semantic memory
Web/text/databases interface Text to speech NLP functions Natural input modules Talking head Behavior control Cognitive functions Control of devices Affectivefunctions Specialized agents Architektura DREAM DREAM zawiera zarówno afektywne jak i kognitywne funkcje, sterowanie, analizę naturalnych sygnałów, ale nacisk kładziemy na funkcje językowe.
Zapy-tanie Pamięć semantyczna Zastosowania, np gra w 20 pytań. Awatar, HIT: interfejs graficzny http://diodor.eti.pg.gda.pl Magazynowanie Oznaczanie części mowy i ekstrakcja frac weryfikacja Słowniki, ontologie,informacja tekstowa Parser ręczne poporawki
Realistyczne cele Różne sposoby reprezentacji wiedzy są przydatne w różnych zastosowaniach. Warto zacząć od najprostszej reprezentacji dla potrzeb pomięci semantycznej, zbadać do czego się nadaje i jakie ma ograniczenia. Korzystając z takiej pamięci semantycznej awatar może sformułować odpowiedzi na wiele pytań; potrzeba ekspotencjalnie wiele szablonów AIML lub podobnych by odpowiedzieć na wszystkie pytania. • Przydawanie inteligencji agentom wymaga: • budowania modeli pamięci semantycznej i innych; • budowy naturalnych interfejsów komunikacyjnych. • Cel: • stworzyć model 3D awatara z syntezą i rozpoznawaniem mowy, użyć go do interakcji z programami i stronami WWW: Humanized InTerface (HIT). Kontrolowanie działania HIT w oparciu o wiedzę w pamięci semantycznej.
Słowa w mózgu Eksperymenty psycholingwistyczne dotyczące mowy pokazują, że w mózgu mamy dyskretne reprezentacje fonologiczne, a nie akustyczne. Sygnał akustyczny => fonemy => słowa => koncepcje semantyczne. Aktywacje semantyczne następują 90 ms po fonologicznych (N200 ERPs). F. Pulvermuller (2003) The Neuroscience of Language. On Brain Circuits of Words and Serial Order. Cambridge University Press. Sieci działania – postrzegania, wnioski z badań ERP i fMRI. Fonologiczna gęstość otoczenia słowa = liczba słów brzmiących podobnie jak dane słowo, czyli dająca podobne pobudzenia mózgu. Semantycznagęstość otoczenia słowa = liczba słów o podobnym znaczeniu (rozszerzona podsieć aktywacji).
Słowa: prosty model Cele: • zrobić najprostszy model kreatywnego myślenia; • tworzyć interesujące nowe nazwy, oddające cechy produktów; • zrozumieć nowe słowa, których nie ma w słowniku. Model zainspirowany przez procesy zachodzące w mózgu w czasie wymyślania nowych słów. Dany jest zbiór słów kluczowych, które pobudzają korę słuchową. Fonemy (allofony) są rezonansami, uporządkowane pobudzenie fonemów aktywuje zarówno znane słowa jak i nowe kombinacje; kontekst + hamowaniew procesie zwycięzca bierze wszystko zostawia jedno słowo. Kreatywność = wyobraźnia (fluktuacje) + filtrowanie (konkurencja) Wyobraźnia: wiele chwilowych rezonansów powstaje równolegle, aktywując reprezentacje słów i nie-słów, zależnie od siły połączeń oscylatorów. Filtrowanie: skojarzenia, emocje, gęstość fonologiczna/semantyczna.
Rozumienie tekstów Próbujemy rozwinąć neurokognitywne podejście do rozumienia języka. Graf spójnych koncepcji = aktywnej części pamięci semantycznej z hamowaniem i rozchodzeniem się aktywacji (P. Matykiewicz). Dla tekstów medycznych mamy >2 mln koncepcji, 15 mln relacji … Wiele innych zastosowań.
Gry słowne Gry słowne były popularne na długo przed komputerami ... Były bardzo przydatne do rozwoju zdolności analitycznego myślenia.Do niedawna słownych gier komputerowych było bardzo mało. Gra w 20 pytań może być kolejnym wielkim wyzwaniem AI, jest bardziej realistyczna niż nieograniczony test Turinga. Szachy są za proste – komputery szybko liczą, więc wygrywają. Maszyna, zgadująca o czym myślę, musi być inteligentna ... Znajdywanie dobrych pytań wymaga wiedzy i kreatywności. Pozwala na testowanie modeli pamięci semantycznej i pamięci epizodycznej w realistycznych warunkach. Inne zastosowania: identyfikacja obiektów na podstawie ich opisu, uściślanie zapytań dla wyszukiwarek internetowych itp. Potrzebna jest pamięć semantyczna na dużą skalę, miliony pojęć: ontologie, słowniki (Wordnet), encyklopedie, MindNet (Microsoft), projekty kolaboracyjne, np. Concept Net (MIT) … co się da. Nadal nie wystarczy ... przykład gry w 20 pytań.
Tworzenie słów Słówka stworzone przez program: Argulachny argatywista argumiadał arganialnie: Ardyczulać ardychstronność ! Ardywialić ardykloność ! Ardywiancje! Arganiastość ! Argadolić argadziancje ! Arganianalność arganiczna, argaskalność argastyczna, argumował argumofon. Nowe słówka: portal to new worlds of imagination and creativity ... creativery (creativity, discovery), creativery.com (strategy+creativity) discoverity = {disc, disco, discover, verity} (discovery, creativity, verity) digventure ={dig, digital, venture, adventure} nowe! 2/3 już wymyślonych, ale 1/3 nowych słów.
Kreatywność, wglądy i mózgi Można badać aktywność mózgu w czasie rozwiązywania problemów, które wymagają wglądu lub które rozwiązywane są schematycznie. E.M. Bowden, M. Jung-Beeman, J. Fleck, J. Kounios, „New approaches to demystifying insight”.Trends in Cognitive Science2005. Po rozwiązaniu problemu badani za pomocą EEG i fMRI sami określali, czy w czasie rozwiązywania pojawił się wgląd, czy nie. Około 300 ms przed pojawieniem się wglądu w zakręcie skroniowym górnym prawej półkuli (RH-aSTG) obserwowano salwę aktywności gamma. Interpretacja autorów: „making connections across distantly related information during comprehension ... that allow them to see connections that previously eluded them”. Moja: lewa półkula reprezentująca w STG konkretne obiekty nie może znaleźć pomiędzy nimi związku =>impas; prawa STG widzi jej aktywność na meta-poziomie, ogólne abstrakcyjne kategorie, które może powiązać; salwa gamma zwiększa jednoczesną aktywność reprezentacji w lewej półkuli, emocje Eureka konieczne są do utrwalenia bezpośrednich koneksji.
Intuicja i reszta Duch W, Intuition, Insight, Imagination and Creativity. IEEE Computational Intelligence Magazine 2(3), August 2007, pp. 40-52 Duch W, Pilichowski M, Experiments with computational creativity. Neural Information Processing – Letters and Reviews 11(4-6),123-133,2007
Co jeszcze (z)robimy Informatyka neurokognitywna: inspiracje neuro na różnych poziomach. Podstawy inteligencji obliczeniowej oraz meta-uczenia, system Intemi. Geometryczny model umysłu = część tego, co robi mózg: • badanie systematycznych uproszczeń neurodynamiki; • zrozumienie wielowymiarowych układów dynamicznych; • wizualizacja całych trajektorii w odpowiednio przetransformowanych przestrzeniach "umysłu"; • analiza EEG, zastosowania w Brain-ComputerInterface; • model pnia mózgu, układ siatkowaty, oddech, stany świadomości; • psychiatria generatywna, zaburzenia na poziomie kanałów jonowych. Symulacje efektów torowania badanych w psychologii eksperymentalnej. Symulacje intuicji, wyobraźni, procesów kreatywnych – serwer Mambo http://www-users.mat.uni.torun.pl/~macias/mambo/index.php tworzy nowe słowa na podstawie opisów produktów.
Przyszłość AK? Widać kilka ważnych inicjatyw i kierunków rozwoju: • Decade of the Mind, wzorowane na DoBrain (ale tańsze). • Artificial General Intelligence, pismo JAGI, seria konferencji, sesje specjalne i panele dyskusyjne na WCCI. • Affective computing: wiele projektów związanych z emocjami. • Dominacja i ulepszenie architektur typu BICA, konwergencja.Potrzebne będą: • Budowa wielkiej sieci semantycznej - subsymbolicznyWordnet? • Pamięci semantyczne, projekty kolaboracyjne, rozwój ontologii zdroworozsądkowych – dużo do zrobienia. • Zastosowania do rozumienia języka, gier słownych, systemów dialogu w języku naturalnym, analizy tekstów medycznych. • Mistrzostwa świata w grach słownych. • HIT i DREAM w oparciu o nową architekturę kognitywną, od komputerów do telefonów!
Nadchodzą interesujące czasy! Dziękuję za zsynchronizowanie swoich neuronów Google: W Duch => Prace, referaty, wykłady