290 likes | 459 Views
Ćwierć wieku rozwoju sztucznej inteligencji w Polsce. Ryszard Tadeusiewicz AGH, Kraków. Przedstawiana historia AI w Polsce lat 80., 90. i 200x będzie wysoce subiektywna. Zapewne historycy nauki inaczej opiszą te dzieje i racja będzie niewątpliwie po ich stronie.
E N D
Ćwierć wieku rozwojusztucznej inteligencjiw Polsce Ryszard Tadeusiewicz AGH, Kraków
Przedstawiana historia AI w Polsce lat 80., 90. i 200x będzie wysoce subiektywna. Zapewne historycy nauki inaczej opiszą te dziejei racja będzie niewątpliwie po ich stronie. Tyle tylko, że historycy będą to oglądali od zewnątrz a ich metody będą beznamiętne. Tymczasem ja oglądałem to wszystko od środkaa mój stosunek do AI jest wysoce emocjonalny!
Druga zasada, jaka będzie przestrzegana, będzie polegała na unikaniu wymieniania nazwisk badaczy zaangażowanych w rozwój sztucznej inteligencji.Chodzi o to, żeby kogoś nie pominąć, bo pamięć bywa zawodna...
1982 • Sytuacja polityczna była taka, jak wszyscy wiedzą. Nastroje były minorowe. Miało to wpływ (negatywny) na rozwój nauki. • W AI najbardziej „modne” były zagadnienia rozpoznawania obrazów (ale w sensie „pattern recognition” a nie „image processing”) • Obowiązywała zasada, że algorytmy trzeba opisywać w sposób wysoce sformalizowany i starać się dowodzić ich własności w sposób analityczny
1983 • Dla podrażnienia super-podejrzliwej władzy utworzyliśmy na AGH organizację OFSIK • Inicjatorem OFSIKa był prof. Zbigniew Zwinogrodzki, który siedział długie lata na Syberii i na którym w związku z tym Stan Wojenny nie robił wrażenia • UB natychmiast zainteresował się OFSIKiem i zarząd OFSIKa (z mówiącym te słowa) został wezwany do złożenia zeznań
OFSIK Zeznaliśmy i zostało to oficjalnie zaprotokołowane: To była: Ogólnopolska Federacja Sztucznej Inteligencji z siedzibą w Krakowie Tak to Sztuczna Inteligencja trafiła do polityki...
1984 • Zaczęły pojawiać się pierwsze polskie praktyczne opracowania dotyczące automatycznego rozpoznawania mowy • Na AGH zbudowano pierwszą wersję wieloprocesorowego systemu CESARO (Cyfrowy Eksperymentalny System Analizy i Rozpoznawania Obrazów) analizującego obrazy z kamery TV przem.
1985 • Powstało kilka dobrych opracowań dotyczących komputerowego przetwarzania języka naturalnego (niestety głównie angielskiego, chociaż w Polsce) • System CESARO został sprzęgniętyz polskim robotem IRp6 i wykonywano badania nad zastosowaniami wizyjnego sprzężenia zwrotnego
1986 • Nastąpił pierwszy (wielokrotnie potem ponawiany) przypływ entuzjazmu dla metod wnioskowania opartych na teorii zbiorów rozmytych • Przyjęta została przez CKK pierwsza habilitacja, której głównym motywem były zagadnienia sztucznej inteligencji (automatyczne dowodzenie twierdzeń)
1987 • Rozwijający się rynek gier komputerowych stymulował prace badawcze związane z wykorzystaniem heurystycznych strategii do rozwiązywania różnych problemów • Zanotowano istotny postęp w obszarze komputerowej analizy języka naturalnego (polskiego)
1988 • Odkryta kilka lat wcześniej teoria zbiorów przybliżonych (Pawlaka) zaczęła zdobywać międzynarodowe uznanie • W AGH powstał pierwszy komputerowy symulator rodziny pszczelej oparty na podobnych koncepcjach, jak dzisiejsze automaty komórkowe i algorytmy mrowiskowe
1989 • Początek zainteresowania techniką sieci neuronowych • Powstaje kilka dobrych polskich systemów ekspertowych • Dzięki PROLOGowi obliczenia symboliczne stają się wygodniejsze i bardziej efektywne
1990 • Szybko narastające zainteresowanie ze strony praktyki systemami ekspertowymi prowadzi do powstania kilku nieudanych konstrukcji. Psuje to opinię AI i jest powodem sceptycznego nastawienia do jej możliwości • Następuje dalszy rozwój systemów inteligentnego przetwarzania sygnałów (głównie dla diagnostyki medycznej i technicznej)
1991 • Pojawiają się pierwsze polskie prace z zakresu inteligentnego rozpoznawania obrazów dla potrzeb policji (analiza odcisków palców) • Kilka polskich rozwiązań w zakresie algorytmów rozgrywających zyskuje międzynarodowe uznanie
1992 • Jak się wydaje jest to jedyny rok w ciągu całego ćwierćwiecza, w którym nic szczególnego w polskiej AI nie zaszło!
1993 • Ukazała się pierwsza polska książka na temat sieci neuronowych. Zainteresowanie było tak duże, że w tym samym roku trzeba było wydać drugie wydanie • Algorytmy uczące się (najczęściej oparte na technice drzew decyzyjnych) znajdują coraz więcej zastosowań
1994 • Pojawiają się kolejne książki i kolejne publikacje na temat sieci neuronowych • Powstaje Polskie Towarzystwo Sieci Neuronowych • Sieci neuronowe stają się najpopularniejszą techniką AI
1995 • Zaczyna funkcjonować działająca do dnia dzisiejszego instytucja corocznych konferencji poświęconych sztucznej inteligencji
1996 • Następuje duży wzrost zainteresowania możliwościami, jakie dają algorytmy genetyczne i ewolucyjne podejście do rozwiązywania problemów • Sieci neuronowe osiągają status dobrze znanej i godnej zaufania metodyki badawczej.
1997 • Technika sztucznej inteligencji zmierza do wypracowania metod hybrydowych: genetyczno-rozmytych, neuronowo-rozmytych, neuronowych z wykorzystaniem podejścia ewolucyjnego itp.
1998 • Popularne stają się prace związane z zastosowaniem technik sztucznej inteligencji w automatyce i robotyce. Szczególnie dużo ciekawych wyników uzyskuje się przy zastosowaniu podejścia rozmytego w sterowaniu różnych maszyn i urządzeń
1999 • Z obawy przed skutkami „pluskwy milenijnej” rozwijane są różne metody, które mają zlikwidować ten problem, przy czym termin „sztuczna inteligencja” jest używany (i nadużywany) jako wytrych. • Metody sztucznej inteligencji zaczynają z powodzeniem być wykorzystywane do ochrony przeciw-wirusowej
2000 • Coraz większe zainteresowanie metodami sztucznej inteligencji ze strony ekonomii – zwłaszcza sektora bankowego oraz inwestorów giełdowych • Kompleksowo zautomatyzowane centra produkcyjne coraz częściej zawierają komputer nadrzędny sterowany algorytmami sztucznej inteligencji
2001 • Liczne i ciekawe prace na temat wykorzystania sztucznej inteligencji w diagnostyce i eksploatacji maszyn. • Upowszechnia się i popularyzuje pojęcie „Business Intelligence” – często stosowane wprawdzie jedynie jako hasło marketingowe, ale wskazujące na kierunki rozwoju systemów dla zastosowań ekonomicznych
2002 • Szereg ciekawych wyników związanych z wykorzystaniem sztucznej inteligencji przy budowie sprzętu powszechnego użytku: nowej aparatury medycznej, artykułów gospodarstwa domowego, wyposażenia pojazdów itp.
2003 • Powstaje koncepcja sieci semantycznych opartych na metodach sztucznej inteligencji, mających na celu ułatwienie orientacji w narastających lawinowo zasobach informacji gromadzonej w Sieci. • Metody agentowe powodują wzrost zainteresowania sztuczną inteligencją w kontekście hasła „inteligentny agent”
2004 • W miejsce dotychczas używanego terminu „Sztuczna inteligencja” coraz częściej zaczyna się stosować termin soft computing • Zaproponowana zostaje technika automatycznego rozumienia (np. obrazów) jako uzupełnienie dla przetwarzania, analizy i rozpoznwania
2005 • Techniki sztucznej inteligencji w coraz szerszym zakresie angażowane są do semantycznie zorientowanego poszukiwania potrzebnych informacji w Internecie
2006 • W Poznaniu odbywa się zjazd PTI, na którym podsumowany zostaje dorobek AI w ciągu ostatniego ćwierćwiecza