470 likes | 862 Views
یادگیری مبتنی بر نمونه. Instance Based Learning. مدرس: علی فروتن راد گروه مهندسی کامپیوتر دانشگاه آزاد اسلامی زنجان & Mitchell Ch. 8. با تشکر از دکتر سعید شیری و دکتر فریبز محمودی گروه مهندسی کامپیوتر و فناوری اطلاعات دانشگاه صنعتی امیرکبیر و دانشگاه آزاد قزوین. مقدمه.
E N D
یادگیریمبتنیبرنمونه Instance Based Learning مدرس: علی فروتن راد گروه مهندسی کامپیوتر دانشگاه آزاد اسلامی زنجان & Mitchell Ch. 8 با تشکر از دکتر سعید شیری و دکتر فریبز محمودی گروه مهندسی کامپیوتر و فناوری اطلاعات دانشگاه صنعتی امیرکبیر و دانشگاه آزاد قزوین
مقدمه • درروشهائیکهتاکنونبررسیکردیم،سعیبراینبودکهبااستفادهازمثالهایآموزشیتابعیپیداکنیمکهبتواند توصیفکننده دادههاباشد. • درروشیادگیری IBL بسادگیفقطمثالهاراذخیرهمیکنیموهرگونهتعمیمتامشاهدهمثالجدیدبهتعویقمیافتد. بههمیندلیلاینروشگاهیروشتنبلیاlazyهمنامیدهمیشود. • بامشاهدهمثالهایجدیدرابطهآنبانمونههایذخیرهشدهبررسیشدهویکمقداربرایتابعهدفآننسبتدادهمیشود. درروش IBL یکفرضیه عمومیمشخصبرایدادههابدستنخواهدآمدبلکهدستهبندی هرنمونهجدید هنگاممشاهدهآنوبراساسنزدیکترینمثالهایذخیرهشده،انجامخواهدشد.
Instance-based Learning Its very similar to a Desktop!!
یکتفاوتاساسی • روش IBL برایهرنمونهجدید،تقریبجداگانهایازتابعهدفراایجادمیکند. اینتقریبفقطبههمسایگینمونهجدید قابلاعمالبودهوهرگزنمیتواندبررویفضایتمامنمونههاعملکند. • کاربرداینروشهنگامیموثراستکهتابعهدفخیلیپیچیدهبودهولیدرعینحالقابلنمایشتوسطتوابعسادهترمحلیباشد.
مشخصهها • اینروشدارای 3 مشخصهاصلیاست: • تابعشباهت: مشخصمیکندکهدونمونهچقدرنزدیکبههمهستند.انتخاباینتابعمیتواندبسیارمشکلباشد. مثلاچگونهمیتوانشباهترنگموی 2 نفررابیاننمود؟ • انتخابنمونههابرایذخیره: دراینالگوریتمسعیمیشودنمونههائیذخیرهشوندکهعمومیترباشند. تشخیصاینکهآیایکنمونهعمومیتداردیاخیر،میتواندکارمشکلیباشد. • تابعدستهبندیکننده: تابعی است که بامشاهده یک مثال جدید دستهبندی آنرا تعیین میکند.
مشکلات • دستهبندی دادهجدیدمیتواندبسیارپرهزینهباشد.زیرادرمرحلهآموزشعملیصورتنمیپذیردوتمامیمحاسباتدرهنگامدستهبندی انجاممیگردند. • ازاین روبرایکاهشزماندستهبندی ازتکنیکهایایندکساستفادهمیشود. • دراغلبروشهایIBLبرایبازیابیمثالهایمشابهازحافظهازتمامیویژگیهایموجوداستفادهمیشود.بنابرایناگرتابعهدفواقعیفقطبهبرخیازویژگیهابستگیداشتهباشد،مثالهائیکهواقعامشابه هستندممکناستبسیارازیکدیگردورشوند.
مثالیازکاربردها Image Scene Classification برایهرتصویربااستفادهازمقادیرپیکسلهایآنیکsignatureمحاسبهشدهو ازآنبرایمقایسهتصویرورودیباتصاویرموجوددرپایگاه دادهاستفادهمیشود.
مثالیازکاربردها • image size: 82x100 pixels • each pixel is associated with 36(=(1+8)x4) features • 5NN is used for prediction • error rate is about 9.5% • 5NN performs best among LVQ, CART, NN, … .
روشهایمختلف • K-Nearest neighbor (k-NN) • Discrete Target Functions • Continuous Target Functions • Distance Weighted • Locally weighted regression • Radial basis function networks • Case-based reasoning • General Regression Neural Networks
K-Nearest Neighbor Learning (k-NN) • k-NNسادهترینومتداولترینروشمبتنیبر یادگیرینمونهاست. • دراینروشفرضمیشودکهتمامنمونههانقاطیدرفضایnبعدیحقیقی هستندوهمسایههابرمبنایفواصلاقلیدسیاستانداردتعیینمیشوند. • مراداز kتعدادهمسایههایدرنظرگرفتهشدهاست.
فاصلهاقلیدسی • اگریکمثالدلخواهرابه صورت یکبردارویژگینمایشدهیم: • فاصلهبیندومثالxiوxjبه صورت زیرتعریفمیشود:
الگوریتمk-NNبرایتابعهدفگسسته براییکتابعهدفگسستهبه صورت الگوریتمk-NNبه صورت زیراست: الگوریتمیادگیری • هرمثالآموزشی< x , f(x) >رابهلیستtraining_examplesاضافهکنید. الگوریتمدستهبندی : • براینمونهموردبررسی : xq • نزدیکتریننمونههائیاز training_examplesبهآنرابا x1… xkنمایشدهید. • مقدارزیررامحاسبهنمودهوبرگردانید.
- - + - · + Xq - + + - مثال • اگرk=1انتخابشودالگوریتم1-NNمقدارنزدیکتریننمونهبه xqراانتخابخواهدنمود. برایمقادیربزرگترkمتداولترینمقداربینk همسایه نزدیکانتخابخواهدشد. دراینمثالxqدرحالت1-NNمثبتوبرای 5-NNمنفیخواهدبود.
فضایفرضیه ماهیتفضایفرضیهضمنیدرنظرگرفتهشدهتوسطالگوریتمk-NNچیست؟ • اگرچهاینالگوریتمهرگزفرضیهعمومیمشخصیایجادنمیکند،بااینوجود ممکناستسطحتصمیمالقاشدهتوسطالگوریتمبراییکفضایدوبعدیرابه صورت ترکیبیازچندوجهیهانشاندادکههرچندوجهیمجموعهایازنقاطیراکهتوسطآندستهبندی خواهندشدرامشخصمینماید. • نقاطخارجچندوجهینقاطیخواهندبودکهتوسطسایرچندوجهیهادستهبندی خواهندشد. • ایننوعنمودار Voronoidiagramخواندهمیشود.
Voronoi diagram query point qf nearest neighbor qi
بایاساستقرا • بایاساستقراالگوریتمk-NNرامیتوانبه صورت زیردرنظرگرفت: دستهبندی یکنمونهمشابهدستهبندی نمونههایدیگریخواهدبودکهدرنزدیکیآنقراردارند.
الگوریتمk-NNبرایتابعهدفپیوسته • الگوریتمk-NNرامیتوانبه سادگیبرایتوابعهدفپیوسته نیزاستفادهنمود.دراینحالتبه جایانتخاب متداولترینمقدارموجوددرهمسایگیمقدارمیانگینkمثالهمسایهمحاسبهمیشود. • درنتیجهدرخطآخرالگوریتمازرابطهزیراستفادهمیشود:
k-NN برایتابعهدفپیوسته 1-nearest neighbor 3-nearest neighbor
one two three six five four Eight ? seven مثال
Training data Test instance
نرمالیزهکردندادههایآموزشی یکراهنرمالیزهکردندادهآموزشیar(x)بهa´r(x)عبارتاستاز
Normalised training data Test instance
Distances of test instance from training data Classification 1-NN Yes 3-NN Yes 5-NN No 7-NN No
Distance-weighted k-NN میتوانعملکرداینالگوریتمرابادرنظرگرفتنوزنیبرایهریکازkمثالهمسایگیبهترنمود.اینوزنبراساسفاصلهنمونههاتانمونهموردبررسیاعمالمیشودومعمولابافاصلهنمونههارابطعمعکوسدارد. • درحالتگسسته: • درحالتپیوسته: درصورتاعمالوزناینامکانوجودخواهدداشتکهبهجایkنمونههمسایهازتمامینمونههابرایدستهبندی استفادهکنیم.امااینانتخابباعثکندشدنعملدستهبندی خواهدشد.
نکاتیدرموردالگوریتمk-NN • الگوریتمDistance-weighted k-NNبطورموثریدرمسائلعملی مختلفیبرایاستنتاجاستقرائیبکاررفتهاست. • اینروشنسبتبهنویزمقاومبودهودرمواردیکهدادهآموزشیزیادیموجودباشدبسیارکاراست.
واژگان • :Regression عبارتاستازتقریبیکتابعبامقدارحقیقی. • :Residual عبارتاستازمقدارخطایحاصلازتقریبتابع. • :KernelFunction عبارتاستازتابعیکهبااستفادهازفاصله،مقداروزنهایمثالهایآموزشیرامعینمیکند.
توابع Kernel • معمولابافاصلهرابطهمعکوسدارندتا نقاطنزدیکتروزنبیشتریبگیرند. • K(d(xi,xq)) • 1/d2 • e-d • 1/(1+d)
توابع Kernel K(d(xq,xi)) = exp(-(d(xq,xi)/0)2) K(d(xq,xi)) = 1/ d(xq,xi)2 K(d(xq,xi)) = 1/(d0+d(xq,xi))2
The curse of dimensionality • ازآنجائیکهبرایمحاسبهفاصلهازتمامیویژگیهااستفادهمیشوداینامکانوجودداردکهحتیویژگیهاینامرتبطدرامردستهبندی مورداستفادهقرارگیرند. اینامربرخلافروشهائیمثلدرختتصمیماستکهدرآنسعیمیشدتافقطازویژگیهایمرتبطاستفادهشود. • برایمثالفرضکنیدکههرنمونهبا20ویژگیمشخصشوندکهازمیانآنانفقط2ویژگیبرایدستهبندی کافیباشنددراینصورتممکناستنمونههایذخیرهشدهایکهدراین دوویژگیمشابههستندبسیارازهمفاصلهداشتهباشند.در این صورت معیارفاصلهمورداستفادهدرk-NNمیتواندبسیارگمراهکننده باشد. • اینمسئله curseofdimensionality نامیدهمیشود.
Cross-validation • یکراهحلاینمشکلاستفادهازوزنبیشتر برایویژگیهایمرتبطاست.اینامرمشابهتغییرمقیاسمحورهاست:محورویژگیهاینامرتبط کوتاهترومحورویژگیهایمرتبططولانیترمیشوند. • برایتعیینوزنویژگیهامیتوانازروشcross-validationاستفادهنمود: • مجموعهایازدادههابهعنواندادههایآموزشیانتخابمیشوند. • مقادیرz1,…,znبعنوانضرایبیکهبایددرهرمحورضربشوندانتخابمیگردند.اینانتخاببه نحویاستکهخطایدستهبندی در باقیماندهمثالها کاهشیابد. • میتوانباقراردادنzj=0اثریکویژگیرابکلیحذفنمود.
Indexing • ازآنجائیکهدرروشK-NN دستهبندی مثالهاتازمانبرخوردباآنمثالبهتعویقمیافتداستفادهازIndexingبرایمرتبکردن مثالهایآموزشیمیتواند بطورچشمگیریکارائیالگوریتم راافزایشدهد. • روش kd-treeیکروشبرایایندکسکردناستکهدرآننمونههادرسطح یکدرختذخیرهشدهو نمونههاینزدیکبههمدرهمانگرهویاگرههاینزدیکبههمذخیرهمیشوند.
Locally Weighted Regression • الگوریتمLWRتعمیمیبرالگوریتمK-NNاستکهتقریبصریحیازتابعf حولناحیهمحلیدربرگیرندهنمونهموردبررسیxqبدستمیدهد. • اینتقریبمحلیبااستفادهازمثالهاینزدیکهمویامثالهایdistanceweighted انجاممیشود. • اینتابعتقریبمحلیممکناستیکتابعخطی،درجهدوویایکشبکهعصبیباشد. دلیلنامگذاری: • :local ازمثالهاینزدیکنمونهموردبررسیاستفادهمیکند. • :Weighted اثرهرمثالآموزشیبادر نظرگرفتنفاصلهآنمنظورمیشود. • :Regression برایتقریبیکتابعبامقدارحقیقیبکارمیرود.
f1 (simple regression) Locally-weighted regression f2 Locally-weighted regression f3 Locally-weighted regression f4 Training data Predicted value using simple regression Predicted value using locally weighted (piece-wise) regression
Locally Weighted Linear Regression • اینروشازیکتابعخطیبرایتقریبتابعهدفدرنزدیکیمثالموردبررسیاستفادهمیکند: • اینتابعمشابهتابعمورداستفادهدرفصل4برایمحاسبهوزنهاییکشبکهعصبیاست کهدرآن وزنها طوریانتخابمیشدندکهمقدارخطایزیرحداقلگردد: • کهبرایاینکارازقانونآموزشgradient descentاستفادهمیشد.
رابطهمحلی؟ • قانوندلتایکرویهتقریبکلیاستدرحالیکهدرروشnearestneighbor بهدنبالیکرابطهبرایتقریبمحلیهستیم. • سوال:چگونهمیتوانبااستفادهازرابطهکلیقانوندلتا رابطهمحلیموردنظررابدستآوریم؟
استفادهازخطایمحلی • بهنظرمیرسدکهسادهترینراه، تعریفمجددرابطهخطاستبه نحویکهبامثالهایمحلیآموزشیتطبیقنماید. • اینکاررابهسهروشمیتوانانجامداد: -1 استفادهازkمثالهمسایگی -2 استفادهازتمامیمثالهاباتخصیصیکمقداروزنیبهآنها -3 ترکیبیازروشهای 1 و2
قانونتغییروزنها • درانتخابهایفوق: • E1فاصلهرادرنظرنمیگیرد. • E2جالبترازهمهبودهامامحاسبهآنپرهزینهاست. • E3یکانتخاببینابیناست. • باانتخابE3میتوان قانوندلتارابراییادگیریوزنهابه صورتزیرنوشت:
انتخابمقدارk • اگرkخیلیکوچکباشد،نسبتبهنویزحساسخواهدبود. • اگرkخیلیبزرگباشدممکناستیکهمسایگینقاطیازسایرکلاسهارانیزدربرگیرد.
ویژگیهای یادگیری مبتنی بر نمونه • مزایا: • میتواندتوابعپیچیدهرامدلکند. • اطلاعاتموجوددرمثالهایآموزشیازبیننمیرود. • میتواندازنمایشسمبلیکنمونههااستفادهکند. (CBR) • معایب: • بازده الگوریتمهنگامانجامدستهبندی کماست. • تعیینیکتابعفاصلهمناسبمشکلاست. • ویژگیهاینامرتبطتاثیرمنفیدرمعیارفاصلهدارند. • ممکناستبهحافظهبسیارزیادینیازداشتهباشد.