دانلود پاورپوینت رشته کامپیوتر

خواص یادگیری بر پایه نمونه و بیان مثالهای کاربردی

 
 
مقدمه:
در IBL بر خلاف دیگر الگوریتمهای یادگیری افزایشی، به جای استفاده از بخشهای از قبل کامپایل شده در طول فاز پیش بینی از یک سری نمونه های مشخص استفاده می شود. و از آنجائی که این الگوریتمها از توابع شباهت برای رده بندی میان نمونه ها استفاده می کنند، قادر به تشریح مفاهیم احتمالی نیز می باشند. در واقع، روشهای IBL دقیقا همه داده دریافتی شان را به خاطر می آورند. در واقع، معمولا هیچ گونه فاز آموزشی نداشته و تنها در زمان پیش گویی و تصمیم گیری دارای محاسبات می باشند. سپس، با گرفتن یک گزارش در پایگاه داده به دنبال نمونه های مشابه گشته و یک مدل محلی online برای محاسبه مقدار خروجی ایجاد می کند.
 
الگوریتمهای IBL از دسته بندی کننده الگوی NN(Nearest Neighbor) گرفته شده اند، که در عین حال به ذخیره و استفاده از نمونه های منتخب برای پیش بینی دسته بندی می پردازد.الگوریتمهای تغییر یافته NN غیر افزایشی بوده و هدف اولیه شان، حفظ سازگاری کامل با مجموعه آموزشی اولیه می باشد، اگرچه داده را خلاصه می کنند ولی برای حداکثر کردن دقت دسته بندی در مورد نمونه های جدید نیز تلاشی انجام نمی دهند. در واقع به مساله نویز توجهی ندارند. در مقابل، الگوریتمهای IBL ، افزایش بوده و حداکثر ساختن دقت دسته بندی را نیز دز نظر می گیرند.
سیستمهای CBR برای حل برخی از مشکلات این سیستمها ارائه شده اند. این سیستمها مشابه IBL ها هستند، با این تفاوت که حالات را تغییر داده و در طی حل مساله از بخشهایی از یک حالت نیز استفاده می کنند. در واقع IBL ، الگوریتم متمرکز شده CBR است که به انتخاب حالات مناسب برای دسته بندی، کاهش فضای ذخیره سازی، متعادل کردن نویز و یادگیری ارتباط ویژگیها کمک می کند.
 
 
 
کلمات کلیدی:

یادگیری بر پایه نمونه

دسته بندی کننده الگوی NN

الگوریتمهای یادگیری افزایشی

خواص سیستم های یادگیری بر پایه  نمونه

 
 
فهرست مطالب
یادگیری بر پایه نمونه
Instance-based Learning
مشکلات
روشهای مختلف
K-Nearest Neighbor (KNN)
Discrete Target Functions
Continuous Target Functions
Distance Weighted
Locally Weighted Regression
Radial Basis Function Networks 
Case-Based Reasoning
General Regression Neural Networks
K-Nearest Neighbor Learning (k-NN)

الگوریتم k-NN برای تابع هدف گسسته

k-NN برای تابع هدف پیوسته

Training data
نرمالیزه کردن داده های آموزشی
Normalised training data
Distances of test instance from training data
Distance-weighted k-NN

نکاتی در مورد الگوریتم k-NN 

الگوریتم Distance-weighted k-NN بطور 
The curse of dimensionality
Cross-validation
Indexing

ویژگیهای یادگیری نمونه

مزایا:
میتواند توابع پیچیده را مدل کند
اطلاعات موجود در مثالهای آموزشی از بین نمیرود
میتواند از نمایش سمبلیک نمونه ها استفاده کند
معایب:
بازده  الگوریتم هنگام انجام دسته بندی کم است
تعیین یک تابع فاصله مناسب مشکل است
ویژگیهای نامرتبط تاثیر منفی در معیار فاصله دارند
ممکن است به حافظه بسیار زیادی نیاز داشته باشد
 

توابع Kernel 

Locally Weighted Regression
Locally Weighted Linear Regression
Radial Basis Functions
روشی برای تقریب توابع است.
یادگیری با RBF ارتباط نزدیکی با شبکه های عصبی مصنوعی و Distance-weighted regression  دارد.
Radial Basis Functions
آموزش RBF 
نحوه انتخاب تعداد  واحدهای مخفی
نحوه انتخاب تعداد  واحدهای مخفی
ویژگی های شبکه RBF 
Case Based Reasoning

سه خاصیت اصلی سیستم های یادگیری بر پایه  نمونه:

مسائلی را که به شیوه CBR حل میکنیم
پزشکی: 
حقوق:
بنگاه مسکن: 
اجزا سیستم CBR 
Case-base
Retrieval of relevant cases
Adaptation of solution
مثالی از :CBR تعیین نرخ مسکن
انطباق
Adaptation
یادگیری
مثالی از  CADET  : CBR 
سیستم CADET  از CBR  برای طراحی مفهومی ابزارهای مکانیکی ساده مثل شیر آب استفاده میکند.
یک مسئله طراحی جدید:
مثالی از  CADET  : CBR
مشکلات