در این پست می خواهیم یادگیری بیزین رو با هم بررسی کنیم.
ابتدا تعدادی نکته:
۱- استدلال بیزین روشی بر پایه آمار و احتمالات است
۲-اساس این روش بر این اصل استوار است که برای هر کمیتی یک توزیع احتمال وجود دارد که با مشاهده یک داده جدید و استدلال در مورد توزیع احتمال آن میتوان تصمیمات بهینه ای اتخاذ کرد.
——————————————————————————————–
چرا یادگیری بیزین:
۱-در برخی کاربردها )نظیر دسته بندی متن (استفاده از روشهای یادگیری بیزی )نظیر دسته بندی کننده بیزی ساده( توانسته است راه حلهای عملی مفیدی را ارائه کند. نشان داده شده است که کارائی این روش قابل مقایسه با درخت تصمیم و شبکه عصبی بوده است.
۲-مطالعه یادگیری بیزی به فهم سایر روشهای یادگیری که بطور مستقیم از احتمالات استفاده نمیکنند کمک میکند.
——————————————————————————————–
استفاده از یادگیری بیزن در یادگیری ماشین
۱-دانش موجود در باره موضوع را بصورت احتمالاتی فرموله میکنیم
برای اینکار مقادیر کیفی دانش را بصورت توزیع احتمال، فرضیات استقلال و غیره مدل مینمائیم. این مدل دارای پارامترهای ناشناخته ای خواهد بود.
برای هر یک از مقادیر ناشناخته، توزیع احتمال اولیه ای در نظر گرفته میشود که بازگو کننده باور ما به محتمل بودن هر یک ازاین مقادیر بدون دیدن داده است.
۲-داده را جمع آوری مینمائیم
۳-با مشاهده داده ها مقدار توزیع احتمال ثانویه را محاسبه میکنیم
با استفاده از این احتمال ثانویه:
به یک نتیجه گیری در مورد عدم قطعیت میرسیم
با میانگین گیری روی مقادیر احتمال ثانویه پیش بینی انجام میدهیم
برای کاهش خطای ثانویه مورد انتظار تصمیم گیری میکنیم
——————————————————————————————–
روش های یادگیری بیزین شامل
Optimal classifier
Naive Bayes learning
Bayesian belief network learning
تئوری بیز
در یادگیری ماشین معمولا در فضای فرضیه H بدنبال بهترین فرضیه ای هستیم که درمورد داده های آموزشی D صدق کند. یک راه تعیین بهترین فرضیه، این است که بدنبال محتمل ترین فرضیه ای باشیم که با داشتن داده های آموزشی D و احتمال قبلی در مورد فرضیه های مختلف میتوان انتظار داشت.
تعریف مفاهیم:
فرض کنید که فضای فرضیه H و مجموعه مثالهای آموزش D موجود باشند. مقادیر احتمال زیر را تعریف میکنیم:

(P(h احتمال اولیه ای که فرضیه h قبل از مشاهده مثال آموزشیD داشته است (prior probablity) .اگر چنین احتمالی موجود نباشد میتوان به تمامی فرضیه ها احتمال یکسانی نسبت داد.
=(P(D احتمال اولیه ای که داده آموزشی D مشاهده خواهد شد.
=P(D|h) احتمال مشاهده داده آموزشی D به فرض آنکه فرضیه h صادق باشد.