خروجی در این پرسپترون ساده یک بردار دودویی می باشد .آن بردار به عنوان سیگنال ورودی به واحد خروجی در بخشهای که در ادامه وجود دارند تلقی می شود .

از آنجایی که فقط امکان تنظیم وزنها از واحد های مرتبط به واحدهای خروجی وجود دارد ما بررسی خود را به بخش تک لایه شبکه که در شکل زیر نشان داده شده است محدود می کنیم.

بنابر این واحد های مرتبط همانند واحدهای ورودی عمل می کنند . هدف این شبکه طبقه بندی هر

الگوی ورودی می باشد که آیا به طبقه خاص تعلق دارد یا نه.

 

پاسخ ۱+ واحد خروجی دلالت بر تعلق داشتن دارد و پاسخ ۱- دلالت بر عدم تعلق دارد .

این شبکه آموزش داده می شود تا این طبقه بندی را به وسیله روش مکرر اجراء کند.

الگوریتم:

 

الگوریتم ارائه شده برای بردارهای ورودی دو قطبی و هم دودویی مناسب است .با یک هدف         ( target) دوقطبی ،Ө ثابت و bias قابل تغییر .درابتدا Ө همانند عملگر گامی (قدم به قدم) عمل نمی کند. بنابراین هم یک bias وهم حد آستانه لازم است .در مورد نقش حد آستانه در ادامه بحث خواهد شد. این الگوریتم به طور خاص در برابر ارزش های اولیه اوزان یا میزان سرعت یادگیری حساس نمی باشد                           .

گام صفر: معرفی وزن ها و bias .

برای سهولت کار ابتدا وزن ها و bias را صفر کنید و سپس خطای یادگیری را در بازه ۱≤α≥ ۰ قرار دهید (معمولل برای سهولت کار α را می توان یک در نظر گرفت).

گام اول: اگر وضعیت توقف false بود گامهای ۲ تا ۶ را تکرار کن.

گام دوم: برای هر جفت یادگیری گام های ۳ تا ۵ را تکرار کن .

گام سوم: ورودی های واحد ورودی را وارد کن.

گام چهارم: خروجی را محسبه کنید.

Y_in = b+∑xi wi

۱       if         y_in >Ө

y =       ۰       if – Ө ≤ y_in ≤ Ө

-۱         if       y_in <- Ө

گام پنجم : اگر خطا در این الگو بوجود آمد وزن ها و bias را تغییر دهید.

If   y ≠ t (target)

Wi(new) = Wi(old)+ α t Xi ;

b (new)= b(old)+ α t ;

else

Wi(new)=Wi(old) ;

b(new)= b(old) ;

گام ششم : وضعیت توقف را تست کنید.(اگر وزنی در گام دوم تغییر نکرده است توقف نموده وگرنه ادامه بدهید).

 

توجه داشته باشید که فقط وزن های که واحد های ورودی فعال را مرتبط می کند(xi≠۰ (به روز می شوند.

همچنین ،وزن ها فقط برای الگو های که ارزش صحیح y را ایجادنمی کنند ،به روز می شود.

این به این معنی است که هر چه الگوهای آموزشی بیشتر جواب صحیح ایجاد کند یادگیری کمتر رخ می دهد.این با آموزش Adeline  که در آن یادگیری بر اساس تفاوت میانy-in وt  است مغایرت دارد.در ابتدا عملگر فعال ساز برای واحد خروجی یک ارزش ثابت و نامنفی Ө است.

ما همواره به برداری نیاز داریم که دو ناحیه مثبت و منفی را از هم جدا کند .چنانچه این بردار رسم شود شبکه ما آموزش دیده است.

توجه داشته باشید که به جای یک خط جدا کننده ،ما یک خط داریم قسمت واکنش مثبت را از بخش

واکنش صفر جدا می کند .

W1x1 + w2x2 + b>Ө

و یک خط بخش واکنش صفر را از بخش واکنش منفی جدا می کند.

W1x1 + w2x2 + b<-Ө

کاربرد

عملکردهای منطقی

بیایید عملکرد منطقی AND را ب اورودی های دودویی و target دو قطبی در نظر بگیریم.

این مثال را با توجه به قانون یادگیری پرسپترون و اطلاعات بالا در نظر بگیرید.

یک شبکه تک لایه برای حل این مسئله کافی می باشد.برای سادگی α =۱ ،وزن ها و bias را نیز برابر صفر می گیریم.ونیز برای توضیح نقش آستانه Ө=.۲ مشخص می کنیم.تغییر وزن ها را زمانی انجام می دهیم که خطایی رخ دهد یا خروجی صفر باشد.

با ارائه اولین ورودی داریم:

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۱       ۱       ۱ ۱ ۰ ۰ ۱       ۱         ۱

 

معادله خطوط جدا کننده این قسمت بصورت زیر است:

X1+x2+1=.2                 X1+x2+1=-.2

شکل نمودار آن به صورت زیر است :

 

حال با ارائه دومین ورودی بصورت زیر است:

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۰       ۱       ۰ ۱ ۲ ۱       ۰         ۱

 

معادله خطوط جدا کننده این قسمت بصورت زیر است:

X2=.2                       x2=-.2

شکل نمودار آن به صورت زیر است :

 

حاصل سومین ارائه به شرح زیر است :

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۰       ۰       -۱ ۱ ۱ ۰       ۱         ۱

 

تا زمانی که اجزای الگوی ورودی نامنفی و اجزای بردار وزن نامثبت باشند جواب شبکه منفی یا که صفر است.

برای تکمیل اولین دوره یادگیری ،چهارمین الگوی ورودی زیر ارائه می شود.

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۰       ۰       -۱ ۰       ۰         ۱

 

نتیجه تمام الگو های ورودی فوق که از وزن های فوق نشات می گیرد منفی است ،اما تا زمانی که جواب الگوی (۱و۱) صحیح نیست کار ما به پایان نرسید ه است.نتیجه دومین دوره یادگیری برای اولین الگوی ورودی که تغییر وزن های زیر را به همراه دارد به شرح زیر است :

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۱       ۱       ۰ ۱ ۱       ۱        ۱

معادله خطوط جدا کننده آن بصورت زیر است :

X1+x2= .2                     x1+x2=-.2

شکل نمودار آن به صورت زیر است :

 

 

دومین ورودی در دومین دوره :

WEIGHTS TARGET OUT NET INPUT
w1     w2    b       x1     x2       b
۰       ۱       -۱ ۱ ۱ ۱       ۰         ۱

و معادله خطوط جدا کننده این مرحله به شرح زیر است :

X2-1=.2                       x2-1=-.2

نمودار گراف آن به صورت زیر است :

 

حاصل سومین ورودی دوره دوم یادگیری به شرح زیر است :

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۰       ۰       -۲ ۰ ۰       ۱         ۱

دوباره مشاهده می شود که نتیجه برای تمام ورودی های داده شده منفی می باشد.

 

برای تکمیل دومین دوره یادگیری چهارمین الگوی یادگیری را به قرار زیر شرح می دهیم :

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۰       ۰       -۲ ۰       ۰         ۱

در ادامه نتیجه دوره سوم به شرح زیر است :

 

WEIGHTS TARGET OUT NET INPUT
w1    w2       b       x1     x2       b
۱       ۱       -۱ ۱ ۱       ۱         ۱
۰         ۱       -۲ ۰ ۰ ۱       ۰       ۱
۰         ۱       -۲ ۰       ۱       ۱
۰         ۱     -۲ ۰       ۰       ۱

نتیجه دوره چهارم :

 

WEIGHTS TARGET OUT NET INPUT
w1     w2       b       x1     x2       b
۱       ۲       -۱ ۱ ۱       ۱         ۱
۰         ۲       -۲ ۰ ۰ ۱       ۰         ۱
۰         ۱       -۳ ۰ ۰ ۰       ۱       ۱
۰         ۱       -۳ ۰       ۰       ۱

دوره پنجم :

WEIGHTS TARGET OUT NET INPUT
w1       w2     b       x1       x2     b
۱         ۲     -۲ ۱ ۱       ۱       ۱
۱         ۲     -۲ ۱       ۰       ۱
۱           ۱     -۳ ۰ ۰ ۰         ۱     ۱
۱           ۱     -۳ ۰         ۰     ۱

دوره ششم :

WEIGHTS TARGET OUT NET INPUT
w1       w2     b       x1       x2     b
۲         ۲     -۲ ۱ ۱         ۱       ۱
۱         ۲     -۳ ۰ ۰ ۱         ۰       ۱
۱           ۲     -۳ ۰         ۱       ۱
۱           ۲     -۳ ۰         ۰       ۱

دوره هفتم :

WEIGHTS TARGET OUT NET INPUT
w1       w2     b       x1       x2     b
۲         ۳     -۳ ۱ ۰ ۰ ۱         ۱       ۱
۱           ۳   -۳ ۰ ۰ ۱         ۰       ۱
۱           ۲   -۴ ۰ ۰ ۰         ۱       ۱
۱           ۲   -۴ ۰         ۰       ۱

 

 

دوره هشتم :

WEIGHTS TARGET OUT NET INPUT
w1     w2     b       x1     x2     b
۲       ۳     -۳ ۱ ۱       ۱       ۱
۲         ۳   -۳ ۱       ۰       ۱
۲         ۲   -۴ ۰ ۰ ۰       ۱       ۱
۲         ۲   -۴ ۰       ۰       ۱

دوره نهم :

WEIGHTS TARGET OUT NET INPUT
w1     w2     b       x1     x2     b
۳       ۳     -۳ ۱ ۰ ۰ ۱       ۱       ۱
۲         ۳   -۴ ۰ ۰ ۱       ۰       ۱
۲         ۳   -۴ ۰       ۱       ۱
۲         ۳   -۴ ۰       ۰       ۱

دوره دهم :

WEIGHTS TARGET OUT NET INPUT
w1     w2     b       x1     x2     b
۲       ۳     -۴ ۱ ۱ ۱ ۱       ۱       ۱
۲       ۳     -۴ ۱       ۰       ۱
۲       ۳     -۴ ۰       ۱       ۱
۲       ۳     -۴ ۰       ۰       ۱

بدین گونه پاسخ مثبت با نقاط معادله زیر معین می شود .

۲ x1 + 3 x2 – 4> .2

خط مرز نیز به قرار زیر است :

X2 = -2/3 x1 = 7/5

بدین گونه پاسخ منفی با نقاط معادله زیر مشخص می شود :

۲ x1 + 3 x2 – ۴ < -.2

خط مرز نیز به قرار زیر است :

X2 = – 2/3 x1 = 19/15

با رسم این خطوط در بردار فضا به دو قسمت صحیح تقسیم شده و در واقع شبکه ما آموزش

می بیند.

این گراف آخرین مرز تصمیم برای تابع AND در قاعده پرسپترون است.