شاید پرسپترون ها گسترده ترین تاثیر را بین شبکه های عصبی اولیه داشتند.قانون یادگیری پرسپترون از قانون Hepp قوی تر است . می توان شیوه یادگیری مکرر آن را برای نزدیکتر شدن وزن های صحیح اثبات کرد .

وزن هایی که به شبکه این امکان را می دهند که ارزش خروجی صحیح را برای هر کدام از الگوهای آموزشی(Training) ایجاد کند. یکی از فرضیات لازم این است که چنین وزن های وجود دارد .

پرسپترون دارای انواع مختلفی می باشند مانند , Minsky(1969) , Rosenblatt(1962) Papert(1988) .با اینکه بعضی از پرسپترون ها خود پرداز هستند اکثر آنها آموزش می بینند.

پرسپترون اصلی سه لایه نرون داشتند ، واحد حس ،واحد های وابسته و واحد واکنش )خروجی)

چیزی شبیه یک مدل تقریبی چشم .

یک پرسپترون ساده از فعال سازهای(ورودی ها) دودویی برای واحدهای وابسته و حسی استفاده می کند و یک فعال ساز ۱-یا۰،۱+ برای واحد خروجی .

واحد حسی توسط اتصالات با اوزان ثابت به واحد های وابسته مرتبط می شوند. ارزش این اوزان   ۱-یا۰،۱+ می باشد . که به طور تصادفی تعیین می گردد. عملگر فعال سازی برای هر واحد وابسته یک عملگر دودویی با یک حد آستانه اختیاری اما ثابت .

بنابر این سیگنالی که از واحد وابسته به واحد خروجی فرستاده می شود یک سیگنال دودویی (۱و۰) می باشد.

خروجی پرسپترون y=f(y-in) می باشد.در حالی که عملکرد تابع فعال ساز اینگونه می باشد.

                              

وزن ها از واحد های وابسته به واحد های واکنش (خروجی ) توسط قانون یادگیری پرسپترون تنظیم می شوند. برای هر ورودی آموزشی ،شبکه پاسخ واحد خروجی را محاسبه می کند . سپس شبکه مشخص می کند آیا خطایی برای این الگو رخ داده است که این کار با مقایسه خروجی محاسبه شده با مقدار هدف (target) انجام می دهد.

اگر خطایی برای یک الگوی ورودی آموزشی خاص رخ دهد ،وزن ها طبق این فرمول تغییر می کنند.

Wi(new)=wi(old)+α t x

در حالی که ارزش هدف( target) 1+یا ۱- است و α میزان یادگیری است ،اگر خطایی رخ     نمی داد ،وزن ها تغییر نمی کردند.

آموزش تا زمانی که هیچ خطایی رخ نمی داد ادامه پیدا می کند .