b و wدو پارامتر تنظیم شونده در نورون ها طی روال آموزش می باشند. استفاده از بایاس در شبکه دلخواه است اما وجودش باعث انسجام شبکه می شود. ]27[
توابع انتقال در جواب شبکه تأثیر گذار است این توابع به صورت های خطی و غیر خطی موجود است که بسته به شرایط مسئله از آن استفاده می شود. در زیر برخی از این توابع رایج به کمک نمودار در شکل(3-2) نشان داده شده است: ]27[

شکل(3-2): توابع انتقال رایج در شبکه های عصبی ]27[
(3-2)
(3-3)
(3-4)
نورون می تواند تک ورودی باشد و یا مانند شکل(3-3) تعداد زیادی داده به عنوان ورودی به نورون وارد شود. نحوه ورود داده ها به نورون به روش آموزش[46] بستگی دارد که داده ها به صورت دسته ای[47] یا گام به گام[48] وارد شوند. در شیوه آموزش گام به گام، وزن ها و بایاس ها بعد از اعمال هر ورودی به شبکه به روز می شوند. در حالی که در شیوه آموزش دسته ای وزن ها و بایاس ها فقط بعد از اعمال تمام ورودی ها به شبکه یک بار بروز می شوند. ]27[
برای بردار ورودی p با عناصر ، بردار وزن های w با عناصر وجود خواهد داشت که مقدار n به صورت زیر محاسبه می شود: ]27[
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت nefo.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

(3-5)

شکل(3-3): مدل نورون با یک بردار به عنوان ورودی ]27[
یک یا چند نورون در کنار هم یک لایه از شبکه را نشان می دهندکه یک شبکه می تواند از چند لایه تشکیل شده باشد. در شکل زیر یک شبکه با R ورودی و S نورون نشان داده شده است. ]27[

شکل(3-4): شبکه تک لایه با R ورودی و S نورون ]27[
3-7 شبکه های عصبی چند لایه
با توجه به اینکه معمولاً نورونی با ورودی های زیاد نیز برای حل مسائل فنی و مهندسی کافی نیست، نیاز به اجتماع چندین نورون در یک لایه خواهیم داشت. همچنین می توانیم از اجتماع نورون ها در لایه های مختلف در جهت بازدهی بهتر شبکه استفاده کنیم و با داشتن تعداد مشخصی ورودی، شبکه چند لایه خواهیم داشت. به لایه ای که داده ها به شبکه وارد می شوند لایه ورودی، به لایه ای که داده های هدف از آن گرفته می شود لایه خروجی گویند و سایر لایه ها، لایه میانی (مخفی[49]) هستند. هر لایه در شبکه دارای ماتریس وزن ها، بردار های بایاس و خروجی مختص به خود می باشد. با تغییر در تعداد لایه ها ونیز تعداد نورون ها در هر لایه می توان قابلیت شبکه را بهینه نمود. نمونه ای از یک شبکه چند لایه در شکل(3-5)نشان داده شده است. ]27[

شکل(3-5): شبکه عصبی چند لایه ]27[
شبکه های چند لایه بسیار قدرتمند هستند. به عنوان مثال یک شبکه دولایه با لایه اول سیگموئید و لایه دوم خطی می تواند هر تابع دلخواهی را با تعداد محدود نقاط پیوستگی تخمین بزند. این نوع شبکه به صورت وسیع در شبکه هایی با الگوریتم پس انتشار خطا به کار گرفته می شود. ]27[
3-8 تقسیم بندی شبکه های عصبی
آموزش شبکه های عصبی می تواند به دو صورت شبکه های پیشخور[50] و شبکه های پسخور[51] صورت گیرد. ]27[
3-9شبکه های عصبی چند لایه پیشخور[52]
شبکه های عصبی چند لایه پیشخور مبتنی بر الگوریتم آموزش پس انتشار خطا[53] می باشد، که از آنها با عنوان شبکه های پرسپترون چند لایه[54] (MLP) نیز نام برده می شود. از بردار ورودی و هدف در راستای آموزش این نوع شبکه برای تقریب زدن یک تابع، یافتن رابطه بین ورودی و خروجی و دسته بندی ورودی ها استفاده می شود. این شبکه ها اغلب دارای یک یا چند لایه مخفی از نورون های سیگموئید و یک لایه خروجی خطی هستند. وجود چند لایه از نورون ها با تابع انتقال غیر خطی به شبکه این اجازه را می دهد که توانایی یادگیری رابطه خطی و غیر خطی را بین ورودی ها و خروجی ها داشته باشد. لایه خروجی خطی به شبکه این امکان را می دهد که خروجی خارج از محدوده ی 1و1- داشته باشد. در شبکه های عصبی چند لایه، تابع فعال سازی و نیز تعداد نرون لایه میانی از اهمیت ویژه ای برخوردار است، زیرا لایه های ورودی و خروجی، عملیات توزیع و جمع آوری سیگنال ها را به عهده دارند و عملیات پردازش داده ها توسط لایه میانی صورت می گیرد. ] 27و35و36[
برای تعیین تعداد بهینه نرون در لایه میانی و تعداد لایه ها قانون خاصی وجو ندارد. باید نرون های مختلف در شبکه تست شود و نتایج شبکه را مقایسه کرده و به یک مقدار بهینه رسید.
شکل(3-6): شبکه عصبی چند لایه پیشخور(پرسپترون چند لایه) ]27[
همان طور که در شکل (3-6) نشان داده شده، در این نوع شبکه ها هر نورون در هر لایه به تمام نورون ها در لایه بعد و قبل متصل می شود، از این رو به این شبکه ها کاملاً مرتبط[55] نیز گفته می شود. ]27[
خروجی نورون j از لایه پنهان h به صورت زیر محاسبه می شود:
(3-6)
که در این رابطه نشان دهنده ی بردار ورودی های شبکه، بایاس نرون j و وزن اتصال بین نرون i وj از لایه ی پنهان h است.
3-10 قانون پس انتشار خطا
قانون پس انتشار خطا (BP)، با تعمیم قانون آموزشی ویدرو و هوف برای شبکه های چند لایه و توابع انتقال غیر خطی و قابل تشخیص به وجود آمد. بردار های ورودی و بردار های خروجی متناظر با آنها برای آموزش شبکه مورد استفاده قرار می گیرند تا جایی که رابطه ای بین بردار های ورودی و خروجی متناظر آنها به وجود آید و یا داده ها به روشی که ما می خواهیم دسته بندی شوند. ]27[
قانون پس انتشار خطا از دو مسیر اصلی رفت و برگشت تشکیل می شود. در مسیر رفت، بردار ورودی به شبکه اعمال می شود و تأثیراتش از طریق لایه های میانی به لایه های خروجی انتشار می یابد. بردار تشکیل شده در لایه خروجی، پاسخ واقعی شبکه را تشکیل می دهد. در این مسیر پارامتر های شبکه به صورت ثابت و بدون تغییر در نظر گرفته می شود. در مسیر برگشت پارامتر های شبکه تغییر و تنظیم می گردند. این تنظیم مطابق با قانون اصلاح خطا صورت می گیرد. سیگنال خطا در لایه خروجی شبکه تشکیل می گردد. و این چرخه[56] بار ها تکرار می شود تا میانگین مربعات خطا از یک مقدار از پیش تعیین شده ای کمتر باشد و یامیزان تغییرات پارامترهای شبکه خیلی کم باشد در این صورت چرخه متوقف می شود. ]36و37[
شبکه پس انتشار برخلاف برخی از شبکه های دیگر، نمی تواند هر تابعی را به عنوان تابع فعال سازی بپذیرد. این تابع باید پیوسته، مشتق پذیر و به صورت یکنوا نزولی باشد. علاوه بر این، برای داشتن کارایی محاسباتی، مشتق این تابع باید به راحتی قابل محاسبه باشد. همچنین انتظار می رود که تابع فعال سازی قابلیت اشباع داشته باشد، یعنی به صورت مجانبی به مقادیر بیشینه و کمینه خود نزدیک شود.
برای آموزش شبکه های عصبی به روش پس انتشار خطا الگوریتم های مختلفی از جمله الگوریتم گرادیان مزدوج[57]، الگوریتم گوس- نیوتن[58] و الگوریتم لونبرگ مارکوارت[59] و… وجود دارند که مهم ترین و پر کاربرد ترین آنها الگوریتم لونبرگ مارکوارت است. ]36و37[
3-11 الگوریتم آموزشی لونبرگ مارکوارت(trainlm)
الگوریتم لونبرگ مارکوارت به عنوان سریع ترین روش در آموزش شبکه های پیشخور با تعداد داده های محدود شناخته شده است. در این روش هم از مشتق اول (گرادیان ) وهم مشتق دوم موسوم به هسین برای اصلاح پارامترها استفاده می شود. یک حسن این روش این است که درآن نیازی به تعیین نرخ یادگیری از ابتدا نمی باشد و الگوریتم قادر است نرخ یادگیری را به صورت تطبیقی تغییر دهد.]27و37[
3-12 بررسی عملکرد شبکه های عصبی
برای طراحی و ارزیابی شبکه های عصبی مصنوعی ازضریب تبیین[60] ، میانگین مربعات خطا[61]، درصد میانگین قدر مطلق خطای نسبی[62] و مجذور میانگین مربعات خطا[63] استفاده می شود که معادله ی آن ها به صورت زیر به ترتیب بیان شده است. ]29[
(3-6)
(3-7)
(3-8)
(3-9)
مقدار پیش بینی شده با شبکه، مقدار واقعی و میانگین داده ها در نورون i و همچنین N تعداد داده ها است. هدف شبکه عصبی، کمینه شدن MSE ، P ، RMSE و بیشینه شدن (نزدیک به1) ضریب تبیین است.
فصل چهارم

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...