برخورد با موانع زمانی رخ می­دهد که فاصله ربات تا موانع از آستانه­ای کمتر شود. در شبیه‌سازی­ها این آستانه ۱۰ میلیمتر در نظر گرفته شده است. نسبت کل تعداد برخوردها در یک آزمایش به تعداد کل گام­های طی شده به عنوان معیاری برای امنیت عملکرد ربات در نظر گرفته می­ شود، که به صورت درصد بیان می­ شود.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

سرعت مسیر طی شده تا هدف (SP)
تعداد گام­های لازم برای رسیدن به هدف نسبت به مدت زمان طی شده، که به صورت درصد بیان می­ شود، به عنوان معیار کمی سنجش سرعت مسیر طی شده تا هدف در نظر گرفته شده است. این معیار مبین این است که به طور متوسط برای هر گام چند ثانیه زمان لازم بوده است.
در هر آزمایش چنانچه ربات موفق به رسیدن به هدف می­شد، مقادیر پارامترهای F ‌S و SP‌ به عنوان نتایج آن آزمایش در نظر گرفته می­شدند. در هر محیط شبیه­سازی شده، ۵ حالت مختلف برای مکان ربات و هدف به طور تصادفی در محیط انتخاب شدند. هر آزمایش ۱۰ بار تکرار شده است، تا نتایج به دست آمده معتبر باشند. نتیجه نهایی هر آزمایش میانگین این ۱۰ بار تکرار می­باشد. با توجه به خصوصیات آماری نظیر واریانس، تکرار بیشتر از ۱۰ بار آزمایش­ها تغییر چندانی در نتایج حاصل ایجاد نمی­کردند، لذا ۱۰ بار تکرار مناسب فرض شد. برای هر محیط نتیجه کلی میانگین نتایج مربوط به هریک از ۵ حالت در نظر گرفته شده برای مکان­های ربات و هدف بوده است. سپس، از نتایج حاصل از محیط­های با سطح پیچیدگی یکسان میانگین گرفته شد که در جدول(۵-۲) آمده است. همچنین، مقادیر کمترین و بیشترین به دست آمده برای معیارهای F‌S و SP نیز گزارش شده ­اند.
برای نشان دادن نقش موثر یادگیری Q در تنظیم برخط سامانه فازی و افزایش کارآیی آن، آزمایش­ها با یک مجموعه قانون فازی مشابه با مجموعه قانون مطرح شده در فصل ۴ ولی با خروجی­های ثابت تکرار شدند. این خروجی‌های ثابت، برابر با میانگین شش گزینه موجود برای زوایای چرخش در خروجی‌های مجموعه قانون فازی الگوریتم پیشنهادی انتخاب شدند. روند به دست آوردن نتایج آزمایش‌ها مطابق آنچه در مورد الگوریتم پیشنهادی انجام شده، بوده است. جدول(۵-۳) نتایج حاصل از به­ کارگیری الگوریتم فازی را نشان می­دهد. مقایسه نتایج، حاکی از برتری الگوریتم یادگیری Q فازی نسبت به الگوریتم فازی (بدون یادگیری Q) از نظر موفقیت در رسیدن به هدف، سرعت، امنیت و انعطاف­پذیری می­باشد. همانگونه که انتظار می­رود عملکرد الگوریتم فازی با افزایش پیچیدگی محیط، با توجه به مقادیر معیارهای تعریف شده، رو به وخامت می­رود. پارامتر SP که نماینده سرعت مسیر می­باشد، تقریبا برای هر دو الگوریتم یادگیری Q فازی و فازی در سه گروه محیط­ها ثابت و اندکی با پیچیدگی محیط رو به کاهش است. این کاهش به دلیل افزایش بیشتر زمان نسبت به تعداد گام­ها می­باشد.
جدول(۵-۲): عملکرد الگوریتم یادگیری Q فازی پیشنهادی

GR

SP

SF

انواع محیط

بیشترین

میانگین

کمترین

بیشترین

میانگین

کمترین

۱۰۰

۸۰/۳۴

۶۱/۳۱

۷۰/۲۴

۸۲/۲۴

۸۵/۷

۰

ساده

۷۶/۹۴

۸۰/۳۵

۵۶/۳۱

۰۰/۲۶

۱۳/۳۶

۴۰/۱۳

۰

معمولی

۲۲/۹۱

۷۰/۳۵

۲۴/۳۱

۳۰/۲۲

۷۸/۵۶

۷۳/۱۸

۶۳/۳

پیچیده

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...