منابع کارشناسی ارشد با موضوع پیش بینی تأثیر نااطمینانی نرخ ... |
(۳‑ ۸) |
به وضوح میتوان دیدکه خروجی تابع تحریک عصب فقط به ورودی و وزنهای متناظر بستگی دارد. با فرض اینکه تابع خروجی، سیگموئید باشد میتوان خروجی عصب j ام را به صورت زیر نوشت:
(۳‑ ۹) |
آنچنان که پیش از این نیز بیان شد، هدف فرایند آموزش، رسیدن به خروجی مطلوب(یا نزدیک به مطلوب) است. بدین ترتیب ابتدا باید تابع خطای هر نرون را تعریف کرد. این خطا از اختلاف خروجی واقعی شبکه و خروجی مورد انتظار به صورت زیر به دست میآید:
(۳‑ ۱۰) |
انتخاب مربع تفاضل بین خروجی واقعی() و خروجی مطلوب() از چندین جنبه قابل بحث است:
اولا:ً با بهره گرفتن از توان دوم، مقدار خطا همواره مثبت خواهد بود؛
ثانیاً: اگر قدرمطلق اختلاف بین خروجی واقعی و مطلوب از یک بیشتر باشد، توان دوم منجر به بزرگتر شدن این عدد میشود و بالعکس اگر قدرمطلق اختلاف بین خروجی واقعی و مطلوب از یک کمتر باشد، توان دوم منجر به کوچکتر شدن آن میگردد. بر این اساس میتوان خطای کلی شبکه را به فرم مجموع خطای تکتک نرونهای لایه خروجی نوشت. لذا داریم:
(۳‑ ۱۱) |
روند شبیه سازی مسائل
به منظور شبیهسازی یک طبقهبندی مسئله با بهره گرفتن از شبکههای عصبی به روش باسرپرست(یعنی با فرض در اختیار داشتن دادههای مطلوب) اولین کار انتخاب ابعاد شبکه است. در لایه ورودی باید به تعداد ابعاد هر الگوی ورودی، نرون قرار دهیم. بنابراین اندازه لایه ورودی را بعد دادههای ورودی تعیین میکند. در لایه خروجی نیز به وضوح باید به تعداد کلاسها، نرون داشته باشیم. در حالت ایدهآل، با آمدن ورودی مربوط به یک کلاس انتظار داریم نرون مربوط به آن کلاس مقدار یک و مابقی نرونها مقدار صفر را به خود بگیرند. امّا در عمل با توجه به تابع سیگموئید مورد استفاده، مقدار خروجی شبکه عددی بین صفر و یک است. لذا در حالت عملی نرونی از لایه خروجی که اصطلاحاً بیش از بقیه روشن شده باشد(مقدار آن بزرگتر از بقیه باشد) کلاس مربوط به آن داده را مشخص میکند. در مورد تعداد نرونهای لایه میانی، مبنای خاصی وجود ندارد و معمولاً با صحیح و خطا به نحوی انتخاب میگردد که شبکه جواب معقولی در اختیار بگذارد.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
قدم بعدی در شبیهسازی، انتخاب نوع تابع خروجی نرون است که در شبکههای پرسپترون چند لایه که با الگوریتم پس انتشار خطا کار میکنند، عمدتاً تابع سیگموئید استفاده میشود. دلیل این امر هم مشتقگیری ساده و ارتباط مستقیم مشتق تابع با خود تابع است.
پیش از شروع شبیهسازی، باید دادههای ورودی را به دو گروه تقسیم نمود:
دادههای آموزش:
این دادهها از میان دادههای ورودی و به منظور آموزش شبکه به کار میروند. عمدتاً از میان کل دادهها، ۶۰ تا ۷۰ درصد آنها را(به طور تصادفی) به عنوان دادههای آموزش انتخاب میکنند. پس از آن که شبکه توسط این دادهها آموزش دید، وزنها مقدار نهایی خود را یافتهاند به نحوی که شبکه برای دادههای آموزش، کمترین خطا را به دست میدهد.
دادههای آزمون:
پس از آن که شبکه توسط دادههای آموزش تا رسیدن به حداقل خطا آموزش یافت، مابقی دادهها(۳۰ تا ۴۰ درصد باقیمانده) که در آموزش نقشی نداشتهاند به عنوان ورودی به شبکه داده شده و پاسخ شبکه با پاسخ مطلوب مقایسه میگردد و بدین ترتیب راندمان شبکه آموزشدیده محک زده میشود.
باید توجه داشت که در اولین گام اجرای الگوریتم، وزن تمامی لایهها به طور تصادفی انتخاب میشوند و در هر گام با بهره گرفتن از روش پس انتشار خطا، وزنها تصحیح میشوند. پس از اجرای الگوریتم تصحیح وزنها تا رسیدن به مینیمم خطای کلی، چندین معیار برای توقف الگوریتم پیشنهاد میگردد که مهمترین آنها عبارتند از:
اگر خطا(تابع هزینه) که قرار است مینیمم شود، از یک سطح آستانه کمتر شود، میتوان پذیرفت که شبکه با خطای قابل قبولی آموزش دیده است.
اگر میزان تغییرات خطا در طی دو گام متوالی کمتر از یک سطح آستانه باشد یا به عبارت دیگر روند کاهش خطا با سرعت کند انجام شود، میتوان چنین برداشت کرد که به حوالی مینیمم کلی رسیدهایم(صیّادی،۱۳۸۷).
مزایای شبکههای عصبی مصنوعی
فرم در حال بارگذاری ...
[دوشنبه 1400-09-29] [ 04:22:00 ق.ظ ]
|