(‏۳‑ ۸)  

به وضوح می‌توان دیدکه خروجی تابع تحریک عصب فقط به ورودی و وز‌ن‌های متناظر بستگی دارد. با فرض اینکه تابع خروجی، سیگموئید باشد می‌توان خروجی عصب j ام را به صورت زیر نوشت:

(‏۳‑ ۹)  

آن‌چنان که پیش از این نیز بیان شد، هدف فرایند آموزش، رسیدن به خروجی مطلوب(یا نزدیک به مطلوب) است. بدین ترتیب ابتدا باید تابع خطای هر نرون را تعریف کرد. این خطا از اختلاف خروجی واقعی شبکه و خروجی مورد انتظار به صورت زیر به دست می‌آید:

(‏۳‑ ۱۰)  

انتخاب مربع تفاضل بین خروجی واقعی() و خروجی مطلوب() از چندین جنبه قابل بحث است:
اولا:ً با بهره گرفتن از توان دوم، مقدار خطا همواره مثبت خواهد بود؛
ثانیاً: اگر قدرمطلق اختلاف بین خروجی واقعی و مطلوب از یک بیشتر باشد، توان دوم منجر به بزرگ‌تر شدن این عدد می‌شود و بالعکس اگر قدرمطلق اختلاف بین خروجی واقعی و مطلوب از یک کمتر باشد، توان دوم منجر به کوچک‌تر شدن آن می‌گردد. بر این اساس می‌توان خطای کلی شبکه را به فرم مجموع خطای تک‌تک نرون‌های لایه خروجی نوشت. لذا داریم:

(‏۳‑ ۱۱)  

روند شبیه سازی مسائل

به منظور شبیه‌سازی یک طبقه‌بندی مسئله با بهره گرفتن از شبکه‌های عصبی به روش باسرپرست(یعنی با فرض در اختیار داشتن داده‌های مطلوب) اولین کار انتخاب ابعاد شبکه است. در لایه ورودی باید به تعداد ابعاد هر الگوی ورودی، نرون قرار دهیم. بنابراین اندازه لایه ورودی را بعد داده‌های ورودی تعیین می‌کند. در لایه خروجی نیز به وضوح باید به تعداد کلاس‌ها، نرون داشته باشیم. در حالت ایده‌آل، با آمدن ورودی مربوط به یک کلاس انتظار داریم نرون مربوط به آن کلاس مقدار یک و مابقی نرون‌ها مقدار صفر را به خود بگیرند. امّا در عمل با توجه به تابع سیگموئید مورد استفاده، مقدار خروجی شبکه عددی بین صفر و یک است. لذا در حالت عملی نرونی از لایه خروجی که اصطلاحاً بیش از بقیه روشن شده باشد(مقدار آن بزرگتر از بقیه باشد) کلاس مربوط به آن داده را مشخص می‌کند. در مورد تعداد نرون‌های لایه میانی، مبنای خاصی وجود ندارد و معمولاً با صحیح و خطا به نحوی انتخاب می‌گردد که شبکه جواب معقولی در اختیار بگذارد.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

قدم بعدی در شبیه‌سازی، انتخاب نوع تابع خروجی نرون است که در شبکه‌های پرسپترون چند لایه که با الگوریتم پس انتشار خطا کار می‌کنند، عمدتاً تابع سیگموئید استفاده می‌شود. دلیل این امر هم مشتق‌گیری ساده و ارتباط مستقیم مشتق تابع با خود تابع است.
پیش از شروع شبیه‌سازی، باید داده‌های ورودی را به دو گروه تقسیم نمود:
داده‌های آموزش:
این داده‌ها از میان داده‌های ورودی و به منظور آموزش شبکه به کار می‌روند. عمدتاً از میان کل داده‌ها، ۶۰ تا ۷۰ درصد آن‌ها را(به طور تصادفی) به عنوان داده‌های آموزش انتخاب می‌کنند. پس از آن‌ که شبکه توسط این داده‌ها آموزش دید، وزن‌ها مقدار نهایی خود را یافته‌اند به نحوی که شبکه برای داده‌های آموزش، کمترین خطا را به دست می‌دهد.
داده‌های آزمون:
پس از آن که شبکه توسط داده‌های آموزش تا رسیدن به حداقل خطا آموزش یافت، مابقی داده‌ها(۳۰ تا ۴۰ درصد باقیمانده) که در آموزش نقشی نداشته‌اند به عنوان ورودی به شبکه داده شده و پاسخ شبکه با پاسخ مطلوب مقایسه می‌گردد و بدین ترتیب راندمان شبکه آموزش‌دیده محک زده می‌شود.
باید توجه داشت که در اولین گام اجرای الگوریتم، وزن تمامی لایه‌ها به طور تصادفی انتخاب می‌شوند و در هر گام با بهره گرفتن از روش پس انتشار خطا، وزن‌ها تصحیح می‌شوند. پس از اجرای الگوریتم تصحیح وزن‌ها تا رسیدن به مینیمم خطای کلی، چندین معیار برای توقف الگوریتم پیشنهاد می‌گردد که مهم‌ترین آن‌ها عبارتند از:
اگر خطا(تابع هزینه) که قرار است مینیمم شود، از یک سطح آستانه کمتر شود، می‌توان پذیرفت که شبکه با خطای قابل قبولی آموزش دیده است.
اگر میزان تغییرات خطا در طی دو گام متوالی کمتر از یک سطح آستانه باشد یا به عبارت دیگر روند کاهش خطا با سرعت کند انجام شود، می‌توان چنین برداشت کرد که به حوالی مینیمم کلی رسیده‌ایم(صیّادی،۱۳۸۷).

مزایای شبکه‌های عصبی مصنوعی

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...