تحقیق بهبود سرعت یادگیری شبکه های عصبی 27ص

تحقیق بهبود سرعت یادگیری شبکه های عصبی 27ص - ‏مقدمه ‏شبکه های عصبی چند لایه پیش خور‏1‏ به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی‏ ...

کد فایل:16011
دسته بندی: دانش آموزی و دانشجویی » دانلود تحقیق
نوع فایل:تحقیق

تعداد مشاهده: 4317 مشاهده

فرمت فایل دانلودی:.zip

فرمت فایل اصلی: .doc

تعداد صفحات: 24

حجم فایل:176 کیلوبایت

  پرداخت و دانلود  قیمت: 12,000 تومان
پس از پرداخت، لینک دانلود فایل برای شما نشان داده می شود.
0 0 گزارش
  • لینک دانلود و خرید پایین توضیحات
    دسته بندی : وورد
    نوع فایل :  word (..doc) ( قابل ويرايش و آماده پرينت )
    تعداد صفحه : 24 صفحه

     قسمتی از متن word (..doc) : 
     

    ‏مقدمه
    ‏شبکه های عصبی چند لایه پیش خور‏1‏ به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی‏ الگوها‏، پردازش تصاویر، تقریب توابع‏ و ... مورد استفاده قرار گرفته است‏.
    ‏الگوریتم یادگیری پس انتشار خطا‏2‏، یکی از رایج ترین الگوریتم ها جهت آموزش شبکه های عصبی چند لایه پیش خور می باشد. این‏ الگوریتم‏، ‏تقریبی از الگوریتم بیشترین تنزل‏3‏ می ب‏اشد و در چارچوب یادگیری عملکردی ‏4‏ قرار می گیرد‏.
    ‏عمومیت یافتن الگوریتمBP ‏، بخاطر سادگی و کاربردهای موفقیت آمیزش در حل مسائل ف‏نی- مهندسی می باشد‏.
    ‏علیرغم، موفقیت های کلی الگوریتم BP‏ در یادگیری شبکه های عصبی چند لایه پیش خ‏و‏ر هنوز‏،‏ چندین مشکل اصلی وج‏ود دارد‏:
    ‏- الگوریتم پس انتشار ‏خ‏طا‏، ممکن است به ن‏قاط مین‏ی‏مم محلی در فضای پارامتر، همگرا شود‏. بنابراین زمانی که الگوریتم BP‏ ‏همگرا ‏ ‏می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم‏.
    ‏- سرعت همگ‏رایی الگوریتم BP‏، خیلی آهسته است.
    ‏از این گذشته‏، همگرایی الگوریتم BP‏، به انتخاب مقادیر اولیه وزنهای شبکه‏، بردارهای با‏یاس و ‏پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است.
    ‏در این گزارش، با هدف بهبود الگوریتم BP‏، تکنیک های مختلفی ارائه شده است. نتایج شبیه سازیهای انجام شده نیز نشان می دهد، الگوریتم های پیشنهادی نسبت به الگوریتم استاندارد BP‏، ‏از سرعت همگرایی بالاتری برخوردار هستند‏.
    ‏خلاصه ای از الگوریتم‏ BP
    ‏از قانون یادگیری پس انتشار خطا (BP‏)‏، برای آموزش شبکه های عصبی چند لایه ‏پیش خور ‏که عموماً شبکه های ‏چند لایه پرسپترون ‏5‏ (MLP‏) هم نامیده می شود، استفاده می شود، استفاده می کنند‏. به عبارتی توپولوژی ‏شبکه های MLP‏، با قانون یادگیری ‏پس انتشار ‏خطا تکمیل می شود. این قانون تقریبی از الگوریتم ‏بیشترین نزول (S.D‏) است و در چارچوب ‏یادگیری عملکردی قرار می گیرد‏.
    ‏بطور خلاصه، فرایند پس انتشار خطا از دو مسیر اصلی تشکیل می شود‏. مسیر رفت‏6‏ و مسیر برگشت ‏7‏ .
    ‏در مسیر رفت، یک الگوی آموزشی به شبکه اعمال می شود و تأثیرات آن ‏از طریق لایه های میانی به لایه خروجی‏ انتشار می یابد‏ تا اینکه
    _________________________________
    ‏نهایتاً‏ خروجی واقعی شبکه MLP‏، به دست می آید‏. در این مسیر‏، پارامترهای شبکه (ماتریس های‏ وزن و بردارهای بایاس‏)، ثابت و بدون تغییر در نظر گرفته می شوند‏.
    ‏در مسیر برگشت، برعکس مسیر رفت، پارامترهای شبکه MLP‏ تغییر و تنظیم می گردند‏. این تنظیمات بر اساس ‏قانون یادگیری اصلاح خطا‏1‏ انجام می گیرد‏. سیگنال خطا، رد لایه خروجی شبکه تشکیل می گردد‏. بردار خطا برابر با اختلاف‏ بین پاسخ مطلوب و پاسخ واقعی شبکه می باشد. مقدار خطا، پس از محاسبه، در مسیر برگشت از لایه خروجی و از طریق لایه های شبکه‏ به سمت پاسخ مطلوب ‏حرکت‏ ‏کند‏.
    ‏در شبکه های MLP‏، هر نرون دارای یک تابع تحریک غیر خطی است که از ویژگی مشتق پذیری ‏برخوردار است. در این حالت‏، ارتباط بین پارامترهای شبکه‏ و سیگنال خطا، کاملاً پیچیده‏ و ‏و غیر خطی‏ می باشد‏، بنابراین مشتقات ‏جزئی نسبت به پارامترهای شبکه به راحتی قابل محاسبه‏ نیستند. جهت محاسبه مشتقات از قانون ‏زن‏ج‏یره ای‏2‏ معمول در جبر استفاده می شود‏.
    ‏فرمول بندی الگوریتم‏ BP
    ‏الگوریتم یادگیری BP‏، بر اساس الگوریتم تقریبی SD‏ است. تنظیم پارامترهای شبکه، مطا‏بق‏ با سیگنالهای خطا که بر اساس ارائه هر الگو‏ به شبکه محاسبه می شود، صورت می گیرد‏.
    ‏الگوریتم بیشترین تنزل با معادلات زیر توصیف می شود‏:
    ‏(1‏)
    ‏(2‏) ‏ ‏
    ‏به طوری WLji‏ ‏و bLj‏، ‏پارامترهای نرون j‏ ‏ام در لایه i‏ام است‏. ‏α‏، نرخ یادگیری‏2‏ و F‏، میانگین ‏مربعات خطا می باشد‏.
    ‏ ‏(3‏) ‏ ‏
    ‏(4‏) ‏ ‏
    ‏(5‏)
    ‏به طوریکه SLj(k)‏، حساسیت رفتار شبکه‏ در لایه L‏ ام است‏.
    _________________________________
    1. Error-Correctting Learning Rule
    2. Chain Rule
    3. Learning Rate
    ‏معایب الگوریتم استاندار‏د پس انتشار خطا‏1‏ (SBP‏)
    ‏الگوریتم BP‏، با فراهم آوردن ‏روشی از نظر محاسباتی کارا، رنسانسی ‏در شبکه های عصبی ‏ایجاد نموده زیرا ‏شبکه های MLP‏، با قانون یادگیری BP‏، ‏بیشترین کاربرد را در حل‏ مسائل فنی- مهندسی دارند‏.
    ‏با وجود، موفقیت های کلی این الگوریتم در یادگیری شبکه های عصبی چند لایه‏ پیش خود، هنوز‏ مشکلات اساسی ‏نیز وجود دارد‏:
    ‏- اولاً سرعت همگرایی الگوریتم BP‏ آهسته است‏.
    ‏همانطور که می دانیم، تغییرات ایجاد شده د‏ر‏ پ‏ا‏رامترهای شبکه ‏(ماتریس‏ های وزن و بردارهای بایاس‏)، پس از هر مرحله تکرار ‏الگوریتم‏ BP‏، به اندازه ‏، است، به طوریکه F‏، شاخص اجرایی، x‏ ‏پارامترهای شبکه و‏ ‏α‏، طول‏ قدم یادگیری است‏.
    ‏از این‏، هر قدر‏ طول قدم یادگیری،‏ ‏α‏، کوچکتر انتخاب گردد‏، تغییرات ایجاد‏ شده در پارامترهای شبکه، ‏پس از هر مرحله تکرار الگوریتم‏ BP‏، کوچکتر خواهد بود‏، که این خود منجر ‏به هموار گشتن‏ مسیر حرت‏ پارامترها به سمت مقادیر‏ بهینه در فضای پارامترها می گردد‏. این مسئله موجب ‏کندتر گشتن‏ الگوریتم BP‏ ‏می گردد‏. بر عکس با افزایش طول قدم ‏α‏، ‏اگرچه نرخ‏ یادگیری و سرعت‏ یادگیری‏ الگوریتم‏ BP‏ افزایش می یا‏بد‏،‏ لیکن تغییرات فاحشی در پارامترهای‏ شکه از هر تکراربه تکرار‏ بعد ایجاد می گردد‏، که گاهی اوقات‏ موجب ناپایداری و ن‏و‏سانی‏ شدن شبکه می شود که به ‏اصطلاح می گویند‏ پارامترهای شبکه‏ ‏واگرا شده اند‏:
    ‏در شکل زیر‏، منحنی یادگیری شبکه برای جدا سازیالگوها در مسأله XOR‏، به ازای‏ مقادیر مختلف نرخ یادگیری‏، نشان داده شده است‏. به ازای مقادیر کوچک‏، ‏α‏، ‏شبکه کند‏ اما هموار، یاد نمی گیرد ‏الگ‏و‏های‏ ‏ XOR‏ را از هم جدا نماید‏، ددر صورتی که به ازای‏ 9/0=‏ ‏α‏ شبکه‏ واگرا می شود‏.
    _________________________________
    1. Standard Back-Propagation Algorithm
    ‏شکل (1). منحنی یادگیری شبکه برای نرخ های یادگیری مختلف در مسأله XOR
    ‏- ثانیاً ‏احتمالاً به دام افتادن شبکه در نقاط مینیمم محلی وجود دارد‏.
    ‏در شبکه های MLP‏، میانگین مجوز خطا‏، در‏ حالت کلی خیلی‏ پیچیده است‏ و از تعداد زیادی نقطه اکسترمم‏ در فضای پارامترهای شبکه برخوردار می باشد‏. بنابراین الگوریتم پس انتشار خطا‏ با شروع از روی یک سری شرایط‏ اولیه پارامترهای شبکه‏، به نقطه مینیمم سراس‏ر‏ی و با شروع از یک مجموعه‏ شرایط اولیه دیگر ‏به تقاط مینیمم‏ محلی در فضای ‏پارامترها ‏همگرا می گردد، ‏ ‏بنابراین زمانی که الگوریتم BP‏ همگرا می شود،‏ نمی توان مطمئن شد که به یک‏ جواب بهی‏ن‏ه رسیده باشیم‏.
    ‏- ثالثاً: همگرايي الگوريتم BP‏، به يقين مقادير اوليه پارامترهاي شبكه عصبي MLP‏ وابسته است، بطوري كه يك انتخاب خوب مي تواند كمك بزرگي در همگرايي ‏سريعتر الگوريتم BP‏ فراهم آورد. برعكس انتخاب اوليه نادرست پارامترهاي شبكه‏ MLP‏، منجر به گير افتادن شبكه در نقاط مينيمم محلي در فضاي برداري ‏پارامترهاي شبكه‏ مي گردد كه اين خود منجر به اين مي شود كه شبكه خيلي زودتر از معمول به موضعي بيفتد كه منحني يادگيري ‏شبكه براي ‏تعداد بزرگي از دفعات تكرار،‏ تغيير نكند‏.
    ‏به عنوان مثال‏، فرض مي كنيم مقدار اوليه پارامترهاي ‏شبكه خيلي بزرگ باشند‏، در حالي كه مي دانيم توابع تبديل نرونها مخصوصاً در ‏ ‏لايه هاي مياني ‏از نوع ‏زيگموئيد‏ هستند. در اين حالت براي نرون‏ i‏ ام، اندازه‏ ورودي‏ تابع تبديل‏ (ni‏) خيلي بزرگ مي باشد و خروجي نرون‏ (ai‏) به مقدار ‏1‏±‏ ‏ميل مي كند‏. لذا ‏مشتق بردار خروجي شبكه، a‏ ‏، خيلي كوچك مي باشد.
    ‏ فرض كنيم كه بايد ‏مقدار واقعي‏ ai‏، 1 باشد يعني ti = 1‏، ليكن به خاطر انتخاب ‏بر مقادير اوليه،‏ ai = -1‏ گردد‏. در اين حالت خطاي‏ حداكثر را داريم‏ در حالي كه چون ai ≈ 0‏ ‏ ‏مي باشد تغييرات ‏ناچيزي ‏در پارامترهاي متناظر با نرون i‏ ام ‏داريم. اين‏ ‏چيزي است كه بيانگر رسيدن زودتر از معمول نرونها به حد‏ اشباع خود‏ مي باشند، جايي كه پاسخ‏ واقعي با پاسخ شبكه كاملاً فرق دارد و زمان زيادي طول خواهد كشيد‏ كه نرون از اين حالت خارج شود‏. از‏ اين رو با پيشرفت پروسه يادگيري، پارامترهاي منتسب به نرورنهايي كه به مرز ‏اشباع نرسيده اند‏، سريعتر تنظيم مي شوند، ‏چرا كه سيگنال خطار‏ ‏گراديانهاي‏ محلي از مقدار از اندازه‏ بزرگتري برخوردار‏ مي باشند‏. اين عمل ‏منجر به كاهش در مجموع ‏مربعات خطاي لحظه اي ‏ ‏مي گردد و اگر در اين مرحله‏، نرونهاي ‏به حد اشباع‏ رسيده تغييري در وضعيت‏ تحريكشان‏ رخ ندهد‏، شبكه براي مدتي طولاني‏ از يك شكل هموار منحني خطا‏ برخوردار خواهدبود‏.
    ‏بهبود ‏الگوريتم استاندارد پس انتشار ‏خطا‏ (SBP‏)‏
    ‏- ‏الگوريتم BP‏ از نوع دسته اي‏1‏ (BBP‏)
    ‏الگوريتم استاندارد BP‏، بر اساس فرم ‏الگو به الگو است‏، ب‏دين ترتيب كه پارامترهاي شبكه‏ پس از ارائه هريك از الگوهاي ‏يادگيري كه عموماً بطور تصادفي انتخاب مي شوند‏،‏ ‏تنظيم مي گردند‏، اما در الگوريتم BBP‏، ‏تنظيم پارامترهاي شبكه‏ پس از اعمال ‏تمامي ورودي ها صورت مي پذيرد‏. پردازش دسته اي موجب مي شود ‏كه گراديانهاي محلي به گراديان‏ محلي واقعي ‏نزديكتر باشند‏ و نهايتاً الگوريتم‏ BP‏ به الگوريتم بيشترين‏ نزول نزديكتر گردد‏ كه اين خود موجب ‏مي شود همگرايي الگوريتم BP‏ افزايش يابد‏.
    ‏در شكل زير مسئله‏ XOR‏ با متد الگوريتم‏ BP‏ به فرم دسته اي پياده‏ شده است‏. به راحتي مي توان‏ ديد كه الگوريتم BBP‏ از سرعت همگرايي بالاتري به الگوريتم‏ SBP‏ برخوردار است‏.

    ‏شكل (2). رفتار شبكه با الگوريتم BBP‏ در مسأله XOR‏ (‏ ‏ـــ‏ ‏)
    ‏رفتار شبكه با الگوريتم SBP‏ (0ـــ)
    _________________________________
    1. Batching Back-Propagation Algorithm
    ‏- روش ممنتم ‏1‏ براي الگوريتم BP‏ (MBP‏)
    ‏همانطور كه مشاهده شد، اگر نرخ يادگيري ‏α‏، ‏كوچك انتخاب شود‏، متد BP‏ كه در واقع همان تقريب الگوريتم‏ SD‏ است، بسيار كند ‏ ‏مي گردد. و اگر ‏α‏، ‏بزرگتر انتخاب شود‏، شبكه نوساني خواهد بود‏.
    ‏يك راه ساده و مؤثر كه عموماً جهت‏ افزايش و بهبود‏ نرخ يادگيري، استفاده‏ مي شود-‏ جايي كه خطر ناپايداري و نوساني شدن‏ شبكه جلوگيري مي گردد‏- افزودن يك جمله ‏ممنتم‏ در الگوريتم تقريبي SD‏ مي باشد، يعني ‏به هر پارامتر ‏از شبكه MLP‏، يك مقدار اينرسي ‏يا اندازه حركت‏ اضافه مي شود‏ تا اينكه پارامتر مورد نظر‏ در مسيري تمايل به تغيير داشته باشد‏ كه كاهش تابع انرژي‏ احساس شود‏.

     



    برچسب ها: تحقیق بهبود سرعت یادگیری شبکه های عصبی 27ص بهبود سرعت یادگیری شبکه های عصبی 27ص دانلود تحقیق بهبود سرعت یادگیری شبکه های عصبی 27ص بهبود سرعت یادگیری شبکه های عصبی 27ص تحقیق بهبود سرعت یادگیری شبکه عصبی
  • سوالات خود را درباره این فایل پرسیده، یا نظرات خود را جهت درج و نمایش بیان کنید.

  

به ما اعتماد کنید

تمامي كالاها و خدمات اين فروشگاه، حسب مورد داراي مجوزهاي لازم از مراجع مربوطه مي‌باشند و فعاليت‌هاي اين سايت تابع قوانين و مقررات جمهوري اسلامي ايران است.
این سایت در ستاد ساماندهی پایگاههای اینترنتی ثبت شده است.

درباره ما

تمام حقوق اين سايت محفوظ است. کپي برداري پيگرد قانوني دارد.

دیجیتال مارکتینگ   ثبت آگهی رایگان   ظروف مسی زنجان   خرید ساعت هوشمند