دانلود مقاله در مورد روش های استخراج ویژگی و روش های خطی و غیر خطی دسته بندی 17 ص

دسته بندي : مقاله » مقالات فارسی مختلف
لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل :  word (..docx) ( قابل ويرايش و آماده پرينت )
تعداد صفحه : 16 صفحه

 قسمتی از متن word (..docx) : 
 

‏Dec. 28
‏Feature Extraction
2
‏1) ‏چکیده:
‏ ‏در این تمرین‏ روش‏ ‏های استخراج ویژگی و‏ ‏روش‏ ‏های خطی و غیر خطی‏ دسته‏ ‏بندی‏ ‏را مورد مطالعه قرار می‌دهیم‏.‏ ‏در ابتدا‏ روش‏ ‏های مختلف استخراج ویژگی که از آن جمله PCA‏، LDA‏، روش قاب بندی و چند روش دیگر هستند را و سپس برای ویژگی‏ ‏های استخراج شده از‏ ‏روش‏ ‏های‏ دسته‏ ‏بندی‏ خطی بیزین و SVM‏ خطی و سپس روش‏ ‏های غیر‏‌‏خطی RBF‏ ، MLP‏ و همچنین SVM‏ غیر‏‌‏خطی ‏بر‏ا‏ی‏ دسته‏ ‏بندی استفاده ‏ شده‏‌‏ ‏ا‏ست‏. ‏بسته ‏به ‏روش ‏شناسایی ‏بکار ‏گرفته ‏شده، ‏معمولا ‏ویژگی‏ ‏هاي ‏متفاوتی ‏از ‏دنباله ‏نقاط ‏استخراج ‏می ‏شود. ‏در ‏اکثر ‏روش ‏هاي ‏موجود‏ ‏استخراج ویژگی‏، ‏ویژگی‏ ‏ها ‏از ‏روي ‏مختصات ‏نقاط ‏نمونه‏ ‏برداري ‏شده ‏ورودي ‏استخراج ‏می‏ ‏شو‏ن‏د‏. از مجموعه ی ویژگی های استخراج شده معمولاً تعدادی مفید تر و موثرترند. ما برای تشخیص و انتخاب ویژگی های تاثیرگذارتر از یک الگوریتم ژنتیک استفاده کرده ایم.‏ ‏اما پس از استخراج و انتخاب‏ ویژگی‏ ‏ها‏ نوبت به دسته بندی می رسد.‏ در ابتدا از چند دسته بند خطی استفاده کرده ایم.‏ به راحتی می‏‌‏توان نشان داد که ناحیه‏‌‏های تصمیم‏‌‏گیری یک ماشین خطی محدودند‏ ‏و این محدودیت انعطاف‏‌‏پذیری و دقت دسته‏‌‏بند را کاهش می‏‌‏دهد. ‏مسایل بسیاری وجود دارد که توابع جداساز خطی برای داشتن حداقل خطا در آنها کافی نیستند.‏ علاوه بر این مرزهای تصمیم‏‌‏گیری که کلاسها را از یکدیگر تفکیک می‏‌‏کنند ممکن است همیشه خطی نباشند و پیچیدگی مرزها گاهی اوقات نیاز به استفاده از سطح‏‌‏های کاملاً غیر خطی‏ را ‏دارند.‏ ‏بنابراین در ادامه ی کار از چند دسته بند غیرخطی نیز استفاده نمودیم. ‏در استفاده از شبکه‏‌‏های عصبی چندلایه، شکل غیر خطی بودن از مجموعه‏‌‏ی آموزش فرا گرفته می‏‌‏شود. در روشهای RBF ‏ و SVM‏ غیرخطی مشکل‏ اصلی انتخاب توابع‏ هسته‏ غیر خطی مناسب است.
‏2) مقدمه
‏ ‏ ‏اولین الگوریتم دسته‌بندی در سال 1936 توسط Fisher‏ ارایه شد و معیارهای آن برای بهینه بودن، کم کردن خطای دسته‌بندی کننده‌های الگو‌های آموزشی بود. بسیاری از استراتژی‌های موجود نیز از همین روش پیروی می‌کنند. ‏در ساده‏‌‏ترین شکل ممکن‏،‏ دسته بند‏‌‏های خطی می‌توانند دو دسته‌ی متفاوت را تفکیک کنند‏.‏ با توجه به این موضوع مساله‌ای را جدایی‌پذیر خطی می‌نامند که با یک ابرصفحه بتوان محدوده‌ی تصمیم را به ‏دو ‏گروه تقسیم‏‌‏بندی کرد. در عمل می‏‌‏توان دسته بند‌های خطی‌ای را طراحی کرد که بیش از دو گروه را از هم تفکیک کنند. این عمل را با‏ ‏تنظیم محدوده‌های تصمیم متعدد و آزمون‌های چندگانه بر اساس شرایط موجود می‌توان انجام داد. ما در این مساله یک دسته بندی با 26 کلاس را داریم.
‏ ‏ ‏در روش بیزین احتمال شرطی تعلق بررسی می‌شود‏. به این ترتیب که الگوی مورد نظر به دسته‌ای تخصیص داده می‏‌شود که احتمال شرطی تعلق بردار مشخصه‌ی الگو به آن دسته ازتمام دسته‌های دیگر بیشتر باشد.‏ روش بیزین به طور کلی می تواند برای کارایی بسیار مطلوب بهینه شوند. این روش مزایای دیگری نیز دارد که استفاده‌ی از آن را توجیه می‌کند. این روش می‌تواند با چند فرض ساده در مورد داده‌ها کاملاً به شکل روشهای ساده‌ی خطی عمل کند، به علاوه این کار می‌تواند به
‏Dec. 28
‏Feature Extraction
2
‏گونه‌ای انجام شود که در پایان، مدل قطعی بدون هیچ گونه رجوع به آمار به دست آید. در روش بیزین مشکل کار تعریف احتمالات شرطی مورد نظر قاعده‌ی بیز است.‏
‏ ‏ یک محقق روسی به نام Vladimir Vapnik‏ در سال 1965 گام مهمی در طراحی دسته‌بندها برداشت [1]‏ و نظریه‌ی آماری یادگیری را بصورت مستحکم‌تری بنا نهاد و ماشین بردار پشتیبان را ارایه کرد. ‏ ماشین‌های بردار پشتیبان در دو حالت جدایی‌پذیر و جدایی‌ناپذیر برای دسته‌بندی الگوهای یک مساله‌ی چندکلاسه از چند مرز جداکنند‏ه‏‌ی خطی یا ابرصفحه استفاده می‌کنند و در واقع حاصلضرب داخلی بردار ورودی با هر یک از بردارهای پشتیبان در فضای d‏ بعدی ورودی محاسبه می‌شود. Vapnik‏ نشان داد که می‌توان بردار ورودی را با یک تبدیل غیرخطی به یک فضای با بعد زیاد انتقال داد و در آن فضا حاصلضرب داخلی را بدست آورد که با این شرایط هسته‌ی مفیدی را خواهیم داشت.
‏ ‏ روش RBF‏ یک دسته‏‌‏بندی و تقریب‌ساز تابعی الگوست و شامل دو لایه می‌باشد که نرون‌های خروجی ترکیبی خطی از توابع پایه‌ای را به وجود می‌آورند که توسط نرون‏‌‏های لایه‌ی پنهان محاسبه شده‌اند.‏ زمانی که ورودی در ناحیه‌ی تعیین شده‌ی کوچک از فضای ورودی قرار گیرد، توابع اساسی(غیر خطی) در لایه‌ی پنهان، پاسخ غیر صفری به محرک ورودی می‏‌‏دهند. همچنین این مدل به عنوان یک شبکه‌ی دریافت‌کننده‌ی ناحیه‌ای شناخته شده است. ما در روش RBF‏ از معمول‌ترین تابع هسته‏‌ی‏ غیر خطی یعنی سیگموئید استفاده کرده‌ایم.
‏ ‏ به‏ ‏طور کلی شبکه‌های پرسپترون چند‌لایه شامل چندین پرسپترون ساده هستند که به طور ساختار سلسله‌مراتبی، یک شکل پیش‌خورد با یک و یا چند لایه‌ی میانی (لایه‌های پنهان) بین لایه‌های ورودی و خروجی را شکل می‌دهد.‏ تعداد لایه‌ی پنهان و تعداد نرون‌های هر لایه ثابت نیستند. هر لایه ممکن است از نرون‌های مختلفی تشکیل شده باشد که این موضوع به کار آنها بستگی دارد. الگوریتم‌های آموزشی متفاوتی در روش ‏چند لایه ‏استفاده می‌شوند‏.‏
‏3) روشهای به کار رفته در این گزارش
‏ ‏در این قسمت ‏روشهای استخراج ویژگی، روشهای انتخاب ویژگی ها جهت بهینه کردن آنها و کم کردن ابعاد مساله با کاهش تعداد آنها ‏و روشهای دسته‌بندی (خطی و غیرخطی) به کار رفته ‏بررسی شده‌اند.
‏3-1) ‏روشهای استخراج ویژگی
‏ ‏در این قسمت انواع روشهای استخراج ویژگی ها ذکر شده است.‏ ذکر این نکته لازم است که برخی الگوریتم های استخراج برای انتخاب ویژگی های موثر نیز استفاده می شوند ازجمله ی آنها PCA‏ و LDA‏ هستند. اما در این گزارش ما برای بهینه کردن ویژگی ها و کم کردن تعداد آنها و یا به عبارت دیگر برای کاهش ابعاد (Curse of Dimensionality‏) از الگوریتم ژنتیک استفاده نموده ایم.
‏Dec. 28
‏Feature Extraction
4
‏3-1-‏1‏) روش PCA‏ خطی‏
‏ روشهای استخراج ویژگی یک زیرفضای مناسب m‏ بعد‏ی‏ در فضای اصلی ویژگی‏ ‏ها از d‏ بعد ‏را تعیین می‏ ‏کنند‏(m
‏ از آجا که PCA‏ یک روش بدون بررسی استخراج ویژگی‏ ‏هاست (Unsupervised‏)، تحلیل جداسازی از یک اطلاعات گروهی در رابطه با هر الگو برای استخراج (خطی) ویژگی‏ ‏های با قابلیت جداسازی زیاد استفاده می‏ ‏کند. در LDA‏ جداسازی بین کلاسی با جابجایی کل ماتریس کوواریانس در PCA‏ با یک معیار جداسازی عمومی مانند معیار Fisher‏ تائید می‏ ‏شود که در یافتن بردارهای مشخصه sw-1sb ‏ نتیجه می‏ ‏شود.‏( حاصل معکوس ماتریس پراکندگی sw ‏ و ماتریس پراکندگی بین کلاسی sb ‏ ).‏ معیار دیگر همراه با بررسی (Supervised‏) برای چگالی‏ ‏های شرایط کلاس غیرگاوسی بر پایه‏ ‏ی فاصله Patrick-Fisher‏ با استفاده از برآورد چگالی Parzen‏ است.
‏3-1-‏2‏) روش Kernel PCA‏ (PCA‏ با هسته‏ یا PCA‏ غیرخطی‏)
‏ چندین روش برای تعریف روش‏ ‏های استخراج ویژگی غیرخطی وجود دارد. یکی از این روش‏ ‏ها که مستقیماً به PCA‏ مربوط است، Kernel PCA‏ ‏نام دارد. ایده‏ ‏ی اصلی KPCA‏ نگاشتن داده‏ ‏های ورودی بر روی برخی از فضاهای ویژگی F‏ جدید بطور معمولی با استفاده از تابع غیرخطی ∅‏ و سپس اعمال یک PCA‏ خطی در فضای نگاشت شده است. به هر حال فضایF‏ معمولاً ابعاد بسیار زیادی دارد. برای دوری از محاسبات نگاشت ساده‏ ‏ی ∅‏، KPCA‏ تنها هسته‏ ‏های Mercel‏ که می‏ ‏توانند به یک نقط‏ه تجزیه شوند را بکار می‏ ‏گیرد.
kx,y=∅x.∅(y)
‏ به عنوان یک نتیجه فضای هسته یک متریک با تعریف مناسب دارد. نمونه‏ ‏های هسته‏ ‏های Mercer‏ شامل چندجمله‏ ‏ای‏ ‏های مرتبه P‏ بصورت
‏Dec. 28
‏Feature Extraction
5
(x-y)p‏ و هسته گاوسی هستند.
e-x-y2c
‏ ‏ فرض می‏ ‏کنیم که X‏ یک ماتریس الگوی n×d‏ نرمال شده با میانگین صفر است و ∅x‏ یک ماتریس‏ الگو در فضای F‏ باشد. PCA ‏ خطی در فضای F‏ بردارهای مشخصه‏ ‏ی ماتریس‏ همبستگی ∅x.∅(y)T‏ را حل می‏ ‏کند که همچنین ماتریس هسته K(X,X)‏ نیز نامیده می‏ ‏شود. در KPCA‏ در ابتدا m‏ بردار ویژگی از K(X,X)‏ بدست می‏ ‏آیند تا یک ماتریس انتقال E‏ را تعریف کنند (E‏ یک ماتریس n×m‏ است که m‏ تعداد ویژگی‏ ‏های دلخواه است و m
‏3-1-‏3‏) روش مقیاس‏ گذاری چندبعدی(MDS‏)
‏ ‏مقیاس‏ ‏گذاری چند بعدی (MDS‏)یک روش غیرخطی دیگر برای استخراج ویژگی‏ ‏هاست. هدف این روش بازنمایی یک مجموعه‏ ‏ی چندبعدی در دو یا سه بعد است مثل آنچه ماتریس فاصله در فضای اصلی ویژگی‏ ‏های d‏ بعدی به طور کاملاً ثابت در فضای تصویرشده باقی مانده است. توابع تاکید فراوانی برای اندازه‏ ‏گیری کارایی این نگاشت استفاده شده‏ ‏اند. یک مشکل MDS‏ این است که یک تابع نگاشت ساده و روشن را ارئه نمی‏ ‏کند بنابراین ممکن نیست که یک الگوی جدید را در یک نگاشت برای یک مجموعه‏ ‏ی آموزش مشخص بدون تکرار جایگذاری کند. چندین روش برای عنوان کردن این نقص که از درون یابی خطی تا آموزش شبکه عصبی محدود است مورد بررسی قرار گرفته است. همچنین امکان دارد که الگوریتم MDS‏ مجدداً تعریف شود بنابراین مستقیماً یک نگاشت را تهیه می‏ ‏کند که ممکن است برای الگوهای آزمون جدید استفاده شود.
‏3-1-‏4‏) روش شبکه عصبی روبه جلو ‏(Feed-Forward Neural Network‏)
‏ یک شبکه‏ ‏ی عصبی روبه‏ ‏جلو یک روال جامع را برای استخراج ویژگی‏ ‏هاو دسته‏ ‏بندی پیشنهاد می‏ ‏کند. خروجی هر لایه‏ ‏ی مخفی ممکن است به عنوان یک مجموعه‏ ‏ی جدید و اغلب غیرخطی از ویژگی‏ ‏ها تعریف ‏ ‏شود که در لایه‏ ‏ی مخفی برای دسته‏ ‏بندی ارائه می‏ ‏شوند. در این شرایط شبکه‏ ‏های استفاده شده توسط Fukushima‏ و Lecun‏ که اصطلاحاً آن را لایه‏ ‏های وزنی مشترک نامیده‏ ‏اند‏، در حقیقت فیلترهایی برای استخراج ویژگی‏ ‏ها در تصاویر دوبعدی هستند. در طول آموزش فیلترها با داده‏ ‏ها برای بیشینه کردن کارایی دسته‏ ‏بندی وفق داده شده‏ ‏اند.
‏ شبکه‏ ‏های عصبی می‏ ‏توانند بطور مستقیم برای استخراج ویژگی‏ ‏ها در یک شکل بدون بررسی (

 
دسته بندی: مقاله » مقالات فارسی مختلف

تعداد مشاهده: 4383 مشاهده

فرمت فایل دانلودی:.zip

فرمت فایل اصلی: .docx

تعداد صفحات: 16

حجم فایل:487 کیلوبایت

 قیمت: 6,000 تومان
پس از پرداخت، لینک دانلود فایل برای شما نشان داده می شود.   پرداخت و دریافت فایل