به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

فهرست مطالب علی کارگرنژاد

  • علی کارگرنژاد، سعید مسعودنیا، امیرحسین کاشفی، امیرحسین کاشفی
    یکی از روش های بهبود صحت طبقه بندی داده ها، استفاده از چند طبقه بند مختلف و سپس ترکیب نتایج خروجی آن هاست که اغلب تحت عنوان ترکیب طبقه بندها خوانده می شود. پارامترهای مختلفی بر کارایی سیستم ترکیب طبقه بندها تاثیر می گذارند که از آن جمله می توان به میزان گوناگونی بین طبقه بندهای پایه ی سیستم اشاره کرد.در این مقاله تاثیر ایجاد گوناگونی حاصل از یادگیری همبستگی منفی را بر کارایی ترکیب طبقه بندهای عصبی مورد بررسی قرار داده ایم. این تحقیق تاثیر یادگیری همبستگی منفی را در دو روش ترکیبی کلیشه تصمیم و تعمیم انباره ای بررسی کرده است، که روش اول روشی بدون یادگیری و روش دوم روشی مبتنی بر یادگیری در بخش ترکیب است. استفاده از یادگیری همبستگی منفی برای ایجاد گوناگونی در طبقه بندهای پایه سیستم ترکیبی، صحت طبقه بندی را در هر دو روش مورد آزمون بهبود داده است. ایده پیشنهادی مقاله از نقطه نظر دیگری هم قابل ارائه است. تا کنون از روش های میانگین گیری و رای اکثریت برای ترکیب شبکه هایی با همبستگی منفی استفاده می شده است. نتایج این تحقیق نشان داد که کلیشه تصمیم و تعمیم انباره ای روش های کاراتری برای ترکیب شبکه های حاصل از یادگیری همبستگی منفی هستند. آزمایشات روی پنج مجموعه داده ی آزمون طبقه بندی از بانک داده UCI و ELENA نشان داد که به کارگیری ایده پیشنهادی کارایی ساختار ترکیب طبقه بندهای عصبی را به طور قابل ملاحظه ای افزایش داده است.
    کلید واژگان: ترکیب طبقه بندهای عصبی, یادگیری همبستگی منفی, گوناگونی, کلیشه تصمیم, تعمیم انباره ای}
    Ali Kargarnejad, Saeed Masoudnia, Amirhosein Kashefi
    This paper investigates the effect of diversity caused by Negative Correlation Learning(NCL) in the combination of neural classifiers and presents an efficient way to improve combining performance. Decision Templates and Averaging, as two non-trainable combining methods and Stacked Generalization as a trainable combiner are investigated in our experiments. Utilizing NCL for diversifying the base classifiers leads to significantly better results in all employed combining methods. Experimental results on five datasets from UCI and ELENA repositories indicate that by employing NCL, the performance of the ensemble structure can be more favorable compared to that of an ensemble use independent base classifiers.
    Keywords: Classifiers Ensemble, Negative Correlation Learning, Decision Templates, Stacked Generalization, Diversity}
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال