به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه « loss function » در نشریات گروه « پدافند غیرعامل »

تکرار جستجوی کلیدواژه «loss function» در نشریات گروه «فنی و مهندسی»
  • نسیبه محمودی، حسین شیرازی*، محمد فخردانش، کوروش داداش تبار احمدی
    باتوجه به اینکه بیشتر مسائل دنیای واقعی از قبیل تشخیص تقلب، شناسایی خطا،  تشخیص ناهنجاری، تشخیص پزشکی و تشخیص بدافزار نامتوازن هستند، دسته بندی داده ها در مسائل نامتوازن به عنوان یکی از چالش های اصلی در حوزه داده کاوی، مورد توجه بسیاری از محققان و پژوهشگران قرارگرفته است. در یادگیری نامتوازن، معمولا تعداد نمونه های یکی از دسته ها خیلی بیشتر از نمونه های دسته دیگر است و یا هزینه دسته بندی اشتباه در دودسته متفاوت است. شبکه های عصبی کانولووشنال به رغم موفقیت های چشمگیری که در دسته بندی داده ها دارند، در مسائل نامتوازن با مشکل مواجه می شوند چرا که آنها به صورت پیش فرض، توزیع دسته ها را متوازن و هزینه دسته بندی را مساوی در نظر گرفته می گیرند، ازاین رو در دسته بندی نامتوازن، نمی توان به نتایج قابل قبولی دست یافت؛ زیرا شبکه به سمت نمونه های آموزشی دسته بزرگ تر متمایل می شود که این موضوع سبب افزایش تعداد خطاها در تشخیص نمونه های مثبت می شود.  یکی از راهکارهای کم هزینه برای غلبه بر نامتوازنی داده ها در شبکه های  عصبی کانولوشنال استفاده از تابع ضرر به نفع دسته اقلیت است، در این مقاله تابع ضرری جدیدی معرفی شده است که به صورت تدریجی و با پیشرفت آموزش، اهمیت دسته اقلیت را افزایش می دهد تا در انتهای آموزش به مقدار مشخص شده برسد و از اهمیت داده های دسته اکثریت بکاهد، این امر باعث می شود تا هم بتوانیم از قدرت آموزشی همه داده ها استفاده کنیم و هم از غلبه داده های دسته اکثریت جلوگیری کنیم. نتایج آزمایش روی سه مجموعه داده مصنوعی، تشخیص فعالیت های انسان و Cifar-10، همگرایی و کارایی روش پیشنهادی را نشان می دهند، روش پیشنهادی با روش های آدابوست مبتنی بر درخت تصمیم، شبکه کانولوشنال مبتنی بر آنتروپی متقابل و آنتروپی متقابل وزن دار، روش SMOTE و روش CNN تجمعی مقایسه شده است. به ترتیب با کسب دقت 6/94، 92/92 و 23/69 در سه مجموعه داده  (Cifar-10 با نرخ نامتوازنی 5 درصد) توانست از دیگر روش ها پیشی بگیرد و دقت در مجموعه داده مصنوعی نسبت به روش سنتی آدابوست مبتنی درخت تصمیم، 72/17 بالاتر است.
    کلید واژگان: نامتوازنی دسته ای, یادگیری عمیق, تابع ضرر, آنتروپی متقابل}
    Nasibeh Mahmoodi, Hossein Shirazi *, Mohammad Fakhredanesh, Kourosh Dadashtabar Ahmadi
    Class-imbalanced datasets are common in many real-world domains, such as health, banking, and security. Machine learning researchers have recently focused on the classification of such datasets, where the costs of different types of misclassifications are unequal, the classes have different prior probabilities, or both. The performance of most standard classifier learning algorithms is significantly affected by class imbalance, where the algorithms are often biased toward the majority class instances despite recent advances in deep learning. However, there is very little empirical work on deep learning with class imbalance.To address this issue, we propose an incremental weighted cross entropy loss function. The proposed method involves gradually increasing the weight of the minority class as the training progresses, until it reaches the specified amount at the end of the training. Through experiments, we demonstrate the convergence and efficiency of the proposed method. The results of experiments on three datasets, including artificial datasets, human activity recognition dataset, and CIFAR-10, demonstrate the convergence and performance of the proposed method. The proposed method is compared with decision tree-based AdaBoost, Cross Entropy-based convolutional neural network, weighted Cross Entropy -based CNN, SMOTE method, and ensemble CNNs method. With accuracy gains of 94.6%, 92.92%, and 69.23% on the three datasets (CIFAR-10 with 5% imbalance rate), the proposed method outperformed the other methods. Additionally, the accuracy on the artificial dataset was 17.77% higher than the traditional decision tree-based AdaBoost method.
    Keywords: class-imbalanced dataset, Convolutional Neural Network, loss function, cross-entropy}
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال