یادگیری تجمعی مبتنی بر تابع ضرر کانونی افزایشی (FENIL) برای غلبه بر نامتوازنی دسته ای
محل انتشار: فصلنامه فرماندهی و کنترل، دوره: 6، شماره: 2
سال انتشار: 1401
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 128
فایل این مقاله در 18 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
JR_ICI-6-2_004
تاریخ نمایه سازی: 9 خرداد 1402
چکیده مقاله:
شبکههای عصبی کانولووشنال یکی از موفقترین و پراستفادهترین مدلهای یادگیری ماشین در دستهبندی دادهها محسوب میشود اما به رغم موفقیتهای چشمگیری که در دستهبندی دادهها دارند، در یادگیری نامتوازن، که یکی از چالش برانگیزترین مشکلات در یادگیری ماشین است، به نتایج قابل قبولی دست پیدا نمیکنند چرا که در این گونه مسائل، معمولا تعداد نمونههای یکی از دستهها خیلی بیشتر از نمونههای دسته دیگر است و یا هزینه دستهبندی اشتباه در دو دسته متفاوت است، این در حالی است که شبکههای CNN به صورت پیشفرض، توزیع دستهها را متوازن و هزینه دستهبندی را مساوی در نظر میگیرند. یکی از روشهای موفق در برخورد با مجموعهدادههای نامتوازن، روشهای تجمعیاست. آنها با ترکیب تعدادی از تخمین گرهای پایه میتوانند به دقت بالایی دست پیدا کنند و در مقایسه با زمانی که تنها از یک تخمین گر استفاده میشود، قابلیت اطمینان مدل را افزایش دهند. استفاده از یادگیری تجمعی، مدلهای یادگیری ماشین را در مواجهه با داده های نامتوازن توانمند میسازند. در این پژوهش، روشی مبتنی بر یادگیری تجمعی برای شبکههای عصبی کانولووشنال معرفی شدهاست که از تجمع تعدادی شبکه CNN برای کار با دادههای نامتوازن استفاده میکند. در این مدل از تابع ضرر کانونی برای آموزش CNNها استفادهشدهاست، پارامتر گاما در این تابع میزان اهمیت نمونههای سخت و آسان را مشخص میکند در مدل تجمعی پیشنهادی از پارامتر گاما برای ایجاد تنوع در CNNها استفادهشدهاست و این باعث شدهاست هر شبکه کانولووشنال نسبت به شبکه قبلی اهمیت کمتری به دادههای آسان دهد. همچنین وزن دادهها برای آموزش هر شبکه با استفاده از نتیجه دستهبندی شبکه CNN قبلی مشخص میشود. در نهایت برای دسته بندی دادههای جدید از ترکیب نتیجه همه CNNها استفاده میشود. شبکه تجمعی یشنهادی (FENIL) برروی چندین مجموعه داده اعمال شده است، براساس نتایج بدست آمده، شبکه FENIL نه تنها درمقایسه با روشهای غیر عمیق مثل آدابوست با درخت تصمیم، دقت و F۱-score بسیار بالاتری (۶۳/۱۸، ۶۱/ ۱۹بالاتر) دارد، بلکه در مقایسه با روشهای معمول عمیق دیگر مانند استفاده از یک CNN عمیق، رای گیری CNNها و CNNهای آبشاری و SMOTE نیز نتایج بهتری را بدستآوردهاست.
کلیدواژه ها:
نویسندگان