انتخاب ویژگی ها بصورت بهینه در طبقه بندی متون در الگوریتم نایو بیز

سال انتشار: 1397
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 410

فایل این مقاله در 9 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

MTCB01_045

تاریخ نمایه سازی: 7 خرداد 1398

چکیده مقاله:

به منظور تسریع فرایند یادگیری کلاسیفایر ها و کاهش اندازه ویژگی ها، انتخاب اتوماتیک ویژگی ها حائز اهمیت بالایی می باشد. در این مقاله روشی جدید و کارا بر اساس نظریه اطلاعاتی به منظور انتخاب ویژگی ها ارائه شده است که سعی بر این دارد ویژگی ها را بر اساس میزان اهمیت و مقدار تمایز گزاری بین کلاس ها رتبه بندی نماید. در ابتدا دو شاخص Kullback-Leibler divergence و Jeffreys divergence را بررسی خواهیم کرد و میزان نتیجه را بر روی خطاهای نوع اول و نوع دوم کلاسیفایر میسنجیم، سپس معیار تمایز جدیدی به نام JMH-divergence برای سنجش میزان تمایز گزاری روی توزیع های چند کلاسه معرفی خواهیم نمود. در این مقاله دو روش موجود انتخاب ویژگی MD و MD-X2 را توسعه خواهیم داد. نتایج بدست آمده بیانگر کارایی روشهای ارائه شده می باشد.

کلیدواژه ها:

انتخاب ویژگی ها ، طبقه بندی متون ، تمایز گزاری بین کلاس های انتخابی ، بهبود انتخاب ویژگی ها ، الگوریتم نایوبیز

نویسندگان

مرضیه زاهد

دانشجوی دانشکده مهندسی فناوری اطلاعات و کامپیوتر- دانشگاه صنعتی ارومیه- ارومیه-ایران

جعفر طهمورث نژاد

استادیار دانشکده مهندسی فناوری اطلاعات و کامپیوتر- دانشگاه صنعتی ارومیه- ارومیه-ایران