بررسی و مقایسه روش های استخراج نمونه های تکراری در داده های حجیم

سال انتشار: 1396
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 443

فایل این مقاله در 11 صفحه با فرمت PDF و WORD قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

CITCOMP02_181

تاریخ نمایه سازی: 7 اسفند 1396

چکیده مقاله:

با توجه به گسترش اینترنت و فراگیر شدن آن روزانه حجم بالایی از اطلاعات ایجاد می شود. پردازش این حجم از داده ها نیاز به سیستمی با قدرت پردازشی بالا دارد. سیستم های رایج امروزی قادر به پردازش چنین داده هایی با حجم زیاد نمی باشند و از طرف دیگر تامین سیستم هایی با توان پردازشی بالا به دلیل هزینه های زیاد از عهده سازمان ها خارج است. استخراج الگوهای تکراری منافع تحقیقاتی متعددی را در دو دهه گذشته جذب کرده از جمله استخراج مجموعه نمونه های تکراری از معاملات و استخراج توالی تکرار. استخراج الگوهای تکراری پیامدهایی را به دنبال خود دارد از جمله پیچیدگی فضا: داده های ورودی، نتایج میانی و الگوهای خروجی می توانند برای قرارگیری در حافظه بسیار بزرگ باشند که مانع اجرای تعداد زیادی از الگوریتم ها می شود و همچنین پیچیدگی زمانی: بسیاری از روش های موجود روی جستجو کامل یا ساختارهای داده ای پیچیده برای استخراج الگوهای تکراری تکیه می کنند که این کار برای داده های حجیم غیرقابل اجراست. تاکنون روش های گوناگونی برای مقابله با این چالش ها بیان شده که در اینجا چند مورد از آن ها را بیان کرده و مورد مقایسه قرار می دهیم و در آخر نیز از روش های ارایه شده جمع بندی می کنیم.

نویسندگان

ستار مرادی

دانشجوی کارشناسی ارشد کارشناسی ارشد، دانشگاه جامع امام حسین(ع)، تهران، تهران

مهدی نقوی

استادیار گروه کامپیوتر، دانشگاه جامع امام حسین(ع)، تهران، تهران