CIVILICA We Respect the Science
ناشر تخصصی کنفرانسهای ایران
عنوان
مقاله

A Review on Web Search Engines’ Automatic Evaluation Methods and How to Select the Evaluation Method

اعتبار موردنیاز PDF: ۱ WORD: ۳ | تعداد صفحات: ۷ | تعداد نمایش خلاصه: ۴۰۷ | نظرات: ۰
سال انتشار: ۱۳۹۵
نوع ارائه: شفاهی
کد COI مقاله: IRANWEB02_057
زبان مقاله: انگلیسی
حجم فایل: ۲۵۸.۰۴ کیلوبایت (فایل این مقاله در ۷ صفحه با فرمت PDF قابل دریافت می باشد)
محتوای کامل این مقاله با فرمت WORD هم قابل دریافت می باشد.

راهنمای دانلود فایل کامل این مقاله

اگر در مجموعه سیویلیکا عضو نیستید، به راحتی می توانید از طریق فرم روبرو اصل این مقاله را خریداری نمایید.
با عضویت در سیویلیکا می توانید اصل مقالات را با حداقل ۳۳ درصد تخفیف (دو سوم قیمت خرید تک مقاله) دریافت نمایید. برای عضویت در سیویلیکا به صفحه ثبت نام مراجعه نمایید. در صورتی که دارای نام کاربری در مجموعه سیویلیکا هستید، ابتدا از قسمت بالای صفحه با نام کاربری خود وارد شده و سپس به این صفحه مراجعه نمایید.
لطفا قبل از اقدام به خرید اینترنتی این مقاله، ابتدا تعداد صفحات مقاله را در بالای این صفحه کنترل نمایید.
برای راهنمایی کاملتر راهنمای سایت را مطالعه کنید.

خرید و دانلود فایل PDF یا WORD مقاله

با استفاده از پرداخت اینترنتی بسیار سریع و ساده می توانید اصل این مقاله را که دارای ۷ صفحه است به صورت فایل PDF و یا WORD در اختیار داشته باشید.
آدرس ایمیل خود را در کادر زیر وارد نمایید:

مشخصات نویسندگان مقاله A Review on Web Search Engines’ Automatic Evaluation Methods and How to Select the Evaluation Method

  Masomeh Azimzadeh - Information Technology Research Group Information and Telecommunication Research Center (ITRC) Tehran, Iran
  Reza Badie - Information Technology Research GroupInformation and Telecommunication Research Center (ITRC)Tehran, Iran
  Mohammad Mehdi Esnaashari - Information Technology Research GroupInformation and Telecommunication Research Center (ITRC)Tehran, Iran

چکیده مقاله:

Nowadays search engines are recognized as the pathway for accessing the tremendous amount of information in the internet. They provide aids and services for solving users’ different information needs. Thus, being able to evaluate their effectiveness and performance is constantly gaining importance because these evaluations are useful for both developers and users of search engines. Developers can use the evaluation results for improving their strategies and paradigms in the development of search engines. Users, on the other hand, can identify the best performing search engines and in a better, quicker and more accurate way, gratify their information needs. Evaluation of search engines can be done in two different ways; either manually using human arbitrators or automatically using automatic machinery approaches which do not use human arbitrators and their judgments. In the case of manual evaluation methods, by now numerous and standard activities had been carried out by organizers and participants of conferences like TREC or CLEF. In the case of automatic evaluation methods, unlike variety of efforts which had been done by different researchers, no categorization and organization of such methods exists so far. As a result, anyone that wants to use one of the automatic evaluation methods must read all the relevant literature of these methods which is very time consuming and confusing activity. In this paper, we have reviewed almost all the important reported automatic methods for evaluation of search engines. Analyzing the results of this review, we have stated the requirements and prerequisites of using any of these methods. At the end, a framework for selecting the best pertinent method for each evaluation scenario has been suggested.

کلیدواژه‌ها:

Web search engine, information retrieval, automatic evaluation methods

کد مقاله/لینک ثابت به این مقاله

برای لینک دهی به این مقاله، می توانید از لینک زیر استفاده نمایید. این لینک همیشه ثابت است و به عنوان سند ثبت مقاله در مرجع سیویلیکا مورد استفاده قرار میگیرد:
https://www.civilica.com/Paper-IRANWEB02-IRANWEB02_057.html
کد COI مقاله: IRANWEB02_057

نحوه استناد به مقاله:

در صورتی که می خواهید در اثر پژوهشی خود به این مقاله ارجاع دهید، به سادگی می توانید از عبارت زیر در بخش منابع و مراجع استفاده نمایید:
Azimzadeh, Masomeh; Reza Badie & Mohammad Mehdi Esnaashari, ۱۳۹۵, A Review on Web Search Engines’ Automatic Evaluation Methods and How to Select the Evaluation Method, دومین کنفرانس بین المللی وب پژوهی, تهران, دانشگاه علم و فرهنگ, https://www.civilica.com/Paper-IRANWEB02-IRANWEB02_057.html

در داخل متن نیز هر جا که به عبارت و یا دستاوردی از این مقاله اشاره شود پس از ذکر مطلب، در داخل پارانتز، مشخصات زیر نوشته می شود.
برای بار اول: (Azimzadeh, Masomeh; Reza Badie & Mohammad Mehdi Esnaashari, ۱۳۹۵)
برای بار دوم به بعد: (Azimzadeh; Badie & Esnaashari, ۱۳۹۵)
برای آشنایی کامل با نحوه مرجع نویسی لطفا بخش راهنمای سیویلیکا (مرجع دهی) را ملاحظه نمایید.

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :

  • because there is no adequate level of overlap among results ...
  • S. Moosavi, M. Azimzadeh, M Mahmoudy, A. Yari, "Presenting an ...
  • R. Badie, M. Azimzadeh, M.S. Zahedi, S. Samuri, ،Automatic evaluation ...
  • M. Mahmoudy, M. Sadegh zahedi, M. Azimzadeh, "Evaluating the retrieval ...
  • I. Soboroff, C. Nicholas, and P. Cahan, "Ranking retrieval systems ...
  • in Procedings of the 28th annual international ACM SIGIR conference ...
  • Y. Liu, Y. Fu, M. Zhang, S. Ma, and L. ...
  • mapping users' relevance judgments, " Journal of the American [15] ...
  • S. Wu and F. Crestani, "Methods for ranking information retrieval ...
  • J. Callan, M. Connell, and A. Du, "Automatic discovery of ...
  • Clickthrough Data, " ed: Citeseer, 2003. ...
  • G. Mood, "Boes, Introduction to the theory of statistics, " ...
  • H. Sharma and B. J. Jansen, "Automated evaluation of search ...
  • R. Ali and M. S. Beg, "Automatic performance evaluation of ...
  • R. Nuray and F. Can, "Automatic ranking of information retrieval ...
  • Performance Evaluation of Web Automatic:ه [12] F. Can, R. Nuray, ...
  • W. Tawileh, J. Griesbaum, T. Mand1 , Evaluation of five ...
  • international ACM SIGIR conference _ Research and development in information ...
  • S. P. Harter, "Variations in relevance assessmeno and the measurement ...
  • A. Spink and H .Greisdorf, "Regions and levels: measuring and ...
  • Society for Information science and Technology, vol. 52, pp. 161- ...
  • A. Chowdhury and I. Soboroff, "Automatic evaluation of world wide ...
  • S. M. Beitzel, E. C. Jensen, A. Chowdhury, and D. ...
  • evaluation of Web search engines, " Information processing & management, ...
  • T. Joachims, L. Granka, B. Pan, H. Hembrooke, and G. ...
  • D. Lewandowski, Evaluating the retrieval effectiveness of Web [24] J. ...
  • Online Information Review 35(6), 854-868. (2011). ...
  • علم سنجی و رتبه بندی مقاله

    مشخصات مرکز تولید کننده این مقاله به صورت زیر است:
    نوع مرکز: پژوهشگاه دولتی
    تعداد مقالات: ۵۶۶
    در بخش علم سنجی پایگاه سیویلیکا می توانید رتبه بندی علمی مراکز دانشگاهی و پژوهشی کشور را بر اساس آمار مقالات نمایه شده مشاهده نمایید.

    مدیریت اطلاعات پژوهشی

    اطلاعات استنادی این مقاله را به نرم افزارهای مدیریت اطلاعات علمی و استنادی ارسال نمایید و در تحقیقات خود از آن استفاده نمایید.

    مقالات مرتبط جدید

    شبکه تبلیغات علمی کشور

    به اشتراک گذاری این صفحه

    اطلاعات بیشتر درباره COI

    COI مخفف عبارت CIVILICA Object Identifier به معنی شناسه سیویلیکا برای اسناد است. COI کدی است که مطابق محل انتشار، به مقالات کنفرانسها و ژورنالهای داخل کشور به هنگام نمایه سازی بر روی پایگاه استنادی سیویلیکا اختصاص می یابد.
    کد COI به مفهوم کد ملی اسناد نمایه شده در سیویلیکا است و کدی یکتا و ثابت است و به همین دلیل همواره قابلیت استناد و پیگیری دارد.