افزایش داده و انتخاب موثر ویژگی در شبکه های مولد متخاصمی جهت تشخیص احساس از گفتار

سال انتشار: 1402
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 89

فایل این مقاله در 17 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_JME-21-72_001

تاریخ نمایه سازی: 14 تیر 1402

چکیده مقاله:

تا کنون، یقینی مبتنی بر موفقیت و یا عدم موفقیت به کارگیری روش های کاهش ویژگی جهت افزایش کارایی سیستم های تشخیص احساس از گفتار حاصل نشده است. این مقاله باهدف افزایش داده ها در یک سیستم تشخیص احساس از گفتار، انتخاب ویژگی را موردبحث و بررسی قرار می دهد. آزمایش ها بر روی چهار پایگاه داده متداول EMO-DB، eNTERFACE۰۵، SAVEE و IEMOCAP در نرم افزار پایتون انجام گردیده و علاوه بر این، تجزیه وتحلیل داده ها بر روی هر چهار پایگاه داده برای چهار احساس غم، عصبانیت، خوشحالی و خنثی ارائه خواهد شد. یک شبکه افزایش داده متخاصمی جهت افزایش نمونه ها و دو شبکه انتخاب ویژگی ترکیبی معیار فیشر و الگوریتم جداساز خطی طی دو مرحله و با فیدبکی که از شبکه طبقه بند گرفته می شود سیستم تشخیص احساس از گفتار را به نقطه بهینه ای از تعداد و ابعاد داده ها رسانیده و نشان می دهد آنالیز مولفه های اصلی روی داده های همبسته موثرتر و الگوریتم جداساز خطی روی داده های با بعد کم بهتر عمل می کنند. همچنان که روش فیشر در کاهش سایز بهتر از آنالیز مولفه های اصلی عمل می کند. همچنین ماشین بردار پشتیبان جهت طبقه بندی احساسات مورداستفاده قرار گرفته است. نتایج نشان می دهد که استفاده از هر دو روش جداساز خطی و معیار فیشر به طور هم زمان در سیستم افزایش داده متخاصمی می تواند ویژگی ها را در ابعاد کمتر فیلتر نموده درحالی که اطلاعات احساسی را جهت طبقه بندی حفظ نماید. نتایج به دست آمده با تحقیقات اخیر انجام شده مقایسه و روش پیشنهادی توانست به صحت ۸۶.۳۲% در پایگاه داده برلین دست یابد.

کلیدواژه ها:

پردازش گفتار ، انتخاب ویژگی ، افزایش داده ، تشخیص احساس از گفتار ، شبکه های مولد متخاصمی

نویسندگان

آرش شیلاندری

دانشکده مهندسی برق - دانشگاه صنعتی شاهرود - شاهرود - ایران

حسین مروی

دانشکده مهندسی برق - دانشگاه صنعتی شاهرود - شاهرود - ایران

حسین خسروی

گروه الکترونیک، دانشکده مهندسی برق، دانشگاه صنعتی شاهرود، شاهرود، ایران

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • Eva Lieskovská, Maroš Jakubec, Roman Jarina and Michal Chmulík, “A ...
  • Akçay, M.B.; O˘guz, K. Speech emotion recognition: Emotional models, databases, ...
  • C. Sima and E. R. Dougherty, “The peaking phenomenon in ...
  • J. Rong, G. Li, and Y.-P. P. Chen, “Acoustic feature ...
  • F. Eyben, F. Weninger, F. Gross, and B. Schuller, “Recent ...
  • S. N. Negahban, P. Ravikumar, M. J. Wainwright, and B. ...
  • H. Zou, T. Hastie, and R. Tibshirani, “Sparse principal component ...
  • I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, ...
  • E. Bozkurt, E. Erzin, Ç. E. Erdem, and A. T. ...
  • S. Wu, T. H. Falk, and W.-Y. Chan, “Automatic speech ...
  • P. Laukka, D. Neiberg, M. Forsell, I. Karlsson, and K. ...
  • H. Pérez-Espinosa, C. A. Reyes-García, and L. Villaseñor-Pineda, “Acoustic feature ...
  • علی حریمی، علیرضا احمدی فرد، علی شهزادی و خشایار یغمایی، ...
  • K. Han, D. Yu, and I. Tashev, Speech Emotion Recognition ...
  • H. Palo and M. Mohanty, “Modified-VQ Features for Speech Emotion ...
  • B. Schuller, R. Müller, M. Lang, and G. Rigoll, Speaker ...
  • I. Luengo, E. Navas, and I. Hernáez, “Feature Analysis and ...
  • D. Gharavian, M. Sheikhan, and F. Ashoftedel, “Emotion recognition improvement ...
  • X. Zhao, S. Zhang, and B. Lei, “Robust emotion recognition ...
  • H. Hu, T. Tan, and Y. Qian, “Generative adversarial network-based ...
  • A. Harimi and Kh. Yaghmaie, “improving speech emotion recognition via ...
  • M. Sadeghi, H. Marvi and A. Ahmadifard “A New and ...
  • سیدعلی سلیمانی ایوری، محمدرضا فدوی امیری و حسین مروی، "تولید ...
  • M. Chourasia, S. Haral, , S. Bhatkar, and S. Kulkarni, ...
  • J. Chang, S. Scherer. “Learning representations of emotional speech with ...
  • F. Eyben, F. Weninger, F. Gross and B. Schuller. “Recent ...
  • I. Goodfellow. “NIPS ۲۰۱۶ tutorial: Generative adversarial networks”. In: arXiv ...
  • F. Bao, M. Neumann, and N. T. Vu, “Cyclegan-based emotion ...
  • W. Y. Zhao, “Discriminant component analysis for face recognition,” in ...
  • F. Burkhardt, A. Paeschke, M. Rolfes, W. F. Sendlmeier, and ...
  • B. Yang and M. Lugger, “Emotion recognition from speech signals ...
  • I. Luengo, E. Navas, and I. Hernáez, “Feature Analysis and ...
  • G. Paraskevopoulos, E. Tzinis, N. Ellinas, T. Giannakopoulos, and A. ...
  • S. Sahu, R. Gupta, and C. Espy-Wilson, “On enhancing speech ...
  • S. Latif , M. Asim, R. Rana, S. Khalifa, R. ...
  • نمایش کامل مراجع