حملات تخاصمی در یک مدل تحلیل احساس متن

سال انتشار: 1400
نوع سند: مقاله ژورنالی
زبان: فارسی
مشاهده: 287

فایل این مقاله در 9 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_IMPCS-2-2_008

تاریخ نمایه سازی: 20 دی 1401

چکیده مقاله:

: شبکه های عصبی عمیق دقت و کارایی بالایی در حل مسائل مختلف دارند اما در برابر نمونه های تخاصمی آسیب پذیر هستند. این دسته از نمونه های مخرب به منظور فریب مدل آموزش دیده و بررسی آسیب پذیری مدل های شبکه عصبی تولید می شوند. در حوزه متن روش های موفق زیادی برای ساخت این نمونه ها ارائه نشده است. در این پژوهش یک روش قوی مبتنی بر گرادیان تابع هزینه مدل برای تولید نمونه-های تخاصمی متنی ارائه شده و نشان داده شده که می توان با جایگزینی تعداد کمی از کلمات موجود در نمونه های اصلی با کلماتی که بیشترین تاثیر منفی را روی تصمیم طبقه بند دارند، نمونه های جدیدی مشابه با نمونه های اولیه برای فریب طبقه بند تحلیل احساس در سطح کلمه تولید نمود. در نهایت با بهره گیری از این نمونه ها دقت دو مدل طبقه بند از پیش آموزش دیده بررسی شد. روش مورد استفاده در این پژوهش، با دست کاری اندک نمونه های ورودی، موفق به کاهش دقت طبقه بندی از ۸۶ درصد به کمتر از ۱۰ درصد شده است.

نویسندگان

سحر مکرمی سفیدآب

دانشکده فنی، دانشگاه گیلان، رشت، ایران

سیدابوالقاسم میرروشندل

استادیار، دانشکده فنی، دانشگاه گیلان، رشت، ایران

حمیدرضا احمدی فر

استادیار، دانشکده فنی، دانشگاه گیلان، رشت، ایران

مهد ی مکرمی

دانشگاه پیام نور واحد رشت، رشت، ایران

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • C.Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhun, I. ...
  • R. Jia., P. Liang, Adversarial examples for evaluating reading comprehension ...
  • I. Fursov, A. Zaytsev, P. Burnyshev, E. Dmitrieva, N. Klyuchnikov, ...
  • Z. Kong, J. Xue, Y. Wang, L. Huang, Z. Niu ...
  • J. Xu and Q. Du, “TextTricker:Loss-based and gradient-based adversarial attacks ...
  • H. Hosseini, S. Kannan, B. Zhang and R. Poovendran, “Deceiving ...
  • M. Alzantot, Y. Sharma, A. Elgohary, B. Ho, M. Srivastava ...
  • B. Liang, H. Li, M. Su, P. Bian, X. Li ...
  • S. Samanta and S. Mehta, “Towards crafting text adversarial samples”, ...
  • N. Papernot, P. McDaniel, A. Swami and R. Harang,“Crafting adversarial ...
  • M. Sato, J. Suzuki, H. Shindo and Y. Matsumoto, “Interpretable ...
  • M. Behjati, S. M. Moosavi-Dezfooli, M. SoleymaniBaghshah and P. Frossard, ...
  • L. Song, X. Yu, H. Peng and K. Narasimhan, “Universal ...
  • S. Ren, Y. Deng, H. He and W. Che,“Generating natural ...
  • J. Ebrahimi, A. Rao, D. Lowd and D. Dou, “Hotflip: ...
  • E. Wallace, S Feng, N. Kandpal, M. Gardner and S. ...
  • H. Zhang, H. Zhou, N. Miao and L. Li, “Generating ...
  • R. Socher, A. Perelygin, J. Wu, J. Chuang, C. D ...
  • T. Mikolov, E. Grave, P. Bojanowski, C. Puhrsch and A. ...
  • نمایش کامل مراجع