توسعه چارچوب یادگیری تقریبا احتمالا درست برای داده های وابسته
محل انتشار: سومین کنفرانس بین المللی محاسبات نرم
سال انتشار: 1398
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 439
فایل این مقاله در 7 صفحه با فرمت PDF قابل دریافت می باشد
- صدور گواهی نمایه سازی
- من نویسنده این مقاله هستم
این مقاله در بخشهای موضوعی زیر دسته بندی شده است:
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
CSCG03_169
تاریخ نمایه سازی: 14 فروردین 1399
چکیده مقاله:
در سال های اخیر، یادگیری ماشین با توجه به عملکرد خوب آن در کاربردهای گوناگون، یکی از موضوعات مهم تحقیقاتی بوده است. در مدل های یادگیری ماشین، اگر نمونه های آموزشی از یک فرایند تصادفی با توزیع ثابت و به طور مستقل تولید شوند، پشتوانه نظری برای عملکرد خوب آن وجود خواهد داشت. با این حال، اغلب این فرض در بسیاری از مسائل دنیای واقعی برقرار نیست . در بسیاری از برنامه های کاربردی برای یادگیری ماشین مانند پیش بینی بازار و تشخیص گفتار، داده ها به لحاظ ماهیتی وابستگی زمانی دارند و مستقل نیستند. علاوه بر این، نمونه ها اغلب از منابع مختلف جمع آوری می شوند و بنابراین هم توزیع نیستند. لذا در چنین مسائلی، تحلیل عملکرد مدل های یادگیری ماشین با چالش نظری مواجه است. چارچوب یادگیری تقریبا احتمالا درست ، چارچوبی استاندارد برای تحلیل مدل های یادگیری ماشین است که توسط والینت معرفی شده است. این چارچوب از یک رویکرد احتمالاتی برای یافتن کران بالای خطای یادگیری استفاده می کند و دو فرض اساسی آن استقلال و هم توزیعی داده ها می باشد. در این پایان نامه تلاش می شود چارچوب یادگیری تقریبا احتمالا درست برای داده های وابسته گسترش داده شود، همچنین نشان داده می شود که اگر داده ها از یک فرایند ثابت با ویژگی های اختلاط تولید شوند، شرایط چارچوب یادگیری تقریبا احتمالا درست حفظ خواهد شد . در پایان ثابت می شود که اگر فرایند تولید داده ها از قانون اعداد بزرگ پیروی کند، در چارچوب تقریبا احتمالا درست قابل یادگیری است.
کلیدواژه ها:
نویسندگان
سید محمد علی ارغوان
دانشجو، دانشگاه خوارزمی؛
عین اله پاشا
استاد، دانشگاه خوارزمی
میرمحسن پدرام
دانشیار، دانشگاه خوارزمی