CIVILICA We Respect the Science
(ناشر تخصصی کنفرانسهای کشور / شماره مجوز انتشارات از وزارت فرهنگ و ارشاد اسلامی: ۸۹۷۱)

توسعه چارچوب یادگیری تقریبا احتمالا درست برای داده های وابسته

عنوان مقاله: توسعه چارچوب یادگیری تقریبا احتمالا درست برای داده های وابسته
شناسه ملی مقاله: CSCG03_169
منتشر شده در سومین کنفرانس بین المللی محاسبات نرم در سال 1398
مشخصات نویسندگان مقاله:

سید محمد علی ارغوان - دانشجو، دانشگاه خوارزمی؛
عین اله پاشا - استاد، دانشگاه خوارزمی
میرمحسن پدرام - دانشیار، دانشگاه خوارزمی

خلاصه مقاله:
در سال های اخیر، یادگیری ماشین با توجه به عملکرد خوب آن در کاربردهای گوناگون، یکی از موضوعات مهم تحقیقاتی بوده است. در مدل های یادگیری ماشین، اگر نمونه های آموزشی از یک فرایند تصادفی با توزیع ثابت و به طور مستقل تولید شوند، پشتوانه نظری برای عملکرد خوب آن وجود خواهد داشت. با این حال، اغلب این فرض در بسیاری از مسائل دنیای واقعی برقرار نیست . در بسیاری از برنامه های کاربردی برای یادگیری ماشین مانند پیش بینی بازار و تشخیص گفتار، داده ها به لحاظ ماهیتی وابستگی زمانی دارند و مستقل نیستند. علاوه بر این، نمونه ها اغلب از منابع مختلف جمع آوری می شوند و بنابراین هم توزیع نیستند. لذا در چنین مسائلی، تحلیل عملکرد مدل های یادگیری ماشین با چالش نظری مواجه است. چارچوب یادگیری تقریبا احتمالا درست ، چارچوبی استاندارد برای تحلیل مدل های یادگیری ماشین است که توسط والینت معرفی شده است. این چارچوب از یک رویکرد احتمالاتی برای یافتن کران بالای خطای یادگیری استفاده می کند و دو فرض اساسی آن استقلال و هم توزیعی داده ها می باشد. در این پایان نامه تلاش می شود چارچوب یادگیری تقریبا احتمالا درست برای داده های وابسته گسترش داده شود، همچنین نشان داده می شود که اگر داده ها از یک فرایند ثابت با ویژگی های اختلاط تولید شوند، شرایط چارچوب یادگیری تقریبا احتمالا درست حفظ خواهد شد . در پایان ثابت می شود که اگر فرایند تولید داده ها از قانون اعداد بزرگ پیروی کند، در چارچوب تقریبا احتمالا درست قابل یادگیری است.

کلمات کلیدی:
یادگیری ماشین، یادگیری تقریبا احتمالا درست، ویژگی های اختلاط، قانون اعداد بزرگ

صفحه اختصاصی مقاله و دریافت فایل کامل: https://civilica.com/doc/1006108/