بهبود یادگیری Q با استفاده از همزمانی به روز رسانی و رویه تطبیقی بر پایه عمل متضاد
محورهای موضوعی : مهندسی برق و کامپیوترمریم پویان 1 , شهرام گلزاري 2 , امین موسوی 3 , احمد حاتم 4
1 - دانشگاه هرمزگان
2 - دانشگاه هرمزگان
3 - دانشگاه هرمزگان
4 - دانشگاه هرمزگان
کلید واژه:
چکیده مقاله :
روش یادگیری Q یکی از مشهورترین و پرکاربردترین روشهای یادگیری تقویتی مستقل از مدل است. از جمله مزایای این روش عدم وابستگی به آگاهی از دانش پیشین و تضمین در رسیدن به پاسخ بهینه است. یکی از محدودیتهای این روش کاهش سرعت همگرایی آن با افزایش بعد است. بنابراین افزایش سرعت همگرایی به عنوان یک چالش مطرح است. استفاده از مفاهیم عمل متضاد در یادگیری Q، منجر به بهبود سرعت همگرایی میشود زیرا در هر گام یادگیری، دو مقدار Q به طور همزمان به روز میشوند. در این مقاله روشی ترکیبی با استفاده از رویه تطبیقی در کنار مفاهیم عمل متضاد برای افزایش سرعت همگرایی مطرح شده است. روشها برای مسئله Grid world شبیهسازی شده است. روشهای ارائهشده بهبود در میانگین درصد نرخ موفقیت، میانگین درصد حالتهای بهینه، متوسط تعداد گامهای عامل برای رسیدن به هدف و میانگین پاداش دریافتی را نشان میدهند.
Q-learning is a one of the most popular and frequently used model-free reinforcement learning method. Among the advantages of this method is independent in its prior knowledge and there is a proof for its convergence to the optimal policy. One of the main limitations of this method is its low convergence speed, especially when the dimension is high. Accelerating convergence of this method is a challenge. Q-learning can be accelerated the convergence by the notion of opposite action. Since two Q-values are updated simultaneously at each learning step. In this paper, adaptive policy and the notion of opposite action are used to speed up the learning process by integrated approach. The methods are simulated for the grid world problem. The results demonstrate a great advance in the learning in terms of success rate, the percent of optimal states, the number of steps to goal, and average reward.
