این سایت در حال حاضر پشتیبانی نمی شود و امکان دارد داده های نشریات بروز نباشند
مهندسی و مدیریت انرژی، جلد ۱۲، شماره ۲، صفحات ۲-۱۱

عنوان فارسی برنامه‌ریزی بهره‌برداری ریزشبکه‌ها مبتنی بر الگوریتم یادگیری تقویتی عمیق
چکیده فارسی مقاله در این مقاله، برنامه‌ریزی بهره‌برداری ریزشبکه‌ها مشتمل بر منابع تولید انرژی و سیستم‌های ذخیره انرژی مبتنی بر یادگیری تقویتی عمیق ارائه شده است. با توجه به خاصیت پویایی مسئله، ابتدا در قالب یک فرایند تصمیم‌گیری مارکوف متشکل از چهارتایی (حالت، اقدام، تابع احتمال انتقال و پاداش) فرمول‌بندی شده است. سپس، الگوریتم گرادیان استراتژی قطعی عمیق به‌منظور یادگیری استراتژی بهینۀ برنامه‌ریزی بهره‌برداری ریزشبکه با هدف کمینه کردن هزینه‌های بهره‌برداری ارائه شده است. این الگوریتم یک روش بی‌نیاز از مدل، مستقل از استراتژی و بر مبنای معماری عامل-نقاد است که می‌تواند به‌خوبی فضای حالت و اقدام مسئله را به‌صورت پیوسته مدل‌سازی و بر چالش بزرگ بودن ابعاد مسئله غلبه کند. به‌منظور ارزیابی الگوریتم ارائه‌شده، نتایج با الگوریتم یادگیری Q عمیق و روش تحلیلی مقایسه شد. نتایج حاصل از شبیه‌سازی، کارایی الگوریتم گرادیان استراتژی قطعی عمیق ارائه‌شده را از جهت همگرایی، زمان اجرا و هزینۀ کل نشان دادند. 
کلیدواژه‌های فارسی مقاله ریزشبکه، گرادیان استراتژی قطعی عمیق، فرایند تصمیم‌گیری مارکوف، برنامه‌ریزی بهره‌برداری

عنوان انگلیسی Operation Scheduling of MGs Based on Deep Reinforcement Learning Algorithm
چکیده انگلیسی مقاله : In this paper, the operation scheduling of Microgrids (MGs), including Distributed Energy Resources (DERs) and Energy Storage Systems (ESSs), is proposed using a Deep Reinforcement Learning (DRL) based approach. Due to the dynamic characteristic of the problem, it firstly is formulated as a Markov Decision Process (MDP). Next, Deep Deterministic Policy Gradient (DDPG) algorithm is presented to minimize total operational costs by learning the optimal strategy for operation scheduling of MG systems. This model-free algorithm deploys an actor-critic architecture which can not only model the continuous state and action spaces properly but also overcome the curse of dimensionality. In order to evaluate the efficiency of the proposed algorithm, the results were compared with the analytical method and a Q-based learning algorithm which demonstrates the capability of the DDPG method from the aspects of convergence, running time, and total costs.
کلیدواژه‌های انگلیسی مقاله Microgrid, Deep deterministic policy gradient, Markov decision process, Operational scheduling

نویسندگان مقاله سعید اسمعیلی | Saeid Esmaeili
Iran University of Science and Technology
دانشگاه علم و صنعت ایران، تهران، ایران

علیرضا ناطقی | Alireza Nateghi
Faculty of Electrical and Computer Engineering, Shahid Sattari University of Aeronautical Engineering
دانشگاه علوم و فنون هوایی شهید ستاری

حسن زارع | Hassan Zare
Department of Electrical Engineering, Technical and vocational University (TVU)
استادیار گروه مهندسی برق، دانشگاه فنی و حرفه‌ای

حسین اصغرپورعلمداری | hossein asgharpour-Alamdari
Department of Electrical Engineering, Technical and vocational University (TVU)
استادیار گروه مهندسی برق، دانشگاه فنی و حرفه‌ای


نشانی اینترنتی http://energy.kashanu.ac.ir/browse.php?a_code=A-10-2822-1&slc_lang=fa&sid=1
فایل مقاله فایلی برای مقاله ذخیره نشده است
کد مقاله (doi)
زبان مقاله منتشر شده fa
موضوعات مقاله منتشر شده مهندسی برق
نوع مقاله منتشر شده پژوهشی
برگشت به: صفحه اول پایگاه   |   نسخه مرتبط   |   نشریه مرتبط   |   فهرست نشریات