این سایت در حال حاضر پشتیبانی نمی شود و امکان دارد داده های نشریات بروز نباشند
صفحه اصلی
درباره پایگاه
فهرست سامانه ها
الزامات سامانه ها
فهرست سازمانی
تماس با ما
JCR 2016
جستجوی مقالات
سه شنبه 25 آذر 1404
مهندسی و مدیریت انرژی
، جلد ۱۲، شماره ۲، صفحات ۲-۱۱
عنوان فارسی
برنامهریزی بهرهبرداری ریزشبکهها مبتنی بر الگوریتم یادگیری تقویتی عمیق
چکیده فارسی مقاله
در این مقاله، برنامهریزی بهرهبرداری ریزشبکهها مشتمل بر منابع تولید انرژی و سیستمهای ذخیره انرژی مبتنی بر یادگیری تقویتی عمیق ارائه شده است. با توجه به خاصیت پویایی مسئله، ابتدا در قالب یک فرایند تصمیمگیری مارکوف متشکل از چهارتایی (حالت، اقدام، تابع احتمال انتقال و پاداش) فرمولبندی شده است. سپس، الگوریتم گرادیان استراتژی قطعی عمیق بهمنظور یادگیری استراتژی بهینۀ برنامهریزی بهرهبرداری ریزشبکه با هدف کمینه کردن هزینههای بهرهبرداری ارائه شده است. این الگوریتم یک روش بینیاز از مدل، مستقل از استراتژی و بر مبنای معماری عامل-نقاد است که میتواند بهخوبی فضای حالت و اقدام مسئله را بهصورت پیوسته مدلسازی و بر چالش بزرگ بودن ابعاد مسئله غلبه کند. بهمنظور ارزیابی الگوریتم ارائهشده، نتایج با الگوریتم یادگیری Q عمیق و روش تحلیلی مقایسه شد. نتایج حاصل از شبیهسازی، کارایی الگوریتم گرادیان استراتژی قطعی عمیق ارائهشده را از جهت همگرایی، زمان اجرا و هزینۀ کل نشان دادند.
کلیدواژههای فارسی مقاله
ریزشبکه، گرادیان استراتژی قطعی عمیق، فرایند تصمیمگیری مارکوف، برنامهریزی بهرهبرداری
عنوان انگلیسی
Operation Scheduling of MGs Based on Deep Reinforcement Learning Algorithm
چکیده انگلیسی مقاله
: In this paper, the operation scheduling of Microgrids (MGs), including Distributed Energy Resources (DERs) and Energy Storage Systems (ESSs), is proposed using a Deep Reinforcement Learning (DRL) based approach. Due to the dynamic characteristic of the problem, it firstly is formulated as a Markov Decision Process (MDP). Next, Deep Deterministic Policy Gradient (DDPG) algorithm is presented to minimize total operational costs by learning the optimal strategy for operation scheduling of MG systems. This model-free algorithm deploys an actor-critic architecture which can not only model the continuous state and action spaces properly but also overcome the curse of dimensionality. In order to evaluate the efficiency of the proposed algorithm, the results were compared with the analytical method and a Q-based learning algorithm which demonstrates the capability of the DDPG method from the aspects of convergence, running time, and total costs.
کلیدواژههای انگلیسی مقاله
Microgrid, Deep deterministic policy gradient, Markov decision process, Operational scheduling
نویسندگان مقاله
سعید اسمعیلی | Saeid Esmaeili
Iran University of Science and Technology
دانشگاه علم و صنعت ایران، تهران، ایران
علیرضا ناطقی | Alireza Nateghi
Faculty of Electrical and Computer Engineering, Shahid Sattari University of Aeronautical Engineering
دانشگاه علوم و فنون هوایی شهید ستاری
حسن زارع | Hassan Zare
Department of Electrical Engineering, Technical and vocational University (TVU)
استادیار گروه مهندسی برق، دانشگاه فنی و حرفهای
حسین اصغرپورعلمداری | hossein asgharpour-Alamdari
Department of Electrical Engineering, Technical and vocational University (TVU)
استادیار گروه مهندسی برق، دانشگاه فنی و حرفهای
نشانی اینترنتی
http://energy.kashanu.ac.ir/browse.php?a_code=A-10-2822-1&slc_lang=fa&sid=1
فایل مقاله
فایلی برای مقاله ذخیره نشده است
کد مقاله (doi)
زبان مقاله منتشر شده
fa
موضوعات مقاله منتشر شده
مهندسی برق
نوع مقاله منتشر شده
پژوهشی
برگشت به:
صفحه اول پایگاه
|
نسخه مرتبط
|
نشریه مرتبط
|
فهرست نشریات