ش | ی | د | س | چ | پ | ج |
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
در طی دو- سه دهه ی اخیرصنعت برق در سرتاسر جهان،گذار از ساختارهای یک پارچه یعمودی را به سمت بازارهای آزاد
رقابتی آغاز کرده است. با وجودحرکت به سمت فضای رقابتی،متأسفانه این گذار به صورتکامل صورت نگرفته است، و
بازارهایی با رقابت ناکامل ایجادشده اند. در بازاری با رقابتناکامل، تولید کننده گان درمییابند که اگر قیمتی بالاتر از هزینه ی
حدی شان پیشنهاد دهند ممکن است سود بیشتری به دست آورند.بنابراین نیاز به ابزارهای مناسب برای قیمت دهی بیش از پیش
احساس می شود. ویژگی هایی نظیر اطلاعات نامتقارن، رقابت ناکامل،تعامل استراتژیک، یادگیری تجمعی، و امکان تعادل چندگانه
برای دریافت اطلاعات بیشتر و دانلود به ادامه مطلب مراجعه نمایید.
سبب پیچیده شدن بازار برق شده و استفاده از روش های سنتی را برایمدل سازی بازار برق با مشکل مواجه کرده است . اقتصاد
محاسباتی مبتنی بر عامل یکی از روش های قدرتمند و جذابی است که بهخوبی می تواند با این پیچیده گی ها مواجه شود . در میان
روش های مدل سازی مبتنی بر عامل، یادگیری تقویتی به دلیل ذات عاملمحور بودن خود برای مدل سازی مبتنی بر عامل سیستم های
از آن جا که برای Q- پیچیده از جمله بازار برق بسیار توانمند می باشد؛ و دربین الگوریتم های یادگیری تقویتی، الگوریتم یادگیری
تصمیم گیری به مدل سیستم نیاز ندارد، برای مدل سازی رفتار بازیگرانبازار بسیار مناسب است. اما این الگوریتم همواره خود را در
برابر چالشی بزرگ می بیند، و آن چالش دوراهی بین کاوش و بهره برداریمی باشد. بازار برق به دلیل ذات چندعامله بودن خود از
دید عامل یادگیری تقویتی محیطی ناایستا می باشد. در یک محیط ناایستانیاز به کاوش همواره وجود دارد . اما گاهی اتفاقاتی در
بازار رخ می دهد که بر روی میزان ناایستایی بازار از دید برخی از عامل ها ودرنتیجه بر میزان کاوش اشان تأثیر می گذارد و آن
اتفاقی ا ست که منجر می شود عاملی از قدرت بازار قابل توجهی برخوردارشود. در این پایان نامه رویکردی پیشنهاد می دهیم که
را هم زمان با تغییرات میزان ناایستا بودن محیط به علت تغییرات قدرت بازارتنظیم می کند . روش Q- نرخ کاوش الگوریتم یادگیری
با نرخ کاوش ثابت، Q- پیشنهادی در یک بازار برق حوضچه ی توان شبیهسازی شده است و عملکرد آن را با روش های یادگیری
فازی مقایسه کرده ایم. نتایج شبیه سازی نشان می دهند که روشپیشنهادی Q- با نرخ کاوش کاهشی، و با یادگیری Q- یادگیری
نسبت به دیگر روش های نامبرده، به سودآوری بیشتری منجر می شود
در طی دو- سه دهه ی اخیر صنعت