تبانی ضمنی در بازی های غیر مشارکتی مکرر با استفاده از الگوریتم یادگیری تقویت N گام جلوتر
در تیوری بازی، راه حل شناخته شده برای به دست آوردن حداکثر سود در بازی های تکرار نشده تا حد ممکن، تعادل نش است. با این حال، در برخی از بازی های غیر مشارکتی مکرر، بازیگران می توانند با تبانی ضمنی به سود بیشتری از تعادل نش برسند. یکی از روش های دستیابی به سود بیش از تعادل نش در تبانی ضمنی ، یادگیری تقویتی است. با این حال، روش های مبتنی بر یادگیری تقویتی تنها یک مرحله در فرایند یادگیری را در نظر می گیرند. برای دستیابی و بهبود سود از تعادل نش در این بازیها ، می توان بیش از یک مرحله استفاده کرد. در این راستا، الگوریتم N مرحله به جلوبه نام (ForSts) در این مقاله ارایه شده است. ایده اصلی ForSts بهبود عملکرد بازیگران در بازی های غیر مشارکتی با مشاهده آخرین جوایز N مرحله ای است. از آنجا که ForSts در تیوری بازی برای یادگیری تبانی ضمنی استفاده می شود، توسط مسئله زندانیان به صورت مکرر و بازار برق ارزیابی می شود. نتایج نشان می دهد که درمسئله زندانیان به صورت مکرر و بازار برق، بازیگران با استفاده از روش ارایه شده سود بهتری نسبت به نمایش های عامل در تعادل نش به دست می آورند.
- حق عضویت دریافتی صرف حمایت از نشریات عضو و نگهداری، تکمیل و توسعه مگیران میشود.
- پرداخت حق اشتراک و دانلود مقالات اجازه بازنشر آن در سایر رسانههای چاپی و دیجیتال را به کاربر نمیدهد.