به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

فهرست مطالب niloofar alavi

  • نیلوفر علوی، جعفر طهمورث نژاد*

    یادگیری تقویتی به آموزش مدل های یادگیری ماشین برای اتخاذ تصمیمات متوالی اشاره می کند که در آن یک عامل از طریق تعامل با محیط، آموزش دیده، نتایج این تعامل را مشاهده کرده و بر این اساس، پاداش مثبت یا منفی دریافت می کند. یادگیری تقویتی کاربردهای زیادی برای سیستم های چند عاملی به خصوص در محیط های پویا و ناشناخته دارد. با این حال، اکثر الگوریتم های یادگیری تقویتی چند عاملی با مشکلاتی همچون پیچیدگی محاسباتی نمایی برای محاسبه فضای حالت مشترک مواجه هستند که منجر به عدم مقیاس پذیری الگوریتم ها درمسائل چند عاملی واقعی می شود. کاربردهای یادگیری تقویتی چند عاملی را می توان از فوتبال ربات ها، شبکه ها، محاسبات ابری، زمانبندی شغل تا اعزام نیروی واکنشی دسته بندی کرد. در این مقاله یک الگوریتم جدید به نام انتقال دانش تنظیم شده برای یادگیری تقویتی چند عاملی (RKT-MARL) معرفی می شود که براساس مدل تصمیم گیری مارکوف کار می کند. این الگوریتم برخلاف روش های یادگیری تقویتی سنتی، مفاهیم تعاملات پراکنده و انتقال دانش را برای رسیدن به تعادل بین عامل ها استفاده می کند. علاوه بر این، RKT-MARL از مکانیزم مذاکره برای یافتن مجموعه تعادل و از روش حداقل واریانس برای انتخاب بهترین عمل در مجموعه تعادل به دست آمده استفاده می کند. همچنین الگوریتم پیشنهادی، دانش مقادیر حالت-عمل را در میان عامل های مختلف انتقال می دهد. از طرفی، الگوریتم RKT-MARL مقادیر Q را در حالت های هماهنگی به عنوان ضریبی از اطلاعات محیطی جاری و دانش قبلی مقداردهی می کند. به منظور ارزیابی عملکرد روش پیشنهادی، یک گروه از آزمایشات بر روی پنج بازی جهانی انجام شده و نتایج حاصل بیانگر همگرایی سریع و مقیاس پذیری بالا در RKT-MARL است.

    کلید واژگان: یادگیری تقویتی چند عاملی, انتقال دانش, تعادل های متا و نش, تنظیم پذیری, تعاملات پراکنده, مذاکره بین عامل ها}
    Niloofar Alavi, Jafar Tahmoresnezhad*

    Reinforcement learning (RL) refers to the training of machine learning models to make a sequence of decisions on which an agent learns by interacting with its environment, observing the results of interactions and receiving a positive or negative reward, accordingly. RL has many applications for multi-agent systems, especially in dynamic and unknown environments. However, most multi-agent reinforcement learning (MARL) algorithms suffer from some problems specifically the exponential computational complexity to calculate the joint state-action space, which leads to the lack of scalability of algorithms in realistic multi-agent problems. Applications of MARL can be categorized from robot soccer, networks, cloud computing, job scheduling, and to optimal reactive power dispatch. In the area of reinforcement learning algorithms, there are serious challenges such as the lack of application of equilibrium-based algorithms in practice and high computational complexity to find equilibrium.  On the other hand, since agents have no concept of equilibrium policies, they tend to act aggressively toward their goals, which it results the high probability of collisions. Consequently, in this paper, a novel algorithm called Regularized Knowledge Transfer for Multi-Agent Reinforcement Learning (RKT-MARL) is presented that relies on Markov decision process (MDP) model. RKT-MARL unlike the traditional reinforcement learning methods exploits the sparse interactions and knowledge transfer to achieve an equilibrium across agents. Moreover, RKT-MARL benefits from negotiation to find the equilibrium set. RKT-MARL uses the minimum variance method to select the best action in the equilibrium set, and transfers the knowledge of state-action values across various agents. Also, RKT-MARL initializes the Q-values in coordinate states as coefficients of current environmental information and previous knowledge. In order to evaluate the performance of our proposed method, groups of experiments are conducted on five grid world games and the results show the fast convergence and high scalability of RKT-MARL. Therefore, the fast convergence of our proposed method indicates that the agents quickly solve the problem of reinforcement learning and approach to their goal.

    Keywords: Multi-agent reinforcement learning, Knowledge transfer, Meta, Nash equilibriums, Regularization, Sparse interactions, Agents negotiations}
  • Sayyed-Hadi Sayyed-Hosseinian, Golnaz Ghayyem Hassankhani *, Farshid Bagheri, Niloofar Alavi, Babak Shojaie, Alireza Mousavian
    Background
    American Orthopedic Foot and Ankle Society Score (AOFAS) is a reliable and reproducible measurement tool which is commonly used for the assessment of foot and ankle conditions. In this study we aimed to translate and assess the psychometric properties of the Persian version of AOFAS questionnaire.
    Methods
    In this study, we enrolled 53 patients with ankle and hindfoot conditions. Our study was conducted according to five staged cross-cultural adaption steps including translation, synthesis, back translation, expert committee review, and pretesting. After that reliability of the subjective parts calculated by Cronbach’s alpha and the intraclass correlation coefficient (ICC) and the reliability of the objective items estimated using Cohen’s kappa test. Also, construct validity was assessed by testing the Persian AOFAS against the SF-36 questionnaire.
    Results
    Chronbach’s alpha coefficient was 0.696, which was considered acceptable. Furthermore, the test-retest reliability measured by using the ICC for the subjective subscales was 0.853 (P
    Conclusion
    In our study, Persian translation of AOFAS demonstrated acceptable validity and reliability with no need to be culturally adapted.
    Keywords: AOFAS, Persian, Translation, Validation}
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال