به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه "یادگیری ماشین" در نشریات گروه "علوم انسانی"

  • سهیل فاخری*، اعظم السادات نوربخش، محمدرضا یمقانی
    هدف

    این پژوهش به بررسی پدیده دیپ فیک به عنوان یکی از پیامدهای فناوری های پیشرفته هوش مصنوعی، یادگیری ماشین و یادگیری عمیق در دهه اخیر می پردازد. هدف این تحقیق، تحلیل روش های مختلف مقابله با محتوای جعلی و بررسی اثرات اجتماعی و قانونی آن ها است.

    روش شناسی پژوهش:

     این مطالعه به بررسی چهار دسته از روش های مقابله با دیپ فیک شامل روش های مبتنی بر یادگیری عمیق، یادگیری ماشین کلاسیک، روش های آماری و بلاک چین می پردازد. همچنین، عملکرد این روش ها در شناسایی دیپ فیک ها بر اساس مجموعه داده های مختلف مورد ارزیابی قرار می گیرد.

    یافته ها

    نتایج نشان می دهند که روش های مبتنی بر یادگیری عمیق در شناسایی دیپ فیک ها کارایی بیشتری دارند. همچنین، این تحقیق به تحلیل جنبه های مختلف دیپ فیک از منظر رسانه ها، جامعه، تولید و بازنمایی رسانه ها، مخاطبان، جنسیت، قانون و سیاست می پردازد و نشان می دهد که جامعه در مقابله با دیپ فیک ها آماده نیست.

    اصالت/ارزش افزوده علمی: 

    این پژوهش با بررسی جامع و تطبیقی روش های مختلف شناسایی دیپ فیک، به ارزشمندی و اصالت خود در زمینه ارایه راهکارهای موثر و تحلیل ابعاد اجتماعی و قانونی این پدیده می افزاید. نتایج این مطالعه می تواند به سیاست گذاران و محققان در تدوین راهبردهای مناسب برای مقابله با دیپ فیک کمک کند.

    کلید واژگان: هوش مصنوعی, دیپ فیک, رسانه دیجیتال, یادگیری ماشین, یادگیری عمیق
    Soheil Fakheri *, Azamossadat Nourbakhsh, Mohammadreza Yamaghani
    Purpose

    This study explores the phenomenon of deepfakes as a consequence of rapid advancements in artificial intelligence, machine learning, and deep learning technologies over the past decade. The primary objective is to analyze various methods for detecting deepfakes and examine their social and legal implications.

    Methodology

    The research categorizes and evaluates four types of deepfake detection

    methods

    deep learning-based, classical machine learning-based, statistical, and blockchain-based approaches. It also assesses the performance of these methods on different datasets.

    Findings

    The findings indicate that deep learning-based methods are more effective in detecting deepfakes compared to other approaches. Furthermore, the study analyzes the impact of deepfakes from multiple perspectives, including media and society, media production, representation, dissemination, audience, gender, law, and politics. The results reveal that society is currently unprepared to effectively combat deepfakes, due to a combination of technological, educational, and regulatory shortcomings.

    Originality/Value: 

    This research provides a comprehensive and comparative analysis of deepfake detection methods, offering valuable insights for policymakers and researchers. The study highlights the urgent need for effective strategies to address the rapidly evolving challenges posed by deepfakes in both social and legal contexts.

    Keywords: Artificial Intelligence, Deepfake, Digital Media, Machine Learning, Deep Learning
  • ابوالفضل قنبری*، مصطفی موسی پور، هابیل خرمی حسین حاجلو، حسین انوری

    توسعه فیزیکی مناطق شهری یکی از محرک های اصلی تغییرات جهانی است که تاثیرات مستقیم و غیرمستقیم مهمی بر شرایط محیطی و تنوع زیستی دارد. استفاده از تکنیک های سنجش از دور، یکی از رویکردهای جدید در برنامه ریزی شهری  محسوب می شود. پژوهش حاضر با هدف مقایسه کارآیی طبقه بندی کننده های یادگیری ماشین مبتنی بر پردازش شیئ گرای تصاویر ماهواره ای در استخراج محدوده توسعه فیزیکی شهر همدان با استفاده از تصویر ماهواره سنتینل 2 انجام شده است. در این راستا، فرایند قطعه بندی بر اساس مقیاس، ضریب شکل و ضریب فشردگی مناسب با هدف تولید اشیاء تصویری انجام شد. پس از قطعه بندی و تبدیل تصویر به اشیاء تصویری، با استفاده از طبقه بندی کننده های یادگیری ماشین مبتنی بر پردازش شیئ گرای تصاویر ماهواره ای شامل الگوریتم های طبقه بندی کننده بیز، k - نزدیکترین همسایه، ماشین بردار پشتیبان، درخت تصمیم گیری و درخت های تصادفی، فرایند طبقه بندی انجام و نقشه های محدوده توسعه فیزیکی شهری تولید شد. در نهایت، مقدار دقت هر کدام از نقشه های تولید شده محاسبه شد. بر اساس نتایج تحقیق، امکان تولید نقشه محدوده توسعه فیزیکی شهری همدان با استفاده از الگوریتم های یادگیری ماشین مبتنی بر پردازش شیئ گرای تصاویر ماهواره ای با دقت قابل قبول وجود دارد. به طوری که طبقه بندی کننده بیز دارای دقت کلی 96 درصد و ضریب کاپای 0.95، k - نزدیکترین همسایه دارای دقت کلی 97 درصد و ضریب کاپای 0.96، ماشین بردار پشتیبان دارای دقت کلی 96 درصد و ضریب کاپای 0.95، درخت تصمیم گیری دارای دقت کلی 95 درصد و ضریب کاپای 0.94 و درخت های تصادفی دارای دقت کلی 95 درصد و ضریب کاپای 0.94 بودند. لذا از بین کلیه الگوریتم های مورد استفاده در این تحقیق، k - نزدیکترین همسایه با دقت کلی 97 درصد و ضریب کاپای 0.96 مقدار دقت بیشتری را ارائه نمود.

    کلید واژگان: سنجش از دور, یادگیری ماشین, سنتینل 2, شیئ گرا, همدان
    Abolfazl Ghanbari *, Mostafa Mousapour, Habil Khorrami Hossein Hajloo, Hossein Anvari
    Introduction

    The urban space is the most important human-made spatial structure on the planet earth. The history of urban development shows the path of human development, political system evolution and technological, technical and industrial developments. The physical development of urban areas is one of the main drivers of global changes that have important direct and indirect effects on environmental conditions and biodiversity. In the process of physical development of the city, due to the transformation of natural and semi-natural ecosystems into impermeable surfaces, it often causes irreversible environmental changes. One of the new approaches in urban planning is the use of remote sensing techniques and geographic information system. The emergence of remote sensing and machine learning techniques offers a new and promising opportunity for accurate and efficient monitoring and analysis of urban issues in order to achieve sustainable development. The process of processing satellite images can generally be divided into two approaches: pixel-based image analysis and object-based image analysis. The pixel-based analysis technique is performed at the level of each pixel of the image and uses only the spectral information available in each pixel. On the other hand, the object-based analysis approach is performed on a homogeneous group of pixels, taking into account the spatial characteristics of the pixels. One of the basic problems in urban remote sensing is the heterogeneity of the urban physical environment. The urban environment usually includes built structures such as buildings and urban transportation networks, several different types of vegetation such as agricultural areas, gardens, as well as barren areas and water bodies. Therefore, in the pixel-based processing approach, the existence of heterogeneity in the urban biophysical environment causes spectral mixing and also spectral similarities in the classification operation of satellite images in such a way that in a place where a pixel is If the surrounding environment is different, it causes Salt and Pepper Noise. Therefore, according to the problems in the pixel-based processing approach, the aim of this research is to compare the accuracy of machine learning algorithms based on object-based processing of satellite images in extracting the physical development area of Hamedan city using Sentinel 2 satellite image.

    Materials & Methods

      The remote sensing data used in this research is a multi-spectral satellite image with a spatial resolution of 10 meters from the Sentinel 2 satellite, including bands 2 (blue), 3 (green), 4 (red) and 8 (near infrared) related to the date is the 23 of August 2023 in the city of Hamadan. The image of the Sentinel 2 satellite was downloaded from the website of the European Space Agency. In ENVI software, the pre-processing operation was performed on the satellite image. Then, in the eCognition software, the segmentation process was performed based on the appropriate scale, shape factor, and compression factor with the aim of producing image objects. After segmenting and converting the image into image objects, using machine learning classifiers based on object-oriented processing of satellite images including Bayes classification algorithms, k-nearest neighbor, support vector machine, decision tree and random trees, the classification process was carried out and maps of urban physical development area were produced. After the segmentation operation and the production of visual objects, three classes of built-up urban land, vegetation and barren land were defined, and some of the built objects in the segmentation stage were selected as training points and some were selected as ground Truth points.Results & DiscussionAfter downloading the satellite image from the website of the European Space Organization, in order to apply the radiometric correction of the image and also with the aim of matching the value of the gray levels of the image with the value of the real pixels of the terrestrial reflection, the gray levels are converted to radiance and then, using atmospheric correction, to coefficients. They became terrestrial reflections. In order to apply radiometric correction, Radiometric Calibration tool was used, and to apply atmospheric correction, FLAASH model was used in ENVI software. In order to classify the satellite image based on machine learning algorithms based on object-based processing, eCognition software was used. The satellite image of the study area, which was pre-processed and saved in TIFF format, was called in the environment of this software and saved as a project. In order to produce visual objects, segmentation operations were performed in different scales, shape factor and compression ratio to reach the most appropriate segmentation mode. In this step, the multiple resolution segmentation method was used to segment the image. The most appropriate segmentation included the scale of 100 and the shape factor of 0.6 and the compression factor of 0.4. Because in scales higher than 100, the construction of the visual object was not done correctly, so that several distinct complications were placed in one piece, and in scales less than 100, in some cases, one complication was placed in several pieces. In order to classify the generated image objects, machine learning algorithms were defined separately and after training each algorithm, the classification operation was performed. In this step, the classification was done based on the nearest neighbor method and by selecting the average and standard deviation parameters for each image band. After producing a map of the city physical development range through machine learning classifiers based on object-based processing of satellite images, the classification accuracy of each of the used algorithms was calculated. In order to calculate the accuracy of the above algorithms in eCognition software, using selected ground Truth control points, the overall accuracy and kappa coefficient were calculated for each of the algorithms.

    Conclusion

    Based on the results of the research, it is possible to produce a map of Hamedan's urban physical development using machine learning algorithms based on object-based processing of satellite images with acceptable accuracy. Also, among all the algorithms used in this research, k-nearest neighbor with overall accuracy of 97% and kappa coefficient of 0.96 provided more accuracy.

    Keywords: Remote Sensing, Machine Learning, Sentinel 2, Object-Based, Hamedan
  • سعید فلاح پور، رضا راعی، نگار توکلی *

    این مطالعه با توجه به 22 ویژگی انتخاب شده (که در حین پژوهش بررسی می شوند) با روش های یادگیری ماشین، نگهداری وجه نقد شرکت های پذیرفته شده در بورس اوراق بهادار تهران را پیش بینی می کند. 201 شرکت از سال 1396 تا سال 1400 بررسی شد. رگرسیون خطی چندگانه ، کی-نزدیک ترین همسایه، رگرسیون بردار پشتیبان، درخت تصمیم، جنگل تصادفی، الگوریتم تقویت گرادیان شدید و شبکه های عصبی چندلایه برای پیش بینی استفاده می شود. نتایج نشان می دهد که روش های رگرسیون خطی چندگانه ، کی-نزدیک ترین همسایه خطای جذر میانگین مربعات و میانگین قدرمطلق خطا بالا را ارائه می دهند. در همین حال، الگوریتم های پیچیده تر، به خصوص رگرسیون بردار پشتیبان ، دقت بالاتری را به دست می آورند؛ یافته ها حاکی از آن بوده است که با کاهش به 15 متغیر، روش های یادگیری ماشین به خصوص کی-نزدیک ترین همسایه نتایج بهتری را ارائه دادند. بر مبنای آزمون مقایسه زوجی نیز رگرسیون بردار پشتیبان عملکرد بهتری از سایر الگوریتم های یادگیری ماشین نظارت شده به جز درخت تصمیم دارد. همچنین مهمترین متغیرها نیز اندازه شرکت و مخارج سرمایه ای به دست آمد. شاخص عدم قطعیت جهانی و تورم نیز از متغیرهایی با اهمیت نسبتا بالایی بودند؛ بنابراین، با استفاده از الگوریتم رگرسیون بردار پشتیبان ، ممکن است میزان وجه نقد را به میزان قابل توجهی پیش بینی کنیم.

    کلید واژگان: یادگیری ماشین, رگرسیون بردار پشتیبان, الگوریتم تقویت گرادیان شدید, نگهداشت پول نقد, شاخص عدم قطعیت جهانی
    Saeid Fallahpour, Reza Raei, Negar Tavakoli *

    According to the 22 selected features (which are checked during the research) with machine learning methods, this study predicts the cash holding of companies admitted to the Tehran Stock Exchange. 201 companies were investigated from 1396 to 1400. Multiple linear regression, K-nearest neighbor, support vector regression, decision tree, random forest, extreme gradient boosting algorithm and multilayer neural networks are used for prediction. The results show that the multiple linear regression methods provide the k-nearest neighbor of the root mean square error (RMSE) and the mean absolute error (MAE) of the high error. Meanwhile, more complex algorithms, especially support vector regression, achieve higher accuracy; The findings indicated that by reducing to 15 variables, machine learning methods, especially K-nearest neighbor, provided better results. Based on the paired sample t-test, support vector regression has a better performance than other supervised machine learning algorithms except decision tree. Also, the most important variables were company size and capital expenditures (CapEx). The World Uncertainty Index and inflation were also relatively important variables; Therefore, by using the support vector regression algorithm, we may predict the amount of cash to a significant extent.

    Keywords: SVR, Xgboost, Cash Holdings, Machine Learning, World Uncertainty Index
  • علی حیدریان، محدثه مرادی مهر*، علی فرهادیان

    تئوری سبد سرمایه گذاری یک پایه مهم برای مدیریت سبد سهام است که در جامعه دانشگاهی موضوعی است که به خوبی موردمطالعه قرارگرفته است اما به طور کامل اشباع نشده است. ادغام پیش بینی بازده در تشکیل سبد سرمایه-گذاری می تواند عملکرد مدل بهینه سازی سبد را بهبود بخشد. ازآنجایی که مدل های یادگیری ماشین برتری قابل توجهی نسبت به مدل های آماری نشان داده اند، در این پژوهش، یک رویکرد جدید تشکیل سبد سهام در دو مرحله ارائه شده است. مرحله اول با پیاده سازی شبکه عصبی پیچشی، سهام مناسب برای خرید انتخاب شده و در مرحله دوم با استفاده از مدل میانگین-واریانس (MV)، وزن بهینه در سبد سرمایه گذاری برای آنها تعیین می شود. به طور خاص، مراحل انتخاب سهام مناسب و تشکیل سبد سهام دو مرحله اصلی مدل توسعه داده شده در این پژوهش است. مرحله اول، یک مدل شبکه عصبی پیچشی برای پیش بینی نقاط خرید و فروش سهام برای دوره بعدی پیشنهادشده است. مرحله دوم، سهامی که برچسب خرید می گیرند به عنوان سهام با مناسب برای خرید انتخاب شده و از مدل MV برای تعیین وزن بهینه آن ها در سبد سهام استفاده می شود. نتایج به دست آمده با استفاده از 5 سهم از بازار بهادار تهران به عنوان نمونه مطالعه نشان می دهد که بازده و نسبت شارپ روش پیشنهادی از روش های سنتی (بدون فیلتر کردن سهام مناسب) به طور قابل توجهی بهتر است.

    کلید واژگان: مدل میانگین-واریانس, یادگیری ماشین, شبکه عصبی پیچشی, تشکیل سبد سهام, بازار بورس تهران
    Ali Heidarian, Mohadeseh Moradi Mehr *, Ali Farhadian

    Investment portfolio theory is an important foundation for portfolio management, which is a well-studied but not saturated topic in the academic community. Integrating return forecasting in investment portfolio formation can improve the performance of portfolio optimization model. Since machine learning models have shown a superiority over statistical models, in this research, a approach of forming the stock portfolio in two stages is presented. first step, by implementing neural network, suitable stocks are selected for purchase, in the second step, using the (MV) model, the optimal weight in investment portfolio is determined for them. In particular, the stages of selecting suitable stocks and forming a stock portfolio are the two main stages of the model developed in this research. first step, a convolutional neural network model is proposed to predict stock buy and sell points for the next period.second step, stocks that are labeled as buys are selected as stocks suitable for buying, and MV model is used to determine their optimal weight in the stock portfolio. The results obtained using 5 shares of Tehran stock market as a study sample show that the efficiency and Sharpe ratio of proposed method is significantly better than traditional methods (without filtering suitable stocks)

    Keywords: Stock Portfolio Formation, Mean-Variance Model, Machine Learning, Tehran Stock Market, Convolutional Neural Network
  • نورا درجزینی، محمدحسین ضرغامی*، رضا قربان جهرمی، لیلا شوبیری
    زمینه

    تلاقی هوش مصنوعی (AI)، روانشناسی و زبان شناسی کاربردی به ویژه در حوزه یادگیری زبان، مسیری جذاب را برای کاوش در فرآیندها و مکانیسم های پیچیده زیربنایی شناخت انسان باز کرده است. الگوریتم های یادگیری ماشینی این پتانسیل را دارند که اصول اساسی یادگیری زبان به ویژه درک مطلب را به عنوان متغیر اصلی یادگیری زبان روشن کنند ولی بررسی ادبیات این حوزه نشان داد تاکنون مطالعه ای به بررسی مهم ترین ویژگی های نحوی و واژگانی موثر بر درک مطلب زبان آموزان انگلیسی با تکنیک های یادگیری ماشین انجام نشده است.

    هدف

    هدف پژوهش حاضر شناسایی مهم ترین ویژگی های نحوی و واژگانی موثر بر درک مطلب زبان آموزان انگلبسی با تکنیک های یادگیری ماشین نظارت شده بود.

    روش

    طرح پژوهش حاضر از نوع علی مقایسه ای بود. جامعه آماری در این مطالعه شامل همه دانش آموزان متوسطه دوم شهر تهران در سال 1402 بود که زبان انگلیسی را در موسسات آموزش زبان یاد می گیرند. از این میان با استفاده از روش نمونه گیری در دسترس 360 نفر از آن ها انتخاب شدند. ابزار گردآوری داده ها شامل آزمون BALA (یانگ، 2022) به صورت کتبی و گفتاری بود. برای تحلیل داده ها از الگوریتم های موجود در بسته نرم افزاری COVFEFE (کمیلی و سایرین، 2019) تحت نرم افزار Python استفاده شد.

    یافته ها

    260 ویژگی از متون کامپیوتری تهیه شده از پاسخ های گفتاری و نوشتاری زبان آموزان با استفاده از الگوریتم های پردازش زبان طبیعی (NLP) استخراج شد. سپس از مدل های یادگیری درخت تصمیم، نزدیک ترین همسایه، روش بردار پشتیبان، شبکه عصبی و روش خطی منظم برای پیش بینی درک مطلب با استفاده از ویژگی های زبانی استخراج شده استفاده شد.

    نتیجه گیری

    نتایج نشان داد که تغییرات درک مطلب خواندن زبان آموزان را می توان با استفاده از ویژگی های دستوری و واژگانی استخراج شده به خوبی مدل سازی کرد. علاوه بر این، بیست ویژگی که بیشترین نقش را در تبیین واریانس دارند، شناسایی شد. این مطالعه نشان می دهد که روش های ML می توانند بررسی دقیق فرآیندهای زبانی مربوط به درک مطلب را تعیین کنند.

    کلید واژگان: یادگیری ماشین, درک مطلب, پردازش زبان طبیعی, ویژگی های نحوی و واژگانی, یادگیری زبان انگلیسی
    Noura Darjazini, Mohammad Hossein Zarghami*, Reza Ghorban Jahromi, Leila Shobeiry
    Background

    The intersection of artificial intelligence (AI), psychology and applied linguistics particularly in the realm of language learning, has opened up a fascinating avenue for exploring the intricate processes and mechanisms underlying human cognition. Machine learning algorithms have the potential to shed light on the fundamental principles of learning language specially on reading comprehension as the core language learning variable.

    Aims

    In this research, we used supervised machine learning techniques in order to discover the most important syntactic and lexical features affecting the reading comprehension of English language learners.

    Methods

    The design of present study is causal comparative type (ex post facto). the population includes all second secondary level students who learn English in language training institutions. To select the participants, language training institutes in Tehran were referred. The participants (n=360) answered BALA exam (Young, 2022) questions in written and spoken form.

    Results

    260 features were extracted from the computer texts prepared from the speech and writing learners responses by natural language processing (NLP) algorithms. We used learning models of decision tree, nearest neighbor, support vector method, neural network and regularized linear method to predict reading comprehension using extracted linguistic features.

    Conclusion

    The results showed that the variance of language learners' reading comprehension can be well modeled using the extracted grammatical and lexical features, and in addition, twenty features that play the most important role in explaining the variance were identified. This study shows that ML methods can determine the detailed investigation of language processes related to reading comprehension.

    Keywords: Machine Learning, Reading Comprehension, Natural Language Processing, Syntactic, Lexical Features, Learning English
  • جعفر آهنگران*، عباس صادق نیا

    با پیشرفت فناوری و افزایش استفاده از شبکه های اجتماعی و اینترنت، حجم تولید داده ها افزایش چشمگیری داشته و بهره گیری از مفهوم «کلان داده ها» نیز به تبع آن، به طور فزاینده ای در پژوهش های علمی مختلف به چشم می خورد؛ اما سازمان دهی و تحلیل ادبیات موجود با محوریت بهره گیری از کلان داده ها در حوزه گردشگری برای شناسایی وضعیت تحقیقات صورت گرفته در این عرصه، خود مسئله ای است که هدف این مطالعه است؛ ازاین رو این پژوهش به بررسی میزان بهره گیری از کلان داده در تحقیقات گردشگری منتشر شده از سال 2016 تا 2022، به شناسایی شکاف های پژوهشی و فرصت های پیشرفت های آتی پرداخته است. ازآنجاکه این پژوهش در پی ارائه تصویری کلی از کارهای انجام شده در مقالات منتشر شده در حوزه گردشگری است، از روش مطالعه نگاشت نظام مند استفاده شده است. مقاله ها براساس این ویژگی ها بررسی شدند: موضوع تحقیق، توصیف مفهومی و نظری، منابع داده، نوع داده و اندازه، روش های جمع آوری داده ها، روش های تجزیه وتحلیل داده ها و گزارش و تجسم داده ها. یافته های این مطالعه حاکی از افزایش تحقیقات انجام شده در حوزه مدیریت مهمان نوازی و گردشگری با استفاده از روش های تحلیلی برای کلان داده هاست. بااین حال، این حوزه پژوهشی از نظر دامنه نسبتا پراکنده و در روش شناسی محدود است و شکاف های متعددی را نشان می دهد. نتیجه دیگر آن که پژوهش های گردآوری شده نشان می دهند هنوز از پتانسیل کلان داده ها به طور کامل استفاده نشده و فرصت های زیادی پیش روی صنعت گردشگری از بعد پژوهشی وجود دارد. همچنین آشنانبودن کامل پژوهشگران این حوزه با ابزارهای تحلیل و تصمیم گیری داده محور چالشی است که در این پژوهش نمایان شده است.

    کلید واژگان: کلان داده ها, مطالعه نگاشت نظام مند, شبکه های اجتماعی, یادگیری ماشین
    Jafar Ahangaran *, Abbas Sadeghnia

    As technology advances and the use of social networks and the Internet grows, there's a significant increase in the production of data. The concept of "big data" is becoming more prominent in various scientific studies. However, understanding how big data is used in tourism is a challenge addressed in this study. The research investigates the application of big data in tourism studies published from 2016 to 2022, aiming to identify research gaps and potential areas for future development. To provide an overview of published works in tourism, we used the systematic mapping study method. Articles were assessed based on various factors, including research topic, conceptual and theoretical descriptions, data sources, data types and sizes, data collection methods, data analysis techniques, and reporting and visualization methods. The findings indicate a growth in research within hospitality and tourism management using analytical techniques for big data. Despite this, the research in this field is scattered and limited in scope and methodology, revealing several gaps. Additionally, the study suggests that the full potential of big data remains untapped in tourism, offering numerous research opportunities for the industry. A notable challenge highlighted is the .researchers' incomplete knowledge of data-driven analysis and decision-making tools in this field

    Keywords: Big Data, Social Media, Machine Learning, Systematic Mapping Review
  • حسین کیانی زاده، علی باغانی*، محسن حمیدیان
    حجم اطلاعات بازار سرمایه به طرز چشمگیری در حال گسترش می باشد و بدون استفاده از الگوریتم های داده کاوی و مدلهای کلان داده، بهره برداری از این داده ها امکان پذیر نخواهد بود. مطالعات گذشته بیانگر امکان پیش بینی قیمت سهام توسط مدل های یادگیری ماشین می باشد؛ اما دقت پیش بینی این مدل ها مورد ارزیابی قرار نگرفته است. هدف از این پژوهش مقایسه دقت هوشمندی پنج الگوریتم پرکاربرد داده کاوی شامل شبکه عصبی، رگرسیون لجستیک، نزدیکترین همسایه k، ماشین بردار پشتیبان و اعتبارسنجی ضربدری می باشد. از بین 385 شرکت فعال در بورس اوراق بهادار تهران، 72 شرکت به روش حذف سیستماتیک انتخاب و دقت مدل های فوق برای پیش بینی قیمت سهام بر روی داده های روزانه سهام منتحب برای سال های 1388 تا 1399 پیاده سازی شده است. متغیر قیمت سهام به عنوان متغیر وابسته و متغیرهای قیمت باز شدن، قیمت بسته شدن، بالاترین قیمت، پایین ترین قیمت و حجم معاملات، قیمت روزانه ارز آزاد، قیمت طلا و قیمت نفت به عنوان متغیر مستقل استفاده شده است. برای ارزیابی دقت برآورد قیمت سهام از سه شاخص ، MSE و RMSE استفاده شده و از تحلیل واریانس با استفاده از آماره F برای برازش دقت مدل ها و از آماره t برای مقایسه دو به دو مدل ها با یکدیگر استفاده شده است. نتایج پژوهش نشان داد از بین الگوریتم های هوشمند استفاده شده، الگوریتم ماشین بردار پشتیبان بیشترین قدرت برآورد قیمت سهام را به خود اختصاص داده است
    کلید واژگان: بورس اوراق بهادار, الگوریتم های هوشمند, یادگیری ماشین, داده کاوی
    Hossein Kianizadeh, Ali Baghani *, Mohsen Hamidian
    Forecasting the stock price due to its attractiveness has always been on the focus of experts and capital market activists. In such a way that various prediction models such as technical and fundamental analysis and data mining are increasingly used to predict stock prices. Past studies indicate the possibility of stock price prediction by machine learning models, but the prediction accuracy of these models has not been evaluated. The purpose of this research is to accurately compare the intelligence of five commonly used data mining algorithms, including neural network, Logestic regression, k-nearest neighbors, support vector machines and cross validation. Among the 385 active companies in Tehran Stock Exchange, 72 companies have been selected by the method of systematic elimination and the above models have been implemented to predict stock prices on the daily prices of selected stocks for the years 2009 to 2020. The stock price is used as a dependent variable and changes in the opening price, closing price, highest price, lowest price and volume of trade, daily price of forign currency, gold and oil price are used as independent variables. Three indicators R2, MSE and RMSE are used, to evaluate the accuracy of models, and analysis of variance using F statistics is used to fit the accuracy of the models, and t-student statistic is used to compare two models. The results are showed that among the smart algorithms used, the support vector machine algorithm has the highest accuracy. Matlab software is used to analyze the data and compare the models.
    Keywords: Stock Exchange, Intelligent Algorithms, Machine Learning, Data Mining
  • امیررضا دودانگه، حسنعلی سینایی، رحیم قاسمیه*

    در دهه های اخیر، بهینه سازی پورتفوی به عنوان یک حوزه تحقیقاتی پرطرفدار، مورد توجه زیادی از سوی پژوهشگران قرار گرفته است. کیفیت بهینه سازی پورتفوی به سرمایه گذاران کمک می کند تا سودهای پایدارتری ایجاد کنند. در این پژوهش از شبکه عصبی کانواوشنال (CNN) برای ساخت مدل بهینه سازی پورتفوی بر پایه پیش بینی استفاده شده است. این مدل ، نه تنها از مزایای تکنولوژی یادگیری عمیق بهره مند می باشد، بلکه از مزایای تئوری مدرن پورتفوی نیز برخوردار است. در این رویکرد، ابتدا از CNN برای پیش بینی بازده آتی هر سهم استفاده می شود. سپس، خطای پیش بینی CNN به عنوان معیار ریسک هر سهم به کار گرفته می شود. ادغام بازده ی پیش بینی شده با انحراف نیمه مطلق خطای پیش بینی (MSAD)، منجر به ساخت مدل بهینه سازی پورتفوی می شود. این مدل با پورتفوی هم وزن که سهام آن با CNN انتخاب شده است، مقایسه می شود. همچنین، دو مدل پورتفوی مبتنی بر پیش بینی از طریق رگرسیون بردار پشتیبان (SVR) به عنوان پورتفوی معیار مورد استفاده قرار می گیرند. داده های تجربی این پژوهش، شامل شرکت های حاضر در شاخص 50 شرکت فعال تر بورس اوراق بهادار تهران می باشد. نتایج تجربی نشان می دهند که مدل پورتفوی مبتنی بر پیش بینی با CNN ، عملکرد برتری در مقایسه با SVR در شرایط بازده های متفاوت از خود نشان می دهد. همچنین، افزایش بازده مورد انتظار می تواند منجر به بهبود عملکرد این مدل شود. این پژوهش به وضوح نقش مثبت شبکه های عصبی عمیق (DNNها) در ایجاد مدل های بهینه سازی پورتفوی را نشان می دهد.

    کلید واژگان: بهینه سازی پورتفوی, یادگیری ماشین, یادگیری عمیق, شبکه های عصبی, CNN
    Amirreza Dodange, Hasanali Sinaei, Rahim Ghasemiyeh *

    Portfolio optimization as a popular research field has received many attention from researchers in recent decades. Quality of portfolio optimization helps investors generate more sustainable returns. In this research, Convolutional Neural Network (CNN) is used to build a portfolio optimization model based on prediction. This model not only benefits from deep learning technology, but also benefits from modern portfolio theory. In this approach, CNN is first used to predict the future return of each stock. Then, the prediction error of CNN is used as the risk measure of each stock. Integrating the predicted return with the semi-absolute deviation of the prediction error leads to the construction of the portfolio optimization model. This model is compared with an equally weighted portfolio whose stocks are selected with CNN. Also, two prediction based portfolio models with support vector regression (SVR) are used as benchmark portfolios. The empirical data of this research includes the companies in the index of 50 most active companies of Tehran Stock Exchange. The experimental results show that the prediction-based portfolio model with CNN shows a superior performance compared to SVR in the conditions of different returns. Also, the increase in the expected return can improve the performance of this model. This research clearly states the positive role of deep neural networks (DNNs) in creating portfolio optimization models.

    Keywords: Portfolio Optimization, Machine Learning, Deep Learning, Neural Networks, CNN
  • جواد کیایی، زهرا فرشادفر *

      عدم وجود قطعیت در روند حرکت بازار سهام پیش بینی آنرا به یک کار پرچالش در حوزه ی پیش بینی سری های زمانی مالی تبدیل کرده است. از سوی دیگر تحلیل داده های سری زمانی قیمت های سهام به علت غیر خطی بودن و وجود نویز زیاد آسان نیست. از اینرو هدف این پژوهش پیش بینی روند بلند مدت و کوتاه مدت بازار سرمایه است. برای دستیابی به این هدف از الگوریتم های هوش مصنوعی ذرات و ژنتیک بصورت مقایسه ای استفاده شده است. متغیر مورد مطالعه شاخص کل قیمت سهام در بورس اوراق بهادار تهران در دوره زمانی 1395 تا 1400 و بصورت ماهانه می باشد. داده ها پس از گردآوری با استفاده از روش هموارسازی برای روزهای تعطیل بازبینی شده اند و به منظور افزایش دقت مدل ها طول پنجره بهینه هر الگوریتم محاسبه شده است. یافته های حاصله بیانگر آن است که الگوریتم ژنتیک با به حداقل رساندن خطای پیش بینی یک الگوریتم مناسب برای پیش بینی روند کوتاه مدت و بلند مدت شاخص کل قیمت نسبت به الگوریتم ذرات در دوره زمانی مورد مطالعه است.

    کلید واژگان: الگوریتم ذرات, الگوریتم ژنتیک, هموار سازی داده, یادگیری ماشین, هوش مصنوعی
    Javad Kiae, Zahra Farshadfar *

     The lack of certainty in the movement of the stock market has made forecasting a challenging task in the field of financial time series forecasting. On the other hand, it is not easy to analyze the time series data of stock prices due to non-linearity and high noise. Therefore, the aim of this research is to predict the long-term and short-term trend of the capital market. To achieve this goal, artificial intelligence algorithms of particles and genetics have been used in a comparative manner. The studied variable is the total stock price index in Tehran Stock Exchange in the period of 2016 to 2021 and on a monthly basis. The data have been reviewed after collection using the smoothing method for holidays, and in order to increase the accuracy of the models, the optimal window length of each algorithm has been calculated. The findings indicate that the genetic algorithm by minimizing the prediction error is a suitable algorithm for predicting the short-term and long-term trend of the total price index compared to the particle algorithm in the studied time period.

    Keywords: Keywords, Particle Algorithm, Genetic Algorithm, Data Leveling, Machine Learning, Artificial Intelligence
  • زرین دانشورهریس*

    پژوهش حاضر با هدف بررسی جامع تاثیرات هوش مصنوعی بر آینده مدیریت آموزشی و ترسیم چشم اندازهای پیش رو در افق 1410 انجام شده است. این مطالعه با بهره گیری از روش آمیخته (کمی-کیفی) و با استفاده از تکنیک دلفی فازی، نظرات 50 نفر از متخصصان حوزه مدیریت آموزشی، هوش مصنوعی و آینده پژوهی را در سه مرحله جمع آوری و تحلیل کرده است. یافته های پژوهش نشان می دهد که هوش مصنوعی تاثیرات عمیق و گسترده ای بر ابعاد مختلف مدیریت آموزشی خواهد داشت. مهم ترین حوزه های تاثیرپذیر شامل شخصی سازی آموزش، ارزیابی و سنجش پیشرفت تحصیلی، مدیریت منابع انسانی در نظام آموزشی، و تصمیم گیری مبتنی بر داده در سطوح مختلف مدیریتی است. چالش های اصلی شناسایی شده عبارتند از: مسائل اخلاقی و حریم خصوصی، نیاز به بازآموزی گسترده نیروی انسانی، و تغییرات ساختاری در نظام آموزشی. فرصت های کلیدی نیز شامل افزایش کارایی و اثربخشی فرآیندهای آموزشی، دسترسی گسترده تر به آموزش با کیفیت، و امکان یادگیری مادام العمر است. این مطالعه با ارائه راهکارهای استراتژیک برای آماده سازی نظام مدیریت آموزشی در مواجهه با تحولات آینده، می تواند به سیاست گذاران و مدیران آموزشی در برنامه ریزی های بلندمدت کمک شایانی کند.

    کلید واژگان: مدیریت آموزشی, هوش مصنوعی, آینده پژوهی, یادگیری ماشین, شخصی سازی آموزش
    Zarrin Daneshvar Heris *

    The current research has been conducted with the aim of comprehensively investigating the effects of artificial intelligence on the future of educational management and drawing future prospects in the horizon of 1410. This study has collected and analyzed the opinions of 50 experts in the field of educational management, artificial intelligence and future research by using the mixed (quantitative-qualitative) method and using the fuzzy Delphi technique. The findings of the research show that artificial intelligence will have deep and extensive effects on various dimensions of educational management. The most important influential areas include personalization of education, assessment and measurement of educational progress, human resource management in the educational system, and data-based decision-making at different management levels. The main challenges identified are: ethical and privacy issues, the need for extensive retraining of manpower, and structural changes in the education system. Key opportunities also include increasing the efficiency and effectiveness of educational processes, wider access to quality education, and the possibility of lifelong learning. By providing strategic solutions to prepare the educational management system in the face of future developments, this study can help policy makers and educational managers in long-term planning.

    Keywords: Educational Management, Artificial Intelligence, Future Research, Machine Learning, Personalization Of Education
  • دانیال محمدی، سید جعفر سجادی، عمران محمدی، نعیم شکری *

    بازده و ریسک دو عامل مهم و اساسی برای تصمیم گیری در حوزه مالی می باشند. پژوهش حاضر جهت یافتن پرتفوی بهینه برای سرمایه گذاری از سهام بورسی انجام گرفته و یکی از روش هایی که در حال حاضر محبوبیت زیادی در بین تحلیل گران و پژوهش-گران این حوزه شکل گرفته، روش های مبتنی بر هوش مصنوعی و در پی آن روش هایی با هدف کاهش سنجه های ریسک می باشد. هدف پژوهش حاضر تشکیل پرتفوی با استفاده از روش های یادگیری ماشین، سنجه ریسک و ترکیب آن با نظریه فازی است، که بازده ای بهتر از بازده میانگین بازار داشته باشد. خروجی هر روش وارد الگوریتم جنگل تصادفی شده و پیش بینی به وسیله این الگوریتم صورت می گیرد و در مرحله آخر، خروجی پیش بینی برای تشکیل سبد سرمایه وارد مدل بهینه سازی ارزش در معرض ریسک و ارزش در معرض ریسک شرطی با رویکرد نظریه فازی می شوند. اطلاعات سهم ها به صورت روزانه و بازه زمانی آن از ابتدای سال 1394 تا اواسط سال 1398 می باشد. در پایان هرکدام از این روش ها و مراحل با بازده واقعی بازار مقایسه گردید. بر اساس نتایج بدست آمده سنجه ریسک CVAR قابلیت بهتری را نسبت به سنجه ریسک VAR داشته است، هم چنین الگوریتم جنگل تصادفی در بین الگوریتم های یادگیری ماشین استفاده شده، نتایج بهتری را در انتخاب سبد سرمایه گذاری رقم زده است.

    کلید واژگان: بورس اوراق بهادار تهران, یادگیری ماشین, بیز ساده, ارزش در معرض ریسک شرطی (Cvar), سبد سرمایه ‎گذاری
    Danial Mohammadi, Seyed Jafar Sajadi, Emran Mohammadi, Naeim Shokri *

    The current research was conducted to find the optimal portfolio for investing in stock exchange stocks, and one of the methods that is currently very popular among analysts and researchers in this field is methods based on artificial intelligence, followed by methods aimed at reducing risk metrics. The aim of the current research is to form a portfolio using machine learning methods, risk measurement and its combination with fuzzy theory, which has a better return than the average return of the market. The output of each method is entered into the random forest algorithm and prediction is made by this algorithm, and in the last step, the prediction output is entered into the value-at-risk and value-at-risk optimization model with the fuzzy theory approach to form the capital portfolio. Shares information is daily and its time period is from the beginning of 2014 to the middle of 2018. At the end of each of these methods and steps, it was compared with the real return of the market. the CVAR risk measure has a better ability than the VAR risk measure, and the random forest algorithm among the used machine learning algorithms has achieved better results in choosing the investment portfolio.

    Keywords: Machine Learning, Tehran Stock Exchange, Investment Portfolio, Naïve Bayes (NB), Conditional Value At Risk (Cvar)
  • ابراهیم نصیرالاسلامی*، احسان صنیعی، عزت الله عباسیان، رضا فتح پور کاشانی، نگین قیصری

    در این پژوهش براساس آمار تاریخی سپرده های یک بانک خصوصی (انصار) قبل از ادغام در چهار دسته بندی (وجه) مختلف، به دنبال این هستیم که نتایج و پیش بینی سپرده های بانک در هریک از دسته بندی ها،  با استفاده از روش های پیش بینی یادگیری ماشین  برای نخسین بار در مطالعات داخلی انجام گیرد. در این روش پیش بینی، ارجحیت روش یادگیری ماشین به دلیل بررسی کلیه تغییرات زمانی داده ها در حجم وسیع (از ابتدا تاکنون) مورد تایید قرار می گیرد. پیش بینی آمار سپرده های فوق برای تصمیم گیران بانک در آینده باتوجه به شرایط اقتصادی می تواند مبنای تصمیمات کلان بانکی باشد. نتایج نشان می دهد که سپرده بلندمدت تاحدودی باثبات و به طورکلی سپرده باثبات روند نزولی در آینده در بانک مزبور به خود خواهند گرفت و سپرده بی ثبات و حساس به سود نیز روند نزولی به خود خواهند گرفت. سپرده قرض الحسنه روند صعودی دارد، اگرچه همواره نوساناتی شبیه نوسانات سینوسی-کسینوسی داشته است. باید دقت کرد که این روش پیش بینی یادگیری ماشین، روشی پایدار و فاقد تحلیل حساسیت است و قابلیت اتکا بالایی دارد. مطابق این پژوهش، توجه به سپرده های بلندمدت و باثبات و هم چنین قرض الحسنه از اهمیت بالایی در بودجه بانک قرار دارد.

    کلید واژگان: سپرده, یادگیری ماشین, چهاروجهی, روش های رگرسیونی
    Ebrahim Nasiroleslami *, Ehsan Saniee, Ezatollah Abbasian, Reza Fathpour Kashani, Negin Gheysari

    In this research, based on the historical statistics of the deposits of a private bank (Ansar bank before merging) into four different categories (funds), we are looking for the results and prediction of bank deposits in each of the categories, using machine learning prediction methods for the first time in internal studies. In this forecasting method, the superiority of the machine learning method is confirmed due to the examination of all the time changes of the data in a large volume (from the beginning until now). Forecasting the above deposit statistics for bank decision makers in the future according to the economic conditions can be the basis of macro banking decisions. The results show that partly stable long-term deposit and stable deposit will take a downward trend in the future in the Ansar bank, and unstable and interest-sensitive deposit will also take a downward trend. Qarzol-ha-sa-ne deposit has an upward trend, although it has always fluctuations similar to sin-cos fluctuations. It should be noted that this machine learning prediction method is a stable method without sensitivity analysis and has high reliability. According to this research, paying attention to long-term and stable deposits as well as Qarzol-ha-sa-ne is of great importance in the bank’s budget.

    Keywords: Deposit, Machine Learning, Quadrilateral, Regression Methods
  • شهلا ابراهیمی، محمد نمازی*
    هدف این مقاله، پیش بینی درماندگی مالی بالقوه شرکت های پذیرفته شده در فرابورس و بورس اوراق بهادار است. بدین منظور، دامنه گسترده ای از ویژگی ها از جمله متغیرهای حسابداری تعهدی، حسابداری نقدی، بازار سهام، مکانیسم های حاکمیت شرکتی و شاخص های اقتصاد کلان برای پیش بینی درماندگی مالی شرکت های نمونه شناسایی شده اند. نمونه نهایی شامل 421 شرکت و در نتیجه، 3670 شرکت-سال مشاهده است. سپس، داده آماده شده با استفاده از نسبت 70 به 30 به مجموعه داده آموزشی و آزمایشی تفکیک شد. در این پژوهش، تکینک های پیش پردازش داده یادگیری ماشین نظیر استانداردسازی نمره Z، وان-هات انکدینگ، اعتبارسنجی متقابل K لایه طبقه ای، همراه با مهندسی ویژگی برای بهبود عملکرد طبقه بندی کننده بکار گرفته شدند. روش اعتبارسنجی متقابل K لایه طبقه ای با (5=K) برای برآورد عملکرد پیش بینی مدل طی مرحله آموزش استفاده شد. طی مرحله آموزش، میزان سازی ابرپارامتر مدل با استفاده از جستجوی شبکه ای انجام شد. افزون بر این، تکنیک SMOTE همراه با معیار مختص مسائل نامتوازن یعنی نمره F1 برای غلبه بر مساله نامتوازنی افراطی کلاس‎ها استفاده شده است.بر اساس نتایج تجربی، مدل XGBoost به نمرهF1، ضریب همبستگی متیوز، فراخوانی و دقتی به ترتیب برابر با 90%، 90%، 100% و 82% بر روی مجموعه آموزشی دست یافت. سرانجام، مدل پیشنهادی بر روی مجموعه آزمایشی کنار گذاشته شده آزمون شد که به نمرهF1، ضریب همبستگی متیوز، فراخوانی و دقتی به ترتیب برابر با 52%، 52%، 73% و 41% بر روی مجموعه آزمایشی منجر شد. این اطلاعات، ابزار قدرتمندی برای پیش بینی درماندگی مالی شرکت ها  فراهم می کنند.
    کلید واژگان: پیش بینی درماندگی مالی, Xgboost, یادگیری ماشین, داده کاوی, بورس اوراق بهادار تهران
    Shahla Ebrahimi, Mohammad Namazi *
    The purpose of this article is to predict the potential financial distress of the listed companies on Tehran Stock Exchange (TSE) and Iran Fara Bourse (IFB). To do so, a wide range of features including accrual accounting variables, cash-based accounting variables, market-based variables, corporate governance mechanisms, and macroeconomic indicators have been identified to prospectively predict the financial distress in the companies.The final sample includes 421 firms leading to 3,670 firm-year observations. The prepared data, was then split into a train and test data set using a 70/30 ratio.In this research, various data pre-processing machine learning techniques i.e., Z-score standardization, one-hot encoding, stratified K-fold validation combined with feature engineering are applied to improve classifier performance. Stratified K-fold cross validation method, (with k = 5) was used for estimation of model prediction performance during training phase. During the training phase, hyper-parameter tuning of a model was carried out using a grid-search. Furthermore, SMOTE technique in conjunction with the proposed imbalance-oriented metric i.e., F1 score were used to overcome the extreme class imbalance issue.Based on the experimental results, the tuned XGBoost model achieved a f1-score, MCC, recall and precision of respectively, 90%, 90%, 100% and 82% on the training set. Finally, the proposed model was tested on the hold-out test set which resulted in a f1-score, MCC, recall and precision of 52%, 52%, 73% and 41%, respectively. This information provides a powerful tool for predicting the financial distress of companies.
    Keywords: Financial Distress Prediction, Xgboost, Machine Learning, Data Mining, Tehran Stock Exchange
  • بهار اسدی، علی شمس الدینی*
    سابقه و هدف

    شناسایی و نقشه کردن محصولات زراعی اطلاعات مهمی برای مدیریت زمین های کشاورزی و برآورد سطح زیر کشت محصولات زراعی فراهم می کند.تصاویر اپتیک و راداری، منابع ارزشمندی برای طبقه بندی زمین های کشاورزی است. ویژگی های مستخرج از تصاویر اپتیک حاوی اطلاعاتی در مورد امضای بازتابی محصولات مختلف است. در مقابل، یک تصویر راداری فراهم کننده اطلاعاتی در مورد خصوصیات ساختاری و سازوکارهای پراکنش محصولات است. ترکیب این دو منبع قادر به ایجاد یک مجموعه داده مکمل با تعداد چشمگیری از ویژگی های زمانی طیفی، بافت و قطبیده برای طبقه بندی زمین های کشاورزی است.

    مواد و روش ها

    این پژوهش به بررسی اهمیت باندهای لبه قرمز برای تفکیک محصولات زراعی شامل گندم، جو، یونجه، لوبیا، باقلا، کتان، ذرت، چغندر قند و سیب زمینی با استفاده از روش جنگل تصادفی و ماشین بردار پشتیبان می پردازد. بدین منظور سری زمانی تصاویر سنتینل-1 و 2 در سال 2019 از شمال غرب شهر اردبیل در پلتفرم ارت انجین فراخوانی شد. ترکیب های متفاوت باندها برای بررسی تاثیرات اطلاعات طیفی و زمانی، شاخص های گیاهی و اطلاعات بازپراکنش برای طبقه بندی محصولات بررسی شد. با استفاده از روش انتخاب ویژگی جنگل تصادفی ویژگی های مهم شناسایی و به عنوان ورودی الگوریتم جنگل تصادفی و ماشین بردار پشتیبان معرفی شدند.

    نتایج و بحث :

    جنگل تصادفی برای تمامی سناریوها بهترین نتیجه را به دست آورد. نتایج نشان داد افزودن طول موج های لبه قرمز و شاخص های مشتق شده از آن باعث شد محصولاتی همچون جو، لوبیا، باقلا و کتان نسبت به سایر محصولات با صحت بالاتری تفکیک شود. بهترین نتیجه در میان ترکیبات مختلف ویژگی ها مربوط به تلفیق سری زمانی ویژگی های طیفی تصاویر سنتینل-2 با سری زمانی تصاویر سنتینل-1 بود. صحت کلی 67/84 درصد و ضریب کاپا 31/ 82 درصد به دست آمد. نتایج نشان داد باندهای لبه قرمز و شاخص های پوشش گیاهی مبتنی بر آن به تنهایی قابلیت جداسازی محصولات زراعی را از همدیگر دارند.

    نتیجه گیری

    پیشنهاد می شود برای دستیابی به صحت بالاتر در تفکیک محصولات زراعی انتخاب باندهای طیفی هدفمند مورد توجه قرار گیرد. ترکیبی از تصاویر راداری و اپتیک همیشه از روش طبقه بندی براساس تک سنجنده بهتر عمل می کند و به افزایش اطلاعات طبقه بندی منجر می شود.

    کلید واژگان: تلفیق تصاویر اپتیک و رادار, نقشه بندی محصولات زراعی, باندهای لبه قرمز, شاخص های پوشش گیاهی لبه قرمز, یادگیری ماشین
    Bahar Asadi, Ali Shamsoddini *
    Introduction

    Identifying and mapping crops provides important information to agricultural lands management and cultivation area estimation of crops. Optical and radar images are valuable resources for classifiying agricultural land. Features deriverd from optical images contain information about the reflectance signatures of various products, while radar images provides information about the structural characteristics and distribution mechanisms of products. The combination of these two sources can create a complementary dataset with a significant number of spectral, texture and polarized temporal features for the classification of agricultural land

    Material and methods

    This study aims to explore the significance of red edge bands for the segregation of crops such aswheat, barley, alfalfa, beans, broad beans, flax, corn, sugar beet and potatoes using the random forest method and support vector machine. To conduct the analysis, a time series of Sentinel-1 and 2 images 2019 in the northwest region of Ardabil was retrieved from the Google Earth Engine (GEE) platform. The study evaluates the effectiveness of spectral and temporal information, plant indices and backscatter information on the crop mapping by examining different combinations of bands. Through the random forest feature selection method, essential features are identified and utilized as inputs for both the random forest and support vector machine classifiers.

    Results and discussion

    The random forest provided the most favorable outcomes across all scenarios. The results revealed that incorporating red edge wavelengths and red edge-based vegetation indices proved more beneficial than other bands and vegetation indices for differentiating between barley, beans, broad beans, and flax. The most optimal outcome among various feature combinations was associated with the time series of spectral features from Sentinel-2 images combined with the time series of Sentinel-1 images, resulting in an overall accuracy of 84.67% and a kappa coefficient of 82.31%.  Furthermore, the results demonstrated that red edge bands and red edge-based vegetation indices effectively distinguish between different types of crops

    Conclusion

    It is recommended to carefully consider the selection of specific spectral bands to achieve higher accuracy in separation of crops. It is important to highlight that combining radar and optical images consistently yields superior results compared to classification methods based on a single sensor, leading to increased classification information.

    Keywords: Optical, Radar Image Fusion, Crop Mapping, Red Edge Bands, Red Edge-Based Vegetation Indices, Machine Learning
  • کوروش رفیعی بلداچی، محمدحسین رنجبر*، رضا تهرانی

    هدف از پژوهش حاضر، ارائه مدلی جامع برای ارائه ی الگویی برای بودجه ریزی عملیاتی در نیروگاه های فسیلی برق مبتنی بر یادگیری ماشین و روش گرندد تئوری می باشد. در این پژوهش به بررسی تاثیر رویکرد مشارکتی در بودجه ریزی بر مبنای عملکرد بر پاسخگویی در بخش عمومی پرداخته شد. بودجه ریزی بر مبنای عملکرد مبنایی برای پاسخگویی بیشتر در برابر استفاده از منابع سازمان فراهم می سازد. علاوه بر این ها، مسائلی مانند حمایت از محیط زیست، هزینه بالای سرمایه گذاری اولیه و استفاده بهینه از منابع نقش مستقیم بر عملکرد بازیگران این بازار دارد. متاسفانه در شرایط رقابتی جدید، مدل های سنتی و کلاسیک که عوامل اقتصادی (تولیدکنندگان یا مصرف کنندگان) را همگون و فاقد تعامل فرض می کنند کارایی لازم را نداشته و نتایج قابل قبولی ارائه نمی دهند. بررسی عملیاتی، رفتار واحدهای تولیدی ناهمگون را تبیین و اجازه تعامل و یادگیری در یک محیط پویا را فراهم می سازد، اما به علت وسعت مدل و پیچیدگی های زیاد آن نمی توان از یک راه حل تحلیلی برای به دست آوردن متغیرها در شرایط تعادلی استفاده کرد. با توجه به پیشرفت فناوری محاسبات، نتایج مدل های عامل محور را معمولا با روش های شبیه سازی در چارچوب سناریوهای مختلف می توان ارزیابی کرد. واحدهای تولیدکننده روزانه برنامه تولید پیشنهادی خود را برای هر ساعت به نهاد بهره بردار ارائه می دهند. این نهاد با توجه به پیش بینی تقاضای مصرف بیست وچهار ساعت آتی و با اجرای مکانیسم حراج، واحدهای برنده و قیمت بازار را مشخص می نماید و سپس با اجرای مکانیسم تسویه، فروش و تسویه حساب انجام می گیرد. با توجه به ضرورت تعادل مصرف و تولید درکل کشور و همچنین توزیع جغرافیائی واحدهای تولیدی و مصرف کننده، در مکانیسم حراج، علاوه بر میزان مصرف، قیود اقتصادی و قیود فنی مربوط به تولید، انتقال و توزیع نیز لحاظ می شود. یافته های پژوهش نشان می دهد که زیرساخت های موجود بودجه ریزی بر مبنای عملکرد بر پاسخگویی مالی در بخش عمومی تاثیری ندارد، درصورتی که تاثیر منفی بر پاسخگویی عملیاتی دارد. استقرار زیرساخت های بودجه ریزی بر مبنای عملکرد و به کارگیری رویکرد مشارکتی در امر بودجه ریزی موجب ارتقای سطح مسئولیت پاسخگویی دولت در بخش عمومی می شود.

    کلید واژگان: بودجه ریزی عملیاتی, نیروگاه ها و سوخت های فسیلی, یادگیری ماشین, تولید برق
    Kourosh Rafiee Boldaji, Mohammadhossein Ranjbar *, Reza Tehrani

    The aim of the current research is to provide a comprehensive model for providing a model for operational budgeting in fossil power plants based on machine learning and ground theory methods. In this research, the impact of the participatory approach in performance-based budgeting on accountability in the public sector was investigated. Budgeting on the basis of performance provides a basis for more accountability against the use of the organization's resources. In addition, issues such as environmental protection, high initial investment cost and optimal use of resources have a direct impact on the performance of the players in this market. Unfortunately, in the new competitive conditions, the traditional and classic models that assume the economic factors (producers or consumers) to be homogeneous and without interaction do not have the necessary efficiency and do not provide acceptable results. Operational investigation explains the behavior of heterogeneous production units and allows interaction and learning in a dynamic environment, but due to the breadth of the model and its complexities, an analytical solution cannot be used to obtain variables in equilibrium conditions. Due to the advancement of computing technology, the results of agent-based models can usually be evaluated with simulation methods in the context of different scenarios. Production units present their proposed production schedule for every hour to the operating entity. According to the consumption demand forecast for the next twenty-four hours and by implementing the auction mechanism, this institution determines the winning units and the market price, and then by implementing the settlement mechanism, sales and settlements are done. Considering the necessity of balance of consumption and production in the whole country as well as the geographical distribution of production and consumer units, in addition to the amount of consumption, economic restrictions and technical restrictions related to production, transmission and distribution are also considered in the auction mechanism. The findings of the research show that the existing infrastructure of performance-based budgeting does not affect financial accountability in the public sector, while it has a negative effect on operational accountability. The establishment of performance-based budgeting infrastructure and the use of a participatory approach in budgeting will increase the level of accountability of the government in the public sector.

    Keywords: Operational Budgeting, Power Plants, Fossil Fuels, Machine Learning, Power Generation
  • ایمان خسروی*

     یکی از اولویت های مهم وزارت جهاد کشاورزی، تهیه نقشه نوع محصول کشاورزی برای تخمین میزان سطح زیرکشت محصولات استراتژیک و برآورد سالیانه میزان تولید آنهاست. در دهه های اخیر، فناوری سنجش از دور به دلیل تهیه تصاویر و داده های به هنگام با تفکیک پذیری های متنوع مکانی، زمانی و طیفی و با بهره گیری از الگوریتم های یادگیری ماشین بهبودیافته در تخمین میزان سطح زیرکشت محصولات کارایی زیادی را نشان داده است. در پژوهش حاضر با استفاده از سری زمانی تصاویر ماهواره لندست-8 و الگوریتم های یادگیری ماشین پیشرفته یک چهارچوب تهیه نقشه نوع محصول کشاورزی مرودشت استان فارس ارائه شد. الگوریتم های به کار گرفته شده شامل الگوریتم درخت تصمیم، جنگل تصادفی، جنگل دورانی، ماشین بردار پشتیبان و آنالیز انحراف زمانی پویا بود. نتایج نشان داد که روش های آنالیز انحراف زمانی پویا و جنگل تصادفی نسبت به روش های دیگر کارایی بسیار بیشتری (با افزایش دقت کلی به میزان 10% تا 12% بیشتر) در تهیه نقشه نوع محصول کشاورزی منطقه مطالعه شده داشتند. همچنین، در این پژوهش قابلیت باندهای 2 تا 5 ماهواره لندست-8 در شناسایی کارا و مطمئن همه محصولات این منطقه با استفاده از روش های مذکور اثبات شد.

    کلید واژگان: هیه نقشه نوع محصول کشاورزی, تخمین سطح زیرکشت, ماهواره لندست-8, یادگیری ماشین, جنگل تصادفی, ماشین بردار پشتیبان, آنالیز انحراف زمانی پویا, سنجش از دور
    Iman Khosravi *

    One of the key priorities of the Ministry of Agriculture Jihad is the mapping of croplands to estimate crop acreage and annual yield. In recent decades, remote sensing technology has proven to be highly effective in estimating the extent of crop cultivation through the use of timely images and synchronized data with diverse spatial, temporal, and spectral resolutions, leveraging advanced machine-learning algorithms. This study presented a framework for crop mapping in Marvdasht, Fars Province, by utilizing time series of Landsat-8 satellite images and advanced machine-learning algorithms. The employed algorithms included Decision Tree (DT), Random Forest (RF), Rotation Forest (RoF), Support Vector Machine (SVM), and Dynamic Time Warping (DTW) analysis. The results indicated that the dynamic time warping and random forest methods outperformed others, achieving significantly higher accuracy (with an overall accuracy improvement of 10-12%) in generating the agricultural land-use map of the study area. Furthermore, this research demonstrated the effectiveness of Bands 2-5 of Landsat-8 satellite in confidently identifying all crops in this region using the mentioned methods.

    Keywords: Crop Mapping, Crop Acreage Estimation, Landsat-8 Satellite, Machine Learning, Random Forest (RF), Support Vector Machine (SVM), Dynamic Time Warping (DTW), Remote Sensing
  • کامبیز هژبر کیانی، کامبیز پیکارجو، سعید صدرزاده مقدم*

    این پژوهش بدنبال طراحی و ارائه رویکردی جه بهبود نتایج پیش بینی بدست آمده از رویکردهای سنتی اقتصادسنجی با استفاده از روش های نوین مدل سازی است. مدل سازی خودرگرسیون هم انباشته میانگین متحرک (ARIMA)، بعنوان یکی از گسترده ترین روش های پیش بینی سری های زمانی اقتصادی و مالی شناخته می شود، که رویکرد مناسبی بویژه برای پیش بینی های خطی کوتاه مدت سری های زمانی محسوب می شود. با این حال فرض وجود اثرات غیرخطی در سری های زمانی و ظهور الگوریتم های نوین مدل سازی بخصوص روش های یادگیری عمیق، که قابلیت استخراج ویژگی های پیچیده سری زمانی و مدل سازی آن را دارند، انگیزه ای برای محققین جهت بررسی و مقایسه قدرت پیش بینی رویکردهای سنتی و نوین مدل سازی گردیده است. در این پژوهش، دو روش برای پیش بینی قیمت چهار رمزارز، با بالاترین ارزش بازار مورد بررسی قرار می گیرد. روش مدل سازی (ARIMA) و سه رویکرد در حوزه یادگیری عمیق شامل (RNN، LSTMوGRU)، علاوه بر این یک رویکرد ترکیبی از مدل های یادگیری عمیق و ARIMA معرفی شده است که ترکیبی از نقاط قوت هر دو مدل برای افزایش دقت پیش بینی است. نتایج نشان می دهد مدل های ترکیبی ARIMA و یادگیری عمیق در پیش بینی مقادیر آتی سری زمانی نسبت به هر یک از مدل های ARIMA و یادگیری عمیق بصورت جداگانه، بهتر عمل می کنند. همچنین مدل ARIMA-GRU نسبت به تمام مدل های برآورد شده، مقادیر خطای پیش بینی کمتری دارد.

    کلید واژگان: مدل های ARIMA, یادگیری ماشین, یادگیری عمیق, مدل های ترکیبی, رمزارز
    Kambiz Hozhabrkiani, Kambiz Peykarjou, Saeed Sadrzadeh Moghadam *

    In this paper, we investigate how novel approaches can improve the predictions made by traditional econometric approaches in the field of forecasting. Autoregressive integrated moving average (ARIMA) is known as one of the most widely used methods for predicting economic and financial time series, providing a good framework, especially for short-term linear predictions of time series. However, the assumption of nonlinear effects in time series and the emergence of novel deep learning algorithms, which can extract complex features of time series and model them, have motivated researchers to examine the predictive power of traditional and novel modeling approaches. In this study, two methods are examined for predicting the prices of the four most valuable cryptocurrencies. ARIMA and three approaches in the field of deep learning, including (RNN, LSTM, and GRU), are investigated. In addition, a hybrid model of deep learning and ARIMA has been introduced, which is a combination of the strengths of both models to increase the accuracy of predictions. The results show that the hybrid models perform better in predicting future time series than each of the ARIMA and deep learning models separately. Also, the ARIMA-GRU model has fewer prediction error values than all estimated models.

    Keywords: ARIMA Models, Machine Learning, Deep Learning, Hybrid Model, Cryptocurrency
  • علی شمس الدینی*، سحر آریانژاد

    گرم شدن محیط زیست شهری یکی از پیامدهای رشد شهری ناپایدار است. هدف این پژوهش بررسی امکان مدل سازی تاثیر پارامترهای ساختاری شهر بر دمای سطح زمین در فصل تابستان در شهر تهران است. بدین منظور، از تصویر لندست-8 اخذ شده در سال 2018 به جهت محاسبه دمای سطح زمین استفاده شده و به منظور تعیین واحدهای مطالعاتی در این پژوهش از روش قطعه بندی شی گرا بر روی تصویر سنجنده سنتینل-2 سال 2018 استفاده گردیده و میزان پوشش گیاهی، جداسازی مناطق ساخته شده از مناطق ساخته نشده از این تصاویر استخراج شده است. همچنین روش شبکه عصبی پرسپترون چند لایه و روش شبکه عصبی کانولوشن به منظور مدل سازی تاثیر پارامترهای ساختاری شهر بر دمای سطح زمین در طی فصل تابستان مورد استفاده قرار گرفته است. نتایج به دست آمده از انتخاب ویژگی به روش جنگل تصادفی برای فصل تابستان نشان می دهد که حضور پوشش گیاهی و کاربری های شهری که شامل مناطق مسکونی، مناطق تجاری و خدماتی، مناطق صنعتی، زمین های بایر است، و نیز لایه های اطلاعاتی تراکم معابر و تراکم جمعیت در این فصل بر تغییرات دمای سطح زمین تاثیر گذار هستند. همچنین نتایج حاصل از مدل سازی و نتایج به دست آمده از آزمون آماری تی نمونه های جفت شده نشان دهنده برتری روش شبکه عصبی کانولوشن با ریشه میانگین مربعات خطای 61/0 درجه سانتی گراد، ضریب تعیین 62/0 و درصد خطای برآورد 75/17 نسبت به روش شبکه عصبی پرسپترون چند لایه با ریشه میانگین مربعات خطای 82/0، ضریب تعیین 26/0 و درصد خطای برآورد 34/23 است.

    کلید واژگان: دمای سطح زمین, قطعه بندی شی گرا, پارامترهای ساختاری شهر, یادگیری عمیق, یادگیری ماشین
    Ali Shamsoddini*, Sahar Arianezhad

    The warming of the urban environment is one of the consequences of unsustainable growth. This research aims to investigate the possibility of modeling the effect of the structural parameters on the city’s surface temperature in the summer season in Tehran. For this purpose, the Landsat-8 image taken in 2018 was used to calculate the surface temperature. In order to determine the study units in this research, the segmentation method was used on the Sentinel-2 image of 2018, and the ratio of the vegetation cover and the separation of built-up areas from non-built-up ones were extracted using this image. The multi-layer perceptron neural network and the convolutional neural network methods were used to model the effect of urban structural parameters on the surface temperature during the summer. The results obtained from random forest feature selection  for the summer indicates that the presence of vegetation and urban uses that include residential and industrial areas, the presence of mixed residential/commercial/administrative areas, and the presence of vegetation affect changes in the urban surface temperature. Further, the information layers of road and population density in this season have an effect on the changing temperature of the earth's surface. Additionally, the results obtained through modeling and t-test of paired samples demonstrate the superiority of the convolutional neural network method, with a root mean square error of 0.61, determination coefficient of 0.62, and 17.75% estimation error, compared to the multi-layer perceptron model, which had 0.82 root mean square error, 0.26 determination coefficient, and 23.34% estimation error.

    Keywords: Land surface temperature, object-oriented segmentation, urban structural parameters, Deep Learning, Machine Learning
  • حسین رحیمی کلور*، رحیم محمدخانی

    دنیای دیجیتال فرصت های متعددی را برای بازاریابان فراهم می کند تا به مشتری دسترسی پیدا کنند. بااین حال، در دنیای پرسرعت، یافتن راه های جدید و نوآورانه برای تبلیغات و فروش محصولات و خدمات بسیار مهم است. با توجه به پیشرفت هوش مصنوعی و توسعه آن در حوزه تبلیغات و فروش، متخصصان در حال حاضر ابزارهایی برای بازتعریف کامل درک فعلی از برندسازی، بازاریابی، تبلیغات و فروش دارند. محبوبیت روزافزون اینترنت و افزایش استفاده از دستگاه های تلفن همراه، حجم عظیمی از داده ها را برای مصرف کنندگان تولید می کند که سیستم های مبتنی بر هوش مصنوعی را تغذیه می کنند. این پژوهش از نوع پژوهش های آمیخته با رویکرد کیفی و کمی است که ازنظر هدف، کاربردی و ازلحاظ نحوه گردآوری داده، از نوع مطالعات توصیفی پیمایشی است. جامعه آماری پژوهش، مدیران و کارشناسان متخصص در حوزه بازاریابی دیجیتال و IT در حوزه تبلیغات و فروش، بودند که با استفاده از روش نمونه گیری گلوله برفی انتخاب شدند. در بخش کیفی ابزار گردآوری اطلاعات، بررسی کتابخانه ای و مقالات، مصاحبه و در بخش کمی پرسشنامه بود. در بخش کیفی روش تحلیل داده ها، با استفاده از تحلیل تم که با نرم افزار MAXQDA و با استفاده از روش کدگذاری تدوین شد و در بخش کمی، روش تحلیل بر مبنای آزمون همبستگی کندال بود. مطابق با نتایج پژوهش، 7 تم اصلی، 22 تم فرعی و 44 کد کشف شدند که شامل پیامدهای کاربرد هوش مصنوعی و یادگیری ماشین در تبلیغات و فروش بودند.

    کلید واژگان: هوش مصنوعی, یادگیری ماشین, کلان داده, تبلیغات و فروش
    Hosein Rahimi Kolour *, Rahim Mohammad Khani

    The digital world provides many opportunities for marketers to reach customers. However, in the fast-paced world, finding new and innovative ways to advertise and sell products and services is very important. Due to the advancement of artificial intelligence and its development in the field of advertising and sales, professionals now have the tools to completely redefine the current understanding of branding, marketing, advertising and sales. The growing popularity of the Internet and the increased use of mobile devices are generating massive amounts of consumer data that feed artificial intelligence-based systems. This research is a type of mixed research with a qualitative and quantitative approach, which is a survey descriptive study in terms of its purpose, application, and in terms of data collection. The statistical population of the research was managers and experts in the field of digital marketing and IT in the field of advertising and sales, who were selected using the snowball sampling method. In the qualitative part, the tools for collecting information were library and articles review, interviews, and in the quantitative part, questionnaires. In the qualitative part of the data analysis method, using the theme analysis that was compiled with MAXQDA software and using the coding method, and in the quantitative part, the analysis method was based on Kendall's correlation test. According to the results of the research, 7 main themes, 22 sub-themes and 44 codes were discovered, which included the consequences of using artificial intelligence and machine learning in advertising and sales

    Keywords: : Artificial Intelligence, Machine Learning, Big Data, Advertising, Sales
  • مهدی امیری*، فرزاد امیری، محمد حسین پوراسد، سیف الله سلیمانی
    سابقه و اهداف

    کیفیت هوای پاک، به منزله یکی از ضروری‏ترین نیازهای موجودات زنده، براثر فعالیت‏های طبیعی و انسانی به مخاطره افتاده است. در سال های اخیر، طوفان های گردوغبار ازلحاظ مکانی و زمانی همواره درحال افزیش بوده و سبب آسیب های بی شمار درحوزه سلامت اجتماعی، اقتصادی و زیست محیطی، برای ساکنان مناطق جنوب و جنوب‏غرب ایران، شده است. در پژوهش حاضر، به منظور بررسی طوفان های گردوغبار و تشخیص عمق دید افقی، داده‏های سنجنده مادیس به کار رفته است.

    مواد و روش ها

    از مزایای داده‏های سنجنده مادیس می‏توان به توان تفکیک طیفی و زمانی بالا اشاره کرد. همچنین داده‏های ایستگاه های هواشناسی با توجه به بازه زمانی مورد مطالعه جمع آوری شده است. پس از پیش‏پردازش داده‏ها و آماده سازی مشاهدات میدانی، به منظور استخراج ویژگی‏های مورد نیاز برای انجام دادن مدل‎سازی‎ها، ازطریق روش تفاضلی بین باندهای منتخب هر تصویر داده ‏های سنجنده مادیس، به همراه ویژگی های استخراج شده از سنسورهای ایستگاه های هواشناسی زمینی استفاده شده است. با بررسی های بیشتر و ارزیابی های صورت گرفته و استفاده از دیدگاه های خبرگان هواشناسی، 36 ویژگی تفاضلی از باندهای گوناگون تصاویر مادیس و شش ویژگی از داده های ایستگاه های هواشناسی زمینی، یعنی درمجموع 42 ویژگی، استخراج شده است. در ادامه، ازطریق تکنیک های انتخاب ویژگی، بهترین ویژگی ها شناسایی و با به کارگیری روشی جدید با نام ML-Based GMDH، که حاصل بهبود شبکه عصبی GMDH ازطریق تغییر توابع جزئی با مدل های یادگیری ماشین است، برای تشخیص غلظت گردوغبار و دید افقی استفاده شد. برای دستیابی به دقت مناسب نیز ابرپارامترهای این مدل به صورت ابتکاری، با استفاده از الگوریتم بهینه سازی TLBO، تنظیم شدند. در ادامه، روش های یادگیری ماشین Basic GMDH SVM، MLP، MLR، RF و مدل گروهی آنها نیز، برای مقایسه با رویکرد اصلی، اجرایی شد؛ طبق نتایج، روش ML-Based GMDH تنظیم شده با  TLBOبا ایجاد بهبود درقیاس با روش‏های یادگیری ماشین ذکرشده، دقت بهتری را در تشخیص غلظت گردوغبار فراهم کرده است.

    نتایج و بحث: 

    روش SVM-PSO به منزله روش برتر در مرحله انتخاب ویژگی، روش RF به منزله روش برتر در میان روش‎های پایه دسته بندی و روش‎های Ensemble SVM و Ensemble RF به منزله روش‎های برتر در مرحله گروهی و دسته بندی انتخاب شدند. همچنین مشاهده شد، با استفاده از رویکرد گروهی، بهبود مطلوبی در تشخیص دسته دید افقی پدید آمد. در رویکرد دوم، روشی با عنوان ML-Based GMDH که حاصل بهبود شبکه عصبی GMDH ازطریق تغییر توابع جزئی با مدل های یادگیری ماشین است، استفاده شد که کاربرد آن در تقریب غلظت گردوغبار است. همچنین، برای دستیابی به دقت مناسب، ابرپارامترهای این مدل با الگوریتم بهینه سازی TLBO با دقت بسیار بالا تنظیم شدند. نتایج حاصل نشان دادند این روش، با ایجاد بهبود درمقایسه با بهترین روش‏های انتخابی از رویکرد اول، دقت مناسبی را در تقریب غلظت گردوغبار و عمق دید افقی فراهم کرده است.

    کلید واژگان: گردوغبار, تشخیص دید افقی, سنجش از دور, یادگیری ماشین, الگوریتم TLBO, شبکه عصبی GMDH
    Mehdi Amiri *, Farzad Amiri, Mohammadhossein Pourasad, Seyfollah Soleimani
    Introduction

      As one of the most essential needs of living beings, clean air quality has been threatened by natural and human activities. In recent years, dust storms have been increasing spatially and temporally, causing numerous damages to social, economic, and environmental health for the residents of the southern and southwestern regions of Iran. In the present study, MODIS sensor data were used to investigate dust storms and detect horizontal optical depth.

    Materials and Methods

    The  advantages of MODIS sensor data include high spectral and temporal resolution. Additionally, meteorological station data were collected based on the study period. After preprocessing the data and preparing field observations, the necessary features for modeling were extracted using the differential method between selected bands of each MODIS sensor image, along with features extracted from ground-based meteorological station sensors. After further investigations and evaluations and using the viewpoints of meteorological experts, 36 differential features from various MODIS image bands and six features from ground-based meteorological station data, totaling 42 features, were extracted. Subsequently, using feature selection techniques, the best features were identified. A novel method named ML-Based GMDH, which improves the GMDH neural network by altering partial functions with machine learning models, was employed to detect dust concentration and horizontal optical depth. To achieve optimal accuracy, the hyper-parameters of this model were heuristically tuned using the TLBO optimization algorithm. Additionally, machine learning methods such as Basic GMDH, SVM, MLP, MLR, RF, and their ensemble models were implemented to compare with the main approach. According to the results, the TLBO-tuned ML-Based GMDH method provided superior accuracy in detecting dust concentration compared to the aforementioned machine-learning methods.

    Results and Discussion

    The SVM-PSO method was selected as the best method in the feature selection phase, the RF method was chosen as the best method among basic classification methods, and the Ensemble SVM and Ensemble RF methods were selected as the best methods in the ensemble and classification phase. It was also observed that using the ensemble approach led to a desirable improvement in horizontal optical depth classification. In the second approach, a method titled ML-Based GMDH, which improves the GMDH neural network by altering partial functions with machine learning algorithms, was used for estimating dust concentration. Additionally, to achieve suitable accuracy, the hyper-parameters of this model were finely tuned using the TLBO optimization algorithm. The results showed that this method provided appropriate accuracy in estimating dust concentration and horizontal optical depth, out performing the best-selected methods from the first approach

    Keywords: Dust, Horizontal Optical Detection, Remote Sensing, Feature Selection, Machine Learning, MODIS, TLBO Algorithm, GMDH Neural Network
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال