به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
فهرست مطالب نویسنده:

hamid ebadi

  • پویا احمدی*، طیبه مناقبی، حمید عبادی، بهنام اصغری بیرامی
    با گسترش دانش سنجش از دور، استفاده از تصاویر هایپراسپکترال روزبه روز افزایش و عمومیت می یابد. طبقه بندی یکی از محبوب ترین موضوعات در سنجش از دور ابرطیفی است. طی دو دهه گذشته، روش های بسیاری برای مقابله با مشکل طبقه بندی داده های هایپراسپکترال پیشنهاد شده است. در پژوهش حاضر، ساختاری مبتنی بر یادگیری شبکه های کپسول برای طبقه بندی تصاویر ابرطیفی به کار رفته است؛ به گونه ای که ساختار شبکه بتواند، با استفاده از یک لایه کانولوشنی و یک لایه کپسول، بهترین حالت تولید ویژگی ها را داشته باشد و درعین حال از بیش برازش شبکه روی نمونه های آموزشی جلوگیری کند. نتایج به دست آمده نشان از کیفیت بالای ویژگی های تولیدی در ساختار پیشنهادی دارد. درراستای بهبود دقت طبقه بندی، رویکرد استخراج ویژگی ازطریق شبکه طراحی شده و طبقه بندی با استفاده از الگوریتم درخت تقویتی XGBoost، با روش طبقه بندی ازطریق شبکه عمیق سراسری مقایسه شد تا، علاوه بر بررسی و کیفیت سنجی ویژگی های عمیق برداری تولیدی به روش پیشنهادی در طبقه بندی کننده های گوناگون، میزان توانایی شبکه های عمیق سراسری نیز، در کاربرد طبقه بندی، بررسی شود. رویکرد کپسول پیشنهادی شامل سه لایه اصلی است: 1)  Prime با کپسول هایی به اندازه 8 و 32 فیلتر 9×9 و گام حرکتی 2؛ 2) Digitcaps دارای ده کپسول شانزده بعدی؛ 3) لایه تماما متصل. نتایج بررسی دو رویکرد برای شبکه عمیق و نیز ترکیب شبکه های کپسول با الگوریتم درخت تقویتی XGBoost مقایسه شد. رویکردهایی همچون SVM، RF-200، LSTM، GRU، و GRU-Pretanh برای مقایسه رویکرد پیشنهادی براساس پیکربندی هایی درنظر گرفته شدند که در تحقیقات به آنها اشاره شده بود. برای ارزیابی مدل پیشنهادی، مجموعه داده Indian Pines نیز، شامل شانزده کلاس متفاوت، به کار رفت. با استفاده از روش پیشنهادی ترکیبی، طبقه بندی تصاویر با دقت 99% روی داده های آموزش و دقت 5/97% روی داده های تست انجام می شود.
    کلید واژگان: طبقه بندی, تصاویر ابرطیفی, شبکه های کپسول, درخت تصمیم تقویتی, مدل ترکیبی
    Pouya Ahmadi *, Tayebe Managhebi, Hamid Ebadi, Behnam Asghari
    With the development of remote sensing science, the use of hyperspectral images is becoming more widespread. Classification is one of the most popular topics in hyperspectral remote sensing. In the last two decades, a number of methods have been proposed to address the problem of hyperspectral data classification.In the present study, a structure based on learning capsule networks has been used to classify hyperspectral images, so that the network structure can have the most optimal generation of features by using a convolution layer and a capsule layer, and at the same time Avoid overfitting the on training data. The obtained results show the high quality of production features in the proposed structure. With the development of remote sensing science, the use of hyperspectral images is becoming more widespread. Classification is one of the most popular topics in hyperspectral remote sensing. In the last two decades, a number of methods have been proposed to address the problem of hyperspectral data classification.In the present study, a structure based on learning capsule networks has been used to classify hyperspectral images, so that the network structure can have the most optimal generation of features by using a convolution layer and a capsule layer, and at the same time Avoid overfitting the on training data. The obtained results show the high quality of production features in the proposed structure.In order to improve the classification accuracy, the feature extraction approach through the designed network and the classification by the Extreme Gradient Boosting was compared with the classification method by the global deep network. The proposed capsule approach consists of 3 basic layers: 1) Prime caps, which are capsules of size 8 and 32 with 9 × 9 filters and movement step 2, 2) Digitcaps with 10 16-dimensional capsules, and 3) fully connected layer. The results of examining two approaches for deep networking as well as combining capsule networks with XGBoost reinforcement tree algorithm were compared. Approaches such as SVM, RF-200, LSTM, GRU and GRU-Pretanh were considered to compare the proposed approach based on the configurations mentioned in their research.Up in addition to the study and quality measurement of production vector deep features by the proposed method in different classifiers, the ability of deep global networks in the application of classification should also be examined. The results of examining two approaches for deep network and also combining CapsNet with XGBoost show that by using the proposed combined method, images are classified with 99% accuracy on training data and 97.5% accuracy on test data.Up in addition to the study and quality measurement of production vector deep features by the proposed method in different classifiers, the ability of deep global networks in the application of classification should also be examined.The results of examining two approaches for deep network and also combining CapsNet with XGBoost show that by using the proposed combined method, images are classified with 99% accuracy on training data and 97.5% accuracy on test data.
    Keywords: Classification, Hyperspectral images, CapsNet, XGBoost, Fusion Model
  • سحر لطیف زاده، فرشید فرنود احمدی*، حمید عبادی، علی مهدی نژاد گرگری

    استفاده از محصولات دقیق و به روز فتوگرامتری برای برنامه ریزی شهری بسیار حایز اهمیت است، زیرا شهرها سیستم های فیزیکی و اجتماعی پیچیده و پویایی می باشند که دایما در حال تغییرند. یکی از روش های سریع و کم هزینه برای تولید این محصولات، فتوگرامتری پهپادمبنا است اما محدودیت های این روش نیازمند راه حل های خاص برای توسعه سیستم در مناطق شهری است. در حال حاضر اکثر پروژه های فتوگرامتری پهپاد در مناطق شهری بدون توجه به تغییرات ارتفاعی زمین و ارتفاعات عوارض مختلف و همچنین نقاط پنهان اجرا می شوند. هر سه مورد مذکور در دقت و کیفیت محصولات خروجی در مناطق دارای عوارض ارتفاعی تاثیر فراوانی می گذارند. سیستم توسعه یافته طراحی پرواز ارایه شده دراین مقاله براساس اصول فتوگرامتری، علاوه بر توجه به ارتفاع عوارض گوناگون مانند ساختمان ها و ناهمواری های زمین که موجب یکنواختی حتی الامکان مقیاس و پیشگیری از برخورد پرنده به عوارض می شود، شامل تصویربرداری مایل جهت کاهش نقاط پنهان نیز هست. روش پیشنهادی در یک منطقه شهری پیاده سازی گردید. نتایج نشان از کیفیت بالای ابرنقطه خروجی و دقت مسطحاتی 4.4 و 3.6 سانتی متر و دقت ارتفاعی 7 و 4 سانتی متر  در مقیاس درخواستی 1/750 دارد. همچنین وجود تصاویر مایل می توانند سهم خوبی در تولید اطلاعات در اتصال بین دیوارها و زمین و تراکم نقاط نمای ساختمان ها در منطقه داشته باشند. نتایج حاکی از موفقیت آمیز بودن طراحی و پیاده سازی الگوریتم طراحی شبکه سه بعدی پرواز فتوگرامتری پهپادمبنا مبتنی بر مدل زمین و عوارض است.

    کلید واژگان: فتوگرامتری پهپادمبنا, مناطق شهری, طراحی پرواز سه بعدی, نقاط پنهان, ثبات مقیاس, تصویربرداری مایل
    Sahar Latifzadeh, Farshid Farnood Ahmadi*, Hamid Ebadi, Ali Mahdinezhad Gargari

    The use of accurate and up-to-date photogrammetric products as a basis for urban planning is very important because cities are complex and dynamic physical and social systems that are constantly changing. Urban planning experts and scientists need a wide range of spatial maps and technologies to make decisions to advance its benefits. This requires providing fast and accurate mapping methods. One of the low-cost and accurate mapping method is UAV-based photogrammetry but the limitations of this method require special solutions for developing the system in urban areas. Currently, most UAV photogrammetry projects are carried out in urban areas, without considering changes in the elevation of the ground and the heights of various features, as well as occlusion points. All three of these cases have a great impact on the accuracy and quality of output products in areas with altitude features. The developed three-dimensional flight planning in this article, in addition to paying attention to the height of various features such as buildings and terrain, makes the scale as uniform as possible and prevents the UAV from hitting obstacles. The flight design also includes a new technique such as oblique or semi-oblique imaging to reduce occlusion points. The proposed method was implemented in an urban area. The results of the algorithm were evaluated based on the accuracy, and quality of point clouds and output products, the accuracy of the checkpoints and comparison with the expected standard errors, scale stability in images, density of point clouds, and reduction of occlusion points. The results show the high quality of the products and the planimetric accuracy of 3.6 cm and the altitude accuracy of 7 and 4 cm at the requested scale of 1.750. Also, the results show that oblique images have a significant effect in generating information in the connection between walls and the ground and the density of building facades in the area. The results show that the design and implementation of the UAV photogrammetric flight planning algorithm based on the topographic model and features is successful.

    Keywords: UAV-based photogrammetry, Urban areas, three-dimensional flight planning, scale stability, oblique imaging, occlusion points
  • زهرا علی زاده زکریا*، حمید عبادی، فرشید فرنود احمدی
    هر چند معمول ترین دلیل فرونشست زمین استخراج آب های زیرزمینی در نظر گرفته می شود، اما استخراج نفت، گاز و مواد معدنی نیز در نشست زمین موثر است. نشست سطح زمین در یک میدان نفتی، به مرور زمان به تاسیسات سطحی و زیر سطحی حساس و استراتژیک آسیب رسانده و هزینه های قابل ملاحظه ای را به بخش تولید و بازیافت نفت تحمیل می نماید که این امر لزوم کنترل و نظارت بر نشست زمین در میادین نفتی را نشان می دهد. با در نظر گرفتن پیامدها و خسارت های جبران ناپذیر ناشی از این پدیده ضرورت می یابد مناطق مستعد این پدیده مرتب مورد بررسی و پایش قرار گیرند. در علم ژیوماتیک پایش فرونشست زمین با استفاده از روش های مختلف ژیودتیک و سنجش از دوری قابل انجام است. اندازه گیری فرونشست توسط روش های ژیودتیک نظیر استفاده از مشاهدات سیستم تعیین موقعیت جهانی علی رغم دارا بودن دقت بالا، دارای محدودیت هایی نظیر نقطه ای بودن مشاهدات، نیاز به استقرار و حضور فیزیکی در منطقه، زمان و هزینه بالا می باشند. در دهه های اخیر استفاده از تداخل سنجی راداری امکان اندازه گیری تغییرات هندسی سطح زمین را در وسعت گسترده و با دقت بالا و زمان و هزینه پایینی فراهم نموده است. هدف این پژوهش نیز ارایه رویکردی نوین بر پایه روش تداخل سنجی راداری مبتنی بر پراکنشگرهای دایمی به منظور بررسی ارتباط میان فرونشست و فرایند استخراج نفت در بخش جنوب غرب ایران و در دو مقطع زمانی 2017/04 تا 2017/10 و 2019/04 تا 2019/10 که به ترتیب نشان دهنده بیشترین و کمترین میزان برداشت نفت از میادین نفت ایران هستند، می باشد. نتایج حاصله نشان داد فرونشت هایی به میزان 10 تا 30 سانتی متر در بازه زمانی 2017/04 تا 2017/10 و با نرخ 20 تا 50 سانتی متر در سال در جنوب غرب ایران در محدوده میادین نفتی به وقوع پیوسته که ممکن است در اثر افزایش چشم گیر استخراج نفت از سال 2016 باشد.
    کلید واژگان: فرونشست زمین, استخراج نفت, سنجش از دور, شناسایی الگو, تداخل سنجی راداری مبتنی بر پراکنشگرهای دائمی
    Zahra Alizadeh Zakaria *, Hamid Ebadi, Farshid Farnood Ahmadi
    Although groundwater withdrawal is considered to be the main and most common cause of land subsidence, extraction of oil and gas, or minerals from beneath the earth's surface also results in land subsidence. Land subsidence over oil and gas fields leads to several natural and manufactured disasters such as critical and strategic infrastructure destruction. In addition, it imposes significant costs on the oil industry, which indicates the need to control and monitor land subsidence in oil fields. Due to irrecoverable damage caused by this phenomenon, it is necessary to regularly monitor areas subject to subduction in oil and gas fields. There are different ways to measure crustal deformation in Geomatics engineering based on geodetic and remote sensing technologies. Despite high accuracy, the use of geodetic techniques such as Global Navigation Satellite System (GNSS) to regularly monitor crustal deformation in a wide coverage is limited by some disadvantages like discontinuous data collection, the need for installation of the equipment on the ground or direct contact with the ground which is time- and cost-consuming. InSAR technology has been widely used in recent decades to monitor crustal deformations with high spatiotemporal resolution and lower cost and time. This study aims to present a new methodology based on the Persistent Scatterer-InSAR (PS-InSAR) method to investigate the correlation between land subsidence and petroleum extraction in the southwestern region of Iran with active oil and gas fields during two periods from 2017/04 to 2017/10 and from 2019/04 to 2019/10, respectively with the highest and lowest petroleum extraction. The results showed that subductions of 10 to 30 cm during the period of 2017/04 to 2017/10 with an annual rate of 20 to 50 cm have occurred in southwestern Iran around the active oil fields which might be due to the significant petroleum extraction since 2016.
    Keywords: Land subsidence, Oil, and Gas Extraction, Pattern Recognition, Remote Sensing, PS-InSAR
  • مینا حمیدی، حمید عبادی، عباس کیانی*
    با بهبود حد تفکیک مکانی تصاویر سنجش از دور، اطلاعات دقیق تری از صحنه تصویر همچون ساختارهای بافت، فراهم شده است. این منابع داده، به دلیل جزییات بسیار، دارای واریانس درون کلاسی زیاد و واریانس بین کلاسی اندک اند؛ ازاین رو استخراج اطلاعات پوشش زمین از آنها به فرایندی چالش برانگیز تبدیل شده است. در این تصاویر، تفسیر بصری زمان بر و پرهزینه است و تفسیر اتوماتیک آنها لزوما به دقت بالا منجر نمی شود و رسیدن به دقت تفسیر مطلوب نیازمند طراحی الگوریتم های اتوماتیک است؛ به صورتی که توانایی مقابله با مشکلات ناشی از پیچیدگی صحنه تصویر را داشته باشند. برای غلبه بر این مشکل، روش آنالیز عارضه مبنای تصویر که به مورفولوژی صحنه تصویر حساس است، به ویژه در مطالعه ای شهری که تراکم ساختارهای شکل گرفته به دست انسان بالاست، ممکن است کارآمد باشد. در طبقه بندی عارضه مبنا، پیکسل های بیانگر یک عارضه در ترکیب با یکدیگر، تجزیه و تحلیل می شوند؛ در نتیجه، فضای مسیله به نسبت طبقه بندی پیکسل مبنا کاهش می یابد و مزیت این امر افزایش سرعت محاسبات است. درعین حال به دلیل اندازه متنوع اشیای تصویری، طبقه بندی نظارت شده عارضه مبنا در ایجاد مجموعه آموزشی بهینه با چالش هایی مواجه است. در تحقیق حاضر، به منظور طبقه بندی عارضه مبنا، از الگوریتم آدابوست استفاده شده است. برای غلبه بر مشکل فقدان تناسب فضای ویژگی ناشی از تعداد اندک نمونه های آموزشی و توزیع نامتناسب آنها در مقایسه با ابعاد بالای فضای ویژگی (شامل ویژگی های طیفی، مکانی و هندسی)، دو راهبرد دنبال شده است. در یک رویکرد برای تولید مجموعه آموزشی بهینه، مکانیسم یادگیری فعال با الگوریتم آدابوست ادغام شده و در رویکردی دیگر به منظور کاهش ابعاد فضای ویژگی، براساس همبستگی بین ویژگی ها (افزونگی) و همبستگی بین ویژگی ها و کلاس ها (مطابقت)، زیرمجموعه ویژگی منتخب استخراج شده است. روش پیشنهادی روی مجموعه داده استاندارد وهینگن کشور آلمان اجرا و نتایج حاصل از آن با طبقه بندی پیکسل مبنا مقایسه شده است. به منظور بررسی معنی داری اختلاف های حاصل شده در نتایج ارزیابی ها نیز، آزمون آماری مک نمار به کار رفته است. نتایج تجربی نشان دادند که رویکرد عارضه مبنای پیشنهادی، در قیاس با رویکرد پیکسل مبنا، به طور متوسط 6% دقت کلی و 7% ضریب کاپا را بهبود داده است. همچنین سرعت محاسبات در روش آدابوست عارضه مبنای پیشنهادی، در مقایسه با رویکرد پیکسل مبنا افزایش چشمگیری یافته است. این نتایج بیانگر عملکرد بهینه رویکرد پیشنهادی، هم از نظر دقت و هم از نظر سرعت محاسبات است.
    کلید واژگان: طبقه بندی, تصاویر حد تفکیک بالا, آدابوست, عارضه مبنا, یادگیری فعال
    Mina Hamidi, Hamid Ebadi, Abbas Kiani *
    By improvement of the spatial resolution of remote sensing images, more accurate information are provided from the image scene such as texture structures. However, extraction of land cover information from these datas has become a challenging process due to the high spectral diversity and the heterogeneity of surface materials. Visual interpretation is costly and time consuming and automatic interpretation of images does not necessarily lead to high accuracy. Achieving optimal interpretation accuracy requires the design of automatic algorithms that are capable of dealing with the complexity of the image scene. To overcome this problem, object-based image analysis (OBIA) that is sensitive to the image scene morphology, can be particularly effective in an urban area where the density of man-made structures is high. In object-based classification, pixels of a segment are analyzed in combination with each other. So the dimensions of the problem space are reduced, in compared to the pixel-based method, which leads to increasing the computational speed. Meanwhile, due to the different sizes of image segments, supervised object-based classification faces challenges in creating an optimal training set. In this research, AdaBoost algorithm was selected for the object-based classification, to overcome the problem of feature space imbalance, due to the small number of training samples in comparison with the high dimensions of the feature space (including spectral, spatial and geometric features), two strategies were proposed. In the first approach an active learning mechanism was integrated with AdaBoost to produce optimal training data set (OTD) and in another approach based on the feature-to-feature correlation (redundancy) and the feature-to-class correlation (relevance), the candidate feature subset (CFS) was generated to reduce the size of the feature space. To evaluate the proposed method, the developed algorithm was performed on the standard dataset of Vaihingen in Germany and the results were compared with the pixel-based classification. In order to evaluate the signification of the results, the McNemar statistical test was used. The experimental results showed that the proposed object-based approach improved the overall accuracy by 6% and the kappa coefficient by 7% compared to the pixel-based approach. Also, the computational speed of proposed object-based AdaBoost was significantly increased compared to the pixel-based approach. These results indicate the superiority of the proposed approach both in terms of accuracy and processing speed.
    Keywords: Classification, High spatial resolution images, AdaBoost, Object-Based, Active learning
  • زینب نیاستی، حمید عبادی، عباس کیانی*

    باتوجه به افزایش تولید محصولات کشاورزی و همچنین وقوع خشکسالی مکرر در بسیاری از مناطق جهان، نیاز شدید به برآورد دقیق تری از میزان آب مصرفی گیاهان و درنتیجه برآورد دقیق تبخیر و تعرق مرجع احساس می شود. معادله پنمن مانتیث فایو برای برآورد تبخیر و تعرق مرجع به عنوان روشی استاندارد در بسیاری از تحقیقات معرفی شده است. از معایب اصلی این روش به صورت نقطه ای و دردسترس بودن داده های هواشناسی در مکان های خاص می باشد. درحالی که با استفاده از داده های سنجش ازدور می توان این مشکل را برطرف نمود. در این پژوهش، هدف اصلی ترکیب داده های سنجش ازدور با مدل-های یادگیری ماشین برای برآورد تبخیر و تعرق مرجع است. با استفاده از مدل های یادگیری ماشین، چالش های انتخاب بهترین مدل ممکن، متغیرهای ورودی مدل و دردسترس بودن داده های موردنیاز ایجاد می شود؛ بنابراین در این پژوهش مدل-های مطرح RF، GBR و SVR انتخاب و از داده های تصاویر لندست و شاخص های پوشش گیاهی استفاده شد. منطقه موردمطالعه، دشت همدان بهار واقع در مناطق غربی کشور است. در این پژوهش برای برآورد تبخیر و تعرق مرجع، از دو رویکرد استفاده شد که در رویکرد اول، متغیرهای ورودی مدل ها با مقادیر همه باندهای تصاویر لندست، درحالی که در رویکرد دوم، شاخص های پوشش گیاهی به عنوان ورودی مدل معرفی و استفاده شد. مدل RF با شاخص های پوشش گیاهی، نتایج آماری برابر با (%14.1=RMSE و %76.4=R2) داشت، درحالی که با استفاده از همه باندهای لندست (%11.7=RMSE و %84.1=R2) و همچنین در مقایسه با الگوریتم های دیگر، با مقداری دقت بیشتر تبخیر و تعرق مرجع را برآورد کرد. نتایج، بیان کننده توانایی و پتانسیل شاخص های پوشش گیاهی به تنهایی و تصاویر لندست در تهیه اطلاعات لازم برای مدیریت آبیاری در کشاورزی و همچنین توانایی الگوریتم های یادگیری ماشین در برآورد پارامترهایی نظیر تبخیر و تعرق مرجع می-باشد.

    کلید واژگان: مدیریت آبیاری, یادگیری ماشین, شاخص های پوشش گیاهی, سنجش ازدور, تبخیر و تعرق
    Zeinab Niasati, Hamid Ebadi, Abbas Kiani *

    Reference evapotranspiration (ET0) is a major research area of both hydrology and water resources management, especially in irrigation agriculture. The most important and direct application of ET0 is in the field of irrigation. One of the conventional methods for estimating reference evapotranspiration using meteorological data is the Penman-Monteith-FAO equation. This equation due to satisfactory results has been used in a variety of climates around the world. However, the lack of necessary meteorological data makes it difficult to estimate spatially distributed ET0 using the FAO-PM method in the wider ungauged areas. Penman Monteith method requires air temperature, wind speed, relative humidity, solar radiation and etc.To overcome the existing limits of the FAO-PM model, various attempts aiming to estimate ET0 with limited observed data have been conducted. At present, remote sensing methods are the only way to obtain the various variables at the temporal and spatial scales needed to estimate evapotranspiration. In recent years, several algorithms have been proposed to estimate reference evapotranspiration using remote sensing data. Some of these models, which are based on the relationship of energy balance, are called surface energy balance methods. In addition to remote sensing, data analysis techniques based on machine learning (ML) are more frequently used in agricultural studies in recent years, especially in evapotranspiration. Therefore, analyses performed with ML algorithms, when coupled with remote sensing data, have the potential to predict the biophysical variables, mainly due to the adaptive capacity of the models to find patterns in nonlinear behavior variable, such as ET0. Machine learning methods are well known and have been widely used in other engineering sciences. The purpose of this study is to estimate the reference evapotranspiration using machine learning algorithms and remote sensing data and finally to analyze the algorithms used. In general, the final results of evapotranspiration estimation depend on factors such as the type of data and the method for estimating evapotranspiration.In this study, the standard method of estimating ET0 with meteorological data, Penman-Monteith FAO equation has been used. The NDVI vegetation index indicates the amount of vegetation on the ground and is sensitive to the early stages of phenology. But the enhanced vegetation index (EVI) minimizes atmospheric effects and differences in blue and red reflections. The SAVI index is used to calculate the vegetation of the land surface that has moderated the effect of soil on it. Three machine learning algorithms were introduced to train the ET0 models, including random forest (RF), gradient boosting regressor (GBR) and support vector regression (SVR). Random forest are one of the machine learning methods that performs classification and regression using Bootstrap and Bagging methods. In this research, three machine learning algorithms with different input data (vegetation indices and all bands of Landsat 7 and 8) are used and after comparing the results, the best model was selected. Performance Evaluation Indicators to compare and evaluate the performance of the studied models, the parameters of mean square error (RMSE), mean absolute error (MAE), coefficient of determination (R2) and correlation coefficient (CC) are used. Finally, according to the results of the two approaches used in this study, using the values of all Landsat bands, the reference evapotranspiration can be estimated with more accuracy.Accurate estimating of reference evapotranspiration is necessary to estimate irrigation needs and in general, to accurately manage water resources. Conventional methods of measuring evapotranspiration are reference using meteorological data. These measurements are point-based, so they are only suitable for very small scale areas. At present, remote sensing methods are the only non-terrestrial way to obtain the various variables at the temporal and spatial scales needed to estimate reference evapotranspiration. In order to reduce the dependence on climatic data and better resolution, machine learning methods are used to calculate the reference evapotranspiration. In this research, RF, GBR and SVR models have been used. In the present study, there are two approaches Used. In the first approach, the values of all bands of Landsat images are as model input, while in the second approach, vegetation indices are calculated with only a few bands of Landsat images and then used as model inputs. By examining, it can be seen that the information obtained from the Landsat image bands is related to the phenological behavior of the products, and it is also possible to contract very relevant information related to agricultural products that are examined temporarily and spatially. One of the factors influencing the accuracy of estimating reference evapotranspiration is the use of other Landsat bands in addition to the bands related to vegetation indices.

    Keywords: Water Management, Machine learning, Vegetation indices, Remote Sensing, Evapotranspiration
  • هادی فرهادی*، طیبه مناقبی، حمید عبادی

    استخراج اطلاعات دقیق مربوط به موقعیت، تراکم و توزیع ساختمان ها در محدوده شهری از اهمیت بسیار بالایی برخوردار است که در کاربردهای مختلفی مورد استفاده قرار می گیرد. سنجش از دور یکی از کارآمدترین تکنولوژی های تهیه نقشه است که در مناطق وسیع، با سرعت بالا، هزینه مقرون به صرفه و با به کارگیری داده های به روز مورد استفاده قرار می گیرد. تاکنون روش ها و داده های متعددی برای این منظور مورد استفاده قرار گرفته است. در این راستا، در تحقیق حاضر از یک روش نیمه خودکار به‎منظور تهیه نقشه محدوده شهری و ساختمان های شهر تبریز و از تصاویر ماهواره ای سنتینل-1 و 2 در سامانه گوگل ارث انجین استفاده شد. برای این منظور، بعد از فراخوانی تصاویر و اعمال پیش پردازش های لازم در موتور مجازی، نقشه مناطق شهری اولیه و ساختمان هایی با پتانسیل بالا از تصاویر سنتینل-1 تولید شد. در مرحله بعد، به منظور حذف ویژگی های مزاحم و استخراج مناطق شهری ثانویه، شاخص های طیفی از تصاویر سنتنیل-2 استخراج شد. سپس برای آستانه گذاری ویژگی ها از آستانه گذاری هیستوگرام به روش تک مدی استفاده شد. در نهایت، با ادغام نقشه ساختمان های با پتانسیل بالا و نقشه مناطق شهری ثانویه، نقشه نهایی تولید و مورد ارزیابی قرار گرفت. نتایج حاصل، نشان دهنده صحت کلی 90/11 درصد و ضریب کاپای 0/803 می باشد. براساس مقایسه های کمی و کیفی انجام شده، روش پیشنهادی از عملکرد مطلوبی برخوردار می باشد. از مهم ترین مزایای روش پیشنهادی می توان به رایگان بودن داده ها و متن باز بودن سامانه گوگل ارث انجین اشاره کرد. بنابراین، می توان نتیجه گرفت که استفاده همزمان از داده های سنجش از دور راداری و اپتیکی در محیط سامانه گوگل ارث انجین، پتانسیل بسیار بالایی در متمایز کردن ویژگی ها و تهیه نقشه ساختمان ها دارد.

    کلید واژگان: سنجش از دور, توسعه فیزیکی شهری, سنتینل-1و2, آستانه گذاری, شاخص های طیفی, گوگل ارث انجین
    Hadi Farhadi *, Tayebe Managhebi, Hamid Ebadi
    Introduction

    Remote Sensing (RS), as one of the most efficient mapping technologies, is employed in wide areas due to its speed, cost-effectiveness, monitoring over wide areas and using time series data. So far, several data and methods are used for this purpose. In general, RS active and passive sensors provide useful information in various applications such as building extraction, natural resource management, agricultural monitoring, etc. The extraction of accurate information about the location, density and distribution of buildings in the urban areas is one of the major challenges in the urban study which is used in various applications. In this framework, the monitoring of the urban parameters, such as urban green space, public health, and environmental justice, urban density and so on has been accomplished by radar and optical image processing, in the last three decades. So far, various methods, including Artificial Intelligence (AI), Deep Learning (DL), object-based methods, etc. have been proposed to extract information in the urban areas. However, an important issue is access to the powerful computer hardware to process the time-series images. In such a situation, the use of the Google Earth Engine (GEE) as a web-based RS platform and its ability to perform spatial and temporal aggregations on a set of satellite images has been considered by many researchers. In this research, a semi-automatic method was developed building extraction in Tabriz, northwest of Iran, based on the satellite images using the GEE cloud computing platform. Since accessible data is one of the most important challenges in the use of space RS, in this study, the free Sentinel-1 and sentinel-2 data, which belongs to the European Space Agency (ESA), has been utilized.
     

    Materials & Methods

    2-1- Study Area The study area is central part of the city of Tabriz East Azerbaijan Province, which is located in northwestern of Iran. 2-2- Data Various data sources have been used in this study, including Sentinel-1, Sentinel-2, and the Shuttle Radar Topography Mission (SRTM) Digital Elevation Model (DEM). In addition, 400 training samples were created using High-Resolution Google Earth Imagery (GEI) in two classes: urban-residential (buildings) and non-residential areas (vegetation, soil, road, water and etc.).
    2-3-

    Methodology

    The goal of this research is to develop a method for identifying the buildings in an urban area. For this purpose, after importing images and pre-processing them in the GEE Platform, a map of the Primary Urban Areas (PUA) and High-Potential Buildings (HPB) was produced from Sentinel-1 images according to the sensitivity of the radar images to the target physical parameters. Then, in order to remove the annoying features and extract the Secondary Urban Areas (SUA), spectral indices such as Normalized Difference Vegetation Index (NDVI), Green Normalized Difference Vegetation Index (GNDVI), Renormalized Difference Vegetation Index (RDVI), Normalized Difference Water Index (NDWI), Soil Extraction Index (SOEI), Normalized Difference Built-up Index (NDBI), and Build-up Extraction Index (BUEI) were extracted from Sentinel-2 images. Also, the high slope of the area and the mountainous areas was extracted from the SRTM DEM data and used as a mask in the final results. Afterwards, the unimodal histogram thresholding method was used in order to determine the threshold value for each index. Finally, by merging the map of HPB and the map of SUA, the final map was produced and evaluated by other methods. In this research, the proposed method used images from GEI with a very high spatial resolution to validate the generated map. As a result, sampling was carried out using a visual interpretation of GEI in two classes: residential areas (buildings) and non-residential areas. The samples were selected randomly and 400 points were collected for each residential and non-residential class. In the study area, a total of 800 test points were used to evaluate the results of the proposed method. To evaluate the accuracy of the results, the criteria of overall accuracy (OA), kappa coefficient (KC), user accuracy (UA) and producer accuracy (PA) were used.

    Results & Discussion

    According to the visual interpretation, all buildings in urban areas with a length and width greater than 10 meters (spatial resolution of the four major bands of Sentinel2) can be extracted using the proposed method in this study, and the results are acceptable in various features. According to the proposed method, annoying features such as vegetation and water body areas were removed from the building identification process with high accuracy, and the accuracy in the study area was improved. The results showed that the OA and KC were 90.11 % and 0.803, respectively. Based on the quantitative and qualitative comparisons, the proposed method had a very satisfying performance.

    Conclusion

    Due to the spectral diversity and the presence of various features in urban environments, preparing a map related to it in a large area is extremely difficult. In this regard, the current study presented a very fast semi-automatic method for preparing the urban area map and extracting buildings in Tabriz using Sentinel-1 and Sentinel-2 satellite images as a time series in the GEE platform. One of the most significant benefits of the proposed method is that the data and processing system used in our study is free. Thus, in addition to not having to download large amounts of data, the method presented in the current study has the ability to eliminate many of the limitations of traditional methods, such as classification methods and their requirement for large training samples. The proposed method did not extract the map of buildings using heavy and complex algorithms, which was an important consideration in the discussion of computational cost. Therefore, it can be concluded that the simultaneous use of Radar and optical RS data in the GEE Web-Based platform has a very high potential in distinguishing features and building mapping.

    Keywords: Remote Sensing, Urban Physical Development, Sentinel-1, 2, Thresholding, Spectral indices, Google Earth Engine
  • پریسا دودانگه، حمید عبادی، عباس کیانی*

    سیل یکی از اصلی ترین بلایای طبیعی در دنیاست که به علت های مختلفی مانند تجاوز انسان ها به حریم رودخانه ها و تخریب پوشش گیاهی رخ می دهد. هدف این پژوهش، ارایه روشی خودکار برای تهیه داده های آموزشی برای کلاسه بندی نظارت شده تصاویر و استفاده از قابلیت های شاخص های ترکیبی برای شناسایی پهنه های سیل زده است. به این منظور، چندین رویکرد بر سیل استان گلستان در سال 1398 با داده های لندست-8 پیاده سازی و نتایج هر یک بررسی شد. بدین سبب، الگوریتم خوشه بندی Kmeans، حدآستانه گذاری های Otsu، Multi و Adaptive برای تهیه داده های آموزشی خودکار به کار رفت که هر یک مبتنی بر شاخص های مختلف آب اجرا شد؛ پس از آن، به اجرای طبقه بندی های ANN، SVM، ML، MD و BE، برای پایش تغییرات سیل اقدام شد. نتایج در مقایسه با روش طبقه بندی مبتنی بر کاربر، نشان یداد که رویکرد مورد مطالعه علاوه بر تامین سطح اتوماسیون بالا در پایش تغییرات، کارایی و دقت زیادی نیز داشت. در رویکرد توسعه ای دیگر، به ترکیب شاخص های مختلف آب و شاخص رطوبت با هدف بهبود روند تولید داده های آموزشی خودکار اقدام شد که در میان 85 آزمایش انجام شده، رویکردهای ترکیبی، بیشترین دقت را داشت. به علت ماهیت شاخص های مختلف آب، انتخاب و ترکیب مناسب آنها علاوه بر کاهش نویزهای موجود در تصویر شاخص آب، در افزایش قابلیت شناسایی پهنه های آبی ناخالص نیز موثر واقع بود. درنهایت، تحلیل قیاسی جامعی از روش های خودکار و شاخص های ترکیبی انجام شده که در مدیریت بحران سیل کارآمد بوده و به سهولت و تسریع روند آن کمک می کند.

    کلید واژگان: مدیریت بحران, سیل, طبقه بندی نظارت شده, داده آموزشی خودکار, شاخص ترکیبی
    Parisa Dodangeh, Hamid Ebadi, Abbas Kiani *

    Iran is one of the countries exposed to many natural disasters, of which the flood phenomenon is one of the most serious. According to official statistics, more than 50% of casualties due to natural disasters in Iran are due to floods. Accurate and timely information is needed to plan any flood management measures. Currently, many researchers have examined the methods of obtaining water area information. Among these methods, land use classification and change analysis are the most important applications of remote sensing techniques. One of the most widely practical classifications is the separation of water class from other classes.Also, Landsat images are one of the most common data sources in this field. In this regard researches have been done in the field of identifying water areas, due to its high importance in flood crisis management with the advancement of satellite technology in remote sensing. In this study, an automated method has been developed to prepare flood change maps and use different capabilities of different water and humidity indicators to provide automated training data. This can reduce the challenge of operator interferences. Besides, the efficiency of the high level of automation in the extraction of flooded areas in accelerating and facilitating the management of this crisis is indisputable. Therefore, when manual training data is not available, applying a fully automated approach will be helpful. The integration of indicators can also be effective in improving the accuracy of existing water indicators. Floods are one of the most important natural disasters in the world that occurred due to different factors such as human encroachment on rivers and vegetation damages. The purpose of this study is to develop an automated method for preparing training data for supervised classification of images and using the capabilities of integrated indicators to identify flooded areas. Therefore, several approaches for flood in Golestan province, 2019, were implemented by Landsat-8 data and the results of each were examined. The Kmeans clustering algorithm, Otsu, Multi and Adaptive thresholds were used to generate automated training data based on different water indices (NDWI, AWEI and MNDWI; Then the ANN, SVM, ML, MD and BE classifications) was implemented to monitor flood changes. The results compared with the manual classification method indicated that the proposed approach, in addition to providing a high-level of automation in monitoring changes, also had high efficiency and accuracy. In another development approach, different water and moisture indices were combined with the aim of improving the production process of automated training data. Among the 85 tests performed, the combined approaches had the highest accuracy. Due to the nature of different water indicators, their selection and appropriate combination, in addition to reducing the noise in the water indicator image was also effective in increasing the ability to identify impure water areas. Finally, a comprehensive deductive analysis of automated methods and hybrid indicators was carried out to help to manage flood crisis, facilitate and accelerate the process. It can be said that with the advancement of technology and the emergence of various aerial / satellite images, many opportunities and possibilities have been created for effective and sustainable management. One of the best ways to extract information from digital images is to classify the image. One of the challenges in image classification is to reduce the interference of users using algorithms that have high level of automation. This issue has high importance due to the sensitivity and sudden occurrence of the flood crisis. Therefore, to promote this challenge, in this research, an automated and efficient approach for supervised classifications with emphasis on automatic production of training data to prepare a map of flood changes is presented. In total, 85 different studies were performed to obtain flood change maps, using hybrid and non-hybrid automated methods to prepare automated training data for supervised classifications. It is considered that the obtained results had acceptable accuracy. For example, in all approaches studied, ANN classification offered better accuracy, which could be seen from the diagrams provided. Also, due to the lack of significant difference in the accuracy of the maps, obtained from this classification with different indicators and thresholds, it can be said that this classification is also highly robust. The results indicate that ANN classification in combined approaches with Otsu and Adaptive thresholds has the highest accuracy and maximum robustness. In comparison with methods related to execution speed, ML and MD classifications also provided good performance. However, the difference in the accuracy of these classifications compared to the ANN classification is not significant in some cases and will be possible to replace due to higher execution speed. Finally, by analysis of the results, it can be stated that the automated approaches proposed in this research can be replaced by traditional classification methods.

    Keywords: crisis management, Flood, supervised classification, automated training data, hybrid indice
  • پریسا دودانگه، حمید عبادی، عباس کیانی*
    همواره مخاطرات طبیعی در زندگی انسان‏ ها آثار مخربی داشته است که سیل یکی از انواع جدی آن‏ است. بنابراین، ارایه روش‏ های سریع شناسایی سیلاب برای مدیریت بحران ضرورت زیادی دارد. هدف از این تحقیق، ارایه روشی با دقت و سرعت‏ مناسب در تهیه نقشه سیلاب است. در این تحقیق از دو سری زمانی داده های سنتینل 1 و لندست 8 برای تهیه نقشه شدت سیل با ترکیب روش محاسبات آماری و شاخص‏ های استخراجی استفاده شد. الگوریتم پیشنهادی به این ترتیب است که ابتدا نقشه پهنه ‏های آبی دایمی به‏ صورت خودکار توسط تصاویر ماهواره ‏ای اپتیکی طی 5 سال تهیه می ‏شود. سپس، برای تعیین شدت سیلاب در مناطق مختلف از محاسبات آماری روی باندهای سری زمانی تصاویر راداری بهره گرفته می ‏شود و درنهایت، با استفاده از شاخص نرمال‏ شده تفاوت سیل که قابلیت شناسایی سریع سیل را دارد، نقشه نهایی سیلاب به دست می‏ آید. رویکرد پیشنهادی در پی رخداد سیل 1398 روی دو منطقه گلستان و خوزستان که دارای شرایط جغرافیایی متفاوت هستند، پیاده ‏سازی شده است. ارزیابی‏ ها به کمک نقشه‏ های واقعیت زمینی و ماتریس ابهام صورت گرفته و علاوه بر آن، برای تحلیل‏ های کامل‏تر از آزمون مک‏ نمار نیز استفاده ‏شده است. پیاده‏ سازی الگوریتم در محیط ارث انجین نشان داد این روش در کنار داشتن دقت زیاد، امکان استفاده از صدها تصویر را بدون نیاز به سخت ‏افزارهای خاص فراهم می‏ آورد. دقت کلی به‏ عنوان نمونه در یک دوره زمانی در استان گلستان و خوزستان به ترتیب 84/91 و 36/97 بوده که نشان ‏دهنده قابلیت تعمیم‏ پذیری زیاد الگوریتم در مناطق با وسعت‏ های متفاوت است.
    کلید واژگان: پایش سیل, سری زمانی, شاخص نرمال‏ شده تفاوت سیل, گوگل ارث انجین, محاسبات آماری
    Parisa Dodangeh, Hamid Ebadi, Abbas Kiani *
    Natural hazards have always had devastating effects on human life, of which the flood is one of the most serious. Therefore, providing rapid flood identification methods for crisis management is necessary. The purpose of this study is to provide a method with proper accuracy and speed in preparing flood maps. In this study, two time series of Sentinel-1 and Landsat-8 data were used to prepare a flood intensity map by integrating statistical calculation and index extraction. The proposed algorithm is that first the map of permanent water surfaces is automatically prepared by optical images over a period of 5 years. Then, to determine the flood intensity in different regions, statistical calculations are used on the time series of radar images, and finally, using the Normalized difference flood index, which can quickly identify the flood, the final flood map is obtained. The proposed approach has been implemented following the occurrence of the flood of 1398 in two regions of Golestan and Khuzestan, which have different geographical conditions. Assessments performed with the help of ground truth maps and confusion matrices, and in addition, McNemar test was used for more complete analysis. The implementation of the algorithm in the Google-earth-engine environment showed that this method, in addition to having high accuracy, allows the use of hundreds of images without the need for special hardware. The overall accuracy in a period of time in Golestan and Khuzestan was 91.84 and 97.36, which indicates the high generalizability of the algorithm in regions with different extent.
    Keywords: flood monitoring, Google Earth Engine, Statistical calculation, time series, Normalized difference flood index
  • پریسا دودانگه، حمید عبادی، عباس کیانی*

    رخداد سیلاب در مناطق نیمه شهری همواره با خسارات زیادی به زیرساخت های مختلف همراه است. لذا ارائه رویکردهایی با توانایی ارزیابی دقیق مناطق سیل زده در کمترین زمان ممکن از ضرورت های مدیریت بحران می باشد. بدین منظور روش های طبقه بندی تصاویر توسعه داده شده که با چالش هایی در تفکیک کاربری ها روبه رو می باشند. ازجمله چالش های موجود در مطالعات سیل، عدم دسترسی به تصاویر ماهواره ای با وضوح زمانی بالا ضمن حفظ دقت مکانی می باشد. هدف این تحقیق، برآورد میزان آب گرفتگی کاربری های مختلف در پی رخداد سیل در استان خوزستان در سال 1398 می باشد که بر اساس تلفیق تصاویر انجام گرفته است. به منظور تهیه نقشه ی مناطق تحت تاثیر سیلاب نیز اقدام به طراحی شبکه عصبی کانولوشنی مبتنی بر پنچره تصویری شده که چالش موجود در استخراج ویژگی های عمیق با توجه به ساختار نسبتا ضعیف تصاویر مورداستفاده را برطرف می نماید. درنهایت نقشه سیلاب در کاربری های مختلف به صورت متوالی در دوران سیلاب برآورد شده است. نقشه های کاربری قبل از سیل توسط روش پیشنهادی دقت 73 و نقشه های کاربری پس از سیل به ترتیب زمانشان، دقت های 75، 5/77 و 79 را کسب نمودند. نتایج حاکی از عملکرد مناسب رویکرد پیشنهادی در مواجه با چالش سرعت و دقت بوده که پیاده سازی آن بر روی تصاویر مختلف سیلاب بیانگر عمومیت داشتن فرآیند می باشد.

    کلید واژگان: یادگیری عمیق, شبکه عصبی کانولوشنی, تلفیق تصاویر, نقشه سیلاب, مدیریت بحران سیل
    Parisa Dodangeh, Hamid Ebadi, Abbas Kiani *
    Introduction

    Flood is a natural hazard that causes many deaths each year, and due to the effects of climate change, the number of occurrences is increasing worldwide. Therefore, natural disaster damage assessment, such as floods, provides important information to support decision-making and policy development in the field of natural hazard management and climate change planning. In this regard, in recent years, various methods for classifying remote sensing images have been developed, which always face challenges in differentiating a variety of land uses. Another challenge in flood crisis management is the lack of access to satellite imagery with high temporal resolution while maintaining spatial resolution, which is more pronounced in the presence of cloud cover in the area and occurs during floods. The purpose of this study is to identify flooded areas in Khuzestan province following the flood of 1398, which is based on the integration of optical images of Sentinel 2 and MODIS to produce a time series with relatively good spatial and temporal resolution. In order to classify and prepare maps, a patch-based hierarchical convolutional neural network has been designed, which solves the challenge of extracting deep features due to the relatively weak structure of images with a resolution of more than 10 meters. In addition, the effect of different neighborhood dimensions on the extraction of deep features in all images has been investigated. Finally, the area of damage to urban land cover and various agricultural lands has been estimated consecutively during the flood period.

    Material and methods

    The data used in this research are two series of different satellite images including Sentinel-2 MSI Level-1C images with a spatial resolution of 10 meters and the product of MODIS daily surface reflectance (MOD09GA) with a spatial resolution of 500 meters. The general process of implementing this research can be summarized in 7 phases. In the first phase, the data is first pre-processed. Then, in the second phase, the image fusion algorithm is implemented to predict the daily surface reflectivity of the images, and if the error and accuracy of the predicted images are appropriate, the time series of the flood period is obtained. In the third phase, Ground truth maps are prepared by the researcher using image interpretation. In the fourth phase, training samples are prepared from these data to perform various classifications such as deep learning approaches and machine learning, and the proposed network is implemented in different input dimensions. It should be noted that the number of training and validation samples in deep learning networks has been very limited and less than half a percent of images to automate and reduce user dependence. In the fifth phase, to perform damage assessment in the agricultural and vegetation regions, the relevant maps are prepared with the best approach tested in the previous phase, and finally, in the sixth phase, accuracy assessments are performed by the confusion matrix and related criteria. In the last phase which is the seventh phase, the area of flood-affected land uses is estimated.

    Discussion

    The present study is implemented to improve one of the most important issues in crisis management in the country, namely the assessment of damage caused by the sudden phenomenon of floods. Therefore, presenting a method with appropriate speed compared to existing methods and also increasing the accuracy of final maps due to its challenging has been one of the objectives of this research. First, in order to prepare a suitable time series of optical data with an appropriate spatial and temporal resolution, the ESTARFM fusion algorithm was used. According to the evaluations performed for the two integrated images, this algorithm has high efficiency and accuracy in areas with heterogeneous coverage. Due to the change in environmental conditions between the images, the maximum errors have occurred in water-sensitive bands, but all errors due to their small values in each band indicate the efficiency of the algorithm used. In addition, since the two images are predicted in time series, so the generalizability of the algorithm has been investigated and proven. Furthermore, regarding the classification algorithms for preparing the destruction map, the proposed neural network has a significant difference in accuracy compared to other approaches. In addition, in the study of the extracted classes, in the proposed approach, the built-up areas benefit from a very high identification compared to other algorithms and the appropriateness of other uses, especially the use of water areas, is maintained. According to the studies, the highest rate of flooding in the study area was in the third week of April and after that, the area has been experiencing a decreasing trend. Therefore, the damage was estimated on April 14 and 21. According to the assessments, flooding has decreased from April 14 to April 21 in built-up areas, rainfed and fallow lands, and has increased in wetland and Aquatic cultivation areas.

    Conclusion

    In this research, the ESTARFM image fusion algorithm, which is known to be suitable for combining images in heterogeneous regions, has been used for April 8 and April 14 images, and the evaluations have been done with the help of scatter plots and least-squares error. The results showed the efficiency of the method in integrating relatively high-resolution Sentinel 2 images and low-resolution MODIS images in the field of flood management. In the field of identifying flooded areas and further due to the poor structure of images with a resolution above 10 meters, the possibility of extracting optimal and deep features is difficult. In the present study, a patch-based convolutional neural network has been designed with a minimum of layers and hyper-parameters, which provides the possibility of training from scratch with the least amount of training samples and without overfitting for images with different environmental conditions. Also, in order to find the optimal state, the dimensions of different inputs in all images have been tested to make a comparison of the effect of different neighborhoods. Thus, patches of sizes 3 to 11 were tested, patches 5 and 7 in the pre-flood image, and patches 9 and 11 in the post-flood images were the best. The results were compared with approaches such as object and pixel-based SVM, LCNN, and DCNN neural networks with dimensions of 3 × 3 and 5 × 5 according to the reference research, and had a significant improvement in accuracy. Time evaluations were performed between all approaches and the lowest time was related to the proposed approach with patch dimensions of 3 × 3 and 5 × 5 and the highest time was related to DCNN network with dimensions of 5 × 5. However, due to the importance of time in crisis management and the need to prepare a high-speed map, the proposed approach has provided an appropriate response. If the time and accuracy are proportionally considered in implementing the research, the designed network in 9 × 9 input dimensions is recommended because in this case, both the accuracy and the time superiority are satisfied.

    Keywords: Deep learning, Convolutional Neural Network, Image Fusion, Flood map, flood crisis management
  • امیر آقابالائی*، حمید عبادی، یاسر مقصودی

    پایش زمین و زیست کره آن در هر مقیاسی جهت نیل به یک توسعه پایدار لازم و ضروری است. ازاین رو، جنگل ها، به عنوان یک منبع طبیعی ارزشمند، نقش مهمی در کنترل تغییرات آب وهوایی و چرخه کربن دارند. به همین دلیل، زیست توده و به تبع آن ارتفاع جنگل جزء اطلاعات کلیدی جهت پایش جنگل و زمین زیر آن به شمار می آیند. در مطالعات بسیاری نشان داده شده است که سامانه تصویربرداری رادار با روزنه مجازی (SAR) می توانند کمک شایانی به این هدف نمایند. در این راستا، تکنیک جدیدی که تداخل سنجی پلاریمتریک SAR (PolInSAR) نامیده می شود، ابزاری مناسب و در دسترس جهت برآورد ارتفاع جنگل می باشد، چراکه به موقعیت و توزیع قایم اجزای ساختاری جنگل حساس است. بر این اساس، از یک نقطه نظر، روش های به کار برده شده در این حوزه را می توان به دو دسته تقسیم کرد: الف) بر اساس مدل معکوس گیری حجم تصادفی بر زمین (RVoG)، و ب) بر اساس تکنیک های تجزیه مدل مبنای داده های PolInSAR. در این تحقیق، جهت بهبود برآورد ارتفاع جنگل روشی نوین بر اساس ترکیب دو دسته روش اشاره شده پیشنهاد شده است. عملکرد و کارآمدی روش پیشنهادی توسط دو مجموعه داده شبیه سازی شده از نرم افزار PolSARProSim در باندهای L و P اثبات شد. به طوری که در باند L و در روش های تفاضلی مدل رقومی ارتفاعی (DEM)، دامنه کوهرنسی و ترکیبی (فاز و کوهرنسی) به ترتیب 69/0 متر، 84/1 متر و 38/3 متر بهبود در برآورد ارتفاع حاصل شد. همچنین در باند P و بالاخص در روش های تفاضلی DEM و دامنه کوهرنسی به ترتیب با 53/1 متر و 74/2 متر بهبود حاصل شد.

    کلید واژگان: برآورد ارتفاع جنگل, تداخل سنجی پلاریمتریک راداری (PolInSAR), مدل معکوس گیری حجم تصادفی بر زمین (RVoG), تجزیه مدل مبنای PolInSAR
    Amir Aghabalaei*, Hamid Ebadi, Yasser Maghsoudi

    Monitoring the earth and its biosphere is an essential task in any scale to achieve a sustainable development. Therefore, forests, as an invaluable natural resource, have an important role to control the climate changes and the carbon cycle. For this reason, biomass and consequently forest height have been known as the key information for monitoring the forest and its underlying surface. Several studies, it has been shown that Synthetic Aperture RADAR (SAR) imaging systems can greatly help to this purpose. In this framework, a novel technique called Polarimetric SAR Interferometry (PolInSAR) is an appropriate and an available tool for forest height estimation, due to its sensitivity to location and vertical distribution of the forest structural components. Based on this, from a view point, the methods employed in this field can be divided into two categories: a) based on Random Volume over Ground (RVoG) inversion model, and b) based on model-based decomposition techniques of PolInSAR data. In this study, in order to improve the forest height estimation, a novel method based on the combination of two mentioned categories has been proposed. The performance and the efficiency of the proposed method were demonstrated by two datasets simulated from the PolSARProSim software in L and P bands. So that, in L band, it obtained 0.69 m, 1.84 m and 3.38 m improvements for height estimation in Digital Elevation Model (DEM) differencing, coherence amplitude and combined (phase and coherence) methods, respectively. As well, in P band, in it obtained 1.53 m and 2.74 m improvements especially in DEM differencing and coherence amplitude methods, respectively.

    Keywords: Forest height estimation, Polarimetric SAR Interferometry (PolInSAR), Random Volume over Ground (RVoG) inversion model, (PolInSAR), Model, based PolInSAR decomposition
  • امیر آقابالایی*، حمید عبادی، یاسر مقصودی مهرانی

    چندین مطالعه انجام شده در دهه اخیر نشان داده است که سامانه های تصویربرداری رادار با روزنه مجازی (SAR) در مد Compact پلاریمتری (CP) می توانند بر معایب سامانه های تصویربرداری SAR در مد تمام پلاریمتریک (FP) غلبه کرده و عملکرد قابل قبولی را در کاربردهای مختلف سنجش از دور مانند مدیریت و پایش منابع مهم طبیعی از جمله جنگل ها ارائه دهند. در این راستا، فناوری نوینی به نام تداخل سنجی پلاریمتریک SAR (PolInSAR)، به عنوان ابزاری توانمند در این حوزه، بسیار مورد توجه قرار گرفته است. در این مقاله، عملکرد داده های C-PollnSAR) Compact PollnSAR)در مد ارسال و دریافت قطبش دایروی (DCP) جهت برآورد ارتفاع درختان جنگل مورد بحث و بررسی قرار گرفته است. برای این منظور، روش های مرسوم جهت بازیابی ارتفاع درختان در مناطق جنگلی، شامل روش تفاضلی مدل رقومی ارتفاعی (DEM)، روش اندازه دامنه کوهرنسی و نیز روش ترکیبی (فاز و کوهرنسی)، بر روی این داده ها پیاده سازی شد. به منظور ارزیابی عملکرد داده های C-PolInSAR، نتایج حاصل از این داده ها با نتایج به دست آمده از داده های Full PolInSAR) F-PollanSADR) مقایسه و ارزیابی گردید. نتایج تجربی به دست آمده در این تحقیق بر دو مجموعه داده شبیه سازی شده از نرم افزار PolSARProSim در باندهای L و P نشان دادند که داده های C-PolInSAR در مد DCP، عملکرد و نتایج یکسانی نسبت به داده های F-PolInSAR با در نظر گرفتن HH+VV به عنوان قطبش پس پراکنش شده از زمین، در برآورد ارتفاع دارند. به ویژه آن که، داده های C-PolInSAR در مد DCP بهبود 78/0 متری و 55/0 متری را به ترتیب در باندهای L و P نسبت به داده های F-PolInSAR با انتخاب HH-VV به عنوان قطبش زمین، در برآورد ارتفاع درختان حاصل کردند. علاوه براین، به کارگیری داده های C-PolInSAR هنگامی که منابع سامانه های تصویربرداری پلاریمتریک محدود هستند، در دسترس نیستند، و نیز در طول موج های بلند، که قطبش ارسالی متاثر از چرخش فارادی است، می تواند یک راه کار موثر باشد.

    کلید واژگان: C-PollnSAR) Compact PollnSAR), پلاریمتریک دایروی دوگانه (DCP), برآورد ارتفاع جنگل, روش تفاضلی مدل رقومی ارتفاعی (DEM), روش اندازه دامنه کوهرنسی, روش ترکیبی (فاز و کوهرنسی)
    Amir Aghabalaei *, Hamid Ebadi, Yasser Maghsoudi
    Introduction

    Monitoring and assessment of the biosphere are two essential tasks at any scale. Based on this, forests play an important role in controlling the climate and the global carbon cycle. For this reason, biomass and consequently forest height are known as the key information for forest monitoring. In the recent decade, several studies have shown that the Synthetic Aperture RADAR (SAR) imaging systems in Compact Polarimetry (CP) mode can overcome the disadvantages of Full Polarimetric (FP) SAR imaging systems and provide a good performance in various remote sensing applications such as monitoring and managing the important natural resources like forests. In this regard, a novel technique named Polarimetric Interferometry SAR (PolInSAR) has been further considered as a powerful tool for forest height estimation. 

    Materials & Methods

    In this research, the performance of the Compact PolInSAR (C-PolInSAR) data in Dual Circular Polarization (DCP) mode has been investigated in order to retrieve the forest height. For this reason, the common methods which are used for forest height estimation including Digital Elevation Model (DEM) differential method, coherence amplitude inversion, and phase & coherence inversion methods were applied and implemented on these data. In all of the aforementioned methods, LL+RR and LR polarizations were considered as the selected channels for estimating the volumetric and ground coherences, respectively. Then, the estimated coherences were considered as the input parameters for all of the mentioned methods. 

    Results & Discussion

    To evaluate the performance and the efficiency of C-PolInSAR data in DCP mode, the results obtained from these data were compared with those obtained from Full PolInSAR (F-PolInSAR) data. The results obtained in this study in two datasets simulated from PolSARProSim software in both L and P bands showed that the C-PolInSAR data in DCP mode yielded a similar result compared to the F-PolInSAR data for forest height estimation (when the HH+VV polarization is adopted as the ground backscattering), because, in this case the LL+RR and the LR polarizations are equal to the HV and the HH+VV polarizations, respectively, particularly, the C-PolInSAR data in DCP mode yielded 0.78 m and 0.55 m improvements for forest height estimation in L and P bands, respectively. In addition, all of the employed methods provided better and closer results compared to the real forest height (i.e. 18 m) in L band compared to P band, because the electromagnetic (EM) waves have a more penetration into the canopy in L band compared to P band. Thus, the attenuation of these waves is low and consequently the height estimation is more accurate. Without considering the used bands, the DEM method provided the lowest precision compared to other methods, because the HV (or LL+RR) phase center can lie anywhere between half the tree height and top of the canopy. The exact location of this phase depends on two vegetation parameters which are the wave mean attenuation and the vertical canopy structure variations. In this case, the trees have very thin canopies, and consequently, the attenuation is small, but the phase center is high due to the structure. In other words, when the canopy extends over the entire forest height, then the phase center can be at half the true height for low density (low attenuation), through to the top of the canopy for dense vegetation (high attenuation). This ambiguity is inherent in single baseline methods, and in order to overcome this, model-based correction methods need to be employed. It was also observed that the coherence amplitude method is among the weak algorithms due to ignoring the phase and its sensitivity to the attenuation and structural variations but it can be used as a backup solution when other approaches fail. Finally, the phase and the coherence inversion method had better results than two aforementioned methods for the forest height estimation. In this method, selecting the factor ‘’ is very important and it should be selected in a way to be strong towards the attenuation changes. In this study,  0.4 was adopted to maintain the height error variations.

      Conclusion

    As the final result, the C-PolInSAR data can be an efficient strategy due to its performance, when the full polarimetric imaging systems are either limited or not available. Moreover, utilizing these data in long wavelengths (e.g. P band) is more appropriate due to the effect of the Faraday rotation on the transmitted polarization.

    Keywords: Compact PolInSAR, Dual circular polarization, Forest height estimation, Digital Elevation Model (DEM) differential method, Coherence amplitude inversion method, Phase, coherence inversion method
  • فریبرز قربانی*، حمید عبادی، مسعود ورشوساز

    در طول چند دهه ی اخیر محیط های شهری بسیار بیشتر از گذشته گسترش یافته اند. یکی از مهمترین مشکلاتی که  در اکثر کلان شهرها و حتی شهرهای کوچک وجود دارد مدیریت سیستم حمل و نقل است. یک سیستم نظارتی پیشرفته از وسایل نقلیه ی درون شهری امکان غلبه بر مشکلات ترافیکی و ازدحام خودرو ها را فراهم می نماید، و به تبع آن از مشکلات آلودگی هوا می کاهد. با توسعه ی پرنده ای بدون سرنشین (UAV) امکان پایش مستمر و دقیق محیط های شهری برای کاربران فراهم گردیده است. در این تحقیق هدف ارائه روشی سریع و با عملکردی مناسب از  نظر دقت در شناسایی اتوماتیک خودرو در تصاویر پهپاد با حدتفکیک بسیار بالا است. در گام شناسایی خودرو از قابلیت الگوریتم آشکارساز و توصیفگر عوارض موضعی SIFT استفاده شده است. یکی از اصلی ترین قابلیت های این الگوریتم پایدار بودن در برابر تغییرات روشنایی و انواع تبدیلات هندسی نظیر انتقال، دوران و مقیاس است. روش ارائه شده شامل دو مرحله ی اصلی: آموزش الگوریتم و فرآیند شناسایی خودرو است. روش پیشنهادی بر روی 8تصویر پهپاد که دارای پس زمینه با بی نظمی های مختلف هستند پیاده سازی شد. این تصاویر شامل انواع مختلفی از خودروها هستند. به منظور ارزیابی کمی روش پیشنهادی از دو معیار استفاده شده است. همچنین عملکرد این روش با رویکرد پنجره ی جستجو مورد مقایسه قرار گرفته است. نتایج نشان می دهد زمان محاسبات الگوریتم پیشنهادی 82ثانیه است و میانگین دو معیار ارائه شده معادل 67/65درصداست که نشان دهنده ی برتری روش از لحاظ سرعت و دقت محاسباتنسبت به روش پنجره ی جستجواست.

    کلید واژگان: الگوریتم SIFT, تصاویر پهپاد, اهداف خودرو, خوشه بندی عوارض, طبقه بندی کننده ی SVM
    Fariborz Ghorbani *, Hamid Ebadi, Masoud Varshosaz

     

    Introduction   

    In the past few decades, urban environments have expanded much larger than before. One of the most important problems in most metropolises and even small cities is the management of the transportation system. An advanced monitoring system of urban vehicles allows for overcoming the traffic problems. With the development of unmanned aerial vehicles (UAVs), continuous and accurate monitoring of urban environments has been provided for the users. In this research, an efficient method is presented that detects the vehicle in the UAV images. The proposed method is effective in terms of computational speed and accuracy.  

    Materials and Methods

       The foundation of the proposed method is based on the characteristics of the local features in the UAV images. The presented method consists of two main stages of training classification model and detecting vehicles. In the first part, local features are extracted and described by the SIFT algorithm. The SIFT algorithm is one of the most powerful algorithms for extracting and describing local features that are used in various photogrammetry and machine vision applications. This algorithm is robust to geometric and radiometric changes of the images. Due to the high dimensions of extracted features from all the training samples, the BOVW (Bag of Visual Word) model has been applied. This model is used to reduce the dimensions of the features and display the images. Simple and efficient computing is one of the significant features of the BOVW model. At this stage, after producing a library of features, the SVM classification model is trained. In the detection part of the algorithm, the images are entered into the algorithm and the local features are extracted in all images by the SIFT algorithm. The BOVW model is often used to display an image patch. In most researches, this model is implemented by applying a search window to the whole image. This type of methods has a higher confidence level in detection, but it is a very time consuming process and increases the volume of the computations. For this purpose, the approach of points clustering and their representation by the BOVW model is proposed. In this method, features that are within a certain range are considered as a cluster. Euclidean distance is used in image space for clustering. Then, the clusters produced by the BOVW model are displayed. Then, a feature vector is constructed for each cluster. The trained SVM is applied to each of the production vectors and each cluster is classified as a vehicle and non-vehicle. If the cluster is detected as a car, the position of the center of that cluster is marked on the image.  

    Results and discussion

       The proposed method was implemented on 8 images with a number of different car targets. Also, considering the use of the search window approach in many researches, our results were compared with the results obtained by other researchers. The results show that the calculation time of the proposed method is 82 seconds, while the search window method takes 2496 seconds to run. In order to verify the accuracy of the algorithm, two criteria were used. The first criterion is the “Producer's accuracy”, which represents the proportion of correct detections of the vehicle to the entire vehicles existing in the images. This criterion is 75.79% for the proposed method. The second criterion is the “User's accuracy”. This criterion is obtained by dividing the correctly detected samples into the sum of the correctly and incorrectly detected samples. The User's accuracy criterion has been reported to be 59.50%.  

    Conclusion 

    The value of the Producer's accuracy criterion is greater for the search window method which has led to a more accurate detection of vehicles compared to our method.  This is due to the small moving steps of the search window in the entire image. However, the search window method has increased the amount of the time spent on the calculations. The User's accuracy criterion shows that the proposed method has less incorrect detections. The results indicate that our method has a higher degree of reliability. The average of these two criteria indicates the superiority of the proposed method in terms of the accuracy of the calculations. On the other hand, the proposed algorithm has a great advantage in terms of computational speed compared to the search window method.

    Keywords: SIFT algorithm, UAV images, Car targets, Clustering, SVM classifier
  • عباس کیانی *، حمید عبادی، حکمت الله خانلو
    طبقه بندی پوشش اراضی در تصاویر سنجش ازدور یکی از پرکاربردترین روش های استخراج اطلاعات مکانی می باشد که می تواند با تولید کلاس های تصویری عوارض سطح زمین به منظور اتوماسیون و تسریع در جهت رفع نیازهای اساسی به منظور در اختیار داشتن اطلاعات مکانی بهنگام از منابع با هدف مدیریت، ساماندهی و بهره برداری از محیط مفید واقع گردد. به دلیل مشابهت رفتار پیکسل ها، طبقه بندی تصاویر هوایی در مناطق پیچیده و متراکم شهری صرفا با استفاده از اطلاعات طیفی و بافتی منجر به ناکارآمدی طبقه بندی می شود. به عبارتی در طبقه بندی رایج بیشتر با استفاده از خصوصیات طیف و ویژگی های پیکسل های تصویر به شناسایی عوارض و کلاس ها پرداخته می شود. درصورتی که بتوان تطابق مکانی و مفهومی پیکسل ها را نیز در نظر گرفت، به این ترتیب می توان تمایز بیشتری بین کلاس های تصویری قائل شد و فرآیند ماشینی را به تفسیر ذهنی و انسانی نزدیک نمود و بر کارایی سیستم افزود. تمرکز اصلی تحقیق حاضر استفاده از مفاهیم سیستم های خبره در طبقه بندی به منظور آنالیز شئ‏گرای تصاویر در سطوح مقیاس کلاسی است. بدین منظور با وارد نمودن قوانین دانش پایه به منظور کنترل هدفمند و قانونمندسازی روند توامان قطعه بندی و تفسیر تصویر، با در نظر گرفتن ویژگی های هندسی کلاس های هدف بهبود دقت را منجر گردد. جهت بررسی کارایی تکنیک پیشنهادی، ارزیابی و مقایسه روش پیشنهادی با چند روش دیگر بر روی تصاویر ماهواره ا ی IRS در منطقه ی شهری جزیره کیش صورت پذیرفته است. نتایج حاصل از این تحقیق نشان می دهد ویژگی های هندسی و مفهومی می توانند به عنوان منبع اطلاعاتی مکمل، سبب بهبود نتایج طبقه بندی در منطقه شهری با عوارض ناهمگون طیفی گردند. طوری که در بررسی مورد اشاره صحت کلی و ضریب کاپا به ترتیب 8 درصد و 5/11 درصد افزایش پیدا کرده اند.
    کلید واژگان: طبقه بندی, تصاویر حد تفکیک بالا, سیستم دانش پایه, تفسیر عارضه مبنا
    Abbas kiani *, Hamid Ebadi, Hekmat allah khanlou
    Land cover classification in remote sensing imagery is one of the most widely used spatial information extraction methods, which can facilitate generating object imagery classes of the ground surface in order to automate and accelerate meeting the basic needs of management, organization, and exploitation of the environment. Due to the similar behavior of pixels, remote-sensing image classification using merely the spectral and textural information would lead to inefficiency in the classification. In fact, in classification process, objects are commonly identified using spectral properties of image pixels. If the spatial and conceptual properties are also considered, it causes to a better distinction between image classes and closes the machine process to human interpretation and adds to the system's performance. The present research is mainly focused on the use of interactive segmentation and interpretation processes with respect to the geometry of the image classes. The accuracy of the results have improved by introducing the knowledge-based rules to control and regulate the interactive process, taking into account the geometric properties of target classes. To evaluate the efficiency of the proposed method, the results were evaluated and compared with some of the other methods on IRS satellite images in an urban area. The results showed that geometric and conceptual features as a complementary information source, improve classification results in the urban area with heterogeneous spectral effects. Overall, the proposed hybrid technique improved overall accuracy and Kappa coefficient by %8 and 11.18, respectively.
    Keywords: classification, High spatial image, knowledge based system, Object based interpretation
  • سیده سمیرا حسینی، حمید عبادی، یاسر مقصودی مهرانی
    در دهه های اخیر توجه زیادی به تخمین زیست توده جنگلی شده است. تهیه نقشه های جامع و صحیح از زیست توده جنگلی جهت مدل کردن چرخه کربن جهانی و کاهش گازهای گلخانه ای از اهمیت بسیار زیادی برخوردار است. روش های قدیمی برای تخمین زیست توده براساس مقادیر بازپراکنش ها به کمک آنالیزهای رگرسیون صورت می پذیرفت. مشکل اصلی این روش ها، سطح اشباع پایین آنها در طول موج ها و پلاریزاسیون های مختلف بدلیل در نظر نگرفتن پارامترهای ساختاری بود. به کمک تکنیک های اینترفرومتری، تحقیقات به سمت استخراج پارامترهای ساختاری سوق پیدا کرد. ارتفاع یکی از پارامترهای ساختاری می باشد که جهت تخمین زیست توده جنگلی می تواند استفاده شود. بهبود روش های بازیابی ارتفاع درختان نقش بسیار مهمی در استخراج صحیح زیست توده جنگلی ایفا می کند. در این مقاله یک روش جدید به منظور بهینه سازی ماتریس پراکنش به کمک تغییر پایه پلاریزاسیون جهت تخمین ارتفاع معرفی شده است. به کمک تغییر ماتریس پراکنش در پایه پلاریزاسیون های مختلف برای هر دو تصویر پایه و پیرو، پارامترهای همبستگی مختلف استخراج شده و با روش های مختلف تخمین ارتفاع، ارتفاع درختان تخمین زده شده است. داده های مورد بررسی، داده های تمام پلاریمتری از سنجنده هوایی SETHI در باند P می باشد که در منطقه جنگل های شمالی واقع در Remningstorp در جنوب کشور سوئد برداشت شده است. نتایج نشان می دهد که روش هایی که در آنها تغییر فاز وجود دارد در اثر تغییر پارامترهای هندسی بیضوی، بهبود چشمگیری داشته اند بطوری که روش های فاز حجم تصادفی برروی زمین با 76/0= R2 و76/3 = RMSE و تفاضلی مدل رقومی با 69/0-= R2 بهترین بهبود در نتایج را داشته اند و روش وارونگی دامنه همدوسی که با مقدار کوهرنس ارتفاع را استخراج می کند، با 17/0= R2 بهبود چندانی در نتایج آن ملاحظه نشده است.
    کلید واژگان: اینترفرومتری پلاریمتری, تخمین ارتفاع, ماتریس انتقال, بهینه سازی, ماتریس پراکنش
    Samira Hosseini, Hamid Ebadi, Yasser Maghsoudi Mehrani
    Introduction
    Estimation of forest biomass has received much attention in recent decades including assessing the capability of different sensor data (e.g., optical, radar, and LiDAR)and the development of advanced techniques such as synthetic aperture radar (SAR) polarimetry and polarimetric SAR interferometry for forest biomass estimation. Accurate estimation of forest biomass is of vital importance to model global carbon cycle. Deforestation and forest degradation will result in the loss of forest biomass and consequently increases the greenhouse gases. Radar systems including SAR have a great potential to quantify biomass and structural diversity because of its penetration capability. These systemsare also independent of weather and external illumination condition and can be designed for different frequencies and resolutions.Moreover, SAR systems operating at lower frequencies such as L- and P-band have shown relatively good sensitivity to forest biomass. Regression analysis is among the common methods for evaluation forest biomass which have been investigated for many years on different areas. This analysis is based on the correlation between backscattering coefficient values and the forest biomass. However, previous studies demonstrated that such approaches are very simple and they do not consider structural effects of different species. One of the restrictions and limitations of these methods is the low saturation level. The level of saturation is lower in higher frequencies and vice versa. Considering the structural parameters, researchers have tried to use the interferometry techniques.Forest canopy height is one of the important parameters that can be used to estimate Above Ground Biomass (AGB) using allometric equations.
    Materials and Methods
    Recentforest height retrieval methods rely on model based interferometric SAR analysis. The random volume over ground (RVOG) model is one of the most common algorithms. This method considers two layers, one for the ground under the vegetation and one for the volumetric canopy. This model has been investigated in different forest environments (e.g. tropical, temperate and boreal forests). Estimation of forest biomass based on forest height using allometric equations can overcome radar signal saturation to some extent.Improvement of Forest height estimation can play an important role to retrieve accurate forest biomass estimation. In this paper, a new method using scattering matrix optimization is introduced to extract forest height by changing polarization bases. Scattering matrices for slave and master images have been extracted by changing polarization bases. Then polarimetric interferometry coherences have been calculated and forest height was estimated by various forest height methods including DEM Difference, coherence amplitude inversion, RVOG Phase, Combined and RVOG.
    Results and Discussion
    P-band full Polarimetric synthetic aperture radar (SAR) images acquired by SETHI sensor over Remningstorp (a boreal forest in south of Sweden) were investigated for forest biomass estimation.Mean of Lidar height values which fall in each shapefile was used to check corresponding results with the heights of retrieval methods.
    The results of tree height retrieval methods without changing polarization bases between PolInSAR tree height and LIDAR height show that three methods including coherence amplitude inversion, RVOG Phase and RVOG have low R2 value. DEM Difference and combined methods yielded better results in comparison with the other three aforementioned methods; however the results are not satisfactory.DEM Difference method underestimated the tree height compared to that of LIDAR. This is perhaps due to the fact that volume phase center does not lie at the top of the tree.Temporal decorrelation decreases volume correlation, consequently small values in the SINC function lead to generate large values in results; therefore RMSE of coherence amplitude method is relatively high.New master and slave scattering matrixes in arbitrary polarization basis were extracted by altering  and  in transformation matrix.Results show that RVOG phase has the best result with R2=0.76 and RMSE=3.76. Following this method, DEM difference method shows R2=-0.69.It is likely that methods which include phase information by changing geometrical parameters, in transformation matrix (e.g. RVOG phase and DEM difference) significantly increase the tree height accuracy.On the other hand, methods that only apply magnitude of coherence such as coherence amplitude method do not show notable improvement for retrieving tree height.
    Conclusion
    Robustness of forest height estimation using Scattering Matrix Optimization by changing Polarization Bases was studied in this paper.PolInSAR data was acquired by SETHI on Remningstorp, a boreal forest in south of Sweden. Results indicated that forest height retrieval methods which included phase parameter shows remarkable improvement by changing the geometrical parameters for height estimation.Therefore RVOG phase method with R2=0.76, RMSE=3.76m and DEM Difference method with R2=-0.69 gave the best results, whereas coherence amplitude method which only included magnitude of coherence with R2=0.17 showed the lowest correlation.
    Keywords: PolInSAR, Height Estimation, Transformation Matrix, Optimization, Scattering Matrix
  • وحید صادقی، حمید عنایتی، حمید عبادی
    آنالیز تصاویر چندزمانه سنجش از دور، تکنیک کارآمدی برای شناسایی تغییرات کاربری و پوشش اراضی در مناطق شهری می باشد. جدا از تکنیک بکار رفته برای شناسایی تغییرات،فضای ویژگی تاثیر بسیار زیادی در صحت نتایج دارد. حصول نتایج رضایت بخش در شناسایی تغییرات مناطق شهری، مستلزم بکارگیری ویژگی های طیفی و مکانی (بافت) بهینه می باشد. اگرچه جستجوی سراسری تنها تضمین دست یابی به مجموعه ویژگی های بهینه است، ولی در عمل فرآیندی بسیار زمانبر و غیرعملی است. در تکنیک های کاهش بعد همچون تکنیکPCA تنها استقلال آماری داده ها برای رسیدن به مولفه هایی جدید با وابستگی کمتر مدنظر بوده و بهبود صحت شناسایی تغییرات بطور مستقیم دنبال نمی شود. تعیین حدآستانه مناسب برای انتخاب ویژگی های بهینه در تکنیک تفکیک پذیری آماری (SAA) با فاصله JM نیز عملا از کارایی این تکنیک می کاهد. تمرکز اصلی مقاله حاضر، انتخاب ویژگی های طیفی و بافت بهینه با الگوریتم ژنتیک و طبقه بندی کننده بیزین می باشد. جهت بررسی کارآیی تکنیک پیشنهادی، تغییرات شهر جدید سهند (شمال غرب ایران) با بکارگیری تصاویر سنجنده های IRS-P6 و Geo-Eye1اخذ شده در 14 جولای 2006 و 1 سپتامبر 2013 مورد بررسی قرار گرفت.تمامی تکنیک های مذکور در محیط برنامه نویسی MATLABR2013aپیاده سازی شدند.نتایج حاصل از این تحقیق نشان داد ویژگی های بافت می تواند به عنوان منبع اطلاعاتی مکمل، سبب بهبود نتایج شناسایی تغییرات در مناطق شهری شود. انتخاب ویژگی یک فرآیند تاثیرگذار در شناسایی تغییرات مبتنی بر ویژگی های طیفی و بافت می باشد. هریک از تکنیک های انتخاب ویژگی، محدودیت ها و مزایای خاص خودشان را داشته ولی در کل بهبود صحت شناسایی تغییرات را بدنبال دارند. مقایسه کارآیی تکنیک های انتخاب ویژگی نشان داد، تکنیک پیشنهادی در مقایسه با دو تکنیک متداولPCA و SAA (که نتایج مشابهی داشتند) از کارآیی و صحت بالاتری برخوردار است.با بکارگیری روش پیشنهادی، ضریب کاپا و صحت کلی نقشه تغییرات به ترتیب از 66/53% به 49/88% و از 94/58% به 39/90%،(در مقایسه با بکارگیری باندهای اصلی تصاویر)،افزایش یافت.
    کلید واژگان: شناسایی تغییرات, تصاویر سنجش از دور, ویژگی های مکانی (بافت), الگوریتم ژنتیک, تحلیل مولفه های اصلی, فاصله JM
    Vahid Sadeghi, Hamid Enayati, Hamid Ebadi
    Analyzing multi-temporal remotely sensed images is a powerful technique for monitoring land use and land cover changes in urban areas. Apart from the change detection (CD) technique, the features space have an enormous impact on the CD accuracy.To achieve satisfactory CD results in urban area, optimum selection of textural and spectral features is necessary. Although an exhaustive search guarantees the optimality of the selected features, but it is computationally prohibitive. Data reduction techniques such as PCA considers the independence of the data to find a smaller set of variables with less redundancy without intending to improve the CD accuracy. Difficulty in setting the best threshold for JM distance in separability analysis algorithm (SAA) reduces its efficiency. The aim of this paper is finding the optimal textural and spectral features to enhance the CD accuracy using genetic algorithms (GA) and Bayesian classifier. To evaluate the effectiveness of the proposed approach, a case study using IRS-P6 and GeoEye1 satellite imagery acquired on July 15, 2006, and September 1, 2013, respectively, from Sahand New Town (Northwest of Iran) was performed. All the mentioned feature selection methods (PCA, SAA and proposed GA-based method) were implemented in MATLAB R2013a. Results show that, textural features provides a complementary source of data for CD in urban areas. Results show that features selection is an effective procedure in change detection based on textural and spectral features. Each of feature selection methods has its own limitation and advantages, but in general they increase the CD accuracy. The proposed GA-based feature selection approach was found to be relatively effective when compared to PCA and SSA approaches. Overall accuracy and Kappa coefficient of CD were increased from 53.66% to 88.49% and 58.94% to 90.39%, respectively using proposed method in compared with that using only spectral information.
    Keywords: Change detection, Remotely sensed images, Texture, GA, PCA, JM distance
  • Hamid Ebadi, Davood Fathi
    Tuberculous spondylitis is not an uncommon disease of the spine. Near one percent of all cases of spinal tuberculosis (TB) involves craniocervical junction. Hypoglossal nerve palsy is not an uncommon neurological finding, but isolated involvement of the hypoglossal nerve is rare and limited to case reports or small case series. Here, we report a case of craniocervical junction tuberculosis presenting with unilateral hypoglossal nerve palsy. Case is a 41-year-old woman with neck and suboccipital pain since one month and unilateral right hypoglossal nerve palsy since one week. All laboratory tests were unremarkable except raised ESR level. Involvement of C1-C2 and hypoglossal canal were demonstrated by CT scan of craniocervical junction. Tissue diagnosis of TB was established by open biopsy of the craniocervical junction.
    Keywords: Craniocervical junction (CCJ), Hypoglossal nerve, TB
  • مهرتاش منافی فرد*، حمید عبادی، حمید ابریشمی مقدم
    در تجزیه و تحلیل مسابقات فوتبال، تعیین دقیق موقعیت بازیکنها از موارد کلیدی است که اساس آنالیزهای بعدی نظیر ردیابی بازیکنها قرار می گیرد. استخراج مسیر بازیکنها، اطلاعات مفیدی جهت ارزیابی نقاط قوت و ضعف تیم و بازیکنها و تنظیم استراتژی تیمی کارا به منظور بهبود عملکرد تیم در اختیار سرمربی و متخصصین قرار می دهد. از آنجا که با حرکت دوربین، بیننده فریم های قبلی را از دست می دهد، با مرتبط سازی تصاویر به هم و تعیین مسیر بازیکنها روی موزاییک تصویری ایجاد شده می توان مسیر پیوسته بازیکنها را برای بیننده به تصویر کشید. هدف اصلی این مقاله، انتقال موقعیت بازیکنها به فضای مدل زمین و استخراج همزمان مسیر حرکت تمام بازیکنها در فضای تصویر و مدل زمین است. برای این منظور، موقعیت بازیکنها با دو روش مدل گوسی ترکیبی و آدابوست استخراج شده و بعد از حذف نواحی اضافی نظیر دروازه و خطوط، جداسازی بازیکنهای همپوشان، تعیین تیم بازیکنها و انتقال موقعیتها به سیستم مختصات مشترک، ردیابی در دو فضای تصویر و مدل واقعی زمین انجام می شود. در نهایت، دقت دو روش آدابوست و مدل گوسی ترکیبی در تعیین موقعیت بازیکنها روی 78 فریم از 6 ویدئوی مختلف و دقت ردیابی ارزیابی و مقایسه می شود.
    کلید واژگان: تصاویر ویدئویی, ردیابی, مدل گوسی ترکیبی, آدابوست, بازیکنان فوتبال
    Mehrtash Manafifard*, Hamid Ebadi, Hamid Abrishami Moghaddam
    Precise player localization is the key step for improved analysis such as player tracking in soccer broadcast videos. Extracting player trajectories provides some essencial information for coaches and sport experts to determine weaknesses and strengths of the players and the team and to evaluate overall strategy of the game. As far as previous scenes are missed by camera motion, continuous player trajectory could be depicted by trajectory extraction on constructed mosaic. The goal of this paper is to transform player position to the field model and extract all trajectories in both image and model spaces. Therefore, players are detected using Gaussian Mixture Model and Gentle Adaboost. After removing extra regions such as goal post and lines, isolating occluded players, player labeling and transforming player positions to the same coordinate system, player tracking is carried out. Finally, the proposed player detection and tracking methods are applied for 78 frames taken from six soccer sequences.
    Keywords: Video images, Track, GMM, Adaboost, Football players
  • ارزیابی آلگوریتم های دایسترا و ژنتیک جهت یافتن کوتاه ترین مسیر در GIS
    حمید عبادی، روزبه شاد

    با توسعه روزافزون GIS، توابع تجزیه و تحلیل قابل اجرا توسط آن نیز به طور قابل توجهی گسترش یافته اند، که از جمله آنها می توان به آنالیز شبکه اشاره نمود. یافتن کوتاه ترین مسیر از آنالیزهای مهم شبکه می باشد که به عنوان یکی از کاربردهای مهم در مسایل حمل و نقل مطرح می گردد. با توجه به کاربردهای فراوان آنالیز مسیریابی، تنوع در نوع و حجم اطلاعات ورودی و پارامترهای گوناگون اثرگذار بر کارایی یک الگوریتم مسیریابی در یک سیستم اطلاعات جغرافیایی از سوی محققین راه حل های مختلفی برای حل مسئله مسیریابی ارایه شده است که از جمله آنها به الگوریتم دایسترا و ژنتیک می توان اشاره نمود. الگوریتم دایسترا یکی از معروف ترین روش های یافتن کوتاه ترین مسیر می باشد که قادر است در یک شبکه مشخص کوتاه ترین مسیر را با استفاده از محاسبات ماتریسی بیاید. اما در کاربردهای آنی، با توجه به حجم بالای اطلاعات ورودی، قید و شرط های پیچیده و نیاز به عملکرد سریع، این الگوریتم کارایی خود را از دست خواهد داد. بدین ترتیب که، با افزایش حجم محاسباتی در ماتریس شبکه، پیچیدگی زمانی آن نیز افزایش می یابد. برای رفع این مشکل از الگوریتم ژنتیک می توان استفاده نمود. الگوریتم ژنتیک یک تکنیک بهینه سازی است که با کوچک نمودن محدوده جستجو قادر است میزان محاسبات و تعداد مقایسه ها را کاهش دهد. در این مقاله با بررسی اجمالی تیوری گراف ها، نحوه عملکرد الگوریتم های مسیریابی دایسترا و ژنتیک مورد بررسی قرار گرفته و نتایج چند کار عملی ارایه می گردد. در نهایت با مقایسه و بررسی نتایج، نقاط قوت و ضعف هر یک از آنها مشخص خواهد شد.

    Evaluation of Dijkstra and Genetic Algorithms in Order to Find the Shortest Route in GIS
    Hamid Ebadi, Ruzbeh Shad

    With increasing development of GIS, the analysis functions applicable by it have also been significantly expanded, including network analysis. Finding the shortest path is among the important network analyses that is considered as one of the important applications in transportation issues. Considering the many applications of routing analysis, the variation in the type and volume of input information and various parameters affecting the efficiency of a routing algorithm in a geographic information system, various solutions have been proposed to solve the routing problem, including the Dijkstra and Genetic Algorithms. Dijkstra's algorithm is one of the most famous methods for finding the shortest route that can be used to find the shortest path in a given network using matrix computations. However, in instant applications, due to large volume of input information, complex constraints and the need for fast performance, this algorithm will lose its effectiveness. As computational volume increases in the network matrix, its time complexity increases as well. Genetic algorithm can be used to solve this problem. Genetic algorithm is an optimization technique that can reduce the amount of computations and number of comparisons by minimizing the search range. In this paper, with a brief overview of the Theory of Graphs, the operation of Dijkstra and genetics routing algorithms are reviewed and results of several practical works are presented. Finally, by comparing and verifying the results, the strengths and weaknesses of each of them will be determined.

بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال