به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
فهرست مطالب نویسنده:

علی حسینی نوه احمد آبادیان

  • محمدامین منوچهری*، علی حسینی نوه احمد آبادیان

    استفاده از ترکیب فاصله یاب و دوربین در حوزه رباتیک، نقشه برداری و خودروهای خودران، برای تهیه نقشه و برداشت اطلاعات رنگ و بافت اشیاء، بسیار مفید است. به منظور تلفیق داده های این دو سنسور، باید آنها بادقت بالا نسبت به هم کالیبره شوند، به این معنی که بردار انتقال و ماتریس دوران آنها نسبت به هم مشخص باشد. این مقاله یک روش برای کالیبراسیون یک لایدار دوبعدی (فاصله یاب لیزری صفحه ای) نسبت به یک دوربین پیشنهاد می کند که از همان تست فیلدهای سه بعدی رایج در کارهای فتوگرامتری مانند کالیبراسیون دوربین استفاده می کند. در روش پیشنهادی، قید نقطه روی صفحه و یک قید  اضافی دیگر برای به دست آوردن پارامترهای کالیبراسیون استفاده شده است که در تحقیقات گذشته چنین قیدهایی برای صفحه شطرنجی استفاده شده بود. برای پیاده سازی و ارزیابی روش پیشنهادی یک سیستم شامل یک فاصله یاب دوبعدی، دوربین استریو و سروو موتور طراحی و ساخته شد. این روش با یکی از دقیق ترین روش های کالیبراسیون جدید که از یک تست فیلد فتوگرامتریک و توپ های پینگ پنگ استفاده می کرد، مقایسه شد. مزیت روش پیشنهادی نسبت به این روش عدم استفاده از توپ های پینگ پنگ و عدم نیاز به انتخاب نقاط مربوط به توپ های پینگ پنگ در ابرنقاط است که فرآیندی دستی و زمان بر است. همچنین روش پیشنهادی با روش جیافن و همکاران که از ساختار هرمی ایجاد شده در گوشه اتاق برای کالیبراسیون استفاده می کند، مقایسه شد. در آخر پارامترهای کالیبراسیون فاصله یاب نسبت به دوربین در روش پیشنهادی، روش کالیبراسیون با استفاده از ابر نقطه سه بعدی و روش جیافن و همکاران محاسبه شد. RMSE نقاط چک برای این سه روش به ترتیب 24/14، 40/12 و 94/15 میلی متر بود.  اگرچه RMSE روش پیشنهادی نسبت به روش کالیبراسیون با استفاده از ابر نقطه سه بعدی کمی کمتر است ولی این روش به توپ پینگ پنگ نیازی ندارد و عملیات های زمانبر انتخاب نقاط مربوط به توپ های پینگ پنگ و برازش کره به آنها را ندارد.

    کلید واژگان: فاصله یاب دوبعدی, ‎ ‎کالیبراسیون خارجی دوربین و فاصله یاب, باندل اجسمنت, تست فیلد فتوگرامتریک, قید نقطه روی صفحه
    MohammadAmin Manouchehri*, Ali Hosseini Naveh Ahmadabadian

    The combination of laser range finder and camera has proven to be very useful in the fields of robotics, mapping, and autonomous vehicles for producing maps and capturing information about the color and texture of objects. In order to fuse data from these two sensors, they need to be calibrated with high accuracy, meaning that their translation vector and rotation matrix with respect to each other must be determined. This paper proposes a method for calibrating a 2D lidar with a camera using the same 3D test fields commonly used in photogrammetric tasks such as camera calibration. In the proposed method, a point-on-plane and an additional constraint are used to obtain the calibration parameters, which is similar to using a chessboard pattern in previous research. To implement and evaluate the proposed method, a system consisting of a 2D laser range finder, a stereo camera, and a servo motor was designed and built. This method was compared with one of the most accurate new calibration methods which used a photogrammetric test field and ping-pong balls. The advantage of the proposed method over this method is the lack of the need for ping-pong balls and the selection of the corresponding points in the point cloud, which is a manual and time-consuming process. Additionally, the proposed method was compared with the method used by Jia fen et al., which uses a pyramid structure created in the corner of a room for calibration. Finally, the calibration parameters of laser range finder with respect to the camera were calculated using the proposed method, the calibration method using a cloud of 3D points, and the J. Fan et al. method. The RMSE of the check points for these three methods was 24.14, 40.12, and 94.15 millimeters, respectively.

    Keywords: extrinsic calibration between laser range finder, camera, bundel adjusment, photogrammetric test field, point-on-plan constraint
  • محمدامین منوچهری، علی حسینی نوه احمدآبادیان*

    ترکیب فاصله یاب و دوربین کاربرد زیادی در حوزه رباتیک، نقشه برداری و خودروهای خودران جهت تهیه نقشه و برداشت اطلاعات رنگ و بافت اشیاء دارد. برای تلفیق داده های فاصله یاب و دوربین، باید این دو سنسور بادقت زیادی نسبت به هم کالیبره شوند، یعنی بردار انتقال و ماتریس دوران آن ها نسبت به هم  مشخص باشد. در این تحقیق، سه روش مختلف برای کالیبراسیون خارجی فاصله یاب و دوربین ارایه شده است. در فرآیند کالیبراسیون با استفاده از ابرنقطه سه بعدی و ابرنقطه دوبعدی، توپ های پینگ پنگ به عنوان تارگت های مشترک که در داده های دوربین و فاصله یاب قابل شناسایی هستند، استفاده می شود. در روش کالیبراسیون با استفاده از ابرنقطه سه بعدی، با استفاده از ابر نقطه تولیدشده از تست‏فیلد در ایستگاه اصلی و انجام باندل‏اجسمنت با استفاده از مجموعه تصاویر گرفته شده از تست‏فیلد، پارامترهای کالیبراسیون محاسبه می شود. در این روش، ابرنقطه سه بعدی از ترکیب داده های فاصله یاب دوبعدی و سروموتور به دست می آید. از طرف دیگر، با استفاده از تصاویر گرفته شده از تست‏فیلد و تکنیک باندل‏اجسمنت، موقعیت توپ ها در مدل فتوگرامتری به دست می آید. روش دوم مشابه روش اول است با این تفاوت که به جای ابرنقطه سه بعدی از ابرنقطه دوبعدی استفاده شده است. در روش اول و دوم مختصات مراکز توپ های پینگ پنگ در دو سیستم مختصات مختلف در دسترس است؛ بنابراین، ارتباط بین دو سیستم مختصات با معادلات کانفرمال سه بعدی به دست می آید. در روش سوم با استفاده از هرم ایجادشده در گوشه اتاق و حل مسیله perspective-three-point، پارامترهای کالیبراسیون فاصله یاب دوبعدی در ایستگاه اصلی نسبت به تست‏فیلد فقط با یک اسکن محاسبه می شود. پارامترهای کالیبراسیون دوربین ایستگاه اصلی نسبت به تست‏فیلد از طریق باندل‏اجسمنت و معادلات کانفرمال سه بعدی محاسبه می شود. در آخر، پارامترهای کالیبراسیون فاصله یاب نسبت به دوربین به دست می آید. باتوجه به RMSE محاسبه شده برای نقاط چک، به ترتیب کالیبراسیون با استفاده از ابرنقطه سه بعدی، کالیبراسیون با استفاده از گوشه اتاق و کالیبراسیون با استفاده از ابرنقطه دوبعدی بیشترین دقت را داشتند.

    کلید واژگان: فاصله یاب دوبعدی, کالیبراسیون خارجی فاصله یاب و دوربین, دوربین, باندل اجسمنت, Perspective-Three-Point
    M. A. Manouchehri, A. Hosseini Naveh Ahmadabadian*

    The combination of 2D laser rangefinder(LRF) and camera has many application in robotics, mapping,self-driving vehicles to map and capture  color and texture information of objects. to fuse LRF and camera’s data, these  sensors must be carefully calibrated related to each other. Extrinsic calibration between a LRF and camera is often performed by common features. Therefore extrinsic calibration between LRF and camera is necessary process.  Extrinsic calibration between a Camera and a LRF  is often performed by common features in data captred by two sensors. In this research, three difrent methods for extrinsic calibration between a LRF and a camera using photogrammetric control field and ping pong balls are presented. In calibration process using 3D and 2D point clouds,ping pong balls are used as common targets that can be identified in the camera and LRF data. In calibration using the 3D point clouds, the calibration parameters are calculated using the point clouds generated from the test field at the main station and performing the bundel adjusment using a set of images taken from the control field. In this method, a 3D point cloud is obtained from combination of 2D LRF and servo motor data. The 2D LRF  is connected to the servo motor by a gimbal so that the extension of the servo motor shaft pass through the center of the LRF. The LRF rotation is measured by the encoder in the servo motor, and by rotating the LRF, all 2D scans at a station can be registered relative to each other. On the other hand, through images taken from the control field and bundel adjusment technoque, the position of the balls in the photogrammetric model is obtained. The second method is similar to the first method,except that a 2D point cloud is used instead of a 3D point cloud. In the first and second methods, the coordinates of the centers of ping pong balls are available in two different coordinate systems, so the relationship between the two coordinate systems with the 3D conformal equation is obtained. In the third method, through the pyramid created in the corner of the room and solving the perspective-three-point problem,  the 2D LRF calibration parameters at the main station relative to the control field are calculated with just one scan. The calibration parameters of camera in the main station relative to the control field are calculated using bundel adjusment and 3D conformal equations. Finally, the calibration parameters of the LRF relative to the camera are obtained. According to the RMSE calculated for checkpoints, calibration using 3D point cloud,calibaration using room corner and calibration using 2D point cloud were the most accurate, respectively.

    Keywords: ‎2D Laser Range Finder, Camera, Extrinsic Calibration between LRF, Bundel Adjusment
  • مژده ابراهیمی کیا، علی حسینی نوه احمدآبادیان*

    امروزه تصاویر قایم از محصولات پرکاربرد در حوزه اطلاعات مکانی هستند که غالبا از تصاویر هوایی یا ماهواره ای تهیه می شوند به طوری که توجه به دقت و کیفیت تصاویر قایم به دلیل دارا بودن هم زمان اطلاعات هندسی و رادیومتریک از اهمیت بالایی برخوردار است. عوامل متعددی در کیفیت تهیه این تصاویر تاثیرگذار هستند که در این میان ابرنقاط و مدل رقومی سطحی که از آن تهیه می شوند را می توان به عنوان مهمترین موارد برشمرد. به سبب نقص ابرنقاط در لبه های ساختاری ساختمان ها تصاویر قایم حقیقی دارای اعوجاج ها و تضاریسی بر روی این لبه ها می باشند. این مشکل بر روی تصاویر قایم به دست آمده از تصاویری که با پهپادها در نواحی شهری اخذ می شوند به علت آنکه از ارتفاع پایین تری برخوردارند بیشتر است. در این حالت به سبب افزایش میزان جابجایی های مسطحاتی ناشی از عوارض مرتفع با ارتفاع پرواز پایین نسبت به هواپیماهای باسرنشین لازم است تا ابرنقاط مربوطه بهبود یافته و از مدل رقومی سطحی دقیق تری برای انجام تصحیحات استفاده شود. علاوه بر این روش های تهیه ابرنقاط که بر مبنای تناظریابی میان تصاویر است به علت وجود نواحی پنهان و تغییرات رادیومتریکی میان تصاویر همپوشان قادر به تولید ابرنقاط کامل نبوده و دارای نقص هایی به ویژه بر روی لبه های عوارض هستند. در این مطالعه علاوه بر اینکه برای تکمیل ابرنقاط استفاده از شبکه یادگیری عمیق آموزش دیده در بهبود ابرنقاط برای تهیه تصاویر قایم پیشنهادشده است موفقیت نتایج حاصل از آن با جدیدترین روش پیشنهادی بهبود تصویر قایم حکایت از بهبود حدود 62 و 55 درصدی تضاریس نقاط واقع بر لبه های ساختاری و حفظ دقت مختصاتی آن ها دارد.

    کلید واژگان: تصویر قائم(ارتوفتو), ابرنقاط, تضاریس لبه
    Mojdeh Ebrahimikia, Ali Hosseininaveh *
    Introduction

    On true orthophotos, there are some distortions on the structural edges of buildings, which is due to defects in these areas in the point cloud used in the digital surface model. This problem is greater for orthophotos that have been made from UAV images in urban areas because of their lower altitude. Before interpolation of the point cloud and preparation of the digital surface model and then preparation of orthophotos of it, it is necessary to complete the point cloud in areas with defects. Some studies have shown that adding edge points has the effect of decreasing the distortion of true orthophotos. In this study, a new method for completing point clouds using a trained deep learning network is proposed, which includes steps: 1) Preparation and normalization of point cloud data, 2) completion of the point cloud by learned networks; 3) reversion of the completed point cloud to real-world coordinates and, 4) integration with the existing original point cloud and preparation of the digital surface model and generation of true orthophotos.

     Materials & Methods

    In this study, the imaging of the Yazd region was done with a Phantom 4 drone equipped with a DJI camera. The SfM algorithm has been used to calibrate the camera, estimate the internal and external camera parameters, and produce images without distortion and low-density point clouds, and SGM has been used to produce dense point clouds. In the proposed method, the trained SnowflakeNet network is used to complete the incomplete roof points of the building. Assuming that the points on the roof of each building are predetermined, without noise, and have incomplete edges, these point clouds were introduced as inputs to the network to complete. Points related to edge points were extracted for each roof and added to the existing point cloud after increasing the density and returning to the actual coordinates. The final point cloud was used in the preparation of digital models to produce irregular and then regular surfaces and in the preparation of true orthophotos using camera parameters and undistorted images. One of the images with buildings marked as numbers 1 to 4 was selected to perform tests and prepare orthophotos.

    Results & Discussion

    The lack of structural edge points on any roof, which is the distance between severe height differences between levels, causes the greatest amount of distortion on the edge of the roof and around it. Adding these points with edge line recognition and reconstruction algorithms to the point cloud improves the resulting digital surface model. Since the quality and accuracy of the digital elevation model directly affects the resulting orthophoto, using a more accurate digital elevation model improves these images. In the proposed method, these point clouds are complemented by the deep learning method, and quantitative and qualitative comparisons show better results in reducing distortion in most of the buildings tested. The reasons for the superiority of the proposed method over previous methods include determining and calculating a more complete and integrated form of the roof of each building instead of multiple line segments and considering the outermost edges of the buildings.

    Conclusion

    In this study, a new method was introduced to improve the quality of true orthophoto edges by using a deep learning network to complete the point cloud, which was tested on several building images and compared with the results of previous methods. In this study, in addition to the fact that, for the first time, a deep learning network was used to improve point clouds to produce orthophotos, Compared to the previous method, the amount of distortion on the selected edge of four buildings has been significantly reduced and the success of the results with the latest proposed method of true orthophoto enhancement indicates an improvement of about 62% and 55% in the distortion decreasing of the structural edges and maintaining their coordinate accuracy. Despite the reduction of distortion on the selected structural edge using the proposed method, this value is increasing in curved areas as well as the corners of the roofs due to the type of network training and network output error. However, this can be reduced by improving the structure of the deep learning network and increasing the training data to a variety of roof modes with curved walls.

    Keywords: orthophoto, Point Cloud, edge distortion
  • آرش عظیمی فرد*، علی حسینی نوه احمدآبادیان

    به دلیل پیچیدگی های پردازش فریم برای تعیین موقعیت و تهیه نقشه در الگوریتم های ماشین بینایی و فتوگرامتری، روش های انتخاب فریم های کلیدی به منظور افزایش کارایی الگوریتم ها معرفی شدند که در عین حفظ دقت و استحکام الگوریتم، حجم پردازش ها را کاهش می دهند. یکی از معروف ترین الگوریتم های تعیین موقعیت و تهیه نقشه هم زمان مبتنی بر تصویر (ویژوال اسلم)، الگوریتم ORB-SLAM3 [1] است. انتخاب فریم کلیدی در این الگوریتم و سایر الگوریتم های این حوزه وابسته به حد آستانه های ابتکاری است. در این مقاله یک روش هندسی و بر پایه اصول طراحی شبکه تصویربرداری در فتوگرامتری به منظور انتخاب فریم های کلیدی در بهبود الگوریتم ORB-SLAM3 پیشنهاد شده است. در این روش، حد آستانه های ابتکاری با اصول فتوگرامتری جایگزین شده است که علاوه بر استحکام الگوریتم، کیفیت ابر نقطه حاصل از فریم های کلیدی را تضمین می کند. در روش پیشنهادی، ابتدا یک حد آستانه انطباقی در مورد مجاز بودن تعداد نقاطی که ناحیه مخروطی خط دید آن ها در یک مخروط چهار ناحیه ای تشکیل شده بر روی هر نقطه، تغییر کرده است، تصمیم می گیرد. سپس با تشکیل یک شبکه 3 در 3 در هر فریم و شمارش نقاط موثر در هر سلول این شبکه، معیار تعادل مرکز ثقل (ECOG)  [2] در مورد مناسب بودن توزیع نقاط داخل این فریم تصمیم می گیرد. از طرف دیگر سنسور اینرسی [3] (IMU) در صورت مشاهده تغییرات شدید شتاب حرکت، مستقل از دوربین اقدام به اخذ فریم کلیدی می کند. به منظور ارزیابی روش پیشنهادشده، آزمایش های وسیعی روی داده [4] EuRoC در حالت تک دوربینه و دو دوربین انجام شده است. ارزیابی های کیفی و کمی با مقایسه مسیر ردیابی شده هر الگوریتم با مسیر مرجع، مقایسه ابر نقطه تشکیل شده از فریم های کلیدی و مقایسه مقدار خطای مطلق مسیر حرکت [5] (ATE) انجام شده است. همچنین زمان اجرای هر الگوریتم برای تمامی دنباله تصاویر داده EuRoC ارزیابی شده است. نتایج نشان می دهد، الگوریتم پیشنهادی در حالت دو دوربین 18.1% و در حالت تک دوربینه 20.4% دقت تعیین موقعیت ORB-SLAM3 را بهبود داده و علاوه بر این ابر نقطه متراکم تری تولید کرده است.

    کلید واژگان: اودومتری بینایی, اسلم بینایی, فتوگرامتری برد کوتاه, انتخاب فریم های کلیدی, قیود هندسی, حد آستانه انطباقی
    Arash Azimi Fard *, Ali Hosseininaveh Ahmad Abadian
    Introduction

    Due to the complexity of frame processing used for positioning and mapping in visual odometry (VO) and visual simultaneous localization and mapping (VSLAM) algorithms, key-frame selection methods have been introduced to improve the performance and decrease the number of frames required for processing while maintaining accuracy and robustness of the algorithms. Selected key-frames in these methods make a very good representation of all available frames. The current key-frame selection methods rely on heuristic thresholds in their selection procedure. Researchers have used several datasets to find optimum values for these thresholds through trial and error. In fact, proposed methods may not work as expected with a new dataset due to changes occurring in the sensor, environment and the platform.

     Materials & Method

    The present study has proposed an improved geometric and photogrammetric key-frame selection method built upon ORB-SLAM3, as the state of the art visual SLAM algorithm. The proposed Photogrammetric Key-frame Selection (PKS) algorithm has replaced inflexible heuristic thresholds with photogrammetric principles and thus guaranteed the robustness of the algorithm and the quality of the point cloud obtained from the key-frames. First, an adaptive threshold decides the allowable number of points whose line of sight zone has changed on a four-zone cone built upon each point. Increased number of points whose line of sight zone has changed means increased changes and displacements of the frame and thus, increased need for a new key-frame. Then, a 3*3 grid was formed in each frame and the number of points with a more than 30-degree change in line of sight angle (effective points) in each cell were counted. Later, the Equilibrium of Center Of Gravity (ECOG) criterion decides whether the distribution of points is appropriate using the center of gravity of the points inside the frame. Appropriate distribution of effective points within the frame shows a high geometric strength and thus will improve the strength of key-frames network. IMU sensor  is not dependent on the position of the frames and the camera sensor. Thus, it independently obtains the key-frame in case significant changes occur in acceleration. The threshold value of acceleration has been experimentally considered equal to 1 meter per square second, which entirely depends on the type of robot. For ground robots with slower moving speeds, this threshold must be reset.

     Results & Discussion

    The present study has employed data collected by the European Robotics Challenge (EuRoC) flying robot containing the information collected by the synchronized camera and IMU information, as well as the ground truth data such as the robot trajectory and point cloud formed by the laser scanner. To evaluate the proposed method, extensive experiments have been implemented on the EuRoC dataset in mono-inertial and stereo-inertial modes. Then, trajectory of each algorithm was compared with the reference trajectory and point clouds formed by the key-frames were also compared. Apart from these qualitative evaluations, absolute trajectory error (ATE) obtained from running the PKS and ORB-SLAM3 algorithm 10 times were also compared quantitatively and finally, the error histogram was used to evaluate the point clouds. The processing time of each algorithm was also evaluated for each EuRoC dataset sequence. Results indicated that the proposed algorithm has improved ORB-SLAM3 accuracy in stereo-inertial by 18.1% and in the mono-inertial mode by 20.4% producing a more complete and accurate point cloud and thus, extracting more details from the environment. Furthermore, despite higher density of the point cloud, the error histogram has not changed significantly and fewer errors were observed in the ORB-SLAM3 algorithm.

     Conclusion

    Findings indicated that the PKS method has succeeded in extracting key-frames using photogrammetric and geometric principles. Apart from improving the positioning accuracy of the robot, the method has produced a much more complete and dense point cloud as compared to the ORB-SLAM3 algorithm. Also, dependency of the PKS method on the environment conditions and the type of system used (stereo camera or mono camera) was greatly reduced. Future studies can expand our key-frame selection method to include fisheye cameras or visual-only systems. More geometric conditions (near and far point condition and the vertex angle in the triangle formed by the points in the current frame, the camera and the corresponding points in the last key-frame) can also be added to the key-frame selection method.

    Keywords: Visual odometry, Visual SLAM, Close range photogrammetry, Key-frame selection, Geometric constraints, Adaptive threshold
  • مینا کریمی*، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمدآبادیان

    زیرساخت های زیرزمینی شامل برق، گاز، مخابرات، آب و فاضلاب توسط سازمان های مرتبط مدیریت و کنترل می شوند. در پروژه های همراه با حفاری امکان تشخیص اشتباه مکان تاسیسات وجود دارد. بنابراین به منظور جلوگیری از آسیب به زیرساخت ها و بروز خسارت های مالی و جانی فراوان، بررسی آنها ضروری است. امروزه GIS فراگستر و فناوری های جدید نظیر واقعیت افزوده می توانند به عنوان راه حلی نوین برای رفع این مشکل به کار گرفته شوند. به گونه ای که بتوان این تاسیسات را در بستر تلفن همراه هوشمند و یا تبلت بصری سازی نمود. به دلیل عدم امکان برآورد دقت مورد نیاز (با توجه به قطر لوله ها و عرض خیابان ها در حد چند سانتی متر) در روش مبتنی بر حسگر، هدف این مقاله ارائه روشی نوین به منظور بهبود دقت واقعیت افزود است. در روش پیشنهادی، دو روش مبتنی بر حسگر و مبتنی بر دید ترکیب شده و در کاربرد بصری سازی تاسیسات زیرزمینی با فناوری واقعیت افزوده آزمایش شده است. در این روش از تارگت های کددار و روش ترفیع فضایی به منظور برآورد پارامترهای موقعیت و جهت دوربین استفاده شده است. به منظور دستیابی به مقادیر اولیه مناسب در ترفیع فضایی، از داده های سنسورهای GPS، شتاب سنج و مغناطیس استفاده شده و بعد از انجام یک فیلتر پایین گذر موقعیت و وضعیت دوربین وارد فرآیند ترفیع فضایی شده است. با توجه به موقعیت و وضعیت بهبود یافته ی دوربین در فرآیند ترفیع فضایی، مدل مجازی تولید شده در موقعیت مسطحاتی صحیح خود قرار می گیرد. موقعیت مسطحاتی به صورت گرافیکی روی زمین نمایش داده می شود و بعد ارتفاعی (عمق) به صورت یک پارامتر توصیفی ارائه می گردد. در نهایت هر دو روش با استفاده از نرم افزار مدل سازی و اندازه گیری دقیق مبتنی بر اصول فتوگرامتری و ماشین بینایی Agisoft مورد ارزیابی قرار گرفته است. در روش مبتنی بر حسگر متوسط دقت پارامترهای موقعیت برابر با 4/2908 متر و متوسط دقت پارامترهای جهت برابر با 6/1796 درجه است، در حالی که در روش مبتنی بر دید متوسط دقت موقعیت برابر 0/1227 متر و متوسط دقت پارامترهای جهت برابر با 2/2017 درجه است. بنابراین نتایج بهبود دقت روش پیشنهادی نسبت به روش مبتنی بر حسگر را اثبات می کند.

    کلید واژگان: GIS فراگستر, واقعیت افزوده, تارگت, بهبود دقت, وضعیت دوربین, زیرساخت های زیرزمینی
    Mina Karimi *, Abolghasem Sadeghi Niaraki, Ali Hosseininaveh Ahmadabdian
    Introduction

    Underground infrastructure such as electricity, gas, telecommunications, water and sewage are managed by different organizations. Since most projects in these organizations require drilling,and imprecise excavations will endanger infrastructure and result in extensive financial and physical losses, drilling projects require having accurate information about the infrastructure status. However, reaching accurate position of facilities such as pipes and cables is difficult due to their being concealed underground.Nowadays, ubiquitous computing and new developments in Geospatial Information Systems (GIS) can be an appropriate solution to such problems. This new generation of GIS is called the Ubiquitous Geospatial Information System (UBGIS). New technologies such as Augmented Reality (AR) can visualize this infrastructure on platforms like smart phones or tablets. Such technologies show spatial and descriptive attributes of these utilities more interactively, and thus can be applied as a modern solution for this problem. One of the major features of AR is identifying and locating real-world objects with respect to the person’s head or a camera. To have an accurate Augmented Reality, the position and orientation (pose) of the camera should be estimated with high accuracy. Therefore, exterior orientation parameters of the camera are required for AR and tracking. Different methods are used to calculate these exterior orientation parameters. One of the most common methods applies different sensors,such as Global Positioning System (GPS) and Inertial Measuring Unit (IMU),embedded in smart phones or tablets to calculate these parameters. These sensors include accelerometers, gyroscopes, magnetic sensors and compasses. Althoughsimple and fast, this method is not suitable for accurate cases, because sensors of mobile phones or tabletscannot provide such high accuracy. Vision-based (sometimes called image-based) method is another way of estimating exterior orientation parameters. In this method, fixed or dynamic images are used to determine the position and orientation of camera. The method is more complex and slower, but more accurate than the first one.

    Materials and Methods

    Regarding previously mentioned issues, the present article aims to visualize underground infrastructure using both sensor-based and vision-based approaches of Augmented Reality. Since the sensors embedded in a mobile phone or tablet do not provide such an accuracy (an accuracy of a few centimeters considering diameter of pipes and width of streets and pavements), a novel vision-based approach is proposed. In this method, image-based techniques and special kinds of targets, known as coded targets, are used to estimate camera’s position and orientation along with space resection method. In photogrammetry,space resection involves determining the spatial position and orientation of an image based on thesize of ground control points appearing on the image. Since space resection is a nonlinear problem, existing methods involve linearization of the collinearity condition and the use of an iterative process to determine the final solution using the least squares method. The process also requires determination of the initial approximate values of the unknown parameters, some of which must be estimated using another least squares solution. In order to obtain suitable initial values for space resection procedure, data received from GPS, accelerometers, and magnetic sensors are used and a low-pass filter is applied to reduce noise and increase precision. Then, due to improved camera pose parameters, the resulting virtual model is overlaid at its correct real worldplanimetriclocation. The planimetric coordinates are shown graphically on the ground and the Z coordinate (depth) is presented as a descriptive parameter.

    Results and Discussion

    Both proposed methods were implemented and tested in an Android Operating System. Camera pose parameters were estimated and the virtual modelwas overlaid at its correct real world planimetric location and shown on camera. Then, the results were compared and evaluatedusingthe well-known photogrammetry software, Agisoft, with the aim of modelling and precise measuring based on basic photogrammetry and machine vision. For sensor-based method, mean accuracy of the position parameters equals 4.2908±3.951 meters and mean accuracy of orientation parameters equals 6.1796±1.478 degrees,whilein vision-based method,these decreases to 0.1227±0.325 meters and 2.2017±0.536 degrees, respectively. Thus, results indicate that the proposed methodimprove accuracy and efficiency of AR technologies.

    Conclusion

    Augmented Reality is a technology that can be used to visualize underground facilities. Although,processing in sensor-based methods is sufficiently fast and simple, they lack the precision required for this purpose. Despite the fact that noise elimination and sensor integration using Kalman filter improves accuracy to some degree, it still does not reach the required accuracy. The present article sought to improve the accuracy of augmented reality in underground infrastructureusing targets. Results indicated that the machine vision and vision-based methods improve the accuracy. In drillings, third dimension (accuracy of height measurements) is as crucial as other parameters, thusit is suggested that future researches consider this not as a descriptive parameter, but as a three dimensional parameter to reach 3dimensional visualization.

    Keywords: Ubiquitous GIS, Augmented reality, Underground infrastructure, Target, precision, pose estimation
  • مینا کریمی*، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمدآبادیان
    امروزه به دلیل پیشرفت های اخیر در صنعت سخت افزار تلفن های همراه نظیر افزایش قدرت پردازش و دارا بودن حسگرهای مختلف نظیر GPS، شتاب سنج، ژیروسکوپ، قطب نما، دوربین و صفحه نمایش تلفن همراه، فناوری واقعیت افزوده در اختیار توسعه دهندگان و کاربران قرار گرفته است. پارامترهای توجیه خارجی دوربین برای ثبت سه بعدی در واقعیت افزوده و ردیابی مورد نیاز هستند. می توان با استفاده از حسگرهای تعبیه شده در تلفن های همراه به این پارامترها دست یافت. بنابراین بررسی نوع حسگر، عملکرد و دقت آن ها ضروری است. هدف این مقاله بررسی نحوه عملکرد و دقت انواع حسگرهای موجود در تلفن همراه هوشمند در کاربردها و برنامه های مبتنی بر فناوری واقعیت افزوده است. بدین منظور دو تلفن همراه هوشمند Samsung Galaxy S4 و iPhone4 مورد بررسی قرار گرفته اند. نتایج نشان می دهد شتاب سنج های گوشی IPhone 4 بهتر از گوشی Samsung S4 هستند، درحالی که ژیروسکوپ ضعیف تری دارند. هم چنین Samsung S4 اعوجاج شعاعی کمتری نسبت به iPhone 4 دارد و امکان اصلاح آن با روندی خطی وجود دارد. دقت GPS به وضعیت سیگنال ها از ماهواره ها دارد و در بهترین حالت دقت آن 10-20 متر است. میانگین خطای قطب نما حدودا 10 درجه در محوطه های باز و تا 30 درجه در مجاورت ساختمان های بلند است. مقادیر دریفت ژیروسکوپ درحدود 3 تا 4 درجه بر ثانیه هستند و به تدریج با مرور زمان افزایش می یابند. هم چنین همان طور که موردانتظار است، مقادیر Heading برای نواحی با ساختمان های بلند دقت کمتری دارد. به طور کلی انتخاب حسگر مناسب به کاربرد و خدمات تلفن همراه بستگی دارد. هم چنین در نهایت تغییرات در دو نسخه اخیر این دو سیستم عامل شامل Samsung Galaxy S9 و iPhone8 مورد بررسی و مقایسه قرار گرفتند.
    کلید واژگان: سیستم اطلاعات مکانی فراگستر, واقعیت افزوده, حسگر, تلفن همراه هوشمند, دقت
    M. Karimi*, A. Sadeghi Niaraki, A. Hosseini Naveh
    Since incorrect excavations have resulted in extensive and irreparable financial and physical losses, therefore different drillings require having accurate information about the status of the infrastructures. Ubiquitous Geospatial Information System (UBGIS) as a new generation of Geospatial Information System (GIS) can be a good solution to avoid such problems.  Augmented Reality (AR) is the next generation of real-world 3D visualization that can be used to visualize this infrastructure on smart phones. These days, due to recent advances in the mobile phone hardware industry, such as increased processing power and the availability of various sensors such as GPS, accelerometer, gyroscope, compass, camera and mobile phone display, AR is easily available to developers and users. The exterior orientation parameters of camera are required for AR and tracking. These parameters can be achieved by sensors embedded in smart phones. So overview of type, performance and accuracy of sensors is critical. This paper aims to examine the performance and accuracy of the types of sensors in the smartphone in order to visualize the underground infrastructure using augmented reality technology. For this purpose, two smartphones Samsung Galaxy S4 and iPhone4 have been reviewed. The Samsung S4 also has less radial distortion than the iPhone 4 (about half) and it is possible to correct it linearly. The best accuracy of GPS is about 10-20 m. The average of compass error is about 10 degrees in flat regions and about 30 degrees in regions surrounding with high buildings. Gyroscope values drift about 3-4 degrees per second and increase gradually. Also heading values in regions surrounding with high buildings have less accuracy. Generally choosing the best sensor and smartphone depend on usage. Also Samsung Galaxy S9 and iPhone 8 as the new generation of these two operating systems are compared.
    Keywords: Ubiquitous Geospatial Information (UBGIS), Augmented Reality (AR), Sensor, Smartphone, Precision.
  • سیدمحسن موسوی *، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمد آبادیان
    قابلیت استفاده از اطلاعات مکانی در زمان ها و مکان های مختلف بر اساس استفاده از تکنولوژی فناوری اطلاعات (IT) و زیرساخت‍های مختلف مانند شبکه ی حسگرها، اینترنت و ارتباطات مورد نیاز در سیستم، نیازمند بهره گیری از مدل داده ی مکانی فراگستر در این زمینه است که قابلیت های سرویس دهی در هر مکان، با هر دستگاه، برای هر کاربر، توسط هر داده را فراهم سازد. لازم به ذکر است که به منظور ایجاد یک مدل داده ی فراگستر مبتنی بر GIS فراگستر نیاز به استفاده از استانداردهای نرم افزاری و سخت افزاری مناسب در این زمینه خواهد بود. استفاده از این استانداردها نقش مهمی در تبادل مناسب اطلاعات بین بخش های مختلف سیستم های مورد استفاده در GIS فراگستر را خواهند داشت. هدف این مقاله ارائه ی یک مدل داده ی فراگستر به منظور استخراج روابط مکانی مبتنی بر استانداردهای مناسب در راستای پوشش دادن سرویس های GIS فراگستر در حوزه ی استخراج روابط مکانی است. روش های مورد استفاده در ارتباط با انواع روابط مکانی از قبیل روابط جهتی، تصویری، فاصله ای و توپولوژی در این مقاله بیان خواهد شد. از آن جایی که نمی توان با استفاده از یک روش معین، روابط مکانی مختلف را از اشیاء به دست آمده توسط حسگرها استخراج کرد، از روش bounding box در مدل داده ی ارائه شده به عنوان یک روش مبتنی بر اطلاعات سه بعدی به دست آمده از حسگر کینکت، به عنوان یک حسگر نمونه جهت استخراج روابط توپولوژی استفاده شده است. توسعه ی یک زبان مکانی تحت عنوان Ubi-OCL برای بیان المان های مورد استفاده در مدل داده ی ارائه شده بستری برای تعامل پذیری بالاتر بین کاربر و این مدل داده ایجاد می سازد. در این زبان امکان انتخاب نوع حسگر و نوع رابطه ی مکانی به کاربر داده می شود از این رو متناسب با شرایط انتخاب شده روابط مکانی استخراج می گردد. در ارتباط با ارزیابی نتایج به دست آمده از عملکرد این زبان به نمایش رابطه ی مکانی توپولوژی از داده ی فراهم شده در این زمینه پرداخته خواهد شد. نتایج به دست آمده از این مقاله بیانگر قابلیت های مدل داده ی فراگستر ارائه شده برای استخراج روابط مکانی در GIS فراگستر است.
    کلید واژگان: مدل داده ی فراگستر, استخراج روابط مکانی, GIS فراگستر, زبان مکانی Ubi-OCL
    S. M. Mousavi *, A. Sadeghi Niaraki, A. Hoseini
    Today, ubiquitous systems has been growing to become the new generation of Geospatial Information Systems (GIS). In Ubiquitous GIS, servicing capabilities to any user, at any time, in any location, using any device, and in any condition are provided. Advances in Information Technology (IT) industry have led to the advent of low-cost three dimensional data acquisition technologies (e.g. Microsoft Kinect). However, there are some deficiencies and limitations in utilizing these novel technologies in Ubiquitous GIS environments. Among them is the lack of information about the three dimensional topological relations between identified objects. Moreover, the current data models for the extraction of topological relations in ubiquitous environments are not sufficient. Therefore, the aim of this study is to extract the topological relations between objects sensed by Microsoft Kinect by designing a novel Ubiquitous GIS Data Model (UGDM). To obtain the extent of each object, the bounding box algorithm has been employed. The results of analyses on the acquired data from Kinect sensor show the success of the proposed data model in topological information .Ability to use spatial information at any time and places based on the use of IT and different infrastructures like sensor network (SN), Internet, and communication devices used in the system must be arranged by a ubiquitous data model to make different services at any time, any place, by any device and data for any user. Spatial relationships between objects, containing the fundamental information relating to the environment. Among these spatial relationships can be noted such as directional relationships, like: “left”,”right”,” above”, and “bottom” or distance based relations such as: “near” or “far”. The topology relationships used more in GIS desired location can be also noted such as: “inside”, “intersection”, “touch”, and “outside” and etc. Extraction of relationships between different features are done on the basis of data modeling techniques. Since the traditional data models don’t cover capabilities of the ubiquitous computing tools used in ubiquitous GIS to extract 3D relationships, we discuss the creation of facilities for the extraction of spatial relationships in ubiquitous GIS. A new generation of GIS is ubiquitous GIS, which in this generation service functionality to any user, at any given time and place. With the advancement of new technologies in capturing 3D point clouds of the environment, general changes are created in ubiquitous computing. The sensors used to obtain environmental information is provided in this generation are often inexpensive sensors. One of the important issues associated with this generation is the extraction of 3D topological relationships to interact with the environment better, which these sensors don’t have this ability to extract 3D topological relationships. To provide such a ubiquitous data model it is required to use software and hardware standards in order to exchange information in different parts of the ubiquitous model properly. The goal of this article is providing a ubiquitous data model based on the predefined standards to extract spatial relations. Spatial relations include directional, projection, distance and topological manners examined in this article. Because there is no unique method for extracting different spatial relations topological relations. Developing a spatial language as Ubi-OCL for defining different elements used in the data model provides an interoperable connection between the user and the data model. In this language the user can select the type of sensor and spatial relations to be extracted. For evaluating the presented data model, topological relations extracted will be presented in the article. As conclusion this article shows the different results with different sensors, the bounding box method is used for processing Kinect’s point cloud for extracting spatial relations according to provided data model.
    Keywords: Ubiquitous Data Model, Spatial Relations Extraction, Ubiquitous GIS, Ubi-OCL
  • مریم احمدی باغ *، مسعود خسروی، علی حسینی نوه احمد آبادیان، مسعود ورشوساز
    باوجوداینکه فتوگرامتری برد کوتاه در حوزه مهندسی عمران به ویژه جابجایی سنجی سازه های بزرگ مقیاس خیلی متداول نشده است، اما پروژه های موفق اجراشده در این زمینه گویای پتانسیل بالای این روش در این حوزه است. امروزه با در دسترس بودن دوربین های پیشرفته رقومی ارزان قیمت، امکان اخذ و پردازش نرم افزاری تصاویر رقومی و درکل کم هزینه تر و آسان تر شدن پیاده سازی سیستم های فتوگرامتری، امکان به کارگیری بیش ازپیش فن های فتوگرامتری به عنوان جایگزینی برای روش های سنتی جابجایی سنجی، توجیه های بیشتری یافته است. این مقاله یک روش نوین نظارت و بررسی سازه های بزرگ مقیاس بر اساس نظارت بصری را بیان می کند. این روش، تشخیص جابجایی سازه ها بر اساس روش های فتوگرامتری و بینایی ماشین با استفاده از آنالیز تصاویر اخذشده به وسیله ی پهپاد را امکان پذیر می سازد. در این تحقیق با علم بر اینکه جابجایی سازه موردمطالعه در یک بازه زمانی کوتاه نزدیک به صفر است؛ روش فتوگرامتری پهپاد مبنا مورد ارزیابی قرار گرفت؛ به این صورت که مختصات به دست آمده برای دو اپک باهم مقایسه شده و اختلاف به دست آمده بیانگر دقت روش مذکور می باشد. علاوه بران با طراحی یک ابزار برای سنجش صحت روش فتوگرامتری، تغییری مشخصی در موقعیت دونقطه در مرحله دوم داده شد و میزان جابجایی این تغییر با استفاده از روش ارائه شده موردبررسی قرار گرفت. با توجه به دقت به دست آمده که 89/1 میلی متر می باشد، می توان نتیجه گرفت که ترکیب سیستم هواپیمای بدون سرنشین و روش های فتوگرامتری و بینایی ماشین می تواند به بهبود کیفیت و دقت نظارت سازه ها کمک کند.
    کلید واژگان: جابجایی سنجی سازه های بزرگ, فتوگرامتری, بینایی ماشین, پهپاد
    M. Ahmadi Bagh *, M. Khosravi, A. Hosseini Nave Ali Abadi, M. Varshosaz
    Although close range photogrammetry has not been a common approach in the Civil Engineering field especially the displacement monitoring of large scale constructions, many project successfully used this approach and as a result this method have a high potential in this application. Nowadays, as a result of improving the computer vision and photogrammetry techniques implemented in many software and high resolution images captured by the off-the-shelf digital cameras, the use of progressive photogrammetric techniques instead of traditional displacement methods become more resendable. This paper aims to explain a novel method for monitoring of the large scale constructions based on visual inspection. This method can specify the displacement of the constructions based on photogrammetric and computer vision methods using drones. The evaluation of the proposed system is done on long wall in two epochs with a short time interval. Having known the zero displacement for this construction, the difference between the coordinates of some sample points obtained in first epoch and the second epoch, 1.89 mm, shows the accuracy of the proposed system in detecting displacement. Moreover, the accuracy of this photogrammetric method was investigated by developing a tool which manually provides a known displacement between two points in the second epoch. The displacements of these points were estimated using the proposed method and compared with the known displacement. The accuracy for this method, less than 2 mm, can confirm the capability of this method for such applications.
    Keywords: Displacement Monitoring, Photogrammetry, Computer Vision, UAV
  • زهرا همتی مندجین، حمید عبادی، علی حسینی نوه احمد آبادیان، فرید اسماعیلی
    طراحی شبکه یکی از مراحل مهم و کلیدی در انجام تمامی پروژه های فتوگرامتری برد کوتاه می باشد. از سوی دیگر لزوم استفاده از فتوگرامتری پهپاد مبنا در مدلسازی محوطه های میراث فرهنگی غیر قابل تردید است. استفاده از این شیوه بدون لحاظ کردن اصول طراحی شبکه منجر به پردازش های طولانی و غیر ضروری می شود. در این تحقیق روشی ارائه شده است که به کمک آن با در نظر گرفتن اصول طراحی شبکه فتوگرامتری، قبل از تصویر برداری موقعیت های مناسب و بهینه دوربین برای اخذ تصویر تعیین می گردند. سپس بین موقعیت های بدست آمده یک مسیریابی بهینه جهت پرواز پهپاد انجام می گیرد تا با صرف کمترین زمان و هزینه تصاویر مورد نیاز برای ایجاد مدل سه بعدی از محوطه های باستانی اخذ گردد. نتایج بدست آمده برای تصاویر اخذ شده از دو محوطه میراث فرهنگی نشان داده است که تعداد تصاویر با بکارگیری اصول طراحی شبکه نسبت به روش طراحی شبکه فرد فتوگرامتریست کاهش یافته است؛ و در نتیجه سرعت مدلسازی سه بعدی با استفاده از این روش نیز افزایش می یابد.
    کلید واژگان: UAV, سیستم فتوگرامتری پهپاد مبنا, طراحی شبکه, مسیریابی, مدلسازی سایت های باستانی
    Z. Hemmati, H. Ebadi, A. Hosseini Naveh Ahmadabadian, F. Esmaeili
    3D models of ancient sites are produced and utilized for different purposes such as research, restoration and renovation of valuable ancient objects, creation of virtual museums and documentation of ancient sites. Nowadays, Geomatics techniques, as the most efficient methods for geometrical measurements, analysis and interpretations concerning issues in cultural heritage, are applied to produce geometric and thematic information. Buildings are susceptible to change and damage through the passage of time due to natural agents and disasters such as rain, wind, earthquake, flood, or damages imposed by human beings. The characteristics of these changes in some buildings with ancient value bear special importance. The first step to create 3D models, provide the information about ancient monuments and record them with documents is having accurate maps of their present condition to be able to add other information like type of construction materials. Special techniques should be employed to provide maps with high accuracy, in addition to other characteristics such as spending the least expense and time for continuous map production. The process of changes are recognized by comparing maps from different time spans based on which due decisions can be made. To provide these maps many different techniques have been used since past such as traditional surveying (using the usual total stations), photogrammetry (especially close-range photogrammetry) and laser scanners. In comparison to other techniques, photogrammetry has unique characteristics in documentation of ancient sites. No need to contact with the feature, the possibility to obtain the information of texture and color and the compliance of these characteristics with the 3D output data, high flexibility of this method to access the desired accuracy in measurements and its potential of access to accuracy at micrometer level as well as capability of low expense observations and archiving images, are parameters that have given rise to the more usage of techniques of photogrammetry in the modelling of ancient sites. Yet, the usual techniques of photogrammetry sometimes have limitations, for example, in rare cases of inaccessible features. As a result, the requirement to obtain accurate information from features, especially in dangerous and remote areas, and also, the necessity to economize expense and time have led to the usage of UAV-based photogrammetry.
    UAV-based photogrammetry is a combination of aerial photogrammetry and close-range photogrammetry in which there is a sensor that can be a metric or non-metric camera or any other data collection tool. The images are acquired from low height. Access to imaging stations with appropriate angle toward all parts of a feature and low height of flight, result images with high spatial resolution, which consequently, bring about more accurate and precise 3D information from earth. Different categorizations have been presented for UAVs based on different criteria and applications. To mention some of these criteria we can refer to the criterion of flexibility, fixed or rotating blades or wings in UAVs and their source of energy. Based on the categorizations of platforms regarding this research, which is ancient sites, it is obvious at first glance that UAVs with fixed wings, fixed or semi-flexible parachutes and wingless are practically of no use due to low flexibility in flying and imaging , and also limited space of flight. Therefore, low expense, high flexibility and appropriate time of flight have contributed to the suitability of quadrotors as the best option among all systems with rotating blades in this research.
    Low expense for production, no need to airports and long runways and better maneuverability are some particular parameters and characteristics of the functionality of UAVs. There are factors that limit the function of UAVs, such as instability while flying due to light weight, limited source of supply, limitation to carry bigger and more accurate measuring tools and requiring longer time for imaging, processing and calculations. Fortunately, all these limitations can be modified to some extent by an appropriate network design. In spite of all aforementioned capabilities of UAV systems, no specific standards have been designed to utilize them. Therefore, it is obviously necessary to investigate the feasibility of the usage of these systems, and to design appropriate networks to locate them in proper points to obtain images for photogrammetry.
    Thus, the need for high accuracy in UAV-based photogrammetry for documentation and restoration of ancient sites necessitates more concern for the network geometry to achieve the desired accuracy. This article presents appropriate method for optimum locations of UAV for imaging. The proposed method for the optimal locations of UAV is based on the ellipsoid fitted on object, principles and constraints of photogrammetry network design and finally by exploring hidden areas. The results from images taken from a cultural heritage site showed that the number of images was reduced almost 4 times by applying network design principles. Consequently, the speed of 3D modelling would be increased almost eight times by applying the proposed method.
    Keywords: UVA-based Photogrammetry, Network Design, Path Planning, Modelling of Ancient Sites
  • مینا کریمی، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمدآبادیان
    تعیین موقعیت دقیق مسئله مهمی در بسیاری از حوزه ها به خصوص سیستم اطلاعات مکانی است. روش های مبتنی بر دید و ماشین بینایی می توانند راهکاری مناسب درجهت بهبود دقت تعیین موقعیت در GIS فراگستر باشد. یکی از این روش ها استفاده از تارگت ها نظیر تارگت کددار است. امروزه تناظریابی، شناسایی و تعیین مختصات مراکز تارگت های کددار مسئله مهمی است. اجرای خودکار این فرآیند اغلب به دلیل حضور عوامل مختلف با پیچیدگی ها و دشواری های بسیاری همراه است و یا دقت و سرعت مناسبی ندارد. هدف این مقاله ارائه روشی نوین به منظور شناسایی خودکار تارگت های کددار با استفاده از الگوریتم های تناظریابی مبتنی بر عارضه و تعیین مختصات مراکز آن ها است تا با استفاده از آن بتوان دقت تعیین موقعیت را در GIS فراگستر افزایش داد. برای دستیابی به این هدف از الگوریتم های تناظریابی مبتنی بر عارضه و ترکیب آشکارسازها و توصیف کننده های محلی عوارض برای تناظریابی نقاط عکسی و شناسایی خودکار تارگت ها استفاده شده است. بنابراین ابتدا الگوریتم تناظریابی مناسب با بررسی و مقایسه بین آن ها انتخاب شده است. سپس به کمک الگوریتم خوشه بندی K-means، این تارگت ها از یکدیگر مجزا شده و کد آن ها مطابق با تارگت تمپلت موجود در پایگاه داده استخراج می‍شود. در مرحله بعدی با درنظرگرفتن محدوده کوچک اطراف تارگت و برازش بیضی به روش هاف به بیضی مرکزی تارگت، مراکز آن ها استخراج می گردد. این مراکز و کد آن ها با استفاده از نرم افزار مدل سازی و اندازه گیری دقیق میتنی بر اصول فتوگرامتری و ماشین بینایی Agisoft مورد ارزیابی قرار گرفته است. نتایج دقت زیرپیکسل {0.496 و 0.574} در تعیین مراکز و دقت 63% در بازشناسی کد را نشان می دهد.
    کلید واژگان: GIS فراگستر, تناظریابی, بازشناسی خودکار تارگت, تارگت کددار, SIFT, SURF, K-means
    M. Karimi, A. Sadeghi Niaraki, A. Hosseininaveh Ahmadabadian
    Accurate positioning is an important problem in many fields especially Geographic Information System (GIS). With the advent of ubiquitous computing, a vast and massive change took place in various technologies, and a new generation of GIS, called ubiquitous GIS (UBGIS), was created. One of the most important aspects transformed by ubiquitous computing is in positioning process. ubiquitous GIS and its components provide an environment where position information can be accessed both inside and outside. Computer Vision and Vision based approaches could be a good and appropriate solution to improve positioning accuracy in a Ubiquitous GIS. Using simple and well-known objects such as targets is an appropriate method. Target recognition is important in determining the center and code of the target. In recent years, especial kind of targets called Coded Targets are considered in different fields of vision based approaches and the demand for a Coded Target guaranteeing automatic, error-free correspondence and accurate image point measurement, has been dramatically increased. Therefore, automatically detecting, matching, and determining the center coordinates of Coded Targets are critical issues. Due to various factors in the environment, automatic execution of this process is very difficult and complex or accuracy and speed are not suitable. This paper aims to propose a new method using feature based matching algorithms for automatically recognizing Coded Targets and identifying their centers with sub-pixel accuracy, which can be used to enhance positioning accuracy in ubiquitous GIS. To achieve this aim, feature based matching algorithms and combining local feature detectors and descriptors like SIFT, SURF, and AKAZE are used to find corresponding image points and automatically recognition of Coded Targets. Therefore, suitable matching algorithm is chosen by comparing different matching algorithms. Results show that the best matching algorithm for this usage is SIFT-SURF that means using SIFT descriptors and SURF detectors will lead to best matching results. Then K-means clustering method is applied to distinguish Coded Targets and extract code of target with respect to template targets that are stored in the database. The cluster with the largest number of corresponding points belongs to the template Coded Target. In second stage a bounding box around the matched Coded Target is considered by defining minimum and maximum coordinates of corresponding points around target, so that there is only one target in this boundary. Then the image is cut in this boundary to firstly increase the speed of the calculation, because the search area for an image gets smaller and secondly reduce the possibility of mistake, because the other features and targets in the cut image are almost eliminated. Then center coordinates of Coded Targets are computed by finding contours in this bounding box and fitting a Hough ellipse to central ellipse of target. Finally, the center of this fitted ellipse is computed as the center of Coded Target. The results of implementing the methods are compared with well-known photogrammetry software called Agisoft (modelling and accurate measuring based on basic photogrammetry and computer vision). Results demonstrate sub pixel accuracy {0.574, 0.496 pixel} in center determination in X and Y direction respectively and success possibility of 63% in code recognition.
    Keywords: Ubiquitous GIS, Matching, Automatic Target Recognition, SIFT, SURF, K-means
  • سیدمحسن موسوی *، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمد آبادیان
    استخراج روابط مکانی بین اشیاء مختلف، حاوی اطلاعاتی اساسی در ارتباط با محیط پیرامون آن ها است. ازجمله این روابط مکانی می توان به رابطه های جهتی مانند («چپ»، « راست»، « بالا» و « پایین») و یا رابطه های مبتنی بر فاصله مانند (« دور» و یا « نزدیک») اشاره کرد. از دیگر روابط مکانی که بیشتر در سیستم اطلاعات مکانی GIS)) موردبررسی قرار می گیرند، روابط توپولوژی است که شامل رابطه هایی مانند (« درون»، « تقاطع» و یا « بیرون» و غیره) هستند. استخراج روابط توپولوژی بین عوارض به دست آمده بر مبنای روش های مدل سازی داده ها صورت می گیرد. از آنجایی که مدل داده های مورداستفاده در نسل های قدیمی GIS قابلیت پوشش دادن امکانات موجود در تحلیل مکانی توسط ابزارهای مورداستفاده در نسل های جدید GIS تحت عنوان GIS فراگستر را ندارند، به بررسی ایجاد امکاناتی برای استخراج این روابط پرداخته شده است. با پیشرفت فناوری های جدید در اخذ اطلاعات سه بعدی از محیط تحولی در صنعت رایانش فراگستر ایجادشده است. ابزارهای مورداستفاده برای به دست آوردن اطلاعات محیط در این نسل غالبا از حسگرهای ارزان قیمت تهیه می گردد. یکی از موارد حائز اهمیت در ارتباط با این نسل امکان استخراج روابط توپولوژی سه بعدی از حسگرهای مورداستفاده برای برقراری تعامل هر چه بهتر با محیط است. هدف این مقاله استفاده از روش هایی برای ایجاد امکان استخراج روابط توپولوژی توسط حسگرهای مورداستفاده در رایانش فراگستر است. روش مورداستفاده در این مقاله استفاده از الگوریتم bounding box برای استخراج اطلاعات هر شئ در سه بعد عمق، طول و عرض است. نتایج به دست آمده از بررسی داده های تهیه شده توسط حسگر کینکت، بیانگر امکان استخراج اطلاعات توپولوژی از ابزارهای هوشمند مبتنی بر نسل GIS فراگستر است.
    کلید واژگان: نسل GIS فراگستر, استخراج روابط توپولوژی, bounding box, حسگر کینکت
    S. M. Mousavi *, A. Sadeghi Niaraki, A. Hosseini Naveh
    Spatial relationships between objects, containing the fundamental information relating to the environment. Among these spatial relationships can be noted such as directional relationships, like: “left”,”right”,” above”, and “bottom” or distance based relations such as: “near” or “far”. The topology relationships used more in GIS desired location can be also noted such as: “inside”, “intersection”, “touch”, and “outside” and etc. Extraction of relationships between different features are done on the basis of data modeling techniques, since the traditional data models don’t cover capabilities of the ubiquitous computing tools used in ubiquitous GIS to extract 3D relationships, we discuss the creation of facilities for the extraction of spatial relationships in ubiquitous GIS. A new generation of GIS is 3D ubiquitous GIS, which in this generation service functionality to any user, at any given time and place. With the advancement of new technologies in capturing 3D point clouds of the environment, general changes are created in ubiquitous computing. The sensors used to obtain environmental information is provided in this generation are often inexpensive sensors. One of the important issues associated with this generation is the extraction of 3D topological relationships to interact with the environment better, which these sensors don’t have this ability to extract 3D topological relationships. The purpose of this paper is to extract topological relations by smart sensors used in ubiquitous computing. . The methodology used in this paper, is taking advantage of bounding box algorithm for mining the scope of any object in depth, length and the height. The results obtained from Kinect sensor shows the possibility of topological relationships extraction based on the smart sensors in ubiquitous GIS.
    Keywords: Ubiquitous GIS Generation, Topological Relations Extraction, Bounding Box, Kinect Sensor
  • مینا کریمی *، ابوالقاسم صادقی نیارکی، علی حسینی نوه احمدآبادیان
    زیرساخت های شهری یکی از حوزه های اساسی در کشورهای مختلف است و رشد یک جامعه تا حد زیادی به مدیریت مناسب آن ها وابسته است. ازاین رو پایش، کنترل، برنامه ریزی و مدیریت هرچه بهتر این زیرساخت ها ضروری است. به عنوان نمونه به دلیل بروز مشکلات و خسارت های مالی و جانی فراوان در تشخیص اشتباه مکان تاسیسات نظیر مکان لوله ها، بررسی آن ها ضروری به نظر می رسد. رایانش فراگستر و پیشرفت های نوین درزمینه سیستم اطلاعات مکانی (GIS) می تواند به عنوان راه حلی برای این قبیل مشکلات، به مدیران و تصمیم گیران کمک کند. هدف این مقاله بررسی نقش GIS فراگستر در مدیریت زیرساخت های زیرزمینی شهری است. در این مقاله انواع فناوری های به کاررفته شده در حوزه زیرساخت های شهری با کمک رایانش فراگستر در سه دسته زیرساخت ها، حسگرها و سرویس ها بیان شده است. با مقایسه میان فناوری های موجود در تعیین موقعیت تاسیسات زیرزمینی، می توان نتیجه گرفت به کارگیری RFID بهتر از روش های پیشین است. هم چنین بین روش های بصری سازی و بازدید در محل این زیرساخت ها مقایسه ای صورت گرفت که این مقایسه نشان می دهد روش واقعیت افزوده در این کاربرد بسیار مناسب تر از روش GIS همراه است.
    کلید واژگان: مدیریت شهری, زیرساخت شهری, رایانش فراگستر, فناوری
    M. Karimi *, A. Sadeghi Niaraki, A. Hosseininaveh Ahmadabadian
    Urban infrastructure is one of the most important fields in different countries and the developing of a city largely depends on the proper infrastructure management. Therefore, a proper way of monitoring, controlling, planning and managing these infrastructures is essential. In this issue, finding the accurate positions of facilities such as pipes is a difficult problems due to the non-visibility of these infrastructures. Ubiquitous computing and new developments in geospatial information systems (GIS) can be a solution to such problems. This paper aims to describe the role of Ubiquitous GIS in underground infrastructure management and review modern GIS technologies and Ubiquitous computing in urban infrastructure. In this paper a variety of technologies in the field of urban infrastructure using ubiquitous computing is explained in three categories including infrastructures, sensors and services. Compared with the existing technologies in position estimation of underground utilities, it can be concluded that the exploiting of RFID technology is better than previous methods in this field. Also, this study reviles that in such applications and field inspection augmented reality methods are more suitable than Mobile GIS methods.
    Keywords: Urban Management, Urban Infrastructure, Ubiquitous Computing, Infrastructure's Technologies
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال