به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه « پردازش تصویر » در نشریات گروه « برق »

تکرار جستجوی کلیدواژه «پردازش تصویر» در نشریات گروه «فنی و مهندسی»
  • نیره مجد، سودابه افشار، فاطمه حجازی سنجانی

    تصویربرداری پزشکی به دلیل پیشرفت سریع و مداوم در تجسم تصویر پزشکی ، پیشرفت در رویکردهای تجزیه و تحلیل و تشخیص با استفاده از پردازش تصویر، یکی از مهم ترین حوزه های تصویربرداری علمی در نظر گرفته می شود. در این مقاله، پردازش تصاویر پزشکی بر اساس محاسبات کوانتومی مورد بررسی قرار می گیرد. علت برجسته بودن پردازش تصویر کوانتومی به حافظه کمتر و سرعت بیشتر انجام محاسبات نسبت به مول کلاسیکی خود بر می گردد. همچنین از جمله مباحث مهم در پردازش تصاویر پزشکی، تشخیص لبه تصاویر می باشد که با استفاده از آن می توان تصاویر پزشکی در زمینه های مختلف را مورد بررسی دقیق تر قرار داد. ما در این مقاله با استفاده از الگوریتم پردازش تصویر کوانتومی QPIE 9 یک تصویر پزشکی 256 × 256 پیکسلی را به 64 قسمت کوچکتر 16×16 تقسیم کرده و در کیوسکیت اجرا می کنیم و بعداز فشرده سازی به منظور افزایش سرعت محاسبه لبه آن را مشخص می کنیم. بنابراین ، این مقاله روش و کاربرد پیشرفته در تصاویر پزشکی بر اساس محاسبات کوانتومی ارائه می دهد.

    کلید واژگان: محاسبات کوانتومی, پردازش تصویر, پیاده سازی تصویر در کیوسکیت, تشخیص لبه تصاویر پزشکی}
  • مریم سلطان محمدی، حمیدرضا غفاری

    سرطان سینه یکی از مسائل مهم بهداشت عمومی است و علت اصلی مرگ و میر ناشی از سرطان در میان زنان در سراسر جهان محسوب می شود. تشخیص زودهنگام آن می تواند به طور موثر به افزایش کمک کند . بیوپسی معمولا به عنوان یک رویکرد استاندارد طلایی دنبال می شود که در آن بافت ها برای تجزیه و تحلیل میکروسکوپی جمع آوری می شوند اما با این حال، تجزیه و تحلیل هیستوپاتولوژیک سرطان پستان غیر ضروری است و ممکن است منجر به درجه بالایی از اختلاف نظر در میان آسیب شناسان شود. بنابراین، یک سیستم تشخیص خودکار می تواند به آسیب شناسان کمک کند تا اثربخشی فرآیندهای تشخیصی را بهبود بخشند. چارچوب پیشنهادی ما بر اساس نمای MLO و نمای CC برای بهبود عملکرد سیستم است. علاوه بر این، فقدان داده های برچسب گذاری شده یک چالش بزرگ است. یادگیری انتقال و تقویت داده ها برای غلبه بر این مشکل استفاده می شود. براساس مجموعه داده ماموگرافی؛ MIAS در ارزیابی ما استفاده می شود. روش پیشنهادی اعمال افزایش داده با مدل اصلاح شده U-Net و VGG(19) به نتیجه، با این دقت98.35 ٪، به دست می یابد.

    کلید واژگان: سرطان سینه, ماموگرافی, vgg19, u, net, پردازش تصویر}
  • Farima Fakouri, Mohsen Nikpour *, Abbas Soleymani Amiri

    Due to the increased mortality caused by brain tumors, accurate and fast diagnosis of brain tumors is necessary to implement the treatment of this disease. In this research, brain tumor classification performed using a network based on ResNet architecture in MRI images. MRI images that available in the cancer image archive database included 159 patients. First, two filters called median and Gaussian filters were used to improve the quality of the images. An edge detection operator is also used to identify the edges of the image. Second, the proposed network was first trained with the original images of the database, then with Gaussian filtered and Median filtered images. Finally, accuracy, specificity and sensitivity criteria have been used to evaluate the results. Proposed method in this study was lead to 87.21%, 90.35% and 93.86% accuracy for original, Gaussian filtered and Median filtered images. Also, the sensitivity and specificity was calculated 82.3% and 84.3% for the original images, respectively. Sensitivity for Gaussian and Median filtered images was calculated 90.8% and 91.57%, respectively and specificity was calculated 93.01% and 93.36%, respectively. As a conclusion, image processing approaches in preprocessing stage should be investigated to improve the performance of deep learning networks.

    Keywords: deep learning, Image Processing, Automatic Detection, Brain Tumor, MRI}
  • نرجس حاجی زاده، حامد وحدت نژاد*، رمضان هاونگی

    امروزه با پیشرفت فناوری ها در حوزه کمک به افراد نابینا، سیستم های جهت یابی از اهمیت بسیاری برخوردار هستند. همچنین با پیشرفت تکنولوژی در حوزه محاسبات ابری و تلفن همراه می توان به این افراد کمک کرد. در این تحقیق یک معماری با استفاده از محاسبات ابری موبایل به منظور کمک به این افراد، در هنگام عبور از تقاطع پیشنهاد می شود. معماری پیشنهادی شامل سه مولفه تلفن همراه، ابر و  نظارت است. اطلاعات مکان و زمان، جمع آوری و در پایگاه داده ابر ذخیره می شود تا در مواقع نیاز، آشنایان فرد نابینا بتوانند بر او نظارت داشته باشند. برای تشخیص وضعیت چراغ عابر پیاده عکس از تقاطع ها با استفاده از دوربین گرفته می شود. با استفاده از ویژگی رنگ و عملیات ریخت شناسی، رنگ چراغ عابر پیاده تشخیص داده و به فرد نابینا گزارش داده می شود. نتایج حاصل از پیاده سازی روی تصاویر گرفته شده، کارایی خوب روش پیشنهادی در تشخیص وضعیت چراغ عابر پیاده را نشان می دهد که دارای میانگین دقت 100٪  برای روز و همچنین شب است.

    کلید واژگان: محاسبات ابری موبایل, چراغ عابر پیاده, پردازش تصویر, عملیات ریخت شناسی}
    Narjes Hajizadeh, Hamed Vahdat-Nejad*, Ramazan Havangi

    Subject: 

    Today, with the advancement of technologies to assist blind and visually impaired people, navigation systems are of great importance. As a result of emerging technologies in telecommunication and smartphones, these people can be helped. Identifying pedestrian and traffic lights is important to help pedestrians with visual impairments cross the intersection safely and securely. Background- researchers have studied the detection and identification of traffic lights in the assistive system or blind assist device. These researches can be divided into three main types: based on pattern matching, based on circular shape extraction, and based on color distribution.

    Methodology

    In this research, an architecture based on mobile cloud computing is proposed, which can help blind pedestrians in crossing intersections. The architecture consists of three tiers: mobile phone, cloud, and supervision. The most important component is located on the mobile phone. It recognizes the color of pedestrian light by using image processing techniques. Spatial information (time and location) of the blind person is collected and held in a cloud storage database so that acquaintances can monitor him if needed. In order to detect the status of pedestrian lights, pictures of crossing streets with cameras will be captured. Using the features of color and morphology operations, the color of pedestrian lights is recognized and reported to the blind person. To this end, morphological operations are performed to eliminate small elements in the background and to restore the original size of the traffic light sign. Therefore, the operations of dilation, filling, and erosion are used.

    Result

    We gathered a dataset including 280 photos of pedestrian lights (170 photos at day, 110 photos at night) in different illumination conditions (early day, noon, early night, night) and weather (sunny, cloudy, rainy). Matlab software and notebook system with Intel (R) Core (TM) i5 CPU and AMD Mobility Radeon HD 5100 graphics card were used to implement pedestrian traffic-light status detection. The scenario-based method is used to evaluate the system architecture and show that the proposed system can satisfy the investigated scenario. At last, the implementation results on taken images show excellent performance in detecting pedestrian lights with approximately 100% accuracy for the day and night.

    Keywords: Mobile cloud computing, Pedestrian light, Image processing, Morphology operations}
  • صادق کلانتری*، سید محسن رضوی، هادی مرادی، عماد حمیدی

    یکسان بودن اندازه گام های مارپیچ در یک لامپ موج رونده با بازدهی سیستم رابطه مستقیم دارد. در این مقاله هدف ساخت دستگاهی است که با بکارگیری پردازش تصویر گام های مارپیچ را به صورت اتوماتیک و با دقت مناسب اندازه گیری نماید. به همین منظور الگوریتم پیشنهادی همراه با نو آوری هایی در زمینه های رفع نویز و تعیین آستانه در جهت اندازه گیری اتوماتیک گام های مارپیچ ارایه گردید و نمونه اولیه دستگاه ساخته شد. این دستگاه قابلیت کار در دو مد اندازه گیری دستی و اتوماتیک را داراست و مشابه داخلی نداشته و از نظر قیمت تمام شده و کاربرد در اندازه گیری گام های مارپیچ نسبت به نمونه خارجی بسیار کم هزینه تر می باشد. این دستگاه در مد اتوماتیک قادر است کلیه گام های مارپیچ را به یکباره اندازه گیری نماید. در صورتی که در دستگاه مشابه خارجی گام ها باید به صورت دستی و جداگانه اندازه گیری گردند. انتخاب نقاط ابتدا و انتهای گام ها در این دستگاه به صورت تطبیقی انجام می شود که سبب افزایش سرعت اندازه گیری و افزایش تکرارپذیری در اندازه گیری گام ها می گردد. در صورتی که در دستگاه نمونه خارجی انتخاب نقاط شروع و پایان گام ها توسط کاربر انجام می شود که خود تکرارپذیری اندازه گیری را کاهش می دهد. نتایج بدست آمده نشان می دهد که دقت اندازه گیری دستگاه ساخته شده در مقایسه با دستگاه نمونه خارجی قابل قبول می باشد.

    کلید واژگان: اندازه گیری گام های مارپیچ, دستگاه اندازه گیری گام مارپیچ, پردازش تصویر, پردازش سیگنال}
    Sadegh Kalantari*, Seyed Mohsen Razavi, Hadi Moradi, Emad Hamidi

    The same size of the helix steps in a traveling wave tube has a direct relationship with the efficiency of the system. In this article, the goal is to build a device that measures helix steps automatically and with proper accuracy by using image processing. For this purpose, the proposed algorithm was presented along with innovations in the fields of noise removal and threshold determination for the automatic measurement of helix steps, and the prototype of the device was made. This device has the ability to work in two modes of manual and automatic measurement, and it has no domestic equivalent, and it is much cheaper in terms of cost and use in measuring helix steps than the sample made abroad. In automatic mode, this device is able to measure all helix steps at once. In the case of a similar sample made abroad the steps must be measured manually and separately. The selection of the beginning and end points of steps in this device is done adaptively, which increases the speed of measurement and increases the repeatability in measuring steps. In the sample made abroad, the selection of the start and end points of the steps is done by the user, which reduces the repeatability of the measurement. The obtained results show that the measurement accuracy of the manufactured device is acceptable compared to the sample made abroad.

    Keywords: Helix steps measurement, Helix steps measuring device, Image Processing, Signal Processing}
  • سجاد دهقان، محمدجواد فدائی اسلام*
    تشخیص شی برجسته با هدف شناسایی و بخش بندی برجسته ترین و متمایزترین اشیاء یا نواحی در یک تصویر انجام می شود. شبکه های کاملا کانولوشنی (FCN)، مزایای خود را در مساله تشخیص شی برجسته نشان داده اند، با این حال، بسیاری از کارهای قبلی بر دقت ناحیه برجسته تمرکز کرده اند اما به کیفیت مرز توجهی ندارند. در این پژوهش، ما بر مکمل بودن بین اطلاعات لبه و اطلاعات شی برجسته تمرکز می کنیم و یک ماژول تشخیص لبه را برای مدل سازی صریح اطلاعات لبه برای حفظ مرزهای شیء برجسته به شبکه پیشنهادی اضافه می کنیم. شبکه پیشنهادی ما سعی دارد این دو وظیفه مکمل را با کمک متقابل هم بهبود دهد. از طرف دیگر حضور اشیاء چند مقیاسی در مجموعه داده های تشخیص شی برجسته نیاز به مدل سازی دقیق در سطح تابع هزینه برای مقابله با مشکل عدم تعادل بین پیش زمینه و پس زمینه در تصاویر دارد. از این رو، ما از تابع هزینه ترکیبی در مرحله آموزش استفاده می کنیم که به مقیاس اشیاء حساس نیست، و می تواند مساله انسجام فضایی را بهتر مدیریت کند و به طور یکنواخت مناطق برجسته را بدون پارامترهای اضافی برجسته کند. مقایسه نتایج کمی، کیفی به دست آمده توسط روش پیشنهادی با سایر روش های پیشرفته در شش مجموعه داده پرکابرد تشخیص برجستگی، نشان می دهد، روش پیشنهادی از عمل کرد خوبی برخوردار است و به سرعت می تواند مناطق برجسته را شناسایی کند. به طور خاص، روش ما بهترین عملکرد را در سه مجموعه داده آزمایشی پرکابرد از نظر معیارهای F-measure و MAE دریافت می کند که کارایی روش پیشنهادی را نشان می دهد.
    کلید واژگان: تشخیص شئ برجسته, تشخیص لبه, تابع هزینه ترکیبی, شبکه کاملا کانولوشنی, یادگیری عمیق, پردازش تصویر}
    Sajjad Dehghan, Mohammad Javad Fadaeieslam *
    Detection of salient objects is done with the aim of identifying and segmenting prominent objects or areas in an image. Fully Convolutional Networks (FCNs) have shown their advantages in salient object detection; however, many previous works have focused on the accuracy of the prominent area without paying attention to its edge. This paper focuses on the complementarity between edge information and salient object one and added an edge recognition module to explicitly model edge information to maintain salient object boundaries. Our proposed network is trying to improve these two tasks simultaneously. The presence of objects with different scales in related datasets is another problem in this area. It requires an appropriate cost function to deal with the imbalance problem between background and foreground in images. So, we have used the hybrid cost function in the training phase, which is not sensitive to the scale of objects and can better manage the problem of spatial coherence and uniformly highlight salient areas without additional parameters. A Comparison of the quantitative and qualitative results obtained by the proposed method with other advanced methods in six widely used protrusion detection datasets shows that the proposed method has a good performance and can quickly identify prominent areas. In particular, according to the quantitative results, our method gets the best result on three widely used test datasets in terms of F-measure and MAE criteria, demonstrating the proposed method's efficiency.
    Keywords: Salient object detection, Edge detection, Hybrid loss function, Fully convolutional network, Deep learning, Image processing}
  • مسلم سردشتی بیرجندی، حسین رحمانی*، سعید فراهت

    فاضلابروها جزء اصلی تاسیسات زیربنایی شبکه فاضلاب شهری به حساب می آیند. آسیب های فاضلابروها به دلیل غیرقابل رویت بودن کمتر توجه شده و این عدم رسیدگی به آسیب ها، موجب وضعیت های اضطراری و هزینه های غیر منطقی می گردد. این شریان های حیاتی در طول سرویس دهی، نیازمند نگهداری و بازسازی جهت عملکرد بهینه در تمام ابعاد می باشند. امروزه روش های پردازش و طبقه بندی عکس و فیلم-های گرفته شده توسط ربات های ویدیو متری متحرک برای انجام بازرسی شبکه فاضلاب بسیار مورد استفاده قرار می گیرند. یکی از الگوریتم های موفق در زمینه پردازش تصویر، الگوریتم شبکه عصبی کانولوشن است که از زیر مجموعه های الگوریتم یادگیری عمیق به شمار می رود. در این مقاله از یک الگوریتم شبکه عصبی کانولوشن جهت طبقه بندی تصاویر آسیب های شبکه فاضلاب و موارد موثر در بهبود و دقت و عملکرد این الگوریتم، پرداخته شده است. تصاویر توسط ربات ویدیومتری از شبکه فاضلاب بدست آمده است. نتایج حاصل از استفاده از الگوریتم پیشنهادی در شبکه فاضلاب، دستیابی به دقت 98 درصدی در طبقه بندی آسیب های شبکه و در مقایسه با سایر روش ها و نیز کاهش زمان اجرای نسبتا کم معماری پیشنهادی (91 دقیقه) در مقایسه با سایر معماری های معتبر در یادگیری عمیق در یک بستر سخت افزاری یکسان می باشد. همچنین، در آینده، الگوریتم پیشنهادی جهت تحلیل شبکه های فاضلاب بدون نیاز به نیروهای متخصص و همچنین کنترل یک ربات هدایت خودکار ویدیومتری شبکه فاضلاب مورد استفاده قرار خواهد گرفت.

    کلید واژگان: الگوریتم یادگیری عمیق, شبکه عصبی کانولوشن, ویدئومتری شبکه فاضلاب, پردازش تصویر}
    Moslem Sardashti Birjandi, Said Farahat

    Sewage flow path is the main component of urban sewerage network infrastructure. Damage to sewers is less noticeable due to invisibility, and this failure to handle the damage leads to emergencies and unreasonable costs. These vital arteries need to be maintained and rebuilt during service for optimal performance in all dimensions. Nowadays, the methods of processing and classifying photos and videos taken by mobile videometer robots are widely used to inspect the sewer network. One of the successful algorithms in the field of image processing is the convolutional neural network algorithm, which is a subset of deep learning algorithm. In this paper, a convolutional neural network algorithm is used to classify images of sewer network damage and cases affecting the improvement, accuracy and performance of this algorithm. The images were obtained by a videometric robot from the sewer network. Results of using the proposed algorithm in the sewerage network, achieving 98% accuracy in classifying network faults and compared to other methods and also reducing the relatively low execution time of the proposed architecture (91 minutes) compared to other architectures valid ones are the same in deep learning on the same hardware platform. Also, in the future, the proposed algorithm will be used to analyze networks without the need for specialized personnel and also to control an automatic network videometry robot.

    Keywords: Deep learning algorithm, Convolution neural network, Sewer network videometry, Image Processing}
  • محمدصادق کیهان پناه، بهروز کوهستانی*

    مقابله با آتش‌سوزی جنگل‌ها برای جلوگیری از خطرات بالقوه آنها و همچنین حفاظت از منابع طبیعی به عنوان یک چالش در میان محققان مطرح است. هدف از این تحقیق، تشخیص ویژگی‌های آتش و دود از تصاویر بصری پهپاد برای دسته‌بندی، تشخیص شیء و قطعه‌بندی تصاویر است. از آنجا که جنگل‌ها محیط‌های بسیار پیچیده و غیر ساختاری هستند، استفاده از سیستم بینایی همچنان با مشکلاتی نظیر شباهت ویژگی‌های شعله با نور خورشید، گیاهان و حیوانات و یا پوشش شعله با دود مواجه است که باعث هشدارهای اشتباه می‌شوند. روش پیشنهادی در این تحقیق، استفاده از شبکه‌های عصبی کانولوشنی از روش‌های یادگیری عمیق است که به صورت خودکار، توانایی استخراج یا تولید ویژگی در لایه‌های مختلف خود را دارند. ابتدا به جمع‌آوری داده و افزایش آنها با توجه به روش‌های داده‌افزایی پرداخته شده و در ادامه، استفاده از یک شبکه 12 لایه برای دسته‌بندی و همچنین روش یادگیری انتقالی برای قطعه‌بندی تصاویر پیشنهاد می‌شود. نتایج به دست آمده نشان می‌دهند که روش داده‌افزایی به کار برده شده با توجه به تغییر اندازه و آماده‌سازی تصاویر ورودی به شبکه از کاهش شدید ویژگی‌های موجود در تصاویر اولیه جلوگیری کرده و همچنین شبکه‌های عصبی کانولوشنی مورد استفاده می‌توانند به خوبی ویژگی‌های آتش و دود موجود در تصاویر را استخراج کنند و نهایتا به تشخیص و محلی‌سازی آنها بپردازند.

    کلید واژگان: آتش سوزی جنگل, پردازش تصویر, شبکه عصبی کانولوشنی, یادگیری عمیق}
    Mohammad Sadegh Kayhanpanah, Behrooz Koohestani *

    Fighting forest fires to avoid their potential dangers as well as protect natural resources is a challenge for researchers. The goal of this research is to identify the features of fire and smoke from the unmanned aerial vehicle (UAV) visual images for classification, object detection, and image segmentation. Because forests are highly complex and nonstructured environments, the use of the vision system is still having problems such as the analogues of flame characteristics to sunlight, plants, and animals, or the smoke blocking the images of the fire, which causes false alarms. The proposed method in this research is the use of convolutional neural networks (CNNs) as a deep learning method that can automatically extract or generate features in different layers. First, we collect data and increase them according to data augmentation methods, and then, the use of a 12-layer network for classification as well as transfer learning method for segmentation of images is proposed. The results show that the data augmentation method used due to resizing and processing the input images to the network to prevent the drastic reduction of the features in the original images and also the CNNs used can extract the fire and smoke features in the images well and finally detect and localize them.

    Keywords: forest fire, unmanned aerial vehicles, image processing, deep learning, convolutional neural networks}
  • محمدرضا رضاییان، رضا اکبری موحد، سینا جوادی فر

    سال 2019 میلادی شاهد شیوع بیماری کووید-19 بود که تا به امروز باعث مرگ بسیاری از انسان‌ها شده است. به دلیل ایجاد سویه‌های مختلف از این بیماری، رعایت پروتکل‌های بهداشتی به‌عنوان بهترین راهکار برای مهار این بیماری قلمداد می‌شود. با این حال، نظارت بر رعایت پروتکل‌های بهداشتی به‌صورت انسانی امری زمان‌بر، طاقت‌فرسا و مستعد خطا است. در نتیجه نیاز به یک سامانه نظارتی هوشمند جهت بررسی پوشش ماسک افراد و شناسایی افراد علامت‌دار بی‌توجه به مقررات قرنطینه در محیط‌های عمومی به شدت احساس می‌شود. این مقاله، یک سامانه خودکار سخت‌افزاری/نرم‌افزاری جهت شناسایی پوشش ماسک افراد و اندازه‌گیری دمای بدن را پیشنهاد می‌دهد که شناسایی چهره، تشخیص پوشش ماسک و اندازه‌گیری دمای بدن را به ترتیب با استفاده از الگوریتم ویولاجونز، شبکه عصبی هم‌آمیختی و حسگر دمای غیرتماسی انجام می‌دهد. در صورتی که شخص از ماسک استفاده نکرده باشد و یا دمای بدن او بالاتر از 5/37 درجه باشد، سامانه هشداری را صادر می‌کند تا از ورود شخص به محل ممانعت شود. این سامانه در ارزیابی میدانی توانست دقت 96% در شناسایی چهره و دقت 100% در تشخیص پوشش ماسک را به‌دست آورد. این سامانه می‌تواند جهت نظارت بر رعایت پروتکل‌های بهداشتی در مراکز عمومی مورد استفاده قرار بگیرد.

    کلید واژگان: کووید-19, تشخیص ماسک, تشخیص اهداف, پردازش تصویر, یادگیری عمیق}
  • V. Torkzadeh, S. Toosizadeh *

    In this study, an automatic system based on image processing methods using features based on convolutional neural networks is proposed to detect the degree of possible dipping and buckling on the sandwich panel surface by a colour camera. The proposed method, by receiving an image of the sandwich panel, can detect the dipping and buckling of its surface with acceptable accuracy. After a panel is fully processed by the system, an image output is generated to observe the surface status of the sandwich panel so that the supervisor of the production line can better detect any potential defects at the surface of the produced panels. An accurate solution is also provided to measure the amount of available distortion (depth or height of dipping and buckling) on the sandwich panels without needing expensive and complex equipment and hardware.

    Keywords: Sandwich panel, Dipping, Buckling, Image Processing, Convolutional neural network}
  • سکینه صیدی، علی آذرپیوند*

    با توجه به استفاده روزافزون از وسیله های همراه، معیار توان مصرفی به دلیل نیاز به کارکرد طولانی این دستگاه ها در کنار دو معیار سنتی کارآیی و هزینه به یک فاکتور مهم در طراحی سیستم های دیجیتال تبدیل شده است. با توجه به اینکه بلوک های محاسباتی تقریبی با صرف نظر کردن از مقدار قابل قبولی از دقت، تاثیر مثبتی بر روی هر سه معیار هزینه، توان مصرفی و هزینه دارند؛ محاسبات تقریبی یا غیر دقیق به عنوان یک رویکرد جدید در طراحی سیستم های دیجیتال مطرح شده است. در این مقاله یک جمع کننده ی تقریبی طراحی شده و میزان خطای آن مورد ارزیابی قرار گرفته است. سپس با استفاده از این جمع کننده، یک ضرب کننده ی تقریبی نیز پیشنهاد شده است. در ادامه، از این ضرب کننده برای پیاده سازی دو کاربرد نرم سازی و تیزسازی که در پردازش تصاویر به کار گرفته می شوند، استفاده شده است. استفاده از این بلوک های محاسباتی منجر به 63% صرفه جویی در توان مصرفی پویا، 70% صرفه جویی در توان مصرفی ایستا، کاهش 25% در مساحت طرح و همچنین 33% بهبود در تاخیر آن شده است. همچنین میزان خطای وارد شده به سیستم به دلیل استفاده از محاسبات تقریبی به طور متوسط 33% می باشد که تاثیر مخرب در کارکرد کاربردهای نرم سازی و تیزسازی ندارد و خروجی های این دو کاربرد با استفاده از بلوک های محاسبات تقریبی خللی در درستی پردازش تصویر وارد نمی کنند.

    کلید واژگان: محاسبات تقریبی, جمع کننده ی تقریبی, ضرب کننده ی تقریبی, توان مصرفی, پردازش تصویر}
    Sakineh Seydi, Ali Azarpeyvand*

    Today, with the ever-increasing use of mobile devices, power consumption besides cost and performance has become an important parameter in the design of digital systems. Approximate computational blocks, with acceptable accuracy, have a positive impact on all three criteria of cost, power, and performance; approximate or inaccurate calculations has been accepted more than ever as a new approach to the design of digital systems. In this paper, an approximate adder is designed and the error rate is evaluated. Then, by using this adder, an approximate multiplier is also proposed. This multiplier is used in smoothing and sharpening application in the image processing applications. Using these computing blocks has led to saving 63% of dynamic power consumption, 70% static power saving, 25% decrease in design area and 33% improvement in latency. Also, the amount of error of system due to the use of approximate calculations is on average 33%, which does not have a negative effect on the function of the application in smoothing and sharpening.

    Keywords: Approximate computing, Approximate full adder, Approximate multiplier, Power consumption, Image Processing}
  • معصومه محسنی، حسین منتظری کردی*، مهدی ازوجی

    در دندان‌پزشکی قانونی، تخمین سن با استفاده از رادیوگراف دندان صورت می‌گیرد. هدف ما، خودکارکردن این مراحل با استفاده از پردازش تصویر و تکنیک‌های تشخیص الگو است. با داشتن رادیوگراف دندان، کانتور استخراج شده و ویژگی‌هایی مانند عرض اپکس (apex) و طول دندان از آن استخراج می‌شود که در تخمین سن مورد استفاده قرار می‌گیرد. افزایش بهینه وضوح تصاویر رادیوگرافی، مرحله مهمی در استخراج کانتور و تخمین سن است. در این مقاله، هدف بهبود وضوح تصویر به منظور استخراج ناحیه مناسب و قطعه‌بندی مناسب دندان است که در نتیجه منجر به تخمین سن بهتری می‌شود. در این مدل، به دلیل پایین‌بودن وضوح تصاویر رادیوگراف، به منظور افزایش دقت استخراج ناحیه مورد نظر هر دندان (ROI)، وضوح تصویر با استفاده از آنتروپی مکانی که مبتنی بر توزیع مکانی شدت روشنایی پیکسل‌هاست، به همراه روش‌های افزایش وضوح دیگر مانند هرم‌های لاپلاسین، افزایش می‌یابد. افزایش وضوح تصویر، منجر به استخراج ROI مناسب و حذف نواحی ناخواسته می‌شود. پایگاه داده مورد استفاده در این پژوهش، 154 رادیوگراف پانورامیک نوجوانان است که 73 نفر آن مرد و 81 نفر آن زن هستند. این پایگاه داده از دانشگاه علوم پزشکی بابل تهیه شده است. نتایج نشان می‌دهد با استفاده از روش‌های قطعه‌بندی دندان ثابت و فقط با اعمال روش پیشنهادی موثر در بهبود وضوح تصویر، استخراج ROI مناسب از 66% به 78% افزایش یافت که بهبود خوبی را نشان می‌دهد. سپس ROI استخراج‌شده، تحویل بلوک قطعه‌بندی و استخراج کانتور می‌شود و پس از استخراج کانتور، تخمین سن صورت می‌گیرد. تخمین سن صورت‌گرفته با استفاده از روش پیشنهادی، در مقایسه با روشی که از الگوریتم پیشنهادی در افزایش وضوح تصویر استفاده نمی‌کند، به مقدار تخمین دستی سن نزدیک‌تر است.

    کلید واژگان: بهبود وضوح تصویر, قطعه بندی دندان, پردازش تصویر, تخمین سن, رادیوگراف دندان}
    Masoume Mohseni, Hussain Montazery Kordy *, Mehdi Ezoji

    In forensic dentistry, age is estimated using dental radiographs. Our goal is to automate these steps using image processing and pattern recognition techniques. With a dental radiograph, the contour is extracted and features such as apex, width and tooth length are determined, which are used to estimate age. Optimizing the resolution of radiographic images is an important step in contour extraction and age estimation. In this article, the aim is to improve the image resolution in order to extract the appropriate area and proper segmentation of the tooth, which makes it possible to estimate age better. In this model, due to the low resolution of radiographic images, in order to increase the accuracy of extracting the desired area of each tooth (ROI), the image resolution increases using spatial entropy based on the spatial distribution of pixel brightness, along with another increasing resolution method, like the Laplacian pyramids. Increasing the resolution of the image leads to the extraction of appropriate ROI and the removal of unwanted areas. The database used in this study is 154 adolescent panoramic radiographs, of which 73 are male and 81 are female. This database is prepared from Babol University of Medical Sciences. The results show that by using fixed tooth segmentation methods and only by applying the proposed effective method to improve image resolution, the extraction of appropriate ROI increased from 66% to 78% which shows a good improvement. The extracted ROI is then delivered to the segmented block and the contour extracted. After contour extraction, age is estimated. The age estimation using the proposed method is closer to the manual age estimate compared to the method that does not use the proposed algorithm to increase the image resolution.

    Keywords: Image resolution enhancement, dental segmentation, image processing, age estimation, dental radiography}
  • رضا ذاکر*

    شناسایی و مهار کردن به موقع آتش می‌تواند خسارات جبران‌ناپذیر به اموال، هزینه اطفاء حریق، آلودگی و خسارات جانی را کاهش دهد و از این رو شناسایی دقیق آتش و کاهش موثر آژیرهای خطر نادرست، اهداف مهم محققان هستند. در این مقاله یک روش جدید مبتنی بر استخراج پیکسل برای شناسایی دقیق و موثر آتش و تخمین مساحت بخش میانی آن پیشنهاد می‌گردد. در این کار ابتدا یک پایگاه داده جدید تصاویر از شعله آتش که اندازه آن از کوچک به بزرگ رو به افزایش است، برای آزمایش و ارزیابی روش پیشنهادی ایجاد می‌شود. سپس یک روش برای شناسایی آتش مبتنی بر ویژگی‌های حرکت و رنگ شعله ارایه می‌شود. ابتدا، نواحی نامزد برای وجود آتش به‌وسیله تشخیص ناحیه متحرک شناسایی می‌شوند. سپس به‌وسیله اعمال الگوریتم تشخیص لبه کنی روی نواحی نامزد، ناحیه دقیق آتش شناسایی می‌شود. از آنجایی که شعله به قسمت میانی آتش با بالاترین شدت رنگ اطلاق می‌شود که بیشترین خسارت را وارد می‌کند، این ناحیه و مساحت واقعی و دقیق آن به وسیله یک روش جدید و موثر تخمین زده می‌شود. این روش روی پایگاه داده ایجاد شده توسط نرم‌افزار متلب ارزیابی می‌شود. نتایج آزمایشات نشان می‌دهد که روش پیشنهاد شده دقت و کارآیی بالایی دارد.

    کلید واژگان: بینایی کامپیوتر, پردازش تصویر, تشخیص لبه, شناسایی آتش}
  • فریماه شرافتی، جعفر طهمورث نژاد*

     به دلیل افزایش حجم تصاویر تولیدشده توسط دوربین ها و دستگاه های مختلف، پردازش تصویر در بسیاری از کاربردها ازجمله پزشکی، امنیتی و رانندگی اهمیت و جایگاه بالایی یافته است. بااین حال بیشتر مدل های ایجادشده در حوزه پردازش تصویر کارایی چندانی نداشته و میزان خطای آن ها در برخی کاربردها تاثیرگذار است. علت اصلی ناکامی بیشتر مدل های ساخته شده، اختلاف توزیع بین داده های آموزشی (دامنه منبع) و داده های تست (دامنه هدف) می باشد. درواقع، مدل ساخته شده، قابلیت تعمیم دهی به داده هایی با خصوصیات و توزیع های متفاوت از داده های آموزشی را ندارد، به همین دلیل در مواجهه با داده های جدید دچار افت شدیدی می شود. در این مقاله ما یک روش جدید با نام کدگذاری تنک و طبقه بندی انطباقی (SADA) پیشنهاد می دهیم که یک مدل پردازش تصویری ایجاد می کند که در مقابل تغییرات داده ای مقاوم می باشد. مدل پیشنهادی با ایجاد یک زیر فضای مشترک بین دامنه های منبع و هدف اختلاف توزیع آن ها را به حداقل رسانده و موجب بهبود کارایی می شود. همچنین SADA با انتخاب نمونه هایی از دامنه منبع که با دامنه هدف مرتبط می باشند اختلاف توزیع بین دامنه ها را کاهش می دهد. علاوه بر آن، SADA با تطبیق پارامترهای مدل ایجادشده، یک مدل تطبیق پذیر برای مواجهه با شیفت داده ها ایجاد می کند. نتایج به دست آمده از آزمایش های متنوع، نشان می دهد که روش پیشنهادی ما، برتری قابل ملاحظه ای نسبت به تمام روش های تطبیق دامنه جدید دارد.

    کلید واژگان: پردازش تصویر, تطبیق دامنه های بصری, کدگذاری تنک, وزن دهی مجدد نمونه, طبقه بندی انطباقی}
    F. Sherafati, J. Tahmoresnezhad *

    Due to the growing increase of generated images via cameras and various instruments, image processing has found an important role in most of practical usages including medical, security and driving. However, most of the available models has no considerable performance and in some usages the amount of error is very effective. The main cause of this failure in most of available models is the distribution mismatch across the source and target domains. In fact, the made model has no generalization to test data with different properties and distribution compared to the source data, and its performance degrades dramatically to face with new data. In this paper, we propose a novel approach entitled Sparse coding and ADAptive classification (SADA) which is robust against data drift across domains. The proposed model reduces the distribution difference across domains via generating a common subspace between the source and target domains and increases the performance of model. Also, SADA reduces the distribution mismatch across domains via the selection of the source samples which are related to target samples. Moreover, SADA adapts the model parameters to build an adaptive model to encounter with data drift. Our variety of experiments demonstrate that the proposed approach outperforms all stat-of-the-art domain adaptation methods.

    Keywords: Image processing, visual domains adaptation, sparse coding, sample reweighting, adaptive classification}
  • پریسا صالحی، ندا بهزادفر*، همایون مهدوی نسب

    پس از کشف اشعه ایکس با استفاده روزافزون از سیستم های تصویربرداری دیجیتال، پردازش تصاویر پزشکی اهمیت بیشتری پیدا کرده است. پردازش تصاویر پزشکی به متخصصان در زمینه تشخیص بیماری ها کمک شایانی می کند. علاوه بر روش های اصلی دیجیتالی مانند توموگرافی کامپیوتری (CT) یا تصویربرداری رزونانسی مغناطیسی (MRI) در حال حاضر روش های تصویر برداری آنالوگ مانند آندوسکوپی یا رادیوگرافی اکنون به سنسورهای دیجیتالی مجهز شده اند. با پردازش تصاویر با استفاده از روش های مختلف می توان رویه اعمال شده در بیماران را بهبود بخشد. الگوریتم ها نقش اصلی را در فیلتر کردن نویزها، بخش بندی، استخراج و طبقه بندی خصوصیات دارند که باعث تشخیص بیماری ها می شود. نرم افزار متلب و جعبه ابزار پردازش تصویر طیف گسترده ای از توابع پیشرفته پردازش تصویر و ابزارهای تعاملی را برای بهبود و تجزیه و تحلیل تصاویر دیجیتال فراهم می کند. در این مقاله با استفاده از چند الگوریتم طراحی شده در متلب، کیفیت تصاویر را بررسی می شوند و الگوریتم مناسب تر انتخاب می گردد.

    کلید واژگان: پردازش تصویر, تصاویر پزشکی, اپراتور, سیمولینک متلب}
    Parisa Salehi, Neda Behzadfar*, Homayoun Movahedi-Nasab

    After the discovery of X-rays with the increasing use of digital imaging systems, medical image processing has become more important. Medical image processing helps specialists in diagnosing diseases. In addition to major digital techniques such as computed tomography (CT) or magnetic resonance imaging (MRI), analog imaging techniques such as endoscopy or radiography are now equipped with digital sensors. By processing images using different methods, the procedure applied to patients can be improved. Algorithms play a key role in noise filtering, segmentation, extraction, and characterization that diagnose diseases. MATLAB software and image processing toolboxes provide a wide range of advanced image processing functions and interactive tools for enhancing and analyzing digital images. In this article, using several algorithms designed in MATLAB, the quality of images is examined and a more appropriate algorithm is selected.

    Keywords: Image processing, Medical images, Operator, Simulink MATLAB}
  • فریماه شرافتی، جعفر طهمورث نژاد*

    تطبیق دامنه می تواند دانش را از یک مجموعه آموزشی (دامنه منبع) به یک مجموعه آزمایشی (دامنه هدف) انتقال دهد تا بازدهی مدل یادگرفته شده از داده های آموزشی افزایش یابد. علاوه بر این، استفاده از کدگذاری تنک، مدل یادگرفته شده را بسیار مختصر نموده و کنترل آن را ساده می نماید. با این حال، اختلاف توزیع بین دامنه های منبع و هدف بازدهی مدل را کاهش می دهد. در این مقاله، ما یک مدل تطبیق دامنه بدون نظارت پیشنهاد می دهیم تا خطای پیش بینی مدل های طبقه بندی تصاویر را کاهش دهیم. از وزن دهی مجدد نمونه ها برای مدیریت داده های اضافه و اطلاعات بلااستفاده داده های منبع در نمایش جدید استفاده می شود. همچنین، اختلاف توزیع شرطی بین دامنه های منبع و هدف با استفاده از روی هم گذاری زیرفضاها کاهش داده می شود. روش پیشنهادی ما یک طبقه بند مستقل از دامنه تنک در زیرفضای به دست آمده می باشد که ساختار داده های ورودی را حفظ می کند. آزمایشات گسترده نشان می دهد که روش پیشنهادی ما بر روی پایگاه داده های واقعی در مقایسه با روش های به روز در حوزه یادگیری ماشین و تطبیق دامنه، 49/4% بهبود در صحت طبقه بندی دارد.

    کلید واژگان: پردازش تصویر, تطبیق دامنه, کدگذاری تنک, اختلاف توزیع شرطی, تطبیق زیرفضا}
    F. Sherafati, J. Tahmoresnezhad*

    Domain adaptation can transfer knowledge from a training set (source domain) to a test set (target domain), promoting the performance of the model learned from the training set. In addition, sparse coding makes the learned model more succinct and easy to manipulate. However, the existence of the distribution mismatch across the source and target domains reduce the performance of model. In this paper, we propose an unsupervised domain adaptation model to minimize the prediction error of image classification. Sample reweighting is utilized to handle redundant and useless information of source data in the new representation. Moreover, the difference of the conditional distributions across the source and target domains is reduced along with the subspace alignment. Our proposed approach learns a sparse domain-invariant classifier in a latent subspace with preserving the structure of the input data. Extensive experiments demonstrate that our proposed approach shows 4.49% improvement in classification accuracy on real-world datasets compared to state-of-the-art machine learning and domain adaptation methods.

    Keywords: Image processing, domain adaptation, sparse coding, conditional distribution difference, subspace alignment}
  • مژده زندی فر*، جعفر طهمورث نژاد

    پردازش تصویر روشی برای اعمال برخی عملیات ها برروی تصویر، برای به دست آوردن تصاویری با کیفیت بالاتر یا استخراج برخی اطلاعات مفید می باشد. الگوریتم های سنتی پردازش تصویر در شرایطی که تصاویر آموزشی (دامنه منبع) که برای یاددهی مدل استفاده می شوند توزیع متفاوتی از تصاویر آزمایشی (دامنه هدف) داشته، نمی توانند عملکرد خوبی داشته. درواقع، وجود اختلاف توزیع شرطی بین دامنه های منبع و هدف، بازدهی مدل را کاهش می دهد. تطبیق دامنه و یادگیری انتقالی راه حل های امیدبخشی هستند که هدف آن ها تعمیم دادن یک مدل یادگیری بین داده های آموزشی و تست با توزیع های متفاوت است. در این مقاله، مسئله پردازش تصویر بین دامنه ای بدون نظارت مورد توجه قرار گرفته است که هیچ برچسبی برای داده های تست در دسترس نمی باشد. درواقع، روش پیشنهادی دامنه های منبع و هدف را به یک زیرفضای کم بعد مشترک براساس FLDA به صورت بدون نظارت منتقل می کند. روش پیشنهادی ما، اختلاف احتمال توزیع شرطی در داده های منبع و هدف را ازطریق واگرایی برگمن حداقل می کند. یک ماتریس نگاشت به دست می آید که داده های منبع و هدف را به یک زیرفضای مشترک انتقال می دهد که در آن فضا ماتریس پراکندگی بین کلاسی حداکثر شده و ماتریس پراکندگی درون کلاسی و توزیع های بین دامنه ای حداقل می شود. آزمایشات متنوع برروی 58 عملیات طبقه بندی بین دامنه ای برروی شش پایگاه داده همگانی نشان می دهد که روش پیشنهادی ما بهتر از روش های پردازش تصویر جدید ارایه شده در حوزه بین دامنه ای عمل می کند.

    کلید واژگان: پردازش تصویر, یادگیری انتقالی, واگرایی برگمن, کاهش اختلاف توزیع شرطی, کاهش ابعاد}
    M. Zandifar, J. Tahmoresnezhad*

    Image processing is a method to perform some operations on an image, in order to get an enhanced image or to extract some useful information from it. The conventional image processing algorithms cannot perform well in scenarios where the training images (source domain) that are used to learn the model have a different distribution with test images (target domain). In fact,the existence of conditional distribution difference across the source and target domains degrades the performance of model. Domain adaptation and transfer learning are promising solutions that aim to generalize a learning model across training and test data with different distributions. In this paper, we address the problem of unsupervised cross domain image processing in which no labels are available in test images. In fact, the proposed method transfers the source and target domains into a shared low dimensional FLDA-based subspace in an unsupervised manner. Our proposed method minimizes the conditional probability distribution difference of the source and target data via Bregman divergence. We provide a projection matrix to map the source and target data into a common subspace on which the between class scatter matrix is maximized and within class scatter matrix and cross domain distributions are minimized. Extensive experiments on 58 cross-domain image classification tasks over six public datasets reveal that our proposed method outperforms the state-of-the-art cross domain image processing approaches.

    Keywords: Image processing, transfer learning, bregman divergence, conditional distribution difference reduction, dimensionality reduction}
  • رضا مظفری، سمیرا مودتی*

    در این مقاله یک روش جدید به منظور حذف نوفه تصویر براساس یادگیری واژه نامه ناهمدوس در فضای تطبیق یافته ارایه می شود. روال یادگیری واژه نامه براساس در نظر گرفتن معیار همدوسی به منظور حصول واژه نامه های فراکامل با اتم های ناهمدوس و به کارگیری روش تطبیق فضا به منظور کاهش زمان پردازش و دست یابی به تصویر حذف نوفه شده با دقت بیشتر است. با استفاده از این روش، واژه نامه اولیه ای از داده تصویر در دسترس تهیه و سپس اتم های آموزش دیده متناسب با نوفه ای که محیط آزمایش با آن درگیر است به کمک یک الگوریتم بهینه سازی جدید مبتنی بر روش حافظه محدود BFGS به روز می شوند. همچنین گام بازنمایی تنک در این الگوریتم بر مبنای یک الگوریتم مبتنی بر افزایش همدوسی اتم-داده است. آموزش واژه نامه فراکامل با اتم های ناهمدوس بسیار حایز اهمیت است؛ زیرا به خطای تقریب کوچک تر در بازنمایی تنک منتهی می شود چون در بازنمایی داده تصویر، اتم های مستقل از هم نقش بیشتری خواهند داشت و فضای داده را به بهترین نحو پوشش می دهند. همچنین از یک روش بازنمایی تنک ناهمدوس نیز در روال یادگیری واژه نامه بهره گرفته می شود. به کارگیری این روال یادگیری موجب دست یابی به تصویر حذف نوفه شده با دقت بالا می شود. نتایج شبیه سازی با نتایج الگوریتم حذف نویز تصویر مبتنی بر روال تطبیق فضای پایه و روش یادگیری واژه نامه مبتنی بر K-SVD مقایسه شده است. نتایج شبیه سازی های انجام شده نشان می دهد که الگوریتم پیشنهادی در حذف نوفه گوسین به نتایج مناسب تری نسبت به سایر الگوریتم ها دست یافته و توانسته است با به کارگیری اتم های ناهمدوس، ساختار داده ورودی را به گونه مناسبی بازنمایی کند.

    کلید واژگان: حذف نوفه, پردازش تصویر, یادگیری واژه نامه, همدوسی, تطبیق فضا}
    Reza Mozaffari, Samira Mavaddati*

    In this paper, a new method for image denoising based on incoherent dictionary learning and domain transfer technique is proposed. The idea of using sparse representation concept is one of the most interesting areas for researchers. The goal of sparse coding is to approximately model the input data as a weighted linear combination of a small number of basis vectors. Two characteristics should be considered in the dictionary learning process: Atom-data coherence and mutual coherence between dictionary atoms. The first one determines the dependency between the dictionary atoms and training data frames. This criterion value should be high. Another parameter expresses the dependency between atoms defined as the maximum absolute value of the cross-correlations between them. Higher coherence to the data class and lower mutual coherence between atoms result in a small approximation error in sparse coding procedure. In the proposed dictionary learning process, a coherence criterion is employed to yield over complete dictionaries with the incoherent atoms. The purpose of learning dictionary with low mutual coherence value is to reduce the approximation error of sparse representation in the denoising process and also decrease the computing time. We utilize the least angle regression with coherence criterion (LARC) algorithm for sparse representation based on atom-data coherence in the first step of dictionary learning process. LARC sparse coding is an optimized generalization of the least angle regression algorithm with stopping condition based on a residual coherence. This approach is based on setting a variable cardinality value. Using atom-data coherence measure as stopping criteria in the sparse coding process yields the capability of balancing between source confusion and source distortion. A high value for the cardinality parameter or too dense coding results in the source confusion since the number of dictionary atoms is more than what is required for a proper representation. Source degradation occurs when the sparse coding is done with low cardinality parameter or too sparse coding. Therefore, the number of required atoms will not be enough and data cannot be coded exactly over these atoms. Therefore, the setting procedure of cardinality parameter must be performed precisely. The problem of finding a dictionary with low mutual coherence between its normalized atoms can be obtained by considering the Gram matrix. The mutual coherence is described by the maximum absolute value of the off-diagonal elements of this matrix. If all off-diagonal elements are the same, a dictionary with minimum self-coherence value is obtained. Also, we take advantage of domain adaptation technique to transfer a learned dictionary to an adapted dictionary in the denoising process. The initial atoms set randomly and are updated based on the selected patches of input noisy image using the proposed alternating optimization algorithm. According to these issues, the fitness function in dictionary learning problem includes three main sections: The first term is related to the minimization of approximation error. The next items are the incoherence criterion of dictionary atoms. The last one includes a transformation of initial atoms according to some patches of the noisy input data in the test step. We use limited-memory BFGS algorithm as an iterative solution for regular minimization of our objective function involved different terms. The simulation results show that the proposed method leads to significantly better results in comparison with the earlier methods in this context and the traditional procedures.

    Keywords: Image denoising, Dictionary learning, Coherence, Domain adaptation, Image processing}
  • مژده زندی فر، جعفر طهمورث نژاد*

    پردازش تصویر روشی برای اعمال برخی عملیات ها بر روی یک تصویر است به طوری که با استفاده از آن، تصاویری با کیفیت بالاتر به دست آمده یا برخی اطلاعات مفید از تصویر استخراج می شود. الگوریتم های سنتی پردازش تصویر در شرایطی که تصاویر آموزشی (دامنه منبع) که برای یاددهی مدل استفاده می شوند، توزیع متفاوتی از تصاویر آزمایش (دامنه هدف) داشته باشند، نمی توانند عملکرد خوبی داشته باشند. با این حال، بسیاری از برنامه های کاربردی دنیای واقعی به علت کمبود داده های برچسب دار آموزشی دارای محدودیت هستند؛ از این رو از داده های برچسب دار دامنه های دیگر استفاده می کنند. به این ترتیب به خاطر اختلاف توزیع بین دامنه های منبع و هدف، طبقه بند یادگرفته شده براساس مجموعه آموزشی بر روی داده های آزمایشی عملکرد ضعیفی خواهد داشت. یادگیری انتقالی و انطباق دامنه، با به کارگیری مجموعه داده های موجود دو راه حل برجسته برای مقابله با این چالش هستند، و حتی با وجود اختلاف توزیع قابل ملاحظه بین دامنه ها می توانند دانش را از دامنه های مرتبط به دامنه هدف انتقال دهند. فرض اصلی در مساله تغییر دامنه این است که توزیع حاشیه ای یا توزیع شرطی داده های منبع و هدف متفاوت باشد. تطبیق دامنه به طور صریح با استفاده از معیار فاصله ازپیش تعیین شده تفاوت در توزیع حاشیه ای، توزیع شرطی یا هر دو توزیع را کاهش می دهد. در این مقاله، ما به یک سناریوی چالش برانگیز می پردازیم که در آن تصاویر دامنه های منبع و هدف در توزیع های حاشیه ای متفاوت بوده و تصاویر هدف دارای برچسب نیستند. بیش تر روش های قبلی دو استراتژی یادگیری تطابق ویژگی ها و وزن دهی مجدد نمونه ها را به طور مستقل برای تطبیق دامنه ها مورد بررسی قرار داده اند. در این مقاله، ما نشان می دهیم زمانی که تفاوت دامنه ها به طور قابل توجهی بزرگ باشد، هر دو استراتژی مهم و اجتناب ناپذیر هستند. روش پیشنهادی ما تحت عنوان تطبیق دامنه مبتنی بر نمونه برای طبقه بندی تصاویر (DAIC)، یک فرایند کاهش بعد بوده که با کاهش اختلاف توزیع تصاویر آموزشی و آزمایشی و به کارگیری هم زمان تطابق ویژگی ها و وزن دهی مجدد کارایی مدل را افزایش می دهد. ما با گسترش واگرایی برگمن غیرخطی برای اندازه گیری تفاوت توزیع حاشیه ای و اعمال آن به الگوریتم کاهش بعد آنالیز تفکیک خطی فیشر، از آن برای ساخت یک نمایش ویژگی موثر و قوی برای تفاوت های توزیع قابل ملاحظه بین دامنه ها استفاده می کنیم؛ همچنین، DAIC از مزیت برچسب گذاری اولیه برای داده های هدف به صورت تکرار شونده برای هم گرایی مدل استفاده می کند. آزمایش های گسترده ما نشان می دهد که DAIC به طور قابل توجهی بهتر از الگوریتم های یادگیری ماشین پایه و دیگر روش های یادگیری انتقالی در نه مجموعه داده بصری تحت سناریوهای مختلف عمل می کند.

    کلید واژگان: پردازش تصویر, یادگیری انتقالی, واگرایی برگمن, کاهش اختلاف توزیع حاشیه ای, کاهش ابعاد}
    Mozhdeh Zandifar, Jafar Tahmoresnezhad*

    Image processing is a method to perform some operations on an image, in order to get an enhanced image or to extract some useful information from it. The conventional image processing algorithms cannot perform well in scenarios where the training images (source domain) that are used to learn the model have a different distribution with test images (target domain). Also, many real world applications suffer from a limited number of training labeled data and therefore benefit from the related available labeled datasets to train the model. In this way, since there is the distribution difference across the source and target domains (domain shift problem), the learned classifier on the training set might perform poorly on the test set. Transfer learning and domain adaptation are two outstanding solutions to tackle this challenge by employing available datasets, even with significant difference in distribution and properties, to transfer the knowledge from a related domain to the target domain. The main assumption in domain shift problem is that the marginal or the conditional distribution of the source and the target data is different. Distribution adaptation explicitly minimizes predefined distance measures to reduce the difference in the marginal distribution, conditional distribution, or both. In this paper, we address a challenging scenario in which the source and target domains are different in marginal distributions, and the target images have no labeled data. Most prior works have explored two following learning strategies independently for adapting domains: feature matching and instance reweighting. In the instance reweighting approach, samples in the source data are weighted individually so that the distribution of the weighted source data is aligned to that of the target data. Then, a classifier is trained on the weighted source data. This approach can effectively eliminate unrelated source samples to the target data, but it would reduce the number of samples in adapted source data, which results in an increase in generalization errors of the trained classifier. Conversely, the feature-transform approach creates a feature map such that distributions of both datasets are aligned while both datasets are well distributed in the transformed feature space. In this paper, we show that both strategies are important and inevitable when the domain difference is substantially large. Our proposed using sample-oriented Domain Adaptation for Image Classification (DAIC) aims to reduce the domain difference by jointly matching the features and reweighting the instances across images in a principled dimensionality reduction procedure, and construct new feature representation that is invariant to both the distribution difference and the irrelevant instances. We extend the nonlinear Bregman divergence to measure the difference in marginal, and integrate it with Fisher’s linear discriminant analysis (FLDA) to construct feature representation that is effective and robust for substantial distribution difference. DAIC benefits pseudo labels of target data in an iterative manner to converge the model. We consider three types of cross-domain image classification data, which are widely used to evaluate the visual domain adaptation algorithms: object (Office+Caltech- 256), face (PIE) and digit (USPS, MNIST). We use all three datasets prepared by and construct 34 cross-domain problems. The Office-Caltech-256 dataset is a benchmark dataset for cross-domain object recognition tasks, which contains 10 overlapping categories from following four domains: Amazon (A), Webcam (W), DSLR (D) and Caltech256 (C). Therefore 4 × 3 = 12 cross domain adaptation tasks are constructed, namely A → W, ..., C → D. USPS (U) and MNIST (M) datasets are widely used in computer vision and pattern recognition tasks. We conduct two handwriting recognition tasks, i.e., usps-mnist and mnist-usps. PIE is a benchmark dataset for face detection task and has 41,368 face images of size 3232 from 68 individuals. The images were taken by 13 synchronized cameras and 21 flashes, under varying poses, illuminations, and expressions. PIE dataset consists five subsets depending on the different poses as follows: PIE1 (C05, left pose), PIE2 (C07, upward pose), PIE3 (C09, downward pose), PIE4 (C27, frontal pose), PIE5 (C29, right pose). Thus, we can construct 20 cross domain problems, i.e., P1 → P2, P1 → P3, ..., P5 → P4. We compare our proposed DAIC with two baseline machine learning methods, i.e., NN, Fisher linear discriminant analysis (FLDA) and nine state-of-the-art domain adaptation methods for image classification problems (TSL, DAM, TJM, FIDOS and LRSR). Due to these methods are considered as dimensionality reduction approaches, we train a classifier on the labeled training data (e.g., NN classifier), and then apply it on test data to predict the labels of the unlabeled target data. DAIC efficiently preserves and utilizes the specific information among the samples from different domains. The obtained results indicate that DAIC outperforms several state of-the-art adaptation methods even if the distribution difference is substantially large.

    Keywords: Image processing, Transfer learning, Bregman divergence, Marginal distribution difference reduction, Dimensionality reduction}
  • فائزه کریمی زارچی، ولی درهمی*، علی محمد لطیف، علی ابراهیمی

    سامانه های تشخیص حریق با توجه به قابلیت گسترش سریع و توانایی بالای آتش در تخریب، از اهمیت بالایی برخوردار هستند. روش های سنتی شناسایی آتش که بر مبنای اثرات ناشی از آتش مانند دود و حرارت هستند، در محیط های بزرگ و سرباز کارایی لازم را ندارند. هدف از این مقاله ارائه روشی کارآمد برای تشخیص آتش به کمک تصاویر ویدئویی در محیط های سرباز شهری با تمرکز بر انبار شرکت گاز با هزینه محاسباتی پایین است. در روش پیشنهادی از مولفه رنگ و ویژگی های زمانی و مکانی که خاصیت تفکیک کنندگی بالایی دارند، استفاده شده است. ابتدا نواحی نامزد آتش با کمک مدل رنگی انتخاب و سپس با توجه به تغییرات نامنظم پیوسته شعله آتش در قاب های متوالی و پراکندگی سطوح روشنایی کانال قرمز، نواحی آتش در تصاویر استخراج می‎ شوند. آزمایش های انجام شده حاکی از آن است که روش پیشنهادی علاوه بر این که در نمونه ویدئوهای بررسی شده، قابلیت تشخیص صد درصدی وقوع آتش را در محیط های سرباز شهری دارد، زمان تشخیص را در شرایط  مشابه نسبت به روش مقاله پایه 35/87 درصد کاهش داده است.

    کلید واژگان: تشخیص هوشمند وقوع آتش, تصاویر ویدئویی, پردازش تصویر, زمان تشخیص}
    Faeze Karimi Zarchi, Vali Derhami*, Alimohammad Latif, Ali Ebrahimi

    Nowadays automated early warning systems are essential in human life. One of these systems is fire detection which plays an important role in surveillance and security systems because the fire can spread quickly and cause great damage to an area. Traditional fire detection methods usually are based on smoke and temperature detectors (sensors). These methods cannot work properly in large space and out-door environments. They have high false alarm rates, and to cover the entire area, many smoke or temperature fire detectors are required, that is expensive. Due to the rapid developments in CCTV (Closed Circuit Television) surveillance system in recent years and video processing techniques, there is a big trend to replace conventional fire detection techniques with computer vision-based systems. This new technology can provide more reliable information and can be more cost-effective. The main objective of fire detection systems is high detection accuracy, low error rate and reasonable time detect. The video fire detection technology uses CCD cameras to capture images of the observed scene, which provides abundant and intuitive information for fire detection using image processing algorithms.
    This paper presents an efficient fire detection system which detects fire areas by analyzing the videos that are acquired by surveillance cameras in urban out-door environment, especially in storage of Yazd Gas Company. Proposed method uses color, spatial and temporal information that makes a good distinction between the fire and objects which are similar to the fire.  The purpose is achieved using multi- filter. The first filter separates red color area as a primary fire candidate. The second filter operates based on the difference between fire candidate areas in the sequence of frames. In the last filter, variation of red channel in the candidate area is computed and compared with the threshold which is updating continuously. In the experiments, the performance of these filters are evaluated separately. The proposed final system is a combination of all filters. Experimental results show that the precision of the final proposed system in urban out-door environment is 100%, and our technique achieves the average detection rate of 87.35% which outperforms other base methods.

    Keywords: Fire Detection, Video Sequences, Image Processing, Detection Time}
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال