فهرست مطالب

ماشین بینایی و پردازش تصویر - سال چهارم شماره 1 (بهار و تابستان 1396)

نشریه ماشین بینایی و پردازش تصویر
سال چهارم شماره 1 (بهار و تابستان 1396)

  • تاریخ انتشار: 1396/05/14
  • تعداد عناوین: 6
|
  • فریبا عباسی، رضا ابراهیم پور، کریم رجایی صفحات 1-16
    قرار گرفتن شیء در پس زمینه باعث پیچیده شدن مسئله ی بازشناسی اشیاء و درنتیجه افت عملکرد مدل های محاسباتی بینایی می شود. درحالی که انسان ها علی رغم این پیچیدگی، شیء هدف را با دقت و سرعت زیادی که متاثر از ارتباطات جانبی و بازخورد از نواحی بالاتر بینایی است بازشناسی می کنند.
    یکی از مدل های بینایی که اخیرا به عملکرد چشمگیری در بازشناسی اشیاء دست یافته است، شبکه عصبی کانولوشنی است که مسیر پیش خور بینایی را شبیه سازی می کند. در این مقاله مدلی بازگشتی بر پایه ی این مدل و با الهام از یافته های بیولوژیک ارائه شده است که شامل اتصال های بازخوردی از نواحی بالاتر و همچنین اتصال های جانبی در همان لایه است. برای ارزیابی مدل از مجموعه داده ی پنج دسته ای، شامل تصاویر دارای پس زمینه و بدون پس زمینه، استفاده شد. با بصری سازی بازنمایی هایی ایجادشده در لایه های مدل مشاهده شد که با پیش روی در لایه های مدل، پس زمینه ی بیشتری از تصویر ورودی حذف می شود. سپس با انجام آزمایش هایی نشان داده شد که مدل بازگشتی با سازوکارهایپیشنهادی بازخورد از نواحی بالاتر و سرکوب پیرامون باعث بهبود معنی دار عملکرد مدل، در حذف پس زمینه ی شیء هدف و درنتیجه بازشناسی اشیاء می شود. با توجه به نتایج، در حالتی که هر دو سازوکار پیشنهادی همزمان به مدل افزوده شدند، این افزایش عملکرد بیشتر بود که این یافته با شواهد بیولوژیک نیز تطابق دارد.
    کلیدواژگان: جداسازی شیء هدف از پس زمینه، شبکه های عصبی کانولوشنی، مدل های محاسباتی بینایی، بازخورد، ارتباطات جانبی
  • علیرضا پورمحمدعلی، مریم پور محی آبادی، حسین نظام آبادی پور صفحات 17-28
    با پنهان سازی بیت های محرمانه در یک سیستم نهان نگاری تصویر، تصاویر حامل اطلاعات محرمانه دچار اعوجاج می شوند. این امر منجر به احتمال ظن دشمن به وجود پیام محرمانه در این تصاویر می شود. جاسازی ماتریسی از طریق تقسیم تصویر پوششی به بلوک های با طول مشخص و اعمال تغییرات محدود در هر بلوک، به کاهش اعوجاج ناشی از پنهان سازی اطلاعات محرمانه کمک می کند. با این حال، استفاده از این ساختار منجر به محدود شدن ظرفیت اطلاعات قابل پنهان سازی در تصاویر پوششی می شود. در این مقاله، ظرفیت سیستم جاسازی ماتریسی از طریق اصلاح روش فن افزایش می یابد. با افزایش حداکثر تعداد تغییرات در یک بلوک به ازای پنهان سازی تعداد بیت محرمانه مشخص در هر بلوک، طول بلوک تصویر پوششی کاهش یافته و از این رو، نرخ جاسازی افزایش می یابد. همچنین به ازای ظرفیت یکسان، اعوجاج کاهش و بازده جاسازی افزایش می یابد. در این روش، تصاویر حامل با کیفیت مطلوب و PSNR بالا حاصل می شود. از طرفی، روش پیشنهادی منجر به افزایش مقاومت در برابر پنهان شکنی می شود. این امر، احتمال ظن دشمن به وجود پیام محرمانه در تصاویر حامل را کاهش داده و امنیت را افزایش می دهد. نتایج شبیه سازی، حاکی از عملکرد مناسب روش پیشنهادی در مقایسه با سایر روش های موجود در این زمینه است.
    کلیدواژگان: نهان نگاری، جاسازی ماتریسی، نرخ جاسازی، بازده جاسازی، پنهان شکنی، PSNR
  • محسن بیگلری، علی سلیمانی، حمید حسن پور صفحات 29-39
    پس از موضوعاتی چون تشخیص مکان خودرو و شناسایی گروه کلی خودرو، شناسایی نوع و مدل دقیق وسیله نقلیه (VMMR) در دهه ی اخیر در مرکز توجه محققین قرار گرفته است. این مسئله به دلیل وجود تعداد کلاس های زیاد و شباهت بسیار زیاد این کلاس ها به یکدیگر، از مسائل طبقه بندی دشوار به حساب می آید. در این مقاله، روشی برای شناسایی نوع و مدل وسیله نقلیه پیشنهاد شده است.روش پیشنهادی شامل دو بخش است. ارائه ی رویکردی جدید برای شناسایی نوع و مدل وسیله نقلیه و ارائه ی روشی برای پیاده سازی این رویکرد. رویکرد پیشنهادی با تمرکز بر بخش های تشکیل دهنده ی خودرو از قبیل چراغ ها، جلوپنجره و نشان واره به طبقه بندی کلاس های مختلف وسیله نقلیه می پردازد. برای پیاده سازی این رویکرد، یک مدل مبتنی بر بخش را با استفاده از الگوریتم ماشین بردار پشتیبان مخفی (Latent SVM) آموزش داده ایم. این مدل قادر به استخراج پنج بخش برای هر خودرو است. توصیفگر هیستوگرام گرادیان های جهت دار برای استخراج ویژگی و ماشین بردار پشتیبان برای طبقه بندی به کار گرفته شده اند. برای آزمایش رویکرد مورد اشاره، مجموعه داده ای متشکل از 720 تصویر از نمای جلو و پشت 21 کلاس مختلف از خودروها جمع آوری شده و تمامی بخش های آن ها هم به صورت دستی و هم به صورت خودکار علامت گذاری و استخراج گشته اند. نتایج آزمایشات انجام شده بر روی این تصاویر، در درجه اول، برتری رویکرد مبتنی بر بخش را نسبت به رویکردهای پیشین نشان می دهد؛ و در درجه دوم، نزدیکی دقت روش علامت گذاری خودکار به روش دستی را اثبات می کند. روش پیشنهادی موفق به کسب دقت 100% بر روی نمای جلو و پشت شده است.
    کلیدواژگان: شناسایی نوع و مدل وسیله نقلیه، VMMR، رویکرد مبتنی بر بخش، استخراج خودکار بخش ها
  • فرزین یغمایی صفحات 41-55
    تولید کلمات در زبان فارسی و ساخت دستخط به کمک اتصال حروف دست نوشته، یکی از موضوعات جالب و کاربردی می باشد، به طوری که راهبردهای جدیدی را در زمینه تشخیص حروف دست نویس فارسی و همچنین تصدیق صحت دستخط افراد مختلف، مشخص می کند. در این مقاله به ساخت دستخط افراد از دستخط های قبلی آنها بر اساس اتصال حروف، پرداخته شده است. برای این منظور در ابتدا به کمک استخراج نقاط کنترلی حروف فارسی، برخی از عادت های نوشتاری نویسنده تشخیص داده شده، سپس دسته بندی مشخصی از نحوه نوشتن کلمات و اتصال حروف نویسنده به دست می آید. الگوریتم ساخت کلمات به کمک اتصال حروف، با استفاده از روش های تقریب توابع و درونیابی با درجه های مختلف و در گام های متوالی ارائه می گردد که استفاده از این روش در ساخت کلمات، برای هرچه طبیعی تر شدن کلمه ساخته شده و مشابهت به دستخط واقعی نویسنده مفید می باشد. نتایج ارزیابی کلمات و قطعات ساخته شده با این روش نشان می دهد که تقریبا میانگین 80 درصد شباهت با دستخط واقعی نویسنده بدست آمده است.
    کلیدواژگان: سنتز، دستخط های فارسی، اتصال حروف، نقاط کنترلی، درونیابی
  • زهرا یک کلام، فرح ترکمنی آذر صفحات 57-69
    تحلیل مولفه های اصلی یکی از روش هایی است که در پردازش اطلاعات و کاهش ابعاد مجموعه داده موفق عمل کرده است؛ اما در زمان اعمال این الگوریتم به تصاویر، بایستی آن ها را به شکل یک بردار درآورد که سبب از بین رفتن همبستگی مکانی پیکسل های مجاور می گردد. برای حل این مشکل، تحلیل مولفه های اصلی دوبعدی مطرح شده که فرآیند تبدیل تصویر به بردار را نیاز ندارد. نکته ی دیگر، تنک نبودن بردارهای پایه ی تحلیل مولفه های اصلی و هم ارزش نبودن تمامی آنان است. اخیرا تحلیل مولفه های اصلی تنک مطرح گردیده که با حفظ خواص تحلیل مولفه های اصلی استاندارد، سعی می کند تعداد زیادی از درایه های بردارهای پایه را صفر کند. در این مقاله تحلیل مولفه های اصلی دوبعدی تنک جهت بهره گیری همزمان از دو الگوریتم فوق بررسی خواهد شد.
    الگوریتم Least Angle Regression- Elastic Net با استفاده از قید نرم یک و نرم دو، محاسبه ی مولفه های اصلی یک بعدی تنک را محقق می سازد. در این مقاله با اندک تغییراتی در ورودی الگوریتم مذکور، حالت دوبعدی آن را تحقق می بخشیم. عملکرد تحلیل مولفه های اصلی دوبعدی تنک جهت فشرده سازی یک تصویرکه به بلوک های 8×8 تقسیم گردیده، ارزیابی شده و در مقایسه با عملکرد تحلیل مولفه های اصلی دوبعدی، نتایج مناسبی بدست آمده است. همچنین با استفاده از ماتریس کوواریانس بلوک های 8×8 از 60 تصویر متفاوت، مولفه های اصلی دوبعدی تنک به گونه ای محاسبه گردیده که امکان استفاده از آن ها برای هر تصویر آزمون دیگری میسر می باشد.
    کلیدواژگان: کاهش ابعاد تصاویر، تحلیل مولفه های اصلی دوبعدی، تحلیل مولفه های اصلی تنک، تحلیل مولفه های اصلی دوبعدی تنک
  • ملیحه مردانپور، محمد علی زارع چاهوکی، حسین جوانشیری صفحات 71-87
    با پیشرفت فناوری، دستکاری و انتشار رسانه های رقومی مانند عکس، صوت و ویدئو به به سرعت در حال گسترش است. این روند سبب شده است تا مشکلاتی مانند کپی غیرمجاز نیز اهمیت بیشتری پیدا کند. نشانه گذاری روشی برای حفاظت از حق نشر و یا انتقال پنهان اطلاعات است. استفاده از تبدیل موجک به دلیل توانایی خوب آن در مدلسازی سیستم بینایی انسان رویکرد مناسبی در انواع روش های نشانه گذاری می باشد. تبدیل های توسعه یافته موجک نیز همچون تبدیل موجک در انواع کاربرد های پردازش تصویر به کار گرفته شده اند و نتایج خوبی از آن ها گزارش شده است. تاکنون پژوهشی متمرکز در حوزه اثربخشی موجک های توسعه یافته بر مقاومت نشانه گذاری ارائه نشده است. در این مقاله تاثیر توسعه های تبدیل موجک در حمله های مختلف بررسی شده است. بدین منظور چارچوبی عمومی مبتنی بر تجزیه ماتریسی مقدار تکین دوقطری، برای جاسازی و استخراج نشانه پیشنهاد می شود. در آزمایش های صورت گرفته طیف گسترده ای از انواع حمله ها جهت آزمون مقاومت نشانه گذاری استفاده شده است. نتایج بدست آمده نشان می دهند که موجک های سنتی مقاومت خوبی مقابل حمله هایی نظیر فشرده سازی و نویز ها دارند اما در برابر حمله های هندسی مانند دوران و قیچی کردن مقاومت کمتری دارند. درعوض توسعه های موجک گسسته چندجهته برخلاف موجک سنتی مقاومت بهتری در برابر حمله های هندسی دارند.
    کلیدواژگان: نشانه گذاری رقومی، تبدیل موجک، توسعه های تبدیل موجک، تجزیه ماتریسی
|
  • Fariba Abbasi, Reza Ebrahimpour, Karim Rajaee Pages 1-16
    Object recognition in cluttered background is a challenging problem in computational modeling. When objects are present on natural backgrounds, the performance of object recognition models drop significantly. However, humans recognize objects accurately and swiftly despite this challenging condition. It seems that, our visual system achieves this ability based on lateral connections and feedback connections from higher areas.
    One of the computational object recognition models that recently has achieved a remarkable performance in object recognition is convolutional neural network (CNN). It resembles feed-forward sweep of visual information processing. In this study, based on CNNs and inspired by biological evidence we proposed a recurrent object recognition model. The model simulates recurrent dynamics of visual object processing by implementing feedback and lateral connections. Evaluating the model to recognize objects on natural background, we showed that the proposed mechanisms significantly improves performance. In addition, visualizing the representations of layers indicatedthat deeper layers of the CNNs remove the background much better than the lower layers. According to the results, using both mechanisms -the feedback from higher layers and the interlayer surround suppression mechanisms- simultaneously in structure of CNN, the performance improvement was more than when either one was usedalone. This observation is in accordance withthe biological evidence from the human visual system.
    Keywords: figure-ground segregation, convolutional neural networks, computational modelsof vision, feedback, lateral connections
  • Alireza Pourmohammadali, Maryam Pourmahyabadi, Hossein Nezamabadi-Pour Pages 17-28
    In the image stegenography, the distortion of stego image will be increased by increasing the number of embedded bits and this makes the enemy be much more suspicious about the existence of secret information in the images. One can use the matrix embedding technique to alleviatethis problem which can be done by dividing the cover image into some blocks and limiting the changes in each block.However, the embedding capacity will be limited by this technique. In this article, a solution to this problem (limited embedding capacity), a modified version of Fan’s method, is presented.In this technique, the maximum number of changes in each block is chosen to be 2 instead of 1 in Fan’s technique which leads to reducing the blocks length and increasing the embedding capacity.The results revealed that for a given capacity, the stego image distortion is decreased and the embedding capacity is increased in compared with the other existing methods in this field. Also, thestego images have high PSNR along with high vision quality which leads to more security.
    Keywords: Embedding rate, Embedding efficiency, Matrix embedding, PSNR, Steganalysis, Steganography
  • Mohsen Biglari, Ali Soleimani, Hamid Hassanpour Pages 29-39
    After vehicle detection and vehicle type recognition, it is vehicle make and model recognition (VMMR) that has attracted researchers attention in the last decade. This problem is known as a hard classification problem due to the large number of classes and small inner-class distance. This paper is proposed a new method for recognition of make and model of vehicles.
    The proposed approach has two parts. A new part-based approach for vehicle make and model recognition and a new method for auto extraction of parts. This approach concentrates on meaningful parts of vehicle like lights, grilles and logo for classification of different classes. The Histogram of Oriented Gradients (HOG) and Support Vector Machine (SVM) have been used for feature extraction and classification tasks respectively. For evaluation purposes, a dataset including 720 images from frontal and rear view of21 different classes of vehicles have been prepared and fully annotated based on their parts. The experimental results showed the effectiveness of the part-based approach in compare to the traditional approaches and the high accuracy gained from auto extracted parts. The proposed method achieved 100% accuracy on both frontal and rear view.
    Keywords: Object Recognition, Object Classification, Vehicle Make, Model Recognition (VMMR), Part-based Approach, Auto Extraction of Parts
  • Farzin Yaghmaee Pages 41-55
    Word synthesis and generating Persian handwriting documents is an interesting topic and can help to improving the results in similar fields such as writer identification and Optical Character Recognition. In this paper we propose a new method to create automatic handwriting words based on previous author’s writing. For this propose at first some control points are defined on Persian characters. After that interpolation is used for connecting isolated characters. Different interpolationfunctions are used to creating natural handwriting based on different forms of characters connection and their locations.Mean opinion scores show that our synthesis words have about 80% similarity with writer handwriting documents.
    Keywords: Handwriting Synthesis, Letter Connecting, Checkpoint, interpolation
  • Zahra Yekkalam, Farah Torkamani-Azar Pages 57-69
    The principal component analysis (PCA) is one of the procedures that have been a successful performance in signal processing and dimension reduction of the signals. However, a requirement in applying PCA to the images is converting images into a vector. This process leads to loss spatial locality information. To solve this problem, the two-dimensional PCA was proposed. Also, most recently the sparse principal component was introduced that not only keep the properties of standard PCA but also try to make a lot of elements of the basis vectors to zero. In this paper, inspired by the above two ideas, the two-dimensional sparse principal component analysis (2-D. SPCA) is proposed.
    In this paper, the Least Angle Regression- Elastic Net formula, in addition, using l1 and l2 constraints is extended to two-dimensional model with a few minor changes in its input to approach 2-D. SPCA.
    The two-dimensional sparse principal component analysis is evaluated in image compression. Before applying the algorithm, the image is divided into several blocks with resolution 8×8 and a database of these blocks is formed. Comparison the performance of 2-D. SPCA and Discrete Cosine transform, for the same number of elements that are necessary to save the image after the conversion shows the good performance of the proposed algorithm. In addition, the proposed algorithm is applied to 8×8 blocks of 60 images with different textures, and the resulted two-dimensional sparse principal components could be used for other test images with a suitable performance.
    Keywords: Two-Dimensional Principal Component Analysis, Sparse Principal Component Analysis, Two-Dimensional Sparse Principal Component Analysis, Image Compression, Dimension Reduction
  • Malihe Mardanpour, Mohammad Ali Zare Chahooki, Hossein Javanshiri Pages 71-87
    With advance of technology, manipulation and distribution of digital media such as image, audio and video has been widespread explosively. This causes problems like unauthorized copy being more important. Watermarking is a method for copyright protection and hidden information transfer. Wavelet transform has good functionality in various watermarking methods because of its good ability of modeling human visual system. Wavelet transform extensions like basic wavelet are utilized in variety applications of image processing and good results have been reported from them. No comprehensive research has been done in efficiency of extended wavelets on watermarking robustness. In this paper efficiency of wavelet transform extensions is investigated in different attacks. For this purpose a general framework is proposed for embedding and watermark extraction based on bidiagonal singular value factorization. Results show classic wavelets have good robustness against attacks like compression and noises, but they have less robustness against geometric attacks such as rotation and shearing. Unlike classic wavelets, multidirectional wavelet extensions are robust in geometrical attacks.
    Keywords: digital watermarking, Wavelet Transform, extensions of wavelet transform, matrix factorization