فهرست مطالب

مهندسی برق و مهندسی کامپیوتر ایران - سال یازدهم شماره 2 (پیاپی 33، زمستان 1392)

نشریه مهندسی برق و مهندسی کامپیوتر ایران
سال یازدهم شماره 2 (پیاپی 33، زمستان 1392)

  • ب - مهندسی کامپیوتر
  • 68 صفحه،
  • تاریخ انتشار: 1393/01/25
  • تعداد عناوین: 8
|
  • مصطفی حیدرزاده، محمد دانایی فر صفحه 65
    در این مقاله ابتدا به تعریف یک معماری بهینه برای FPGA با استفاده از روش های دقیق پرداخته شده و برای نیل به این هدف، جایابی و مسیریابی بهینه با استفاده از برنامه ریزی خطی به طور دقیق تعریف شده است. پس از بازتعریف معماری داخل سلول های منطقی، مدارهای کوانتومی توسط یک الگوریتم مکاشفه ای با هدف استفاده حداکثری از منابع داخل سلول های منطقی و کاهش تاخیر مسیرهایی که کیوبیت ها در مدار طی می کنند، افراز می شوند. نتایج به دست آمده پس از تعریف معماری FPGA نشان می دهد که تاخیر مسیرهای بحرانی در برخی مدارهای کوانتومی به کمتر از نصف کاهش می یابد و تعداد کانال های مصرف شده برای مسیریابی در معماری جدید تا حد قابل توجهی کاهش یافته است. همچنین نتایج نشان می دهد افزایش تعداد ورودی های سلول های منطقی از 12 کیوبیت به 4 کیوبیت، می تواند تعداد کانال های مصرفی و تاخیر مدارها را تا حد زیادی کاهش دهد.
    کلیدواژگان: محاسبات کوانتومی، شبیه سازی مدارهای کوانتومی، همانندسازی مدارهای کوانتومی، گیت های کوانتومی، افراز، جایابی، مسیریابی، معماری QFPGA
  • محمد مهدی میردامادی، علی محمد زارع بیدکی، مهدی رضاییان صفحه 76
    قطعه بندی کلمات و عبارات متن، یکی از فعالیت های اصلی در حوزه پردازش زبان های طبیعی است. اکثر برنامه های پردازش زبان های طبیعی به یک پیش پردازش برای استخراج کلمات متن و تشخیص عبارات احتیاج دارند. هدف اصلی و نهایی قطعه بندی عبارات، به دست آوردن کلمات معنی دار همراه با پیشوندها و پسوندهایشان است و این فعالیت متناسب با زبان های طبیعی مختلف می تواند سخت یا آسان باشد. در زبان فارسی به علت وجود فاصله و نیم فاصله، عدم توجه کاربران به فاصله گذاری ها و نبود قواعد دقیق در نوشتن کلمات چندقسمتی، تشخیص و قطعه بندی کلمات چندقسمتی و مرکب با مشکلات و پیچیدگی های خاص خود روبه رو است.
    در این مقاله برآنیم تا با استفاده از شبکه های عصبی، یک روش آماری برای قطعه بندی عبارات متون فارسی جهت استفاده در موتورهای جستجو ارائه کنیم. الگوریتم پیشنهادی شامل 4 فاز است که با استفاده از احتمال رخداد تک کلمات و دوکلمه ای های موجود در پیکره و با دقت 6/89% عمل قطعه بندی را انجام می دهد. نتایج آزمایشات نشان دادند این روش می تواند با قطعه بندی بهتر عبارات، بهبود نسبی در کارایی روش های معمول به وجود آورد.
    کلیدواژگان: پردازش زبانهای طبیعی، شبکه های عصبی، قطعه بندی، موتور جستجو
  • محمدرضا سهیلی، احسان الله کبیر صفحه 85
    حجم زیاد تصاویر متنی روز به روز مسئله دیجیتالی شدن متن تصاویر و همچنین مسئله جستجو در این منابع را اهمیت می بخشد. در بازشناسی متن های حجیم می توان از ویژگی هایی مانند محدودبودن تعداد و اندازه قلم، یکسان بودن صفحه آرایی در کل صفحه ها، محدودبودن مجموعه واژه ها و حوزه معنایی آنها و یکسان بودن سبک نگارشی در کل متن استفاده کرد. در این مقاله الگوریتمی ارائه شده که از یکسان بودن نوع و اندازه قلم برای خوشه یابی زیرکلمات یک کتاب قدیمی با کیفیت پایین چاپ استفاده شده است. این کتاب 233 صفحه دارد و کل زیرکلمات آن که در حدود 111000 زیرکلمه است جداسازی و برچسب زنی شده است. در این تحقیق از یک روش ساده افزایشی برای خوشه یابی زیرکلمات استفاده شده است. ابتدا برای هر زیرکلمه چهار ویژگی ساده استخراج می شود، در صورتی که تفاوت این ویژگی ها از ویژگی های نماینده یک خوشه کمتر از مقدار آستانه باشد، مقایسه تصویری بین آن دو انجام می شود. به علت زیادبودن تعداد زیرکلمات سعی شده تا از ساده ترین روش های ممکن استفاده شود تا سرعت اجرا افزایش یابد. نتایج آزمایش ها نشان می دهد می توان زیرکلمات را با دقتی در حدود 7/99 درصد خوشه یابی کرد. نتایج این خوشه یابی در مرحله بازشناسی زیرکلمات کمک بسیار زیادی خواهد کرد.
    کلیدواژگان: تحلیل اسناد تصویری، بازشناسی متون حجیم، خوشه یابی افزایشی، جداسازی، مجموعه داده
  • مهدی عالمی، مصطفی حق جو صفحه 94
    در سیستم های مدیریت جریان داده، داده های جریانی وارد سیستم می شوند و پرس و جوهای ذخیره شده بر روی این داده ها اجرا می شوند. با توجه به بار کاری بالا نیاز به ظرفیت پردازشی بالا است و استفاده از چندپردازنده باید در نظر گرفته شود. همچنین در سیستم های بی درنگ پرس و جوها تحت مهلت مشخصی باید کار خود را به اتمام برساند. از رویکردهای موجود در زمان بندی چندپردازنده ای بی درنگ رویکرد افرازی است که هر پرس و جو با توجه به بهره وری که نسبت زمان اجرا به دوره است به پردازنده ها انتساب داده می شود و فقط در آن اجرا می شود. برای نزدیک شدن به جواب بهینه در اینجا پرس و جوهایی که در یک پردازنده جا نمی گیرند بر اساس بهره وری شکسته می شوند و در بین پردازنده ها پخش می شوند. این سیستم با داده های واقعی شبکه تست شده است. مقایسه ها نشان می دهد که رویکرد مورد نظر توانسته است نسبت به رویکرد افرازی ساده میزان از دست رفتن مهلت ها را کاهش دهد و میزان بهره وری سیستم را بالا ببرد.
    کلیدواژگان: توزیع بار، چند پردازنده، زمان بندی بی درنگ، افزاری، بهره وری
  • غلامرضا نادعلی نیا چاری، خشایار یغمایی، حامد فضل اللهی آقاملک، سید محمد رضوی صفحه 103
    در این مقاله یک سیستم بازشناسی کلمات فارسی معرفی می شود که از خودهمبستگی محلی مرتبه بالای تصویر قطبی- لگاریتمی برای استخراج ویژگی از زیرکلمات فارسی استفاده می کند. این شیوه استخراج ویژگی باعث می شود سیستم در مقابل تغییرات نگارشی مانند تغییر مقیاس های خطی و چرخش مقاوم شود. همچنین به کمک تبدیل قطبی- لگاریتمی، نمونه برداری از تصویر زیرکلمه به صورتی انجام شده که بیشترین نمونه ها در یک ناحیه خاص متمرکز باشد. در روش ارائه شده از مدل مخفی مارکوف گسسته به عنوان طبقه بند و همچنین برای افزایش امنیت و دقت خروجی سیستم بازشناسی از یک شبکه واژه نامه استفاده شده و برای ارزیابی سیستم از پایگاه داده ایران شهر استفاده شده بود. مقایسه نتایج حاصل از روش پیشنهادی با نتایج سایر روش های استخراج ویژگی موید این است که سیستم بازشناسی پیشنهاد شده در این مقاله از حساسیت کمتری نسبت به تغییرات نگارشی برخوردار است.
    کلیدواژگان: تبدیل قطبی، لگاریتمی، مدل مخفی مارکوف، بازشناسی کلمات دست نویس فارسی
  • نگین قاسمی، پیمان معلم، محمد فرزان صباحی صفحه 111
    در بحث ردیابی یکی از ویژگی های قابل توجه برای توصیف هدف، ویژگی رنگ است. به کمک هیستوگرام رنگ می توان مدل مناسبی برای هدف در نظر گرفت و خطای متغیر اندازه گیری را با فاصله باتاچاریا بین هیستوگرام مرجع و هیستوگرام تصویر داوطلب بیان نمود. مکان هدف با تخمین گر قوی فیلترهای ذره ای تعیین شده و تبدیل افاین دوبعدی هدف به عنوان حالت سیستم لحاظ می شود. در نظر گرفتن ویژگی های هندسی حرکت افاین به صورت گروه افاین باعث می شود نگاشت دوبعدی حرکت شیء هدف به مدل سه بعدی واقعی آن نزدیک تر باشد. تقریب تابع نمونه برداری بهینه فیلتر ذره ای از بسط تیلور تابع باتاچاریا حاصل می شود. نتایج آزمایش ها دقت بالا و مقاومت ردیاب پیشنهادی را در برابر حرکت سریع و پیچیده هدف نسبت به الگوریتم فیلتر ذره ای هندسی سطح خاکستری نشان می دهد.
    کلیدواژگان: حرکت افاین، ردیابی تصویر، فیلتر ذره ای هندسی، گروه لی، هیستوگرام رنگ
  • مریم بسیج، محمدرضا یزدچی، پیمان معلم، آرش تاکی صفحه 119
    تصویر برداری فراصوت داخل عروقی (IVUS)، به منظور دریافت اطلاعات دقیق تری از اندازه و جنس پلا ک های تشکیل شده داخل عروق کرونری نسبت به آنژیوگرافی انجام می شود. گاهی در این تصاویر مناطقی تاریک در پشت پلاک های کلسیم تشکیل می شود که پردازش این تصاویر را مشکل می سازد. این مقاله به ارائه یک روش جدید جهت تشخیص و مرزبندی سایه ها در تصاویر IVUS می پردازد. در الگوریتم پیشنهادی از آستانه گذاری اتسو جهت شناسایی محل تشکیل سایه و از کانتور های فعال جهت تشخیص مرز ها در این ناحیه استفاده می شود. بر طبق آزمایش انجام شده روی 30 تصویر نمونه، این الگوریتم با حساسیتی برابر با 86% به درستی قادر به تشخیص مناطق سایه دار می باشد.
    کلیدواژگان: آستانه گذاری اتسو، تصویربرداری فراصوت داخل عروقی، تشخیص سایه، کانتورهای فعال
  • تقدیر و تشکر
    صفحه 126
|
  • M. Heidarzadeh, M. Danaee Far Page 65
    This paper defines an optimal architecture for the FPGA using exact methods. In order to achieve this goal, optimal placement and routing solutions are found using the integer linear programming techniques. After redefining the internal architecture of the logic blocks, quantum circuits are partitioned by a heuristic algorithm in order to reach maximum utilization of the resources inside logic blocks and minimum delay of the paths traversed by the q-bits in the circuit.Experimental results show that FPGA architecture modifications can result in the reduction of the delay of critical paths of circuits by up to half in some cases and in a considerable reduction of the number of channels used for routing. Furthermore, the results show that defining the logic blocks with 12 q-bits instead of 4 q-bits can decrease circuits delay and the number of used channels to a large extent.
  • M. M. Mirdamadi, A. M. Zareh Bidoki, M. R Page 76
    Word and phrase segmentation is one of the main activities in natural languages processing (NLP). Many programs in NLP need to be preprocessed for extraction of text’s words and distinction phrases. Getting meaningful words with their prefix and suffix is the main and the final goal of segmentation. This activity depends on various natural languages can be easy or hard. Persian is among the languages with complex preprocessing tasks. One of the complexity sources is handling different writing scripts. In written Persian texts, we have two kinds of spaces: short space and white space. Also there are various scripts for writing Persian texts, differing in the style of writing words, using or elimination of spaces within or between words, using various forms of characters and so on.In this paper, we want to suggest a statistical method for phrase segmentation on Persian texts using neural networks due to using in search engines. For this purpose, we use occurrence likelihood of uniwords and biwords in corpus. The suggested algorithm includes four steps and could detect about 89.6% of correct tokens. Experimental results show this method can improve the performance of the usual methods.
  • M. R. Soheili, E. Kabir Page 85
    Due to the rapid growth of digital libraries, digitizing large documents has become an important topic. In a quite long book, similar characters, sub-words and words will occur many times. In this paper, we propose a sub-word image clustering method for the applications dealing with large uniform documents. We assumed that the whole document is printed in a single font and print quality is not good. To test our method, we created a dataset of all sub-words of a Farsi book. The book has 233 pages with more than 111000 sub-words manually labeled. We use an incremental clustering algorithm. Four simple features are extracted from each sub-word and compared with the corresponding features of each cluster center. If all feature's differences lie within certain thresholds, the sub-word and the winner cluster center are finely compared using a template matching algorithm. In our experiments, we show that all sub-words of the book are recognized with more than 99.7% accuracy by assigning the label of each cluster center to all of its members.
  • M. Alemi, M. Haghjoo Page 94
    In data stream management systems as long as streams of data arrive to the system, stored queries are executed on these data. Regarding high workload, high processing capacity is required, leading to consider multiple processors to cope with it. Partitioning approach, one of the main methods in multiprocessor real-time scheduling, bind each query to one of processors based on its utilization, ratio of estimated execution time to period, and instances of each query which should be completed under defined deadline can only be executed on specified processor. Each query which could not be assigned to any processor can be split based on utilization of processors and spread among them, causing to get closer to optimum result. This system has been examined with real network data, showing lower miss ratio and higher utilization in comparison to simple partitioning approach.
  • Q. Nadalinia Charei, K. Yaghmaie, H. Fazlollahi Aghamalek, S. M. Razavi Page 103
    In this paper a recognition system for Persian words is introduced which utilizes the local higher order of the log-polar image autocorrelation for feature extraction of Persian sub-words. This feature extraction technique brings up leads to a system robustness in cases of writing variations alteration like scaled or rotated handwritings. Also using the log-polar transform, the sub-word image sampling will be performed so that most of acquired samples will be centered in a certain area. The proposed method uses the discrete Hidden Markov’s Model (HMM) as a classifier. Furthermore a net of dictionaries were employed to increase the reliability and precision of the system output. Finally, the Iran-Shahr database is utilized to evaluate the system performance. Comparing the results of the proposed method and other previous methods, proves that a less sensitivity has been achieved by the proposed method about handwriting variations.
  • N. Ghasemi, P. Moallem, M. F. Sabahi Page 111
    Color is an important feature to describe object in visual tracking. Color-based histogram is used to model the object properly and Bhattacharya distance is also used to measure the error between reference and candidate histogram. Particles filter estimate position of target while two-dimension affine transformation is used as state of the system. Considering geometric properties of affine transformation as affine group cause two-dimensional mapping of the object to be closer to the real three-dimensional model. Approximation of optimal importance function of particles filter is obtained from Taylor expansion of Bhattacharya distance. Experiments show the accuracy and stability of the proposed tracker for fast and complex movement of a color target versus the gray level geometric particle filtering algorithm.
  • M. Basij, M. Yazdchi, P. Moallem, A. Taki Page 119
    Intra vascular imaging is used for extracting more accurate information about the size and characteristics of plaques than coronary angiography. Sometimes shadows appear behind the calcification plaques that it makes some problem to process these images automatically. This paper describes a new approach for shadows region and border detection in Intra Vascular Ultrasound images. In the proposed algorithm, Otsu thresholding is utilized for identification of shadows location and the Active contours without edge is used for shadows border detection. According to experiments conducted on 30 samples, this proposed algorithm can able to detect shadow regions correctly with sensitivity of 86%.