فهرست مطالب

مهندسی برق و مهندسی کامپیوتر ایران - سال پانزدهم شماره 2 (پیاپی 43، تابستان 1396)

نشریه مهندسی برق و مهندسی کامپیوتر ایران
سال پانزدهم شماره 2 (پیاپی 43، تابستان 1396)

  • ب - مهندسی کامپیوتر
  • تاریخ انتشار: 1396/06/30
  • تعداد عناوین: 8
|
  • سیدمصطفی شفایی، سیدمجید شفایی صفحات 85-101
    پایگاه داده تحلیلی، پشتیبانی از داده های خارجی را که به صورت پویا بعد از ساخت و طراحی پایگاه داده تحلیلی مورد نیاز است مهیا نمی کند. از این رو تحلیل گر برای انجام تحلیل های موثر خود نیازمند پیداکردن همبستگی میان داده های خارجی و پایگاه داده تحلیلی است و در مواقعی نیز نیازمند مقایسه بین هر دو داده پایگاه داده تحلیلی و داده های خارجی با یکدیگر می باشد. همچنین تحلیل گر مجبور است که برای برخی از موقعیت های تکراری کارهای گذشته را تکرار کند که این کارها شامل اصطلاحات، ایجاد معیارها و مقایسه می باشد. برای فارغ شدن از این مسایل در این مقاله تلاش شده که یک معماری تقریبا بی درنگ مبتنی بر هستان شناسی پیشنهاد شود. علاوه بر این الگوریتمی نیز جهت کاهش زمان پاسخ دهی به پرس و جوهای تحلیلی کاربران با استفاده از دیدهای ذخیره شده و پردازش موازی پیشنهاد می شود. نمونه های مطالعاتی به منظور نشان دادن نحوه ایجاد همبستگی میان داده های خارجی با داده پایگاه داده تحلیلی صورت گرفت و نتایج به دست آمده کشف همبستگی میان داده های خارجی و داده پایگاه داده تحلیلی را نشان می دهد. در آزمایش ها استفاده از دیدهای ذخیره شده در دو رویکرد مستقیم و والد در پایگاه داده تحلیلی معماری موجود، باعث کاهش زمان پاسخ دهی به پرس و جوهای ترتیبی، مقایسه ای و ترکیبی موازی کاربران می شود.
    کلیدواژگان: پایگاه داده تحلیلی تقریبا بی درنگ، هستان شناسی، داده خارجی، پرس و جوی مقایسه ای، پرس و جوی ترتیبی، دید ذخیره شده
  • منصور فاتح *، احسان الله کبیر صفحات 102-112
    در الگوریتم های کاهش رنگ، نتیجه کار به صورت دیداری یا بر اساس معیارهای کیفی بررسی می شوند. ارزیابی بدون در نظر گرفتن معیارهای کمی، ارزیابی جامع و دقیقی نیست و سلیقه بیننده در ارزیابی بسیار تاثیرگذار است. در برخی از مقالات، نتیجه کار با معیار MSE ارزیابی می شود. در این معیار تفاوت میان رنگ پیکسل های تصویر نتیجه با تصویر اولیه به عنوان خطا در نظر گرفته می شود که روش مناسبی برای ارزیابی روش های کاهش رنگ نیست. در کاهش رنگ تصاویر، اگر یک رنگ به طور کامل با رنگی نزدیک به رنگ اصلی جایگزین شود، خطا محسوب نمی شود. اگر این جایگزینی ها برای تمام پیکسل های آن رنگ رخ ندهد خطایی در کاهش رنگ اتفاق افتاده است. یکی نبودن رنگ های حاصل از اعمال الگوریتم کاهش رنگ با رنگ های مطلوب باید در ارائه معیار ارزیابی لحاظ شود که در معیار MSE لحاظ نمی شود. در برخی از کاربردهای کاهش رنگ مانند کاهش رنگ در نقشه های فرش، رنگ مطلوب پیکسل نهایی مشخص است و ارائه رنگ نادرست خطا محسوب می شود. از این رو در این گونه از کاربردها، امکان ارزیابی کمی بر اساس رنگ نهایی هر پیکسل وجود دارد. با ارائه معیاری برای ارزیابی کمی، سلیقه بیننده در ارزیابی لحاظ نمی شود و امکان مقایسه دقیق الگوریتم های کاهش رنگ فراهم می شود. در این مقاله به ارائه معیاری کمی برای ارزیابی الگوریتم های کاهش رنگ پرداخته شده و در صورت مشخص بودن رنگ مطلوب پیکسل های نهایی، این معیار کارا است. برای نشان دادن کارایی معیار ارزیابی کمی، یکی از کاربردهای کاهش رنگ یعنی کاهش رنگ در نقشه های فرش بررسی شده است. چندین روش کاهش رنگ با معیار ارزیابی پیشنهادی سنجیده شده اند و الگوریتم [42] به دلیل تناسب با کاربرد، کمترین خطای کمی را داشته است.
    کلیدواژگان: کاهش رنگ، ارزیابی کمی، ارزیابی کیفی، C، میانگین، نقشه فرش
  • علی رفیعی *، سید مرتضی موسوی صفحات 113-124
    الگوریتم غذایابی باکتری یکی از الگوریتم های بهینه سازی مبتنی بر جمعیت است که برای حل مسایل جستجو در شاخه های مختلف علوم استفاده می شود. یکی از مواردی که امروزه مورد توجه قرار گرفته است قابلیت اجرای موازی الگوریتم های بهینه سازی مبتنی بر جمعیت در پردازنده های گرافیکی است. با توجه به سرعت پایین الگوریتم بهینه سازی غذایابی باکتری در مواجهه با مسایل پیچیده و همچنین عدم توانایی حل مسایل با ابعاد بزرگ توسط این الگوریتم، اجرای آن بر روی پردازنده های گرافیکی یک راه حل مناسب برای پوشش نقاط ضعف این الگوریتم می باشد. در این نوشته ما یک نسخه موازی از الگوریتم بهینه سازی غذایابی باکتری ارائه دادیم که قابلیت اجرا در پردازنده های گرافیکی و با استفاده از طراحی کودا را دارد. همچنین کارایی این الگوریتم را با استفاده از تعدادی از مسایل شناخته شده بهینه سازی در مقایسه با الگوریتم استاندارد بهینه سازی غذایابی باکتری مورد ارزیابی قرار دادیم. نتایج نشان می دهد که الگوریتم موازی غذایابی باکتری نسبت به الگوریتم استاندارد غذایابی باکتری دارای سرعت و کارایی بالاتری می باشد.
    کلیدواژگان: الگوریتم مبتنی بر جمعیت، الگوریتم موازی غذایابی باکتری، کودا، واحد پردازش گرافیکی
  • عزیز کرمیانی، عسگرعلی بویر * صفحات 125-134
    کشف و ردیابی اشیای متحرک گامی اساسی در تجزیه و تحلیل ویدئو می باشد. در این مقاله روشی جدید را برای ردیابی هم زمان چندین شیء متحرک در حوزه دید دوربین ثابت ارائه خواهیم کرد. در روش پیشنهادی مکان اشیای متحرک موجود در حوزه دید دوربین را در هر مرحله و با استفاده از اطلاعات حرکت موجود بین دو فریم متوالی شامل فریم قبلی و فریم جاری از نظر زمانی تعیین می کنیم. در هر مرحله نقاط ویژگی Sift را روی فریم قبلی استخراج کرده و تناظر این نقاط ویژگی را با استفاده از الگوریتم تناظریابی نقاط کلیدی KLT روی فریم جاری به دست می آوریم. در ادامه و با در اختیار داشتن نقاط ویژگی متناظر بین دو فریم متوالی، اندازه حرکت نقاط ویژگی را محاسبه کرده و با حذف نقاط ویژگی با جابه جایی ثابت و یا ناچیز، نقاط ویژگی مرتبط به اشیای متحرک را کشف خواهیم کرد. سپس نقاط ویژگی برچسب گذاری شده به عنوان اشیای متحرک را با استفاده از الگوریتم خوشه بندی DBSCAN به خوشه های مختلف به عنوان اشیای متحرک دسته بندی می کنیم. با این روش و در هر لحظه مکان تمامی اشیای متحرک موجود در حوزه دید دوربین به دست آمده که با تناظریابی یک به یک بین این اشیا و اشیای به دست آمده در فریم قبلی مکان جدید هر شیء را تعیین می کنیم. نتایج روش پیشنهادی حاکی از دقت بالا و زمان مصرفی قابل قبول برای ردیابی اشیای متحرک می باشد. روش پیشنهادی دارای دقت 95% برای ردیابی اشیای متحرک بوده و در هر ثانیه 33 فریم را پردازش می کند که در مقایسه با روش های معمول از نظر دقت و سرعت عملکرد مطلوبی دارد.
    کلیدواژگان: اشیای متحرک، ردیابی، DBSCAN، KLT، SIFT
  • زینب موحدی *، ایوب کریمی صفحات 135-144
    در سال های اخیر فناوری ارتباطات سبز به عنوان یکی از مهم ترین حوزه های تحقیقاتی و صنایع ارتباطی مورد توجه قرار گرفته که علت توجه به این حوزه تاثیر آن بر کاهش آلودگی های زیست محیطی می باشد. مطابق تحقیقات اخیر، سهم مهمی از آلودگی تولیدشده توسط بخش فناوری اطلاعات و ارتباطات مربوط به شبکه های کامپیوتری محلی است. یکی از پرکاربردترین شبکه های محلی شبکه موردی سیار می باشد که کارامدی انرژی در این گونه شبکه ها نه تنها از نقطه نظر ارتباطات سبز، بلکه به دلیل محدودیت های آنها از جمله طول عمر باطری، اهمیت زیادی می یابد. هرچند ویژگی های شبکه موردی سیار همچون نبود مدیریت متمرکز، تحرک گره ها، تغییرات توپولوژی و کمبود منابع، روند سبزنمودن را به یک امر چالش برانگیز در این حوزه تبدیل نموده است. در این مقاله به ارائه و پیاده سازی یک پروتکل مسیریابی سبز برای شبکه موردی سیار می پردازیم که مسئله کاهش مصرف انرژی را با به خواب بردن گره های غیر ضروری حل می نماید. ارزیابی ها نشان می دهد که این روش می تواند به طور میانگین تا 20 درصد به صرفه جویی انرژی در شبکه دست یابد در حالی که آگاه به کیفیت سرویس نیز می باشد.
    کلیدواژگان: ارتباطات سبز، شبکه موردی سیار، رله های چندنقطه ای، سیستم فازی، الگوریتم ژنتیک
  • علی حریمی *، علیرضا احمدی فرد، علی شهزادی، خشایار یغمایی صفحات 145-152
    با توجه به پیشرفت های صورت گرفته در زمینه رباتیک و تعامل انسان و ماشین، تشخیص احساس از روی گفتار اهمیت ویژه ای پیدا کرده است. در این مقاله یک طبقه بند مبتنی بر مدل احساسی برانگیختگی- جاذبه، برای بازشناسی احساس از روی گفتار استفاده شده است. در این روش، در مرحله اول نمونه ها با استفاده از ویژگی های متداول عروضی و طیفی بر مبنای سطح برانگیختگی طبقه بندی می شوند. سپس احساس های با سطح برانگیختگی یکسان با استفاده از ویژگی های پیشنهادی دینامیکی غیر خطی از یکدیگر جدا می شوند. ویژگی های دینامیکی غیر خطی از روی مشخصات هندسی فضای فاز بازسازی شده سیگنال گفتار استخراج می شوند. بدین منظور چهار منحنی توصیفگر برای بازنمایی مشخصات هندسی فضای فاز بازسازی شده محاسبه می شوند. سپس مولفه های مهم تبدیل کسینوسی گسسته این منحنی ها به عنوان ویژگی های دینامیکی غیر خطی مورد استفاده قرار می گیرند. روش پیشنهادی بر روی پایگاه داده برلین با استفاده از تکنیک 10 تکه برابر ارزیابی شده و نرخ بازشناسی 35/96% و 18/87% برای زنان و مردان به دست آمد. با توجه به تعداد نمونه ها در هر گروه جنسیتی، متوسط نرخ بازشناسی 34/92% برای سیستم پیشنهادی به دست آمد.
    کلیدواژگان: بازشناسی احساس از روی گفتار، احساس های با جاذبه یکسان، طبقه بند متوالی، ویژگی های دینامیکی غیر خطی، فضای فاز بازسازی شده
  • جواد پاک سیما *، علی محمد زارع بیدکی، ولی درهمی صفحات 153-158
    یکی از اصلی ترین چالش های مدل های مبتنی بر مجاورت مساله سرعت بازیابی اطلاعات می باشد. در مدل های مبتنی بر مجاورت مفهومی به نام فاصله تعریف می شود که برای محاسبه آن باید موقعیت کلمات پرس و جو در سند استخراج شود. این موضوع یعنی استخراج موقعیت ها و محاسبه فاصله ها فرایندی زمان بر است و چون غالبا در زمان جستجو اجرا می شود از دید کاربر اهمیت بیشتری دارد. در صورتی که بتوان تعداد اسناد مورد بررسی را کاهش داد بازیابی سریع تر می شود. در این مقاله الگوریتمی به نام 3SNTK برای هرس کردن پویای اسناد در موقع جستجوی عبارت ارائه گردیده است. برای اجتناب از تخصیص بیش از حد حافظه و کاهش ریسک بروز خطا در موقع بازیابی، امتیاز تعدادی از اسناد بدون هیچ گونه هرسی محاسبه می شود (Skip-N). در این الگوریتم از سه هرم حداقل برای استخراج اسناد دارای بالاترین امتیازها استفاده شده و آزمایش ها نشان می دهد که استفاده از الگوریتم پیشنهادی باعث بهبود سرعت بازیابی می گردد.
    کلیدواژگان: موتور جستجو، رتبه بندی، فاصله، مدل مجاورت، سرعت بازیابی
  • سمانه رحیمی، جواد حمیدزاده * صفحات 159-167
    روبات های وب، برنامه های نرم افزاری هستند که به طور خودکار در اینترنت اجرا می شوند و مهم‏ترین وظیفه آنها واکشی اطلاعات و ارسال آنها به سرویس دهنده مبدا است. مصرف زیاد پهنای باند شبکه توسط آنها و کاهش کارایی سرویس دهنده باعث شده تا مساله تشخیص روبات های وب مطرح شود. در این مقاله از نظریه مجموعه های فازی ناهموار برای تشخیص روبات های وب استفاده شده است. روش پیشنهادی شامل چهار مرحله است. در مرحله اول، نشست های کاربران وب توسط خوشه بندی مجموعه های فازی ناهموار شناسایی می شود. در مرحله دوم، برداری شامل 10 ویژگی متمایز برای هر نشست استخراج می گردد. در مرحله سوم نشست های شناسایی شده توسط یک روش مکاشفه ای برچسب گذاری می شود. در مرحله چهارم این برچسب ها با استفاده از طبقه بندی مجموعه های فازی ناهموار بهبود می یابد. کارایی روش پیشنهادی بر روی مجموعه داده های واقعی ارزیابی شده است. نتایج آزمایش‏ها نشان دهنده برتری روش پیشنهادی نسبت به سایر روش های مطرح از نظر معیار F است.
    کلیدواژگان: پیش پردازش فایل ثبت وقایع، تشخیص روبات های وب، شناسایی نشست های بازدیدکنندگان وب، نظریه مجموعه های فازی ناهموار
|
  • S. M. Shafaei, S. Majid. Shafaei Pages 85-101
    Data warehouse does not provide external data that are required to dynamically build after design and create the data warehouse. Therefore, analysts conduct effective analysis to find a correlation between external data and data warehouse data, and in other cases requires a comparison both external data and data warehouse data together. The analyst forced to repeat some past repetitive situations. This includes creating terminology, measures and comparison. In this paper, for graduates of this problem, a real-time data warehouse architecture based on ontology is proposed. Furthermore, an algorithm to reduce the response time to users’ queries using materialized views and parallel processing is proposed. A case study to demonstrate how to create correlation between external data and data warehouse data is done and the results show the correlation between external data and data warehouse data is discovered. In experiments, using both direct and parent materialized views approaches in existing data warehouse architecture, reduce response time to users’ sequential, comparative and combination queries.
    Keywords: Near real-time data warehouse, ontology, external data, sequential query, comparative query, materialized view
  • M. Fateh *, E. Kabir Pages 102-112
    In color reduction algorithms the result will be evaluated based on visual or qualitative standards. Evaluation without considering the quantitative standard wouldnt be a complete and accurate evaluation and trends of viewer are very effective on the evaluation. In some articles, the result will be evaluated with MSE. In this standard error the difference between the final images’ pixels color with first image will be considered as a failure in which is not a suitable technique for evaluating of color reduction methods. In images color reduction, if a color completely be replaced by a color closed to the original color it wouldn’t be considered as a failure. If these replacements don’t happen for all of those specific color pixels, then an error has happened in color reduction. The disintegration of the resulted colors from color reduction algorithm with desired colors should be considered in presenting the evaluation criteria since this will not be considered in MSE. In some of color reduction applications such as color reduction in the carpet cartoons, the final desired pixel color is specified and presenting the wrong color will be an error. Therefore, in such applications, the quantitative evaluation based on final color of each pixel is possible. By presenting criteria for quantitative evaluation, viewer trends wouldnt be considered in evaluation and the possibility of accurate comparison of color reduction algorithms would take place. In this article, we have presented a technique of quantitative evaluation for color reduction algorithms. When the final desired color for pixels are specified, this criteria would work out. To demonstrate the functionality of this quantitative evaluation technique, one of the applications of color reduction which is color reduction in carpet cartoons would be discussed. Several methods of color reduction would be evaluated based on proposed evaluation criteria and reference [42], had the lowest error.
    Keywords: Color reduction, quantitative evaluation, qualitative evaluation, C-means, carpet cartoons
  • A. Rafiee *, S. M. Mosavi Pages 113-124
    Bacterial foraging algorithm is one of the population-based optimization algorithms that used for solving many search problems in various branches of sciences. One of the issues discussed today is parallel implementation of population-based optimization algorithms on Graphic Processor Units. Due to the low speed of bacterial foraging algorithm in the face of complex problem and also lack the ability to solve large-scale problems by this algorithm, Implementation on the graphics processor is a suitable solution to cover the weaknesses of this algorithm. In this paper, we proposed a parallel version of bacterial foraging algorithm which designed by CUDA and has ability to run on GPUs. The performance of this algorithm is evaluated by using a number of famous optimization problems in comparison with the standard bacterial foraging optimization algorithm. The results show that Parallel Algorithm is faster and more efficient than standard bacterial foraging optimization algorithm.
    Keywords: Swarm based algorithm, parallel bacterial foraging optimization, CUDA, GPU
  • A. Karamiani, Asgar Ali. Karamiani * Pages 125-134
    Detecting and tracking of moving objects is an important task in analyzing videos. In this paper, we propose a new method for tracking several concurrent moving objects of fixed camera. In the proposed method, at each stage, the location of moving objects in front of camera view is obtained information between two current and previous frames. In each step, Sift’s edge points is obtained based on previous frame and to get the correspondence of these feature points by the use of KLT feature point correspondence algorithm on the current frame. Then having correspondent feature points between two sequence frames, we would estimate the distance by eliminating partial or fixed moving feature points related to moving objects. The classification of labeled features as moving objects is done using DBSCAN clustering algorithm into different clusters. By this method and on each moment, the situation of all existing moving objects in camera view which has got by one by one correspondence between these objects, is determined. The obtained results of the proposed method shows a high degree of accuracy and acceptable consuming time to track moving objects.
    Keywords: Moving objects, tracking, DBSCAN, KLT, Sift
  • Z. Movahedi *, A. Karimi Pages 135-144
    Over recent years, green communication technology has been emerged as an important area of concern for communication research and industrial community. The reason of paying attention of this area is its effect on reducing environmental pollutions. According to recent research, a significant share of these pollutions is produced by the local area computer networks. A mobile ad-hoc network (MANET) is one of the widely used local area networks. The energy efficiency is important in MANETs not only from the green communication point of view, but also due to the network limitations in terms of battery lifetime. Of course, MANETs characterization such as distributed nature and lack of administration, nodes mobility, frequent topology changes and scare resources makes the greening trend a challenging task in such a context. In this paper, we propose and implement a green routing protocol for MANET which solves the idle energy consumption by allowing the necessary nodes and switching off the other un-utilized nodes. Simulation results show this can help to the 20 percentage of saving energy in the environment on average and also aware of the quality of service.
    Keywords: Green communications, mobile ad hoc network, multipoint relays, fuzzy system, genetic algorithm
  • A. Harimi *, A. Ahmadyfard, A. Shahzadi, K. Yaghmaie Pages 145-152
    Recent developments in interactive and robotic systems have motivated researchers for recognizing human’s emotion from speech. The present study aimed to classify emotional speech signals using a two stage classifier based on arousal-valence emotion model. In this method, samples are firstly classified based on the arousal level using conventional prosodic and spectral features. Then, valence related emotions are classified using the proposed non-linear dynamics features (NLDs). NLDs are extracted from the geometrical properties of the reconstructed phase space of speech signal. For this purpose, four descriptor contours are employed to represent the geometrical properties of the reconstructed phase space. Then, the discrete cosine transform (DCT) is used to compress the information of these contours into a set of low order coefficients. The significant DCT coefficients of the descriptor contours form the proposed NLDs. The classification accuracy of the proposed system has been evaluated using the 10-fold cross-validation technique on the Berlin database. The average recognition rate of 96.35% and 87.18% were achieved for females and males, respectively. By considering the total number of male and female samples, the overall recognition rate of 92.34% is obtained for the proposed speech emotion recognition system.
    Keywords: Non-linear dynamics features, phase space reconstruction, speech emotion recognition, tandem classifier, valence related emotions
  • J. Paksima *, A. Zareh, V. Derhami Pages 153-158
    One of the main challenges in the proximity models is the speed of data retrieval. These models define a distance concept which is calculated based on the positions of query terms in the documents. This means that finding the positions and calculating the distance is a time consuming process and because it usually executed during the search time it has a special importance to users. If we can reduce the number of documents, retrieval process becomes faster. In this paper, the SNTK3 algorithm is proposed to prune documents dynamically. To avoid allocating too much memory and reducing the risk of errors during the retrieval, some document's scores are calculated without any pruning (Skip-N). The SNTK3 algorithm uses three pyramids to extract documents with the highest scores. Experiments show that the proposed algorithm can improve the speed of retrieval.
    Keywords: Ranking, pruning, proximity, the search engine
  • S. Rahimi, J. Hamidzadeh * Pages 159-167
    Web robots are software programs that traverse the internet autonomously. Their most important task is to fetch information and send it to the origin server. The high consumption of network bandwidth by them and server performance reduction, have caused the web robot detection problem. In this paper, fuzzy rough set theory has been used for web robot detection. The proposed method includes 4 phases. In the first phase, user sessions have identified using fuzzy rough set clustering. In the second phase, a vector of 10 features is extracted for each session. In the third phase, the identified sessions are labeled using a heuristic method. In the fourth phase, these labels are improved using fuzzy rough set classification. The proposed method performance has been evaluated on a real world dataset. The experimental results have been compared with state-of-the-art methods, and show the superiority of the proposed method in terms of F-measure.
    Keywords: Web log file pre-processing, web robot detection, web visitor's session identification, fuzzy rough set theory