به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه « principal component analysis » در نشریات گروه « برق »

تکرار جستجوی کلیدواژه « principal component analysis » در نشریات گروه « فنی و مهندسی »
  • سمیه افضلی، محمدکاظم مویدی*، فرانک فتوحی

    با توجه به هزینه زمانی و محاسباتی بالای روش های حل مستقیم یا عددی معادلات دیفرانسیل حاکم بر پدیده ها، پژوهش حاضر به ارایه روشی بدون معادله و مبتنی بر الگوریتم های یادگیری عمیق با استفاده از روش های کاهش بعد می پردازد. دو روش تحلیل مولفه های اصلی (خطی) و خودرمزنگار (غیرخطی) برای شبیه سازی پدیده انتقال حرارت پایا با استفاده از مجموعه داده های انتقال حرارت پایای دو بعدی در ابعاد 64×64 و 128×128 بکار رفت و از طریق ابزارها و کتابخانه های موجود در محیط پایتون پیاده سازی شد. طبق نتایج حاصل، در کاهش مرتبه شدید، خودرمزنگار و در کاهش مرتبه جزیی، تحلیل مولفه های اصلی دقت بالاتری دارد. همچنین خروجی های حاصل از مدل رتبه کاسته پیشنهادی با شبیه سازی های حاصل از مدلی مبتنی بر شبکه عصبی کانولوشنی با تعداد لایه ها و فیلترهای متعدد مقایسه شد. نتایج حاصل از شبیه سازی توزیع دمای پایا برحسب خطای میانگین مربعات (MSE) با استفاده از مدل های مبتنی بر تحلیل مولفه های اصلی، خودرمزنگار و مدل مبتنی بر شبکه های عصبی کانولوشنی در ابعاد 64×64 به ترتیب برابر با 4-10×617/1، 6-10×528/2 و 015/0 و در ابعاد 128×128 نیز برابر با 4-10×046/2، 6-10×253/7 و 0058/0 درجه سلسیوس در هر پیکسل است. بنابراین، مدل های رتبه کاسته پیشنهادی به ویژه مدل مبتنی بر روش خودرمزنگار از دقت بسیار بالاتری نسبت به مدل مبتنی بر شبکه های عصبی کانولوشنی برخوردار می باشد.

    کلید واژگان: مدلسازی انتقال حرارت پایا, کاهش مرتبه, تحلیل مولفه های اصلی, خودرمزنگار, خطای میانگین مربعات}
    Somaye Afzali, MohammadKazem Moayyedi *, Faranak Fotouhi

    Since the formation and Direct solving the governing equations requires high time and computational cost, this study seeks to provide an equation free model based on deep learning algorithm that simulates steady state heat transfer in two-dimensional space and a relatively large size using order reduction method. Principal component analysis is a linear method and autoencoder is a nonlinear methods. The results of comparing their performance on different data sets showed that in reducion of order to very low dimensions, autoencoder and in reducion of order to very high dimensions, principal component analysis has a higher accuracy. Of course, the number of dimensions to order reduction and the characteristics of the data set such as size and number of dimensions of the data will affect the accuracy of the dimensional reduction. These two methods were used to order reduction of thermal data in order to faster simulate the phenomenon of Steady State Heat Transfer and were compared with a model based on convolutional neural network with a number of layers and multiple filters. The results showed that the models based on order reduction methods have much less computational volume and simulation time, and the outputs obtained from them, especially the model based on the autoencoder method, have a much higher accuracy.

    Keywords: Steady state heat transfer modeling, Order reduction, Principal component analysis, Autoencoder, Mean squared error}
  • Y. A. Feizi, M. K. Sharbatdar *, R. Mahjoub, M. Raftari
    Vibration data analysis is an applicable approach to Structural Health Monitoring (SHM) using statistical pattern recognition. The objective of the paper is to identify the location of damage by a new feature extraction technique and propose some feature analysis tools as statistical distance measures. The proposed algorithm of feature extraction relies on a combination of the well-known Principal Component Analysis (PCA) and a convolution strategy. After extracting the features from raw vibration signals of undamaged and damaged conditions, those are applied to the proposed feature analysis approaches called the coefficient of variation, Fisher criterion, Fano factor formulated by using the features extracted from the PCA-convolution algorithm. To localize damage, the sensor location with the distance value exceeded from a threshold limit is identified as the damaged area. The main innovations of this research are to present a new hybrid technique of feature extraction suitable for SHM applications and four effective statistical measures for feature analysis and damage identification. The performance and reliability of the proposed methods are verified by a four-story building model and a benchmark beam. Results demonstrate that the approaches presented here can influentially identify the location of damage by using the features extracted from the proposed PCA.
    Keywords: structural health monitoring, Damage localization, Pattern recognition, convolution, Principal Component Analysis, statistical distance}
  • ایمان جمالی، سید جواد میرعابدینی، علی هارون آبادی

    برای دسته بندی متن از تکنیک های استخراج اطلاعات، پردازش زبان طبیعی و یادگیری ماشین به طور وسیع استفاده می شود به طور کلی هدف یک دسته بند متون، دسته بندی اسناد در قالب تعداد معینی از دسته های از پیش تعیین شده می باشد. هر سند می تواند در یک، چند و یا هیچ دسته ای قرار بگیرد. در مورد هر سند به این سوال پاسخ داده خواهد شد که این سند در کدام یک از دسته ها قرار می گیرد. این موضوع می تواند در قالب یک یادگیری خودکار قرار گیرد تا با استفاده از آن بتوان هر سند را به طور خودکار به دسته ای نسبت داد . در این مقاله، بعد از انتخاب مجموعه داده و پاک سازی متون  به کمک روش نرمال شده فرکانس کلمه- معکوس فرکانس سند (norm TF-IDF) به ویژگی ها وزن داده می شود و در طی دو مرحله ویژگی ها با استفاده از روش های فرکانس سند (DF) و مربع چی (SChi) انتخاب می شوند و بعد با استفاده از روش تحلیل مولفه اصلی (PCA) ابعاد ویژگی ها کاهش داده می شود و در مرحله بعد با استفاده از ترکیب 21 ماشین بردار پشتیبان (SVM) به پیاده سازی مدل پیشنهادی می پردازیم و در نهایت صحت مدل را با روش اعتبار سنجی 10 مرحله ای ارزیابی می کنیم  نتایج تجربی نشان می دهد که این مدل می تواند عمل دسته بندی متون را برای هفت دسته با صحت 91.86 انجام دهد که نسبت به کارهای پیشین انجام گرفته صحت بالاتری دارد.

    کلید واژگان: ماشین بردار پشتیبان, دسته بندی متون, انتخاب ویژگی, تحلیل مولفه اصلی}
    Iman Jamali, Seyed Javad Mirabedini, A .Harounabadi

    To classify text information extraction techniques, natural language processing and machine learning has been widely used general purpose of categories of documents, classified documents in the form of a certain number of categories are pre-determined. Each document can be in one, several or no category is placed. In the case of any document to this question will be placed the document on which of the categories. This can be in the form of an automatic learning to use it any document can be automatically assigned to a category.     In this thesis, data collection and cleanup after you select text using the normal method of word frequency -inverse document frequency (norm TF-IDF) is the weight features and features in two stages using document frequency (DF) and Chi square (SChi) are selected, and then using principal component analysis (PCA) features reduced dimensions, and at a later stage by combining 21 support vector machine (SVM) the proposed model we have implemented, and the accuracy of the model to assess the 10-step method validation. Experimental results show that this model can text classification accuracy of 91.86 for the seven categories do, which has a higher accuracy than the earlier work done.

    Keywords: Support vector machine, Classification of texts, Feature Selection, principal component analysis}
  • مینا غیور، حسین پورقاسم*
    دیابت یکی از شایع ترین بیماری ها در جهان است که آثار مخربی بر روی قسمت های مختلف بدن برجای می گذارد. از ابتدایی ترین قسمت هایی که دچار عارضه می شود چشم است. تحلیل صدمات وارد شده بر روی شبکیه چشم از بهترین راه های تشخیص دیابت است. به همین علت ابتدا یک روش پرکاربرد و موثر برای حذف نویز تصاویر با ترکیب فیلتر وینر و تبدیل موجک گسسته اعمال می شود. در مرحله بعد از الگوریتم خوشه بندی k-means برای حذف قسمت های نامطلوب تصویر شامل نواحی خیلی روشن و خیلی تیره تصویر، استفاده می شود. سپس ویژگی های رنگ و شکل تصاویر استخراج می شود. برای استخراج ویژگی های رنگ تصویر، تصاویر را به فضای lab که برای چشم انسان بهتر قابل درک است برده می شود و برای استخراج ویژگی های شکل ابتدا تصاویر را به تصاویر خاکستری تبدیل کرده و سپس اقدام به استخراج ویژگی های شکل می گردد. پس از استخراج ویژگی ها به کمک الگوریتم تجزیه و تحلیل مولفه های اصلی تعداد ویژگی ها را کاهش داده و بهترین و موثرترین ویژگی ها انتخاب می شود. در پایان برای طبقه بندی ویژگی ها و تصاویر به دو گروه سالم و بیمار، از طبقه بند ماشین بردار پشتیبان با کرنل های متفاوت استفاده می شود. این الگوریتم صحت بالای 90% برای تصاویر آزمایشی حاصل می کند.
    کلید واژگان: رتینوپاتی دیابتی, ویژگی های شکل و رنگ تصاویر, تجزیه و تحلیل مولفه های اصلی, ماشین بردار پشتیبان}
    Mina Ghayoor, Hossein Pourghassem *
    Diabetes is one of the most common diseases in the world, adversely affects different body organs. One of the most common causes of eye problems is diabetes. Analyzing retinal damage is one of the best ways to diagnose diabetes so one of the best ways to diagnose diabetes is to look at the damage to the retina. Hence, first, a highly applicable and effective method, which is a combination of the Wiener filter and the discrete wavelet transform (DWT), is used for the removal of noise from images. Afterward, the k-means clustering algorithm is used to remove the bad image sections including very light and very dark areas of the image. Next, the image color and shape features are extracted. We transfer the images to the lab space, which fits the eye more, to extract the image color features. To extract the image shape features, first the images are converted into grey images and then the shape features are extracted. After extracting the features, the number of features is reduced using the Principal Component Analysis (PCA) algorithm. Besides, the best and most effective features are also selected. Finally, the support vector machine classifier with different kernel is used to classify the features and images into two categories, namely the healthy participants and patients. The accuracy resulting from this algorithm using the test images is over 90%.
    Keywords: : Diabetic retinopathy, shape, color properties of images, principal component analysis, Support vector machine}
  • مرجان مزروعی، مهدی سعادتمند طرزجان
    استفاده از داده های سنجش از دور در بررسی خصوصیات پوشش گیاهی می تواند منجر به صرف هزینه و زمان کمتر و دستیابی به اطلاعات دقیق تر گردد. در این مقاله روشی خودکار برای شناسایی نواحی پوشش گیاهی و سایه در تصاویر هوایی و ماهواره ای با تفکیک مکانی بالا ارائه شده است. روش پیشنهادی تنها از اطلاعات سه کانال اصلی تصویر (RGB) استفاده نموده و دارای دو فاز مدل سازی و تست می باشد. در فاز مدل سازی، ویژگی های بافت و رنگ از پیکسل های تعداد محدودی نمونه آموزشی استخراج شده و با استفاده از روش تحلیل مولفه های اصلی، مدلی کمی برای کلاس های پوشش گیاهی و سایه بدست می آید. در فاز تست، ابتدا بردار ویژگی متناظر با هر یک از پیکسل های تصویر ورودی محاسبه می گردد. سپس، میزان انطباق هر یک از بردارهای ویژگی با مدل استخراجی بررسی شده و خطای عدم تطبیق محاسبه می گردد. به این ترتیب، برای هر یک از مدل های پوشش گیاهی و سایه، یک تصویر خطا بدست خواهد آمد. در نهایت، با اعمال آستانه مناسب به هر یک از تصاویر مذکور، نواحی پوشش گیاهی و سایه از پس زمینه تفکیک می شوند. نتایج تجربی بیانگر عملکرد مناسب روش پیشنهادی در مقایسه با چند الگوریتم رقیب می باشد.
    کلید واژگان: سنجش از دور, بخش بندی پوشش گیاهی و سایه, تحلیل مولفه اصلی}
    Marjan Mazruei, Mahdi Saadatmand-Tarzjan
    Evaluation of vegetation cover by using the remote sensing data can provide enhanced results with less time and expense. In this paper, we propose a new automatic algorithm for detection of vegetation and shadow regions in high-resolution satellite/aerial images. It uses only color channels of the image and involves two modeling and evaluation phases. In the modeling phase, after extracting color and texture features for the pixels within a few manually-indicated vegetation areas, two distinct models are obtained based on the principle component analysis. In the evaluation phase, the same color and texture features are primarily computed for every pixel of the given image. Then, an error value is computed for each pixel which determines the model mismatch score. Finally, by thresholding the error image which includes all the error values, the vegetation and shadow regions are distinguished from the background. Experimental results demonstrated outstanding solution quality of the proposed algorithm compared to a number of counterpart algorithms.
    Keywords: Remote Sensing, Vegetation, Shadow Segmentation, Principal Component Analysis}
  • محمد کاظم مقیمی، حسین پورقاسم
    به منظور شناسایی اجسام متحرک با استفاده از الگوریتم تفاضل پس زمینه، سایه اجسام نیز به عنوان شیء متحرک استخراج می شود که عامل بروز مشکل و خطا در شناسایی اجسام متحرک است. بنابراین در سیستم های حمل و نقل هوشمند، شناسایی و حذف سایه خودرو ها یک چالش مهم است. در این مقاله روشی کارآمد براساس ترکیب فضای رنگ HSV و تجزیه و تحلیل ترکیبات اصلی ارائه شده است. در ابتدا، بعد از شناسایی اجسام متحرک توسط روش تفاضل پس زمینه، با استفاده از فضای رنگ HSV مناطق احتمالی سایه متحرک استخراج می گردد. در نهایت به منظور تصحیح عمل شناسایی در مرحله قبل (به عنوان نمونه حذف قسمت هایی از خودرو که به عنوان سایه شناسایی شده اند)، از الگوریتم تجزیه و تحلیل ترکیبات اصلی بهره گرفته می شود. با این الگوریتم، هر خودرو بوسیله بردارهای وی‍ژه خودروهای پایگاه داده آموزشی مدل می گردد تا بدین وسیله هر خودروی ناشناخته ورودی براساس این مدل تایید یا رد گردد. روش پیشنهادی بر روی ویدئوهای واقعی اخذ شده توسط سیستم های حمل و نقل هوشمند در شرایط واقعی و عملیاتی ارزیابی گردیده است. نتایج حاصل از الگوریتم پیشنهادی بیانگر عملکرد قابل قبول و موثر روش پیشنهادی در کاربردهای سیستم های حمل و نقل هوشمند است.
    کلید واژگان: سیستم های حمل و نقل هوشمند, _ شناسایی اجسام متحرک, شناسایی سایه, تجزیه و تحلیل ترکیبات اصلی, فضای رنگ HSV}
    In common background subtraction method usually the shadow of objects is extracted as the moving objects that cause some errors in the performance of Intelligent Transportation Systems (ITS). In this paper, an effective algorithm based on combination of HSV color space and Principal Component Analysis is proposed. In this algorithm, the candidate shadow region is detected by using HSV color space. In this step, some part of vehicles may be detected as the moving shadow. So, to compensate and improve the performance of moving shadow detection, principal components analysis algorithm is applied to recognize the automobile object by modeling the automobile based on orthogonal eigen vectors of database. Our proposed algorithm is evaluated on real and operational videos of ITS. The obtained results demonstrate the efficiently and effectiveness of our proposed algorithm in the ITS applications.
    Keywords: Intelligent Transportation Systems., HSV Color Space, Moving Objects Detection, Principal Component Analysis, Shadow Detection}
  • Saeede Jabbarzadeh Reyhani*, Saeed Meshgini
    Extraction methods of facial expression characteristics have disadvantages according to Classical LBP such as complexity and high dimensions of feature vectors that make it necessary to apply dimension reduction processes. In this paper, we introduce an improved LBP algorithm to solve these problems that utilizes Fast PCA algorithm for reduction of vector dimensions of extracted features. In other words, proffer method (Fast PCAⰓ) is an improved LBP algorithm that is extracted from classical LBP operator. In this method, first circular neighbor operator is used for features extraction of facial expression. Then, an algorithm of Fast PCA is used for reduction of feature vector dimensions. Simulation results show that the proposed method in this paper in terms of accuracy and speed of recognition, has had a better performance compared with the same algorithm.
    Keywords: Facial Expression Recognition, Local Binary Pattern, Support Vector Machine, Principal Component Analysis, Linear Discriminant Analysis}
  • Mohammad Reza Yousefi Darestani, Mansour Sheikhan
    Design of a robust Face Recognition (FR) system is greatly affected due to varying illumination and pose conditions. The accuracy of FR system can be increased by normalizing and compensating the illumination variations in the pre-processing stage. To improve the robustness of FR systems against illumination variations, a method is proposed in this study which is based on Contourlet Transform (CT), hybrid of Principal Component Analysis (PCA) and Imperialist Competition Algorithm (ICA) techniques for feature reduction, and an ICA-optimized Multi-Layer Perceptron (MLP) classifier. First, each face is decomposed using the CT. So, the contourlet coefficients of low and high frequency in different scales and various angles are obtained. The frequency coefficients are employed as a feature vector for further processing. The PCA is then used to reduce the dimensionality of the feature vector. The ICA is also exploited to search the feature space for an optimal feature subset. Then, the reduced-size feature vector is applied to the face classifier that is based on MLP neural network whose structure and learning rate are optimized by ICA. The proposed method is robust to variation of imaging conditions and pose variations. The proposed technique provides better results when tested on ORL and Extended Yale-B databases as compared with other existing techniques such as hybrid model based on discrete wavelet transform and PCA (in terms of precision, sensitivity, and accuracy) and different state-of-the-art methods.
    Keywords: face recognition, contourlet transform, principal component analysis, imperialist competition algorithm, multi, layer perceptron}
  • حبیب علی زاده، محمدحسن قاسمیان یزدی
    در سال های اخیر جداسازی داده های سنجش از دور با استفاده از عامل بندی ماتریس نامنفی (Nonnegative Matrix Factorization) مود توجه قرار گرفته است و برای بهبود کارایی آن، به تابع هزینه اقلیدسی قید های کمکی می افزایند. چالش اصلی در این میان معرفی قید های است که بتواند نتایج بهتری را استخراج کند. همبستگی بین باند های تصاویر ابر طیفی مساله ای است که کمتر مورد توجه الگوریتم های جداسازی قرار گرفته است. این مساله در جداسازی کلاس های مشابه بیشتر مشخص می شود. در این مقاله ما یک روش جدید برای جداسازی داده های ابر طیفی سنجش از دور با استفاده از عامل بندی ماتریس نیمه نامنفی (Semi-NMF) و تحلیل مولفه های اصلی پیشنهاد کردیم. در روش پیشنهادی جداسازی طیفی و مکانی به صورت همزمان انجام می شود و تمام محدودیت های فیزیکی مساله بر اساس مدل مخلوط خطی اعمال می گردد. همچنین، علاوه بر محدودیت های فیزیکی، از ویژگی داده های ابرطیفی در فرآیند جداسازی بهره برداری شده است. تنکی ضرایب فراوانی یکی از ویژگی های مهم داده های ابر طیفی است که در این مقاله ما با استفاده از ماتریس nsNMF به درون تابع هزینه اعمال کرده ایم. در روش پیشنهادی قواعد بروز رسانی الگوریتم با استفاده از روش ALS بدست آمده است. در بخش انتهایی این مقاله از داده های ابر طیفی مصنوعی و واقعی به منظور بررسی کارآمدی الگوریتم پیشنهادی استفاده شده است. نتایج بدست آمده برتری الگوریتم پیشنهادی را در مقایسه با برخی از الگوریتم ها جداسازی نشان می دهد.
    کلید واژگان: تصاویر ابرطیفی, جداسازی داده های سنجش از دور, جداسازی کور منابع, عامل بندی ماتریس نیمه نامنفی, تجزیه و تحلیل مولفه های اصلی}
    Mohammad Hasan Ghassemian, H. Alizadeh
    Unmixing of remote-sensing data using nonnegative matrix factorization has been considered recently. To improve performance, additional constraints are added to the cost function. The main challenge is to introduce constraints that lead to better results for unmixing. Correlation between bands of Hyperspectral images is the problem that is paid less attention to it in the unmixing algorithms. In this paper, we have proposed a new method for unmixing of Hyperspectral data using semi-nonnegative matrix factorization and principal component analysis. In the proposed method, spectral and spatial unmixing is performed simultaneously. Physical constraints applied based on Linear Mixing Model. In addition to physical constraints, characteristics of Hyperspectral data have been exploited in the unmixing process. Sparseness of the abundance is one of the important features of Hyperspectral data, which is applied using the nsNMF matrix. In the proposed method update rules is derived using the ALS algorithm. In the final section of this paper, real and synthetic Hyperspectral data is used to verify the effectiveness of the proposed algorithm. Obtained results show the superiority of the proposed algorithm in comparison with some unmixing algorithms
    Keywords: Hyperspectral Image, Remote Sensing Data Unmixing, Blind Source Separation, Semi, nonnegative Matrix Factorization, Principal Component Analysis}
  • محمد بهنام، حسین پورقاسم
    هدف از این تحقیق طراحی یک سیستم بازیابی تصاویر پزشکی مبتنی بر محتوا و ارائه روشی نوین برای کاهش شکاف معنایی موجود بین ویژگی های دیداری و مفاهیم مورد جستجوی کاربر می باشد. به طور کلی عملکرد سیستم های بازیابی تصویر تنها بر اساس ویژگی های دیداری کاهش می یابد چرا که این ویژگی ها اغلب در توصیف مفاهیم معنایی تصویر ناتوان اند. در این تحقیق این مشکل با ارائه راهکاری نوین در سطح بازخورد ربط و با استفاده از انتقال فضای ویژگی های تصاویر مرتبط و غیر مرتبط به فضایی جدیدتر، با ابعاد کمتر و دارای همپوشانی کمتر مرتفع می گردد. برای این منظور با استفاده از تکنیک های آنالیز مولفه های اصلی(PCA) و آنالیز تفکیک کننده خطی (LDA) فضای ویژگی ها را تغییر داده و سپس با بهره گیری از ماشین بردار پشتیبان (SVM) به طبقه بندی تصاویر مرتبط و غیرمرتبط می پردازیم. الگوریتم ارائه شده بر روی پایگاه داده ای شامل 10000 تصویر اشعه X پزشکی از 57 کلاس معنایی ارزیابی شده است. نتایج به دست آمده نشان می دهد که الگوریتم ارائه شده به طور قابل توجهی دقت سیستم بازیابی را بهبود می بخشد.
    کلید واژگان: بازیابی تصاویر بر اساس محتوا, شکاف معنایی, بازخورد ربط, آنالیز مولفه های اصلی, آنالیز تفکیک کننده خطی, ماشین بردار پشتیبان}
    Mohammad Behnam, Hossein Pourghasem
    The purpose of this study is to design a content-based medical image retrieval system and provide a new method to reduce semantic gap between visual features and semantic concepts. Generally performance of the retrieval systems based on only visual contents decrease because these features often fail to describe the high level semantic concepts in user’s mind. In this paper this problem is solved using a new approach based on projection of relevant and irrelevant images in to a new space with low dimensionality and less overlapping in relevance feedback level. For this purpose، first we change the feature space using Principal Component Analysis (PCA) and Linear Discriminant Analysis (LDA) techniques and then classify the feedback images applying Support Vector Machine (SVM) classifier. The proposed framework has been evaluated on a database consisting of 10،000 medical X-ray images of 57 semantic classes. The obtained results show that the proposed approach significantly improves the accuracy of retrieval system.
    Keywords: Content, based image retrieval, semantic gap, relevance feedback, principal component analysis, linear discriminant analysis, support vector machine}
  • Mohammad Ahmadi Livani, Mahdi Abadi, Meysam Alikhany, Meisam Yadollahzadeh Tabari
    Detecting anomalies is an important challenge for intrusion detection and fault diagnosis in wireless sensor networks (WSNs). To address the problem of outlier detection in wireless sensor networks, in this paper we present a PCA-based centralized approach and a DPCA-based distributed energy-efficient approach for detecting outliers in sensed data in a WSN. The outliers in sensed data can be caused due to compromised or malfunctioning nodes. In the distributed approach, we use distributed principal component analysis (DPCA) and fixed-width clustering (FWC) in order to establish a global normal pattern and to detect outlier. The process of establishing the global normal pattern is distributed among all sensor nodes. We also use weighted coefficients and a forgetting curve to periodically update the established normal profile. We demonstrate that the proposed distributed approach achieves comparable accuracy compared to the centralized approach, while the communication overhead in the network and energy consumption is significantly reduced.
    Keywords: Sensor network, Principal Component Analysis, Outlier detection}
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال