فهرست مطالب

نشریه مدیریت مهندسی و رایانش نرم
سال چهارم شماره 2 (پیاپی 7، پاییز و زمستان 1397)

  • تاریخ انتشار: 1397/10/20
  • تعداد عناوین: 6
|
  • وحید قاسمی، محمد جوادیان، سجاد حیاتی صفحات 9-25
    امروزه توسعه محیط های هوشمند فراگیر به موضوعی جذاب برای محققین تبدیل شده است. در این محیط ها، تعاملات کاربر با اشیاء مختلف محیطی در طول زمان، با استفاده از حسگرهایی ثبت شده، و رویدادهای حسگرها به صورت جریانی از داده ها مورد پردازش قرار می گیرند. در این پردازش، عمل کاربر بازشناسی شده، و بر حسب آن، خدماتی به او ارائه می گردند. در بسیاری از رویکردهای بازشناسی اعمال، ابتدا جریان داده ورودی قطعه بندی شده، و سپس عمل مربوط به هر قطعه تشخیص داده می شود. در این رویکردها یک گام اولیه بسیار مهم، قطعه بندی جریان داده های حسگرها است. در این مقاله به این مساله پرداخته ایم، و برای حل آن روش جدیدی را، بر مبنای یک مساله برنامه ریزی تفاضل محدب، پیشنهاد داده ایم. در روش پیشنهادی، برای هر رویداد حسگر در جریان داده ها، یک بردار ویژگی با استفاده از رویکردی بیزی محاسبه، و دنباله این بردارها در یک تابع هزینه تفاضل محدب به کار گرفته شده است. بردارهای ویژگی و تابع هزینه را با در نظر گرفتن مکاشفه هایی که مطابق با شرایط محیط های هوشمند فراگیر هستند، محاسبه کرده ایم. قطعات داده با کمینه سازی این تابع استخراج می گردند. در ارزیابی ها از یک شبیه ساز خانه های هوشمند برای تولید جریان داده های حسگرها استفاده شده است. میزان خلوص قطعات، و آنتروپی شرطی قطعه بندی برای سنجش میزان کارآیی روش پیشنهادی محاسبه گردیده اند. ارزیابی های نشان می دهند که در مقایسه با تعدادی از رویکردهای موجود، روش پیشنهادی عملکرد قابل قبولی را از خود نشان می دهد.
    کلیدواژگان: محیط های هوشمند فراگیر، جریان داده حسگرها، قطعه بندی، بهینه سازی محدب
  • سینا دامی، زینب حاتم چوری صفحات 27-39
    با استفاده از ابزارهای داده کاوی در حوزه ی تشخیص پزشکی محدودیت هایی همچون هزینه های بالای برخی از آزمایشات یا زمان بر بودن آن ها مرتفع می گردد. به علاوه، وجود خطا در برخی از آزمایشات موجب شده تا روش های دسته بندی مورد استقبال پژوهشگران قرار گیرد. در همین راستا پژوهش جاری با تکیه بر ترکیب روش های خوشه بندی و دسته بندی روش جدیدی را برای تشخیص بدخیمی سرطان سینه ارائه نموده است که در آن عمل ترکیب با استفاده از یک الگوریتم ابتکاری تکرار شونده و الگوریتم خوشه بندی انتشار وابستگی انجام می شود. این روش با استفاده از یک الگوریتم ابتکاری وزن هایی را برای متغیرها تولید نموده و براساس الگوریتم انتشار وابستگی، خوشه های موزون تشکیل می دهد. سپس شماره خوشه ها به عنوان یک متغیر جدید به داده ها افزوده شده و در مرحله ی بعد، الگوریتم دسته بند بر روی مجموعه داده ی اصلاح شده حاوی داده های اصلی و شماره ی خوشه ها اجرا می گردد. با توجه به شاخص دقت، تولید اوزان تا رسیدن به بیشترین دقت ممکن ادامه می یابد. بر طبق آزمایشات عددی انجام شده در این پژوهش، ترکیب الگوریتم خوشه بندی انتشار وابستگی با میانگین دقت 36/98 دارای بیشترین دقت بوده است. به علاوه، آزمون فرض ویلکاکسون برتری شبکه ی عصبی ترکیبی را نسبت به سایر روش ها مورد تایید قرار داده است.
    کلیدواژگان: خوشه بندی، سرطان سینه، ماشین بردار پشتیبان، شبکه ی عصبی مصنوعی، آزمون فرض ویلکاکسون
  • امیر وفاییان*، کیوان برنا، حامد ساجدی، پویا سرایی، داریوش علی محمدی صفحات 41-66

    طراحی سامانه ای که بتواند به طور خودکار دستگاه‎ها و گوشه های موسیقی سنتی ایرانی تشخیص دهد، مدتی است که توجه پژوهشگران ایرانی را در حوزه بازیابی اطلاعات موسیقایی به خود جلب کرده است. ازآنجاکه در این پژوهش ها، به طور عمده به دسته بندی خودکار پنج دستگاه اصلی پرداخته اند و نه تفکیک گوشه ها از یکدیگر، پژوهش حاضر با هدف ارائه الگوریتم و روشی برای شناسایی خودکار گوشه ها در ردیف دستگاهی موسیقی سنتی ایرانی انجام شده است. ازاین رو، ابتدا تعریف و تحلیلی نظام مند از دو مفهوم اصلی موسیقی سنتی ایرانی، یعنی دستگاه و گوشه آمده و پس از معرفی دو رویکرد اساسی در شناسایی خودکار دستگاه و گوشه، روش شناسی و الگوریتم های بکار رفته در برخی از پژوهش های مرتبط، آمده است. سپس، الگوریتم و روشی برای شناسایی خودکار گوشه های ردیف دستگاهی موسیقی ایرانی بر اساس رویکرد میکرو ارائه شده است. در روش پیشنهادی، در درجه نخست تلاش برای شناسایی نغمه های یک قطعه موسیقی سنتی ایرانی، به عنوان مرحله اولیه و مهم در شناسایی گوشه ها و بهبود پارامترهای آن بوده است. پس از این مرحله، با تعریف سیر ملودی جمله معرف گوشه ها و بررسی میزان شباهت آن به کل قطعه، می توان گوشه موردنظر را شناسایی کرد.

    کلیدواژگان: الگوریتم شناسایی گوشه، بازیابی اطلاعات موسیقایی، ردیف دستگاهی موسیقی ایرانی، شناسایی خودکار موسیقی، گوشه، موسیقی سنتی ایرانی
  • مبین شاطریان، محمد تشنه لب صفحات 67-78
    هدف از این تحقیق تعیین ویژگی های موثر بالینی در بیماران نوروپاتیک دارای درد مزمن می باشد. این نوع بیماری بر اثر عواملی مختلف چون جنگ، تصادفات، حوادث ورزشی صورت می پذیرد. در این پژوهش، پرسشنامه درد مرکز تحقیقات علوم اعصاب شفا واقع در بیمارستان تخصصی و فوق تخصصی خاتم الانبیاء(ص) تهران مورد بررسی قرار گرفت. با استفاده از شبکه عصبی عمیق و نزدیک ترین همسایگی و الگوریتم ژنتیک لیست ویژگی ها با دقت اندازه گیری 75 درصد به دست آمد. پرسشنامه مک گیل به عنوان بهترین ویژگی های موثر در بیماری نوروپاتیک برای بیماران با درد مزمن تعیین شد.
    کلیدواژگان: نوروپاتیک، درد مزمن، پرسشنامه مک گیل، شبکه عصبی عمیق، کلینیک درد
  • زینب حسنی، مهین خسروی مشیزی صفحات 79-93
    در سال های اخیر، الگوریتم های یادگیری ماشین به طور گسترده ای در تشخیص و درمان به موقع بیماری ها نقش بسزایی را ایفا می کنند. علاوه بر این، تشیخص بیماری در مراحل آغازین آن، در بهبود بیماری و در کاهش هزینه های درمانی بیمار بسیار موثر است. بیماری قلبی یکی از دلایل اصلی مرگ در جهان شناخته شده است. مطالعات زیادی برای تشخیص بیماری و طراحی سیستم هوشمند و کارا انجام شده است. در این مقاله، الگوریتم ترکیبی نهنگ و شبیه ساز تبرید برای شناسایی عوامل موثر در تشخیص بیماری ارائه شده است و الگوریتم ماشین بردار پشتیبان برای طبقه بندی موثر بیماری لحاظ شده است. رویکرد پیشنهادی با مجموعه داده بیماری قلبی کلیولند در پایگاه داده UCI ارزیابی شده است. الگوریتم پیشنهادی با صحت 87.78 درصد با تعداد ویژگی کمتر توانسته بیماری را تشخیص دهد. نتایج حاصل برتری روش پیشنهادی را نشان می دهد و همچنین رویکرد پیشنهادی می تواند پزشکان را در تشخیص درست و در مراحل اولیه بیماری یاری رساند.
    کلیدواژگان: بیماری قلبی عروق کرونر، ماشین بردارپشتیبان (SVM)، الگوریتم بهینه سازی نهنگ (WOA)، الگوریتم شبیه سازتبرید SA))، الگوریتم ترکیبی
  • محمد شوریابی، محمد جواد فدایی اسلام صفحات 95-110
    یکی از مراحل پردازشی مهم در سیستم بینایی انسان آشکارسازی نقشه برجستگی یک صحنه می باشد. با توجه به اینکه نقشه برجستگی تصویر می تواند در الگوریتم های مانند بخش بندی، فشرده سازی و بازیابی تصویر کاربرد داشته باشد، ارائه یک مدل کارآمد برای تشخیص برجستگی مورد توجه محققین قرار گرفته است. علیرغم اینکه تاکنون کارهای زیادی در این زمینه انجام شده است، اما تاکنون یک مدل موثر و کارآمد که بتواند با محاسبات کم نقشه برجستگی تصویر را آشکار کند، ارائه نشده است. برای این منظور، ما یک الگوریتم ساده و تحت نظارت برای شناسایی نقشه برجستگی با استفاده از میدان تصادفی شرطی (CRF) و نشانه های برجستگی پیشنهاد می کنیم. در روش پیشنهادی برای آموزش CRF از ویژگی های کنتراست محلی، مرکز سوگیری و پس زمینه ای استفاده شده است، علاوه بر این سه ویژگی برای کارایی بهتر، ویژگی جدیدی مبتنی بر تجزیه ماتریس به کار گرفته شده است. در ادامه CRF با توجه به ویژگی های 20 تصویر که به تصویر ورودی نزدیک هستند، آموزش می بیند. در نهایت برجستگی تصویر ورودی با توجه به وزن های محاسبه شده در مرحله آموزش، نشانه های برجستگی تصویر ورودی و مبنای درستی محاسبه می شود. روش پیشنهادی در دقت و سرعت اجرای الگوریتم نسبت به سایر روش ها برتری دارد.
    کلیدواژگان: تشخیص برجستگی، نشانه های برجستگی، میدان تصادفی شرطی، ابرپیکسل
|
  • Vahid Ghasemi, Mohammad Javadian, Sajad Hayati Pages 9-25
    Nowadays, pervasive environment development has garnered lots of attentions. In such environments, user-object interactions along time are recorded via several sensors, and sensor events are processed as a stream of data. In this process, user’s activities are recognized, and accordingly, essential services are provided. In many activity recognition approaches, firstly the input data stream is segmented, then the activity pertaining to each segment is induced. In such approaches, sensor data stream segmentation is a predominant phase. In this paper, this problem is investigated and a novel method, based on a difference of convex programming problem, is proposed to solve it. In the proposed method a feature vector is calculated for each sensor event in the data stream using a Bayesian approach, and the sequence of such vectors is hired in a difference of convex cost function. The cost function and feature vectors has been calculated by considering heuristics adopting to smart environments. Data segments are extracted by minimizing the cost function. The segmentation purity and conditional entropy have been calculated to measure the performance. Evaluations show that the proposed method has an acceptable performance comparing to some existing approaches.
    Keywords: Pervasive Environment, Sensor Data Stream, Convex Programming Problem
  • Sina Dami, zeinab hatamchuri Pages 27-39
    By using data mining tools in the field of medical diagnosis, some limitations such as the high cost of some tests or their timing will be addressed. In addition, the existence of errors in some experiments has led researchers to be welcomed by categorization methods. In this regard, the present study, based on the combination of clustering and categorization methods, has proposed a new method for the diagnosis of breast cancer. In this operation, the combination is performed using an iterative algorithm and a dependency propagation clustering algorithm. This method produces weights for variables using an innovative algorithm and forms cluster clusters based on the dependency propagation algorithm. Then the number of clusters as a new variable is added to the data, and in the next step, the block algorithm is implemented on the modified dataset containing the main data and the number of clusters. According to the accuracy index, the weights production continues to reach the highest possible precision. According to the numerical experiments conducted in this study, the combination of the dependency emission clustering algorithm with an average accuracy of 36.98 was the most accurate. In addition, the Wilcoxon assumption test confirmed the superiority of the combined neural network compared to other methods.
    Keywords: Clustering, Breast Cancer, Dependency Propagation Algorithm, Wilcoxon Assumption Test
  • amir vafaeian*, Keivan Borna, Hamed Sajedi, Dariush Alimohammadi, Pouya Sarai Pages 41-66

    One of the most common problems with computer networks is the amount of information in these networks. Meanwhile searching and getting inform about content of textual document, as the most widespread forms of information on such networks, is difficult and sometimes impossible. The goal of multi-document textual summarization is to produce a pre-defined length summary from input textual documents while maximizing documents’ content coverage. This paper presents a new approach for textual document summarization based on paraphrasing and textual entailment relations and formulating the problem as an optimization problem. In this approach the sentences of input documents are clustered according to paraphrasing relation and then the entailment score and final score of a fraction of the header sentences of clusters which have the best score according to the user query is calculated. Finally, the optimization problem is solved via greedy and dynamic programming approaches and while selecting the best sentences, the final summary is generated. The results of implementing the proposed system on standard datasets and evaluation via ROUGE system show that the proposed system outperforms the state-of-the-art systems at least by 2.5% in average.

  • Mobin Shaterian, Mohammad Teshnehlab Pages 67-78
    The main purpose of this research is finding major characteristics of clinical signs in the diagnosis of neuropathic disease in patients with chronic long-term pain. This type of disease is caused by various factors such as war, accidents and sports events. In this research, pain questionnaire of Shafa Neuroscience Research Center in Khatam-ol-Anbia Hospital in Tehran is study. By using the deep neural network and the nearest neighbor and the genetic algorithm and the auto encoder, the list of features was obtained with a precision measurement of 75 percentage. The McGill questionnaire was designated as the best effective feature for Neuropathic Pain.
    Keywords: Neuropathic, Chronic Long-termPain, McGill Questionnaire, Neural Network
  • Zeinab Hassani, Mahin Khosravi Pages 79-93
    In recent years, machine learning algorithms are widely used for diagnosis and timely treatment of diseases. Moreover, diagnosis of disease on early stages is very effective in improving the disease and in reducing the cost of treatment for the patient. Heart disease is one of the main causes of death in the world. Several studies have been conducted to diagnose of disease and to design an intelligent and efficient system. In this paper, a hybrid algorithm of Whale Optimization Algorithm and simulated annealing are presented to identify the effective factors in the diagnosis of the disease. The support vector machine algorithm is considered for effective classification of the disease. The proposed approach is evaluated using the Cleveland Heart Disease Data Collection in the UCI database. The proposed algorithm has obtained with an accuracy of 87.78% which is able to diagnose of disease with fewer attributes. The results exhibition the superiority of the proposed method which the proposed approach can help physicians to diagnose and to improve disease in the early stages
    Keywords: Coronary Heart Disease, Support Vector Machine, Whale Optimization Algorithm, Simulated Annealing
  • Mohammad Shouryabi, Mohammad Javad Fadaeieslam Pages 95-110
    One of the most important processing steps in the human vision system is the detection of a scene saliency map. Since saliency map can be applied to algorithms such as segmentation, compression and image retrieval, Researchers have focused on providing an efficient model to recognize it. Although a lot of works have been done in this area, the obtained saliency maps are still not satisfying enough. For this purpose, we propose a simple and supervised algorithm to identify the saliency map using a conditional random field (CRF) and saliency cues. In the proposed method, local contrast, center-bias, and backgroundness features have been used for CRF training. Additionally, a new feature based on matrix decomposition has been employed to improve the performance. In the following, CRF has been trained according to the features of 20 images close to the input image. Finally, input image saliency is estimated according to calculated weights in the training phase, input image saliency cues, and ground truths. The proposed method outperforms other methods in terms of algorithm implementation accuracy and speed.
    Keywords: Detection of a Scene Saliency_Conditional Random Field_Matrix Decomposition