به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

فهرست مطالب محبوبه شمسی

  • مهدیه واحدی پور، محبوبه شمسی، عبدالرضا رسولی کناری*

    بسیاری از شبکه های اجتماعی و سایت ها به مردم اجازه می دهند تا احساسات و نظرات خود را در مورد محصولات و خدمات مختلف به اشتراک بگذارند. در این مقاله روشی جدید مبتنی بر قطبیت نظرات مثبت و منفی فارسی درباره محصولات تلفن همراه از سایت دیجی کالا و داده های سنتی پرس ارائه شده است. نتیجه اجرا با الگوریتم های بیز ساده، ماشین بردار پشتیبان، کاهش گرادیان تصادفی، رگرسیون لجستیک، جنگل تصادفی و یادگیری عمیق مانند شبکه عصبی کانولوشن و حافظه کوتاه مدت متوالی بر اساس پارامترهایی مانند صحت، بازیابی، معیار فیشر و دقت، موردتوجه قرار گرفته شده است. روش پیشنهادی روی داده های دیجی کالا، با الگوریتم های بیز ساده بین 10 تا 34 درصد و ماشین بردار پشتیبان بین 5 تا 24 درصد و کاهش گرادیان تصادفی بین 7 تا 38 درصد و رگرسیون لجستیک بین 5 تا 38 درصد و جنگل تصادفی بین 4 تا 22 درصد و روش شبکه عصبی کانولوشن به میزان 4 درصد افزایش دقت را به همراه داشته است. هم چنین در داده های سنتی پرس با الگوریتم های بیز ساده بین 12 تا 46 درصد و ماشین بردار پشتیبان بین 5 تا 46 درصد و کاهش گرادیان تصادفی بین 5 تا 35 درصد و رگرسیون لجستیک بین 6 تا 46 درصد و جنگل تصادفی بین 4 تا 46 درصد دقت نسبت به قبل از اعمال روش پیشنهادی به دست آمده است.

    کلید واژگان: تحلیل احساسات, نظرکاوی, یادگیری ماشین, یادگیری عمیق, قطبیت}
    Mahdieh Vahedipoor, Mahboubeh Shamsi, Abdolreza Rasouli Kenari*

    In recent years, the massive growth of generated content by users in social networks and online marketing sites, allows people to share their feelings and opinions on a variety of opinions about different products and services. Sentiment analysis is an important factor for better decision-making that is done using natural language processing (NLP), computational methods, and text analysis to extract the polarity of unstructured documents. The complexity of human languages and sentiment analysis have created a challenging research context in computer science and computational linguistics. Many researchers used supervised machine learning algorithms such as Naïve Bayes (NB), Stochastic Gradient Descent (SGD), Support Vector Machine (SVM), Logistic Regression (LR) Random Forest (RF), and deep learning algorithms such as Convolution Neural Network (CNN) and Long Short-Term Memory (LSTM). Some researchers have used Dictionary-based methods. Despite the existence of effective techniques in text mining, there are still unresolved challenges. Note that user comments are unstructured texts; Therefore, in order to structure the textual inputs, parsing is usually done along with adding some features, linguistic interpretations and removing additional items, and inserting the next terms in the database, then extracting the patterns in the structured data and finally the outputs will evaluate and interpret. The imbalance of data with the difference in the number of samples in each class of a dataset is an important challenge in the learning phase. This phenomenon breaks the performance of the classifications because the machine does not learn the features of the unpopulated classes well. In this paper, words are weighted based on the prescribed dictionary to influence the most important words on the result of the opinion mining by giving higher weight. On the other hand, the combination of the adjacent words using n-gram methods will improve the outcome. The dictionaries are highly related to the domain of the application. Some words in an application are important but in mobile comments are not impressive. Another challenge is the unbalanced train data, in which the number of positive sentences is not equal to the number of negative sentences. In this paper, two ideas are applied to build an efficient opinion mining algorithm. First, we build a precise dictionary for mobile Persian comments, and the second idea is to balance the positive and negative comments in train data. In summary, the main achievements of the current research can be mentioned: creating a weighted comprehensive dictionary in the field of mobile phone opinions to increase the accuracy of opinion analysis, balancing positive and negative opinions to improve the accuracy of opinion analysis, and eliminating the negative effect of overfitting and providing a precise approach to Determining the polarity of users' opinions about mobile phones using machine learning and recurrent deep learning algorithms. This new method is presented on mobile phone products from the Digikala site and Senti-Pers data. The result is performed with Naive Bayesian, Support Vector Machine, Stochastic Gradient Descent, Logistic Regression, Random Forest, and deep learning methods such as Convolutional Neural Network and Long Short-Term Memory based on parameters such as Accuracy, Precision, Retrieval, and F-Measure. The proposed method increases accuracy on Digikala, with NB between 10% and 34% and SVM between 5% and 24%, SGD between 7% and 38%, LR between 5% to 38%, and RF between 4% Up to 22% and CNN by 4%. The results show an accuracy increment on Senti-Pers, with NB between 12% and 46% and SVM between 5% and 46%, SGD between 5% and 35%, LR between 6% to 46%, and RF between 4% Up to 46%.

    Keywords: Sentiment Analysis, Opinion Mining, Machine Learning, Deep Learning, Polarity}
  • ابوالفضل ابراهیمی*، محبوبه شمسی، مرتضی محجل

    در شبکه های حسگر بی سیم به دلیل عوامل مختلفی از قبیل انرژی محدود، قابلیت انتقال سنسورها، خرابی سخت افزار و مشکلات شبکه مانند برخورد بسته ها، پیوند غیرقابل اطمینان و آسیب های غیر منتظره، مقدار حس شده به سرخوشه یا ایستگاه پایه نمی رسد. لذا از بین رفتن داده ها در شبکه های حسگر بی سیم بسیار متداول است. از دست دادن داده های سنجیده شده، دقت WBAN را کاهش می دهد. برای حل این مشکل، داده های گم شده باید برآورد شوند. به منظور پیش بینی مقادیر گم شده، یک مدل برآورد داده از دست رفته بر اساس شبکه عصبی LSTM (حافظه کوتاه مدت) در این مقاله ارایه شده است. این مدل پنج علامت حیاتی را به عنوان ورودی برای پیش بینی مقدار از دست رفته ترکیب می کند. نتایج نشان می دهد که sgdm-LSTM روش خوبی برای برآورد مقدار از دست رفته است. ضمنا، نتایج تجربی نشان می دهد که میانگین خطای مربع ریشه مقدار برآورد شده کمتر از سایر روش ها است. این مقدار، با بهترین ابر پارامترهای شبکه 4.1495 است.

    کلید واژگان: برآورد, داده ی از دست رفته, شبکه حسگر بی سیم بدن, شبکه ی عصبی مصنوعی, یادگیری عمیق}
    Aboulfazl Ebrahimi *, Mahboubeh Shamsi, Morteza Mohajjel

    In a wireless sensor network (WSN), due to various factors such as limited power, sensor transferability, hardware failure and network problems such as packet collisions, unreliable connection and unexpected damage, the amount sensed to the header or base station is not Arrives. Therefore, data loss is very common in wireless sensor networks. Loss of measured data greatly reduces WBAN accuracy. Because WBAN deals with the vital signs of the human body, network reliability is very important. To solve this problem, missing data must be estimated. In order to predict the missing values, a model for estimating lost data based on LSTM (short-term memory) neural network is presented in this paper. This model combines five vital signs as input to predict the amount lost. The results show that sgdm-LSTM is a good way to estimate the amount lost. In addition, experimental results show that the mean square root error of the estimated value is lower than other methods. This value is 4.1495 with the best network parameters.

    Keywords: WBAN, Deep Learning, Artificial Neural Network, Missing Data, Estimation}
  • نرگس نجفی، مرتضی محجل کفشدوز*، محبوبه شمسی
    سال های اخیر شبکه های کانوولوشنی نتایج چشمگیری در زمینه بینایی ماشین داشته و دقت بالای آن ها باعث شده که از آن ها در زمینه های مختلفی از جمله امنیتی و نظامی استفاده کرد، اما به دلیل محاسبات زیاد این شبکه ها، استفاده از آن ها در سیستم های نهفته که از لحاظ منابع محاسباتی محدودیت دارند، با چالش هایی روبرو است. یکی از روش های حل این مسیله هرس می باشد. در این روش با حفظ ساختار اولیه، بخشی از شبکه با هدف کاهش محاسبات و حافظه، هرس می شود تا بتوان از آن در سیستم های نهفته استفاده کرد. روش های هرس سنتی به طور معمول نیاز به تعیین معیار و میزان هرس به صورت دستی دارند و معمولا هر معیار بر روی یک شبکه خاص پاسخ می دهد. برای حل مشکلات روش های دستی از روش های خودکار استفاده می شود. در بین روش های خودکار، روش های مبتنی بر جست وجوی پیوسته به دلیل سرعت و ایجاد تعادل بین دقت و مقدار هرس شبکه مورد توجه قرار گرفته اند. اما تحقیقات کافی در این زمینه انجام نشده و استفاده از روش های موجود در شبکه های با اتصالات میان بر با چالش روبرو است. در این مقاله روشی بر مبنای جست وجوی پیوسته به منظور هرس شبکه های کانوولوشنی معرفی شده که می توان به راحتی از آن در شبکه هایی که اتصالات میان بر دارند، استفاده کرد. همچنین در روش پیشنهادی به منظور جبران دقت از دست رفته، از اتصالات میان بر استفاده شده است. آزمایشات انجام شده نشان دهنده آن است که روش ارایه شده نقطه تعادل بهتری نسبت به روش های پیشین بین دقت و مقدار هرس شبکه برقرار می کند.
    کلید واژگان: شتابدهی شبکه های عصبی, شبکه های عمیق کانوولوشنی, هرس خودکار شبکه های کانوولوشنی}
    Narges Najafi, Morteza Mohajjel Kafshdooz *, Mahboubeh Shamsi
    In recent years, convolutional networks have achieved impressive results in the field of machine vision. Their high accuracy has led to their use in security and military fields, such as crime prediction and prevention. However, due to the huge calculations required by these networks, they cannot be used in embedded systems with limited computing resources. One solution to this problem is network pruning. In this method, a portion of the network is pruned while maintaining the initial structure to reduce calculations and enable use in embedded systems. Traditional pruning methods typically require manual determination of the criteria and amount of pruning, and they tend to perform well on specific networks. Automatic methods, on the other hand, do not have these disadvantages. However, they must address issues such as relaxing the search space, eliminating overfit during the training process, and addressing differences resulting from relaxing the search space.This article introduces a method based on gradient decent for network pruning. The method automatically searches for the optimal pruned network and can be easily applied to networks with skip connections. To compensate for lost accuracy, dynamic skip connections are used without increasing computation. Tests on valid datasets demonstrate that this method achieves a better balance between accuracy and network pruning than previous methods.
    Keywords: Acceleration of neural networks, deep convolutional networks, pruning of convolutional networks}
  • محبوبه شمسی*، محدثه کریمیان، مرضیه کریمیان

    تشخیص زود هنگام سرطان سینه نقش بسیار کلیدی در درمان بیمار ایفا می کند. امروزه الگوریتم های داده کاوی می توانند روش های هوشمندی در نظام سلامت ارایه دهند که با دقت بالایی سرطان سینه را تشخیص دهند. هدف از انجام این مطالعه، تشخیص سرطان سینه با استفاده از طبقه بندهای ترکیبی بر روی پایگاه داده ی آماده سازی شده ی WBC و WDBC می باشد. مدل پیشنهادی ما در پایگاه داده ی WBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (kstar+ جنگل تصادفی+ شبکه ی بیز و بیزین ساده))، دارای بهترین دقت تشخیص (% 100)، زمان پیاده سازی (0 ثانیه) و بدون هیچ خطایی می باشد و در پایگاه داده ی WDBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (الگوریتم IBK+ شبکه ی بیز، بیزین ساده و kstar))، دارای دقت %99.29، زمان پیاده سازی 0 ثانیه و میانگین خطای مطلق 0.007 می باشد. نتایج این مطالعه نشان می دهد که با توجه به روش های طبقه بند ترکیبی بر روی پایگاه داده ی آماده سازی شده می توان سیستم های نوینی برای کمک به پزشکان طراحی نمود که موجب تسهیل در فرآیندهای تشخیصی و درمانی شوند.

    کلید واژگان: انتخاب ویژگی, بهبود دقت, داده کاوی, طبقه بندهای ترکیبی, نمونه گیری}
    Mahboubeh Shamsi *, Mohadaseh Karimian, Marziyeh Karimian

    Early diagnosis of breast cancer plays a crucial role in treating the patient. Nowadays, data mining algorithms can provide intelligent methods in the health and treatment system that accurately detect breast cancer. The purpose of this study is breast cancer detection using ensemble classifier based on WBC and WDBC prepared databasesa. Our proposed model in the WBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (kstar + random forest + Naïve Bayes and Bayes network)) has the best detection accuracy ( 100%), implementation time (0 seconds) and without any errors and on the WDBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (IBK algorithm+ Naïve Bayes, Bayes network and kstar)) has an accuracy of 99/29, the implementation time is 0 seconds, and the mean absolute error is 0/007. The results of this study show that according to the ensemble classifier methods using data mining algorithms on the prepared database, new systems can be designed to help physicians that facilitate treatment processes.

    Keywords: Accuracy Improvement, Data Mining, Ensemble Classifiers, Feature Selection, Sampling}
  • راضیه هاشمی عالم، محبوبه شمسی*، مجید آقایی

    طبقه‌بندی زیرگروه‌های سرطان وظیفه بسیار مهمی در تشخیص و پیش بینی سرطان هاست. در سال‌های اخیر، روش‌های یادگیری عمیق به همین دلیل محبوبیت قابل‌توجهی به دست آورده‌اند. بااین‌حال، تعیین ساختار شبکه عصبی دشوار است زیرا عملکرد شبکه عمیق تا حد زیادی به ساختار آن بستگی دارد. علاوه بر این، تعداد بالای ژن‌ها در مجموعه داده بیان ژن و عدم تعادل داده‌ها بین رده‌های مختلف تاثیر مستقیمی بر پیچیدگی و عملکرد مدل‌های طبقه‌بندی زیرگروه سرطان دارد. برای پرداختن به مشکل داده‌های نامتعادل، یک مدل شبکه عصبی پیچشی با استفاده از یک راهبرد حساس به هزینه برای افزایش دقت مدل در شناسایی رده‌های اقلیت پیشنهادشده است. از سوی دیگر، از سه تکنیک نسبت فیشر، مجموعه‌های ناهنجار و ترکیبی برای کاهش ژن‌ها در مرحله پیش‌پردازش استفاده شده است. در روش حساس به هزینه، ماتریس هزینه بر اساس توزیع رده‌ها ایجاد شده و سپس از این ماتریس در مرحله تابع هزینه شبکه پیچشی برای محاسبه میزان خطا استفاده شده است. دو مجموعه از مجموعه داده‌های سرطان برای ارزیابی روش پیشنهادی استفاده شده است. نتایج با استفاده از چهار معیار دقت، فراخوانی، صحت و F1-Score مقایسه شده است. نتایج نشان می‌دهد که انتخاب ژن‌های مناسب و استفاده از یادگیری حساس به هزینه توانسته است عملکرد روش پیشنهادی را نسبت به مدل پیچشی بدون انتخاب ویژگی و یادگیری حساس به هزینه در حدود11%، 10% ، 18%، 21%، به ترتیب برای دقت، فراخوانی، صحت و F1-Score افزایش دهد.

  • راضیه هاشمی عالم، محبوبه شمسی*، مجید آقایی

    طبقه‌بندی زیرگروه‌های سرطان وظیفه بسیار مهمی برای تشخیص و پیش آگهی سرطان است. در سال‌های اخیر، روش‌های یادگیری عمیق به همین دلیل محبوبیت قابل‌توجهی به دست آورده‌اند. بااین‌حال، تعیین ساختار شبکه عصبی دشوار است زیرا عملکرد شبکه عمیق تا حد زیادی به ساختار آن بستگی دارد. علاوه بر این، تعداد بالای ژن‌ها در پایگاه داده بیان ژن و عدم تعادل داده‌ها بین طبقات مختلف تاثیر مستقیمی بر پیچیدگی و عملکرد مدل‌های طبقه‌بندی زیرگروه سرطان دارد. برای پرداختن به مشکل داده‌های نامتعادل، یک مدل شبکه عصبی کانولوشن (CNN) با استفاده از یک استراتژی حساس به هزینه برای افزایش دقت مدل در شناسایی کلاس‌های اقلیت پیشنهادشده است. از سوی دیگر، از تکنیک ضریب فیشر برای کاهش ژن‌ها در مرحله پیش‌پردازش استفاده می‌شود. در روش حساس به هزینه، ماتریس هزینه بر اساس توزیع کلاس‌ها ایجاد می‌شود و سپس از این ماتریس در مرحله تابع هزینه شبکه CNN برای محاسبه میزان خطا استفاده می‌شود. دو مجموعه از مجموعه داده‌های سرطان برای ارزیابی روش پیشنهادی استفاده می‌شود. نتایج با استفاده از سه معیار دقت، فراخوانی و دقت مقایسه می‌شوند. نتایج نشان می‌دهد که انتخاب ژن‌های مناسب برای طبقه‌بندی به همراه استفاده از یادگیری حساس به هزینه برای این منظور می‌تواند عملکرد روش پیشنهادی نسبت به مدل CNN بدون انتخاب ویژگی و یادگیری حساس به هزینه حدود 11%، 10% و 18% به ترتیب برای دقت، فراخوانی و صحت افزایش دهد.

    کلید واژگان: دسته بندی, داده های نامتوازن, زیرگروه های سرطان, داده های بیان ژن, یادگیری عمیق CNN}
    Razieh hashemi Alam, Mahbobeh Shamsi*, Majid Aghaee

    Classification of cancer subtypes is very important task for the diagnosis and prognosis of cancer. In recent years, deep learning methods have gained considerable popularity for this reason; however, it is difficult to determine the structure of the neural network because the function of the deep network depends largely on its structure. In addition, the high number of genes in the gene expression database and the imbalanced data between different classes have a direct effect on the complexity and performance of cancer subgroup classification models. To address the problem of unbalanced data, a convolution neural network (CNN) model using a cost-sensitive strategy is proposed to increase the model's accuracy in identifying minority classes. On the other hand, the fisher ratio technique is used to reduce genes in the preprocessing stage. In techniques the cost-sensitive method, a cost matrix is created based on the distribution of classes, and then this matrix is used in the CNN network cost function step to calculate the amount of error. Two sets of cancer datasets are used to evaluate the proposed method. The results show that selecting the appropriate genes for classification along with the use of cost-sensitive learning can increase the performance of the proposed method compared to the CNN model without selecting the feature and cost-sensitive learning about 11%, 10% and 18% in terms of three criteria of accuracy, recall and precision, respectively.

    Keywords: Classification, Imbalanced Data, Cancer subgroups, Geneexpression, Convolution Neural Networks, Cost-sensitive learning}
  • حانیه عباسی، محبوبه شمسی*، عبدالرضا رسولی کناری
    در سال های اخیر، جمعیت افراد بیمار و سالمند که تنها هستند و نیاز به مراقبت دارند، افزایش یافته است. همین مسئله احتیاج به داشتن خانه ی هوشمند برای باخبر بودن از شرایط بیمار را افزایش می دهد. شناسایی فعالیت بیمار با استفاده از حسگرهای تعبیه شده در محیط، اولین قدم برای رسیدن به خانه ی هوشمندی است که در آن اطرافیان بیمار می توانند با نگرانی کمتری، بیمار را در خانه تنها بگذارند. در این پژوهش، انواع روش های تشخیص عملکرد کاربران در خانه ی هوشمند ارایه می شود و پس از آن به روش جدیدی برای شناسایی میزان خطر که در آن از منطق فازی در مواردی مثل زمان شروع فعالیت استفاده شده، پرداخته می شود. سیستم استفاده شده برای تشخیص میزان خطر، در سه فاز از منطق فازی استفاده کرده است. در این روش به دلیل آنکه برای افراد با شرایط خاص پیاده سازی شده است، از حسگرهای پوششی استفاده نشد زیرا اگر از سنسورهای پوشیدنی برای بررسی بروز این مشکل استفاده شود، برای سالمند سختی به همراه دارد و حتی یک فرد آلزایمری ممکن است فراموش کند آن را بپوشد که با توجه به این شرایط، پیاده سازی این لایه نیز نتایج خوبی - یعنی دقت 84% - را بدست آورد.
    کلید واژگان: خانه ی هوشمند, شناسایی فعالیت, افراد مسن, بیماری آلزایمر, منطق فازی}
    Hanie Abbasi, Mahboobeh Shamsi *, Abdolreza Rasuli Kenari
    In recent years, the number of sick and elderly people that are living alone in their homes and need care has grown. This is why the smart home is needed for the awareness of their condition. Identification of the patient's activity using environment sensors is the first step in implementing a smart home. In such a home, the patient's relatives can leave the patient alone with less concern. In this research, various methods of recognizing user’s activity in the smart home are presented, and then a new method is introduced to diagnose the risk amount of Alzheimer's patients in which fuzzy-logic is used in cases such as start-up time of the activity. This system uses fuzzy logic in three phases. Since this method is considered for specific patients, the wearing sensors are not used because they have difficulties for the elderly and even an Alzheimer's patient may forget to wear them. However, the implementation of this layer also achieved good results, i.e., 84% accuracy.
    Keywords: Smart home, Activity identification, Elderly people, Alzheimer’s disease, Fuzzy Logic}
  • محبوبه شمسی*، محدثه کریمیان، مرضیه کریمیان
    تشخیص زود هنگام سرطان سینه نقش بسیار کلیدی در درمان بیمار ایفا می کند. امروزه الگوریتم های داده کاوی می توانند روش های هوشمندی در نظام سلامت ارایه دهند که با دقت بالایی سرطان سینه را تشخیص دهند. هدف از انجام این مطالعه، تشخیص سرطان سینه با استفاده از طبقه بندهای ترکیبی بر روی پایگاه داده ی آماده سازی شده ی WBC و WDBC می باشد. مدل پیشنهادی ما در پایگاه داده ی WBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (kstar+ جنگل تصادفی+ شبکه ی بیز و بیزین ساده))، دارای بهترین دقت تشخیص (% 100)، زمان پیاده سازی (0 ثانیه) و بدون هیچ خطایی می باشد و در پایگاه داده ی WDBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (الگوریتم IBK+ شبکه ی بیز، بیزین ساده و kstar))، دارای دقت %99.29، زمان پیاده سازی 0 ثانیه و میانگین خطای مطلق 0.007 می باشد. نتایج این مطالعه نشان می دهد که با توجه به روش های طبقه بند ترکیبی بر روی پایگاه داده ی آماده سازی شده می توان سیستم های نوینی برای کمک به پزشکان طراحی نمود که موجب تسهیل در فرآیندهای تشخیصی و درمانی شوند.
    کلید واژگان: انتخاب ویژگی, بهبود دقت, داده کاوی, طبقه بندهای ترکیبی, نمونه گیری}
    Mahboubeh Shamsi *, Mohadaseh Karimian, Marziyeh Karimian
    Early diagnosis of breast cancer plays a crucial role in treating the patient. Nowadays, data mining algorithms can provide intelligent methods in the health and treatment system that accurately detect breast cancer. The purpose of this study is breast cancer detection using ensemble classifier based on WBC and WDBC prepared databasesa. Our proposed model in the WBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (kstar + random forest + Naïve Bayes and Bayes network)) has the best detection accuracy ( 100%), implementation time (0 seconds) and without any errors and on the WDBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (IBK algorithm+ Naïve Bayes, Bayes network and kstar)) has an accuracy of 99/29, the implementation time is 0 seconds, and the mean absolute error is 0/007. The results of this study show that according to the ensemble classifier methods using data mining algorithms on the prepared database, new systems can be designed to help physicians that facilitate treatment processes.
    Keywords: Accuracy Improvement, Data Mining, Ensemble Classifiers, Feature Selection, Sampling}
  • بهرام رضایی*، محبوبه شمسی

    ماهیت سه بعدی جریان در کانال های مرکب با سیلاب دشت های منشوری، پیش بینی توزیع سرعت و تنش برشی را برای مهندسین هیدرولیک به امری دشوار تبدیل کرده است. این پیچیدگی ها درمواقعی که سیلاب دشت ها از حالت منشوری به غیرمنشوری تغییر شکل دهند، افزایش قابل ملاحظه ای می یابد. در کانال های مرکب غیرمنشوری با سیلاب دشت های همگرا، به دلیل تغییرات هندسی کانال، تبادل جرم و به دنبال آن اندرکنش بین جریان سیلاب دشت ها و کانال اصلی افزایش می یابد. در این تحقیق براساس معادله دیفرانسیل ناویه- استوکس (Navier-Stokes) متوسط گیری شده در عمق، یک روش تحلیلی ارایه و با استفاده از آن، توزیع سرعت متوسط در عمق و تنش برشی جداره در کانال مرکب غیرمنشوری با سیلاب دشت های همگرا مورد مطالعه قرار گرفته است. بدین منظور و جهت در نظر گرفتن تاثیر جریان ثانویه در معادله دیفرانسیل ناویه- استوکس متوسط گیری شده در عمق، متوسط زمانی حاصل ضرب مولفه های سرعت، متناست با حاصل ضرب مولفه های سرعت متوسط در عمق، در نظر گرفته شده است. همچنین به دلیل غیر یکنواختی جریان شیب خط انرژی در معادله حاکم جایگزین شیب طولی کانال شده است. سپس نتایج سرعت متوسط در عمق و تنش برشی پیش بینی شده در کانال مرکب با سیلاب دشت های همگرا برای دو زاویه همگرایی 31/11 و 81/3 درجه، با نتایج حاصل از روش شیونو و نایت (Shiono and Knight Method)، روش شیونو و نایت اصلاح شده به وسیله Rezaei و Knight  (2009)، (MSKM) و نیز داده های آزمایشگاهی مربوطه مقایسه شده است. بررسی ها حکایت از انطباق بهتر داده های آزمایشگاهی و نتایج حاصل از روش تحلیلی ارایه شده، دارد.

    کلید واژگان: کانال مرکب غیرمنشوری, معادلات ناویه- استوکس, روش اصلاح شده شیونو و نایت}
    Bahram Rezaei *, Mahbobeh Shamsi

    Prediction of flow filed in compound channel is an important task for hydraulic researches because of three-dimensional nature of flow. The complexity of the problem increases, significantly, when floodplains geometry changes from prismatic to non-prismatic form. In non-prismatic compound channels with converging floodplains, the main feature consists of the mass and consequent momentum exchange between the floodplains and the main channel. In the present work based on the depth-averaged Navier-Stokes equation an analytical method is proposed and used to predict the depth-averaged velocity and boundary shear stress distribution in non-prismatic compound channels with converging floodplains.  In order to consider the effect of the secondary flows in the depth-averaged Navier-Stokes equation, temporal mean velocity components are assumed to be a portion of the depth-averaged velocity. Also, since the flow condition is not uniform; the flume bed slope has been replaced by the energy line slope. The results of the proposed analytical method are then compared with the experimental data, the modified SKM suggested by Rezaei and Knight (MSKM) and the SKM method. The study shows that there are good agreement between the results of the new analytical method and the experimental data.

    Keywords: Non-prismatic compound channel, Navier stokes equation, Modified shiono, knight method}
  • عطیه فیروزه*، مرتضی محجل، محبوبه شمسی

    با گسترش کاربرد شبکه‌های عصبی، عمیق شدن و افزایش پارامترهای شبکه، در عین حال محدودیت منابع محاسباتی، محدودیت در حافظه و تفسیرناپذیر شدن این شبکه‌ها، فشرده‌سازی شبکه‌های عصبی مورد توجه قرار گرفته است. فشرده‌سازی ‌می‌بایست به صورت هوشمندانه باشد، به نحوی که ما را از مزایای بهره مندی از شبکه‌های عصبی عمیق جدا نکند. هرس به عنوان یکی از روش‌های فشرده‌سازی با حذف پارامترهای غیرضروری شبکه، همواره مورد اقبال پژوهشگران بوده است، به نحوی که در پژوهش‌های اخیر سعی شده است، مرحله‌ای با عنوان هرس پیش از آموزش شبکه، در مراحل قبل از راه‌اندازی شبکه گنجانده شود تا از مزایای فشرده‌سازی و هرس در مراحل آموزش و استنتاج شبکه بهره برده شود. در مقاله پیش رو سعی شده است، مروری بر روش‌های هرس با تاکید بر هرس‌های پیش از آموزش شبکه انجام شود. در ابتدا مبانی هرس مطرح شده، سپس انواع هرس به همراه تعریف ریاضی هریک مطرح و در نهایت بررسی دقیق‌‌تر‌ی روی هرس‌های پیش از آموزش شبکه انجام شده است.

    کلید واژگان: شبکه عصبی عمیق, فشرده سازی شبکه عصبی, فرضیه بلیط بخت آزمایی, هرس پیش از راه اندازی شبکه}
    Atieh firoozeh*, M.Mohajel, M.Shamsi

    With the expansion of the use of neural networks, increase deep of NN, and increase of network parameters, as well as the limitation of computational resources, the limitation of memory, and the incomprehensibility of these networks, the compression of neural networks is necessary. Compression must be intelligent, so as not to deprive us of the benefits of deep neural networks. Pruning is one of the compression methods that eliminate unnecessary network parameters. in recent research, Pruning has always been favored by researchers as far as a step called pruning at the initial design that pruned the initial network to include the benefits compression and pruning in the training and inference. this article reviews pruning techniques in deep neural networks with emphasis on Prune at initializing. First, the basics of pruning are discussed, then the types of pruning with the mathematical definition of each discussed, and finally, a more detailed study of pruning before network training has been done.

    Keywords: pruning NN, Sparsification NN, Comperesion NN, LTH}
  • محبوبه شمسی*، مرضیه دیوانی، عبدالرضا رسولی کناری
    پیشینه و اهداف

    زبان اشاره یک زبان دیداری است که از شکل های دست، بیان چهره ای ژست ها و زبان بدنی جهت برقراری ارتباط استفاده می کند. مطالعات زبان شناختی نشان داده اند که زبان های اشاره هم چون زبان های گفتاری، طبیعی و برطرف کننده نیاز ارتباطی گویشوران خود هستند. زبان اشاره نه یک زبان واحد است که جهانی باشد و نه هر کشوری زبان اشاره معادل زبان گفتاری خود دارد. زبان های اشاره بسیاری در جهان وجود دارند؛ از جمله زبان اشاره آمریکایی، انگلیسی، ژاپنی، ایتالیایی، ترکی، فارسی و... . زبان اشاره فارسی، زبان طبیعی ناشنوایان ایران می باشد.توانایی ارتباط موثر گامی پراهمیت در برقراری روابط و مشارکت ناشنوایان در اجتماع است. پشتیبانی و حمایت نشدن از جانب جامعه شنوا، افراد ناشنوا را به سمت منزوی شدن و سایر مشکلات اجتماعی می کشاند. به منظور غلبه بر موانعی که میان افراد شنوا و افراد دچار آسیب شنوایی وجود دارد، سیستم مترجمی نیاز است تا پیغام ها را متناسب با زبان گفتاری به زبان اشاره ای آن بازگرداند. یک سیستم مترجم زبان اشاره می تواند توسط ناشنوایان، خانواده ها و دوستان این دست از افراد، افراد نابینا - ناشنوا، افرادی که بر اثر عواملی، قدرت تکلم خود را از دست داده اند، اساتید و معلمان، کادر پزشکی و نیز افرادی که علاقه مند به یادگیری این زبان هستند، مورد استفاده و بهره برداری قرار گیرد. این مقاله، با ارایه یک سیستم مترجم خودکار جهت ترجمه زبان فارسی به زبان اشاره فارسی، درصدد آن است که ناشنوایان ایران را در برقراری ارتباط هرچه بهتر یاری رساند.

    روش ها 

    سیستم مترجم پیشنهادی، به منظور تبدیل متن فارسی به زبان اشاره فارسی نیازمند استفاده از یک معماری می باشد. به دلیل ماهیت زبان فارسی به عنوان زبان ورودی سیستم مترجم و نیز مشکلات موجود در زبان اشاره فارسی به عنوان زبان خروجی سیستم مترجم، معماری سیستم های مترجم ارایه شده در سایر زبان ها قابل ارایه و توسعه در خصوص زبان فارسی نمی باشند. یکی از مهم ترین مسایل در زبان اشاره فارسی، عدم وجود اشاره معادل برای برخی کلمات است. به منظور فایق آمدن بر این مشکلات، معماری متناسب با زبان فارسی و زبان اشاره فارسی ارایه شد. سیستم ارایه شده، با استفاده از معماری پیشنهادی، متن به زبان فارسی را در قالب کلمه یا جمله از کاربر دریافت کرده، پس از انجام پردازش های اولیه و با استفاده از ماژول تبدیل واژگانی، آن را به معادل خود در زبان اشاره فارسی تبدیل و ترجمه می نماید. در نهایت، زبان اشاره معادل یک کلمه، عبارت یا جمله ورودی، توسط یک آواتار، نمایش داده خواهد شد. برای این منظور، از انتقال کلمات ترجمه شده به زبان میانی سیستم نشان گذاری هامبورگ (HamNoSys)، تبدیل زبان میانی به زبان نشان گذاری حالات اشاره (SiGML) و آن گاه به حرکت درآوردن شخصیت انیمیشنی به کمک آن، استفاده می شود.

    یافته ها

    برای ارزیابی سیستم مترجم زبان فارسی به زبان اشاره فارسی، از یک مجموعه جمله تست استفاده شده است. پس از بررسی های صورت گرفته مشخص شد سیستم پیشنهادی کارایی، فضای ذخیره سازی و سرعت قابل قبولی دارد.

    نتیجه گیری

    تحقیقات در زمینه علوم بین رشته ای زمانی بسیار کارآمد و موثر است که تحقیقات در تمام علوم درگیر، به میزان برابر انجام شده و هریک چالش های مربوط به رشته خود را برطرف سازند. به عنوان نمونه، مهم ترین چالش در تکمیل سیستم مترجم زبان اشاره فارسی، عدم وجود پژوهش زبان شناختی در خصوص زبان اشاره فارسی می باشد. سیستم مترجم ارایه شده، ترکیبی از علوم زبان شناسی، علوم اجتماعی و علوم مهندسی است. تمرکز بر روی هریک از این بخش ها و ارتقای آن ها، باعث پیشرفت چشمگیر در سیستم ارایه شده می شود. با این وجود، سیستم ارایه شده، می تواند تا حد زیادی روابط میان افراد شنوا و ناشنوا را بهبود بخشد. می توان روی هریک از ماژول های معماری پیشنهادی تمرکز کرد و به ارتقا و بهبود هرکدام پرداخت. همچنین می توان به یکپارچه سازی واحد احساسات و حالات صورت با شخصیت انیمیشنی پردداخت تا حالات صورت این آواتار، متناسب با شرایط تغییر کند.

    کلید واژگان: ناشنوایان, زبان اشاره فارسی, پردازش زبان طبیعی, ترجمه ماشینی, انیمیشن}
    M. Shamsi *, M. Divani, A. Rasouli Kenari
    Background and Objectives

    Sign Language is a visual language that uses hand shapes, facial expression gestures, and body language for communication. Linguistic studies have shown that Sign Languages, like spoken languages, are natural and meet the communication needs of their speakers. Sign Language is not a single language that can be universal, nor every country has a Sign Language equivalent to its own spoken language. There are many Sign Languages ​​in the world including the American, English, Japanese, Italian, Turkish, and Persian Sign Language. The Persian Sign Language is the natural language of the deaf in Iran. The ability to communicate effectively is an important step in establishing relationships and participation for the deaf in the community. Lack of support from the hearing community leads deaf people to isolation and other social problems. In order to overcome the obstacles that exist between hearing and hearing impaired people, a translator system is needed to translate messages into the Sign Language in accordance with their spoken language. A Sign Language translation system can be used by the deaf, the family and friends of such people, the blind-deaf people, the people who have lost their ability to speak due to some factors, the professors and teachers, the medical staff and also people who are interested in learning this language. This article, by providing an automatic translator system for translating from the Persian Language into the Persian Sign Language, aims to help the deaf in Iran to communicate better.

    Methods

    The proposed translator system requires the use of an architecture in order to convert the Persian text into the Persian Sign Language. Due to the nature of the Persian language as the input language of the translator system and also the problems inherent in the Persian Sign Language as the output language of the translator system, the architecture of the translation systems presented in other languages ​​cannot be presented and developed regarding the Persian language. One of the most important issues in the Persian Sign Language is lack of equivalent signs for some words in the Persian language. In order to overcome these problems, an architecture appropriate to the Persian language and the Persian Sign Language was presented. By using the proposed architecture, the proposed system, receives the Persian text as an input in the form of word or sentence from the user, and after performing the initial processing and by using the lexical transfer module, the system translates the text into the Persian Sign Language. Finally, by using an avatar, the Sign Language form corresponding the input of a word, phrase, or sentence can be represented. For this purpose, transfering the translated words into HamNoSys notation, turning the HamNoSys notation to SiGML language and then animating the 3D character with the help of this language are used.

    Findings

    To evaluate the translation system of the Persian language to the Persian Sign Language, a set of test sentences were used. After evaluating the system, it was found that the proposed system has acceptable efficiency, storage space and speed.

    Conclusion

    Research in interdisciplinary sciences is only effective and influential when research in all of the sciences involved is done equally and each science solves the challenges of its own field of study. For example, the most important challenge in completing the Persian Sign Language translation system is lack of linguistic research on Persian Sign Language. The proposed translation system is a combination of linguistic, social, and engineering sciences. Focusing on each of these areas and upgrading them will considerably improve the proposed system. However, the proposed system can improve the relationship between the hearing and the hearing impaired people to a great extent. One can focus on any of the proposed architecture modules and upgrade and improve each of them. It is also possible to integrate the section of emotions and facial expressions with the animated character so that the facial expressions of this avatar can change according to the conditions.  

    Keywords: Deaf, Persian Sign Language, Natural Language Processing, machine translation, Animation}
  • شیوا اسدیان فام، محبوبه شمسی*، عبدالرضا رسولی کناری

    کاهش معضلات حمل ونقل در خصوص ایمنی، ترافیک و به تبع آن تاثیرات انسانی، اجتماعی و اقتصادی یکی از چالشهای اصلی جوامع بشری محسوب می شود. افزایش تخلف رانندگی و اثرات مضر آن یکی از مهمترین مسایل اجتماعی در کشورهای مختلف است داده های چند رسانه ای/ غیرساختیافته در چند سال گذشته رشد شگفت انگیزی داشته است. سهم کلان داده و تشخیص رفتار در این رابطه، بیشتر با کنترل مکانیزه تخلف رانندگان مطرح می شود. در سیستم کنونی کنترل توسط نیروی انسانی (پلیس یا اپراتور) صورت می پذیرد. هدف از این تحقیق کنترل مکانیزه تخلف رانندگان مبتنی بر معماری توزیع شده و مدل برنامه نویسی نگاشت/کاهش (Map / Reduce) است که باعث کاهش زمان پردازش با استفاده از ابزار هادوپ می باشد. به منظور بررسی و تست سیستم پیشنهادی از اطلاعات دوربین های موجود در سطح شهر استفاده شده است که از مرکز کنترل ترافیک راهنمایی و رانندگی شهرستان یزد در ایران بدست آمده است. نتایج بیانگر این نکته است که زمان پردازش برای مجموعه داده های بزرگ با استفاده از هادوپ و اجرای برنامه فقط با یک گره پیرو نسبت به اجرای برنامه ترتیبی بیش از 87 درصد کاهش پیدا می کند.  همچنین کارآیی سیستم با افزایش تعداد گره های داده بیش از 75 درصد افزایش پیدا می کند.  الگوریتم ارایه شده در این مقاله بدون حضور اپراتور 24 ساعته قادر به تشخیص رفتارهای نامناسب رانندگان است. بنابراین در صورت عدم حضور اپراتور نیز رفتار نادرست و تخلف رانندگان  دور از چشم نخواهد بود.

    کلید واژگان: تشخیص رفتار رانندگان, ایمنی حمل ونقل, کنترل دوربین های نظارتی, تخلفات ترافیکی, رفتارهای ناایمن, نگاشت, کاهش}
    Shiva Asadianfam, Mahboubeh Shamsi*, Abdolreza Rasouli Kenari

    Reducing transportation problems regarding safety, traffic and consequently the human, social and economic impacts is one of the main challenges of human societies. The incremental increase in driving violations and their harmful effects are one of the most important social issues in different countries. Multimedia/unstructured data has grown dramatically over the last few years. The share of big data and behavior detection in this regard are more likely to be addressed by controlling the mechanized violation of drivers. In the current system, control is carried out by human sources (police or operator). The purpose of this research is to control the mechanized violation of drivers based on distributed architecture and the Map / Reduce programming model that reduce processing time (CPU time) with Hadoop. In order to investigate and test the proposed system, information about cameras available in the city has been obtained from the Traffic Control Center of Yazd city in Iran. The results indicate that the processing time for a big data using Hadoop and executing the program only with a single slave-node decreases by more than 87% relative to the implementation of the program sequentially. Also, system performance increases by increasing the number of data nodes by more than 75%. The algorithm presented in this article without 24-hour operator is able to recognize inappropriate and violation behavior of drivers. Therefore, if the operator is not present, the driver's behavior will not be out of sight.

    Keywords: Behavior detectors, transport safety, control cameras, traffic violations, unsafe behaviors, map, reduce}
  • محبوبه شمسی*، محدثه کریمیان، مرضیه کریمیان

    تشخیص زود هنگام سرطان سینه نقش بسیار کلیدی در درمان بیمار ایفا می کند. امروزه الگوریتم های داده کاوی می توانند روش های هوشمندی در نظام سلامت ارایه دهند که با دقت بالایی سرطان سینه را تشخیص دهند. هدف از انجام این مطالعه، تشخیص سرطان سینه با استفاده از طبقه بندهای ترکیبی بر روی پایگاه داده ی آماده سازی شده ی WBC و WDBC می باشد. مدل پیشنهادی ما در پایگاه داده ی WBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (kstar+ جنگل تصادفی+ شبکه ی بیز و بیزین ساده))، دارای بهترین دقت تشخیص (% 100)، زمان پیاده سازی (0 ثانیه) و بدون هیچ خطایی می باشد و در پایگاه داده ی WDBC (کاهش ویژگی ها با CFS+ بهینه کردن نمونه ها با روش Resample+ طبقه بند ترکیبی (الگوریتم IBK+ شبکه ی بیز، بیزین ساده و kstar)، دارای دقت %99.29، زمان پیاده سازی 0 ثانیه و میانگین خطای مطلق 0.007 می باشد. نتایج این مطالعه نشان می دهد که با توجه به روش های طبقه بند ترکیبی بر روی پایگاه داده ی آماده سازی شده می توان سیستم های نوینی برای کمک به پزشکان طراحی نمود که موجب تسهیل در فرآیندهای تشخیصی و درمانی شوند.

    کلید واژگان: انتخاب ویژگی, بهبود دقت, داده کاوی, طبقه بندهای ترکیبی, نمونه گیری}
    Mahboubeh Shamsi *, Mohadaseh Karimian, Marziyeh Karimian

    Early diagnosis of breast cancer plays a crucial role in treating the patient. Nowadays, data mining algorithms can provide intelligent methods in the health and treatment system that accurately detect breast cancer. The purpose of this study is breast cancer detection using ensemble classifier based on WBC and WDBC prepared databasesa. Our proposed model in the WBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (kstar + random forest + Naïve Bayes and Bayes network)) has the best detection accuracy ( 100%), implementation time (0 seconds) and without any errors and on the WDBC database (reducing features by cfs+ optimizing samples using Resample+ ensemble classifier using data mining algorithms (IBK algorithm+ Naïve Bayes, Bayes network and kstar)) has an accuracy of 99/29, the implementation time is 0 seconds, and the mean absolute error is 0/007. The results of this study show that according to the ensemble classifier methods using data mining algorithms on the prepared database, new systems can be designed to help physicians that facilitate treatment processes.

    Keywords: Accuracy Improvement, Data Mining, Ensemble Classifiers, Feature Selection, Sampling}
  • محمد لطافت، عبدالرضا رسولی کناری*، محبوبه شمسی

    پیشینه و اهداف :

    جریان اصلی جامعه به دلیل عدم توانایی در برقراری ارتباط با جامعه ناشنوایی باعث گوشه گیری این افراد شده است. در حال حاضر سالانه 1400 ناشنوای عمیق در کشور متولد می شود که بیشتر این کودکان دارای خانواده شنوا هستند. به همین دلیل والدین در سال های ابتدایی زندگی کودک، به دلیل عدم آشنایی با زبان اشاره نمی توانند الگوی کاملی از زبان اشاره را به آن ها آموزش دهند. همانطور که از نام «زبان اشاره» پیداست، در زبان اشاره از اشارات و یا به عبارت دقیق تر از حرکات، حالات دست، چشم، و جهت ایستادن، برای انتقال منظور بهره برده می شود. چنانچه به طور مثال حرکت دهان یا حالت کلی صورت تغییر کند، معنای کلمه تولید شده نیز می تواند تغییر کند، یا به عبارت دیگر کلمه دیگری تولید می شود. همین اصل در مورد حرکات انگشتان و دست ها نیز صادق است. مهم ترین عامل ارتباط بین انسان ها، توانمندی در برقراری ارتباط از روش های مختلف مانند گفتار، نوشتار و زبان اشاره می باشد. ناتوانی افراد کم شنوا و ناشنوا در برقراری ارتباط صمیمانه، هم چنین نبود آموزش مرسوم با توجه به نیازهای جامعه، باعث کنارگذاری این افراد شده است. سیستم های مترجم متن به زبان اشاره به منظور برطرف کردن مشکلات برقراری ارتباط بین افراد ایجاد شده اند. به دلیل غیرساخت یافته بودن زبان فارسی و هم چنین مشکلات زبان اشاره فارسی استفاده از سیستم های مترجم سایر کشور ها عملا امکان پذیر نمی باشد. این پژوهش به دنبال معرفی سیستمی می باشد که متن فارسی را دریافت کرده و بعد از انجام پردازش زبان طبیعی لازم، آن را به زبان اشاره فارسی تبدیل کند.

    روش ها:

     برای انجام این مهم با چالش های متعددی چون کمبود حرکات اشاره به نسبت تعداد کلمات موجود در زبان فارسی و هم چنین مشکل ابهام و جناس در برخی کلمات موجود در متون فارسی مواجه هستیم. به منظور رفع مشکلات، معماری سیستم های مشابه قابل استفاده نمی باشد. بنابراین معماری جدیدی پیشنهاد شده است که از ارتباط بین ماژول های برطرف کردن جناس و هم چنین ماژول تبدیل متن ورودی به دنیای ناشنوایان، با استفاده از آنتولوژی طراحی شده استفاده می کند.

    یافته ها

    استفاده از این معماری، نرخ کارایی سیستم مترجم متن فارسی به زبان اشاره ی فارسی را تا 95٪ بهبود بخشیده و باعث افزایش دقت سیستم مترجم تا سه برابر شده است.

    نتیجه گیری

     سیستم مترجم زبان اشاره  به منظور برقراری ارتباط افراد ناشنوا با سایر افراد جامعه ایجاد شده است. به علاوه از سیستم مترجم زبان اشاره می توان به منظور آموزش زبان اشاره نیز بهره برد. پیاده سازی سیستم مترجم زبان اشاره فارسی به دلیل غیرساخت یافته بودن و هم چنین مشکل چندمعنایی و ابهام برخی کلمات در زبان فارسی، هم چنین مشکلات موجود در زبان اشاره فارسی و محدودیت هایی که در تعداد حرکات شناخته شده این زبان وجود دارد، دارای چالش های می باشد، که در این مقاله با ارایه یک معماری جدید چالش ها تا حدود قابل قبولی برطرف شده است. در معماری جدید از دو ماژول تشخیص و تصحیح جناس و تبدیل جملات به دنیای ناشنوایان استفاده شده است. هر دو ماژول از آنتولوژی طراحی شده، مربوط به خود استفاده می کند.

    کلید واژگان: زبان اشاره فارسی, آنتولوژی, ناشنوایان, پردازش زبان طبیعی, تصحیح ابهام}
    M. Letafat, A. Rasouli Kenari *, M. Shamsi
    Background and Objective

    The mainstream of society has isolated deaf people due to their inability to communicate with the deaf community. Currently, 1,400 deaf people are born in the country every year, most of whom have a hearing family. For this reason, parents in the early years of a child's life, due to unfamiliarity with sign language, cannot teach them a complete model of sign language. As the name implies, sign language uses gestures, or more precisely hand, eye, and standing postures to convey meaning. If, for example, the movement of the mouth or the general state of the face changes, the meaning of the word produced can also change, or in other words, another word is produced. The same principle applies to the movements of the fingers and hands. The most important factor through which human beings can form their relationships and connections is using different methods such as speaking, writing and sign language. The point that deaf or semi-deaf people are ignored in communities is because of their disability in forming intimate relationships, and also the lack of common training according to what is needed in the society. The text to sign language translation systems have been created to resolve communication problems among hearing and deaf persons. Due to unstructured Persian language as well as the problems of Persian sign language, using translators’ systems of other countries is not practicable. The present study seeks to design a system that receives Persian text as an input and changes it to Persian sign language after all the necessary natural language processing is done.

    Methods

    In doing this matter, several challenges are seen on our way:  a) The number of Persian sign language words which are few compared to the words in Persian language and b) The ambiguity and pun normally used in Persian language. So, similar systems’ architecture could not be applied. Therefore, a new architecture is proposed that uses the relation between the removal pun modules and input text invert module to the deaf world by using designed ontology.

    Findings

    Using this architecture, the efficiency of the Persian text to Persian sign language translator system has improved to 95% and increased the accuracy of the translator system by tripling.

    Conclusion

    Sign language interpreter system is designed to connect deaf people with other people in the community. In addition, the sign language translator system can be used to teach sign language. Implementing the Persian sign language translator system has challenges due to its unstructured as well as the problem of ambiguity of some words in Persian, as well as the problems in Persian sign language and the limitations in the number of known movements of this language. The paper addressed the challenges to an acceptable degree by presenting a new architecture. In the new architecture, two modules for recognizing and correcting puns and converting sentences into the world of the deaf have been used. Both modules use their own designed ontology.

    Keywords: Farsi Sign Language, Ontology, Deaf, Normal Language Analysis, Correction of Ambiguity}
  • آزاده منتظری، محبوبه شمسی*، روح الله دیانت
    پیشینه و اهداف

    پردازش تصویر یکی از مسایل مهم در حوزه ی هوش مصنوعی می باشد که در موارد مختلف صنعتی، پزشکی، نظامی، سیستم مای امنیتی و.. کاربرد دارد. از مهم ترین زمینه های کاربردی پردازش تصویر استخراج قواعد طبقه بندی در حیطه علم پزشکی است. با به کارگیری الگوریتم های قدرتمند این حوزه می توان سیستم های هوشمندی ابداع کرد که به شکل خودکار و بدون نیاز به نظارت پزشک قادر به فهم و تفسیر ویژگی های پزشکی افراد باشند یا اطلاعات مفیدی را اکتشاف کنند که متخصصان را در قضاوت صحیح یاری رساند. زمانی که پارامترهای لازم برای تشخیص بیماری زیاد می شود، تشخیص و پیش بینی بیماری حتی برای یک متخصص خبره پزشکی نیز به سختی ممکن می گردد به همین دلیل در چند دهه اخیر ابزار تشخیص کامپیوتری باهدف کمک به پزشک مورد استفاده قرارگرفته است. این مهم موجب شده است که خطاهای احتمالی ناشی از خستگی یا بی تجربگی فرد متخصص تا حدی کاهش پیدا کند و داده های پزشکی موردنیاز، طی مدت زمان کمتر و با جزییات و دقت بیشتر در اختیار پزشک قرار گیرد. هدف از این مطالعه بهبود عملکرد طبقه بندی روش های نوین، با استفاده از مدلی چندلایه به منظور کمک به تشخیص بیماری های شبکیه ی چشم است.

    روش ها

    این مدل از الگوریتم K-SVD پیشرفته، برای یادگیری ماتریس دیکشنری و الگوهای پایه استفاده می کند تا بتواند با الگوپذیری از معماری چندلایه، ویژگی های بهتری را در تصاویر OCT شبکیه بیاموزد. همچنین در این معماری، علاوه بر استفاده از برچسب های کلاس داده های آموزشی، اطلاعات برچسب نیز در هر ستون پایه در ماتریس دیکشنری ترکیب می شود تا در کدگذاری تنک در طی فرآیند یادگیری دیکشنری بیشترین تبعیض اعمال شود که این منجر به موفقیت مراحل کدگذاری تنک و جمع بندی، در پیدا کردن نمایش موثرتری از داده به منظور طبقه بندی می گردد. برای اعتبارسنجی الگوریتم، از مجموعه داده های داک استفاده شده است. این مجموعه داده شامل اسکن های حجمی از 45 نوع، که 15 نوع حجم از آن طبیعی، 15 نوع بیمار تخریب ماکولای وابسته به سن (AMD) و 15 نوع بیمار ورم ماکولای دیابتی (DME) است که تعداد اسکن های OCT در هر حجم بین 36 تا 97 تصویر متغیر می باشد.

    یافته ها

    نتایج تجربی نشان می دهد که الگوریتم پیشنهادی این مقاله توانسته است با پیشی گرفتن از بسیاری از مدل های جدید یادگیری دیکشنری و نمایش تنک، بسیار خوب عمل نماید و با دقت خوبی منجر به طبقه بندی صحیح %95.85 برای تصاویر نرمال و صد درصد برای تصاویر بیمار (DME و AMD) شود.

    نتیجه گیری

    نتیجه ی این تحقیق ارایه ی سیستمی اتوماتیک به منظور تشخیص برخی ناهنجاری مای شبکیه بود به طوری که با تحلیل و آنالیز بر روی داده های دام توانست با دقت بسیار خوبی در مقایسه با روش های نوین این حوزه در شناسایی الگوهای ظریف بیماری در تصاویر OCT موفق عمل نموده، تصاویر نرمال و بیمار را در دو بیماری تباهی ماکولای وابسته به سن یعنی AMD ورم ماکولای دیابتی یعنی DME را تفکیک و در تشخیص پاتولوژی شبکیه با دقت بسیار بالایی به پزشک معالج کمک کند. به عنوان یک پیشنهاد تحقیقاتی و کاربردی برای متخصصین و آیندگان با تعمیم این روش به کلاس مای بیشتر می توان تمام بیماری مای شبکیه را پوشش داد و از آن به عنوان ابزاری بالقوه موثر در تشخیص کامپیوتری و غربالگری بیماری های شبکیه و یا در حوزه مای وسیع تر چشم استفاده نمود.

    کلید واژگان: یادگیری دیکشنری چند لایه, نمایش تنک, الگوریتم K-SVD, مقطع نگاری همدوسی شبکیه, طبقه بندی}
    A. Montazeri, M. Shamsi *, R. Dianat
    Background and Objective

    Image processing is one of the most important issues in the field of artificial intelligence, which is used in various industrial, medical, military, and security systems. One of the most important applications of image processing is the extraction of different types of classification in the field of medical sciences. By using powerful algorithms in this field, intelligent systems can be invented that automatically understand and interpret the medical characteristics of individuals without the need to the physician supervision can discover useful information to help experts make good judgments. When the necessary parameters for the diagnosis of the disease increase, the diagnosis and prognosis of the disease becomes very difficult even for an expert, which is why computer diagnostic tools have been used in recent decades to help the physicians. This has led to a reduction in possible errors due to fatigue or inexperience of the specialist, and to provide the required medical data to the physician in less time and with more detail and accuracy. The purpose of this study is to improve the classification of new methods using a multi-layered model to address retinal diseases diagnosis.

    Methods

    This paper presents a multi-layer dictionary learning method for classification tasks.  Our multi-layer framework uses a label consistent in K-SVD algorithm to learn a discriminative dictionary for sparse coding in order to learn better features in retinal optical coherence tomography images. In addition to using class labels of training data, we also associate label information with each dictionary item (columns of the dictionary matrix) to enforce discrimination in sparse codes during dictionary learning process. In fact, it relies on a succession of sparse coding and pooling steps in order to find an effective representation of data for classification. Moreover, we apply Duke dataset for validating our algorithm: Duke spectral domain OCT (SD-OCT) dataset, consisting of volumetric scans acquired from 45 subjects 15 normal subjects, 15 AMD patients, and 15 DME patients.

    Findings

    Our classifier leads to a correct classification rate of 95.85% and 100.00% for normal and abnormal (DME and AMD). Experimental results demonstrate that our algorithm outperforms compared to many recent proposed supervised dictionary learning and sparse representation techniques. Conlusion: The results of this study were to provide an automatic system for the diagnosis of some retinal abnormalities in a way that it could do data analysis with high accuracy in comparison to other modern methods to diagnosis delicate patterns of OCT, separate images of normal and patient the normal and in two age-related macular degeneration diseases (AMD), and diabetic macular degeneration (DME), and help the physician to diagnose retinal pathology with great care. As a suggestion for professionals and future research, by generalizing this method to the more classes, we can cover the entire retinal myopia and use it as a potentially effective tool in computerized diagnosis and screening for retinal disease or in the wider eye area.  

    Keywords: Multi-layer Dictionary Learning, Sparse Representation, K-SVD Algorithm, Optical Coherence Tomography, Classification}
  • مریم سیدی، محبوبه شمسی*، عبدالرضا رسولی کناری

    با توسعه فناوری، استفاده از شبکه‏ های مخابراتی بی سیم برای امور مختلف امری ضروری شده است. این شبکه ها یکی از امن ترین و پرکاربردترین شبکه های موجود هستند که یک نمونه از کاربرد این شبکه ها، شمایی از مراقبت‏های پزشکی و نظارت بر بیمار از راه دور است. ‏ آنچه حایز اهمیت است مقوله ی کیفیت سرویس در این شبکه ها است. هدف این مقاله افزایش گذردهی بسته ها در شبکه حسگر بی سیم بدنی است و فرض شده استفاده از روش پروتکل دسترسی به زمانی (TDMA) در عدالت بسته های ارسالی و افزایش کیفیت سرویس شبکه موثر است. لذا با ارایه پروتکلی در لایه پیوند مبتنی بر اینترنت اشیا سعی شد برخی از پارامترهای کیفیت سرویس بهبود داده شود که حاصل نتایج بررسی و مقایسه این پروتکل با پروتکل های معروف در این حوزه، مشخص شد که پروتکل ارایه شده، نتایج بسیار بهتری در فاکتورهای میزان تاخیر، مصرف انرژی و توان گذردهی دارد. میزان بهبودی الگوریتم پیشنهادی در زمینه تاخیر 23.67 درصد و در زمینه انرژی 27.12 درصد و در زمینه گذردهی 10 درصد بوده است.

    کلید واژگان: اینترنت اشیا, کیفیت سرویس, شبکه های حسگر بدنی, پروتکل دسترسی به چندین بخش زمانی, شبکه های حسگر بی سیم بدنی}
    Maryam Seyedi, Mahboobeh Shamsi*, Abdolreza Rasuli Kenari

    With the development of technology, the use of wireless telecommunication networks for the various affairs is essential. These networks are one of the safest and most widely used networks, for instance, in medical care and remote patient monitoring. What matters is the quality of service in these networks. The purpose of this paper is to increase packet transduction in a wireless body area network by assuming that the use of time-based access protocol (TDMA) method is effective in increasing the accuracy of packets and increasing the quality of network service. Therefore, by presenting a protocol in the link layer of the Internet of Things, some of the parameters of the quality of service were improved. Compared with other methods, the proposed protocol yielded better results in terms of latency, energy consumption and throughput. The proposed algorithm improvement was 23.67% in the packet delay, 27.12% in the energy consumption, and 10% in throughput.

    Keywords: Internet of Things, Quality of Service, Physical Sensor Networks, Time Division Multiple Access Protocol, Wireless Body Area Networks}
  • نگار صادق زاده*، محبوبه شمسی، عبدالرضا رسولی کناری
    با توجه به رشد تصاویر دیجیتال در دنیای امروز نیاز به روش هایی کارا برای حاشیه نویسی تصاویر احساس می شود. در این مقاله، از روش خوشه بندی نیمه نظارت شده طیفی همراه با بازخورد مرتبط برای حاشیه نویسی تصاویر دیجیتال استفاده شده است که استفاده از این روش باعث غلبه کردن بر مسئله همگرا شدن در مینیمم محلی شده است. عملکرد روش پیشنهادی بر روی 5000 داده مجموعه داده Corel تست شده است و نتایج بدست آمده نشان دهنده کارآیی و دقت بالای روش پیشنهادی در مقایسه با روش های خوشه بندی دیگر است.
    کلید واژگان: حاشیه نویسی تصاویر, یادگیری نیمه نظارتی, خوشه بندی طیفی نیمه نظارتی, بازخورد مرتبط}
    Mrs Negar Sadeghzadeh *, Dr Mahboubeh Shamsi, Dr Abdolreza Rasouli Kenari
    Due to the growth of digital images require efficient methods to annotate the images is sense. In this paper, a semi-supervised spectral clustering with relevance feedback is used to annotate digital photos which is overcome the local minima problem on clustering methods by using some labeled information given by users. Performance of the proposed method is tested on Corel 5K dataset and the results demonstrate the efficiency and accuracy of the proposed method compared with other clustering methods.
    Keywords: Image Annotation, Semi, supervised learning, Semi, supervised spectral clustering, Relevance feedback}
  • Mahboubeh Shamsi, Reza Rasouli, Soudeh Shadravan
    One of the most important stages in Character Recognition Systems is “Segmentation”, because any mistake will affect to all other tasks, especially to character recognition. This operation is more complex in Persian/Arabic writing than other Latin writing like English, and there has been an ongoing research on it. Other algorithms, that has been used as base as proposed algorithm, show 85% accuracy. In this paper, a new improved method has been presented by analyzing the visual features of the Persian/Arabic language. The proposed algorithm is able to segment existing fonts up to 98.5% accuracy or even 100% on some cases. The remaining error could be refined by applying a good character recognition technique and a precise vocabulary.
سامانه نویسندگان
  • محبوبه شمسی نژاد
    شمسی نژاد، محبوبه
    دانشجوی دکتری روانشناسی بالینی، دانشگاه تبریز
  • محبوبه شمسی
    شمسی، محبوبه
    دانشیار برق و کامپیوتر، دانشگاه صنعتی قم
اطلاعات نویسنده(گان) توسط ایشان ثبت و تکمیل شده‌است. برای مشاهده مشخصات و فهرست همه مطالب، صفحه رزومه ایشان را ببینید.
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال