فهرست مطالب

رایانش نرم و فناوری اطلاعات - سال هشتم شماره 3 (پاییز 1398)

مجله رایانش نرم و فناوری اطلاعات
سال هشتم شماره 3 (پاییز 1398)

  • تاریخ انتشار: 1398/07/01
  • تعداد عناوین: 7
|
  • علی اکبری، حسن فرسی، سجاد محمدزاده* صفحات 1-9
    تشخیص گروه های اجتماعی یکی از مسائل مهم و پیچیدهای است که در چند سال اخیر مورد توجه قرار گرفته است. تشخیص گروه های اجتماعی و همچنین نحوه ارتباط با اعضای گروه های اجتماعی از جمله مسائلی است که ربات های انسان نما در آینده نزدیک به آن نیاز دارند. پایگاه داده ها حاوی اطلاعات مسیر افراد و همچنین شماره افراد می باشند. هدف، یافتن گروه های اجتماعی با حداقل دو نفر و یا تشخیص انفرادی بودن حرکت افراد است. در روش پیشنهادی برای تشخیص گروه های اجتماعی از ویژگی های فاصله افراد، شباهت مسیر طی شده و شباهت دو دنباله حرکت بین هر دو نفر استفاده شده است. استخراج این ویژگی ها نسبت به ویژگی های بکار رفته تاکنون نیاز به زمان کمتری دارد. علاوه بر دقت و صحت، کارایی روش پیشنهادی از نظر زمان مورد نیاز برای آموزش و آزمایش داده نیز بررسی شده است. هر چه زمان مورد نیاز کمتر باشد، قابلیت پیاده سازی برای ربات های انسان نما بیشتر خواهد شد. روش پیشنهادی در پایگاه داده های معتبر نتایج قابل قبولی داشته و در ادامه با روش های موجود از نظر نتایج آماری و زمان مورد نیاز، مقایسه شده است.
    کلیدواژگان: تشخیص گروه های اجتماعی، ویژگی فاصله، ویژگی تشابه تغییرات حرکت افراد، ویژگی تشابه شکل مسیر طی شده، مکان شلوغ
  • محمدباقر دولت شاهی، ولی درهمی*، حسین نظام آبادی پور صفحات 10-19

    الگوریتم جستجوی گرانشی، یک روش بهینه سازی ساده و کارامد است که اخیرا برای حل مسائل بهینه سازی تک هدفه ارائه شده است. در این مقاله، برای اولین بار ساختار همسایگی نزدیکترین-بهتر در الگوریتم های هوش جمعی تعریف شده و سپس در الگوریتم جستجوی گرانشی برای حل مسائل بهینه سازی چندمدی استفاده شده است. برای این منظور، ابتدا دو ساختار همسایگی "نزدیکترین-بهتر توپولوژیکی" و "نزدیکترین-بهتر مبتنی بر فاصله" تعریف شده، سپس این دو ساختار به طور مجزا در الگوریتم جستجوی گرانشی استفاده شده و دو نسخه ی مختلف از الگوریتم جستجوی گرانشی برای حل مسائل بهینه سازی چندمدی ارائه می شود. برای بررسی کارایی الگوریتم های پیشنهادی، یک ارزیابی تجربی روی چندین تابع محک چندمدی استاندارد صورت گرفته است. نتایج این آزمایشات نشان می دهد که الگوریتم های پیشنهادی می توانند نتایج خوبی نسبت به سایر الگوریتم های بهینه ساز چندمدی به دست آورند.

    کلیدواژگان: الگوریتم جستجوی گرانشی، هوش جمعی، همسایگی نزدیکترین-بهتر، بهینه سازی چندمدی
  • زینب دهقان، عباس علی رضایی*، محمد هادی زاهدی صفحات 20-31

    شبکه های حسگر شامل گره های کم وزن با قابلیت پردازش و انرژی محدود هستند. این حسگرها محیط اطراف خود را نظارت کرده و رخدادها را از نزدیکترین مسیر به گره چاهک ارسال می کنند. یکی از چالش های مهم در این شبکه ها، مسئله اتصال گره ها به یکدیگر و پوشش همزمان و کارای منطقه است. این دو بعنوان پارامترهای اصلی کیفیت سرویس دهی می باشند. در این مقاله پوشش بهینه منطقه، با استفاده از الگوریتم فرا ابتکاری جستجوی گرانشی انجام می شود. در الگوریتم پیشنهادی، عامل ها یا اجسام معادل گره های حسگر در نظر گرفته می شوند. گره ها بر اساس فاصله، قانون جاذبه نیوتن و قوانین حرکت روی هم اثر می گذارند. مجموعه ای از گره ها بعنوان خوشه در نظر گرفته می شوند الگوریتم پیشنهادی از لحاظ طول عمر شبکه، انرژی باقیمانده و توان شبکه با روش های قبلی مقایسه شده است. نتایج حاصل از شبیه سازی نشان می دهد که روش پیشنهادی با بهینه کردن تعداد گره ها در منطقه و پوشش حداکثری، مصرف انرژی را کاهش و طول عمر و توان شبکه را افزایش می دهد

    کلیدواژگان: الگوریتم جستجوی گرانشی، پوشش انرژی، شبکه های حسگر
  • عبادت قنبری پرمهر* صفحات 32-39
    اندازه گیری و آنالیز تجربی تنش و کرنش در قطعات تحت بار و سازه ها اهمیت بسیاری در حوزه های مختلف علوم مهندسی مانند مکانیک و عمران دارد. فتوالاستیسیته به عنوان روشی مرسوم برای اندازه گیری تنش و کرنش دارای محدودیت هایی است. این محدودیت ها شامل نیاز به استفاده از جسم از جنس خاص، تجهیزات تخصصی و تجربه کافی است. در این تحقیق، فتوگرامتری به عنوان روشی دقیق، آسان و مستقل از جنس قطعه برای اندازه-گیری تنش و کرنش معرفی شده است. برای مقایسه دقت فتوگرامتری و فتوالاستیسیته، قطعه ای از جنس اپوکسی آرالدیت با شکل قلاب جرثقیل تحت بارگذاری های مختلف قرار داده شده و در هر مرحله، علاوه بر ثبت اطلاعات مورد نیاز روش فتوالاستیسیته، عکسبرداری از قطعه با دوربین رقومی با حفظ وضعیت و مکان دوربین انجام شد. با استفاده از تکینیک های پردازش تصاویر رقومی و به کارگیری روش تناظریابی کمترین مربعات، مختصات نقاط متناظر روی قطعه با دقت 0.01 پیکسل اندازه گیری شده و تغییر طول های ناشی از کرنش های اصلی در نقطه دلخواه از قطعه محاسبه شدند. نتایج حاصل از فتوگرامتری با مقادیر حاصل از کرنش به دست آمده به روش فتوالاستیسیته و آنالیز تحلیلی کرنش در نقطه مورد نظر مقایسه شدند. مقایسه نتایج حاصل از روش های مختلف بیانگر دقت بالای روش پیشنهادی برای اندازه گیری کرنش است. از این رو، روش فتوگرامتری می تواند جایگزین روش-های مرسوم اندازه گیری کرنش و تنش حاصل از بارگذاری شود.
    کلیدواژگان: فتوالاستیسیته، فتوگرامتری، پردازش تصویر رقومی، کرنش، تنش
  • محمد خالویی، محمد فخردانش*، محمد سبک رو صفحات 40-51
    شناسایی رویداد های رایج و نادر در ویدیو یکی از مسائل مهم در حوزه تحلیل تصویر و ویدیو است. با توجه به عدم شناخت و در دسترس نبودن رویدادهای نادر، تشخیص آنها یک چالش محسوب می شود. امروزه، شبکه های ژرف یکی از بهترین ابزارها برای مدل سازی ویدیو هستند اما در این مساله با توجه به عدم وجود داده های برچسب دار از کلاس رویدادهای نادر، آموزش یک شبکه کانولوشنال ژرف به صورت معمول امکان پذیر نیست. با توجه به موفقیت شبکه های عصبی ژرف تخاصمی مولد، در این پژوهش یک شبکه ژرف یکپارچه (انتها به انتها) با الهام از شبکه های ژرف تخاصمی مولد برای تشخیص رویدادهای نادر ارائه شده است. این شبکه فقط با رویدادهای رایج و به صورت تخاصمی آموزش داده شده است. برای نمایش میزان عملکرد معماری پیشنهادی، از مجموعه دادگان استاندارد UCSDped1 و UCSDped2 به کارگیری شده است. معماری پیشنهادی روی مجموعه دادگان مذکور دارای نرخ خطای برابر به ترتیب 20% و 17% با سرعت پردازش 300 فریم بر ثانیه بوده است. این نتیجه علاوه بر ساختار یکپارچه شبکه و سادگی مرحله آموزش و آزمون آن، قابل مقایسه با نتایج روش های پیشرفته است.
    کلیدواژگان: تشخیص رویداد نادر، رویداد نادر، رویداد رایج، شبکه تخاصمی مولد، یادگیری ژرف، مکان یابی
  • جواد پاک سیما* صفحات 52-59
    الگوریتم PageRank یکی از روش های رتبه بندی مبتنی بر گراف وب است که اولین بار توسط موتور جستجوی گوگل برای مشخص کردن میزان محبوبیت صفحات مورد استفاده قرار گرفته است. این الگوریتم برای پیدا کردن صفحات مهم از ساختار پیوندها در وب استفاده می کند. یکی از مشکلات PageRank و الگوریتم های مشابه مبتنی بر گراف وب، آن است که رتبه ی یک صفحه به صفحات خروجی آن بدون هیچ کنترلی انتشار می یابد درحالی که ممکن است صفحه خروجی واقعا توصیه شده توسط صفحه قبلی بطور مستقیم یا غیر مستقیم نباشد. در این مقاله با تغییر فرمول اصلی PageRank روشی ارائه شده است تا با نرمال سازی پیوندهای ورودی به یک صفحه از انتشار بدون کنترل محبوبیت جلوگیری به عمل آید. همچنین به منظور ارزیابی الگوریتم ارائه شده یک گراف وب نمونه ساخته شده است که در بعضی از گره ها دارای جهش رتبه است. این جهش رتبه بعد از اعمال الگوریتم پیشنهادی کاهش می یابد.
    کلیدواژگان: رتبه بندی، PageRank، گراف وب
  • مریم دهقانی، محمد قاسم زاده*، حبیب انصاری صفحات 60-67

    این پژوهش در رابطه با بررسی سودمندی الگوریتم های هوشمند مختلف در حوزه یادگیری ماشین برای پیش بینی سری های زمانی در بازارهای مالی می باشد. چالش مورد توجه در این حوزه، این است که مدیران اقتصادی و جامعه علمی، همچنان خواستار مدل های پیش-ینی با دقت بیشتری می باشند. رفع چالش یاد شده موجب ارتقای کیفیت پیش بینی و به جهت آن، سودآوری و بهره وری بالاتری می شود. راه حل پیشنهادی، تکیه بر بکارگیری الگوریتم های یادگیری ماشین مبتنی بر رگرسیون، با تاکید بر روش انتخاب ویژگی پیشرو، جهت یافتن بهترین متغیرهای فنی ورودی دارد. موارد یاد شده، با بکارگیری ابزارهای یادگیری ماشین به زبان پایتون پیاده سازی گردیدند. داده های تحقیق که در این پژوهش به کار گرفته شدند، اطلاعات مربوط به سهام دو شرکت از بورس تهران می باشند. این داده ها مربوط به سال های 1387 تا ابتدای سال 1397 می باشند. نتایج آزمایشی نشان می دهند که ویژگی های فنی منتخب توسط روش پیشرو، موثرترین و نیز بهترین مقادیر برای پارامترهای الگوریتم های یادگیری مورد نظر را می یابند. نتایج آزمایشی و تحلیل های رسمی دلالت بر این دارند که بکارگیری ویژگی های فنی منتخب ،به عنوان ورودی دو الگوریتم ماشین بردار پشتیبان و ماشین پرسپترون چند لایه، یک پیش بینی با حداقل خطا را در اختیار می گذارد. ؛ این مطلب منجر به ارائه پیش بینی با دقت بالاتری می گردد.

    کلیدواژگان: پیش بینی، سری های زمانی، یادگیری ماشین، بازارهای مالی، بازار سهام
|
  • Ali Akbari, Hassan Farsi, Sajad Mohamadzadeh * Pages 1-9
    Detecting social groups is one of important and complex problems which has been concerned recently. Detecting social groups and relation between group members will be necessary for human robots in near future. Databases have some information including trajectories and also labels of members. The target is to detect social groups that contains at least two people or detecting individual motion of the persons. In the proposed method, for detecting social groups, physical distance, temporal causality and shape similarity features are used. The required time to extract these features is lower than the other suggested features. In addition to accuracy, the effectiveness of the proposed method in terms of required time for training and testing data is also examined. Lower required time provides greater ability to implement for human robots. The proposed method provides acceptable results in valid databases and is compared to existing methods in terms of statistical results and the required time.
    Keywords: Detecting Social Groups, Physical Distance, Temporal Causality, Shape Similarity, Crowd place
  • Mohammad Bagher Dowlatshahi, Vali Derhami *, Hossein Nezamabadi, Pour Pages 10-19

    Gravitational Search Algorithm (GSA) is a simple and efficient optimization method recently proposed for solving single-objective optimization problems. In this paper, for the first time, the nearest-better neighborhoods are defined in swarm intelligence algorithms and then used in the GSA to solve multi-modal optimization problems. For this purpose, two neighborhoods are defined, called Topological Nearest-Better (TNB) and Distance-based Nearest-Better (DNB), and then these two structures are used separately in the GSA and two different versions of the GSA for multi-modal optimization problems are provided. To investigate the efficiency of the proposed algorithms, an empirical assessment has been performed on several standard multi-modal benchmark functions. The results of these experiments show that the proposed algorithms can achieve good results compared to other multi-modal optimizer algorithms.

    Keywords: Gravitational Search Algorithm, Swarm Intelligence, Nearest-better Neighborhood, Multimodal Optimization
  • Abbas Ali Rezaee *, Mohammad Hadi Zahedi, Zeinab Dehghan Pages 20-31

    Wireless sensor networks include low-weight low cost nodes equipped with limited processing and energy sources. Sensor nodes monitor their surroundings and send sensed events to the sink node through shortest path. One of the major challenges in these networks is to keep nodes connected to each other while the target area is covered effectively. These two parameters are referred as main parameters of quality of service (QoS). In this paper, optimal area coverage is carried out using the Gravitational Search Algorithm. In the proposed algorithm, the agents or masses are equivalent to sensor nodes. The nodes are influenced by distance, Newton gravity law and the laws of motion. A group of nodes can be considered as a cluster. The proposed algorithm is compared with previous methods in terms of network life time, remaining energy and network power. Simulation results show that the proposed method reduces energy consumption by optimizing the number of nodes in the area with maximal coverage, and increases the lifetime and effectiveness of the network.

    Keywords: Energy coverage, Gravitational Search Algorithm, Sensor Network
  • Ebadat Ghanbari Parmehr * Pages 32-39
    Measurement and experimental analysis of stress and strain of enforced objects are crucial in the fields of mechanics and civil engineering. The photoelasticity as a conventional method for measurement and analysis suffers from some limitations such as the need for specific transparent material, appropriate equipment and enough experience. In this research, photogrammetry was introduced for the experimental analysis of stress and strain measurement because of its high accuracy, ease and independence to the material of the object. To compare the accuracy of photogrammetry and photoelasticity, a crane hook-shaped object from Araldite epoxy has been tested for different enforcement. In each step, addition to recording the required information for photoelasticity, photos of the object have been taken by a digital camera in a fixed position and orientation. The position of the corresponding points on the object was measured with an accuracy of 0.01 pixel using digital image processing and least square image matching techniques. The measured stress and strain using photoelasticity and photogrammetry were compared with analytical stress and strain measurement method. The results indicated a high accuracy for photogrammetry compared to photoelasticity. Therefore, conventional methods for stress and strain measurements can be replaced by photogrammetry.
    Keywords: Photoelasticity, Photogrammetry, Digital Image Processing, Stress, Strain
  • Mohammad Khalooei, Mohammad Fakhredanesh *, Mohammad Sabokrou Pages 40-51
    Dominant and rare events detection is one of the most important subjects of image and video analysis field. Due to inaccessibility to all rare events, detecting of them is a challenging task. Today, deep networks are the best tool for video modeling but due to inaccessibility to tagged data of rare data, usual learning of a deep convolutional network is not possible. Due to the success of generative adversarial networks, in this paper an end-to-end deep network based on generative adversarial networks is presented for detecting rare events. This network is competitively trained only by dominant events. To evaluate performance of proposed method, two standard datasets: UCSDped1 and UCSDped2 are utilized. The proposed method can detect rare event with 0.2 and 0.17 equal error rate with the processing speed of 300 frames per second on the mentioned data respectively. In addition to end-to-end structure of the network and its simple train and test phase, this result is comparable to advanced methods results.
    Keywords: Detecting rare event, Generative adversarial network, Anomaly Detection, anomaly localization
  • Javad Paksima * Pages 52-59
    The PageRank algorithm is one of the web based classification methods used by Google search engine first. The main purpose of this algorithm was to determine the popularity of Web pages. The algorithm uses the web links structure to find important pages. One of the problems of PageRank and the same algorithms based on the web graph is that the number of a page is propagated to its output pages without any control while the output screen really is not really recommended by the previous page directly or indirectly. In this paper, by changing the original formula PageRank, a method has been proposed to prevent the entry of the input bonds to a single page of publication without gaining popularity. In order to evaluate the proposed algorithm, a single web graph is constructed, which in some nodes has a rating leap. This mutation decreases after the proposed algorithm is applied.
    Keywords: Ranking, PageRank, Web-Graph
  • Maryam Dehghani, Mohammad Mohammad *, Habib Ansari Pages 60-67

    This research focuses on the usefulness of various intelligent machine learning algorithms on prediction of time series in financial markets. A challenge in this area is that economic managers and the scientific community are still demanding predictive algorithms with greater accuracy. The elimination of the mentioned challenge can improve the quality of the predictions and, as a result, lead to higher profitability and productivity. The proposed solution relies on finding the best input variables by using the regression-based machine learning algorithms, with emphasis on the leading selection methods. We implemented the concerned ideas using the Python language and the relevant machine learning tools. In our experiments, as dataset, we used the stock information of two companies from the Tehran Stock Exchange. These datasets belong to the transactions accomplished in years 2008 to 2018. The experimental results show that the technical features selected by the forward method can find the most effective and also the best values for the required parameters. The experimental results and formal analyses indicate that the use of selected technical features as inputs to the support-vector-machine and to the multi-layer perceptron machine gives prediction with the least-error, and this would provide more accurate predictions

    Keywords: prediction, time series, Machine Learning, Financial Markets, Stock market