فهرست مطالب

پردازش علائم و داده ها - سال هجدهم شماره 2 (پیاپی 48، تابستان 1400)

فصلنامه پردازش علائم و داده ها
سال هجدهم شماره 2 (پیاپی 48، تابستان 1400)

  • تاریخ انتشار: 1400/07/27
  • تعداد عناوین: 10
|
  • مریم ابراهیمی، محمدحسام تدین*، محمد صیادحقیقی صفحات 3-28

    در فضایی که ارتباط بین انسان ها و اشیاء و نیز اشیاء با یکدیگر پیچیده بوده و انتظار اجرای برنامه های کاربردی فراوانی روی بستر شبکه می رود، یک رویکرد برای حرکت به سمت هوشمندی با حفظ امنیت، پیاده سازی سیستم مدیریت اعتماد است. اعتماد همه مفاهیم امنیت، محرمانگی، حریم خصوصی و قابلیت اطمینان را تحت تاثیر قرار می دهد. تعداد زیاد اشیاء در شبکه، قابلیت ها و کاربردهای متنوع، پویایی بسیار بالا و همچنین حضور اشیاء مخرب، مدیریت اعتماد در شبکه اینترنت اشیاء را به یک چالش جدی مبدل نموده است به طوری که راهکارهای قدیمی پیاده سازی اعتماد، در  این شبکه قابل استفاده نمی باشد. در این مقاله علاوه بر اینکه تحلیل جامعی روی مدل های محاسبه مستقیم، غیرمستقیم و ترکیبی اعتماد انجام می شود، انواع حملات و روش های مقابله با آن ها، روش های ارزیابی مدل های ارایه شده و تاثیر محدودیت های اشیاء بر مدل های محاسبه اعتماد، بررسی می شود. حیطه این بررسی، دو حوزه مدیریت اعتماد و اینترنت اشیاء اجتماعی است. به طور خلاصه، مطالعات صورت گرفته در این حوزه از چهار منظر مرور و مقایسه می شوند: (1) مدل های محاسبه اعتماد، (2) راهکارهای مقابله با حملات اعتماد، (3) تاثیر محدودیت های عناصر اینترنت اشیاء و (4) روش های ارزیابی الگوریتم های اعتماد؛ تا به این ترتیب بتوان با تحلیلی مناسب، به نقاط  قوت و ضعف الگوریتم های موجود در مقالات مطرح پی برد و متر و معیاری برای بحث ارزیابی اعتماد در اینترنت اشیاء ارایه نمود. در این راستا، روش های ارزیابی (متریک های) کمی ای ارایه می شود که هدف آنها کشف معایب و مزایای مدل های تخمین اعتماد تحت شرایط مختلف است.

    کلیدواژگان: اعتماد، اینترنت اشیاء، اینترنت اشیاء اجتماعی، ارزیابی اعتماد
  • حمیدرضا غفاری*، آتنا جلالی مجاهد صفحات 29-44

    طبقه بندی یک روش یادگیری ماشین است که برای پیش گویی برچسب یک نمونه خاص با کمترین خطا استفاده می شود. در این مقاله، از توانایی پیش گویی برچسب به کمک طبقه بند برای ایجاد ویژگی جدید استفاده شده است. امروزه روش های استخراج ویژگی زیادی مانند PCA و ICA وجود دارند که در زمینه های مختلف بطور وسیع استفاده می شوند و از هزینه بالای انتقال به فضای دیگر رنج می برند. در روش پیشنهادی، هدف این است که به کمک ویژگی جدید،  قدرت تفکیک پذیری بیشتری بین کلاس های مختلف ایجاد شود و داده های درون کلاس ها به یکدیگر نزدیک تر و تمایز بیشتری بین داده های کلاس های مختلف بوجود آید تا کارایی طبقه بندها افزایش یابد. ابتدا به کمک یک یا چند طبقه بند، برچسب پیشنهادی برای مجموعه داده اولیه تعیین و بعنوان ویژگی جدید به مجموعه داده اولیه اضافه می شود. ایجاد مدل به کمک مجموعه داده جدید انجام می شود. ویژگی جدید برای مجموعه داده آموزش و تست بصورت جداگانه بدست آورده می شود. آزمایش ها بر روی 20 مجموعه داده استاندارد انجام شده و نتایج روش پیشنهادی با نتایج دو روش بیان شده در کارهای مرتبط نیز مقایسه شده است. نتایج حاصل نشان می دهد که روش پیشنهادی به طورقابل توجهی باعث بهبود دقت طبقه بندی شده است. در بخش دوم آزمایشات، برای بررسی میزان موثر بودن روش پیشنهادی، قدرت تفکیک پذیری ویژگی جدید بر اساس دو معیار بهره اطلاعاتی و شاخص جینی بررسی شده است. نتایج نشان می دهد که ویژگی به دست آمده در روش پیشنهادی در بیشتر موارد دارای بهره اطلاعاتی بیشتر و شاخص جینی کمتری است، زیرا بی نظمی کمتری دارد. در ادامه، جهت جلوگیری از افزایش ابعاد داده، ویژگی استخراج شده با بیشترین بار اطلاعاتی، جایگزین ویژگی با کمترین بار اطلاعاتی شده است. نتایج این مرحله نیز بیانگر افزایش میزان کارایی می باشد.

    کلیدواژگان: استخراج ویژگی، طبقه بندی، بهره اطلاعاتی، شاخص جینی
  • احسان ایمانی فر، امیر اخوان*، علی اصغر آبنیکی صفحات 45-56

    جهت یابی منابع صوت به کمک روش های مبتنی بر آرایه فازی، اهمیت فراوانی در حوزه های مختلف از جمله سونار، بینایی ربات و تشخیص عیوب مکانیکی دارد. روش های شکل دهی پرتو وفقی، از جمله الگوریتم کمینه واریانس بدون اعوجاج از قدرت تفکیک بالایی نسبت به روش های غیروفقی برخوردار هستند؛ اما این برتری در ازای پیچیدگی محاسباتی این الگوریتم ها بدست آمده است. این مسئله باعث می شود در کاربردهایی که نیاز به جهت یابی زمان حقیقی منبع صوت دارند، به ندرت از این الگوریتم ها استفاده شود. از سوی دیگر، یک ویژگی مهم روش های شکل دهی پرتو وفقی از جمله کمینه واریانس، پتانسیل بالای این الگوریتم ها برای موازی سازی می باشد. هدف این مقاله، پیاده سازی موازی الگوریتم کمینه واریانس با به کارگیری واحد پردازنده گرافیکی (GPU)، به جای واحد پردازنده مرکزی (CPU) به منظور افزایش سرعت اجرا و رسیدن به حالت زمان حقیقی می باشد. برای دست یابی به این هدف از مدل برنامه نویسی کودا  برای پیاده سازی الگوریتم بر روی پردازنده گرافیکی استفاده شده است. به منظور بررسی عملکرد پیاده سازی موازی الگوریتم کمینه واریانس، دو مدل GPU متفاوت و همچنین CPU بکاربرده شده است. صحت عملکرد پیاده سازی های مختلف در این مقاله توسط داده های واقعی سونار و همچنین داده های شبیه سازی تایید گردید. نتایج نشان می دهد که می توان با استفاده از یک آرایه 64 حسگره، جهت منابع صوت زیر آب را با استفاده از الگوریتم کمینه واریانس به صورت زمان حقیقی و با قدرت تفکیک بالا تخمین زد.

    کلیدواژگان: جهت یابی منابع صوت، الگوریتم کمینه واریانس، پردازش موازی، واحد پردازنده گرافیکی، مدل برنامه نویسی کودا
  • مینا عباسپور اورنگی، علیرضا هاشمی گلپایگانی* صفحات 57-74

    اعتماد یکی از مهم ترین موضوعات مطرح شده در حوزه شبکه های اجتماعی است. اغلب اوقات نحوه اعتماد همه کاربران در این شبکه ها به صورت یکسان در نظر گرفته می شود. درحالی که کاربران شبکه های اجتماعی می توانند نظرات متفاوتی در نحوه اعتماد به سایرین داشته باشند و ممکن است فاکتورهای مختلفی را در اعتماد به سایر اعضا در نظر بگیرند. همچنین کاربران می توانند بر روی نظرات یکدیگر اثر گذاشته و باعث تغییر رفتار دیگر کاربران در اعتماد نمودن به افراد شوند. به همین دلیل، مکانیزم و شیوه تاثیرگذاری کاربران بر روی نظر و رفتار اعتماد به یکدیگر و شرایط تغییر حالات رفتاری، از اهمیت زیادی برخوردار خواهد بود. هدف ما در این مقاله در مرحله اول در نظر گرفتن رفتار متفاوت کاربران شبکه های اجتماعی در نحوه اعتماد کردن آن ها به سایر کاربران است. برای این منظور سه حالت رفتاری مهم در نحوه اعتماد کاربران در نظر گرفته شده است. در هرکدام از این حالت ها ویژگی های مختلف رفتاری و عملکردی کاربران مبنای محاسبه اعتماد هستند که بر مبنای باور ذهنی افراد شکل می گیرند. در مرحله بعدی نحوه انتشار رفتار اعتماد کاربران در شبکه اجتماعی هدف و نوآوری این مقاله است. برای این منظور، سه سناریو مختلف برای اثرگذاری و انتشار رفتار گره ها در نظر گرفته شده است. به دنبال آن به بیشینه سازی اثر و یافتن افراد پرنفوذ جهت انتشار رفتار اعتماد در شبکه های اجتماعی پرداخته شده است. برای این منظور بر روی ساختار شبکه اجتماعی افراد تمرکز شده و تاثیرگذارترین افراد با توجه به سناریوهای مختلف انتشار تعیین شده اند. نتایج به دست آمده نشان دهنده وجود اختلاف در میزان اعتماد در هرکدام از حالت های مختلف رفتاری است که دارای تطابق بیشتری با واقعیت است. با بررسی آزمایش ها به این نتیجه می رسیم که در مدل پیشنهادی،  انتخاب گره شروع از هر اجتماع با 48.14 درصد دارای تاثیر بهتری در بهبود رفتار، دامنه و سرعت انتشار و گره با بیشترین درجه با 37.03 درصد نسبت به روش های متداول دارای جواب بهتری در تغییر رفتار است.

    کلیدواژگان: کلیدی: رفتار اعتماد، انتشار اعتماد، گره های پرنفوذ، شبکه های اجتماعی، تحلیل شبکه ای
  • بهرنگ برکتین*، مریم یوسف پور صفحات 75-96

    مهم ترین مانع بر سر افزایش سطح پوشش در شبکه های بی سیم، مصرف انرژی سنسورها می باشد که باعث اتمام انرژی آن ها می گردد. این رخداد به عنوان یک مسئله بحرانی با نام حفره ی پوششی شناخته می شود و در آن منطقه ی خاصی تحت پوشش هیچ حسگری نیست. درنتیجه رخدادهای واقعی در آن نقاط قابل شناسایی و ردیابی نخواهند بود. در این راستا، این پژوهش یک الگوریتم نوین مبتنی بر سیستم مدیریت اعتماد اعتبار در شبکه های حسگر بی سیم را جهت حداکثر سازی میزان پوشش دهی شبکه با تنظیم هوشمندانه شعاع حسگری گره ها معرفی نموده است. این الگوریتم میزان حفره پوششی را با استفاده از ماشین بردار پشتیبان و ضمن مصرف کم انرژی در شبکه، به طور چشمگیری کاهش می دهد. به عبارتی، با جمع آوری اطلاعات در بازه زمانی های مختلف و تعاملات بین گره ها، میزان رضایت مندی آن ها ارزیابی و بر این اساس پاداش یا جریمه ای برای آن ها در نظر گرفته می شود. ارزیابی ها نشان می دهند که طول عمر شبکه و اندازه شعاع حسگری گره ها به لحاظ تعداد گره های حسگر در محیطی با در نظر گرفتن شعاع متحرک گره ها، گره های متحرک و آتوماتای سلولی در مقایسه با محیطی با در نظر گرفتن شعاع ثابت گره ها، گره های متحرک و بدون آتوماتای سلولی به ترتیب معادل 12.42% و 20.4% بهبودیافته اند.

    کلیدواژگان: حفره های پوششی، شعاع حسگری شبکه بی سیم، مدیریت اعتماد، مصرف انرژی، ماشین بردار پشتیبان
  • موسی مجرد*، حمید پروین، صمد نجاتیان، کرم الله باقری فرد صفحات 97-114

    امروزه تیوری های بسیاری در مورد علل بروز بیماری های وراثتی وجود دارد، اما پزشکان معتقدند که دو فاکتور ژنتیک و محیط زیست هم زمان باهم نقش مهمی در بروز و پیشرفت این بیماری ها ایفا می کنند، هرچند که چگونگی این اثرگذاری هنوز به طور دقیق مشخص نیست. برای اینکه بتوان ژن های موثر در بروز بیماری ها را تشخیص داد، باید ارتباط بین سلول ها/بافت ها را به دست آورد. تعامل بین سلول های/بافت های مختلف را می تواند با بیان ژن بین آنها مختلف نشان داد. با نمونه برداری از کروموزوم ها، اطلاعات مفیدی در مورد نوع بیماری و چگونگی انتقال آن استخراج می شود. با بررسی این اطلاعات می توان اختلالاتی که منجر به تغییرات به شدت پرتکراری شده اند را شناسایی کرد. در این مقاله تشخیص ارتباط های بین سلولی و بین بافتی در بیماری های مختلف با توجه به مشخصات ساختار توپولوژیکی گراف و یک روش خوشه بندی تجمعی بهبودیافته انجام شده است. روش پیشنهای دارای دو مرحله می باشد؛ در مرحله اول چندین مدل خوشه بندی به منظور تشخیص ارتباط های اولیه بین سلول ها یا بافت ها در جهت تولید نتایج بهتر نسبت به الگوریتم های انفرادی، ترکیب می شوند. در مرحله دوم تشابه بین سلول ها یا بافت ها در هر خوشه با استفاده از یک معیار شباهت مبتنی بر ساختار توپولوژیکی گراف محاسبه می شود. درنهایت از حداکثر شباهت های بین سلول ها یا بافت ها در هر خوشه برای کشف ارتباطات بین بیماری ها استفاده می شود.  به منظور ارزیابی عملکرد روش پیشنهادی از چندین مجموعه داده UCI و همچنین مجموعه داده فانتوم 5 استفاده شده است. نتایج روش پیشنهادی روی مجموعه داده فانتوم 5، ضریب سیلویت 901/0 را در 18 خوشه برای سلول ها و 762/0 در 13 خوشه برای بافت ها را گزارش می کند.

    کلیدواژگان: ارتباط بین سلولی، خوشه بندی بهبودیافته، ساختار توپولوژیکی گراف، مجموعه داده فانتوم 5
  • مائده دریا نورد، اسدالله شاه بهرامی* صفحات 115-134

    ارزیابی کیفیت تصاویر بدون مرجع ناآگاه از خرابی یکی از چالش های موجود در زمینه پردازش تصاویر دیجیتال است، چرا که در این زمینه هیچ تصویر مرجع، نوع خرابی، نمرات و امتیازدهی ناظر انسانی برای کمک و یادگیری در ارزیابی موجود نیست. در حالیکه در برنامه های مختلف مانند تصویربرداری کاربرد دارد. هدف این مقاله استفاده از خواص و ویژگی آماری موجود در تصاویر و مدل سازی آن با مدل توزیع q-Gaussian، به منظور ارزیابی کیفیت تصویر است. توزیع  q-Gaussianیکی از گزینه هایی است که مرزهای تصمیم گیری انعطاف پذیری با اشکال مختلف گوسی ایجاد می کند که قابلیت تعمیم پذیری بیشتری در ناهنجاری ها به نسبت توزیع های دیگر داشته و همچنین برای مدل کردن خواص آماری تصویر، عملکرد بهتری در ارزیابی کیفیت بدون مرجع دارد.

    کلیدواژگان: ارزیابی کیفیت تصویر، ارزیابی بدون مرجع، ارزیابی ناآگاه از خرابی، توزیع q-Gaussian
  • فاطمه میرجلیلی*، جعفر رزم آرا صفحات 135-146

    امروزه، تکنولوژی مجازی سازی به طور گسترده در جهت راه اندازی چندین سیستم مجازی بر روی یک سیستم فیزیکی در حال توسعه است. ابرهای محاسباتی نمونه بارز بکارگیری این تکنولوژی هستند. سیستم های تشخیص نفوذ نقش کلیدی در محافظت از منابع ابر بر روی ماشین های مجازی دارند. با افزایش سرعت و پیچیدگی این ماشین ها، سیستم های تشخیص نفوذ باید توانایی و دقت تشخیص خود را بالا ببرند تا توانایی شناسایی انواع مختلف حملات در زمان مناسب را کسب کنند. در این راستا، استفاده از رویکردهای مبتنی بر رفتار به دلیل مقیاس پذیری بالا در شبکه های بزرگ مورد توجه قرار گرفته اند. در این مقاله، یک روش جدید برای تشخیص نفوذ در شبکه های مبتنی بر رفتار ارایه شده است. برای این منظور، روش پیشنهادی ابتدا داده‎‎ های استخراج شده را از طریق تبدیل مفهوم جریان داده به گراف پراکندگی ترافیک مدل سازی کرده و سپس، با استفاده از یک الگوریتم بهبود یافته مبتنی بر مدل مارکوف خوشه بندی می کند. در ادامه، با تحلیل خوشه های تولید شده بر اساس معیارهای آماری مدلی برای تشخیص نفوذ ارایه می شود. کارآیی روش پیشنهادی بر روی مجموعه داده دارپا 99 به عنوان یک مجموعه داده استاندارد و جامع برای ارزیابی سیستم های تشخیص نفوذ مورد آزمایش و ارزیابی قرار گرفت و با نتایج حاصل از هفت روش مطرح دیگر مقایسه شد. نتایج مقایسه نشان می دهد که روش پیشنهادی در مقایسه با روش های دیگر دارای قابلیت های بهتری بوده و می تواند حملات را با دقت بالایی تشخیص دهد.

    کلیدواژگان: تشخیص نفوذ مبتنی بر رفتار، گراف پراکندگی ترافیک، جریان داده، خوشه بندی گراف، خوشه بندی بهبود یافته مارکوف
  • زهرا حسین نژاد، مهدی نصری* صفحات 147-162

    موزاییک تصویر به ترکیب دو یا چند تصویر که دارای قسمت های همپوشان می باشند، به تصویری بزرگ تر و جامع تر  اطلاق می شود. تبدیل ویژگی مقیاس نابسته (SIFT) یکی از متداول ترین شناساگرها است که قبلا در موزاییک تصویر مورداستفاده قرارگرفته است. از ایرادات الگوریتمSIFT  کلاسیک تعداد زیاد نقاط کلیدی تکراری و زمان اجرای بالای آن به دلیل ابعاد بالای توصیفگر SIFT کلاسیک می باشد، که باعث کاهش کارایی این الگوریتم می شود. در این مقاله، برای بالا بردن کیفیت موزاییک تصویر، از  الگوریتم RKEM-SIFT که نسخه بهبودیافته ی SIFT می باشد جهت شناسایی نقاط کلیدی استفاده شده است. سپس، برای بهبود سرعت الگوریتم از توصیفگر 64-بعدی SIFT استفاده شده است. پنجره ی کوچک تر این توصیفگر نسبت به توصیفگر 128-بعدی SIFT باعث می شود دقت تطبیق افزایش و زمان اجرا کاهش پیدا کند. در ادامه، برای حذف تطبیق های نادرست، از الگوریتم اجتماع نمونه تصادفی (RANSAC) استفاده شده که مقدار آستانه پیشنهادی آن به صورت وفقی بر اساس میانه فواصل بین نقاط تطبیق و مدل تطبیق آن ها محاسبه شده است. برای هر نقطه تطبیق اگر فاصله بین آن نقطه و تطبیق یافته ی آن بر اساس مدل از مقدار آستانه پیشنهادی کمتر باشد، نقطه تطبیق درست تشخیص داده شده و حفظ می شود و در غیر این صورت تطبیق نادرست تشخیص داده شده و حذف می شود. درنهایت روش جدیدی نیز در این مقاله جهت ترکیب تصویر پیشنهادشده است. روش پیشنهادی ترکیب تصویر بر اساس تابع وزنی گوسی می باشد که میانگین این تابع گوسی به صورت میانگین داده های محدوده ی مشترک و همپوشان دو تصویر، در نظر گرفته شده است. در قسمت آزمایش ها، روش پیشنهادی موزاییک تصاویر طبیعی که شامل استفاده از الگوریتم RKEM-SIFT، RANSAC وفقی پیشنهادی و الگوریتم ترکیب تصویر پیشنهادی است بر روی پایگاه های تصاویر استاندارد و همین طور پایگاه تصاویر ایجادشده پیاده سازی شده و با روش های SURF و تطبیق دوطرفه سریع، SURF-LM و SIFT-RANSAC مورد مقایسه قرارگرفته است. نتایج آزمایش ها حاکی از برتری روش پیشنهادی با توجه به معیارهای خطای میانگین مربعی و دقت دارد که نسبت به بهترین روش مقایسه شده (SURF و تطبیق دوطرفه سریع) کاهش 6.7 ٪  بیشینه خطا،  30.09 ٪ ریشه میانگین مربعات خطا و 37.68 ٪ میانه خطا را باعث شده است.

    کلیدواژگان: موزاییک تصویر، انطباق تصویر، الگوریتم SIFT
  • مهسا واقفی*، فاطمه جمشیدی صفحات 163-176

    سیگنال الکتروکاردیوگرام، یکی از مهم ترین ابزار برای طبقه بندی انواع مختلف آریتمی های قلبی است. معمولا سیگنال های ECG، حاوی نویزهای متفاوتی هستند. در این مقاله، تکنیک تجزیه مد تجربی گروهی که در آن هر تابع مد ذاتی (IMF)، شامل تنها یک مولفه ی فرکانسی است، برای حذف نویز به کار رفته است. با کمک پنجره بندی مناسب بر روی کمپلکس QRS متشکل از جمع سه IMF اول، حذف نویز با کمترین اعوجاج انجام شده و با استفاده از تبدیل موجک گسسته، نویزهای باقیمانده نیز از بین رفته است. سپس با به کارگیری تجزیه بسته ی موجک، از سیگنال ویژگی استخراج شده است که ویژگی های بهینه، با روش  بهینه سازی ازدحام ذرات باینری چند هدفه انتخاب شده اند. در نهایت از شبکه عصبی پس انتشار، برای طبقه بندی استفاده گردیده که مقدار دقت 12/99 درصد برای 17 عدد سیگنال اخذ شده از پایگاه داده ی MIT-BIH، به دست آمده است.

    کلیدواژگان: الکتروکاردیوگرام، بهینه سازی ازدحام ذرات باینری چند هدفه، تجزیه بسته ی موجک، تجزیه مد تجربی گروهی، شبکه عصبی پس انتشار
|
  • Maryam Ebrahimi, Mohammad Hesam Tadayon*, Mohammad Sayad Haghighi Pages 3-28

    Within the complex Internet of Things (IoT) paradigm that things interact with each other as well as with human beings, one approach to provide security for smart network-based applications is to implement trust management systems.  Trust, in general, overlaps with concepts such as security, privacy and reliability. However, the high number of objects in IoT, along with its dynamic nature and existence of malicious entities, make IoT trust management quite challenging. These unique attributes rule out the application of previous best practices in IoT networks. In this paper, in addition to the analysis of direct, indirect and hybrid trust calculation algorithms, we introduce the relevant attacks and their countermeasures. Moreover, we study the methods for trust model evaluation and also, the effect of limited resources on the performance of trust calculation algorithms.  In short, we carry out a comparative survey in which IoT trust-related works are studied from four perspectives: (1) Trust calculation model, (2) Attack resistance, (3) The effect of resource limitation on the model performance, and (4) Trust management evaluation framework. Through this, we find the pros and cons of the existing algorithms and make a measure for IoT trust management systems. We provide some comparative tables to depict the discrepancies of the existing IoT trust models. One main contribution of this paper is to establish some quantitative metrics to evaluate the trust estimation models and reveal their strengths and deficiencies under different conditions.

    Keywords: Trust, Internet of Things, Social Internet of Things, Trust Evaluation
  • Hamid Reza Ghaffari*, Atena Jalali Mojahed Pages 29-44

    Classification is a machine learning method used to predict a particular sample’s label with the least error. The present study was conducted using label prediction ability with the help of a classifier to create a new feature. Today, there are several feature-extraction methods like principal component analysis (PCA) and independent component analysis (ICA) that are widely used in different fields; however, they all suffer from the high cost of transferring to another space. The purpose of the proposed method was to create a higher distinction between various classes using the new feature such that to make the data in the classes closer to each other. As a result, more differentiation is created between the data of various classes to increase the efficiency of classifiers. Firstly, the suggested labels for the primary data set were determined using one or more classifiers and added to the primary data set as a new feature. The model was created using a new data set. The new feature for training and testing data sets was provided separately. The tests were performed on 20 standard data sets and the results of the proposed method were compared with those of the two methods described in the related studies. The outputs indicated that the proposed method has significantly improved the classification accuracy. In the second part of the tests, the resolution of the new feature was examined according to two criteria, namely Information Gain and Gini Index, to examine the effectiveness of the proposed method. The results showed that the feature obtained in the proposed method has higher Information Gain and lower Gini Index in most cases, as it has less irregularity. To prevent the increase in data dimensions, the feature with the least Information Gain was replaced with the feature extracted with the most Information Gain. The results of this step showed an increase in efficiency as well.

    Keywords: Feature extraction, classification, information gain, Gini index
  • Ehsan Imani Far, Amir Akhavan*, Ali Asghar Abniki Pages 45-56

    Direction of Arrival (DOA) estimation of sound sources using phased array-based methods has a lot of importance in various fields, including sonar, robot vision and mechanical defect detection. Adaptive beamforming methods, such as the MVDR (Minimum Variance Distortionless Response) algorithm, have high resolution compared to non-adaptive methods; but this advantage is achieved in return for the computational complexity of these algorithms. This makes it hard to use these algorithms in applications that require real-time sound source DOA estimation. On the other hand, an important feature of the adaptive beamforming methods including MVDR is the high potential of these algorithms for parallelization. The purpose of this paper is the parallel implementation of the MVDR algorithm by employing GPU instead of CPU to increase the execution speed and achieve real-time mode. To achieve this purpose, the CUDA programming model has been used to implement the algorithm on the GPU. In order to investigate the performance of parallel implementation of the MVDR algorithm, two different GPUs, as well as CPUs, have been used. The performance validity of various implementations in this paper was confirmed by real sonar data as well as simulation data. The results show that using an array of 64 sensors, it is possible to estimate the DOA of underwater sound sources in real-time and with high resolution using the MVDR algorithm.

    Keywords: DOA estimation of sound sources, MVDR algorithm, Parallel processing, GPU, CUDA
  • Mina Abbaspour Orangi, Alireza Hashemi Golpayegani* Pages 57-74

    Trust is one of the most important cornerstones in social networkschr discussions. Most of the times the way that users of these networks trust each other are considered identical, while these users can have different approaches and considerations in trusting to others. Meanwhile, users can impress each other and change their trusting patterns to other users. As a result, the mechanism and manner of impressing opinion trust behavior and conditions of behavioral modes changing have a place of importance to be considered. The question is that, how we can consider different behavior of users and their impression in trusting others? In the first step, the main purpose of this paper is to spotlight social networks different user behavior in trusting other users. For this purpose, the three most important behavioral modes in users) trust are considered. In each of these modes behavioral and functional characteristics of users are the basis of calculating trust, which is based on mental beliefs of them. These modes are named as optimistic, moderate and pessimistic trusting modes. In optimistic mode, we suppose that users think positively and consider low level of activities and signs in trusting others. Here, negative interactions have little impact on users mind. In moderate mode, we suppose that users are not as optimistic as mode A and consider all the interactions and signs when they want to trust others. Here, any negative action can destroy the trust of users and has a greater impact on users. Finally, in pessimistic mode, we suppose that users are pessimistic and trust hardly. In this mode, the interactions that happened more recently have more value than those that happened in the past. In the next step, the way that the trust behavior of users spreads is the goal and innovation of this paper. Three different scenarios are considered for the impressing and spreading of nodes behavior, purposely. In each scenario, different states for users and different purposes for diffusion are defined.   Next, it is followed by maximizing of impression and finding more impressive agents in diffusing trust behavior through social networks. For this purpose, it focused on the structure of users social networks, and the most impressive ones are determined through different diffusion scenarios. The findings of this article appear a significant discrepancy in the amount of trust in each of the different behavioral modes, which is more acceptable in the real world. Analyzing test results leads us to the fact that in the presented model, choosing the start node from each community with 48.14 percent in behavior improvement and diffusion speed and the nodes with the highest degree with 37.03 percent in behavior changing has much more reasonable results than usual models. ​

    Keywords: Trusting behavior, Trust diffusion, Influential nodes, Social networks, Social network analysis
  • Behrang Barekatain*, Maryam Yousefpour Pages 75-96

    The most important obstacle for increasing the level of coverage in wireless networks is the energy consumption of the sensors, which causes them to run out of energy. This phenomenon is known as a critical issue called the cover hole, and no sensor is covered in that particular area. As a result, real events in those areas wonchr('39')t be recognizable and traceable. This study has introduced a new algorithm based on the Credit Trust Management System in wireless sensor networks to maximize the coverage of the network by intelligently adjusting the sensor nodes. This algorithm dramatically reduces the amount of coverage by using a backup vector machine while consuming less energy on the network. In other words, by collecting the information in different time periods and interactions between the nodes, their satisfaction is evaluated in order to consider respective rewards or penalties.  Evaluations show that the longevity of the network and the size of the sensor radius of the nodes have improved 12.42% and 20.4%, respectively in terms of the number of sensor nodes in the environment with respect to the moving radius of the nodes, mobile nodes and cellular automata compared to the environment considering the constant radius of the nodes, mobile nodes and without automata.

    Keywords: Coverage Cavities, Wireless Network Sensing Radius, Trust Management, Energy Consumption, Support Vector Machin
  • Musa Mojarad*, Hamid Parvin, Samad Nejatiyan, Karam Allah Bagheri Fard Pages 97-114

    There are many theories about the causes of hereditary diseases, but physician believe that both the genetic and environmental factors simultaneously play an important role in the development and progression of these diseases, although the extent to which this effect is not yet clear. In order to detect effective genes in the development of diseases, it is necessary to achieve the relationship between cells/tissues. The interaction between different cells/tissues can be demonstrated by expressing the gene between them. By sampling chromosomes, useful information is obtained about the type of disease and how it is transmitted. By examining this information, you can identify disorders that have led to highly altered changes. In this paper, the recognition of intercellular and inter-tissue interactions in various diseases has been done according to the characteristics of the topological structure of the graph and an improved cumulative clustering method. The proposed method has two stages; in the first step, several clustering models are combined to identify the initial relationships between cells or tissues in order to produce better results than individual algorithms. In the second stage, the similarity between cells or tissues in each cluster is calculated using a similarity criterion based on the topological structure of the graph. Eventually, the maximum similarity between cells or tissues in each cluster is used to discover the relationship between diseases. To evaluate the performance of the proposed method, several UCI datasets and the Phantom 5 dataset have been used. The results of the proposed method on the phantom data set 5 report a silhouette of 0.901 in 18 clusters for cells and 0.762 in 13 clusters for tissues.

    Keywords: Intercellular communication, Improved clustering, Graph topological structure, Phantom 5 data set
  • Maedeh Daryanavard, Asadollah Shahbahrami* Pages 115-134

    Non-distortion-specific no-reference image quality assessment is one of the challenges in the field of digital image processing. This is because there are no reference images, the type of failure, scores, and scoring of a human observer while this field is used in various applications. The purpose of this paper is to use the properties and characteristics of the images and model them with the q-Gaussian distribution for evaluation of image quality. The q-Gaussian distribution is one of the options that creates the boundaries of flexibility decision making with different Gaussian forms that have more generalizability in abnormalities than other distributions, and to better model the statistical properties of the image. Our experimental results show that the performance of the proposed technique is more than other distribution.

    Keywords: image quality assessment, no-reference assessment, Non-distortion-specific assessment, q-Gaussian distribution
  • Fatemeh Mirjalili*, Jafar Razmara Pages 135-146

    Today, applications of the virtualization technology are rapidly growing in which setting up and running multiple operating systems on a single physical system. Computational clouds are the most hallmark of this technology. Intrusion detection systems play a key role in protecting cloud resources on virtual machines. Regarding the increasing speed and complexity of these machines, it is necessary to increase the ability and accuracy of intrusion detection systems to identify different types of attacks at the right time. In this regard, the use of behavior-based approaches has attracted more attention due to their high scalability in large networks. The methods for intrusion detection that utilizes network traffic graph clustering do not have the accuracy and appropriateness with the speed of data transfer in the current computer networks. Thus, the solutions can be improved by choosing an appropriate strategy for clustering. In this paper, a new behavior-based method for detecting intrusion in computer networks is presented. To this end, the network data was modeled through the flow of data as a traffic distribution graph and then clustered using an improved Markov-based algorithm. Then, the produced clusters are used to construct an intrusion detection model by analyzing a set of modified statistical criteria. The proposed model was examined and evaluated on the DARPA 99 dataset and compared with seven other robust methods. The results show that the proposed method detects attacks with high accuracy and works better than the methods which do not use the graph clustering.

    Keywords: behavior-based intrusion detection, traffic dispersion graph, data flow, graph clustering, optimized Markov clustering
  • Zahra Hossein-Nejad, Mehdi Nasri* Pages 147-162

    Image mosaicing refers to stitching two or more images which have overlapping regions to a larger and more comprehensive image. Scale Invariant Feature transform (SIFT) is one of the most commonly used detectors previously used in image mosaicing. The defects of SIFT algorithm are the large number of redundant keypoints and high execution time due to the high dimensions of classical SIFT descriptor, that reduces the efficiency of this algorithm. In this paper, to solve these problems a new four-step approach for image mosaicing is proposed.  At first, the keypoints of both reference and sensed images are extracted based on Redundant Keypoint Elimination-SIFT (RKEM-SIFT) algorithm to improve the mosaicing process. Then, to increase the speed of the algorithm, the 64-D SIFT descriptor for keypoints description is used. Afterwards, the proposed RANdom SAmple Consensus (RANSAC) algorithm is used for removing mismatches. Finally, a new method for image blending is proposed. The details of the proposed steps are as follows. RKEM-SIFT algorithm has been proposed in [1] to eliminate redundant points based on redundancy index. In this paper, RKEM algorithm is used to extract keypoints to improve the accuracy of image mosaicing. In the second stage, for each keypoint of the image, 64-D SIFT descriptor is computed. In this descriptor, unlike the 128-D SIFT descriptor, a smaller window is used which improves the accuracy of matching and reduces the running time. In the third stage, the proposed adaptive RANSAC algorithm is suggested to determine the adaptive threshold in the RANSAC algorithm to remove the mismatches and to improve the image mosaicing. Determining the appropriate threshold value in RANSAC is so important, because if an appropriate value is not chosen for this algorithm, the mismatches are not removed, and eventually there will be a serious impact on the outcome of the image mosaicing process. In this method, the threshold value is based on the median value of distances between matching points and their transformed model. Image blending in the mosaicing process is the final step which blends the pixels intensity in the overlapped region to avoid seams. The proposed method of blending is to combine the images based on the Gaussian weighting function, which the mean of this function is considered as the average of the data in the overlapped region of two images. The proposed blending method reduces artifacts in the image for better performance of the mosaicing process. Another advantage of this proposed method is the possibility to combine more than two images that are suitable for creating panoramic images. The simulation results of the proposed image mosaicing technique, which includes the RKEM-SIFT algorithm as feature detector, 64-D SIFT descriptor, proposed adaptive RANSAC algorithm and proposed image blending algorithm on different image databases show the superiority of the proposed method according to RMSE criteria, precision and running time.

    Keywords: Image mosaicing, Image registration, SIFT
  • Mahsa Vaghefi*, Fatemeh Jamshidi Pages 163-176
    Introduction

    Any heart activity disorder may lead an irregularity in is rhythm, or cardiac arrhythmia. An ECG signal is one of the major tools for classifying different types of cardiac arrhythmias. ECG signals usually contain various noises. To have a better signal processing, it is essential to remove noises in a way that a signal structure never become subject to distortion. After the step of noise removal, selection of an appropriate method is of paramount importance for feature extraction. Optimal features can be selected to improve efficiency and reduce calculations.

    Materials and Methods

    This article used the ensemble empirical mode decomposition (EEMD) in which any intrinsic mode function (IMF) contains only a single frequency component for noise removal. The noise removal operation with the least distortion is possible using an appropriate windowing on a QRS complex containing sum of the first three IMFs. Later, the remaining noises can be removed using discrete wavelet transform (DWT). The results of using the EEMD-DWT combined method were compared with EMD and DWT combination. After the noise removal step, feature extraction was performed through a wavelet packet decomposition. It is capable of signal decomposition at all frequencies. Multiple objective binary particle swarm optimization (MOBPSO) method was used to select optimal features and the effect of this method on the results was examined. Finally, the back propagation neural network (BPNN) and a support vector machine based on particle swarm optimization were used for classification.

    Result

    This article used 17 signals received from the MIT-BIH database. The acquired data belong to 6 different types of classes. After pre-processing, feature extraction, feature selection, and classification on the input data, it is observed that the proposed technique of EEMD-DWT is an appropriate method for noise removal and MOBPSO is a suitable method for the selection of best features. The BPNN classifier managed to classify cardiac arrhythmias with a higher accuracy and the values for accuracy, sensitivity, specificity, and positive predictive value were 99.12%, 97.08%, 99.38%, and 97.12%, respectively.

    Keywords: Back Propagation Neural Network, Discrete Wavelet Transform, Electrocardiogram, Ensemble Empirical Mode Decomposition, Multiple Objective Binary Particle Swarm Optimization