فهرست مطالب

فصلنامه پدافند الکترونیکی و سایبری
سال یازدهم شماره 4 (پیاپی 44، زمستان 1402)

  • تاریخ انتشار: 1402/10/28
  • تعداد عناوین: 12
|
  • غلامرضا بازدار، محمد عبداللهی ازگمی* صفحات 1-16
    عملیات نفوذ در کنار عملیات سایبری و جنگ الکترونیک، یکی از انواع عملیات اطلاعاتی است. فراگیری شبکه های اجتماعی برخط، بستری مناسب جهت عملیات نفوذ فراهم کرده است؛ لذا دستیابی به قابلیت ارزیابی عملیات نفوذ در شبکه های اجتماعی برخط ضروری است. قابلیت ارزیابی عملیات نفوذ مستلزم وجود یک مدل مفهومی است که از طرفی متصل به سازه نظری مستحکم باشد و از طرف دیگر قابلیت پیاده سازی محاسباتی داشته باشد. هدف این مقاله ارائه یک مدل مفهومی است که زمینه مدل سازی محاسباتی برای ارزیابی عملیات نفوذ در شبکه های اجتماعی برخط را فراهم آورد. در این مقاله پس از مطالعه عمیق و اکتشافی در ادبیات تحقیق، با به کارگیری روش فراترکیب و مصاحبه با خبرگان، چارچوب نظری قدرت شناختی سایبری و اجزاء، مفاهیم، ابعاد و مولفه های مدل مفهومی ارائه شده است. جهت ارزیابی اعتبار مدل ارائه  شده از روش دلفی دومرحله ای استفاده شد.  مدل پیشنهادی از لحاظ روایی و پایایی تایید شد و همچنین مبتنی بر روش دلفی، مورد توافق بالای هشتاد درصد قرار گرفت. در این تحقیق، صورتبندی مفهومی جدیدی برای عملیات نفوذ در شبکه های اجتماعی برخط مبتنی بر مفهومپردازی سرمایه های شناختی و قدرت شناختی سایبری ارائه شده است. مدل مفهومی پیشنهادی که به صورت توصیفی ارائه شده است، امکان ارزیابی شاخص های موفقیت عملیات نفوذ را فراهم نموده است. مزیت مدل مفهومی پیشنهادی این است که ارزیابی عملیات نفوذ را مبتنی بر مفهوم قدرت انجام می دهد و قابلیت ارزیابی محاسباتی عملیات نفوذ را فراهم می آورد. همچنین این مدل امکان شناسایی و تشخیص عملیات نفوذ را در شبکه های اجتماعی برخط را فراهم می آورد.
    کلیدواژگان: شبکه اجتماعی برخط، عملیات اطلاعاتی، عملیات نفوذ، قدرت اطلاعات، قدرت ارتباطات، قدرت سایبری، نظریه گفتمان شناختی، قدرت شناختی سایبری
  • نسیبه محمودی، حسین شیرازی*، محمد فخردانش، کوروش داداش تبار احمدی صفحات 17-34
    باتوجه به اینکه بیشتر مسائل دنیای واقعی از قبیل تشخیص تقلب، شناسایی خطا،  تشخیص ناهنجاری، تشخیص پزشکی و تشخیص بدافزار نامتوازن هستند، دسته بندی داده ها در مسائل نامتوازن به عنوان یکی از چالش های اصلی در حوزه داده کاوی، مورد توجه بسیاری از محققان و پژوهشگران قرارگرفته است. در یادگیری نامتوازن، معمولا تعداد نمونه های یکی از دسته ها خیلی بیشتر از نمونه های دسته دیگر است و یا هزینه دسته بندی اشتباه در دودسته متفاوت است. شبکه های عصبی کانولووشنال به رغم موفقیت های چشمگیری که در دسته بندی داده ها دارند، در مسائل نامتوازن با مشکل مواجه می شوند چرا که آنها به صورت پیش فرض، توزیع دسته ها را متوازن و هزینه دسته بندی را مساوی در نظر گرفته می گیرند، ازاین رو در دسته بندی نامتوازن، نمی توان به نتایج قابل قبولی دست یافت؛ زیرا شبکه به سمت نمونه های آموزشی دسته بزرگ تر متمایل می شود که این موضوع سبب افزایش تعداد خطاها در تشخیص نمونه های مثبت می شود.  یکی از راهکارهای کم هزینه برای غلبه بر نامتوازنی داده ها در شبکه های  عصبی کانولوشنال استفاده از تابع ضرر به نفع دسته اقلیت است، در این مقاله تابع ضرری جدیدی معرفی شده است که به صورت تدریجی و با پیشرفت آموزش، اهمیت دسته اقلیت را افزایش می دهد تا در انتهای آموزش به مقدار مشخص شده برسد و از اهمیت داده های دسته اکثریت بکاهد، این امر باعث می شود تا هم بتوانیم از قدرت آموزشی همه داده ها استفاده کنیم و هم از غلبه داده های دسته اکثریت جلوگیری کنیم. نتایج آزمایش روی سه مجموعه داده مصنوعی، تشخیص فعالیت های انسان و Cifar-10، همگرایی و کارایی روش پیشنهادی را نشان می دهند، روش پیشنهادی با روش های آدابوست مبتنی بر درخت تصمیم، شبکه کانولوشنال مبتنی بر آنتروپی متقابل و آنتروپی متقابل وزن دار، روش SMOTE و روش CNN تجمعی مقایسه شده است. به ترتیب با کسب دقت 6/94، 92/92 و 23/69 در سه مجموعه داده  (Cifar-10 با نرخ نامتوازنی 5 درصد) توانست از دیگر روش ها پیشی بگیرد و دقت در مجموعه داده مصنوعی نسبت به روش سنتی آدابوست مبتنی درخت تصمیم، 72/17 بالاتر است.
    کلیدواژگان: نامتوازنی دسته ای، یادگیری عمیق، تابع ضرر، آنتروپی متقابل
  • بتول کریم زاده کلیبر، ناهیده درخشان فرد* صفحات 35-43
    شبکه های تحمل پذیر تاخیر، گروهی از شبکه های بی سیم هستند که به دلیل توزیع پراکنده گره ها و حرکت آنها، قطع و وصل های طولانی مدت و مکرری را متحمل می شوند. در این شبکه ها که نوعی از شبکه های سیار هستند ممکن است یک مسیر متصل از فرستنده به گیرنده وجود نداشته باشد، بنابراین تحویل پیام به روش مسیریابی فرصت طلبانه و براساس الگوی ذخیره، حمل و ارسال انجام می شود. مسیریابی یکی از چالش های اصلی در این شبکه ها است. مسیریابی از گام های انتخاب گره بازپخش، مدیریت بافر و انتقال داده تشکیل شده است. برای مقابله با چالش مسیریابی روش های مختلفی ارائه شده است. اکثر این روش ها فقط در مورد انتخاب گره بازپخش بوده و تعداد کمی راجع به مدیریت بافر و انتخاب بسته ی جایگزین بحث کرده اند. با توجه به اینکه مسئله انتخاب بسته ی جایگزین از بافر ماهیت تصمیم گیری دارد به نظر می رسد استفاده از تئوری بازی ها می تواند در بهبود مدیریت بافر کارساز باشد.  در این مقاله در هرگام از فرایند مسیریابی و در زمان ملاقات دو گره بعد از تعیین گره ارسال کننده و  دریافت کننده روشی ارائه شده است که براساس تئوری بازی ها تصمیم گیری می کند که در صورت پر بودن بافر بسته ی دریافتی با کدام بسته از بافر گره دریافت کننده جایگزین شود. نتایج شبیه سازی این روش با استفاده از شبیه ساز THE ONE نشان می دهد که مدیریت بافر با روش پیشنهادی نسبت تحویل را افزایش و میانگین تاخیر و نسبت سربار را کاهش می دهد.
    کلیدواژگان: شبکه های تحمل پذیر تاخیر، تئوری بازی ها، مدیریت بافر، مسیریابی
  • رضا ترکاشون، سعید پارسا*، بابک وزیری صفحات 45-59
    برای آگاهی از میزان کیفیت نرم افزار لازم است عامل های موثر در کیفیت را اندازه بگیریم. میزان قابلیت اطمینان و تعداد خطا در نرم افزار از  مهم ترین عامل های کمی هستند که کیفیت آنها را می سنجند. اگر بتوان این عامل ها را در حین چرخه توسعه نرم افزار اندازه گیری کرد، می توان فعالیت های موثر و بهتری را در راستای بهبود کیفیت نرم افزار انجام داد. مشکل اینجا است که این دسته از عامل ها در مراحل آخر توسعه نرم افزار در دسترس خواهند بود. برای حل این مشکل، این عامل ها توسط معیارهایی اندازه گیری می شوند که در چرخه توسعه نرم افزار به صورت زودهنگام در دسترس هستند. معیارهای اندازه گیری شده ورودی های مدل پیش بینی خطا هستند و خروجی این مدل، ماژول هایی از نرم افزار هستند که احتمال بروز خطا در آنها وجود دارد. پیش بینی ماژول ها مستعد خطا، رویکردی اثبات شده در جهت تخصیص به موقع منابع پروژه، در مرحله آزمون نرم افزار است. هنگامی که یک ماژول به عنوان یک ماژول مستعد خطا پیش بینی می شود، تلاش بیشتری برای آزمون و تصحیح آن باید صرف شود. علاوه برآن ماژول، تمامی ماژول ها وابسته به آن نیز نیاز به رسیدگی ویژه ای دارند. زمانی که یک ماژول تغییر می کند تمامی ماژول ها وابسته به آن نیز ممکن است تحت تاثیر قرار بگیرند. مشکل در این است که معیارهای شناخته شده ای که در حوزه ی پیش بینی خطا مورداستفاده قرار می گیرند، این وضعیت را در نظر نمی گیرند. برای حل این مشکل، در این مقاله معیارهای جدیدی بر اساس تغییرات در موارد وابستگی ارائه شده است. نتایج تجربی به دست آمده نشان داد هرچه میزان تغییرات در ماژول ها مورد وابستگی بیشتر باشد، احتمال خطا در ماژول وابسته بیشتر می شود. با ارزیابی های صورت گرفته مشاهده شد معیار پیشنهادی قدرت پیش بینی نسبتا بالایی دارد و به کاربردن آن برای ساخت مدل های پیش بینی خطا نیز افزایش قدرت پیش بینی را برای آنها در پی داشت.
    کلیدواژگان: کیفیت نرم افزار، پیش بینی خطا، اندازه گیری، معیارهای نرم افزاری، ماژول ها مستعد خطا، تغییر، وابستگی
  • محمدمهدی حسنی*، عشرت سرمدی صفحات 61-73

    اینترنت اشیاء، یک معماری نوظهور اطلاعاتی مبتنی بر اینترنت است که تعامل بین اشیا و خدمات را در محیطی امن و قابل-اطمینان توسعه می دهد. درواقع هدف این ساختار، کاهش فاصله بین اشیای دنیای فیزیکی و سیستم های اطلاعاتی است. در بحث اینترنت اشیاء، انتظار می رود که اشیای هوشمند به عضو فعالی در کسب وکار و فرآیندهای اطلاعاتی و اجتماعی تبدیل شوند، به طوری که قادر باشند بین خودشان و محیط بیرونی از طریق تبادل داده و اطلاعات حس شده، تعامل داشته باشند. درواقع، اینترنت اشیاء، شبکه ای از اشیاء است که در آن اشیاء مختلف می تواند به کمک کامپیوتر و از طریق ارتباطات اینترنتی با سایر تجهیزات ارتباط برقرار کنند. در محیط اینترنت اشیاء، هریک از این اشیا تحت کنترل تعدادی سرویس دهنده قرار دارند و به عبارتی دیگر، این سرویس دهنده ها هرکدام به تعدادی از اشیا سرویس ارائه می دهند. کاربران با توجه به نوع نیازشان هرکدام تعدادی از خدمات ارائه شده توسط این سرویس دهنده ها را به کار می گیرند. در این میان مسئله ای که از اهمیت بالایی برخوردار است، توصیه سرویس دهنده هایی است که استفاده از آن ها برای کاربران مفیدتر و بهینه تر است. برای رسیدن به چنین هدفی از سیستم های توصیه گر استفاده می شود. وظیفه اصلی سیستم های توصیه گر، توصیه سرویس دهنده هایی است که مطابق با نیازهای مختلف کاربران باشند. در این پژوهش یک سیستم توصیه گر جدید پیشنهاد شد که ویژگی های کاربران و خدمات موجود در شبکه اینترنت اشیا را در نظر گرفته و بر اساس پارامترهای ارائه شده، اقدام به توصیه خدمات بهینه متناسب با نیاز کاربران می کند. نوآوری این پژوهش، استفاده از الگوریتم ماشین بردار پشتیبان و مدل تصمیم گیری چند معیاره تاپسیس به منظور ایجاد یک سیستم توصیه گر کارا و ارائه پیشنهادات به کاربران بر اساس ترجیحات آنها و افزایش رضایت کاربران است. نتایج تجربی نشان می دهد که سیستم توصیه گر ارائه شده می تواند یک سری توصیه های عینی تولید کند که بر اساس دقیق و متنوع بودن، تازگی و پوشش بالایی کارایی دارد.

    کلیدواژگان: : اینترنت اشیاء، سیستم توصیه گر، سرویس اینترنتی، ماشین بردار پشتیبان، مدل تاپسیس، چندمعیاره، مدل تصمیم گیری
  • مریم براتیان، هادی زیانی*، علی کوهستانی صفحات 75-82
    در ارتباطات بی سیم، کانال ارتباطی در دسترس همگان است و لذا هر گیرنده در محدوده پوشش مخابراتی، می تواند سیگنال ارسالی را دریافت کند. در چنین شرایطی، کاربران غیرمجاز ممکن است از این ویژگی کانال بی سیم برای شنود اطلاعات، ایجاد اختلال در ارسال داده، کاهش عملکرد شبکه و... استفاده کنند. اخیرا استفاده از حسگری فشرده در برقراری امنیت لایه فیزیکی توجه بسیاری از محققین را به خود جلب کرده است. روش حسگری فشرده در جاهایی که سیگنال ها تنک و یا قابل فشرده شدن در یک پایه باشند، مانند پردازش سیگنال تصویر و یا تشخیص تصویر، بسیار کاربرد دارد؛ چرا که می تواند به عنوان یک سیستم رمزنگاری در نظر گرفته شود تا ضمن حفظ ماتریس اندازه گیری مخفی، عملیات های نمونه برداری، فشرده سازی و رمزگذاری را محقق نماید. در این مقاله، امنیت لایه فیزیکی در یک ارتباط بی سیم مشارکتی مبتنی بر چند رله متوالی مورد بررسی قرار گرفته است. در چنین مدلی، ماتریس کانال معادل به عنوان ماتریس اندازه گیری امن، مورد استفاده قرار می گیرد. از آنجایی که اکثریت کارهای پژوهشی صورت گرفته شده در این حوزه، سخت افزار رله ایده آل و عاری از نقیصه های سخت افزاری در نظر گرفته می شود، در این کار تحقیقاتی نیز، فرض عملی نقیصه سخت افزاری کوچک در امنیت لایه فیزیکی با کمک حسگری فشرده و در یک شبکه مشارکتی با چندین رله متوالی در نظر گرفته شده است. در نهایت راهکاری جهت بهبود کارایی محرمانگی چنین سیستمی پیشنهاد داده شده است. نتایج شبیه سازی روش ارئه شده نشان داد که در بدترین حالت، نرخ محرمانگی حداقل 10 درصد و در بهترین حالت 120 درصد افزایش می یابد. همچنین، پیچیدگی محاسباتی روش ارائه شده از نظر زمان شبیه سازی افزایش 22 درصدی را نشان می دهد.
    کلیدواژگان: امنیت لایه فیزیکی، حسگری فشرده، مخابرات مشارکتی، نقیصه های سخت افزاری
  • لطف الله وکیلی* صفحات 83-92

    سیستم های سایبری فیزیکی به دلیل کاربردهای گسترده آن در حوزه های مختلف در طول دهه گذشته به توسعه سریع دست یافته اند و معمولا با توانایی های سنجش، ارتباط، محاسبات و فعال سازی تشکیل شده اند. بااین حال، شبکه ارتباطی سیستم های امنیت فیزیکی ممکن است توسط حملات سایبری مورد حمله قرار گیرد که عملکرد سیستم را به طور چشمگیری از بین می برد. اخیرا حملات قطع سرویس DOS  توجه زیادی را به خود جلب کرده است. در این مقاله راهکاری برای مقابله با حملات DoS به سیستم کنترل تسهیم توان شبکه توزیع انرژی الکتریکی شامل تولیدات پراکنده ارائه شده است. طور یکه یک تخمین گر توزیع شده متغیر با زمان بکار برده شده است. بر اساس ویژگی مدت زمان ارتباط قطع سرویس، شرایط طراحی همگرا پارامترهای ناظر با استفاده از تئوری انتگرال لبگ و روش میانگین زمان ماند به دست می آید. همچنین نشان داده شده است که خطاهای ناظر همگرا می شوند. درنهایت روش مقابله ارائه شده بر روی خط کنترل امپدانس مجازی سیستم کنترل تسهیم توان قرار گرفته و حملات قطع سرویس را خنثی خواهد کرد.

    کلیدواژگان: سیستم های سایبری فیزیکی، حملات DoS، کنترل تسهیم توان، کنترل امپدانس مجازی
  • علیرضا شجاعی فرد*، حمیدرضا یزدانی، رامین نصیری صفحات 93-98
    روش تحلیل مولفه اصلی یکی از روش های شناخته شده کاهش بعد است که دارای کاربردهای فراوانی در تجزیه وتحلیل کلان داده ها در زمینه های گوناگون می باشد. این روشی اساسی در پردازش تصاویر است که به صورت مستقیم یا بعد از چند مرحله پیش پردازش و در ترکیب با روش های دیگر به کار می رود. روش های تشخیص چهره مبتنی بر تحلیل مولفه اصلی دارای کاربردهای فراوانی در زمینه شناسایی و تشخیص چهره هستند. در این مقاله، الگوریتم دارای صرفه محاسباتی در زمینه تشخیص چهره انسانی مبتنی بر تحلیل مولفه اصلی را ارائه می کنیم که با ترکیب فاصله ماهالانوبیس با روش تحلیل مولفه اصلی، توانایی تشخیص چهره در کوتاه ترین زمان ممکن برای تصاویر باکیفیت پایین و حتی تصاویر سیاه وسفید را دارد. طراحی این روش ماژولار است و می توان هر بخش از آن را با روش های دیگر ترکیب نمود. روش بیان شده و از نظر پارامترهای مطرح در تعیین پیچیدگی و کارآمدی محاسباتی موردبحث و بررسی قرار می گیرد. در مجموع می توان گفت روش ارائه شده نسبت به روش های دیگر دارای توانایی پردازش تصاویر با وضوح و عمق رنگ بسیار پایین، توانایی تشخیص چهره بر مبنای پایگاه داده تصاویر سیاه وسفید، عدم نیاز به سیستم های رایانه ای نیرومند و هزینه بر، ساختار ماژولار، سفارشی سازی بر اساس فاصله و سنجه محاسبه تشابه،  افزایش نرخ تشخیص 30 درصدی از 49 به 79 درصد است.
    کلیدواژگان: تحلیل مولفه اصلی، تشخیص چهره، دسته بندی سازها، فاصله اقلیدسی، فاصله ماهالانوبیس
  • فاطمه زارع مهرجردی، علی محمد لطیف*، محسن سرداری زارچی صفحات 99-116
    امروزه از تصاویر به عنوان ابزار ارتباطی قوی و منبعی از اطلاعات استفاده می شود. تصاویر در برخی از کاربردها مانند پزشکی، قضایی و پزشکی قانونی به عنوان مدرک و شاهد استفاده می شوند، بنابراین صحت تصویر مهم است. امروزه با گسترش و دردسترس بودن ابزارهای ویرایش تصویر، افراد می توانند به راحتی تصاویر را دست کاری کنند. آن ها با اضافه کردن بخشی به تصویر یا حذف کردن بخشی از تصویر و توزیع اطلاعات غلط اهداف و مشکل های سیاسی، فرهنگی، اقتصادی و اجتماعی را دنبال می کنند. ازاین رو تشخیص جعل تصاویر دیجیتال یکی از موضوع های مهم و چالش برانگیز در حوزه بینایی کامپیوتر است. در این پژوهش هدف شناسایی تصاویر و پیکسل های جعلی و سالم با استفاده از شبکه یادگیری عمیق ترکیبی است. در روش پیشنهادی از سه شبکه از پیش آموزش داده شده VGG16، MobileNet و EfficientNetB0 در سه انشعاب مختلف استفاده شده است. برای تشخیص جعل در دو سطح تصویر و پیکسل، ابتدا نقشه های ویژگی خروجی سه انشعاب با هم ادغام شده و با استفاده از لایه پولینگ میانگین جهانی و لایه امتیازدهی، تصاویر جعل و سالم تشخیص داده می شوند. در ادامه با استفاده از نقشه های ویژگی ترکیب شده از سه انشعاب بر روی تصاویر جعل، یک تصویر نقشه حرارتی ایجاد می شود و محدوده پیکسل های جعل مشخص می شوند. لازم به ذکر است تشخیص پیکسل های جعل تنها با استفاده از تصویر نقشه حرارتی ساخته شده از شبکه ترکیبی و بدون نیاز به استفاده از تصاویر حقیقی باینری مشخص کننده ناحیه جعل در فرآیند آموزش انجام شده است. روش پیشنهادی بر روی پایگاه داده CoMoFod ارزیابی شده است. نتایج ارزیابی ها عمل کردن مطلوب روش پیشنهادی را در برابر تصاویر جعل با انواع تبدیل های هندسی و عملیات پس پردازش نشان می دهد.
    کلیدواژگان: تشخیص تصویر جعل، تشخیص پیکسل جعل، جعل کپی- انتقال، یادگیری عمیق
  • مرتضی بابایی*، محمدرضا متدین، محسن رضایی خیرآبادی صفحات 117-131
    ارتباطات طیف گسترده پرش فرکانسی  (FHSS) به طور گسترده ای در ارتباطات نظامی و تجاری استفاده می شوند؛ لذا تخمین پارامترهای پرش فرکانسی سیگنال ها از اهمیت بالایی برخوردار هستند. این مقاله، مسئله جداسازی و تخمین پارامترهای چند سیگنال پهن باند پرش فرکانسی سنکرون و متداخل زمانی را با گیرنده هایی با پهنای باند کم و نرخ نمونه برداری پایین بررسی می کند. باتوجه به دانش حداقلی پیرامون سیگنال های ارسالی، مسئله در حالت نیمه کور تحلیل می گردد. برای این منظور، از روشی ترکیبی مبتنی بر پردازش آرایه ای توسعه یافته بر اساس مبدل پهن باند مدوله شده  (MWC) و پردازش در حوزه زمان فرکانس با درنظرگرفتن اطلاعات مکانی سیگنال استفاده شده است. روش فوق شامل دو مرحله است: مرحله اول دریافت سیگنال های پرش فرکانسی توسط آرایه های خطی یکنواخت (ULA) و عبور از MWC با حداقل اجزاء و در مرحله دوم اعمال روش قطری مشترک (JD) بر توزیع های مکان زمان فرکانس (STFDs) داده های خروجی MWC  که منجر به تخمین ماتریس جداکننده و درنهایت جداسازی سیگنال ها و استخراج الگوی پرش فرکانسی می گردد. روش ترکیبی MWC-STF-JD ایده بکار رفته در حل مسئله است به طوری که به طور هم زمان از ویژگی های MWC و تحلیل در حوزه STF استفاده می شود. نتایج حاصل از تخمین پارامترهای موردنظر، در مقایسه با دیگر روش های متداول جداسازی منابع نظیر تحلیل حسگری فشرده  (CS) بر اساس شاخص های ارزیابی نظیر مربع خطای جذر میانگین (RMSE)، منجر به بهبود عملکرد در نسبت سیگنال به نویز (SNR) پایین تر شده است به طوری که میزان خطا در محدوده SNR=4dB به میزان 6dB، سریع تر به حداقل خطا می رسد. از جمله ویژگی های دیگر این روش می توان به کاهش حجم محاسبات بخش پردازش STFDs به میزان نرخ نمونه برداری MWC و امکان پیاده سازی طرح با حداقل اجزاء اشاره نمود.
    کلیدواژگان: جداسازی نیمه کور، گیرنده باند محدود، مبدل پهن باند مدوله شده، توزیع های مکان - زمان - فرکانس، سیگنال پرش فرکانسی پهن باند
  • مهدی عزیزی*، امیر ناصری صفحات 133-143

    امروزه حمل ونقل یکی از موضوعات اساسی و مشکلات بزرگ در شهرها است و این مسئله در شهرهای بزرگ تر مانند شهر تهران به یک دغدغه مهم تبدیل شده است. ازاین رو  سامانه های حمل ونقل به وجود آمده و گسترش پیدا کرده است. اما رشد سریع جمعیت، مهاجرت به شهرها، افزایش مالکیت خودرو و استفاده از وسایل نقلیه شخصی چالش هایی هستند که سیستم های حمل ونقل شهری با آن مواجه هستند. دراین بین سیستم های حمل ونقل مسافر می تواند نقش بسزایی در بهبود وضع ترافیکی شهر داشته باشد. پروتکل های مسیریابی مبتنی بر خوشه یکی از مهم ترین راه های کاهش مصرف انرژی در شبکه های حسگر بی سیم در سیستم های حمل ونقل می باشد. در این مقاله، یک پروتکل خوشه بندی جدید با استفاده از الگوریتم بهینه سازی کلونی زنبورعسل ارائه شده که روشی نوینی برای کاهش مصرف انرژی و بهبود طول عمر شبکه می باشد. مسیریابی شبکه حسگر بی سیم شامل سه مرحله خوشه بندی گره های حسگر به تعدادی خوشه با استفاده از الگوریتم خوشه بندی فازی، انتخاب سرخوشه های بهینه و انتقال داده می باشد. نتایج پیاده سازی روش پیشنهادی و مقایسه عملکرد آن با روش های پیشین در این حوزه عملکرد مناسب این روش را نشان می دهد.

    کلیدواژگان: پرتکل مسیریابی، منطق فازی، خوشه بندی، اینترنت اشیا، الگوریتم کلونی زنبورعسل
  • الهام کاظمی، مهدی صادق زاده*، علی طائی زاده صفحات 145-153
    گسترش و محبوبیت شبکه های اجتماعی در بین افراد، توجه متخصصان بیش ازپیش به فعالیت ها، واکنش ها و احساسات افراد در این شبکه ها نسبت به سایر محافل معطوف گشته است. تحلیل این حجم از اطلاعات متنی غیرساخت یافته کاربران نیازمند روش های نوین و بهینه متن کاوی و پردازش زبان طبیعی است. هدف تحلیل احساسات این است که حجم انبوهی از نظرات پیرامون یک موجودیت توسط ماشین مورد بررسی قرار گیرد و گزارش خلاصه شده ای از احساس بیان شده در آن به کاربر ارائه گردد. برای دستیابی به این هدف تکنیک های آماری، داده کاوی و پردازش زبان طبیعی مورداستفاده قرار می گیرند. در این مقاله روش جدیدی مبتنی بر الگوریتم بهینه سازی ارشمیدس ارائه شده است تا بتوان در زمان کمتر و دقتی بالاتر نظرات کاربران را دررابطه با موضوع موردنظر به دست آورد. همچنین جهت ازبین بردن یکی از چالش های اصلی در تحلیل احساسات در مرحله استخراج ویژگی تمام جملات کنایه آمیز جمع شده و به عنوان جملات باکلاس مشخص وارد مجموعه داده می شود تا این چالش بزرگ را از بین ببرند. این روش قابلیت اعمال بر روی زبان های گوناگون را داشته و سعی بر بالابردن دقت و سرعت الگوریتم های پیشین دارد. نتایج ارزیابی از مجموعه داده ها نشان می دهد که روش پیشنهادی دارای دقت 0.967 می باشد.
    کلیدواژگان: متن کاوی، تحلیل احساسات، الگوریتم بهینه سازی ارشمیدس
|
  • Gholamreza Bazdar, Mohammad Abdollahi Azgomi * Pages 1-16
    Influence operations are considered as one of the types of information operations along with cyber network operations and electronic warfare operations. The spread of online social networks has provided a suitable platform for influence operations. Therefore, it is essential to be able to evaluate influence operations in online social networks. The ability to evaluate influence operation requires the existence of a conceptual model that is connected to a consistent theoretical structure on the one hand, and has the ability to be implemented computationally on the other hand. The aim of this article is to present a conceptual model that provides a basis for computational modeling to evaluate influence operations in online social networks. In this article, after an in-depth and exploratory study in the research literature, using the meta-combination method and interviews with experts, the theoretical framework of cyber cognitive power and the characteristics, concepts, dimensions and components of the conceptual model are presented. Two-step Delphi method was used to evaluate the validity of the presented model. The proposed model was confirmed in terms of validity and reliability and based on the Delphi method, it was agreed by more than eighty percent. In this research, a new conceptual formulation for influence operations in online social networks based on the conceptualization of cognitive capital and cyber cognitive power is presented. The proposed conceptual model, which is presented descriptively, has provided the possibility to evaluate the success indicators of the influence operation. The advantage of the proposed conceptual model is that it evaluates influence operation based on the concept of power and provides computational evaluation of influence operation. Also, this model provides the possibility to identify and detect influence operations in online social networks.
    Keywords: Online social network (OSN), information operation, influence operation, information power, communication power, cyber power, cognitive discourse theory, cyber cognitive power
  • Nasibeh Mahmoodi, Hossein Shirazi *, Mohammad Fakhredanesh, Kourosh Dadashtabar Ahmadi Pages 17-34
    Class-imbalanced datasets are common in many real-world domains, such as health, banking, and security. Machine learning researchers have recently focused on the classification of such datasets, where the costs of different types of misclassifications are unequal, the classes have different prior probabilities, or both. The performance of most standard classifier learning algorithms is significantly affected by class imbalance, where the algorithms are often biased toward the majority class instances despite recent advances in deep learning. However, there is very little empirical work on deep learning with class imbalance.To address this issue, we propose an incremental weighted cross entropy loss function. The proposed method involves gradually increasing the weight of the minority class as the training progresses, until it reaches the specified amount at the end of the training. Through experiments, we demonstrate the convergence and efficiency of the proposed method. The results of experiments on three datasets, including artificial datasets, human activity recognition dataset, and CIFAR-10, demonstrate the convergence and performance of the proposed method. The proposed method is compared with decision tree-based AdaBoost, Cross Entropy-based convolutional neural network, weighted Cross Entropy -based CNN, SMOTE method, and ensemble CNNs method. With accuracy gains of 94.6%, 92.92%, and 69.23% on the three datasets (CIFAR-10 with 5% imbalance rate), the proposed method outperformed the other methods. Additionally, the accuracy on the artificial dataset was 17.77% higher than the traditional decision tree-based AdaBoost method.
    Keywords: class-imbalanced dataset, Convolutional Neural Network, loss function, cross-entropy
  • Batul Karimzadeh, Nahideh Deraxshanfard * Pages 35-43
    Delay tolerant networks are a group of wireless networks that suffer long-term and frequent disconnections due to the scattered distribution of nodes and their movement. In these networks, which are a type of mobile networks, there may not be a connected path from the sender to the receiver, so message delivery is done by opportunistic routing based on the store, carry and Forward pattern. Routing is one of the main challenges in these networks. Routing consists of the steps of choosing a replay node, buffer management and data transmission. Various methods have been proposed to deal with the routing challenge. Most of these methods are only about replay node selection and few have discussed about buffer management and alternative packet selection. Considering that the problem of choosing an alternative package from the buffer is decision-making, it seems that using game theory can be effective in improving buffer management. In this paper, at each step of the routing process and when two nodes meet after determining the sender and receiver nodes, a method is presented that, based on game theory, decides with which packet from the receiving node's buffer if the buffer of the received packet is full, to be replaced. The simulation results of this method using THE ONE simulator show that buffer management with the proposed method increases the delivery ratio and reduces the average delay and overhead ratio .
    Keywords: Delay tolerant networks, Game Theory, routing, buffer management
  • Reza Torkashvan, Saeed Parsa *, Babak Vaziri Pages 45-59
    To evaluate the software quality it is required to measure factors affecting the qualityof the software . Reliability and number of faults are examples of quality factors. If these factors are measured during the software development life cycle, more efficient and optimal activities can be performed to improve the software quality. The difficulty is that these factors could be measured only at the ending steps of the life cycle. To resolve the difficulty, these factors are indirectly measured through some software metrics which are available at the early stages of life cycle. These metrics are used as the input to fault prediction models and software components which may be faulty are the output of these models. Prediction of fault prone modules is a well known approach in software testing phase. When a module is predicted to be faulty, apparently more efforts have to be paid for correcting it. In addition to the module, all its dependent modules require specific consideration. When modifying a module all its dependent modules may be affected. The difficulty is that current known metrics for fault prediction do not reflect this situation. To resolve the difficulty, in this thesis, new metrics are introduced. Our experimental results show that the more the dependees of a module are changed, the more fault prone the module will be
    Keywords: Software Quality, fault prediction, measurement, software metrics, fault prone modules, change metrics, dependency
  • Mohammadmehdi Hassani *, Eshrat Sarmadi Pages 61-73

    The Internet of Things is an emerging information architecture based on the Internet that develops interaction between things and services in a safe and reliable environment. In fact, the purpose of this structure is to reduce the distance between the things of the physical world and information systems. In the Internet of Things, it is expected that intelligent devices will become active members in business and informational and social processes, so that they are able to interact between themselves and the external environment through the exchange of data and sensed information. In fact, the Internet of Things is a network of devices in which various things can communicate with other equipment with the help of computers and through Internet connections.  Recommendation technologies can help to more easily identify relevant artifacts and thus will become one of the key technologies in future IoT solutions.  The main task of recommender systems is to recommend service providers that meet the different needs of users. The paper porposes a Support Vector Machine (SVM) based algorithm and the TOPSIS multi-criteria decision-making model in order to create an effective recommender system and provide suggestions to users based on their preferences and increase user satisfaction. The experimental results show that the proposed recommender system can produce a series of objective recommendations that are effective based on accuracy and variety, novelty and high coverage. Finally, the results confirm the improvement in making recommendations .

    Keywords: Internet of Things, Recommender System, Internet service, Support Vector Machine (SVM), Technique of Order Preference for Similarity to Ideal Solution (TOPSIS), multi-criteria, decision model .
  • Maryam Baratian, Hadi Zayyani *, ALI Kuhestani Pages 75-82
    In wireless communications, the channel is available to everyone and therefore, any receiver in the telecommunication coverage area can receive the transmitted signal. In such cases, unauthorized users may use this feature to eavesdrop the information, disrupt data transmission, reduce network performance, and so on. Recently, using compressive sensing in physical layer security has attracted the attention of many researchers. Compressive sensing is very useful when the signals are sparse or compressible such as in image signal processing or image recognition. This is because it can be considered as an encryption system, sampling, compression and encryption, while maintaining a secret matrix. In this paper, we examine the physical layer security in a cooperative wireless communication based on several consecutive relays. In such a model system, the equivalent channel matrix is used as the secure measurement matrix. Since the majority of research work in this field consider relay hardware to be ideal and free of hardware impairments, in this research work, this practical assumption is made in the physical layer security with the help of compressive sensing. We consider a cooperative communication with multiple-hops. Finally, we will propose a solution to improve the secrecy performance of such a system. Simulation results show that in worst case, the screcy rate increases at least 10 percent and this would be increased to 120 percent in the best case. Moreover, computational complexity in terms of simulation run time is increased by 22 percent.
    Keywords: physical layer security, compact sensing, cooperative telecommunication, hardware defects
  • Lotfoallah Vakili * Pages 83-92

    Cyberphysical systems have achieved rapid development over the past decade due to their widespread applications in various domains, and are typically composed of sensing, communication, computing, and actuation capabilities. However, the communication network of physical security systems may be attacked by cyber attacks, which significantly destroys the performance of the system. Recently, DOS denial-of-service attacks (1) have attracted a lot of attention. In this article, a solution to deal with DoS attacks on the power sharing control system of the electrical energy distribution network, including distributed generation, is presented. So that a time-varying distributed estimator has been used. Based on the feature of service interruption communication duration, the convergent design conditions of observer parameters are obtained using Lebag2 integral theory and average dwell time method. It is also shown that the observer errors converge. Finally, the presented coping method is placed on the virtual impedance control line 3 of the power sharing control system and will neutralize service interruption attacks

    Keywords: Physical security systems, DoS attacks, power sharing control, virtual impedance control
  • Alireza Shojaeifard *, Hamidreza Yazdani, Ramin Nasiri Pages 93-98
    The principal component analysis (PCA) method is one of the well-known dimensional reduction methods, The PCA has many applications in big data analysis from various fields. PCA is an essential method for image processing that is used directly or after several stages of preprocessing and in combination with other methods. Face recognition methods based on principal component analysis have many applications in face detection and recognition. In this paper, we present a cost-effective algorithm for human face recognition based on principal component analysis, which combines the Mahalanobis distance with the PCA method, the ability to detect faces in the shortest possible time for low-quality and black and white images. The architect of this method is modular, and every part of it can be hybridized with other methods. The proposed method is expressed and discussed in terms of parameters for determining the complexity and computational efficiency. Overall, it can be said that the method presented compared to other methods can process images with very low resolution and color depth, is able to recognize the face based on the B&W images, has no need for robust and costly computer systems, has a modular structure, and customizable based on distance (For example, a 30 percent increase of recognition rate from 49 % to 79 % in some implementations).
    Keywords: Principal Component Analysis (PCA), Face recognition, Classifiers, Euclidean Distance, Mahalanobis Distance
  • Fatemeh Zare Mehrjardi, Ali Mohammad Latif *, Mohsen Sardari Zarchi Pages 99-116
    Today, images are used as powerful communication tools and sources of information. In certain applications, such as medicine, justice, and forensics, images serve as evidence. Therefore, the validity of an image is crucial. With the spread and availability of image editing tools, people can easily manipulate images to their advantage. They follow political, cultural, economic, and social issues by adding or removing elements from images, often distributing misinformation. Consequently, forgery detection is one of the most important and challenging topics in the field of computer vision. This research aims to identify forgery and healthy images and pixels using a hybrid deep learning network. In the proposed method, three pre-trained networks—VGG16, MobileNet, and EfficientNetB0—are employed in three different branches. To detect forgery at both the image and pixel levels, the output feature maps from these branches are merged in a concatenate layer. Subsequently, a global average pooling layer and a scoring layer are used to identify forgery and healthy images. Additionally, feature maps combined from the three branches are utilized to create a heat map image for forgery detection. Notably, pixel forgery detection is performed solely using the heat map image generated from the combined network, without relying on ground truth images that specify the forgery area during training. The proposed method is evaluated on the well-known CoMoFod dataset, demonstrating satisfactory performance against forgery images with various geometric transformations and post-processing operations
    Keywords: Image forgery detection, Pixel forgery detection, Copy-move forgery, deep learning
  • Morteza Babaei *, Mohammadreza Motedayen, Mohsen Rezaee Pages 117-131
    Frequency hopping spread spectrum (FHSS) communications are used widely in military and commercial communications. Therefore, estimating the frequency hopping parameters of signals is of great importance. This article examines the problem of separating and estimating the parameters of multiple synchronous and time-interfering frequency hopping wideband signals using receivers with low bandwidth and low sampling rate. Due to minimal knowledge about the transmitted signals, the problem is analyzed in semi-blind mode. For this purpose, a hybrid method based on array processing is developed based on the modulated broadband converter (MWC) and processing in the time-frequency domain by considering the spatial information of the signal. The above method consists of two steps: the first step is receiving frequency hopping signals by uniform linear arrays (ULA) and passing through the MWC with minimal components. the next step, the joint diagonal (JD) method is applied to the space-time-frequency distributions (STFDs) of the MWC output data. This leads to the estimation of the separator matrix and finally to the separation of the signals and the extraction of the frequency hopping pattern. The combined MWC-STF-JD method is the idea used in solving the problem, where MWC features and processing in the STF domain are used simultaneously. The results of the estimation of the desired parameters, compared to other traditional methods of source separation such as Compressed Sensing (CS) analysis based on evaluation indices such as root mean square error (RMSE), have led to improved performance in lower signal-to-noise ratio (SNR). So that the amount of error in the range of SNR=4 dB reaches the minimum error faster by 6 dB. Among the other features of this method, it is possible to reduce the complexity of STFDs processing calculations because of the low sampling rate MWC and the possibility of implementing the design with minimal components.
    Keywords: Semi-blind separation, band-limited receiver, modulated wideband converter, time-frequency-space distributions, wideband frequency hopping signal
  • Mehdi Azizi *, Amir Naseri Pages 133-143

    This research has been done with the aim of providing a routing method in Internet of Things networks based on fuzzy logic and clustering for the use of smart transportation. Today, transportation is one of the basic issues and major problems in cities and this issue bigger cities such as Tehran have become an important concern, hence transportation systems have been created and expanded. But rapid population growth, migration to cities, increasing car ownership and the use of personal vehicles are the challenges that urban transportation systems are facing. Meanwhile, passenger transportation systems can play a significant role in improving the city's traffic situation. Cluster-based routing protocols are one of the most important ways to reduce energy consumption in wireless sensor networks. In this thesis, a new clustering protocol using bee colony optimization algorithm is presented and a new method to reduce energy consumption and. Lifetime improvement in wireless sensor network routing includes three stages of clustering sensor nodes into a number of clusters using fuzzy clustering algorithm, selecting optimal cluster heads and data transmission. The results of implementing the proposed method and comparing its performance with other methods the former showed the proper performance of this method in this field

    Keywords: routing, Fuzzy Logic, Clustering, Internet of Things, bee colony algorithm
  • Elham Kazemi, Mehdi Sadeghzadeh *, Ali Taei Zadeh Pages 145-153
    With the expansion and popularity of social networks among people, special attention has been focused on the activities, reactions, and feelings of people in these networks compared to other circles. Analyzing this volume of unstructured textual information of users requires new and optimal methods of text mining and natural language processing. The purpose of sentiment analysis is to examine a large volume of opinions about an entity by the machine and provide a summarized report of the sentiment expressed in it to the user. To achieve this goal, statistical techniques, data mining, and natural language processing are used. In this article, a new method based on Archimedes' optimization algorithm is presented so that users' opinions can be obtained in less time and with higher accuracy. Also, in order to eliminate one of the main challenges in sentiment analysis, in the feature extraction phase, all ironic sentences are collected and entered into the collection as sentences with a specific class, in order to eliminate this big challenge. This method can be applied to different languages and tries to increase the accuracy and speed of previous algorithms. The evaluation results of the data set show that the proposed method has an accuracy of 0.967.
    Keywords: Text Mining, Sentiment Analysis, Archimedes optimization algorithm