فهرست مطالب
نشریه فناوری اطلاعات و ارتباطات ایران
سال شانزدهم شماره 61 (پاییز و زمستان 1403)
- تاریخ انتشار: 1403/10/12
- تعداد عناوین: 18
-
-
صفحات 1-19
سیستم های توزیع شده مانند گرید و ابر به منظور مواجهه با مشکلات کارایی، تضمین کیفیت سرویس و افزایش دسترسی پذیری به داده ها از تکثیر داده استفاده می کنند. تکثیر با وجود مزایای بسیار هزینه های مدیریتی نیز به همراه دارد. سازگار نگه داشتن تکثیرها از جمله مهم ترین هزینه های ناشی از تکثیر است. تعادل بین هزینه سازگاری تکثیر و مزایای تکثیر یک موضوع مورد بحث و داغ در بین محققان این حیطه است. لذا توجه به سازگاری تکثیر نقش موثری در کارایی این سیستم ها بازی می کند. استراتژی های بسیاری توسط محققان در حیطه سازگاری تکثیر داده ارائه شده است. هر کدام از این استراتژی ها با در نظر گرفتن پارامترهای مختلفی مانند نرخ خواندن، نرخ نوشتن، نرخ تحمل داده های قدیمی، تعداد تکثیرها و پهنای باند ارتباطی در تعیین سطوح سازگاری تکثیرها سعی در کاهش هزینه های سازگاری و ارائه راهکارهای موثر در این حوزه دارند. در این مقاله به مفاهیم تکثیر و سازگاری تکثیر پرداخته می-شود. دسته بندی ها و روش های سازگاری موجود در این حوزه بررسی می شود. کارهای انجام شده در حیطه سازگاری تکثیر داده از دیدگاه های مختلفی مانند نوع سیستم، پارامترهای تصمیم گیری، ابزار شبیه سازی، مدل سازگاری و پارامترهای بهبود داده شده مقایسه می شوند. همچنین در پایان، موضوعات باز در این حوزه مطرح می شود.
کلیدواژگان: تکثیر داده، سازگاری، مدل های سازگاری، سیستم توزیعی، ابر، گرید داده -
صفحات 20-36
اعتقادکاوی یا طبقه بندی متون بر اساس احساس و عقیده کاربران در وبسایت ها و رسانه های اجتماعی به مردم، شرکت ها و سازمان ها کمک می کند تا بتوانند تصمیم گیری های مهم را انجام دهند. اعتقادکاوی شامل یک سیستم برای تحلیل عقاید و احساسات مردم درباره یک موجودیت مانند محصولات، افراد، سازمان ها با توجه به نظرات، پیام ها و توییت های کاربران در رسانه های اجتماعی می باشد. در این مقاله اعتقادکاوی متون فارسی بر اساس پیام ها، نظرات و توییت های کابران در رسانه اجتماعی و وبسایت های 4 مجموعه داده با استفاده از دو روش یادگیری عمیق CNN , LSTM با در نظر گرفتن احساس کلمه، در دو قطب مثبت و منفی با بازه 2- و 2+ طبقه بندی شده اند. در روش پیشنهادی ابتدا فرآیند پیش پردازش داده ها بر اساس تبدیل کاراکتر به عدد، حذف لیست واژه های اضافی و تحلیل چند واژه ای انجام می شود، سپس جهت اعتقاد کاوی و طبقه بندی متون فارسی با الگوریتم یادگیری ماشین CNN , LSTM با تفکیک احساس کلمه (WSD) استفاده می شود تا شدت احساسات را با توجه به کلمات تشخیص دهد . مدل پیشنهادی را CNN_WSD و LSTM_WSD می نامیم. در روش پیشنهادی مجموعه داده های فارسی توییتر برای ارزیابی استفاده شده و سپس با سایر روش های یادگیری ماشین و یادگیری عمیق DNN, CNN, LSTM مقایسه می شود، در پیاده سازی این روش از نرم افزار متلب python استفاده شده است. میزان دقت روش پیشنهادی برای LSTM-WSD و CNN-WSD به ترتیب 95.8 و 94.3 درصد است.
کلیدواژگان: اعتقادکاوی، پردازش زبان طبیعی(NLP)، یادگیری عمیق، متن کاوی -
صفحات 37-54
یکی از کارآمدترین راه کارهای فشرده سازی و کاهش انرژی مصرفی شبکه های عصبی عمیق در دستگاه های نهفته، کوانتیزاسیون با استفاده از نمایش اعداد ممیز ثابت است. در سال های اخیر، روش های متنوعی برای بهبود صحت شبکه های کوانتیزه شده مطرح شده است که اغلب سربارهای محاسباتی زیادی به شبکه تحمیل می کنند، اگرچه این موضوع تاکنون از دید طراحان شبکه های عصبی عمیق پنهان مانده است. در این پژوهش، روش های مختلف کوانتیزاسیون ممیزثابت، بر اساس مولفه های تاثیرگذار در سربارهای سخت افزاری، طبقه بندی و مدل شده است. پس از آن، معماری های سخت افزاری ارائه شده برای هریک از مدل ها به صورت عادلانه، با در نظرگرفتن هزینه فایده ی بین صحت شبکه و بهره وری انرژی سخت افزار، بررسی و مقایسه می شوند. نتایج نشان می دهد تکنیک هایی که برای کاهش خطای روش های کوانتیزاسیون به کار گرفته می شود، اگرچه به افزایش صحت شبکه های عصبی منجر می شود اما از طرف دیگر بهره وری انرژی سخت افزار را کاهش می دهد. براساس نتایج شبیه سازی، افزودن ضریب مقیاس و آفست به کوانتیزاسیون ممیزثابت LSQ، صحت شبکه را حدود 1/0 افزایش می دهد اما بهره وری انرژی سخت افزار حدود 3 برابر کمتر شده است. این موضوع لزوم توجه به سربارهای سخت افزاری را به خصوص در سیستم های نهفته، بیش از پیش نشان می دهد.
کلیدواژگان: شبکه های عصبی عمیق، سیستم های نهفته، بهره وری انرژی، کوانتیزاسیون ممیزثابت -
صفحات 55-71
شبکه های نرم افزارمحور به عنوان یک رویکرد کارآمد در حوزه فناوری ارتباطات شناخته شده اند که هدف آن ها بهبود عملکرد و بهره وری شبکه های کامپیوتری است و در نتیجه کاهش هزینه ها را به همراه دارند. یکی از چالش های اساسی در شبکه های نرم افزارمحور، توازن بار بین گره ها است. حل این چالش باعث بهبود زمان پاسخ و عملکرد شبکه می شود. امروزه روش های متعددی برای توازن بار در شبکه های نرم افزارمحور ارائه شده است، اما هنوز به وضعیت ایده آل نرسیده اند. در این مقاله، یک روش جدید برای بهبود توازن بار و کاهش زمان پاسخ ارائه می شود. این روش از الگوریتم های برنامه ریزی آرمانی چند منظوره و وزن دهی فازی بهره می برد. در روش پیشنهادی، فاکتورهایی مانند پهنای باند، وضعیت ترافیک، لینک بافر و مسیریاب مد نظر قرار می گیرند و بهترین مسیر و مسیریاب با توازن بار مطلوب برای جریان های اطلاعات با کمترین زمان انتخاب می شوند. یکی از مزایای بارز این روش، امکان انجام توازن بار به صورت خودکار و بدون نیاز به مداخله انسان است. نتایج تجربی نشان می دهد که روش پیشنهادی نسبت به روش های دیگر، بهبود قابل توجهی در زمان پاسخ حدود 14.8 درصد را نشان می دهد و همچنین توازن بار شبکه های نرم افزارمحور را حفظ می کند. با استفاده از روش پیشنهادی، علاوه بر بهبود کیفیت سرویس و رضایت کاربران، زمان پاسخ نیز بهبود خواهد یافت. به طور خلاصه، روش پیشنهادی به عنوان یک رویکرد قابل استفاده در شبکه های نرم افزارمحور مطرح است و نسبت به روش های موجود برتری دارد.
کلیدواژگان: شبکه نرم افزار محور، توازن بار پویا، بهینه سازی چند منظوره، الگوریتم رای گیری فازی -
صفحات 72-84
فازینگ نرم افزار، روشی برای یافتن آسیب پذیری های امنیتی در برنامه های کاربردی است. در این روش با ارسال داده های تصادفی به برنامه، سعی می شود مواردی پیدا شود که منجر به رفتارهای نامطلوب و خطاهایی همچون خرابی حافظه یا دسترسی های غیرمجاز شود. یکی از روش های پیشنهادی برای بهبود و اثربخشی فازینگ، استفاده از تحلیل نمادین و اجرای پویا-نمادین است. در این روش علاوه بر تولید داده های تصادفی، از تحلیل منطقی برنامه و اجرای نمادین آن برای تولید داده هایی استفاده می شود که بتوانند مسیرهای جدیدی از اجرای برنامه را پوشش دهند. در این پژوهش نشان داده ایم که می توان از روش اجرای پویا-نمادین برای فازینگ پروتکل های شبکه استفاده نمود و همچنین این فرایند را بهبود بخشید. بدین منظور اولین چارچوب برای فازینگ ترکیبی پروتکل های شبکه طراحی و پیاده سازی شده است. نتایج بر روی دو سرویس dcmtk و dnsmasq نشان می دهند که فازینگ ترکیبی در معیار پوشش کد نسبت به فازینگ سنتی عملکرد بهتری دارد. پوشش شاخه در سرویس dcmtk مقدار 2.71 درصد نسبت به AFLNet بهبود داشته است که توانسته عملکرد منفی NyxNet نسبت به AFLNet را مثبت نماید. همچنین پوشش شاخه در سرویس dnsmasq نسبت به AFLNet مقدار 37.72 درصد و نسبت به NyxNet مقدار 11.82 درصد بهبود داشته است.
کلیدواژگان: آزمون نرم افزار، آزمون فازینگ، آزمون پروتکل های شبکه، آسیب پذیری، اجرای نمادین، اجرای پویا-نمادین -
صفحات 85-108
یکی از مسائل و دغدغه های مهم در معماری سازمانی چابک، مستند سازی و مدل سازی نیازمندی ها و فرآورده ها است. مدل ها و مستندات معماری باید به اندازه و در حد ضرورت تولید و بروز رسانی شوند و ضمن رفع نیازمندی ها و دغدغه های ذینفعان، در کمترین زمان و با کمترین هزینه ارائه گردند. از طرف دیگر باید از روش ها و ابزارهایی استفاده نمود که کاربردپذیر و ساده بوده و ضمن بکارگیری روش های عملی چابک و استانداردهای مدل سازی جامعیت لازم را داشته باشند. تحقیقاتی در خصوص مدل سازی و مستندسازی معماری سازمانی چابک انجام شده است. از آنجاییکه در تحقیقات مرتبط روشی جامع، استاندارد و کمینه برای مدل سازی و مستند معماری سازمانی چابک ارائه نشده، لذا در این مقاله روشی برای مدل سازی معماری سازمانی چابک ارائه گردیده و با روش ترکیبی(کیفی + کمی) ارزیابی می گردد. ارزیابی کیفی از طریق مطالعه موردی انجام می پذیرد. برای ارزیابی کمی از روش AHP برای وزن دهی و رتبه بندی معیارها استفاده می شود. معیارهای ارزیابی بر اساس مطالعات کتابخانه ای و نظرات خبرگان استخراج می گردند. برای ارزیابی کمی روش پیشنهادی در این مقاله شش معیار مطرح شده اند که عبارتند از: تولید فرآورده های مورد نیاز و ضروری، کاهش زمان مدل سازی، کاهش هزینه، بهبود رضایت ذینفعان، بهبود کاربردپذیری و افزایش سادگی که معیار تولید فرآورده های مورد نیاز و ضروری رتبه اول را کسب کرده است.
کلیدواژگان: مدل تصمیم گیری و علامت گذاری، استانداردهای مدل سازی، مدل سازی معماری کسب و کار، مدل سازی معماری سازمانی چابک، ارزیابی کاربردپذیری و سادگی -
صفحات 109-122
امنیت هر کشور بالاترین سرمایه و مطلوب ترین نقطه برای نظام و مردم می باشد. برای مدیریت یکپارچه و فرماندهی و اشراف بر موقعیت ها و صدور دستورهای مناسب نیاز است تا پلیس به صورت هوشمند ابعاد مختلف جرم ها را رصد و با بکارگیری تجهیزات هوشمند، فرآیندی هوشمند و کارکنانی هوشمند بهترین نتیجه در یک ماموریت حاصل گردد. یکی از مولفه های ارزشمند و پایدار جهت افزایش امنیت، همراهی مردم با پلیس در راستای کشف علمی جرایم و همچنین بهره مندی پلیس از جدیدترین فناوری ها در سطح سازمان می باشد. با وجود نقش گسترده فناوری اطلاعات در فراجا برای آنکه فراجا بتواند به نحو مطلوب ماموریت های محوله را به انجام رساند و نظم و امنیت را برقرار کند، باید سازمان پلیس از فناور محوری به پلیس هوشمند تبدیل شود، لذا هدف این تحقیق «ارائه الگوی راهبردی بومی پلیس هوشمند جمهوری اسلامی ایران» می باشد. به منظور دستیابی به الگوی تحقیق در ابتدا با انجام مطالعات کتابخانه ای و بررسی ادبیات و نظریه ها، ابعاد و مولفه های الگو به شکل اولیه احصاء شد، سپس با مراجعه به خبرگان، نظرات آنها دریافت و الگوی تحقیق طراحی گردید. این پژوهش از لحاظ نوع، کاربردی-توسعهای و از نظر نوع روش، توصیفی-تحلیلی است. جامعه آماری این تحقیق بصورت هدفمند از جمله خبرگانی هستند که ویژگی مشترکشان سابقه مدیریت در طرح های هوشمند سازی، دارای تخصص در حوزه های طراحی سیستم ها ویا فناوری اطلاعات، جایگاه شغلی با ماهیت راهبردی است که تعداد 50 نفر برآورد شده است. تجزیه و تحلیل اطلاعات و داده های حاصل از مطالعه منابع، به روش کیفی انجام شده و اطلاعات حاصل از پرسشنامه با استفاده از روش معادلات ساختاری با رویکرد حداقل مربعات جزئی و بهره گیری از نرم افزار اسمارت پی ال اس مورد تحلیل قرار گرفته است. نتایج تحقیق نشان داد الگوی راهبردی بومی پلیس هوشمند ج.ا.ایران مشتمل بر: شش بعد: «افراد»، «حاکمیت»، «داده»، «سکو و سامانه»، «فرایند» و «فناوری» و 49 مولفه می باشد.
کلیدواژگان: پلیس هوشمند، فناوری، الگوی راهبردی، داده -
صفحات 123-146
امروزه با گسترش علم در حوزه مهندسی کامپیوتر، امکان توسعه سیستم های هوشمند و سازگار با محیط نیز افزایش یافته است. سیستم های خود انطباق یکی از انواع سیستم های نرم افزاری هستند که رفتار خود را با توجه به شرایط محیطی تغییر می دهند و خود را با آن سازگار می کنند. اگرچه ارزیابی عملکرد این سیستم ها در بیشتر تحقیقات تحت پوشش قرار گرفته شده است، ولی ارزیابی کیفیت آنها مغفول مانده است. اولین چالش در این مسیر، عدم قطعیت شاخص های کیفی این سیستم ها است که پارامترهایی ثابت، مشخص و قطعی ندارند. به عنوان مثال یکی از شاخص های کیفی سیستم خودانطباق، توانایی اجرای نرمافزار در سیستم عاملهای مختلف است. این شاخص، از نظر افراد خبره مختلف، می تواند درجه اهمیت مختلفی داشته باشد. چالش دیگر، برخی شاخص های کیفی متغیر ریاضی نیستند و یک متغیر زبانی بین کاربران و کارشناسان می باشند، که این امر نشان میدهد این کمیتهای کیفی، متغیرهای فازی بوده و با منطق فازی کاملا قابل فرموله شدن می باشند. در این مقاله به منظور ارزیابی کیفیت این سیستم ها براساس شاخص های کیفی نرم افزار اقدام به ارائه یک رویکرد ژنتیک-فازی نوع دوم شده است. جهت توصیف شاخص های کیفی از منطق فازی نوع دوم و برای تعیین بهینه وزن های فازی شاخص های کیفی از الگوریتم ژنتیک استفاده شده است. در روش پیشنهادی سعی شده تا سیستم های خودانطباق از دو بعد شامل بعد نرم افزاری این سیستم ها و بعد خود انطباق آنها مورد مقایسه قرار گیرند. این در حالی است که اکثر تحقیقات موجود تنها به یک بعد می پردازند. جهت ارزیابی روش پیشنهادی از یک سیستم کنترل ترافیک با نام InSync که یک سیستم خودانطباق کنترل ترافیک (ATCS) بوده و حاوی شاخص های متعدد کیفی می باشد استفاده شده است. نتایج بدست آمده باتوجه به عدم نیاز به تولید سناریو، توانایی بسط روش به تمامی شاخص های کیفی نرم افزار و سادگی آن تایید کننده کارآمدی روش پیشنهادی می باشند. همچنین جامعیت بیشتر روش پیشنهادی را نسبت به سایر مدل های ارزیابی موجود نشان می دهد.
کلیدواژگان: سیستم خود انطباق، شاخص های کیفی نرم افزار، الگوریتم ژنتیک، فازی نوع دو، سیستم خودانطباق کنترل ترافیک. -
صفحات 147-164
مدیریت اعتماد مبتنی بر بازخورد کاربران در محیط ابری از اهمیت زیادی برخوردار است. در محیط ابری انتخاب تامین کننده برای کاربران ابر، چالش برانگیز است. این موضوع که آیا انتخاب تامین کننده بر مبنای اولویت های کاربر و پارامترهای ثبت شده تا چه میزان دقیق است به عوامل زیادی بستگی دارد. در مطالعات پیشین چارچوب های زیادی در خصوص نحوه محاسبه اعتمادهای عینی و درونی ارائه شده است. در روش های موجود با استفاده از الگوریتم های جستجوی فاخته، ژنتیک و مگس میوه بهره برده شده است. قالب تحقیقات انجام شده به رتبه بندی، محاسبه پارامترها و یا سرعت محاسبه و میزان دقت در ارزیابی پارامترها پرداخته شده است که معمولا یا در بهینه محلی گیر کرده و یا زمان پاسخ بسیار کند بوده است.در این روش کاهش زمان ارزیابی اعتماد نسبت به الگوریتم های قبلی همچون ژنتیک به دلیل این که پارامتر های کمتری برای تنظیم دارد مشهود است، با تغییر در شعاع تخمگذاری و افزایش بررسی در فضای بیشتری از مسئله، الگوریتم بهینه فاخته نسبت به الگوریتم مرجع، سرعت همگرایی بیشتر، حداقل به میزان 5.9 درصد را دارد. در خصوص میزان دقت دسترسی کاربر به قابل اعتمادترین ارائه دهنده نیز با تغییر در جمعیت و پارامترهایی همچون تعداد فراهم کنندگان، کاربران و تکرار الگوریتم همچنان نتیجه بهتری حاصل شده است. در مجموع، نتایج حاصل شده نشان می دهد،مسئله با استفاده از الگوریتم COA در زمان بسیار کمتر نسبت به سایر الگوریتم ها به نقطه بهینه همگرا می شود و نتیجه ای دقیق تر بدست می آید
کلیدواژگان: رایانش ابری، مدیریت اعتماد، بازخورد کاربران، الگوریتم بهینه فاخته، الگوریتم K-Means -
صفحات 165-179
آفت سوسک سرخرطومی حنایی عامل ورود بیماری های باکتریایی و قارچی به نخل می باشد که در صورت مشاهده در مزارع، خسارت سنگینی به نخلستان ها وارد می کند. امروزه تحول در محیط ارتباطات بی سیم امکان توسعه گره های حسگر کم هزینه، کم مصرف، چند عملکردی و کوتاه برد جهت ردیابی این آفت در نخلستان را فراهم آورده است. در الگوریتم های ردیابی هدف موجود، با افزایش سرعت هدف، احتمال از دست دادن هدف نیز افزایش می یابد. بر این اساس در مقاله حاضر روش جدیدی برای ردیابی هدف پیشنهاد می شود که از دست دادن هدف را کاهش می دهد. از طرفی با توجه به محدودیت انرژی سطح باتری در گره های حسگر، نیازمند برنامه زمانی برای دوره خواب و بیداری حسگرها در راستای افزایش طول عمر شبکه هستیم. به منظور بهبود مصرف انرژی در این مقاله از رویکرد برنامه ریزی زمانی جهت تنظیم دوره خواب و بیداری گره ها با استفاده از الگوریتم بهینه سازی ازدحام گربه و منطق فازی استفاده شده است. از شبیه سازی روش پیشنهادی و مقایسه آن با روش Tracking-45-Degree-vectors در شبیه ساز Opnet می توان دریافت که پروتکل پیشنهادی عملکرد بسیار بهتری دارد، بطوریکه نرخ تاخیر انتها به انتها به میزان 02/27 درصد، نرخ تاخیر دسترسی به رسانه به میزان 01/2 درصد، نرخ گذردهی به میزان 62/0 درصد، نسبت سیگنال به نویز به میزان 28/3 درصد و میانگین انرژی مصرفی باتری به میزان 277/8 درصد نسبت به پروتکل Tracking-45-Degree-vectors بهبود یافته است. لازم به ذکر است الگوریتم پیشنهادی برای یک هدف شبیه سازی و تست شده است.
کلیدواژگان: خوشه بندی، مصرف انرژی، شبکه های حسگر بی سیم، الگوریتم بهینه سازی ازدحام گربه ها، منطق فازی، ردیابی هدف متحرک، سوسک سرخرطومی خرما. -
صفحات 180-192
آزمون جهش نرم افزار، یکی از روش های موثر برای ارزیابی کیفیت کد و تشخیص خطاهای پنهان است. با این حال، این روش با چالش هایی مانند تولید جهش های معادل و زمان بر بودن فرایند مواجه است. موردآزمونهای طراحی شده برای آزمون نرم افزار باید از کفایت لازم برخوردار باشند. برای این کار از معیار امتیاز آزمون جهش استفاده می شود. یکی از مسائل اصلی مرتبط با آزمون جهش نرم افزار، تولید جهش های معادل است. جهش های معادل، جهش هایی هستند که باعث تغییر در رفتار برنامه نمی شوند و خروجی یکسانی با برنامه اصلی دارند. شناسایی این جهش ها می تواند فرایند آزمون جهش را زمان بر و هزینه بر کند. همچنین امکان دارد این جهش ها به اشتباه در دسته جهش های سرسخت قرار بگیرند. درحالی که جهش های سرسخت را میت وان با تغییر موردآزمونها و تقویت آنها پیدا کرد. در این مقاله، ما به بررسی روشی برای طبقه بندی جهش های برنامه برای شناسایی و جداسازی جهش های معادل از جهش های سرسخت می پردازیم. با استفاده از الگوریتم های یادگیری ماشین، ما قصد داریم که این فرایند را بهینه سازی کنیم و کارآمدی و کارایی روش را بهبود دهیم. این کار با استخراج ویژگی های مختلف از جهش ها و استفاده از آنها برای آموزش مدل های یادگیری ماشین انجام می شود.
کلیدواژگان: آزمون نرم افزار، آزمون جهش، جهش های معادل، کفایت آزمون، امتیاز جهش -
صفحات 195-204
امروزه سیستم های پشنهاددهنده ی لیست های توئیتر با بکارگیری اطلاعات مختلف کاربران و لیستها و همچنین اعمال الگوریتمهای پیچیده، توانسته اند به دقت بالایی در پیش بینی برسند و پیشنهادهای مرتبط با هر کاربر را تولید کنند، اما قابلیت توضیح پذیری در این سیستم ها به عنوان یک چالش مطرح می باشد. توضیح مناسب به همراه یک لیست پیشنهادشده علاوه بر افزایش اعتماد و رضایت کاربران، می تواند به آنها در تصمیم گیری آگاهانه کمک نماید. از این رو در این مقاله، یک مدل تولید توضیح ارائه میشود که به ایجاد خودکار یک توصیف برای لیست پیشنهادشده بصورت شخصی سازی شده برای کاربر مدنظر می پردازد. بطور دقیقتر، این مدل با انتخاب هشتگهای پرتکرار از محتوای لیست که ارتباط معنایی با تاریخچه فعالیت های قبلی کاربر دارد، سعی میکند موضوع لیست را به گونهای قابل درک و شخصی سازی شده در قالب یک توضیح همراه با لیست پیشنهادشده نمایش دهد. پس از جمع آوری یک مجموعه داده واقعی از شبکه توئیتر، با انجام آزمایش ها نشان داده شد که مدل پیشنهادی قادر به تولید توضیح برای درصد بالایی از پیشنهادهای ایجادشده براساس یک مدل پیشنهاددهنده پایه میب اشد.
کلیدواژگان: سیستم های پیشنهاددهنده توضیح پذیر، توضیح شخصی سازی شده، لیست توئیتر، شباهت معنایی هشتگ ها -
صفحات 205-217
امروزه شبکه های اجتماعی راحتی زیادی را برای کاربران خود به ارمغان آورده اند، اما هنوز مشکلات عدم رعایت حریم خصوصی وجود دارد. همین امر باعث شده امنیت و حفاظت از حریم خصوصی کاربران شبکه های اجتماعی مورد اهمیت قرار بگیرد. کاربران مقدار زیادی از داده های شخصی در شبکه های اجتماعی به اشتراک می گذارند، مهاجمان می توانند اطلاعات شخصی حساس را به سادگی با استفاده از شبکه های اجتماعی به دست آورند و انواع مختلفی از حملات و سرقت هویت را انجام دهند. بسیاری از شبکه های اجتماعی مراکز داده خود را ندارند و معمولا داده های کاربر را در مراکز داده شخص ثالث ذخیره می کنند. این مراکز می توانند این داده ها را با سایرین اشتراک بگذارند و داده های کاربر را بدون اطلاع آن ها در اختیار سازمان های دیگر قرار دهند. مالکان شبکه های اجتماعی می توانند داده های کاربران را در اختیار آژانس های اطلاعاتی قرار دهند و یا از آنها در زمینه های تبلیغاتی استفاده کنند. در این تحقیق در بخش اول مقدمه موضوع را شرح داده ایم و پس از آن در بخش دوم به ادبیات موضوع پرداخته ایم که بیشتر تمرکز کارهای قبلی بروی روش های متمرکز حفظ حریم خصوصی می باشد و سپس در بخش سوم روش تحقیق را شرح داده ایم و روشی را ارائه داده ایم که با استفاده از بلاکچین حریم خصوصی کاربران در شبکه های اجتماعی تا حد زیادی افزایش پیدا می کند. در بخش چهارم اجرای تحقیق را شرح داده ایم و در نهایت به نتیجه گیری و جمع بندی از این تحقیق پرداخته ایم.
کلیدواژگان: حریم خصوصی، امنیت اطلاعات، بلاکچین -
صفحات 218-228
امنیت یک هدف اصلی در طراحی شبکه اینترنت اشیاء صنعتی است. با توجه به پیشرفت های روز افزون در اینترنت اشیاء لازم است از روش های جدید در تشخیص حملات فعال شبکه استفاده شود. در این مقاله یک سیستم تشخیص نفوذ برای اینترنت اشیاء صنعتی پیشنهادشده است. این سیستم از ترکیب الگوریتم های فرا ابتکاری گرگ خاکستری(GWO) و الگوریتم های طبقه بندی درخت تصمیم(DT)، نزدیک ترین همسایه (KNN) و شبکه عصبی مصنوعی(ANN) استفاده می کند. ابتدا داده ها پیش پردازش و سپس نرمال سازی شده، در مرحله بعد استخراج ویژگی داده ها با استفاده از الگوریتم گرگ خاکستری برای استخراج ویژگی های مستقل و موثر آن انجام می شود. سپس با استفاده از الگوریتم های طبقه بندی آموزش و درنهایت ارزیابی می شود. نتایج به دست آمده نشان می دهد که استفاده از الگوریتم ترکیبی GWO-ANN با دقت 22/93 درصد در میزان تشخیص حملات عملکرد بهتری دارد. همچنین الگوریتم ANN نسبت به الگوریتم های DT و KNN در تلفیق با الگوریتم GWO دارای دقت بالاتری است.
کلیدواژگان: سیستم تشخیص نفوذ، الگوریتم گرگ خاکستری، اینترنت اشیاء صنعتی -
صفحات 229-246
پیش بینی پیوند امری ضروری برای بررسی پیوند بین گره ها در شبکه های اجتماعی است. گسترش و مدل سازی شبکه های اجتماعی منجر به پیدایش شبکه های اجتماعی به صورت علامت دار، جهت دار و وزنی می شود. روابط کاربران در شبکه های اجتماعی علامت دار جنبه های ذهنی و نامتقارن وابسته به این حوزه را تعریف می کنند، لذا هر دو اصطلاح اعتماد و عدم اعتماد چالش برانگیز هستند. برای حل مسئله پراکندگی در شبکه ها و غلبه بر ابهام در روابط، یک روش اعتماد-عدم اعتماد مبتنی بر محاسبات فازی برای محاسبه قدرت پیوندها پیشنهاد می شود. هدف روش پیشنهادی پیش بینی پیوند برای حل مسئله پراکندگی در شبکه های اجتماعی علامت دار با ترکیب ویژگی های توصیف کاربران در شبکه های اجتماعی است که با تاثیر مستقیم گره های برتر و تاثیر غیرمستقیم گره های معمولی بر پیش بینی رتبه بندی ها ارزیابی می شود. اعتماد با یک سیستم فازی ممدانی مبتنی بر ویژگی های انعکاس شباهت فازی، اعتماد کلی و عدم اعتماد کلی تعیین می شود. ارزیابی روش پیشنهادی با معیار دقت بر روی مجموعه داده های شبکه های اجتماعی Epinions وSlashdot انجام شد. دقت روش پیشنهادی در مجموعه داده هایEpinions و Slashdotبه ترتیب برابر 0.991 و 0.998 می باشد. نتایج به دست آمده نشان می دهد روش پیشنهادی نسبت به مشکل پراکندگی داده ها در شبکه های اجتماعی علامت دار قوی عمل می-کند و این اثربخشی مدل پیشنهادی را بیان می نماید.
کلیدواژگان: پیش بینی پیوند، شبکه های اجتماعی علامت دار، اعتماد، عدم اعتماد، محاسبات فازی -
صفحات 247-260
تشخیص خطا در آرایه های فتوولتائیک (PV) جهت افزایش توان خروجی و همچنین طول عمر مفید یک سیستم PV ضروری است. وجود شرایطی مانند سایه جزئی، خطاهای امپدانس بالا و وجود سامانه ردیاب نقطه حداکثر توان (MPPT)، تشخیص خطا را در شرایط محیطی به چالش می کشد. بیشتر تحقیقات انجام شده در این زمینه فقط در چند سناریو از عیوب به شناسایی و طبقه بندی پرداخته اند. این پژوهش با استفاده از شبکه ی عصبی کانولوشنی عمیق از پیش آموزش داده شده VGG16)) و با بهره گیری از ویژگی ها استخراج شده بوسیله اسکالوگرام های دوبعدی تولیدشده از داده های سیستم PV، به شناسایی و طبقه بندی خطا در سیستم PV با استفاده از یک شبکه عصبی کاملا متصل می پردازد. برخلاف روش های قبلی پیشنهادشده در ادبیات موضوع تشخیص و طبقه بندی عیوب، موارد مختلف معیوب همراه با ترکیب MPPT در مطالعه ما در نظر گرفته شده است. در این تحقیق نشان داده شده است که روش پیشنهادی شاملCNN از پیش آموزش دیده تنظیم شده، از روش های موجود بهتر عمل می کند و به دقت تشخیص خطای 375/83 درصد دست پیدا می کند.
کلیدواژگان: آرایه فتوولتائیک، ردیاب نقطه حداکثر توان، طبقه بندی خطا، شبکه عصبی کانولوشنی VGG16، اسکالوگرام -
صفحات 261-281
سال های اخیر حملات سایبری به زیرساخت های حیاتی کشورها به طور چشمگیری افزایش یافته است. انواع زیرساخت حیاتی و وابستگی های آن ها مبتنی بر مقتضیات ملی، از کشوری به کشور دیگر متفاوت است، اختلال در ماموریت یا خدمات یک زیرساخت حیاتی بصورت آبشاری در دیگر زیرساخت ها اثر گذاشته و آن ها را با مشکلات جدی در امر خدمات رسانی روبرو می نماید، در مطالعات مختلف رویکردهای متفاوتی جهت مدلسازی این وابستگی ها اتخاذ شده است نکته مهم عدم تعمیم آن مدل ها برای دیگر کشورها به واسطه مقتضات ملی هر کشور است. در این پژوهش با تشکیل 11 گروه کانونی متشکل از مدیران عالی و میانی هر حوزه زیرساختی از روش تحلیل شبکه مبتنی بر تکنیک DEMATEL استفاده شد و تاثیر گزارترین و تاثیر پذیرترین زیرساخت حیاتی از منظر سایبری بر دیگر زیرساخت های حیاتی شناسائی شد و ارتباط بین زیرساخت های حیاتی و اولویت بندی آن ها از منظر سایبری مشخص شد. نتایج این پژوهش می تواند در طراحی سامانه ملی اشتراک گذاری هشدار به منظور احصاء آگاهی وضعیتی ملی در حوزه سایبری و دیگر پژوهش های متکی بر وابستگی زیرساخت های حیاتی مفید واقع شود.
کلیدواژگان: زیرساخت های حیاتی، وابستگی زیرساخت های حیاتی، DANP -
صفحات 282-294
جهت بکارگیری اینترنت اشیا به عنوان یک زیرساخت مطمئن، چالش های و مشکلات مختلفی وجود دارد که امنیت یکی از مهم ترین آن ها می باشد. برقراری امنیت در چنین شبکه هایی با توجه به محدودیت منابع مختلف از جمله منابع پردازشی و انرژی پایین، دارای پیچیدگی های زیادی است و نیاز به برقراری یک نوع مصالحه بین امنیت و منابع در دسترس است. این شرایط موجب شده است تا امنیت به یک چالش مهم در این شبکه ها تبدیل شود و روش های مختلفی نیز برای بهبود و بهینگی این چالش ارائه شده است. بر همین اساس در این مقاله یک راهکار رمزنگاری سبک وزن مبتنی بر رمزنگاری متقارن و نامتقارن جهت تامین امنیت داده در اینترنت اشیا ارائه شده است. در روش پیشنهادی در ابتدا داده اصلی توسط الگوریتم متقارن بلوفیش رمزنگاری می شود و سپس کلید آن به کمک الگوریتم رمزنگاری خم های بیضوی ایمن سازی می شود تا در نتیجه بتوان در زمان کم و با امنیت بالا امنیت داده را در زیرساخت های مبتنی بر اینترنت اشیا تامین کرد. در انتها راهکار پیشنهادی، از طریق شبیه ساز Eclipse و با آزمایش بر روی حجم داده 20 تا 1000 کلیوبایت مورد ارزیابی قرار داده شده است. نتایج حاصل از شبیه سازی نشان می د هد که روش پیشنهادی در مقایسه با سایر الگوریتم های رمزنگاری از نظر معیارهای ارزیابی هم چون زمان اجرا و توان عملیانی رمزنگاری و رمزگشایی بهینه تر عمل می نماید. این نتایج؛ بیانگر آن است که راهکار پیشنهادی ضمن برقراری امنیت، کمترین تاثیر منفی را بر روی منابع پردازشی گره های IoT داشته است.
کلیدواژگان: اینترنت اشیا، امنیت، الگوریتم های رمزنگاری سبک وزن، الگوریتم های رمزنگاری خم بیضوی.
-
Pages 1-19
Nowadays, applications generate huge amounts of data, in the range of several terabytes or petabytes. This data is shared among many users around the world. Distributed systems such as grid and cloud provide a suitable platform for these applications, enabling the use of these diverse mass data applications in a distributed manner. In these systems, they use data replication to face performance problems, guarantee service quality, and increase data accessibility. Replication, despite its many advantages, also brings administrative costs. The balance between the consistency cost of replication and the benefits of replication is a hotly debated topic among researchers in this field. Therefore, paying attention to the consistency of replication plays an effective role in the efficiency of these systems. Many strategies have been proposed by researchers in the field of data replication consistency. Each of these strategies try to reduce consistency costs and provide effective solutions in this field by considering various parameters such as read rate, write rate, old data tolerance rate, number of replicas and communication bandwidth in determining the consistency levels of replicas. In this article, we will examine the concepts related to replication and replica consistency and categorize its types and review previous works in this field. The done works have been compared from the perspective of system type, decision parameters, compatibility model and improved parameters. At the end, the open issues in this field are raised.
Keywords: Data Replication, Consistency, Models, Cloud, IOT, Distributed System -
Pages 20-36
Belief analysis or the classification of texts based on the feelings and opinions of users on websites and social media helps people, companies and organizations to make important decisions. Belief mining includes a system for analyzing people's opinions and feelings about an entity such as products, people, organizations, according to the opinions, messages and tweets of users in social media. In this article, the belief analysis of Persian texts based on the messages, comments and tweets of users in social media and websites of 4 datasets using two deep learning methods, CNN, LSTM, taking into account the sense of the word, in two poles, positive and negative with intervals. 2- and 2+ are classified. In the proposed method, first the process of data pre-processing based on character to number conversion, removing the list of extra words and multi-word analysis is done, then for belief analysis and classification of Persian texts CNN, LSTM machine learning algorithm with word sense separation (WSD) is used to Recognize the intensity of emotions according to the words. We call the proposed model CNN_WSD and LSTM_WSD. In the proposed method, the Persian Twitter dataset is used for evaluation and then it is compared with other machine learning and deep learning methods, DNN, CNN, LSTM, in the implementation of this method, python software is used. The accuracy rate of the proposed method for LSTM-WSD and CNN-WSD is 95.8 and 94.3%, respectively.
Keywords: Belief Mining, Natural Language Processing (NLP), Deep Learning, Text Mining -
Pages 37-54
Deep Neural Networks (DNNs) have demonstrated remarkable performance in various application domains, such as computer vision, pattern recognition, and natural language processing. However, deploying these models on edge-computing devices poses a challenge due to their extensive memory requirements and computational complexity. These factors make it difficult to deploy DNNs on low-power and limited-resource devices. One promising technique to address this challenge is quantization, particularly fixed-point quantization. Previous studies have shown that reducing the bit-width of weights and activations, such as to 3 or 4 bits, through fixed-point quantization can preserve the classification accuracy of full-precision neural networks. Despite extensive research on the compression efficiency of fixed-point quantization techniques, their energy efficiency, a critical metric in evaluating embedded systems, has not been thoroughly explored. Therefore, this research aims to assess the energy efficiency of fixed-point quantization techniques while maintaining accuracy. To accomplish this, we present a model and design an architecture for each quantization method. Subsequently, we compare their area and energy efficiency at the same accuracy level. Our experimental results indicate that incorporating scaling factors and offsets into LSQ, a well-known quantization method, improves DNN accuracy by 0.1%. However, this improvement comes at the cost of a 3× decrease in hardware energy efficiency. This research highlights the significance of evaluating fixed-point quantization techniques not only in terms of compression efficiency but also in terms of energy efficiency when applied to edge-computing device.
Keywords: Deep Neural Network, Embedded Systems, Energy-Efficiency, Fixed-Point Quantization -
Pages 55-71
Software-Defined Networking (SDN) has been recognized as an efficient approach in the field of communication technology, aiming to improve the performance and efficiency of computer networks, thus reducing costs. One of the key challenges in SDN is load balancing among nodes. Solving this challenge leads to improved response time and network performance. Nowadays, various methods have been proposed for load balancing in SDN, but they have not yet reached the ideal state. In this article, a new method is presented to enhance load balancing and reduce response time. This method utilizes multi-objective evolutionary algorithms and fuzzy weighting. In the proposed method, factors such as bandwidth, traffic status, link buffer, and desired router are taken into account, and the best path and router with desired load balancing for information flows are selected with the minimum time. One prominent advantage of this method is the possibility of performing load balancing automatically without the need for human intervention. Experimental results demonstrate that the proposed method shows a significant improvement of approximately 14.8% in response time compared to other methods, while maintaining load balancing in SDNs. By using the proposed method, in addition to improving service quality and user satisfaction, response time will also be enhanced. In summary, the proposed method is introduced as a viable approach in SDNs and exhibits superiority over existing methods.
Keywords: Software-Defined Networks (SDN), Load Balancing, Multi-Objective Optimization, Fuzzy Voting Algorithm, Response Time -
Pages 72-84
Fuzzing software is a method for finding security vulnerabilities in applications. In this method, by sending random data to the program, attempts are made to find cases that lead to undesirable behaviors and errors such as memory corruption or unauthorized access. One of the proposed methods for improving and enhancing fuzzing is the use of symbolic analysis and dynamic-symbolic execution. In this method, in addition to generating random data, logical analysis of the program and its symbolic execution are used to generate data that can cover new paths in program execution. In this research, we have shown that the dynamic-symbolic execution method can be used for fuzzing network protocols and also improve this process. For this purpose, the first framework for hybrid fuzzing of network protocols has been designed and implemented. The results on two services dcmtk and dnsmasq show that hybrid fuzzing performs better in terms of code coverage compared to traditional fuzzing. Branch coverage in the dcmtk service improved by 2.71 percent compared to AFLNet, which was able to make the negative performance of NyxNet compared to AFLNet positive. Also, branch coverage in the dnsmasq service improved by 37.72 percent compared to AFLNet and by 11.82 percent compared to NyxNet.
Keywords: Fuzz Testing, Network Protocol Testing, Vulnerabilities, Symbolic Execution, Concolic Execution -
Pages 85-108
One of the important issues and concerns in agile enterprise architecture is the documenting and modeling of requirements and artifacts. Architectural models and documents should be produced and updated as necessary and while meeting the requirements and concerns of the stakeholders, they should be presented in the shortest time and at the lowest cost. On the other hand, methods and tools should be used that are applicable and simple, and while using agile practices and modeling standards, have the necessary comprehensiveness. Researches has been done regarding the modeling and documenting of agile enterprise architecture. Since there is no comprehensive, standard and minimal method for modeling and documenting agile enterprise architecture in related researches, therefore, in this paper, a method for modeling agile enterprise architecture is presented and evaluated by the combined (qualitative + quantitative) method. Qualitative evaluation is performed through a case study. For quantitative evaluation, the AHP method is used to weighting and ranking the criteria. Evaluation criteria are extracted based on library studies and experts' opinions. In order to quantitatively evaluate the proposed method, six criteria have been proposed in this paper, which are: production of required and necessary artifacts, reduction of modeling time, reduction of cost, improvement of stakeholders satisfaction, improvement of applicability and increase of simplicity, and criteria of production of required and necessary artifacts, has won the highest rank.
Keywords: Agile Enterprise Architecture Modeling, Agile Enterprise Architecture Documenting, Agile Enterprise Architecture Method, Minimum Viable Enterprise Architecture, Agile Enterprise Requirement Modeling, Evaluating Agile Modeling -
Pages 109-122
. For integrated management and command and control over situations and issuing appropriate orders, it is necessary for an organization like the police to intelligently monitor all issues and create an intelligent command and control center to complete missions efficiently. One of the components of increasing security is people's cooperation with the police in order to scientifically detect crimes, as well as benefiting from the latest technologies at the organization level. Despite the wide role of information technology in Faraja, in order for Faraja to carry out the assigned missions and establish order and security, the police organization must be transformed from a technology-oriented to a smart police, so the purpose of this research is to "provide a model It is a native strategy of the smart police of the Islamic Republic of Iran. This research is applied-developmental in terms of type and descriptive-analytical in terms of method. The statistical population of this research is targeted among the experts whose common feature is management experience in smart projects, with expertise in the fields of systems design or information technology, a strategic job position, which is estimated at 50 people. The analysis of the information and data obtained from the study of the sources has been done in a qualitative way and the information obtained from the questionnaire has been analyzed using the method of structural equations with the partial least squares approach and the use of SmartPLS software.
Keywords: Smart Police, Technology, Strategic Model, Data -
Pages 123-146
The possibility of developing intelligent systems compatible with the environment has increased by expanding computer engineering fields. Self-adaptive systems are one of the types of software systems that change their behavior according to system conditions and environmental conditions and adapt themselves to it. Although the evaluation of the performance of these systems has been covered in most researches, the evaluation of their quality has remained closed. Therefore, designing an approach is an essential issue to evaluate the quality of self-adaptive systems. The first challenge, the quality indicators of these systems are not fixed, specific, and definite parameters. For example, one of the qualitative indicators for a self-adaptive system is the ability to run software on different operating systems. This indicator may have different degrees of importance for different experienced individuals. The next challenge, some qualitative indicators are not mathematical variables, but rather a linguistic variable between users and experts, indicating that these qualitative quantities are fuzzy variables and can be completely formulated by fuzzy logic. In this article, a new genetic-fuzzy type 2 approach has been proposed to evaluate the quality of the systems based on their quality indicators. The fuzzy logic type 2 is used to describe qualitative indicators, and a genetic algorithm is utilized to determine the optimal fuzzy weights of the qualitative indicators.
In the proposed method, it has been tried to compare the self-adaptive systems from two dimensions, including the software dimension and their self-adaptive dimension. This is despite the fact that most of the existing research deals with only one dimension. In order to evaluate the proposed method, a traffic control system called InSync, which is an adaptive traffic control system (ATCS) and contains multiple qualitative factors, has been used. The obtained results confirm the effectiveness of the proposed method due to the lack of scenario generation, the ability to extend the method to all software quality parameters, and its simplicity. Also, the method is more comprehensive than other existing evaluation models. In addition, it has been tried to compare the self-adaptive systems from two dimensions, including the software dimension and their self-adaptive dimension. This is despite the fact that most of the existing research deals with only one dimension.Keywords: Self-Adaptive System, Quality Indicators Of The Software, Genetic Algorithm, Fuzzy Type 2, Adaptive Traffic Control System (ATCS) -
Pages 147-164
Cloud computing provides computational services such as servers, memory, storage space, databases, networks, software, analytics, and information as virtualized resources through the internet to offer faster innovation, flexible resources, and cost savings at scale. Although cloud computing service providers are innovatively expanding their services, trust is one of the major obstacles to the progress of this matter. Trust is the biggest issue in cloud computing since trust is an effective guarantor during interactions between the users and the providers. Trust is one of the most fundamental methods for increasing confidence in resources provided in the cloud environment and is important in cloud business environments. With the increasing number of cloud services providers in the cloud computing environment and the number of users, the selection of provider has become a major challenge. The Coa algorithm has a higher convergence speed, at least by 5.9%, compared to the studied algorithms. In this research, an optimization approach based on a metaheuristic process using the COA algorithm combined with the K-means clustering algorithm is proposed to solve the optimization problem of selecting the best provider in the trust management third-party component layer based on parameters. In this method, while reducing trust evaluation time, the accuracy of user access to the most trusted provider based on user priorities has increased compared to previous methods. This can increase user confidence and improve the quality of service providers.
Keywords: Cloud Computing, Trust Management, User Feedback, Cuckoo Optimization Algorithm, K-Means Algorithm -
Pages 165-179
The Rhynchophorus ferrugineus is a major pest that serves as a carrier for bacterial and fungal diseases, causing significant damage to palm plantations when observed on farms. Nowadays, advancements in wireless communication environments have made it possible to develop low-cost, energy-efficient, multi-functional, and short-range sensor nodes for tracking this pest in palm plantations. In existing target tracking algorithms, the probability of losing the target increases with its speed. Therefore, this paper proposes a new method for target tracking that reduces the likelihood of losing the target. Additionally, considering the energy constraints of battery-powered sensor nodes, we need a scheduling mechanism for their sleep and wake-up cycles to enhance the network's lifespan. To improve energy consumption, this paper utilizes a time scheduling approach to adjust the sleep and wakeup periods of nodes using the Cat Swarm Optimization algorithm and Fuzzy Logic optimization. By simulating the proposed method and comparing it with the Tracking-45-Degree-vectors method in the Opnet simulator, it can be observed that the proposed protocol performs significantly better. Specifically, the end-to-end delay rate improves by 27.02%, the media access delay rate improves by 2.01%, the throughput rate improves by 0.62%, the signal-to-noise ratio improves by 3.28%, and the average battery energy consumption improves by 8.77% compared to the Tracking-45-Degree-vectors protocol. It is worth mentioning that the proposed algorithm has been simulated and tested for a single target scenario.
Keywords: Clustering, Energy Consumption, WSN, Cat Swarm Optimization Algorithm, Fuzzy Logic, Target Tracking, Rhynchophorus Ferrugineus -
Pages 180-192
Software mutation testing is one of the effective methods to evaluate code quality and detect hidden errors. However, this method faces challenges such as producing equivalent mutants and the process being time-consuming. The test cases designed for software testing must have the necessary sufficiency. For this purpose, the criterion of mutation test score is used. One of the main issues related to software mutation testing is the generation of equivalent mutants. Equivalent mutants are mutants that do not change the behavior of the program and have the same output as the original program. Identifying these mutants can make the mutation testing process time-consuming and costly. It is also possible that these mutants are mistakenly classified as hard to kill mutants. While hard to kill mutants can be rejected by changing the test items and strengthening them. In this paper, we present an efficient method for classifying program mutants to identify and separate equivalent mutations from hard to kill mutants. Using machine learning algorithms, we intend to optimize this process and improve the efficiency and effectiveness of the method. This is done by extracting different features from the mutants and using them to train machine learning models.
Keywords: Software Testing, Mutation Testing, Equivalent Mutants, Test Adequacy, Mutation Score -
Pages 195-204
Twitter List recommender systems have achieved high prediction accuracy by leveraging diverse user and List information alongside complex algorithms. However, explainability remains a significant challenge in these systems. Providing meaningful explanations along with a set of recommendations can enhance user trust and satisfaction, assisting them in informed decision-making. In this paper, we present a model for the automated generation of personalized descriptions as explanations for recommended Twitter Lists. Specifically, our model selects frequently used hashtags from the content of the recommended List, establishing semantic relationships with the user's activity history. The aim is to present the List's subject in an understandable and personalized manner through a generated description. Through experiments conducted on a real Twitter dataset, our proposed model demonstrates its capability to generate explanations for a high percentage of the recommendations provided by a recommendation model.
Keywords: Explainable Recommender System, Personalized Explanation, Twitter List, Semantic Similarity Of Hashtags -
Pages 205-217
Today, social networks have brought a lot of convenience to their users, but there are still problems of not respecting privacy. This has caused the security and privacy protection of social network users to be important. Users share a large amount of personal data on social networks, attackers can obtain sensitive personal information simply by using social networks. and carry out various types of attacks and identity theft. Many social networks do not have their own data centers and usually store user data in third-party data centers. These centers can share this data with others and provide user data to other organizations without their knowledge. Owners of social networks can provide users' data to information agencies or use them for advertising purposes. In this research, in the first part, we have described the introduction of the subject, and then in the second part, we have discussed the literature on the subject, which is mostly focused on the centralized methods of privacy protection, and then in the third part, we have described the research method. And we have presented a method that increases the privacy of users in social networks to a great extent by using blockchain. In the fourth part, we have described the implementation of the research and finally we have concluded and summarized this research.
Keywords: Privacy, Information Security, Blockchain -
Pages 218-228
Security is a main goal in the design of industrial Internet of Things network. Due to the ever-increasing developments in the Internet of Things, it is necessary to use new methods to detect active network attacks. In this article, an intrusion detection system for industrial Internet of Things is proposed. This system uses the combination of gray wolf meta-heuristic algorithms (GWO) and decision tree (DT), nearest neighbor (KNN) and artificial neural network (ANN) classification algorithms. First, the data is pre-processed and then normalized, in the next step, data feature extraction is performed using the gray wolf algorithm to extract its independent and effective features. Then it is trained using classification algorithms and finally evaluated. The obtained results show that the use of the combined GWO-ANN algorithm with 93.22% accuracy has a better performance in detecting attacks. Also, the ANN algorithm is more accurate than the DT and KNN algorithms when combined with the GWO algorithm. ,
Keywords: Intrusion Detection System, Gray Wolf Algorithm, Industrial Internet Of Things -
Pages 229-246
Link prediction is an important to check link between nodes in social networks. The modeling of social networks leads to emergence of signed, directed and weighted social networks. The relationships of users in social networks are characterized by subjective, asymmetric and ambiguous aspects related to this domain, then both terms of trust and distrust are challenging. To solve the problem of sparsity in networks and overcome ambiguity in relationships, a trust-distrust method based on fuzzy computational is proposed to calculate strength of links. The purpose of proposed link prediction is to solve problem of sparsity in signed social networks by combining descriptive features of users with the direct influence of top nodes and the indirect influence of common nodes on rating prediction. Trust is determined by a Mamdani fuzzy system based on mirroring of similarity fuzzy features, overall trust and overall distrust. The evaluation of the proposed method was done with the accuracy measure on datasets of Epinions and Slashdot. The accuracy of proposed method in Epinions and Slashdot datasets is 0.991 and 0.998, respectively. The obtained results show that proposed method works well for problem of data sparsity in signed social networks and show the effectiveness of proposed model.
Keywords: Link Prediction, Signed Social Networks, Trust, Distrust, Fuzzy Computational -
Pages 247-260
Fault detection in photovoltaic (PV) arrays is necessary to increase the output power and also the useful life of a PV system. The presence of conditions such as partial shade, high impedance faults, and the maximum power point detector (MPPT) system make the fault detection of PV in environmental conditions more challenging. The literature identified and classified defects just in few scenarios. In this study two-dimensional scalograms are generated from PV system data. The VGG16 as a pretrained convolutional neural network is used for feature extraction. Finally, to identify and classify faults in the PV system a fully connected neural network is trained. Unlike the previous methods proposed in the literature on the subject of defect detection and classification, various defective cases with MPPT combination are considered in this research. It has been shown that the proposed method including pre-trained CNN performs better than the existing methods and achieves an error detection accuracy of 83.375%.
Keywords: Photovoltaic Array, Maximum Power Point Tracking, Fault Classification, Convolutional Neural Network, Scalograms -
Pages 261-281
In recent years, cyber attacks on the critical infrastructures of countries have increased significantly. The types of critical infrastructure and their dependencies based on national requirements are different from one country to another. Disruption in the mission or services of a critical infrastructure has a cascading effect on other infrastructures and causes them serious problems. In different studies, different approaches have been taken to model these dependencies, the important point is not to generalize those models to other countries due to the national requirements of each country. In this research, by forming 11 focus groups consisting of top and middle managers of each infrastructure area, the network analysis method based on the DEMATEL technique was used, and the most influential and influential critical infrastructure from a cyber perspective on other critical infrastructures was identified and the relationship between the infrastructure Critical issues and their prioritization were determined from a cyber perspective. The results of this research can be useful in the design of the national warning sharing system in order to calculate the national situational awareness in the cyber field and other researches based on the dependence of critical infrastructures.
Keywords: Critical Infrastructure, Critical Infrastructure Dependency, DANP -
Pages 282-294
In order to use the Internet of Things as a secure infrastructure, there are various challenges and problems, of which security is one of the most important. Establishing security in such networks has many complications due to the limitation of various resources, including processing resources and low energy, and there is a need to establish a kind of compromise between security and available resources. These conditions have caused security to become an important challenge in these networks, and various methods have been presented to improve and optimize this challenge. Accordingly, in this article, a lightweight encryption solution based on symmetric and asymmetric encryption is presented to ensure data security on the Internet of Things. In the proposed method, first, the main data is encrypted by the symmetric Bluefish algorithm, and then its key is secured with the help of the elliptic curve encryption algorithm, so that as a result, data security can be ensured in a short time and with high security in infrastructures based on the Internet of Things provided. In the end, the proposed solution has been evaluated through the Eclipse simulator and by testing on the data volume of 20 to 1000 kilobytes. The simulation results show that the proposed method performs more optimally compared to other encryption algorithms in terms of evaluation criteria such as execution time and encryption and decryption throughput. These results indicate that the proposed solution, while establishing security, has had the least negative impact on the processing resources of IoT nodes.
Keywords: Internet Of Things, Security, Lightweight Encryption Algorithms, Elliptic Curve Encryption Algorithms