فهرست مطالب

نشریه فناوری اطلاعات و ارتباطات ایران
سال سیزدهم شماره 47 (بهار و تابستان 1400)

  • تاریخ انتشار: 1400/07/07
  • تعداد عناوین: 12
|
  • سید امیرهادی مینوفام، حسن رشیدی* صفحات 1-10

    با رشد روز افزون تاثیر فناوری نوین در بازار جهانی، معیارهای تصمیم‌گیری برای برنامه ریزی بنگاه‌های اقتصادی درگیر چالش‌هایی می‌باشد. یکی از رویکردهای مناسب برای مقابله با این چالش‌ها، استفاده از سیستم‌های پشتیبانی تصمیم با بکارگیری نظریه مجموعه‌های ناهموار است. در این مقاله، یک سیستم پشتیبانی تصمیم به همراه الگوریتمی بر اساس نظریه مجموعه‌های ناهموار برای تصمیم‌گیری پیشنهاد می‌‌گردد. این الگوریتم برای یکی از خطوط تولید در یکی از بنگاه‌های تحت پوشش وزارت صمت، پیاده سازی و اثرات متغیرها بر اهداف آن بررسی شده است. برای تحلیل و ارزیابی نتایج، دو شاخص قدرت و پشتیبانی در قوانین موجود نظریه مجموعه‌های ناهموار، مورد استفاده قرار گرفت. این قوانین در سه دسته، مورد بررسی قرار گرفتند و از بین 12 قانون، سه قانون دارای ارزشی متوسط در آن دو شاخص هستند که همیشه برقرار می باشند. بقیه قوانین توزیع ناهمگنی دارند و امکان نقض شدن 3 مورد از قوانین نیز وجود دارد. مزایای استفاده از سیستم پیشنهادی، جلوگیری از اتلاف سرمایه بنگاه، پیشگیری از اشتباهات ناشی از عدم قطعیت موجود در داده‌ها، دقت بالا در تصمیم گیری، افزایش سادگی و سرعت در انجام تصمیم گیری‌های حیاتی برای این بنگاه و بنگاه‌های اقتصادی مشابه می‌باشد که بر اساس نظرات تصمیم گیرندگان در این بنگاه، مورد تایید قرار گرفت. 

    کلیدواژگان: برنامه ریزی بنگاه، سیستم پشتیبانی تصمیم، عدم قطعیت، کاهش داده ها، نظریه مجموعه های ناهموار
  • محمدتقی شیخان*، کیانوش آزادی صفحات 11-22

    با گسترش و همه‏گیر شدن اینترنت اشیاء، در آینده‏ای نه‏چندان دور شاهد وابسته شدن زندگی بشر به سرویس‏های آن خواهیم بود. در آن زمان تصور ادامه حیات بدون اینترنت اشیاء دشوار بوده و بروز اختلال در سرویس‏های آن موجب وقوع خسارات جانی و مالی بسیاری خواهد شد. بروز اختلال در سرویس‏های اینترنت اشیاء می‏تواند به دو علت پیش آید: اختلالات شبکه و اختلال ناشی از انجام فعالیت‏های مخرب نفوذگرها. فعالیت‏های مخرب نفوذگرها همچنین می‏تواند منجر به نقض حریم خصوصی افراد شود. در این مقاله راهکاری برای افزایش مقاومت سرویس‏های اینترنت اشیاء در برابر اختلالات شبکه و فعالیت‏های مخرب نفوذگران ارایه شده است. راهکار پیشنهادی با اتکا بر قدرت پردازشی نودهای حاضر در لایه مه، به‏صورت توامان به کاهش تاخیر (بهبود کیفیت) سرویس و بهبود امنیت و حفظ حریم خصوصی اشیاء می‏پردازد. سایر ویژگی‏های راهکار پیشنهادی عبارت از رعایت عدالت میان اشیاء از منظر کیفیت سرویس دریافتی و حداقل نمودن سربار ناشی از پردازش و انتقال بسته‏ های منقضی (بسته‏ هایی که قطعا تاخیر بیش از حد آستانه را تجربه خواهند نمود) است. رعایت عدالت موجب می‏شود کیفیت سرویس هیچ‏یک از اشیاء قربانی کاهش تاخیر سرویس کل شبکه نشود؛ چراکه ممکن است اشیاء مذکور مورداستفاده در کاربردی حیاتی (مثلا در حوزه سلامت) باشند. 

    کلیدواژگان: اینترنت اشیاء، پردازش مه، کیفیت سرویس، امنیت، حریم خصوصی
  • مژگان فرهودی*، رضوان کلانتری هرمزی صفحات 23-34

    پیش بینی افزایش ده برابری داده های جهانی تا سال 2025 توسط IDC نشان می دهد که سفر داده ها برای سازمان ها تازه آغاز شده است. جمع آوری، ذخیره، تجزیه و تحلیل و استفاده از این طلای با ارزش به نوآوری در شرکت ها و سازمان ها کمک می کند و مشاغل را به سمت آینده رقابتی سوق می دهد. هدف از این مقاله شناسایی و بررسی زمینه های مختلف ارزش آفرینی و کسب وکاری با محوریت کلان داده برای شرکت های نوپایی است که به داده ها به عنوان منبع اصلی کسب و کارشان اعتماد دارند. لذا در این راستا پس از بررسی ابعاد مختلف کلان داده، به ارایه مدل مفهومی جدیدی در این حوزه پرداخته شده است. این مدل به شرکت ها کمک می کند تا بتوانند فعالیت های خود را در این حوزه با آگاهی و تمرکز بیشتری پیش ببرند. همچنین در ادامه این مقاله، نتایج پیمایش شرکت های متقاضی دانش بنیان با کسب وکارهای داده محور ارایه می‌شود. نتایج بررسی‌ها حاکی از آن است که اغلب این شرکت ها بر روی دو حوزه «تحلیل» و «مصورسازی داده» تمرکز بیشتری نموده اند. همچنین، دو حوزه «فینتک» و «رسانه» بیش از سایرین پذیرای فناوریهای این دو حوزه بودهاند. از طرفی محصولات مربوط به «مدیریت و پردازش کلان داده ها» که شامل ارایه راهکار و راهاندازی خدمات پردازش و ذخیره سازی کلان داده ها میشود، بیشترین حجم فروش را به خود اختصاص داده است و میزان قابل توجهی از فعالیت این شرکت ها بر روی محتوای اخبار، شبکه های اجتماعی و اطلاعات مربوط به معاملات بورس اختصاص یافته اند. 

    کلیدواژگان: کلان داده، مدل مفهومی، کسب و کار داده محور، شرکت های دانش بنیان
  • سمیه عارفی، محمداحسان بصیری*، امید روزمند صفحات 35-56

    رشد فزاینده‏ی استفاده از رسانه‌های اجتماعی و ارتباطات برخط به‌منظور بیان نظرات، تبادل عقاید و همچنین گسترش استفاده‏ی کاربران فارسی زبان از این ابزارها باعث افزایش متون فارسی در وب شده است. این رشد چشمگیر در کنار سوءاستفاده‏های ناشی از ناشناس بودن نویسنده‏ی نوشته ‏ها نیاز به سامانه‏ ی خودکار شناسایی نویسنده در این زبان را بیش از پیش آشکار می‌سازد. هدف از این پژوهش، بررسی ویژگی‌های موثر در شناسایی نویسندگان نظرات فارسی تولید شده توسط خریداران گوشی و همچنین ارزیابی روش‌های نظارتی و غیرنظارتی می‌باشد. عواملی که در این پژوهش بررسی می‏شود شامل ویژگی‌های لغوی، نگارشی، معنایی، ساختاری، دستوری، مختص متن و مختص شبکه‌های اجتماعی است. پس از استخراج ویژگی‌های مذکور، انتخاب ویژگی‌های برتر توسط چهار الگوریتم همبستگی ویژگی، نسبت بهره، OneR و تحلیل اجزای اصلی آزمایش می‏شود. در ادامه از الگوریتم‏های K-means، EM و خوشه ‏بندی مبتنی بر چگالی برای خوشه‌بندی و الگوریتم‏ های شبکه‏ ی بیز، جنگل تصادفی و Bagging برای دسته‏بندی استفاده خواهد شد. ارزیابی الگوریتم‌های فوق بر روی نظرات فارسی مربوط به خریداران گوشی‌های سامسونگ نشان می‏دهد که بهترین تشخیص در بین الگوریتم‏های خوشه‏بندی با دقت 16/59% مربوط به الگوریتم EM روی 15 ویژگی‌ برتر انتخابی توسطOneR است درحالی‌که الگوریتم جنگل تصادفی به‌همراه نسبت بهره برای 90 ویژگی با دقت 57/79% بهترین کارایی را در بین الگوریتم‏های دسته‏بندی دارد. همچنین مقایسه‌ی ویژگی‌ها نشان داد که ویژگی‌های نگارشی بیشترین تاثیر را در شناسایی نویسنده‏ی متون کوتاه داشته و پس از آن‌ به‌ترتیب ویژگی‌های لغوی ، مختص متن، مختص شبکه‌های اجتماعی، ساختاری، دستوری و معنایی قرار گرفتند. 

    کلیدواژگان: تحلیل متن، تحلیل سبک، استخراج ویژگی، انتخاب ویژگی و شناسایی نویسنده
  • محمدحسن عباسی، غلامعلی منتظر*، زهرا علیپور، فاطمه قربانی صفحات 36-49

    در این مقاله سامانه ای شخصی شده بر اساس انگیزه یادگیرندگان و به کمک عناصر بازی پردازی برای محیط یادگیری الکترونیکی ‏پیاده سازی شده است. انگیزه یادگیرندگان در این سامانه توسط پرسشنامه ‏AMS‏ سنجیده شده و سپس با تناظر میان نوع انگیزه فرد ‏با سبک بازی وی، عناصر بازی پردازی متناسب برای هر یادگیرنده انتخاب و به سامانه آموزشیاری وی اضافه می شود. برای پیاده سازی معماری ‏طراحی شده، سامانه آموزشیاری هوشمند در دوره آمادگی مسابقه ریاضی با 117 شرکت کننده ‏طراحی شده است. برای سنجش عملکرد سامانه طراحی شده، عملکرد تحصیلی و میزان استفاده از سامانه در دو گروه شاهد و آزمون، ‏پیش و پس از شخصی سازی مقایسه گردیده است. نتایج به دست آمده نشان می دهد شخصی سازی بر اساس انگیزه فرد و با ساز و کار ‏بازی پردازی موجب می شود تا عملکرد تحصیلی یادگیرندگان نسبت به پیش از شخصی سازی و در مقایسه با گروه شاهد ‏به طور معناداری بهبود پیدا کند. ‏ 

    کلیدواژگان: یادگیری الکترونیکی، سامانه آموزشیاری هوشمند، شخصی سازی، انگیزه، بازی پردازی
  • حسین صدر*، فاطمه محدث دیلمی، مرتضی ترخان صفحات 50-66

    با توجه به رشد قابل‌توجه اطلاعات و داده‌های متنی که توسط انسان‌ها در شبکه‌های ‌مجازی تولید می‌شوند، نیاز به سیستم‌هایی است که بتوان به کمک آن‌ها به‌صورت خودکار به تحلیل داده‌ها پرداخت و اطلاعات مختلفی را از آن‌ها استخراج کرد. یکی از مهم‌ترین داده‌های متنی موجود در سطح وب دید‌گاه‌های افراد نسبت به یک موضوع مشخص است. متن‌های منتشرشده توسط کاربران در فضای مجازی می‌تواند معرف شخصیت آن‌ها باشد. الگوریتم‌های یادگیری ماشین می‌تواند انتخاب مناسبی برای تجزیه‌و‌تحلیل این‌گونه مسایل باشند، اما به‌منظور غلبه بر پیچیدگی و پراکندگی محتوایی و نحوی داده‌ها نیاز به الگوریتم‌های یادگیری ژرف بیش از پیش در این حوزه احساس می‌شود. در این راستا، هدف این مقاله به‌کارگیری الگوریتم‌های یادگیری ژرف به‌منظور دسته‌بندی متون برای پیش‌بینی شخصیت می‌باشد. برای رسیدن به این هدف، شبکه عصبی کانولوشنی با مدل آدابوست به‌منظور دسته‌بندی داده‌ها ترکیب گردید تا بتوان به کمک آن داده‌های آزمایشی که با خطا دسته‌بندی ‌شده‌اند را در مرحله دوم دسته‌بندی با اختصاص ضریب آلفا، با دقت بالاتری دسته‌بندی کرد. مدل پیشنهادی این مقاله روی دو مجموعه داده ایزیس و یوتیوب آزمایش شد و بر اساس نتایج بدست آمده مدل پیشنهادی از دقت بالاتری نسبت به سایر روش‌های موجود روی هر دو مجموعه داده برخودار است.

    کلیدواژگان: یادگیری ژرف، شبکه عصبی کانولوشنی، مدل ترکیب آدابوست، تشخیص شخصیت، داده های متنی
  • سعیده ممتازی*، حکیمه منصور، کامران لایقی صفحات 51-63

    امروزه تحلیل احساسات به عنوان یکی از ارکان اصلی در زمینه های مختلف از جمله مدیریت مالی، بازاریابی، پیش بینی تغییرات اقتصادی درکشورهای مختلف بکار گرفته می شود. به منظور ساخت یک تحلیل گر احساسات بر مبنای نظرات کاربران در رسانه های اجتماعی، بعد از استخراج ویژگی های مهم بین کلمات توسط شبکه پیچشی، از شبکه حافظه کوتاه-مدت بلند استفاده می کنیم تا رابطه نهفته در دنباله ای از کلمات را کشف و ویژگی های مهم متن را استخراج نماییم. با کشف ویژگی های استخراج شده جدید توسط شبکه‌ برگشتی با حافظه کوتاه-مدت بلند، توانایی مدل پیشنهادی در طبقه بندی ارزش سهام شرکت ها افزایش می یابد و در نهایت به پیش بینی سهام بورس در روز بعد براساس تحلیل احساسات می پردازیم. این پژوهش بر اساس داده های مقاله انگویان و همکارانش انجام گرفته است و تنها از اطلاعات احساسی مردم در شبکه-های اجتماعی برای پیشبینی سهام استفاده می کند. با توجه به اینکه هر یک از پیام های کاربران را در 5 کلاس های احساسی طبقه بندی می کنیم، بنابراین این مدل ارزش سهام روز بعد را به دو حالت بالا یا پایین بودن آن می تواند پیش بینی کند. ساختار پیشنهادی شامل 21 لایه شبکه عصبی ژرف و متشکل از شبکه های پیچشی و حافظه کوتاه-مدت بلند است که برای پیش بینی سهام بورس 18 شرکت پیاده سازی شده است. اگرچه برخی مدل های ارایه شده قبل، از تحلیل احساسات به منظور پیش بینی بازار سرمایه بهره گرفته اند، اما از روش های ترکیبی و پیشرفته در شبکه های ژرف با میزان دقت پیش بینی بالا بهره نبرده اند. سنجش نتایج روش پیشنهادی با دیگر مطالعات نشان داده که عملکرد روش پیشنهادی در مقایسه با 8 روش دیگر، بطور قابل ملاحظه ای خوب بوده و در معیار ارزیابی صحت در پیش‌بینی روزانه سهام‌ با بهبود 8/19 درصدی نسبت به مدل شبکه پیچشی ژرف، 5/24 درصدی نسبت به مدل پیشنهادی انگویان و همکاران (2015) و 94/23 درصدی نسبت به مدل پیشنهادی درخشان و همکاران (2019) از روش‌های رقیب پیشی بگیرد. 

    کلیدواژگان: تحلیل احساسات، شبکه عصبی ژرف، مدل های شبکه عصبی پیچشی، شبکه حافظه کوتاه-مدت بلند، شبکه اقتصاد مالی. بازار سهام
  • علی راضی، رضا رضایی*، احمدعلی یزدان پناه صفحات 65-95

    چارچوب ملی معماری سازمانی ایران از چارچوب توگف و روش توسعه معماری آن اقتباس شده است. یکی از مسایل مهم در معماری سازمانی چابک، مدل سازی چابک است. ArchiMateیک استاندارد مدل سازی سطح بالا برای معماری سازمانی است. به دلیل اطمینان بیشتر نیاز است تا استاندارد ArchiMate با سایر استانداردهای مدل سازی سطح تفصیلی ترکیب شده و کاربردپذیری آن مورد ارزیابی قرار گیرد. در این مقاله به ارزیابی کاربردپذیری ترکیب استاندارد مدل سازی سطح بالای ArchiMate با پنج استاندارد مدل سازی سطح پایین شامل UML، BPMN، FAML،SoaML وBMM بر مبنای چارچوب ملی معماری سازمانی ایران پرداخته می شود. برای ارزیابی کاربردپذیری از روش ترکیبی (کیفی + کمی) استفاده می شود. هر استاندارد مدل سازی از نظر دامنه و کارکرد متفاوت است. از آنجاییکه یک استاندارد مدل سازی به تنهایی نمی تواند تمام نیازمندی های معماری سازمانی چابک بر مبنای چارچوب ملی معماری سازمانی ایران را پشتیبانی نماید لذا ترکیب استانداردهای مدل سازی راهکاری مناسب است. ارزیابی کیفی ترکیب استانداردهای مدل سازی از طریق مطالعه موردی انجام می پذیرد. ارزیابی کمی با استفاده از روش های تصمیم گیری چندمعیاره شامل فرآیند تحلیل شبکه ای و دیمتل انجام می پذیرد. بدین منظور بر اساس مطالعات کتابخانه ای و نظرات خبرگان تعدادی گزینه و معیار استخراج می گردد. طبق ارزیابی کیفی، ترکیب شش ابزار استاندارد مدل سازی با روش مدل سازی معماری سازمانی چابک بر مبنای چارچوب ملی معماری سازمانی ایران قابل انجام است. برای ارزیابی کمی کاربردپذیری در این مقاله چهار گزینه مطرح شده اند که بر اساس وزن نهایی به ترتیب عبارتند از : پشتیبانی توسط ابزارهای شناخته شده، قابلیت پوشش به فرآورده های روش توسعه چارچوب ملی معماری سازمانی ایران، کارآمدی یا اثربخشی، سهولت یادگیری یا آموزش پذیری. 

    کلیدواژگان: ارزیابی کاربردپذیری با فرآیند تحلیل شبکه ای و دیمتل، استانداردهای مدل سازی، چارچوب ملی معماری سازمانی ایران، مدل سازی معماری سازمانی چابک
  • محدثه نیک سرشت، محسن راجی* صفحات 97-108

    طراحان سیستم‏های نهفته با الزامات و اهداف متعددی در طراحی (مانند زمان اجرا، انرژی مصرفی و قابلیت اطمینان) مواجه هستند. ازآنجاکه در بیشتر مواقع، تلاش برای برآوردن یکی از این الزامات در تناقض با دستیابی به دیگر الزامات طراحی است، استفاده از رویکردهای چندهدفه در مراحل مختلف طراحی دستگاه‌های نهفته ازجمله زمان‌بندی وظایف امری اجتناب‏ناپذیر به نظر می‏رسد. در این مقاله، یک روش زمان‌بندی وظیفه ایستای چندهدفه برای طراحی دستگاه‌های نهفته ارایه‌شده است. در این روش، وظایف به‌صورت یک گراف مدل شده و با در نظر گرفتن یک زیرساخت سخت‌افزاری برای سیستم نهفته، روشی برای نگاشت و زمان‌بندی وظایف بر روی معماری سخت‏افزاری پیشنهاد می‌شود. به‌منظور مدیریت وابستگی بین وظیفه‏ها در گراف وظایف، از یک روش بخش‏بندی استفاده‌شده است که در هر بخش، وظایفی که می‌توانند به‌طور هم‌زمان اجرا شوند مشخص‌شده و در فرآیند زمان‌بندی در نظر گرفته می‏شوند. در این روش زمان‌بندی، پارامترهای زمان اجرای وظایف، انرژی مصرفی و قابلیت اطمینان به‌عنوان اهداف بهینه‏سازی طی یک الگوریتم بهینه‌سازی ژنتیک بهینه می‌گردند. نتایج شبیه‏سازی‏ها نشان می‌دهد که روش پیشنهادی با در نظر گرفتن اهداف مختلف طراحی در مقایسه با روش‏های مشابه پیشین مانند EAG-TA، در زمان اجرای وظایف، انرژی مصرفی و قابلیت اطمینان به ترتیب 21.4، 19.2 و 20 درصد بهبود داشته است. استفاده از یک راهبرد بهینه‌سازی چندهدفه این امکان را فراهم می‌کند که طی مرحله نگاشت و زمان‌بندی، گزینه‌های متعدد طراحی پیش روی طراح قرار گیرد تا بتواند بین پارامترهای مختلف طراحی سیستم (سخت‌افزاری/نرم‌افزاری) موازنه مدنظر خود را انجام دهد.

    کلیدواژگان: سیستم های نهفته، زمان بندی وظیفه، بهینه سازی چندهدفه، الگوریتم ژنتیک
  • عارفه اسمعیلی*، سعید فرضی صفحات 109-132

    سالیان درازی است که اخبار و پیام های جعلی در جوامع انسانی منتشر می گردد و امروزه با فراگیرشدن شبکه های اجتماعی در بین مردم، امکان نشر اطلاعات نادرست بیشتر از قبل شده است. بنابراین، شناسایی اخبار و پیام های جعلی به موضوع برجسته ای در جوامع تحقیقاتی تبدیل شده است. ضمنا، شناسایی کاربرانی که این اطلاعات نادرست را ایجاد می کنند و در شبکه نشر می دهند، از اهمیت بالایی برخوردار است. این مقاله، به شناسایی کاربرانی که با زبان فارسی اقدام به انتشار اطلاعات نادرست در شبکه اجتماعی توییتر می کنند، پرداخته است. در این راستا، سیستمی بر مبنای ترکیب ویژگی های بافتار-کاربر و بافتار-شبکه با کمک شبکه مولد متخاصم شرطی برای متوازن سازی مجموعه -داده پایه ریزی شده است. هم چنین، این سیستم با مدل کردن شبکه اجتماعی توییتر به گراف تعاملات کاربران و تعبیه گره به بردار ویژگی توسط Node2vec، کاربران منتشرکننده اخبار جعلی را شناسایی می کند. علاوه بر این، با انجام آزمایشات متعدد، سیستم پیشنهادی تا حدود 11% ، 13 % ،12 % و 12 % به ترتیب در معیار های دقت، فراخوانی، معیار اف و صحت نسبت به رقبایش بهبود داشته است و توانسته است دقتی در حدود 99% در شناسایی کاربران منتشرکننده اخبار جعلی ایجاد کند. 

    کلیدواژگان: شناسایی کاربر منتشرکننده اخبار جعلی، مجموعه داده های نامتوازن، شبکه مولد متخاصم، گراف تعاملات کاربران، تعبیه گره
  • محمد خوانساری*، فرزانه مرتضوی صفحات 133-150

    با توجه به رشد روزافزون شبکه‌های ارتباطی، در آینده نزدیک داده‌های چندرسانه‌ای در اینترنت اشیاء نقش قابل ملاحظه‌ای خواهند داشت. حجم بالای داده‌های چندرسانه‌ای باعث چالش‌هایی مانند کاهش طول عمر شبکه و ایجاد ازدحام در اینترنت اشیاء می‌شود. در این مقاله تابع هدف جدیدی بر مبنای پروتکل مسیریابی RPL پیشنهاد شده است که ویژگی‌‌های داده‌های چندرسانه‌ای را در فرآیند مسیریابی، مورد نظر قرار می‌دهد. تابع هدف پیشنهادی ترکیب وزن‌دار دو معیار میزان انرژی باقیمانده و ظرفیت بافر گره‌ها را با توجه به حجم داده در مسیریابی در نظر می‌گیرد. به منظور ارزیابی این روش، داده‌ها بر اساس یک فایل اثر ویدیو (video trace) تولید شده‌ و از سنجه‌های نرخ تحویل بسته، طول عمر شبکه، میزان دسترس‌پذیری گره‌ها در طول عمر شبکه، توزیع مصرف انرژی گره‌ها و تاخیر انتها به انتها برای ارزیابی روش پیشنهادی استفاده شده است. نتایج ارزیابی و مقایسه روش پیشنهادی با RPL پایه نشان می‌دهد که در روش پیشنهادی نرخ تحویل بسته نسبت به RPL پایه افزایش یافته است. همچنین این روش با توزیع انرژی بین گره‌‎ها طول عمر شبکه را نسبت به RPL استاندارد افزایش داده و با کاهش ازدحام شبکه میزان تاخیر انتها به انتها نسبت به RPL پایه کاهش یافته است. 

    کلیدواژگان: اینترنت اشیاء، چندرسانه ای، مسیریابی، پروتکل RPL، طول عمر شبکه
  • گلشن سندسی، علیرضا صائبی، سید علیرضا هاشمی گلپایگانی* صفحات 151-158

    پیش‌بینی پیوند، یکی از روش‌های تحلیل شبکه اجتماعی است. شبکه های دوبخشی یکی از انواع شبکه های پیچیده هستند که بسیاری از وقایع طبیعی، با استفاده از آن قابل مدل شدن هستند. در این مقاله، روشی برای پیش‌بینی پیوند در شبکه دوبخشی ارایه شده‌است. با توجه به اینکه روش‌های پیش‌بینی پیوند در شبکه یک بخشی برای استفاده در شبکه دوبخشی کارایی پایینی دارند و کارآمد نیستند، نیاز است برای حل این مسئله از روش‌هایی مختص شبکه دوبخشی استفاده شود. هدف این پژوهش، ارایه روشی جدید، متمرکز و جامع مبتنی بر همسایه است، که عملکردی بهتر از روش‌های کلاسیک موجود داشته باشد. روش پیشنهادی از ترکیب معیارهایی بر اساس همسایگی تشکیل شده‌است. معیارهای کلاسیک پیش‌بینی پیوند با اعمال تغییراتی برای شبکه دوبخشی تعریف شده‌اند. این معیارهای تغییر یافته، ارکان اصلی معیار پیشنهادی را تشکیل می‌دهند. این روش علاوه بر سادگی و پیچیدگی پایین، از کارایی بالایی برخوردار است و روش‌های کلاسیک مبتنی بر همسایه را در مجموعه داده‌های مورد بررسی به طور میانگین بیش از 15٪ بهبود داده است. 

    کلیدواژگان: نظریه گراف، تحلیل شبکه اجتماعی، شبکه دوبخشی، پیش بینی پیوند، پیش بینی پیوند در شبکه دوبخشی
|
  • Hassan Rashidi * Pages 1-10

    Increasing rate of novice technology in global marketing arises some challenges in the economic enterprise planning. One of the appropriate approaches to resolve these challenges is using rough set theory along with decision making. In this paper, a decision support system with an algorithm based on rough set theory is provided. The proposed algorithm is implemented for a product line in one of the organizations under supervision of mining, industry and trade ministry. The variable effects on the enterpise aims are evaluated by analysing the strength and support criteria of rough sets. The rules are classeified as three different classes and 3 out of 12 have high reasonable averagewhie the last 3 have a relatively high violation probability. The other rules have heterogenious distribution and are not certain. The advantages of the proposed system are avoidance of enterprse capital wasting, prevention of errors due to data uncertainty, and high precision of decitions. The decision makers in the enterprise validated the increasment of simplicity and speeds of vital decision making by using the proposed system.

    Keywords: Enterprise planning, Decision Support system, Uncertainty, Data reduction, Rough set theory
  • MohammadTaghi Shaykhan * Pages 11-22

    As the Internet of Things (IoT) expands and becomes more widespread, we will soon see the dependence of human life on its services. At that time, it would be difficult to imagine the survival without the IoT, and disruption of its services would cause great loss of life and property. Disruption of IoT services can occur for two reasons: network errors due to congestion, collision, interruption and noise, and disruption due to the malicious activities of infiltrator. Also, the destructive activities of infiltrators can lead to various cyber attacks and violation of the privacy of individuals. Therefore, before the interdependence between human life and IoT, it is necessary to consider measures to ensure the quality and security of service and privacy. In this study, a solution to reduce service delay (improve quality) and ensure security and privacy of things by relying on the computing power of nodes available in the Fog Layer has been proposed. The proposed solution simultaneously improves service quality and maintains security and privacy. Other features of presented algorithm in proposed solution of fairness between objects are in terms of the quality of service received and minimizing overhead processing and transfer of expired packages (packages that will certainly experience a consumedly threshold delay). Adherence to fairness ensures that the quality of service of any of the things does not be a subject of the reduction of the delay of the service of the entire network; These aforementioned objects may be subjects of critical applications, such as health.

    Keywords: Internet of Things, Fog Computing, Quality of Service, Security, Privacy
  • Mojgan Farhoodi * Pages 23-34

    Forecasting a 10-fold increase in global data till 2025 by IDC indicates that the data journey for organizations has just begun. Collecting, storing, analyzing and using this valuable gold contributes to innovation in companies and organizations and leads businesses to a competitive future. The purpose of this article is to examine the various contexts of value creation and big-data-driven business for startups that rely on data as their primary source of business. Therefore, in this regard, after examining the various dimensions of big data, a conceptual model of this field has been presented. This model helps companies to carry out their activities in this field with more awareness and focus. Also in the continuation of this article, the results of the survey of knowledge-based companies with data-driven businesses are presented. The results show that most of these companies are more focused on the two areas of data analysis and visualization. Also, the two areas of "Fintech" and "Media" have been more receptive to the technologies of these two areas. On the other hand, products related to "big data management and processing", which includes providing solutions and launching big-data processing and storage services, have the highest sales volume and a significant amount of activity of these companies on Content of news, social networks and information related to stock exchange transactions.

  • somayeh arefi Pages 35-56

    The growing use of social media and online communication to express opinions, exchange ideas, and also the expanding use of of this platforms by Persian users has increased Persian texts on the Web. This remarkable growth, along with abusive use of the writer's anonymity, reveals the need for the author's automatic identification system in this language. In this research, the purpose of the study is to investigate the factors affecting the identification of authors of Persian reviews produced by cell-phone buyers and also to evaluate supervised and unsupervised methods. The factors considered in this research include lexical, syntactic, semantic, structural, grammatical, text-specific, and specific to social networks. After extracting these features, selecting the best features is tested by four algorithms including feature correlation, gain ratio, OneR, and principal components analysis. In the following, K-means, EM and density-based clustering will be used for clustering and Bayesian network, random forest, and Bagging will be used for categorization. The evaluation of the above algorithms on Persian comments of Samsung phone buyers indicates that the best performance among the clustering algorithms is 59/16% obtained by the EM algorithm on top-15 features selected by OneR, while the random forest algorithm using top-90 features selected by gain ratio with 79/57% achieves the best performance among the classification algorithms. Also, the comparison of features showed that syntactic features had the most effect on the identification of the author of short texts, and then, lexical, text-specific, specific to social networks, structural, grammatical and semantic features, respectively.

    Keywords: text analysis, stylistic analysis, feature extraction, feature selection, author identification
  • Mohammadhassan Abbasi, gholamali montazer * Pages 36-49

    In this paper, a new personalized system based on learners' motivation with utilization of game elements have been implemented for the e-learning environment. Learners' motivation is measured by AMS questionnaire and then by finding the player's type based on AMS results, appropriate game elements are selected for each learner and added to their webpage. To implement the designed system, the intelligent tutoring system has been designed with 117 participants in a math course. To measure the performance of the designed system, academic performance and the time spent on learning management system (LMS) in the control and test groups, before and after personalization have been compared. The results show that personalization based on individual motivation by utilization of gamification leads to a significant improvement in learners’ academic performance compared to pre-personalization and compared to the control group.

    Keywords: E-learning, Intelligent tutoring system, Personalization, Motivation, Gamification
  • Hossein Sadr * Pages 50-66

    Due to the significant growth of textual information and data generated by humans on social networks, there is a need for systems that can automatically analyze the data and extract valuable information from them. One of the most important textual data is people's opinions about a particular topic that are expressed in the form of text. Text published by users on social networks can represent their personality. Although machine learning based methods can be considered as a good choice for analyzing these data, there is also a remarkable need for deep learning based methods to overcome the complexity and dispersion of content and syntax of textual data during the training process. In this regard, the purpose of this paper is to employ deep learning based methods for personality recognition. Accordingly, the convolutional neural network is combined with the Adaboost algorithm to consider the possibility of using the contribution of various filter lengths and gasp their potential in the final classification via combining various classifiers with respective filter sizes using AdaBoost. The proposed model was conducted on Essays and YouTube datasets. Based on the empirical results, the proposed model presented superior performance compared to other existing models on both datasets.

    Keywords: Deep learning, Convolutional neural network, Adaboost combinational model, Personality recognition, Textual data
  • Saeedeh Momtazi *, Kamran Layeghi Pages 51-63

    Emotional analysis is used as one of the main pillars in various fields such as financial management, marketing and economic changes forecasting in different countries. In order to build an emotion analyzer based on users' opinions on social media, after extracting important features between words by convolutional layers, we use LSTM layers to establish the relationship behind the sequence of words and extract the important features of the text. With discovery of new features extracted by LSTM, the ability of the proposed model to classify the stock values of companies increases. This article is based on the data of Nguyen et al. (2015) and uses only the emotional information of people in social networks to predict stocks. Given that we categorize each user's message into one of the emotional classes "Strong Buy", "Buy", "Hold", "Sell", "Strong Sell", this model can predict the stock value of the next day, whether it will be high or low. The proposed structure consisted of 21 layers of neural networks consisting of convolutional neural networks and long short-term memory network. These networks were implemented to predict the stock markets of 18 companies. Although some of the previously presented models have used for emotion analysis to predict the capital markets, the advanced hybrid methods have not been performed in deep networks with a good forecasting accuracy. The results were compared with 8 baseline methods and indicate that the performance of the proposed method is significantly better than other baselines. For daily forecasts of stocks changes, it resulted in 19.80% improvement in the prediction accuracy, compared with the deep CNN, and 24.50% and 23.94% improvement compared with the models developed by Nguyen et al. (2015) and Derakhshan et al. (2019), respectively.

    Keywords: Emotional Analysis, Deep Neural Network, CNN Models, LSTM, Financial Economics. Stock market
  • Ali Razi Pages 65-95

    The Iran’s national enterprise architecture framework (INEAF) has been adapted from the TOGAF framework and its architectural development method. In this framework, the use of agility paradigm is emphasized, but there is no basis for using agile methods and techniques. Based on the results obtained for the researcher, the studied sources did not indicate all the necessary solutions and features to develop an agile methodology based on the Iran’s national EA framework. According to Mr. Gill research, each modeling standard is different in scope and function, and since a modeling standard alone cannot support all the requirements of agile enterprise architecture, combining modeling standards is a suitable solution. In this paper, an agile enterprise architecture modeling methodology including ten solutions with a combination of six modeling standards ArchiMate, UML, BPMN, FAML, SoaML and BMM based on the Iran’s national EA framework is presented. The evaluation of the applicability of the proposed methodology is performed by the combined method (qualitative + quantitative). Qualitative evaluation is performed through a case study and quantitative evaluation is performed using multi-criteria decision making methods including ANP and DEMATEL. Data collection and information gathering and determining options and criteria, is performed through library studies and field methods, and using questionnaire, interview and observation tools. Based on the case study, combination of six standards by agile enterprise architecture modeling method based on the Iran’s national enterprise architecture framework is applicable. For quantitative evaluation of applicability in this paper, according to experts, four options have been proposed, which are based on the final weight: support by known tools, the ability to cover the artifacts of the Iran’s national enterprise architecture framework, efficiency or effectiveness, ease of learning or teachability.

    Keywords: Evaluating the Applicability by ANP & DEMATEL, Modeling Standards, Iran’s National EA Framework, Agile Enterprise Architecture Modeling
  • arefeh esmaili *, Saeed Farzi Pages 109-132

    For many years, fake news and messages have been spread in human societies, and today, with the spread of social networks among the people, the possibility of spreading false information has increased more than before. Therefore, detecting fake news and messages has become a prominent issue in the research community. It is also important to detect the users who generate this false information and publish it on the network. This paper detects users who publish incorrect information on the Twitter social network in Persian. In this regard, a system has been established based on combining context-user and context-network features with the help of a conditional generative adversarial network (CGAN) for balancing the data set. The system also detects users who publish fake news by modeling the twitter social network into a graph of user interactions and embedding a node to feature vector by Node2vec. Also, by conducting several tests, the proposed system has improved evaluation metrics up to 11%, 13%, 12%, and 12% in precision, recall, F-measure and accuracy respectively, compared to its competitors and has been able to create about 99% precision, in detecting users who publish fake news.

    Keywords: Fake news publisher user detection, Imbalanced datasets, Generative Adversarial Network, Graph of user interaction, Node Embedding
  • Mohammad Khansari *, Farzaneh Mortazavi Pages 133-150

    According to enormous growths in communication networks, multimedia data will play a significant role on the Internet of Things in the near future. High volume of multimedia data leads to challenges such as reducing network lifetime and congestion. In this paper, a new objective function for the RPL routing protocol is proposed which addresses the characteristics of multimedia data in the routing process. In the objective function, node’s remaining energy and the remaining buffer capacity of nodes measures are combined using a weighted pair. In order to evaluate this method, input data is generated based on a video trace. Packet delivery ratio, network lifetime, nodes availability over the lifetime of the network, node energy distribution, and end-to-end delay are used to evaluate the proposed method. The evaluation results show that the proposed method increases the package delivery ratio compared to the standard RPL. This method also improves the lifetime of the nodes by distributing energy between the nodes in comparison with standard RPL and extends the node's availability over the lifetime of the network. Finally, it reduces the network congestion which led to a lower end-to-end delay.

    Keywords: Internet of Things, Multimedia, Routing, RPL Protocol, Network Lifetime
  • Golshan Sondossi, S. Alireza hashemi G* Pages 151-158

    Social network analysis’ link prediction has a diverse range of applications in different areas of science. Bipartite networks are a kind of complex network, which can be used to describe various real-world phenomena. In this article, a link prediction method for bipartite network is presented. Uni-partite link prediction methods are not effective and efficient enough to be applied to bipartite networks. Thus, to solve this problem, distinct methods specifically designed for bipartite networks are required. The proposed method is neighbor based and consisted of measures of such. Classic uni-partite link prediction measures are redefined to be compatible with bipartite network. Subsequently, these modified measures are used as the basis of the presented method, which in addition to simplicity, has high performance rates and is superior to other neighbor-based methods by 15% in average.