فهرست مطالب

پژوهشنامه پردازش و مدیریت اطلاعات
سال سی و پنجم شماره 2 (پیاپی 100، زمستان 1398)

  • تاریخ انتشار: 1398/12/11
  • تعداد عناوین: 10
|
  • امیرحسام رادفر، فاطمه فهیم نیا*، ملوک سادات حسینی بهشتی صفحات 291-322

    بازخوانی متون متاخر و معتبر حوزه علم اطلاعات و دانش‏ شناسی، از وجود برخی مسائل بنیادین در فرایند آموزش این رشته حکایت دارد. از آنجاکه عوامل مختلفی از جمله اساتید، دانشجویان، گروه ‏های آموزشی و متن و محتوا در این فرایند نقش ایفا می‏کنند، تصمیم ‏گیری جهت رفع موانع موجود از مسائل پیچیده به شمار می‏رود. از این رو در فاز اول پژوهش حاضر از متدولوژی سیستم‏های نرم، که تکنیک حل مسائل پیچیده محسوب می‏گردد، بهره گرفته شد.  متدولوژی سیستم ‏های نرم از روش‏های تحقیق در عملیات (اقدام پژوهی) به شمار می‏رود و از لحاظ رویکرد پژوهش، روش کیفی است. در فاز اول پژوهش،  بر اساس هفت گام چک لند، ابتدا شرایط مساله ساز شناسایی شد، تصویر گویا بر اساس الگوی عمومی آموزش گیج و برلاینر شکل گرفت. تعاریف ریشه‏ ای در قالب مولفه های CATWOE بدست آمد. مدل مفهومی ترسیم و با استفاده از نظرات خبرگان اعتبارسنجی شد. سپس مدل مفهومی با شرایط واقعی تطبیق داده شده و در آخر پیشنهادات لازم جهت اعمال تغییر تبیین ارائه گردید.  با بهره‏ مندی از مراحل هفت ‏گانه متدولوژی سیستم ‏های نرم، ابتدا تصویر روشنی از فرایند آموزش رشته و مسائل مبتلابه در اکوسیستم مربوطه به نمایش درآمد و مدل نهایی حاصل از تجمیع سه هستان‏نگاری فراگیر، مدرس و محتوای آموزشی حاصل شد. در پایان مدل پیشنهادی با ضریب توافق کاپا بالای 90 درصد مورد تایید خبرگی قرار گرفت. به منظور اجرایی نمودن مدل کلان حاصل شده، الگوی معنایی مبتنی بر هستان‏نگاری طراحی و با زبان OWL2 پیاده ‏سازی شد. مدل مفهومی بدست آمده از متدولوژی سیستم‏های نرم با تایید و توافق خبرگی، نتنها قادر خواهد بود مسائل مطرح در آموزش علم اطلاعات و دانش‏شناسی را پاسخ دهد بلکه می تواند به عنوان مبنایی برای پژوهش های آتی در جهت طراحی و پیاده‏سازی نظام آموزش معنایی در رشته ‏های مختلف نیز قرار گیرد. مدل معنایی آموزش، مفهومی با ابعاد و مولفه های گوناگون است که کاملا عملیاتی و قابل پیاده‏سازی بوده و می‏تواند مورد توجه سیاستگذاران، طراحان و بازیگران حوزه آموزش علم اطلاعات و دانش‏ شناسی در طراحی و ارزیابی نظام‏های یادگیری-یاددهی قرار گیرد.

    کلیدواژگان: الگوی معنایی آموزش، فناوری های وب 3، علم اطلاعات و دانش شناسی، مدل آموزش مبتنی بر هستان نگاری، متدولوژی سیستم های نرم
  • علی اکبری، محسن نوکاریزی*، رضا رستمی، علی مقیمی صفحات 323-348

    این پژوهش بر آن است تا مولفه های شناختی رفتار اطلاع یابی درمانگران در تشخیص و درمان اختلال های روانی را مورد واکاوی قرار دهد. بر این اساس با توجه به توان بالای ابزارهای علوم عصب شناختی در واکاوی مولفه های شناختی در لحظه، از روش الکتروآنسفالوگرافی کمی استفاده شد. در ادامه پنج نفر از درمانگران به صورت نمونه گیری انتخابی که تنوع مدنظر پژوهشگران را داشتند انتخاب شده و در فرایند پژوهش قرار گرفتند. برای گردآوری داده ها علاوه بر  الکتروآنسفالوگرافی کمی از نرم افزار مورائه استفاده شد. یافته های پژوهش نشان داد که امواج مغزی درمانگران در مراحل اول کولثاو بیانگر فعالیت های گسترده شناختی است. هر چه درمانگران به سمت مراحل انتهایی حرکت کردند، از شدت این فعالیت ها کاسته و جنبه هیجانات مغز غالب شد. برمبنای یافته ها، بهترین مرحله جهت مداخله کتابدار برای راهنمایی و کمک به درمانگران در جهت ارائه اطلاعات، مرحله 3 کولثاو است. در نهایت یافته های پژوهش نشان داد رفتار اطلاع یابی درمانگران در بخش کنش های شناختی با مدل فراگرد جست وجوی اطلاعات کولثاو مطابقت دارد. در نتیجه به نظر می رسد با تکیه بر ابزارهای نوین تولید شده در چند دهه اخیر در حوزه علوم اعصاب و تکنولوژی اطلاعات بتوان شناخت بهتری از لحظه لحظه فراگرد رفتار اطلاع یابی درمانگران پیدا کرد و با کمک سامانه های هوشمند و شخصی سازی شده در لحظه مناسب، اطلاعات مناسب را به کاربران ارائه داد. این تحول می تواند گامی بلند در ارتقاء رفتار اطلاع یابی و پیشرفتی در حصول اطلاعات مورد نیاز برای کاربران در لحظه باشد.

    کلیدواژگان: رفتار اطلاع یابی، علوم اعصاب شناختی، نقشه مغزی، الکتروآنسفالوگرافی کمی (QEEG)، تشخیص و درمان، مولفه های شناختی
  • حمیده جعفری پاورسی، نجلا حریری*، مهدی علیپور حافظی، فهیمه باب الحوائجی، مریم خادمی صفحات 349-374

    سازگاری کدهای رده بندی و اصطلاحات نمایه سازی از یک اصطلاحنامه مدون با عبارات و کلماتی که به طور خودکار استخراج شده با استفاده از نمایه سازی ماشینی ایجاد می شود. در طراحی نظام نمایه سازی خودکار، کامپیوتر به طور کامل جایگزین انسان می شود. این پژوهش با هدف استخراج کلمات کلیدی و شناسایی گرایش های موضوعی مقالات نمونه آماری در حوزه بازیابی اطلاعات و تخصص موضوعی نویسنده هر مقاله با روش متن کاوی و دسته بندی آنها با استفاده از هم رخدادی واژگان صورت گرفته است. روش این پژوهش از نوع کاربردی است و براساس مدل کریسپ [1] از مدل های فرآیند داده کاوی و الگوریتم های متن کاوی انجام گرفته است. جامعه پژوهش، 313 مقاله حوزه بازیابی اطلاعات نمایه شده در پایگاه نورمگز است. پس از نرمال سازی متن مقالات با نرم افزار ویراستیار، طی متن کاوی مقالات با نسخه 7.1 نرم افزار رپیدماینر، واژگان کلیدی از طریق محاسبه وزن آنها استخراج و داده ها با استفاده از دو الگوریتم کلاسیک دسته بندی یعنی ک.ان.ان.[2] و نایوبیز [3] تجزیه و تحلیل شدند. در پژوهش حاضر، کامپیوتر با کمک ابزارهای متن کاوی نرم افزار رپدماینر، متن ماشین خوان را با استفاده از بسامد واژه ها به طور خودکار نمایه سازی کرده است. بدین منظور با کمک عملگرهای ان-گرام [4] و محاسبه وزن کلمات براساس روش تی.اف ای.دی.اف.[5]، اصطلاحات و مفاهیم کلیدی و تخصص موضوعی نویسنده هر مقاله در قالب 16 دسته بندی استخراج شده است. سرانجام برتری مدل ک.ان.ان. در دسته بندی موضوعات هسته مقالات این پژوهش با دقت 85 درصدی نسبت به مدل نایوبیز تایید شد. مشاهده نتایج محاسبه دقت های ماخوذه مدل ها، گواه کارایی قابل قبول نرم افزار رپیدماینر در نمایه سازی ماشینی متون است. نمایه سازی متون با استفاده از این روش، می تواند به بهبود نتایج بازیابی اطلاعات و جلوگیری از ریزش کاذب اطلاعات در پایگاه های اطلاعاتی کمک کند. 

    کلیدواژگان: نمایه سازی ماشینی، دسته بندی، رپیدماینر، متن کاوی، بازیابی اطلاعات
  • سمیرا آقایی، مهدی طاهری*، عصمت مومنی صفحات 375-398

    هدف از پژوهش حاضر، تبیین کاربردپذیری اصطلاحات غیرموضوعی (عمومی) مورد استفاده در نمایه سازی منابع علوم اسلامی در فرایند بازیابی اطلاعات بود. جامعه پژوهش را که با روش پیمایشی- تحلیلی انجام شد، کاربران نهایی پایگاه مدیریت اطلاعات علوم اسلامی طراحی شده توسط پژوهشکده مدیریت اطلاعات و مدارک اسلامی تشکیل می دادند. در میان این جامعه، 50 نفر از پژوهشگران بر پایه نمونه گیری در دسترس از نوع هدفمند که با پایگاه مدیریت اطلاعات علوم اسلامی آشنایی مناسبی داشتند و از آن استفاده می نمودند، انتخاب شدند. ابزار گردآوری داده ها در این پژوهش، سه پرسشنامه طراحی شده توسط پژوهشگران بود. این پرسشنامه ها عبارت بودند از: نخست، پرسشنامه مربوط به میزان تجربه کاربران نهایی در استفاده از پایگاه مورد بررسی، دیگر، پرسشنامه تشریحی جهت دریافت بازخورد کاربران نهایی نسبت به فرایند بازیابی، و دو دیگر، پرسشنامه ای با پرسش های بسته برای ارزیابی نتایج جستجو بود که روایی آن ها توسط متخصصان ذخیره و بازیابی اطلاعات، و پایایی آن ها بر اساس آزمون آلفای کرونباخ مورد تایید قرار گرفت. برای تجزیه و تحلیل داده ها از شاخص های آمار استنباطی در جهت آزمون فرضیه های پژوهش استفاده شد. یافته های پژوهش حاکی از آن است که استفاده از اصطلاحات غیرموضوعی (عمومی) برای بسط جستجو در پایگاه مدیریت اطلاعات علوم اسلامی نتایج مطلوبی در بر داشته است. با این وجود، به گسترش اصطلاحات غیرموضوعی بر اساس نظرات و پیشنهادات کاربران نهایی عضو جامعه پژوهش نیاز است. همچنین همخوان با پاسخ کاربران به پرسش ها، بین اصطلاحات غیرموضوعی برگزیده و ناگزیده، روابط هم ارز مناسبی برقرار شده است. نتایج حاصل از این پژوهش بیان می دارد که توجه به کاربردپذیری اصطلاحات غیرموضوعی در فرایند بازیابی اطلاعات، نیز برقراری روابط هم ارز بین آن ها، افزون بر بهره گیری از اصطلاحات موضوعی (تخصصی)، می تواند نتایج مطلوب و مرتبطی را در زمان بازیابی اطلاعات به همراه داشته باشد.

    کلیدواژگان: کاربردپذیری، اصطلاحات غیرموضوعی، نما یه سازی، بازیابی اطلاعات، منابع علوم اسلامی
  • سمیه فتاحی*، محمدجواد ارشادی صفحات 399-424

    رشد روزافزون کاربرد وب، اهمیت موتورهای کاوش و ارزیابی کیفیت آن ها را در پاسخ به نیازهای کاربران، بیش از پیش نمایان ساخته است. یکی از رویکردهای ارزیابی کیفیت، رضایت کاربران است. کاربرد یک موتور کاوش در گرو رضایت کاربران از آن است که معیاری برای کیفیت موتور کاوش به شمار می رود. در ایران نیز موتورهای کاوش بسیاری ساخته شده اند. برخی از این موتورها کاربردی همگانی دارند و برای جست وجوی اطلاعات در وب به کار می روند و برخی نیز برای جست وجو در یک پایگاه داده پدید آمده اند.  پایگاه اطلاعات علمی ایران (گنج) یکی از پایگاه هایی است که موتور کاوش ویژه خود را دارد. این پایگاه نزدیک به 530 هزار پایان نامه و رساله را در بر دارد و از پایگاه های اطلاعات علمی کلیدی در کشور با کاربران بسیار است. از این رو، ارزیابی میزان رضایت کاربران این سامانه با توجه به انبوه مخاطبان آن امری حیاتی است. در قالب این پژوهش شاخص هایی برپایه مدل ای کوآل جهت ارزیابی رضایت کاربران سامانه «گنج» توسعه داده شد. شاخص های توسعه داده شده برپایه روش دلفی غربال سازی و بمنظور ارزیابی رضایت کاربران سامانه «گنج» بومی سازی شد. همچنین ارزیابی سطح رضایت کاربران به کمک پرسشنامه  مبتنی بر ایکوال صورت گرفت. نتایج  تحلیل داده های 156 پرسش نامه گردآوری شده، نشان می دهند که کاربردپذیری، اطلاعات و تعامل سرویس به ترتیب بعنوان عوامل اصلی رضایت کاربران از سامانه «گنج» هستند. در بعد کاربردپذیری، میزان آسانی کار با «گنج» در بالاترین اولویت قرار دارد. به همین ترتیب راحتی تعامل با سامانه و جذابیت ظاهری سامانه بعنوان عوامل اصلی معرفی شدند.

    کلیدواژگان: پایگاه اطلاعات علمی ایران، گنج، پژوهشگاه علوم و فناوری اطلاعات ایران، ایرانداک، سامانه اطلاعاتی، موتور کاوش، رضایت کاربر، ارزیابی کیفیت، ایکوال
  • سیدمحمدباقر سجادی، بهروز مینایی بیدگلی* صفحات 425-461

    گراف دانش به عنوان یکی از بسترهای مهم جهت ورود به عرصه وب معنایی و توسعه ابزارهای پردازش زبان طبیعی شناخته می شود. تا کنون پایگاه های دانش مختلفی در زبان های متعدد ایجاد شده است اما فقدان چنین پایگاهی مختص به زبان فارسی در کاربردهای پژوهشی و صنعتی کاملا مشهود است. در این مقاله جامع ترین پایگاه دانش زبان فارسی به صورت عمومی و چند دامنه ای مشتمل بر 500 هزار موجودیت و 7 میلیون رابطه میان آن ها با عنوان فارس بیس ارائه می گردد که به صورت متن باز در دسترس است. منابع اطلاعاتی فارس بیس عبارتند از: اطلاعات ساخت یافته ویکی پدیا مانند جعبه های اطلاعاتی، جداول وب و همچنین اطلاعاتی که توسط ماژول استخراج گر رابطه از متن خام استخراج شده اند. موجودیت های گراف دانش در یک هستان شناسی برگرفته از دی بی پدیا و سفارشی شده برای فارس بیس، سازمان دهی شده است. به منظور پیوند جعبه های اطلاعاتی ویکی پدیا به هستان شناسی بیش از 7000 نگاشت میان الگوها و خصیصه های ویکی پدیا با هستان شناسی برقرار شده است. همچنین با روش های یادگیری ماشین و با نظارت خبرگان، قسمتی از هستان شناسی و تعدادی از موجودیت ها به فارس نت متصل شده اند. مدل داده ای گراف دانش فارسی بر اساس استاندارد وب معنایی و به صورت RDF پیاده سازی شده است بنابراین داده ها به صورت سه تایی در پایگاه دانش ذخیره شده و می توان از طریق زبان SPARQL پرس وجوهای معنایی را بیان نمود. در حال حاضر اطلاعات متنوعی به صورت ساخت یافته راجع به اشخاص مشهور، مکان های مهم، سازمان ها و شرکت ها، آثار ادبی و هنری، گونه های زیستی شامل گیاهان و حیوانات، رویدادها، زیست شناسی و اخترشناسی در این گراف قابل دسترسی است. به منظور خدمت رسانی به موتورهای جستجو یک سامانه جستجو روی موجودیت ها و گزاره های آن پیاده سازی شده است. فارس بیس از چهار جنبه صحت، فراخوانی، پوشش و تازگی اطلاعات مورد ارزیابی قرار گرفته که نتایج به دست آمده حکایت از غنی بودن آن دارد. بستر گراف دانش می تواند در کاربردهای بسیاری نظیر موتورهای جستجو، سامانه پرسش و پاسخ، بازیابی اطلاعات، پردازش زبان طبیعی، تشخیص موجودیت، مشابهت یابی متن و هر کاربردی که نیازمند موجودیت های فارسی و ارتباط میان آن هاست مورد استفاده قرار گیرد

    کلیدواژگان: گراف دانش، زبان فارسی، چارچوب توصیف منبع، وب معنایی، داده های پیوندی
  • زهرا احمدی، فرزام متین فر*، فرشته آزادی پرند صفحات 463-484

    امروزه به دلیل حجم انبوه اطلاعات از پایگاه داده های NoSQL برای محاسبه ی داده های پیچیده استفاده می شود. این پایگاه داده ها با قابلیت ذخیره داده های نیمه ساختاریافته [1] و بدون ساختار [2] برای مدیریت داده های بزرگ [3] مورد استفاده قرار می گیرند. در این مقاله پرس وجوهای فازی توسط کاربران بر روی اطلاعات ذخیره شده در پایگاه داده ی گراف Neo4j انجام شده است که منجر به نمایش نتایج به صورت غیرفازی می شود. برای ارزیابی کارایی روش پیشنهادی، با در نظر گرفتن یک پایگاه داده از داده های مربوط به شرکت قطعه سازی، دو متفیر قیمت و کیفیت با ویژگی فازی در نظر گرفته شد و از آن ها برای تعریف و اجرای پرسش های فازی استفاده شد که نتایج می تواند صحت عملکرد روش پیشنهادی را تائید کند. علاوه‎براین، یک مشاور که دارای اطلاعات در مورد داده ها می باشد، اصطلاح های فازی [4]، توابع عضویت [5] و جدول قوانین فازی [6] را تعریف می کند. یکی از فرآیندهای مهم در این روش یافتن مرکزثقل به منظور غیرفازی سازی نتیجه نهایی است که به این منظور الگوریتمی با زبان برنامه نویسی C# پیاده سازی شده است. بیشترین زمان پرس وجو مربوط به یافتن مرکزثقل است و پیچیدگی مسائل فازی سربار زمانی بیشتری تحمیل نخواهد کرد. نتایج ارزیابی نشان می دهد که افزایش زمان پرس وجو با استفاده از رویکرد پیشنهادی مبتنی بر منطق فازی نسبت به زمان پرس وجو با زبان Cypher، با در نظر گرفتن پیچیدگی بیشتر مفاهیم فازی قابل قبول می باشد؛ در نتیجه راهکار پیشنهادی گزینه مناسبی برای بهره گیری پرس وجوهای مبهم درون پایگاه داده های بزرگ خواهد بود. 

    کلیدواژگان: پایگاه داده گراف NoSQ، Neo4j، پرس وجوهای فازی، غیرفازی سازی، روش مرکز ثقل
  • فرشته احمدی، آزاده محبی*، لیلا نامداریان صفحات 485-518

    امروزه یکی از مسائل مهم در کسب وکارهای بنگاه 2.0 ، چگونگی بهره برداری هدفمند و نظام مند از دانش های نوآورانه کاربران و مشتریان و دستیابی به سودمندی از طریق ورود این دانش در فرآیندهای سازمانی است. بهره گیری از رویکرد نوآوری باز که سبب بهبود جریان های دانشی بنگاه ها می شود می تواند به تحقق این امر کمک کند. با این وجود، تا به امروز یک معماری مدیریت دانش مشخص برای مدیریت جریان دانش مبتنی بر رویکرد نوآوری باز، در بنگاه 2.0 ارائه نشده است. در این پژوهش، یک معماری جدید برای مدیریت دانش در بنگاه 2.0 پیشنهاد شده که از رویکرد نوآوری باز بهره گرفته شده است. برای پیشنهاد این معماری از روش کیفی نظریه داده بنیاد با تاکید بر تحلیل محتوای اسناد و متون استفاده شده است. نتایج تحلیل محتوی نشان داده است که نقطه اشتراک مدیریت دانش، بنگاه 2.0 و نوآوری باز، مدیریت جریان دانش است. بر همین اساس، با استفاده از  خصیصه های جریان دانش ورودی و خروجی، یک معماری مدیریت دانش پنج لایه ای با هفده مولفه پیشنهاد شده است. این لایه ها عبارتند از لایه منطق کسب وکار، ارائه و رابط، فرایند و جریان دانش، زیرساخت و زمینه.  در معماری پیشنهادی، هر یک از این لایه ها دارای مولفه هایی هستند که با یکدیگر و برخی از مولفه های سایر لایه ها در ارتباط هستند. معماری پیشنهادی با دو نمونه اصلی مشابه در مطالعات پیشین نیز مقایسه شده است.

    کلیدواژگان: معماری مدیریت دانش، جریان دانش، بنگاه 2، 0، نوآوری باز، نظریه داده بنیاد
  • نسیبه پوطی*، محمدرضا تقوا صفحات 519-552

    برنامه ریزی راهبردی در حوزه فناوری اطلاعات، یکی از دغدغه های سازمانهای امروزی است. هدف این تحقیق بررسی بلوغ فناوری اطلاعات در راستای تدوین برنامه راهبردی فناوری اطلاعات در شرکت توزیع نیروی برق استان کرمانشاه است. براساس دیدگاه مشترک در تمامی مدلهای برنامه ریزی راهبردی، یکی از مراحل مهم، تعیین وضعیت موجود سازمان در حوزه موردنظر می باشد. با توجه به ابلاغ اسناد بالادستی مانند سند چشم انداز فناوری اطلاعات توانیر و سند دولت الکترونیک که برای شرکت توزیع  نیروی برق لازم الاجرا هستند و همچنین رویکرد مبتنی بر حاکمیت فناوری اطلاعات در این اسناد، از همین رویکرد در حوزه خدمات، به عنوان چشم انداز شرکت توزیع نیروی برق استان کرمانشاه استفاده شده است. براساس چشم انداز تعیین شده، از روش های مدل بلوغ توانمندی یکپارچه و به روش های کتابخانه زیرساخت فناوری اطلاعات برای بررسی وضعیت جاری در حوزه فناوری اطلاعات استفاده شده است. برای دستیابی به هدف این مقاله، 4 فاز در نظر گرفته شده است: در فاز اول که همان فاز شناخت می باشد، فرآیندهای کسب و کار شناسایی می شوند. فاز دوم تطبیق فرآیندهای کسب و کار با فرآیندهای استاندارد کتابخانه زیرساخت فناوری اطلاعات است. برای این منظور، ابتدا فرآیندهای کسب و کار از دیدگاه معماری اطلاعاتی مورد بررسی قرار گرفت و سپس با انجام مصاحبه های تخصصی براساس فرآیند، تطبیق مورد نظر انجام شد. در فاز بعد، تعیین بلوغ سازمانی با دو روش انجام می شود. در روش اول، ابتدا با استخراج ویژگی های به روش های مرتبط با هر یک از فرآیندهای کتابخانه زیرساخت فناوری اطلاعات، عبارات توصیفی به ازای هر فرآیند استخراج و در قالب 27 نوع پرسش نامه به ازای 27 فرآیند، آماده شد و جهت تکمیل به مسئولان فرآیندها تحویل شد. در روش دوم که یک پرسش نامه استاندارد برای آن وجود دارد، این پرسش نامه به ازای تمامی فرآیندها تکمیل شد. نتایج حاصل از بررسی وضعیت موجود، سطح بلوغ فرآیندها را براساس درصد نشان می دهد و قابلیت مقایسه دو روش را فراهم می سازد. به علاوه براساس تحلیل و بررسی مقایسه ای این دو روش، نقاط ضعف و قوت فرآیندهای سازمانی تطبیق یافته با فرآیندهای کتابخانه زیرساخت فناوری اطلاعات، تعیین شد و برخی توصیه و پیشنهادات برای تحقیقات آتی در این حوزه ارائه شده است. نتایج بدست آمده نشان می دهد که فرآیندهای میز خدمت، مدیریت واقعه، انجام درخواست، مدیریت پیکربندی و مدیریت پیمانکار به عنوان نقاط قوت سازمانی و فرآیندهای مدیریت تغییر، مدیریت دانش، مدیریت امنیت اطلاعات، مدیریت نشر و استقرار به عنوان نقاط ضعف سازمانی قابل بررسی می باشند و در مورد سایر فرآیندها مانند  فرآیندهای مدیریت سطح خدمت، مدیریت تقاضا، مدیریت ظرفیت روند منظمی قابل مشاهده نبود.

    کلیدواژگان: مدل بلوغ، به روش، کتابخانه زیرساخت فناوری اطلاعات، برنامه ریزی راهبردی
  • محبوبه شکوهیان، عاصفه عاصمی*، احمد شعبانی، مظفر چشمه سهرابی صفحات 553-574

    با گسترش اینترنت و رشد سریع و روزافزون مقالات الکترونیکی، دسته بندی متون به یکی از ابزارهای کلیدی و مهم برای سازماندهی و مدیریت داده تبدیل شده است. در دسته بندی متون، یک مجموعه دانش اولیه در اختیار سامانه قرار می گیرد تا با یادگیری از این مجموعه، اسناد جدید ورودی به یکی از گروه های موضوعی، ملحق گردد. در متون سلامت به علت تنوع زیاد موضوعات، آماده کردن چنین مجموعه آموزش اولیه عملی بسیار زمان بر و هزینه بر است. هدف از مقاله ارائه مدلی ترکیبی از یادگیری (با نظارت و بدون نظارت) برای دسته بندی موضوعی تولیدات علمی حوزه سلامت است که بدون نیاز به مجموعه برچسب خورده اولیه عمل دسته بندی را انجام دهد. برای استخراج مدل موضوعی متون تولیدات علمی سلامت طی سال های 2009 تا 2019 در پایگاه پابمد، با استفاده از روش آمیخته داده کاوی، شامل متن کاوی و یادگیری ماشینی انجام گرفت. بر اساس مدل موضوعی تخصیص پنهان دیریکله، دادها تحلیل و سپس برای دسته بندی متون، از مدل ماشین بردار پشتیبان استفاده شد. در یافته های این پژوهش، مدل دسته بندی متون سلامت در سه گام اصلی معرفی شد. در گام اول پیش پردازش های لازم بر روی مجموعه داده به دلیل حذف کلمات کم تکرار و غیرضروری از مجموعه داده و افزایش دقت مدل پیشنهادی انجام گرفت. در گام دوم موضوعات موجود در متون به کمک روش احتمالاتی تخصیص پنهان دیریکله استخراج و به عنوان یک مجموعه آموزش اولیه در گام سوم به الگوریتم دسته بندی ماشین بردار پشتیبان داده و عمل یادگیری دسته بند به کمک این موضوعات انجام گرفت. درنهایت به کمک دسته بند، موضوع هر سند مشخص گردید. نتایج نشان داد که مدل پیشنهادی می تواند، یک دسته بندی بهتر با استفاده از ترکیب کردن خواص بدون نظارت خوشه بندی و دانش پیشین نمونه ها بسازد. انجام دادن خوشه بندی روی نمونه های برچسب دار با یک معیار شباهت مشخص، متن های مرتبط را باهم ادغام و یک دانش پیشین ایجاد کرده، سپس الگوریتم یادگیری، دسته بندی را با روشی نظارتی آموزش می دهد. ترکیب دسته بندی و خوشه بندی می تواند دقت دسته بندی متون سلامت را افزایش دهد.

    کلیدواژگان: تولیدات علمی، دسته بندی متون، سلامت، متن کاوی، مدل تخصیص پنهان دیریکله، مدل موضوعی، ماشین بردار پشتیبان، یادگیری ماشینی
|
  • AmirHessam Radfar, Fatima Fahimnia* Pages 291-322

    Reviewing the recently published and authentic texts in the field of Library & Information Science’s education indicates some fundamental problems in this pedagogic process. According to different factors dealing with the process such as professors, learners, educational department and learning resources, confronting the challenges is considered as complex issues. Therefore, in this research Soft Systems Methodolgy (SSM) was chosen to propose a comprehensive model to solve the mentioned problems. Soft Systems Methodolgy (SSM) is one of the Action Research’s methods. In view of research approach, SSM’s considered qualitative. Based on the Checkland seven proposed stages, problem situation was identified, and then it was expressed in the form of rich picture. Driving root definitions and CATWOE model were cleared to accomplish the conceptual model. Comparison of the conceptual model to real world, also proposing feasible and desired changes are the fifth and sixth stages of the reserach. Finally, taking action to improve the current situation in the field of Library & Information Science’s education finished the procedure.  Utilizing the seven steps of SSM, this resrarch draws the rich picture illustrating the process of Library & Information Science’s education and its issues dealing with the related ecosystem. Accordingly, the final model consisting of three ontologies (learners, professors, and educational content) was attained. To validate the semantic model, Cohen’s kappa coefficient was calculated. Pertaining to the high level of agreement coefficient, 9203/., the achieved conceptual model was approved. To utilize the comprehensive model, it was implemented by Protégé4.3 software and OWL2 language.  The obtained model, approved by high level of expert agreement, not only can be an appropriate solution for the problems involved in Library & Information Science’s education in Iran, but also can be considered as a pattern for future researches in designation and implementation of semantic model of education in the other disciplines. The findings indicate that the semantic model is a complex concept including different aspects and indices which can be easily implemented and noticed by policy-makers, designers and other players in designation and assessment of teaching-learning environments.

    Keywords: Educational model based on ontology_Library & Information Science_Adaptive model_Semantic pattern of education_Semantic model of education_Semantic web technologies_Soft Systems Methodologies_Web3 technologies
  • Ali Akbari, Reza Rostami, Ali Moghimi Pages 323-348

    This study is to explore the cognitive components of therapists' information seeking behavior in the diagnosis and treatment of mental disorders. According to the high power of neuroscience tools in the analysis of immediate cognitive components, Quantitative Electroencephalography (QEEG) was used. Following, five of the therapists were selected by random sampling from a variety of researchers and entered in the research process. To gather data, some tools such as QEEG and Morae software were used. The findings showed that the brain waves of the therapists in the early stages of Kuhlthau's ISP revealed extensive cognitive activities. As the therapists moved on to the final stages of Kuhlthau's ISP, these cognitive activities diminished and the brain emotions overcame. Based on the findings, the best step for librarian intervention to guide and assist clinicians was the stage 3 of Kuhlthau’s ISP. Also, the findings indicated that the therapists’ information seeking behavior in the cognitive actions section was similar to the Kuhlthau's ISP Model. Finally, it can be concluded that based on modern neuroscience and information technology tools, one can provide a better understanding of the up-to-the-minute process of therapists' information seeking behavior, and due to smart and personalized systems , provide at the right moment, the appropriate information to the users. This evolution can be a major step in promoting information seeking behavior and advancing in the user information needs momently.

    Keywords: Information Behavior, Neuroscience, Brain Mapping, Quantitative Electroencephalography (QEEG), Diagnosis, Treatment, Cognitive Components
  • Hamideh Jafari Powersy, Nadjla Hariri*, Mehdi Alipour Hafezi, Maryam Khademi Pages 349-374

    The compatibility of classification codes and indexing terms done from a codified thesaurus with words and phrases that are automatically extracted using machine indexing. In designing an outo-indexing system, the computer completely replaces humans. The purpose of this research was to identify and extracting keywords and the subject trends of articles in the field of information retrieval and the subject's specificity of the author of each article by using the text mining and categorizing (classifying) with the help of concurrence vocabularies.The method of this research is applied and based on the CRISP model of data mining and text mining algorithms are used. The research community has 313 articles has in the field of information retrieval indexed at Noormags database. After normalizing the text of with the Virastyar software, during the text mining of the articles with the 7.1 version of the RapidMiner software, the keywords are extracted by their weight and the data are categorized using two classical classification algorithms, namely, KNN and Naïve Bayse were analyzed. In this study, the computer automatically indexed the readable machine text by using the frequency of the words with the help of the text mining tools of RapidMiner software. For this purpose, we use N-gram operators and calculate the weight of the words according to tf-idf method, Terms and key concepts and subject and specialization of author of each article is extracted in the form of 16 categories. Finally, the superiority of the KNN model In the categorization of the core subjects of the papers, this study is proving to be 85% more accurate than the Naïve bayse model. Finding the results of calculating the accuracy of the models indicate the acceptable performance of the RapidMiner software in machine indexing of texts. Indexing texts using this method can help improve the results of information retrieval and prevent false dropping of information in databases.

    Keywords: Machine Indexing, Classifying, RapidMiner, Text Mining, Information Retrieval (IR)
  • Samira Aqaei, Mahdi Taheri*, Esmat Momeni Pages 375-398

    The present research aimed to find out the usability of non-topical terms used in indexing of Islamic sciences resources in information retrieval process. The research population, was carried out with analytical survey method, was the users of the Islamic Sciences Information Management Database, designed by Institute of Islamic Information and Document Management, a sample of 50 researchers, familiar with the Islamic Sciences Information Management Database, were selected by purposive convenience sampling method. Data gathering tools used in this study were three questionnaires developed by the researchers. These questionnaires included first, questionnaire evaluated the end users’ experience of the database, the second one was an open-ended questionnaire to get feedback from users about the retrieval process and the third one was a close-ended questionnaire related to the research hypotheses. The questionnaires validity was determined by information retrieval and storage specialists, and their reliability was confirmed by Cronbach's alpha test. Inferential statistics was applied to test the research hypotheses. Research findings indicate that using non-topical terms for expanding search query in Islamic Sciences Information Management Database led to desirable results; however, developing non-topical terms based on suggestions from end users is necessary. Findings also showed that there was a proper equivalence relationship among non-topical terms. Findings of present research indicated that paying attention to non-topical terms and using equivalence relationship between them along with applying topical terms can lead to relevant and desired results in information search and retrieval.

    Keywords: Usability, Non-topical Terms, Indexing, Information Retrieval, Islamic Sciences Resources
  • Somayeh Fatahi*, MohammadJavad Ershadi Pages 399-424

    The increasing growth of web usage has made the importance of search engines and their quality assessment more responsive to users' needs. One of the approaches to quality assessment is user satisfaction. The use of a search engine depends on user satisfaction, which is a measure of the quality of the search engine. Many search engines have been built in Iran, as well. Some of these engines are widely used to search for information on the web, and some are found in a database Iran scientific information database (GANJ) is one of the databases that have its search engine. It contains nearly 530,000 dissertations and thesis and is one of the key scientific databases in the country with many users. Therefore, assessing the satisfaction of users of this system with its broad audience is crucial. In this research, indicators based on the EQOAL model were developed to evaluate users' satisfaction with the GANJ System. Indices developed based on the Delphi method were screened and localized to assess users' satisfaction with GANJ System. User satisfaction was also assessed using an EQual questionnaire. The results of the data analysis of the 156 questionnaires collected show that usability, information, and service interaction are the significant determinants of users' satisfaction with the treasure system, respectively. In terms of usability, the ease of working with "GANJ" is a top priority. Likewise, the ease of interaction with the system and the apparent attractiveness of the system were introduced as the main factors.

    Keywords: Iran Scientific Database, GANJ, Iran Institute of Information Science, Technology, IRANDOC, Information System, Search Engine, User Satisfaction, Quality Assessment
  • MohamadBagher Sajadi, Behrouz Minaei Bidgoli* Pages 425-461

    The knowledge graph plays an important role in the Semantic Web and Natural Language Processing (NLP) tools. There are many knowledge bases in different languages, however lack of Farsi-specific knowledge base appears some defects in research and industrial applications. In this study, the most comprehensive knowledge base in Farsi language is presented, which consists of more than 500K of entities and 7 million relations, which is accessible open source. Data is supplied 3 sources: Farsi Wikipedia and its structured data such as infobox, Web tables, relation extraction module. According to the semantic web, RDF data model and OWL2 ontology employed to implement the Farsi Knowledge Graph (FKG). Resources and their relations are stored in triple format, therefor access to the knowledge graph is provided by a SPARQL endpoint. An ontology, retrieved from DBpedia ontology, was developed and improved Based on resources of Farsi Wikipedia. Also, more than 8000 templates and properties of Wikipedia were mapped to the ontology automatically and manually. Furthermore, a part of the ontology was mapped to the FarsNet, the Persian WordNet, for research purposes. In the graph, there are a large amount of information on a variety of topics including famous people, important places, organizations and companies, literary and art works, physiology, biology, events, species, astronomy, etc. According to the Linked data, most of entities in the FKG have been connected to DBpedia and Wikidata resources by owl:sameAs. In order to achieve high performance and flexible data model, a two-level architecture for storing data was designed to separate data from metadata. This design plays a key role in update operation and managing versions. For evaluation purposes, a small part of triples were randomly collected to build a test dataset for manually inspection. Experimental results demonstrate that more than 94% of triples were obtained correctly through the process of extraction, conversion, mapping, transformation and store. Future of internet according to the semantic web will be a complex and huge global knowledge base, therefor the FKG can play a significant role in defining and developing this emerging technology.

    Keywords: Knowledge Base, RDF, Semantic Web, Farsi Language, Linked Data
  • Zahra Ahmadi, Farzam Matinfar*, Fereshteh Azadi Parand Pages 463-484

    Today, due to the massive amount of information, NoSQL databases are used to compute complex data. These databases are used to store semi-structured and unstructured data for big data management. In this paper, fuzzy queries are executed by users on the information stored in the Neo4j graph database, which show results in defuzzy manner. To evaluate the efficiency of the proposed method, we considered a database of manufactured company, two price and quality fuzzy variable were considered and used to define and execute the fuzzy queries that the results can verify the performance of the proposed method. Additionally, a counselor (who has information about the data) defines fuzzy terms, membership functions, and fuzzy rules table. The most important process in this method is to find the center of gravity in order to defuzzify the final result. So, an algorithm has been implemented for this purpose by C # programming language. The greatest query time is due to find center of gravity. The evaluation results show that the query time increasing by using the proposed approach than the query time by using Cypher language, is acceptable due to the complexity of fuzzy concepts; therefore, the proposed solution will be suitable for using ambiguous and fuzzy queries in large databases.

    Keywords: NoSQL, Neo4j graph database, fuzzy query, defuzzification, Center of gravity
  • Fereshteh Ahmadi, Azadeh Mohebi*, Leila Namdarian Pages 485-518

    Nowadays, one of the key issues in enterprise 2.0 is how to use the innovative knowledge of users and customers systematically and purposely, and also and benefit from the knowledge sharing into organizational processes. One effective approach is to make use of an open innovation approach, leading to improvement of knowledge flows into the organization. However, to date, specific knowledge management architecture for managing such knowledge flows based on the open innovation approach has not been studied yet at enterprise 2.0. In this research a new campestral architecture is introduced for knowledge management in enterprise 2.0 that is based on open innovation approach. For this purpose, grounded theory, a qualitative inductive research has been used with emphasis on content analysis of documents and related research studies. The results of content analysis show that the key intersection between knowledge management sharing, enterprise 2.0 and open innovation is knowledge flow management. Therefore, using the characteristics of in-flow and out-flow of knowledge, a conceptual architecture composed of five different layers with seventeen components is proposed. These layers are the logic of business, interface, process and flow of knowledge, infrastructure, and context. In the proposed architecture, each layer has some components that are connected to each other and some of them are connected to the components of other layers as well. The proposed architecture is also compared with two similar architectures in this context as well.

    Keywords: Knowledge Management Architecture, Knowledge Flow, Enterprise 2.0, Open Innovation
  • Nasibeh Pouti*, MohammadReza Taghva Pages 519-552

    Strategic planning of information technology is one of the concerns for new organizations. This paper is the result of a research project in the field of IT strategic planning in Kermanshah Electric Power Distribution Company. Based on the common view of all strategic planning models, one of the important steps is to determine the status of the organization in the area in question. Given the notification of upstream documents, such as the Tavanir Information Technology perspective document and the e-government document that are necessary to implement, as well as governance approach in this documents, this approach in the service sector, has used as Kermanshah Electric Power Distribution Company vision. Based on the vision, Capability Maturity Model Integration and Information Technology Infrastructure Library best practices have been used to determine the current statues. To achieve the purpose of the article, four phases are considered: in first phase that is the same phase of recognition, business processes is recognized. The second phase is the matching of business processes with standard processes of Information Technology Infrastructure Library. For this purpose, initially, business processes were examined form the standpoint of information architecture and then the match was done by conducting specialized interview based on the process. In the next phase, organizational maturity is determined in two ways. In the first method, initially, descriptive phrases are determined by extracting the features of  ITIL best practices and delivered to process officials in the form of 27 questionnaires for 27 processes. In the second method that has the standard questionnaire, the questionnaire is completed for all of ITIL process. The results of examining the existing situation using best practices as well as standard processes of maturity model indicate the maturity level of the processes based on the percentage and provides the ability to compare the two methods. In addition, based on a comparative analysis of these two methods, the weaknesses and strengths of the organizational processes adapted to the processes of the Information Technology Infrastructure Library were determined, and some recommendations and suggestions for future research in this area were presented. The results show that service desk, event management, request fulfilment, configuration management, and contractor management processes as organizational strengths and change management, knowledge management, information security management, release and deployment management processes as organizational weaknesses issues can be investigated and were not regularly seen in other processes such as service level management, demand management, capacity management.

    Keywords: Maturity Model, Best Practices, Information Technology Infrastructure Library, Strategic Planning
  • Mahboobeh Shokouhian, Asefe Asemi*, Ahmad Shabani, Mozaffar Cheshmesohrabi Pages 553-574

    With the proliferation of the Internet and the rapid growth of electronic articles, text categorization has become one of the key and important tools for data organization and management. In the text categorization, a set of basic knowledge is provided to the system by learning from this set, the new input documents into one of the subject groups. In health literatures due to the wide variety of topics, preparing such a set of early education is a very time consuming and costly task. The purpose of this article is to present a hybrid model of learning (supervised and unsupervised) for the subject classification of health scientific products that performs the classification operation without the need for an initial labeled set. To extract the thematic model of health science texts from 2009 to 2019 at PubMed database, data mining and text mining were performed using machine learning. Based on Latent Dirichlet Allocation model, the data were analyzed and then the Support Vector Machine was used to classify the texts. In the findings of this study, model was introduced in three main steps. In the first step, the necessary preprocessing was done on the dataset due to the elimination of unnecessary and unnecessary words from the dataset and increasing the accuracy of the proposed model. In the second step, the themes in the texts were extracted using the Latent Dirichlet Allocation method, and as a basic training set in step 3, the data were backed up by the Support Vector Machine algorithm and the classifier learning was performed with the help of these topics. Finally, with the help of the categorization, the subject of each document was identified. The results showed that the proposed model can build a better classification by combining unsupervised clustering properties and prior knowledge of the samples. Clustering on labeled samples with a specific similarity criterion merges related texts with prior knowledge, then the learning algorithm teaches classification by supervisory method. Combining categorization and clustering can increase the accuracy of categorization of health texts.

    Keywords: Scientific Productions, Text Classification, Health, Text Mining, Latent Dirichlet Allocation Model, Thematic Model, Support Vector Machine, Machine Learning