به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه « ontology » در نشریات گروه « برق »

تکرار جستجوی کلیدواژه «ontology» در نشریات گروه «فنی و مهندسی»
  • پیام بحرانی، بهروز مینایی بیدگلی، حمید پروین*، میترا میرزارضایی، احمد کشاورز

    سامانه های پیشنهادگر سامانه هایی هستند که در گذر زمان یاد می گیرند که هر فرد یا مشتری احتمالا چه کالا یا قلمی را می پسندد و آن را به او پیشنهاد می دهند. این سامانه ها اغلب بر اساس رفتارهای مشابه از دیگر افراد (احتمالا مشابه) عمل می کنند. به طور کلی یافتن افراد مشابه، به علت زیاد بودن کاربران، فرایندی بسیار زمان بر و به علت کمبود اطلاعات، نادقیق است. به همین دلیل برخی از روش ها، رو به افزایش سرعت آورده اند. از طرفی، برخی از روش های دیگر، رو به افزودن اطلاعات اضافه آورده تا در گذر این اطلاعات بتوانند دقت یافتن کاربران مشابه یا همسایه را افزایش دهند. برخی دیگر نیز، به روش های ترکیبی رو آورده اند. اخیرا محققان با به کارگیری روش های خوشه بندی پایه که بر اساس یافتن شبیه ترین کاربران همسایه با کمک خوشه بندی کاربران می باشد، و همچنین استفاده از روش های محتوا پایه و بعضا اضافه نمودن هستان شناسی به روش های محتوا پایه توانسته اند با بهره گیری از مزایای این روش ها، برخی از چالش های فوق را تا حد قابل قبولی حل نمایند. در سامانه پیشنهادگر ترکیبی پیشنهادی، از یک سامانه دو مرحله ای استفاده کرده ایم که در مرحله اول، دو مدل پیش بینی های خود را انجام داده، سپس در مرحله دوم به وسیله یک مولفه ترکیب گر، نتایج دو بخش مرحله اول با یکدیگر ترکیب شده و نتایج به دست آمده را به عنوان نتایج نهایی سامانه به ما ارایه می دهد. در بخش اول، یک سامانه مبتنی بر پر کردن مقادیر گم شده، مقادیر خالی در ماتریس امتیازدهی را پر می کند. برای این مهم، از بین روش های پرکردن داده های گم شده، یک روش که با پرکردن مجموعه داده در شرایط بسیار تنک سازگار بود را طراحی کرده و سپس آن را به روش خودمان تعمیم داده ایم. در این راستا یک روش مبتنی بر خوشه بندی فاصله گری ارایه کرده ایم. در بخش دوم که خود یک سامانه پیشنهادگر ترکیبی هستان شناسی پایه می باشد، ابتدا به کمک یک خزنده وب، اطلاعات هر قلم را استخراج کرده، سپس در یک هستان شناسی پایه به کمک یک روش پیشنهادی، اقدام به بهبود ساختار هستان شناسی به وسیله حذف یال های همسان می نماییم. بدین ترتیب دقت اندازه گیری شباهت معنایی بین اقلام و کاربران در مراحل بعدی افزایش یافته و میزان اثربخشی پیشنهادات ارایه شده به طور با معنایی بهبود می یابد. شایان ذکر است این هستان شناسی یک هستان شناسی جامع نیست. درنهایت به کمک یک روش اندازه گیری شباهت ابتکاری هستان شناسی پایه، مشابهت قلم-قلم ها، کاربر-کاربرها، و کاربر-قلم ها را اندازه گیری می کنیم. به کمک این ماتریس مشابهت، کاربرها و قلم ها را خوشه بندی کرده و سپس برای هر کاربر، کاربرها و قلم های شبیه به آن را به عنوان یک ویژگی جدید در پروفایل کاربر ذخیره می نماییم. این کار به ما کمک می کند که در آینده، سرعت یافتن کاربرهای مشابه و قلم های مشابه را بالا ببریم. در حقیقت بر اساس این ویژگی، سرعت کل کار را افزایش داده ایم. از آنجایی که ما هدف خود را ساختن سامانه ای که یک موازنه بین دو معیار دقت و سرعت را برقرار کند قرار داده ایم، با استفاده از یک مجموعه داده واقعی، از این دو معیار جهت ارزیابی سامانه پیشنهادی استفاده می کنیم. نتایج مقایسه ی روش پیشنهادی ما با برخی روش های مشابه به روز ارایه شده در این حوزه (با استفاده از یک مجموعه داده یکسان) حاکی از آن است که روش ما از روش های سریع، کندتر است، اما از آنها دقیق تر می باشد. همچنین این نتایج بیانگر این موضوع است که روش پیشنهادی از روش های دقیق، سریع تر و کیفیت آن نیز قابل رقابت و یا حتی بهتر است.

    کلید واژگان: سامانه پیشنهادگر, هستان شناسی, پالایش حافظه پایه, پالایش مدل پایه, خوشه بندی, k-NN}
    Payam Bahrani, Behrouz Minaei Bidgoli, Hamid Parvin*, Mitra Mirzarzaei, Ahmed Keshavarz

    Recommender systems are systems that, over time, learn what product(s) or item(s) each person or customer is (are) likely to like and recommend it (them) to him/her. These systems often operate based on similar behaviors from other (possibly similar) people. Finding similar people is generally a highly time-consuming process due to the large number of users and inaccurate due to the lack of information. For this reason, some methods have resorted to increasing speed. On the other hand, some other methods have added additional information so that they can increase the accuracy of finding similar or neighboring users. Some others have resorted to hybrid methods. Recently, by the use of basic clustering methods, which is based on finding the most similar neighbors with the help of users’ clustering, as well as by using basic content analysis methods and sometimes adding ontology to these methods, researchers have been able to take the advantage of these methods in order to solve some of the above challenges acceptably. In the proposed hybrid recommender system, we have used a two-stage system in which, in the first stage, two models of predictions are made, then in the second stage, by a combining component, the results of the first two parts are combined and the obtained results are given to us as the final results of the system. In the first part, a system based on imputation of missing values fills in the blanks in the scoring matrix. For this end, among the methods of the missing data imputation, we designed a method that was compatible with filling the data set in very sparse conditions, and then generalized it to our own method. In this regard, we have proposed a method based on the grey distance clustering. In the second part, which itself is a hybrid ontology-based recommender system, we first extract the information of each item with the help of a web crawler, then based on a basic article, we produce our own limited ontology, and after that we apply our proposed method. Then, with the help of a proposed method, we improve the ontology structure, thus increasing the accuracy of measuring semantic similarity between the items and users in later stages, and significantly improving the effectiveness of the created recommendations. It should be noted that this ontology is not comprehensive. Finally, we measure the similarity of item-items, user-users, and user-items using an innovative basic ontology similarity measurement method. By the use of this similarity matrix, we cluster users and items, and then store similar users and items as a new feature in the user/item profile for each user/item. This will help us speed up the process of looking for similar users and similar items in the future. In fact, based on this feature, we have increased the speed of the whole work. Since we have set our goal to build a system that makes a balance between the two criteria of accuracy and speed, we use these two criteria to evaluate the proposed system using a real data set. The results of comparing our proposed method with some up-to-date similar methods presented in this field (using the same data set) implies that our method is slower than fast methods, although it is more accurate than them. These results also suggest that the proposed method is faster than accurate methods and its quality is more competitive or even better than them.

    Keywords: Recommender System, Ontology, Memory-based Filtering, Model-based Filtering, Clustering, k-NN}
  • نظرمحمد پارسا، آسیه قنبرپور

    در سال های اخیر، هستان شناسی ها به عنوان یکی از مهم ترین مولفه های وب معنایی در حوزه های گوناگون گسترش یافته اند. مسیله تطبیق هستان شناسی با هدف ایجاد مجموعه ای از نگاشت ها بین موجودیت های هستان شناسی ها مطرح گردیده است. این مسیله جزو مسایل -NPسخت طبقه بندی شده است؛ از این رو روش های حریصانه برای حل آن پیشنهاد گردیده و از جنبه های مختلف به حل آن پرداخته اند. استفاده از معیارهای شباهت لغوی، ساختاری و معنایی مناسب و بهره گیری از یک روش ترکیب موثر برای حصول نگاشت نهایی از مهم ترین چالش های این روش ها محسوب می شود. در این مقاله، یک روش خودکار تطبیق هستان شناسی ها به منظور ارایه یک مجموعه نگاشت یک به یک پیشنهاد شده است. این روش بر اساس یک معیار جدید شباهت واژگانی منطبق با ذات توصیفی موجودیت ها و ترکیب این شباهت با شباهت معنایی به دست آمده از منابع معنایی خارجی، به تشخیص نگاشت های اولیه می پردازد. با انتشار محلی امتیاز نگاشت های اولیه در گراف سلسله مراتبی کلاسی، موجودیت های منطبق ساختاری شناسایی می شوند. در این روش تطبیق خصیصه ها در مرحله ای مجزا مورد بررسی قرار می گیرد. در مرحله نهایی، فیلتر نگاشت ها به منظور حفظ سازگاری مجموعه نگاشت نهایی اعمال می شود. در بخش ارزیابی، مقایسه عملکرد معیار شباهت واژگانی نسبت به سایر معیارهای شباهت متنی مطرح، حاکی از کارایی این معیار در مسیله تطبیق هستان شناسی ها است. علاوه بر این، نتایج سیستم تطبیق پیشنهادی در مقایسه با نتایج مجموعه سیستم های شرکت کننده در مسابقات OAEI، این سیستم را در رتبه دوم و بالاتر از بسیاری از سیستم های تطبیق پیچیده قرار می دهد.

    کلید واژگان: وب معنایی, هستان شناسی, نگاشت, خصیصه, تطبیق}
    NazarMohammad Parsa, Asieh Ghanbarpour

    In recent years, ontologies, as one of the most important components of the semantic web, have expanded in various fields. The problem of ontology matching has been raised with the aim of creating a set of mappings between entities of ontologies. This problem is classified as an NP-hard problem. Therefore, greedy methods have been proposed to solve it in different ways. Selecting the appropriate lexical, structural and semantic similarity criteria and using an effective combination method to obtain the final mapping is one of the most important challenges of these methods. In this paper, an automatic method of matching ontologies is proposed to provide a one-to-one mapping set. This method detects primary mappings based on a new lexical similarity criterion, which is accordance with the descriptive essence of entities and combining this similarity with semantic similarity obtained from external semantic sources. By locally propagating the score of initial mappings in the class hierarchy graph, structurally matching entities are identified. In this method, property matching is examined in a separate step. In the final step, the mapping filter is applied in order to maintain the consistency of the final mapping set. In the evaluation section, comparing the performance of the lexical similarity measure compared to other proposed textual similarity measures, indicates the efficiency of this measure in the problem of ontology matching. In addition, the results of the proposed matching system compared to the results of the set of participating systems in the OAEI competitions shows this system in the second place and higher than many complex matching systems.

    Keywords: Semantic web, ontology, mapping, property, matching}
  • Maryam Hourali*, Mansoureh Hourali

    Today we live in a period that is known to an area of communication. By increasing the information on the internet, the extra news are published on news agencies websites or other resources, the users are confused more with the problems of finding their desired information and related news. Among these are recommended systems they can automatically finding the news and information of their favorite’s users and suggesting to them too. This article attempts to improve the user’s interests and user’s satisfactions by refining the content based recommendation system to suggest better sources to their users. A clustering approach has been used to carry out this improvement. An attempt has been made to define a cluster threshold for clustering the same news and information in the K-means clustering algorithm. By detecting best resemblance criterion value and using an external knowledge base (ontology), we could generalize words into a set of related words (instead of using them alone). This approach is promoted the accuracy of news clustering and use the provided cluster to find user’s favorite news and also could have suggest the news to the user. Since the dataset has an important and influential role in advisory recommended systems, the standard Persian dataset is not provided and not published yet. In this research, an attempted has been made to connect and publish the dataset to finish the effect of this vacuum. The data are collected and crawl 8 periods of days from the Tabnak news agency website. The profile of each volunteers has been created and also saved at the same time as they read the favorite news on that period of time. An analysis shows that the proposed clustering approach provided by the NMI criterion has reached 70.2%  on our the dataset. Also, using the suggested clustering recommendation system yield 89.2% performance based on the accuracy criterion, which shows an improvement of 8.5% in a standardized way.

    Keywords: Recommender system, Persian news, Hierarchical clustering, Ontology}
  • حجت امامی*

    استخراج اطلاعات ساختاریافته از متون وب یکی از وظایف اصلی در حوزه وب کاوی، پردازش زبان طبیعی و استخراج اطلاعات است. در سال های اخیر، روش های مختلفی برای استخراج اطلاعات ساختاریافته از متون انگلیسی وب ارایه شده است. اغلب روش های موجود برای استخراج اطلاعات در مورد انواع موجودیت ها، به یک آنتولوژی از پیش تعریف شده نیاز دارند که شامل دانش کامل در مورد موجودیت ها و خصلت های آن ها است. مشکل اصلی این روش ها عدم توانایی آن ها در استخراج اطلاعات موجودیت هایی است که مشخصات آن ها از قبل در آنتولوژی تعریف نشده اند. در این پژوهش، روش جدیدی برای استخراج خودکار اطلاعات ساختاریافته محدود به دامنه از متون فارسی صفحات وب ارایه شده است که نیازی به دانش پیش زمینه در مورد موجودیت ها و خصلت های آن ها ندارد. روش پیشنهادی شامل سه مولفه پیش پردازش، تحلیل معنایی و نگاشت قاب است. تمرکز اصلی روش پیشنهادی به افزودن اطلاعات معنایی به گزاره های مسند آرگومان و استخراج اطلاعات معنادار و محدود به دامنه از گزاره ها معطوف شده است. اطلاعات استخراج شده در این روش، هم ساختاریافته بوده و هم به مدخل های آنتولوژی عمومی DBPedia نگاشت شده اند، به نحوی که پردازش آن ها به وسیله ماشین به سهولت انجام می شود. برای ارزیابی روش پیشنهادی، یک مجموعه داده کوچک در زبان فارسی ایجاد شده است و روش پیشنهادی و سایر روش ها بر روی این مجموعه داده مورد ارزیابی قرار گرفته اند. نتایج آزمایش ها برتری روش پیشنهادی را در مقایسه با سایر روش ها برحسب برخی از معیارهای کارایی نشان می دهد.

    کلید واژگان: وب کاوی, استخراج اطلاعات, پردازش زبان طبیعی, آنتولوژی, اطلاعات ساختاریافته محدود به دامنه}
    Hojjat Emami*

    Extracting structured information about entities from web texts is an important task in web mining, natural language processing, and information extraction. Information extraction is useful in many applications including search engines, question-answering systems, recommender systems, machine translation, and etc. An information extraction system aims to identify the entities from the text and extract their related information to form a profile of the target entity. In recent years, several methods have been proposed for extracting structured information from web text. The majority of existing methods for extracting entity-centric information require a predefined ontology. The ontology includes the complete knowledge of the entities and their attributes. The main challenge of these methods is their inability to extract information about entities that are not already defined in the ontology. Besides, the existing methods have ignored semantic information extraction and have not linked the extracted information to the general ontology entries. This highlights that introducing new methods for semantic information extraction is an open problem and there is room for more efforts in this field. As an element of research, we proposed a new method for the automatic extraction of semantically structured information from Farsi web text. The proposed method does not require background knowledge about the entities and their properties. The proposed method consists of three main phases including pre-processing, semantic analysis and frame extraction. To fulfill these phases, we use a combination of language resources, text processing tools, and distant ontologies. The main focuses of the proposed method are to enrich the predicate-argument frames with the semantic information extracted from distant ontologies, extract the entity-related information from predicate-argument frames, and link the extracted information with their corresponding sense in DBPedia ontology. The issue facilitates the processing of Farsi texts by computers. To evaluate the proposed method, we created a small Farsi dataset containing 100 complete sentences. Then, the proposed method is compared with three information extraction methods on this dataset. The results of experiments show the superiority of the proposed method compared to counterpart methods in terms of precision and F1 measures.

    Keywords: Web mining, information extraction, natural language processing, ontology, structured-semantic information}
  • پیام بحرانی، بهروز مینایی بیدگلی، حمید پروین*، میترا میرزارضایی، احمد کشاورز

    انتظار می رود سامانه های پیشنهاد گر (RS) قلم های دقیق را به مصرف کنندگان پیشنهاد دهند. شروع سرد مهم ترین چالش در RSها است. RSهای ترکیبی اخیر، دو مدل پالایش محتوا پایه  (ConF)و پالایش مشارکتی (ColF) را با هم ترکیب می کنند. در این پژوهش، یک RS ترکیبی مبتنی بر هستان شناسی معرفی می شود که در آن هستان شناسی در بخش ConF به کار رفته است، این در حالی است که ساختار هستان شناسی توسط بخش ColF بهبود داده می شود. در این مقاله، رویکرد ترکیبی جدیدی مبتنی بر ترکیب شباهت جمعیت شناختی و شباهت کسینوسی بین کاربران به منظور حل مشکل شروع سرد از نوع کاربر جدید، ارایه شده است. همچنین، رویکرد جدیدی مبتنی بر ترکیب شباهت هستان شناسی و شباهت کسینوسی بین اقلام به منظور حل مساله شروع سرد از نوع قلم جدید، ارایه شده است. ایده اصلی روش پیشنهادی، گسترش پروفایل های کاربر/ قلم بر اساس سازوکارهای مختلف برای ایجاد پروفایل با عملکرد بالاتر برای کاربران/قلم ها است. روش پیشنهادی در یک مجموعه داده واقعی ارزیابی شده است و آزمایش ها نشان می دهند که روش پیشنهادی در مقایسه با روش های پیشرفتهRS ، به خصوص در مواجهه با مساله شروع سرد، عملکرد بهتری دارد.

    کلید واژگان: سامانه پیشنهاد گر, هستان شناسی, توسعه پروفایل, سامانه پیشنهاد گر ترکیبی}
    Payam Bahrani, Behrouz Minaei Bidgoli, Hamid Parvin*, Mitra Mirzarezaee, Ahmad Keshavarz

    Recommender systems that predict user ratings for a set of items are known as subset of information filtration systems. They help users find their favorite items from thousands of available items. One of the most important and challenging problems that recommendation systems suffer from is the problem of dispersion. This means that due to the scatter of data in the system, they are not able to find popular items with the desired reliability and accuracy. This is especially true when there are a large number of items and users in the system and the filled ratings are low. Another challenging problem that these systems suffer from is their scalability. One of the major problems with these systems is the cold start. This problem occurs due to the small number of items rated by the user, i.e. the scatter of users. This problem is divided into two categories: new user and new item. The main focus of this article is on the problem of the new user type. This problem occurs when a new user has just logged in and has not rated any item yet, or when the user has already logged in but has been less active in rating. The goal is to address these three challenges. In this study, an ontology-based hybrid recommender system is introduced in which ontology is used in the content-based filtering section, while the ontology structure is improved by the collaborative filtering section. In this paper, a new hybrid approach based on combining demographic similarity and cosine similarity between users is presented in order to solve the cold start problem of the new user type. Also, a new approach based on combining ontological similarity and cosine similarity between items is proposed to solve the cold start problem of the new item type. The main idea of the proposed method is to extend users’/items’ profiles based on different mechanisms to create higher-performance profiles for users/items. The proposed method is evaluated in a real data set, and experiments show that the proposed method performs better than the advanced recommender system methods, especially in the case of cold start.

    Keywords: Recommender System, Ontology, Profile Expansion, Hybrid Recommender System}
  • پیام بحرانی، بهروز مینایی بیدگلی، حمید پروین*، میترا میرزارضایی، احمد کشاورز

    سامانه های پیشنهادگر در زمینه تجارت الکترونیک شناخته شده هستند. از این گونه سیستم ها انتظار می رود که کالاها و اقلام مهمی (از جمله موسیقی و فیلم) را به مشتریان پیشنهاد دهند. در سامانه های پیشنهادگر سنتی از جمله روش های پالایش محتوا پایه و پالایش مشارکتی، چالش ها و مشکلات مهمی از جمله شروع سرد، مقیاس پذیری و پراکندگی داده ها وجود دارد. اخیرا به کارگیری روش های ترکیبی توانسته با بهره گیری از مزایای این روش ها با هم، برخی از این چالش ها را تا حد قابل قبولی حل نمایند. در این مقاله سعی می شود روشی برای پیشنهاد ارایه شود که ترکیبی از دو روش پالایش محتوا پایه و پالایش مشارکتی (شامل دو رویکرد حافظه پایه و مدل پایه) باشد. روش پالایش مشارکتی حافظه پایه، دقت بالایی دارد، اما از مقیاس پذیری کمی برخوردار است. در مقابل، رویکرد مدل پایه دارای دقت کمی در ارایه پیشنهاد به کاربران بوده اما مقیاس پذیری بالایی از خود نشان می دهد. در این مقاله سامانه پیشنهادگر ترکیبی مبتنی بر هستان شناسی ارایه شده که از مزایای هر دو روش بهره برده و  براساس رتبه بندی های واقعی، مورد ارزیابی قرار می گیرد. هستان شناسی، توصیفی واضح و رسمی برای تعریف یک پایگاه دانش شامل مفاهیم (کلاس ها) در حوزه موضوعی، نقش ها (رابط ها) بین نمونه های مفاهیم، محدودیت های مربوط به رابطه ها، همراه با یک مجموعه از عناصر و اعضا (یا نمونه ها) است که یک پایگاه دانش را تعریف می کند. هستان شناسی در بخش پالایش محتوا پایه مورد استفاده قرار می گیرد و ساختار هستان شناسی توسط تکنیک های پالایش مشارکتی بهبود می یابد. در روش ارایه شده در این پژوهش، عملکرد سیستم پیشنهادی بهتر از عملکرد پالایش محتوا پایه و مشارکتی است. روش پیشنهادی با استفاده از یک مجموعه داده واقعی ارزیابی شده است و نتایج آزمایش ها نشان می دهد روش مذکور کارایی بهتری دارد. همچنین با توجه به راه کارهای ارایه شده در مقاله حاضر، مشخص شد، روش پیشنهادی دقت و مقیاس پذیری مناسبی نسبت به سامانه های پیشنهادگری دارد که صرفا حافظه پایه (KNN) و یا مدل پایه هستند.

    کلید واژگان: سامانه پیشنهادگر, هستان شناسی, پالایش حافظه پایه, پالایش مدل پایه, خوشه بندی, KNN}
    Behrouz Minaei, Hamid Parvin*, Mitra Mirzarezaee, Ahmad Keshavarz

    The recommender systems are models that are to predict the potential interests of users among a number of items. These systems are widespread and they have many applications in real-world. These systems are generally based on one of two structural types: collaborative filtering and content filtering. There are some systems which are based on both of them. These systems are named hybrid recommender systems. Recently, many researchers have proved that using content models along with these systems can improve the efficacy of hybrid recommender systems. In this paper, we propose to use a new hybrid recommender system where we use a WordNet to improve its performance. This WordNet is also automatically generated and improved during its generation. Our ontology creates a knowledge base of concepts and their relations. This WordNet is used in the content collaborator section in our hybrid recommender system. We improve our ontological structure via a content filtering technique. Our method also benefits from a clustering task in its collaborative section. Indeed, we use a passive clustering task to improve the time complexity of our hybrid recommender system. Although this is a hybrid method, it consists of two separate sections. These two sections work together during learning. Our hybrid recommender system incorporates a basic memory-based approach and a basic model-based approach in such a way that it is as accurate as a memory-based approach and as scalable as a model-based approach. Our hybrid recommender system is assessed by a well-known data set. The empirical results indicate that our hybrid recommender system is superior to the state of the art methods. Also, our hybrid recommender system is more accurate and scalable compared to the recommender systems, which are simply memory-based (KNN) or basic model-based. The empirical results also confirm that our hybrid recommender system is superior to the state of the art methods in terms of the consumed time. While this method is more accurate than model-based methods, it is also faster than memory-based methods. However, this method is not much weaker in terms of accuracy than memory-based methods, and not much weaker in terms of speed than model-based methods.

    Keywords: Recommender System, Ontology, Memory-based Filtering, Model-based Filtering, Clustering, KNN}
  • علی جبار رشیدی*، سعدالله سبحانی

    کاربردهای متنوع و تاثیرات گسترده فضای سایبر در اکثر حوزه های کاربردی نظامی و غیرنظامی، باعث رشد سریع داده ها، اطلاعات، دانش، فناوری، روش ها، ابزارها و سامانه های سایبری شده است. یکی از نیازهای مهم و راهبردی در چرخه فرماندهی و کنترل در حوزه سایبری، قابلیت استخراج، پردازش، ادغام و تحلیل داده ها و اطلاعات از منابع گوناگون برای رسیدن به آگاهی وضعیتی مطلوب از محیط عملیات سایبری می باشد. با توجه به جنبه های گوناگون این مسیله، استفاده از داده های نرم یعنی داده ها و اطلاعات قابل ارایه توسط منابع انسانی در کنار داده های سخت یعنی داده ها و اطلاعات منابع ماشینی، می تواند در رسیدن به تشخیص و تصمیم دقیق تر و مطمین تر کمک کند. از اصلی ترین موضوعات تحقیقاتی در این مسیله، طراحی مدل مفهومی و فرآیند پردازشی مناسب برای تحلیل و استنتاج مبتنی بر داده و اطلاعات با امکان مرتبط سازی اطلاعات متنوع از منابع گوناگون با یکدیگر و مدل سازی انواع عدم قطعیت در داده های سخت و نرم و ادغام این داده ها است.در این مقاله یک رویکرد مبتنی بر هستان شناسی برای پردازش و ادغام داده های سخت و نرم در فرماندهی و کنترل سایبری ارایه شده است که در آن به جنبه های مختلف این مسئله شامل معماری و مدل فرآیندی پردازش و استنتاج اطلاعات مبتنی بر هستان شناسی، روش بازنمایی عدم قطعیت و قابلیت اعتماد در داده های سخت و نرم و ادغام این داده ها، تبدیل باورها به احتمالات برای امکان تصمیم گیری روی فرضیه های مورد بررسی، طراحی مدل هستان شناسی برای اهداف فرماندهی و کنترل سایبری، و طراحی و پیاده سازی منطق استنتاج و ادغام اطلاعات مبتنی بر هستان شناسی پرداخته شده است. نتایج به کارگیری مدل پیشنهادی در یک سناریوی نمونه از فرماندهی و کنترل سایبری، عملیاتی بودن آن را در ادغام داده های سخت و نرم سایبری نشان می دهد. علاوه بر قابلیت مناسب برای استنتاج و ادغام، یکی از ویژگی های قابل توجه رویکرد پیشنهادی، قابلیت توسعه و مقیاس پذیری آن برای تطبیق با گسترش های جدید در ابزارها و نیازمندی های فضای فرماندهی و کنترل سایبری است.

    کلید واژگان: ادغام اطلاعات سخت و نرم, استنتاج مبتنی بر قاعده, عدم قطعیت, فرماندهی و کنترل سایبری, هستان شناسی}
    Ali Jabar Rashidi*, Sadollah Sobhani

    The diverse applications and widespread effects of cyberspace in most military and civilian applications have led to the rapid growth of data, information, knowledge, technology, methods, tools, and cyber systems. One of the important and strategic requirements in the cyber command and control cycle is the capability to extract, process, fusion and analyze data and information from various sources to achieve the desired situational awareness of the cyberspace and cyber operations environment. Considering the various aspects of this issue, the use of soft data, ie data and information from human resources, along with hard data, ie data and information of machine resources, can help in achieving more accurate and reliable recognition and decision. One of the main research topics in this area is designing a conceptual model and appropriate processing framework for analysis and inference based on data and information with the ability of linking various information from different sources with each other and modeling different types of uncertainty in hard and soft data and fusing them.This paper presents an ontology-based approach to the processing and fusion of hard and soft data in cyber command and control, in which various aspects of the issue has been addressed including ontology-based architecture and processing framework of information inference and fusion, the method of representation of uncertainty and reliability in hard and soft data and fusing these data, conversion of beliefs into probabilities to be able to make decisions on the hypotheses under consideration, designing an appropriate ontology model for cyber command and control purposes, and design and implementation of ontology-based logic of inference and fusion. The results of applying the proposed model in a typical scenario of cyber command and control show that it is operational in fusion of hard and soft cyber data. In addition to the ability of inference and fusion, one of the notable features of the proposed approach is its scalability and adaptability to new extensions in the tools and requirements of cyber command and control.

    Keywords: Hard, Soft Data Fusion, Rule-based Inference, Uncertainty, Cyber Command, Control, Ontology}
  • Leila Kord Toudeshki, MirAli Seyyedi *, Afshin Salajegheh

    The surrounding context information of business processes is unpredictable and dynamically changing over time. Therefore, they should dynamically adapt themselves to different changes in context information such as business rules or computational changes in available resources. For example, we may add a particular delivery service for golden customers, or provide new payment services in case of unavailability of service providers, or change a service invocation based on available bandwidth. Unlike other methods which provide a context Meta model or a shallow context taxonomy in a specific limited scope of the business domain, we focused on ontology engineering methods not only to propose a general multipurpose context ontology but also to present our proposal as an underlying ontology for other researchers to extend and customize it for their applications. In this paper, the business process adaptation knowledge is modelled in the form of concepts, relations, and axioms which comprises time, resources, performers, locations, environment, and rules to model and record whole context information of adaptation mechanism. We characterized our work in comparison with related studies to show its completeness and demonstrated it by using an online learning management system and virtual class case studies.

    Keywords: Ontology, Context information, Business process adaptation, Context awareness, adaptation}
  • Farhad Abedini, MohammadReza Keyvanpour*, MohammadBagher Menhaj

    As an extension of classical ontology, a fuzzy ontology by employing fuzzy set theory can easily and yet better deal with uncertainties especially for the cases in which knowledge is vague. Obviously, fuzzification plays an important role in each fuzzy ontology. The main goal of this paper is to present an RDF based ontology, which indeed should contain many facts about the real world, inevitably facing with some uncertainties. In this perspective, an RDF based ontology is converted into a fuzzy most probably an incomplete one due to the fact that there will be some missing relations in the converted fuzzy ontology. To remedy this, the paper introduces a new method in the general framework of conversion and completion of an RDF based ontology into a fuzzy ontology mainly using the facts aspect. Therefore, first a new definition of the fuzzy ontology is proposed. To do so, a neural tensor network, which is indeed state-of-the-art of RDF based ontology completion, is proposed. Furthermore, a new application is suggested for this network that can create a fuzzy ontology. To furnish this goal, two new algorithms are then introduced for the conversion and completion of the proposed fuzzy ontology. In the proposed method, ontology facts are first embedded in a vector space, and then a score value is given to each fact by a learning method. Using these scores and threshold values of each relation, ontology facts can be fuzzified. Finally, some simulation studies are conducted to evaluate better the merit of the proposed method.

    Keywords: Ontology, Fuzzy Ontology, Facts, Neural Tensor Network, RDF}
  • زهره متشکر، احمد عبدالله زاده، حسین شیرازی*
    منابع واژگانی، از منابع ضروری در حوزه ی پردازش زبان طبیعی هستند و نحوه ی ارائه و در دسترس قرار دادن آن ها نیز از اهمیت ویژه ای برخوردار شده است. در این مقاله، قالب ارائه شبکه ی واژگان به عنوان یک منبع واژگانی مهم در پردازش های معنایی زبان طبیعی مورد توجه قرار گرفته است، با این هدف که ارائه ی این دانش به نحوی باشد که بتوان از مزایای داده های پیوندی و شبکه ی معنایی بهره برد. قالب داده های پیوندی امکان دسترسی به دانش و پیوند آن با سایر منابع دانشی را فراهم می آورد. ارائه ی شبکه ی واژگان به فرمت داده ی پیوندی و بازنمایی آن به صورت پایگاه شناخت، امکان استفاده از فناوری های شبکه ی معنایی، مانند استنتاج را فراهم می آورد؛ همچنین، فرایند توسعه و استفاده از شبکه ی واژگان با استفاده از داده های پیوندی به نحو موثرتری امکان پذیر است. این مقاله شمای یک پایگاه شناخت را، که برای یک شبکه ی واژگان به زبان فارسی طراحی شده است, معرفی می کند. این شما به صورت داده ی پیوندی و قابل ارزیابی با مدل لمون است. در این مقاله، گزارشی از فرایند انتقال دانش از شبکه ی واژگان فارس نت به یک پایگاه شناخت با قالب داده های پیوندی ارائه می شود و همچنین از نظر روابط و تعداد و اژه ها، بهبودها و توسعه های انجام گرفته در این شبکه ی واژگان جدید بیان می گردد.
    کلید واژگان: پایگاه شناخت, داده پیوندی, شبکه معنایی}
    Ahmad Abbdollahzade, Hossein Shirazi*, Zohre Moteshakker
    In Natural Language Processing field, lexical resources are the mandatory tools which their representation format and accessibility has essential importance. In this paper, we focus on representation format of WordNet as an important lexical resource; aiming to benefit from the semantic web and Linked Data advantages. The Linked Data format provides knowledge representation and integration with other knowledge resources. Providing WordNet in linked data format and ontology representation, enable us to use semantic web technologies, such as inference. Development and usage of WordNet in the linked data format are more effective. The paper introduces an ontology schema for Farsi WordNet. The schema is based and Linked Data and is evaluable by Lemon model.
    Keywords: wordnet, ontology, semantic web, linked data}
  • حوا علیزاده نوقابی، محسن کاهانی، علیرضا شکیبا منش
    در حوزه هایی که اطلاعات زیادی وجود دارد و تصمیم‏گیری های ضعیف باعث پیامدهای جدی می‏شود، مسئله داده آمیزی بسیار حیاتی است. به طورکلی داده آمیزی اطلاعات چندین منبع را یکپارچه می‏کند و این عمل به منظور فراهم آوردن داده های مشخص و قابل درک درباره موجودیت‏ها و روابط بین آنها انجام می شود و در نهایت، منجر به استخراج دانش جدید نیز خواهد شد. یکی از رایج‏ترین مدل های داده آمیزی ، مدل JDL است. امروزه یک روند رو به رشد از فناوری های وب معنایی در حال شکل‏گیری است و در زمینه های مختلفی از آنها برای رفع مشکلات معنایی استفاده می‏شود. در این تحقیق استفاده از فناوری های وب معنایی برای رفع چالش معنایی مدل داده آمیزی JDL استفاده شده است. در این مقاله با افزودن معنا، گنجاندن آنتولوژی، به کارگیری استنتاج گر معنایی و سایر فناوری های وب معنایی به مدل JDL، یک ساختار داده‏آمیزی معنایی ارائه می‏شود. برای پیاده‏سازی ساختار پیشنهادی از کتابخانه متن‏باز Jena و زبان جاوا استفاده شد و برای طراحی آنتولوژی ها و همچنین قوانین لازم برای استنتاج گر از دانش افراد خبره در حوزه نظامی، کمک گرفته شد. آنگاه با طراحی سناریوهای نظامی مختلف، کارایی و قابلیت عملکرد ساختار ارائه شده موردبررسی قرار گرفت.
    کلید واژگان: آنتولوژی, استنتاج معنایی, داده آمیزی, کتابخانه Jena, مدل JDL, وب معنایی سامانه, از طریق یکپارچه سازی بخش های مختلف اطلاعاتی, ارتباطی و عملیاتی و برقراری تعامل پذیری بین آنها, زمینه برای تصمیم گیری, کنترل, هدایت موثر و ترل, فرماندهی, قابلی}
    Havva Alizadeh Noughabi
    Data fusion techniques combine raw data of multiple sources and gather related information to achieve more specific inferences than could be achieved by using a single source. In the fusion research community, JDL is a common model, but it suffers from semantics issues. Using Semantic Web (SW) technologies for the extraction of implicit knowledge is a new approach to overcome this problem. SW technologies purpose to describe and represent the semantics related with data or information in order to facilitate automatic processing, integration, sharing and reuse of the data. So in this paper, a semantic fusion model is proposed based on JDL, which can overcome the semantic problems in heterogeneous systems by using SW technologies including ontology and semantic reasoning. Finally, military scenario is designed and implemented to display the functionality of the proposed model practically. In implementation, Jena framework was utilized for semantic programming to describe ontology and have a semantic reasoner.
    Keywords: Data Fusion, JDL model, Semantic Web technologies, Ontology, Semantic Reasoning}
  • سیدمصطفی شفایی، سیدمجید شفایی
    پایگاه داده تحلیلی، پشتیبانی از داده های خارجی را که به صورت پویا بعد از ساخت و طراحی پایگاه داده تحلیلی مورد نیاز است مهیا نمی کند. از این رو تحلیل گر برای انجام تحلیل های موثر خود نیازمند پیداکردن همبستگی میان داده های خارجی و پایگاه داده تحلیلی است و در مواقعی نیز نیازمند مقایسه بین هر دو داده پایگاه داده تحلیلی و داده های خارجی با یکدیگر می باشد. همچنین تحلیل گر مجبور است که برای برخی از موقعیت های تکراری کارهای گذشته را تکرار کند که این کارها شامل اصطلاحات، ایجاد معیارها و مقایسه می باشد. برای فارغ شدن از این مسایل در این مقاله تلاش شده که یک معماری تقریبا بی درنگ مبتنی بر هستان شناسی پیشنهاد شود. علاوه بر این الگوریتمی نیز جهت کاهش زمان پاسخ دهی به پرس و جوهای تحلیلی کاربران با استفاده از دیدهای ذخیره شده و پردازش موازی پیشنهاد می شود. نمونه های مطالعاتی به منظور نشان دادن نحوه ایجاد همبستگی میان داده های خارجی با داده پایگاه داده تحلیلی صورت گرفت و نتایج به دست آمده کشف همبستگی میان داده های خارجی و داده پایگاه داده تحلیلی را نشان می دهد. در آزمایش ها استفاده از دیدهای ذخیره شده در دو رویکرد مستقیم و والد در پایگاه داده تحلیلی معماری موجود، باعث کاهش زمان پاسخ دهی به پرس و جوهای ترتیبی، مقایسه ای و ترکیبی موازی کاربران می شود.
    کلید واژگان: پایگاه داده تحلیلی تقریبا بی درنگ, هستان شناسی, داده خارجی, پرس و جوی مقایسه ای, پرس و جوی ترتیبی, دید ذخیره شده}
    S. M. Shafaei, S. Majid. Shafaei
    Data warehouse does not provide external data that are required to dynamically build after design and create the data warehouse. Therefore, analysts conduct effective analysis to find a correlation between external data and data warehouse data, and in other cases requires a comparison both external data and data warehouse data together. The analyst forced to repeat some past repetitive situations. This includes creating terminology, measures and comparison. In this paper, for graduates of this problem, a real-time data warehouse architecture based on ontology is proposed. Furthermore, an algorithm to reduce the response time to users’ queries using materialized views and parallel processing is proposed. A case study to demonstrate how to create correlation between external data and data warehouse data is done and the results show the correlation between external data and data warehouse data is discovered. In experiments, using both direct and parent materialized views approaches in existing data warehouse architecture, reduce response time to users’ sequential, comparative and combination queries.
    Keywords: Near real-time data warehouse, ontology, external data, sequential query, comparative query, materialized view}
  • A. Mousavi *, A. Sheikh Mohammad Zadeh, M. Akbari, A. Hunter
    Mobile technologies have deployed a variety of Internet–based services via location based services. The adoption of these services by users has led to mammoth amounts of trajectory data. To use these services effectively, analysis of these kinds of data across different application domains is required in order to identify the activities that users might need to do in different places. Researchers from different communities have developed models and techniques to extract activity types from such data, but they mainly have focused on the geometric properties of trajectories and do not consider the semantic aspect of moving objects. This work proposes a new ontology-based approach so as to recognize human activity from GPS data for understanding and interpreting mobility data. The performance of the approach was tested and evaluated using a dataset, which was acquired by a user over a year within the urban area in the City of Calgary in 2010. It was observed that the accuracy of the results was related to the availability of the points of interest around the places that the user had stopped. Moreover, an evaluation experiment was done, which revealed the effectiveness of the proposed method with an improvement of 50 % performance with complexity trend of an O(n).
    Keywords: Ontology, Data mining, Activity Recognition, Semantic, GPS}
  • Zahra Mousavi, Heshaam Faili, Marzieh Fadaee
    This paper presents an automated supervised method for Persian wordnet construction. Using a Persian corpus and a bi-lingual dictionary, the initial links between Persian words and Princeton WordNet synsets have been generated. These links will be discriminated later as correct or incorrect by employing seven features in a trained classification system. The whole method is just a classification system which has been trained on a train set containing a pre-existing Persian wordnet, FarsNet, as a set of correct instances. A set of some sophisticated distributional and semantic features is proposed to be used in the classification system. Furthermore, a set of randomly selected links have been added to training data as incorrect instances. The links classified as correct are collected to be included in the final wordnet. State of the art results on the automatically derived Persian wordnet is achieved. The resulted wordnet with a precision of 91.18% includes more than 16,000 words and 22,000 synsets.
    Keywords: wordnet, ontology, supervised, Persian language}
  • سید امیر اصغری *، مرتضی عنایتی، گلنوش عبایی، محمدرضا بینش مروستی
    این مقاله در حوزه داده کاوی و وب معنایی بوده و در آن روشی برای شخصی سازی صفحات وب براساس اصول داده کاوی و وب معنایی ارائه شده است. روش پیشنهادی، از لاگ مشاهده صفحات توسط کاربران به عنوان خوراک بخش داده کاوی، و از محتوای صفحات به عنوان ورودی واحد پردازش معنا استفاده می کند. نتایج حاصل از این دو فرآیند، با یکدیگر ترکیب شده و به عنوان صفحات پیشنهادی مدنظر کاربر، به او ارائه می شود. ایده استفاده از اطلاعات آماری بازدید و اطلاعات محتوایی صفحات، باعث افزایش کیفیت پیشنهادات به کاربر شده است. از ویژگی های مهم روش ارائه شده آن است که با داشتن آنتولوژی مناسب برای هر حوزه معنایی، تقریبا برای هرنوع وب سایتی قابل استفاده بوده و می تواند پیشنهادات مناسبی تنها براساس محتوای صفحات و لاگ صفحات مشاهده شده کاربران ارائه نماید. به عبارت دیگر در این روش نیازی به ورود و ثبت نام کاربر در سیستم برای دنبال کردن رفتار و علایق آن نیست. نتایج بررسی روی مجموعه داده اشاره شده در این مقاله، حاکی از عملکرد مناسب روش پیشنهادی دارد؛ پیشنهادات تولید شده توسط سیستم با نرخ بالایی توسط چندین کاربر انسانی مفید ارزیابی شده اند.
    کلید واژگان: وب کاوی, وب معنایی, شخصی سازی, لاگ, نشست, آنتولوژی}
  • Hossein Sahlani, Maryam Hourali
    Semantic annotation of images has emerged as an important research topic due to its potential application on both image understanding and database image search or web image search. Image annotation is a technique to choosing appropriate labels for images with extracting effective and hidden feature in pictures. In this paper we proposed method used combination of ImagNet ontology to has hierarchical classification and stochastic indexing that extract effective features by integrates visual topics (global distribution of topics over an image) and regional contexts (relationship between the regions) to automatic image annotation. Regional contexts and visual topics extracted from the image and are incorporated based on TOPSIS (Technique for Order Preference by Similarity to the Ideal Solution) method. Regional contexts and visual topics are learned by PLSA (Probability Latent Semantic Analysis) from the training data. Experiments conducted on the 5k Corel dataset show the proposed method of image annotation in addition to reducing the complexity of the classification increased accuracy compared to the another methods.
    Keywords: Automatic image annotation based on content, ontology, statistical annotation, visual topics, PLSA}
  • Kourosh Moradyan *, Omid Bushehrian
    Nowadays increasing use of web as a means to accomplish daily tasks by calling web services, makes web services more and more significant. Users make a query on the Internet to find the required web service based on their needs. Cloud computing, due to its design and abundance of resources has become an ideal choice for web service providers to publish their services backed by cloud servers. The cloud can eliminate problems like web service availability and security. On the other side, obtaining the most relevant web service depends on user's request accuracy and the mechanism used to match the request. Due to recent shutting down of public UDDI registries, most of web service matchmaking mechanisms are based on web service description files (WSDL) which are published on the owner's websites. Semantic web services use OWL-S and WSMO instead of WSDL to describe services in a way that software agents are able to find appropriate services automatically. However, the high cost and effort needed to formally define web services makes this method impractical. In this paper we have proposed an ontology which formally models the user's query for web services in the service cloud by considering both functional and syntactical dimensions. The stepwise matchmaking method of web services based on the user's query is also presented. To show the precision of the proposed method, a set of experiments on a cluster of 3738 real web service WSDL documents has been performed.
    Keywords: Web Service, Web Service Matchmaking, Cloud Computing, Ontology, Semantic Web Service, OWL, S, WSMO}
  • Deepika Koundal
    The enormous growth of the World Wide Web in recent years has made it necessary to perform resource discovery efficiently. For a crawler it is not an simple task to download the domain specific web pages. This unfocused approach often shows undesired results. Therefore, several new ideas have been proposed, among them a key technique is focused crawling which is able to crawl particular topical portions of the World Wide Web quickly without having to explore all web pages. Focused crawling is a technique which is able to crawled particular topics quickly and efficiently without exploring all WebPages. The proposed approach does not only use keywords for the crawl, but rely on high-level background knowledge with concepts and relations, which are compared with the texts of the searched page.
    In this paper a combined crawling strategy is proposed that integrates the link analysis algorithm with association metric. An approach is followed to find out the relevant pages before the process of crawling and to prioritizing the URL queue for downloading higher relevant pages, to an optimal level based on domain dependent ontology. This strategy make use of ontology to estimate the semantic contents of the URL without exploring which in turn strengthen the ordering metric for URL queue and leads to the retrieval of most relevant pages.
    Keywords: WebCrawler, Importance, metrics, Association, metric, Ontology}
  • مریم حورعلی، غلامعلی منتظر
    در سال های اخیر تلاش های زیادی برای طراحی روش های یادگیری و خودکار سازی فرآیند ساخت هستان نگار انجام شده است. ساخت انواع هستان نگار برای انواع قلمروها و کاربردهای گوناگون فرآیندی پرهزینه و زمان بر بوده و خودکارسازی این فرآیند گامی مهم در رفع مشکل اکتساب دانش در سامانه های اطلاعاتی و کاهش هزینه ساخت آنهاست. در این مقاله روشی نوین برای یادگیری هوشمند هستان نگار ارائه شده که می توان از آن در کاربردها و حوزه های مختلف استفاده کرد. در این روش نیازی به وجود هستان نگارهای عمومی یا تخصصی اولیه و واژگان معنایی از پیش تعریف شده نیست و پایگاه دانش اولیه آن، تنها شامل مجموعه ای از متون ورودی است. سامانه یادگیرنده پیشنهادی با شروع از متون ورودی و با استفاده از رهیافت پیشنهادی در این مقاله قادر خواهد بود هستان نگار حوزه های مختلف را استخراج کند. در این روش از ترکیبی از روش های زبانی، آماری و روش های یادگیری ماشینی بر اساس روش C-value،TF-IDF، شبکه عصبی نظریه تشدید وفقی و روش تحلیل هم رخدادی استفاده شده است؛ بدین ترتیب که ابتدا اسناد مرتبط با حوزه مورد نظر گردآوری شده و سپس پردازش های متون زبان طبیعی روی اسناد انجام شده و واژه های اصلی با استفاده از روش C-value استخراج شده است، آنگاه با استفاده از شبکه عصبی ART اسناد مربوطه خوشه بندی شده و برای هر خوشه با محاسبه وزن واژه ها بر اساس روش TF-IDF، واژه کلیدی مناسب استخراج شده است. در پایان با استفاده از روش تحلیل هم رخدادی، سلسله مراتب مفاهیم استخراج شده و هستان نگار مربوطه ساخته شده است. نتایج حاصل شده نشان میدهند که این روش در مقایسه با روش های مشابه، دقت خوبی در یادگیری هستان نگار داشته است
    کلید واژگان: هستان نگار, یادگیری, شبکه عصبیART, فراوانی واژه ها, معکوس, فراوانی اسناد (TF, IDF), C, value}
    Maryam Hourali, Gholam Ali Montazer
    In recent years, many efforts have been done to design ontology learning methods and automate ontology construction process. The ontology construction process is a time-consuming and costly procedure for almost all domains/applications, so automating this process is a solution to overcome the knowledge acquisition bottleneck in information systems and reduce the construction cost. In this article a novel intelligent ontology learning method is proposed which can be used in many domains and applications. The proposed learning system has no need for initial common or specialized input ontologies or predefined semantic terms; indeed, the initial database anonly consists of input texts sets. The proposed learning system could extract associated ontologies of various domains using combined methods. To do this, a combination of linguistic, statisticaland machine learning methods based on the C-value method, the TF-IDF one, the neural network, and co occurance analysis are applied. So, first domain-related documents were collected. Then natural language processing methods such as C-value method were implemented for extracting meaningful terms from documents. Next, ART (Adaptive Resonance Theory) neural network was used to cluster documents and associated weight of terms was calculated by TF–IDF method in order to find candidate keyword for each cluster. Finally, co-occurrence analysis was used to construct concept hierarchy and complete the ontology. Results show that the proposed ontology learning method has a high precision comparing to similar studies.
    Keywords: Ontology, ART Neural Network, TF, IDF, C, value}
  • Ahmad Salahi, Morteza Ansarinia
    Graph knowledge models and ontologies are very powerful modeling and reasoning tools. We propose an effective approach to model network attacks and attack prediction which plays important roles in security management. The goals of this study are: First we model network attacks, their prerequisites and consequences using knowledge representation methods in order to provide description logic reasoning and inference over attack domain concepts. And secondly, we propose an ontology-based system which predicts potential attacks using inference and observing information which provided by sensory inputs. We generate our ontology and evaluate corresponding methods using CAPEC, CWE, and CVE hierarchical datasets. Results from experiments show significant capability improvements comparing to traditional hierarchical and relational models. Proposed method also reduces false alarms and improves intrusion detection effectiveness.
    Keywords: Knowledge Engineering, Network Security, Ontology}
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال