فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال پانزدهم شماره 3 (پیاپی 37، پاییز 1397)

  • تاریخ انتشار: 1397/09/03
  • تعداد عناوین: 10
|
  • محمد مهدی یدالهی، فرزاد زرگری* ، مژگان فرهودی صفحات 3-12
    امروزه رشد بسیار سریع اینترنت و نفوذ روزافزون آن در زندگی افراد باعث شده تا کاربران بسیاری برای رفع نیازهای روزمره خود به جویش گرها مراجعه کنند و این جویش گرها به توسعه و بهبود مستمر نیاز دارند. از این رو ارزیابی جویش گرها برای تعیین کارایی آنها اهمیت به سزایی دارد. در ایران نیز همانند سایر کشورها پژوهش های گسترده ای در زمینه ایجاد جویش گرهای خاص منظوره بومی انجام شده است. یکی از مهم ترین جویش گرهای خاص منظوره ایجاد شده، جویش گر ویدئویی است که وظیفه بازیابی ویدئوها از سطح وب را برعهده دارد. برای ارزیابی کیفیت این جویش گرها و بهبود مستمر آنها باید سطح خدمات دهی هر کدام از جویش گرها در مقایسه با دیگر جویش گرهای موجود مورد ارزیابی قرار گیرد. از آنجا که سرعت ارزیابی نقش مهمی در تعیین روند اصلاحات مورد نیاز دارد، بحث ارزیابی خودکار جویش گر ها بسیار پراهمیت خواهد شد. در این مقاله روشی مبتنی بر تجمیع آرا به منظور ارزیابی خودکار جویش گرهای ویدئویی ارائه شده است. تمرکز اصلی این روش بر روی حوزه وب فارسی بوده و با توسعه روشی نوین برای شباهت سنجی مبتنی بر محتوا براساس بردار های حرکت ویدئوها، سعی در ارزیابی جویش گرهای ویدئویی دارد. برای محک زدن روش معرفی شده، سازوکاری طراحی شد تا نتایج به دست آمده با نتایج حاصل از ارزیابی انسانی مورد مقایسه قرار گیرد. نتایج به دست آمده نشان دهنده میزان همبستگی بیش از 94% دو روش است که قابل اتکا بودن روش خودکار ارزیابی پیشنهادی را بیان می کند.
    کلیدواژگان: ارزیابی خودکار، جویش گرهای ویدئویی، وب فارسی
  • تکتم ذوقی، محمد مهدی همایون پور* صفحات 13-30
    در حالی که سامانه های بازشناسی گفتار به طور پیوسته در حال ارتقا می باشند و شاهد استفاده گسترده از آن ها می باشیم، اما دقت این سامانه ها فاصله زیادی نسبت به توان بازشناسی انسان دارد و در شرایط ناسازگار این فاصله افزایش می یابد. یکی از علل اصلی این مسئله تغییرات زیاد سیگنال گفتار است. در سال های اخیر، استفاده از شبکه های عصبی عمیق در ترکیب با مدل مخفی مارکف، موفقیت های قابل توجهی در حوزه پردازش گفتار داشته است. این مقاله به دنبال مدل کردن بهتر گفتار با استفاده از تغییر ساختار در شبکه عصبی پیچشی عمیق است؛ به نحوی که با تنوعات بیان گویندگان در سیگنال گفتار منطبق تر شود. در این راه، مدل های موجود و انجام استنتاج بر روی آن ها را بهبود و گسترش خواهیم داد. در این مقاله با ارائه شبکه پیچشی عمیق با پنجره های قابل تطبیق سامانه بازشناسی گفتار را نسبت به تفاوت بیان در بین گویندگان و تفاوت در بیان های یک گوینده مقاوم خواهیم کرد. تحلیل ها و نتایج آزمایش های صورت گرفته بر روی دادگان گفتار فارس دات و TIMIT نشان داد که روش پیشنهادی خطای مطلق بازشناسی واج را نسبت به شبکه پیچشی عمیق به ترتیب به میزان 2/1 و 1/1 درصد کاهش می دهد که این مقدار در مسئله بازشناسی گفتار مقدار قابل توجهی است.
    کلیدواژگان: بازشناسی گفتار، شبکه عصبی عمیق، شبکه عصبی پیچشی، پنجره های قابل تطبیق
  • رضا ابراهیمی آتانی* ، مهدی صادق پور صفحات 31-46
    با توسعه روزافزون خدمات دولت الکترونیکی، اطلاعات شخصی افراد در قالب پایگاه های داده در دستگاه ها و ارگان های دولتی و خصوصی ذخیره شده است. در بسیاری از موارد برای پردازش و استخراج دانش از این منابع داده بزرگ و با ارزش، نیاز به انتشار منابع داده و در اختیار گذاشتن اطلاعات به سایر نهادها و شرکت ها پدید می آید که این امر موجب ایجاد چالش های امنیتی در نقض حریم خصوصی افراد می شود. در این مقاله ضمن بررسی کامل پیشینه پژوهش، حفظ محرمانگی در انتشار داده ها، یک روش کارآمد برای گمنام سازی ارائه می شود که هدف آن حفظ دقت طبقه بندی روی داده های گمنام است. این روش با بهره گیری از درخت تصمیم از انتشار اطلاعاتی که تاثیر کمی بر سودمندی داده های خروجی دارد و حذف آن ها موجب تامین محرمانگی می شود، جلوگیری می کند. یکی از چالش های طرح هایی که از عمل گر گمنام سازی عمومی سازی استفاده می کنند، نیازمندی به ساخت درخت طبقه بندی برای هر شبه شناسه است که بیش تر به صورت خودکار صورت می گرفت. در طرح پیشنهادی نیازی به ساخت درخت طبقه بندی نیست. نتایج شبیه سازی و ارزیابی های انجام شده نشان می دهد، میان دقت الگوریتم های طبقه بندی که روی مجموعه داده استاندارد گمنام شده توسط این روش و مجموعه داده اولیه آموزش دیده اند، تفاوت اندکی وجود دارد.
    کلیدواژگان: حفظ محرمانگی، طبقه بندی، گمنام سازی، درخت تصمیم، عمل گر فرونشانی
  • ناصرحسین غروی* ، عبدالرسول میرقدری، محمد عبدالهی ازگمی، سید احمد موسوی صفحات 47-58
    مصالحه حافظه زمان یک الگوریتم احتمالاتی برای وارون کردن توابع یک طرفه، با استفاده از داده های از پیش محاسبه شده است. هلمن در سال 1980 این روش را معرفی کرد و یک کران پایین برای احتمال موفقیت آن به دست آورد. پس از آن نیز تحلیل های پژوهش گران برای بررسی احتمال موفقیت، بر اساس همین کران پایین بوده است. در این مقاله، ابتدا به بررسی امید ریاضی نرخ پوشش یک ماتریس هلمن می پردازیم؛ سپس، این نرخ را برای ماتریس های هلمنی که فقط از یک زنجیره تشکیل شده اند، محاسبه کرده ایم. نشان داده ایم که امید ریاضی نرخ پوشش برای چنین ماتریس هایی بیشینه و برابر با 85/0 است. در ادامه، روش هایی برای تخمین دقیق تر این نرخ ارائه، و با روش هلمن مقایسه و در نهایت، ماتریس های هلمنی را معرفی کرده ایم که فقط از یک زنجیره تشکیل شده اند؛ ولی طول این زنجیره مقداری ثابت نیست و تا رسیدن به نخستین تکرار ادامه می یابد. به صورت نظری و عملی نشان داده ایم که احتمال موفقیت برای چنین ماتریس هایی بیشتر از روش هلمن است.
    کلیدواژگان: مصالحه حافظه زمان، تابع یک طرفه، ماتریس هلمن، امید ریاضی نرخ پوشش
  • علیرضا گل گونه، بهرام تارویردی زاده* صفحات 59-74
    کمتر کسی در دنیای پرتلاطم و پرتنش امروز، با واژه استرس بیگانه است؛ به‎طوری‎که در برخی مواقع، استرس تبدیل به بخشی از زندگی انسان شده است. استرس بیش از حد، باعث بروز مشکلاتی می شود که علاوه بر اثرات روانی، پیامدهای جسمی بی شماری از جمله سکته های مغزی، قلبی، فشارخون و غیره را دارد و هیچ عضو یا ارگانی از بدن انسان از تاثیرات آن در امان نیست. هدف این پژوهش، طراحی و ساخت دستگاهی است که با استفاده از سیگنال‎های هدایت الکتریکی پوست (GSR) و فتوپلتیسموگرافی (PPG) بتواند میزان استرس فرد را به صورت شاخص پیوسته بیان کند. سخت‎افزار این دستگاه مبتنی بر پردازنده ARM و رابط کاربری آن با زبان C++ برنامه نویسی شده است. به منظور سنجش میزان استرس، الگو‎سازی با استفاده از شبکه عصبی مصنوعی MLP و شبکه فازی-عصبی تطبیقی (ANFIS) انجام، که در بهترین حالت در الگو‎سازی با ANFIS، دقت %91/92، و میانگین خطای 007/0 حاصل شده است.
    کلیدواژگان: سیگنال های حیاتی، فتوپلتیسموگرافی، هدایت الکتریکی پوست، شبکه عصبی مصنوعی، شبکه فازی-عصبی تطبیقی
  • اصغر فیضی* صفحات 75-88
    مساله آشکارسازی رفتارهای غیرمعمول براساس ویدئو، در حقیقت شناسایی الگوها در داده هایی است که با رفتارهای مورد انتظار مطابقت ندارند. درهمین اواخر برای خوشه بندی رفتارها و آشکارسازی رفتارهای غیرمعمول، از روش های بازسازی پراکنده استفاده می شود. در این مقاله از نمایش پراکنده ویژگی ها و همکاری دوربین ها، برای شناسایی رفتارها و آشکارسازی رفتارهای غیرمعمول استفاده می شود. ابتدا برای هر محل در فریم تصویر، یک ویژگی که دارای استقلال هندسی است، استخراج می شود؛ سپس برای یک دوربین، ماتریس دیکشنری A محاسبه و به عنوان یک مجموعه از مدل رفتاری در نظر گرفته می شود. حال، تحت عنوان مساله همکاری دوربین ها، ماتریس دیکشنری یادگرفته شده به دوربین دیگر منتقل می شود و در دوربین جدید برای آشکارسازی غیرمعمول ها مورد استفاده قرار می گیرد. برای یادگیری ماتریس دیکشنری، یک روش سلسله مراتبی با استفاده از خوشه بندی طیفی پیشنهاد و یک معیار اندازه گیری با استفاده از نمایش پراکنده برای آشکارسازی رفتارهای غیرمعمول ارائه می شود. نتایج آزمایشی، موثر بودن ره یافت پیشنهادی در استفاده از همکاری دوربین ها برای آشکارسازی رفتارهای غیرمعمول را نشان می دهد.
    کلیدواژگان: نظارت بینایی، نمایش پراکنده، شناسایی رفتارها، رفتارهای غیرمعمول، اشتراک اطلاعات چند دوربین
  • اکرم اصلانی* ، مهدی اسماعیلی صفحات 89-100
    متن قرآن خصوصیات منحصر به فردی از نظر معنا، مفهوم و موضوع نسبت با سایر متون دارد. کشف الگوهای پنهان و ارزشمند از درون حجم وسیعی از داده های خام، به تازگی توجه بسیاری از پژوهش گران را به خود جلب کرده است. متن کاوی زمینه ای برای کشف اطلاعات از متون است که ما را در نیل به این هدف می تواند کمک کند. در سال های اخیر متن کاوی روی قرآن و کشف دانش نهفته از واژه های آن، چندی است که مورد توجه بسیاری از متخصصان قرار گرفته است. در این مقاله با در نظر گرفتن 6348 آیه قرآن، هر آیه به صورت یک سبد خرید در نظر گرفته شده و کلمات هر آیه به عنوان اقلام هستند؛ سپس با استفاده از قوانین انجمنی، کلمات و آیات قرآن بررسی شده و از میان 54226 قانون انجمنی استخراج شده از واژه های قرآن که با استفاده از معیارهایی مانند ضریب اطمینان، ضریب پشتیبان، معیارLift و معیار Co-efficient ارزیابی شده اند، ده قانون برتر هر معیار تحلیل و بررسی شده و بدین ترتیب الگوهای استخراج شده از قوانین انجمنی، الگوهای پرتکرار یک تایی، دوتایی و سه تایی در قرآن به دست می آید.
    کلیدواژگان: داده کاوی، متن کاوی، قوانین انجمنی، قرآن کریم، الگوهای مکرر
  • منا خداقلی، اردشیر دولتی، علی حسین زاده* ، خشایار شمس الکتابی صفحات 101-112
    در این مقاله روشی جدید را با استفاده از ماشین بردار پشتیبان فازی به منظور عضویت‎دهی داده های آموزشی، براساس فاصله از ابر صفحه جداکننده معرفی می شود. در این روش، با استفاده از طبقه بندی ماشین بردار پشتیبان و نیز عضویت نخستین داده های آموزشی، یک تابع عضویت فازی به کمک اعداد فازی مثلثی متقارن برای تمام فضا معرفی می شود. مبتنی بر این روش، مقدار تابع عضویت فازی هر داده جدیدی که می خواهد طبقه بندی شود، به گونه ای انتخاب می شود که کمترین میزان اختلاف را با عضویت اولیه داده های آموزشی و بیشترین میزان فازی سازی داشته باشد. نخست این مساله به صورت یک مساله بهینه سازی غیرخطی تعریف، سپس به کمک روش نقاط بحرانی، الگوریتمی کارا معرفی می شود و تابع عضویت نهایی داده های آموزشی به دست می آید؛ همچنین، در ادامه با مقایسه مقدار عضویت های اولیه داده های آموزشی با توزیع عضویت نهایی به دست آمده از روش پیشنهادی، میزان نوفه ای بودن داده آموزشی بررسی می شود. در انتهای این مقاله نیز جهت فهم بهتر و نشان دادن کارایی الگوریتم، آزمایش هایی انجام و چگونگی رفتار الگوریتم پیشنهادی بر روی نمودار پیاده سازی و با یک روش پایه مقایسه می شود.
    کلیدواژگان: منطق فازی، یادگیری ماشین، داده کاوی، بردار پشتیبان فازی، تابع عضویت فازی
  • فاطمه اشعری* ، نوشین ریاحی صفحات 113-122
    سیگنال های صوتی دیجیتال، به دلیل این که حاوی نرخ اطلاعات زیادی هستند، پوشش مناسبی برای روش های نهان نگاری محسوب می شوند. روش های متنوعی برای نهان نگاری داده های مختلف و به تبع آن نهان کاوی داده ها در سیگنال صوتی وجود دارد. در این میان روش های نهان کاوی فراگیر به دلیل عدم وابستگی به الگوریتم نهان نگاری، کاربرد وسیع تری دارند. در این مقاله روش جدیدی برای نهان کاوی فراگیر ارائه شده که در آن با به کارگیری ضرایب مربوط به همبستگی بین فریم، دقت نهان کاوی به مقدار قابل توجهی افزایش پیدا کرده است. همچنین عملکرد ماشین بردار پشتیبان با به کارگیری الگوریتم کاهش بازگشتی ویژگی ها به همراه کاهش بایاس ناشی از همبستگی بین آن ها بهبود یافته که منجر به افزایش پایداری نهان کاوی و دقت بیشتر شده است.
    کلیدواژگان: نهان نگاری، نهان کاوی، همبستگی بین فریم، کپستروم مل معکوس، کاهش ویژگی بازگشتی
  • سنیه دیلمی، یعقوب فرجامی* صفحات 123-133
    سرعت پاسخ صفحات وب یکی از ضرورت های دنیای فناوری اطلاعات است. در سال های اخیر شرکت های مشهور از قبیل گوگل و دانشمندان علوم رایانه تمرکز خود را روی سرعت بخشیدن به وب قرار دادند و تلاش کردند تا راهی برای سریع تر کردن وب بیابند. دستاوردهایی از قبیل گوگل پیج اسپید، انجینکس و وارنیش نتیجه این پژوهش ها بوده است. درهمین اواخر روش ها و ابزارهای موثر و موفقی برای افزایش سرعت بارگذاری صفحات وب ارائه شده که بیش تر به دو رهیافت افزایش سرعت در سمت کاربر و افزایش سرعت در سمت سرور تقسیم می شود. پراکسی معکوس به عنوان موثرترین روش افزایش سرعت در سمت سرور است. در این مقاله ضمن معرفی پراکسی معکوس، کارایی سامانه های وب سرور چهارگانه آپاچی + وارنیش، انجینکس، انجینکس + وارنیش و آپاچی را، با دو نوع محتوای پویا و ایستا، از منظر سرعت پاسخ صفحات وب به عنوان معیار سنجش بررسی کرده ایم. نخست این که نتایج به دست آمده نشان می دهند، استفاده از پراکسی معکوس موجب افزایش سرعت پاسخ می شود؛ دوم این که این افزایش سرعت نه تنها به وب سرور بلکه به نوع محتوای صفحات وب و تعداد تقاضاهای تکراری در صفحات وب مرتبط است. در پایان یک رتبه بندی برای انتخاب وب سرور و پراکسی معکوس مناسب برای محتوای وب ایستا یا چندرسانه ای و محتوای وب پویا یا پردازشی ارائه شده است.
    کلیدواژگان: سرعت پاسخ، پراکسی معکوس، انجینکس، آپاچی، وارنیش
|
  • Mohammadmahdi Yadolahi , Farzad Zargari*, Mojgan Farhoodi Pages 3-12
    Today, the growth of the internet and its high influence in individuals’ life have caused many users to solve their daily needs by search engines and hence, the search engines need to be modified and continuously improved. Therefore, evaluating search engines to determine their performance is of paramount importance. In Iran, as well as other countries, extensive researches are being performed on search engines. To evaluate the quality of search engines and continually improve their performance, it is necessary to evaluate search engines and compare them to other existing ones. Since the speed plays an important role in the assessment of the performance, automatic search engine evaluation methods attracted grate attention. In this paper, a method based on the majority voting is proposed to assess the video search engines. We introduced a mechanism to assess the automatic evaluation method by comparing its results with the results obtained by human search engine evaluation. The results obtained, shows 94 % correlation of the two methods which indicate the reliability of automated approach.
    In general, the proposed method can be described in three steps.
    Step 1: Retrieve first k_retrieve results of n different video search engines and build the return result set for each written query.
    Step 2: Determine the level of relevance of each retrieved result from the search engines
    Step 3: Evaluating the search engines by computing different evaluation criteria based on decisions on relevance of the retrieved videos by each search engine
    Clearly, the main part of any evaluation system with the goal of evaluating the accuracy of search engines is the second step. In this paper, we have tried to present a new solution based on the aggregation of votes in order to determine whether a result is relevant or not, as well as its level of relevance. For this purpose, for each query the return results from different search engines are compared with each other, and the result returned by more than m of the search engines (m ; and the result of which their URLs (after the normalization) are similar to the normalized URL from the m-1 of the other search engines, are considered as the relevant results. At the second level, the retrieved results will be compared in terms of content. In this way, after calculating the address-like similarity, all the results are transmitted to the motion vector extraction component to extract and store the motion vector.
    In the content based similarity algorithm, the set of motion vectors is initially considered as a sequence of motion vector. We, then, try to find the greatest similarity of the smaller sequence with the larger sequence. After this step, we will report the maximum similarity of the two videos. The process of finding the maximum similarity is that we consider a window with a smaller video sequence length. In this window we calculate and hold the similarity of two sequences. In the proposed method, after identifying the similarity between the return results of different search engines, their level is ranked at three different levels: "unrelated" (0), "quantitatively related" (1) and "related" (2). Since Google's search engine is currently the world’s largest and best-performing search engine, and most search engines have been compared to it, and are also trying to achieve the same function, the first five Google search engine results are get the minimum relevance, by default, "slightly related". Then the similarity module is used to evaluate the similarity of the retrieved n results of the tested search engines.
    Keywords: Automatic assessment, Video search engine, Persian Web
  • Toktam Zoughi , Mohammad Mehdi Homayounpour * Pages 13-30
    Although, speech recognition systems are widely used and their accuracies are continuously increased, there is a considerable performance gap between their accuracies and human recognition ability. This is partially due to high speaker variations in speech signal. Deep neural networks are among the best tools for acoustic modeling. Recently, using hybrid deep neural network and hidden Markov model (HMM) leads to considerable performance achievement in speech recognition problem because deep networks model complex correlations between features. The main aim of this paper is to achieve a better acoustic modeling by changing the structure of deep Convolutional Neural Network (CNN) in order to adapt speaking variations. In this way, existing models and corresponding inference task have been improved and extended.
    Here, we propose adaptive windows convolutional neural network (AWCNN) to analyze joint temporal-spectral features variation. AWCNN changes the structure of CNN and estimates the probabilities of HMM states. We propose adaptive windows convolutional neural network in order to make the model more robust against the speech signal variations for both single speaker and among various speakers. This model can better model speech signals. The AWCNN method applies to the speech spectrogram and models time-frequency varieties.
    This network handles speaker feature variations, speech signal varieties, and variations in phone duration. The obtained results and analysis on FARSDAT and TIMIT datasets show that, for phone recognition task, the proposed structure achieves 1.2%, 1.1% absolute error reduction with respect to CNN models respectively, which is a considerable improvement in this problem. Based on the results obtained by the conducted experiments, we conclude that the use of speaker information is very beneficial for recognition accuracy.
    Keywords: Speech recognition, deep neural network, Convolutional neural network, Adaptive windows convolutional neural network
  • Reza Ebrahimi Atani*, Mehdi Sadeghpour Pages 31-46
    Data collection and storage has been facilitated by the growth in electronic services, and has led to recording vast amounts of personal information in public and private organizations databases. These records often include sensitive personal information (such as income and diseases) and must be covered from others access. But in some cases, mining the data and extraction of knowledge from these valuable sources, creates the need for sharing them with other organizations. This would bring security challenges in user’s privacy. The concept of privacy is described as sharing of information in a controlled way. In other words, it decides what type of personal information should be shared and which group or person can access and use it. “Privacy preserving data publishing” is a solution to ensure secrecy of sensitive information in a data set, after publishing it in a hostile environment. This process aimed to hide sensitive information and keep published data suitable for knowledge discovery techniques. Grouping data set records is a broad approach to data anonymization. This technique prevents access to sensitive attributes of a specific record by eliminating the distinction between a number of data set records. So far a large number of data publishing models and techniques have been proposed but their utility is of concern when a high privacy requirement is needed. The main goal of this paper to present a technique to improve the privacy and performance data publishing techniques. In this work first we review previous techniques of privacy preserving data publishing and then we present an efficient anonymization method which its goal is to conserve accuracy of classification on anonymized data. The attack model of this work is based on an adversary inferring a sensitive value in a published data set to as high as that of an inference based on public knowledge. Our privacy model and technique uses a decision tree to prevent publishing of information that removing them provides privacy and has little effect on utility of output data. The presented idea of this paper is an extension of the work presented in [20]. Experimental results show that classifiers trained on the transformed data set achieving similar accuracy as the ones trained on the original data set.
    Keywords: Privacy preservation, Data sharing, Anonymization, Classification, Decision tree, Suppression
  • Naser Hosein Gharavi*, Abdorasool Mirqadri , Mohammad Abdollahi azgomi , Sayyed Ahmad Mousavi Pages 47-58
    Hellman’s time-memory trade-off is a probabilistic method for inverting one-way functions, using pre-computed data. Hellman introduced this method in 1980 and obtained a lower bound for the success probability of his algorithm. After that, all further analyses of researchers are based on this lower bound.
    In this paper, we first studied the expected coverage rate (ECR) of the Hellman matrices, which are constructed by a single chain. We showed that the ECR of such matrices is maximum and equal to 0.85. In this process, we find out that there exists a gap between the Hellman’s lower bound and experimental coverage rate of a Hellman matrix. Specifically, this gap is larger, when considering the Hellman matrices constructed with one single chain. So, we are investigated to obtain an accurate formula for the ECR of a Hellman matrix. Subsequently, we presented a new formula that estimate the ECR of a Hellman matrix more accurately than the Hellman’s lower bound. We showed that the given formula is closely match experimental data.
    In the last, we introduced a new method to construct matrices which have much more ECR than Hellman matrices. In fact, each matrix in this new method is constructed with one single chain, which is non-repeating trajectory from a random point. So, this approach result in a number of matrices that each one contains a chain with variable length. The main advantage of this method is that we have more probability of success than Hellman method, however online time and memory requirements are increased. We have also verified theory of this new method with experimental results.
    Keywords: Time-Memory Trade-off, one way function, Hellman matrix, Expected coverage rate
  • Alireza Golgouneh , Bahram Tarvirdizadeh * Pages 59-74
    Stress has affected human’s lives in many areas, today. Stress can adversely affect human’s health to such a degree as to either cause death or indicate a major contributor to death. Therefore, in recent years, some researchers have focused to developing systems to detect stress and then presenting viable solutions to manage this issue.
    Generally, stress can be identified through three different methods including (1) Psychological Evaluation, (2) Behavioral Responses and finally (3) Physiological Signals. Physiological signals are internal signs of functioning the body, and therefore nowadays are commonly used in various medical and non-medical applications. Since these signals are correlated with the stress, they have been commonly used in detection of the stress in humans. Photoplethysmography (PPG) and Galvanic Skin Response (GSR) are two of the most common signals which have been widely used in many stress related studies. PPG is a noninvasive method to measure the blood volume changes in blood vessels and GSR refers to changes in sweat gland activity that are reflective of the intensity of human emotional state.
    Design and fabrication of a real-time handheld system in order to detect and display the stress level is the main aim of this paper. The fabricated stress monitoring device is completely compatible with both wired and wireless sensor devices. The GSR and PPG signals are used in the developed system. The mentioned signals are acquired using appropriate sensors and are displayed to the user after initial signal processing operation. The main processor of the developed system is ARM-cortex A8 and its graphical user interface (GUI) is based on C++ programming language. Artificial Neural Networks such as MLP and Adaptive Neuro-Fuzzy Inference System (ANFIS) are utilized to modeling and estimation of the stress index. The results show that ANFIS model have a good accuracy with a coefficient of determination values of 0.9291 and average relative error of 0.007.
    Keywords: Stress, Physiological signals, GSR, PPG, Artificial Neural Networks, ANFIS
  • Asghar Feizi * Pages 75-88
    With the growth of demand for security and safety, video-based surveillance systems have been employed in a large number of rural and urban areas. The problem of such systems lies in the detection of patterns of behaviors in a dataset that do not conform to normal behaviors. Recently, for behavior classification and abnormal behavior detection, the sparse representation approach is used. In this paper, feature sparse representation in a multi-view network is used for the purpose of behavior classification and abnormal behavior detection. To serve this purpose, a geometrically independent feature is first extracted for each location in the image. Then, for each camera view, the matrix for the dictionary A is calculated, which is considered as a set of behavior models. In order to share information and make use of the trained models, the learned dictionary matrix from the experienced camera is transferred to inexperienced cameras. The transferred matrix in the new camera is subsequently used to detect abnormal behaviors. A hierarchical method on the basis of spectral clustering is proposed for learning the dictionary matrix. After sparse feature representation, a measurement criterion, which makes use of the representation, is presented for abnormal behavior detection. The merit of the method proposed in this paper is that the method does not require correspondence across cameras. The direct use of the dictionary matrix and transfer of the learned dictionary matrix from the experienced camera to inexperienced ones, are tested on several real-world video datasets. In both cases, desirable improvements in abnormal behavior detection are obtained. The experimental results point to the efficacy of the proposed method for camera cooperation in order to detect abnormal behaviors.
    Keywords: Visual Surveillance, Sparse Representation, Behavior Recognition, Abnormal Behavior, Camera Collaboration
  • Akram Aslani*, Mahdi Esmaeili Pages 89-100
    Quran’s Text differs from any other texts in terms of its exceptional concepts, ideas and subjects. To recognize the valuable implicit patterns through a vast amount of data has lately captured the attention of so many researchers. Text Mining provides the grounds to extract information from texts and it can help us reach our objective in this regard. In recent years, Text Mining on Quran and extracting implicit knowledge from Quranic words have been the object of researchers’ focus. It is common that in Quranic experts’ arguments, different sides of the discussion present different intellectual, logical and some non-integrated minor evidence in order to prove their own theories. More often than not, every side of these arguments disapproves of the other’s hypothesis and in the end it is impossible for them to reach a state of consensus on the matter, the reason is that, they do not have a common basis for their arguments and they do not make use of scientific, logical methods to strongly support their theories. Therefore, using modern technological trends regarding Quranic arguments could lead to resolving so many of current discrepancies, caused by human errors, which exist among Quranic researchers. It can help providing a common ground for their arguments in order to reach a comprehensive understanding.
    The method used in this research implements frequent pattern mining algorithms, singular frequent patterns as well as dual and tripe frequent patterns in order to analyze Quranic text, in addition to this, Association rules have also been evaluated in the research.
    Out of 54226 extracted association rules for Quranic words which have been evaluated by the use of criteria such as confidence coefficient, support coefficient, lift criteria as well as Co-efficient criteria. Top 10 rules for each criterion have been analyzed and reviewed throughout the project.
    Keywords: Data Mining, Text Mining, Association rules, Holy Quran, Frequent patterns
  • Mona Khodagholi , Ardeshir Dolati , Ali Hosseinzadeh*, Khashayar Shamsolketabi Pages 101-112
    Support Vector Machine (SVM) is one of the important classification techniques, has been recently attracted by many of the researchers. However, there are some limitations for this approach. Determining the hyperplane that distinguishes classes with the maximum margin and calculating the position of each point (train data) in SVM linear classifier can be interpreted as computing a data membership with certainty. A question may be raised here: how much the level of the certainty of this classification, based on hyperplane, can be trusted. In the standard SVM classification, the significance of error for different train data is considered equal and every datum is assumed to belong to just one class. However, in many cases some of train data, including outlier and vague data with no defined model, cannot be strictly considered as a member of a certain class. That means, a train datum may does not exactly belong to one class and its features may show 90 percent membership of one class and 10 percent of another. In such cases, by using fuzzy SVM based on fuzzy logic, we can determine the significance of data in the train phase and finally determine relative class membership of data.
    The method proposed by Lin and Wang is a basic method that introduces a membership function for fuzzy support vector machine. Their membership function is based on the distance between a point and the center of its corresponding class.
    In this paper, we introduce a new method for giving membership to train data based on their distance from distinctive hyperplane. In this method, SVM classification together with primary train data membership are used to introduce a fuzzy membership function for the whole space using symmetrical triangular fuzzy numbers. Based on this method, fuzzy membership function value of new data is selected with minimum difference from primary membership of train data and with the maximum level of fuzzification. In the first step, we define the problem as a nonlinear optimization problem. Then we introduce an efficient algorithm using critical points and obtain final membership function of train data. According to the proposed algorithm, the more distant data from the hyperplane will have a higher membership degree. If a datum exists on the hyperplane, it belongs to both classes with the same membership degree. Moreover, by comparing the primary membership degree of train data and calculated final distribution, we compute the level of noise for train data. Finally, we give a numerical example for illustration the efficiency of the proposed method and comparing its results with the results of the Lin and Wang approach.
    Keywords: Fuzzy Logic, Machine learning, Data mining, Fuzzy support vector machine, fuzzy membership function
  • Fatemeh Ashari*, Nooshin Riahi Pages 113-122
    Dramatic changes in digital communication and exchange of image, audio, video and text files result in a suitable field for interpersonal transfers of hidden information. Therefore, nowadays, preserving channel security and intellectual property and access to hidden information make new fields of researches naming steganography, watermarking and steganalysis. Steganalysis as a binary classification distinguish clean signals from stego signals. Features extracted from time and transform domain are proper for this classifier.
    Some of steganalysis methods are depended on a specific steganography algorithm and others are independent. The second group of methods are called Universal steganalysis. Universal steganalysis methods are widely used in applications because of their independency to steganography algorithms. These algorithms are based on characteristics such as distortion measurements, higher order statistics and other similar features.
    In this research we try to achieve more reliable and accurate results using analytical review of features, choose more effective of them and optimize SVM performance.
    In new researches Mel Frequency Cepstral Coefficient and Markov transition probability matrix coefficients are used to steganalysis design. In this paper we consider two facts. First, MFCC extract signal features in transform domain similar to human hearing model, which is more sensitive to low frequency signals. As a result, in this method there is more hidden information mostly in higher frequency audio signals. Therefore, it is suggested to use reversed MFCC. Second, there is an interframe correlation in audio signals which is useful as an information hiding effect.
    For the first time, in this research, this features is used in steganalysis field. To have more accurate and stable results, we use recursive feature elimination with correlation bias reduction for SVM.
    To implement suggested algorithm, we use two different data sets from TIMIT and GRID. For each data sets,Steghide and LSB-Matching steganography methods implement with 20 and 50 percent capacity. In addition, one of the LIBSVM 3.2 toolboxes is sued for implementation.
    Finally, the results show accuracy of steganalysis, four to six percent increase in comparison with previous methods. The ROC of methods clearly shows this improvement.
    Keywords: steganalysis, steganography, Mel, SVM-RFE+CBR
  • Saniyeh Deylami , Yaghoub Farjami * Pages 123-133
    The response speed of Web pages is one of the necessities of information technology. In recent years, renowned companies such as Google and computer scientists focused on speeding up the web. Achievements such as Google Pagespeed, Nginx and varnish are the result of these researches. In Customer to Customer(C2C) business systems, such as chat systems, and in Business to Customer(B2C) systems, such as online stores and banks, the power and speed of the system’s response to the high volume of visitors are very effective in customer satisfaction and the efficiency of the business system. Increasing the speed of web pages from the origin of the advent of this technology, used from known and proven methods such as preprocessing, cookie, Ajax, cache and so on, to speed up the implementation of Internet applications, but it still needs to increase the speed of running and operating systems under the web.
    Recently, successful and effective methods and tools devised to increase the loading speed of Web pages, which consist mainly two approaches, increasing the speed on the client-side user and increasing the speed of the server-side.
    Research and technology on the performance and speed of Web technology on server side are divided into two categories of content enhancements, such as the Google Page Speed tool and Web server performance improvements such as Reverse Proxies. Reverse proxy is the most effective way to increase the speed on the server-side. Web server performance is measured by various metrics such as process load, memory usage and response speed to requests. Reverse proxy technology has been implemented in the Varna and Engineer systems. Implementing the reverse proxy in Varna has focused on caching processing content and on the engineering to cache static content.
    Our goal is to evaluate the performance of these two systems as reverse proxies to improve the response speed and loading of web pages in two types of dynamic (processing) and static (multimedia) content and provide a framework for the appropriate selection of a reverse proxy on web servers.
    In this paper, we introduce reverse proxy and analyze the performance of the four web servers, namely apache + varnish, nginx, nginx + varnish and apache, with both static and dynamic content, in terms of response speed of web pages as a measure of performance. First, our results show that, using a reverse proxy response speed is increased. Second, the resulted speed up is related not only to web server type but also to the content type of web pages requested repeatedly. Finally, a ranking is provided which helps to select the appropriate web server and reverse proxy when the web content type is static (multimedia) or dynamic (processed).
    Keywords: reverse proxy, varnish, nginx, accelerated web, response time