فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال نوزدهم شماره 4 (پیاپی 54، زمستان 1401)

  • تاریخ انتشار: 1402/03/02
  • تعداد عناوین: 12
|
  • حمید نوراللهی، سید ابوالفضل حسینی*، علی شهزادی، رامین شقاقی کندوان صفحات 3-18

    در این مقاله روش جدیدی برای آشکارسازی سیگنال های مخابراتی پیشنهاد شده است که بر مبنای استخراج ویژگی های سیگنال مخابراتی بکمک برازش خم  عمل می کند. در هریک از سمبل های سیگنال  مخابراتی  یک تابع تقریب کسر گویا  بوسیله  برازش بر منحنی سیگنال آن ایجاد می شود. ویژگی های جدید توسط ضرایب چند جمله ای صورت و مخرج  این تابع تقریب کسر گویا  تعیین می شوند. در روش پیشنهادی دو فاز آموزش و آزمون در نظر گرفته شده است. ابتدا در فاز آموزش الگوریتم، تعداد مشخصی سمبل های تصادفی تولید می شود و توسط مدولاسیون دودویی ASK و FSK مدوله می شوند، درادامه سیگنال  مدوله شده هریک از سمبل ها در کانال به نویز جمع شونده گوسی آغشته  می شود و توسط آنتن گیرنده دریافت می شود. سپس  نمونه های مشخصی  از شکل موج سیگنال دریافت شده  با نرخ نمونه برداری مشخص استخراج می شود. به ازای هر N=1500,12500  نمونه از  سیگنال یک منحنی کسر گویا با درجه L و M مشخص برازش می شود. سپس تمامی ضرایب  صورت و مخرج تابع کسر گویا  برازش شده با درجات L وM   مختلف ذخیره شده و هیستوگرام ضرایبی که قابلیت تفکیک کامل دو کلاس 0 و 1  را دارند بدست می آیند. لذا تمامی ضرایب با درجات L و M مختلفی که  امکان تفکیک کامل را دارند همراه  با  مرز تصمیم گیری شان در یک جدول ذخیره می شوند. شایان ذکر است که داده های مورد  استفاده جهت  استخراج و شناسایی ضرایب تفکیک کننده، داده های  آموزشی هستند. سرانجام  جهت آنالیز کارایی روش پیشنهادی، تعداد مشخصی از داده های آزمون با مدولاسیون مشخص ارسال می گردد و با مقایسه با مرزهای تصمیم گیری بدست آمده در فاز آموزش نسبت به طبقه بندی آن در کلاس مورد نظر تصمیم گیری می شود. نتایج طبقه بندی روش پیشنهادی بیانگر برتری روش پیشنهادی در مقایسه با روش احتمال خطا تیوری  می باشد.

    کلیدواژگان: آشکارسازی، استخراج ویژگی، برازش منحنی، طبقه بندی
  • منا شریف نژاد، محسن رحمانی*، حسین غفاریان صفحات 19-32

    در بسیاری از مسایل یادگیری ماشین، انتخاب ویژگی های مرتبط و اجتناب از ویژگی های افزونه، برای بهبود کارایی انتخاب ویژگی ضروری است. در اکثر رویکردهای موجود، از الگوریتم های فیلتر چندمتغیره برای این منظور استفاده می شود که در آن ها تعامل با طبقه بند نادیده گرفته می شود. این مقاله با ارایه یک چارچوب، ترکیب روش های نهفته با روش های  فیلتر چندمتغیره را پیشنهاد می دهد تا با درنظر گرفتن تعامل با طبقه بند در انتخاب ویژگی ها، این مشکل را برطرف نماید. در چارچوب پیشنهاد شده، ارتباط بین هر ویژگی و برچسب های کلاس توسط الگوریتم های نهفته محاسبه می شود و افزونگی بین ویژگی ها از طریق الگوریتم های فیلتر چندمتغیره بررسی می شود. این چارچوب پیشنهادی، دقت طبقه بندی را روی چندین مجموعه داده بهبود داده است. به علاوه در فرایند انتخاب ویژگی پیشنهاد شده، بجای استفاده یکدفعه  از همه مجموعه داده ها، از توزیع افقی آن ها استفاده شده است. این خصوصیت برای مجموعه داده هایی که دارای نمونه های زیادی هستند و نیز در محیط هایی که داده ها  متمرکز نیستند، باعث کاهش زمان اجرای فرایند انتخاب ویژگی شده است. کیفیت روش ما با استفاده از شش مجموعه داده ارزیابی شده است. نتایج ثابت می کنند که چارچوب پیشنهاد شده، می تواند دقت طبقه بندی را در مقایسه با روش های صرفا مبتنی بر فیلتر چندمتغیره بهبود دهد. همچنین سرعت اجرا می تواند در مقایسه با روش های متمرکز بهبود یابد.

    کلیدواژگان: انتخاب ویژگی فیلتر چندمتغیره، انتخاب ویژگی نهفته، طبقه بندی، توزیع شدگی
  • الهام پژهان، محمد قاسم زاده* صفحات 33-44

    این پژوهش در رابطه با به کارگیری ابزارهای یادگیری عمیق و فناوری پردازش تصویر در تولید خودکار تصویر از روی متن می باشد. پژوهش های پیشین از یک جمله برای تولید تصاویر بهره می برند. در این پژوهش یک مدل سلسله مراتبی مبتنی بر حافظه ارایه شده است که از سه توصیف مختلف که در قالب جمله ارایه می شوند، برای تولید و بهبود تصویر بهره می برد. طرح پیشنهادی با بهره گیری از شبکه های رقابتی مولد، بر به کارگیری اطلاعات بیشتر جهت تولید تصاویر با وضوح بالا تمرکز دارد.  پیاده سازی و اجرای برنامه های مربوط به این حوزه نیاز به منابع پردازشی بالا دارند. لذا طرح پیشنهادی با بهره گیری از بستره سخت افزاری دانشگاه کپنهاگ بر روی یک کلاستر با 25 واحد پردازش گرافیکی پیاده سازی و تحت آزمون قرار گرفت. آزمایش ها روی مجموعه دادگان CUB-200 و ids-ade انجام شدند. نتایج آزمایش ها نشان می دهند که مدل ارایه شده می تواند تصاویر با کیفیت بالاتری نسبت به دو مدل پایه StackGAN و AttGAN تولید کند.

    کلیدواژگان: شبکه رقابتی مولد، یادگیری عمیق، مدل سلسله مراتبی، پردازش زبان طبیعی
  • رحیم دهخوارقانی*، حجت امامی صفحات 45-60

    بیمه بیکاری یکی از مهم ترین و پرطرفدارترین انواع بیمه در دنیای امروزی محسوب می شود. سازمان تامین اجتماعی در مقابل ادعای بیکاری افراد تحت پوشش این سازمان، وظیفه بررسی صحت این موضوع را دارد. بررسی دستی ادعای افراد بیکار نیازمند صرف زمان و هزینه زیادی است. روش های داده کاوی و یادگیری ماشین به عنوان ابزارهای کارآمد تحلیل داده ها می تواند در خودکارسازی این فرآیند به سازمان تامین اجتماعی کمک کنند. در این پژوهش، روشی مبتنی بر یادگیری نظارتی برای بررسی صحت ادعای بیکاری افراد متقاضی ارایه شده است. روش پیشنهادی، اطلاعات بیمه شدگان را به عنوان ورودی دریافت کرده و پس از تحلیل داده ها به هر فرد متقاضی امتیازی تخصیص می دهد. سپس بر اساس مقدار این امتیاز، مدعیان بیمه بیکاری را به دو گروه "شایسته دریافت بیمه بیکاری" و "فاقد کفایت برای دریافت بیمه بیکاری" دسته بندی می کند. روش پیشنهادی از دو ترکیب مختلف برای دسته بندی ادعای متقاضیان استفاده می کند: روش BSA-SVM و روش ترکیب  ضرایب اطمینان طبقه بندها. در روش BSA-SVM برای بهبود کارایی و تخمین پارامترهای کنترلی SVM، از الگوریتم بهینه سازی جستجوی عقبگرد (BSA) استفاده شده است. در روش ترکیب  ضرایب اطمینان طبقه بندها، تعدادی طبقه بند، از جمله شبکه های عصبی مصنوعی، درخت تصمیم و رگرسیون لجستیک داده ها را طبقه بندی کرده و ضرایب اطمینان این طبقه بندها با دو روش مختلف با همدیگر ترکیب می شوند. نتایج آزمایش ها نشان می دهد که روش پیشنهادی BSA-SVM با کسب 87% و روش ترکیب طبقه بندها با ضرایب اطمینان با کسب دقت 86%، کارایی بهتری در قیاس با سایر روش های موجود کسب کرده اند.

    کلیدواژگان: بیمه بیکاری، داده کاوی، یادگیری ماشین، یادگیری نظارتی، BSA-SVM، ترکیب طبقه بندها
  • پیام محمودی نصر* صفحات 61-70

    حمله به پایگاه داده در یک سامانه نرم افزاری می تواند آسیب های جبران ناپذیری به همراه داشته باشد. این حمله ممکن است در اشکال متفاوتی مانند سرقت داده، جعل داده و یا نقض حریم خصوصی نمایان شود. گستردگی این حمله، با توجه به کاربرد داده ی ذخیره شده، می تواند منجر به  ایجاد خسارت های جانی و مالی فراوانی حتی در سطح ملی گردد. از آنجایی که کاربران قانونی نقش کلیدی در تامین امنیت پایگاه داده دارند، یکی از تهدیهای خطرناک پایگاه داده حمله کاربران قانونی است. این حمله هنگامی بوجود می آید که کاربر خودی با سوءاستفاده از مجوزهای قانونی تلاش برای استفاده غیرمجاز از داده ها داشته باشد. در این مقاله یک چارچوب مجوزدهی مبتنی بر کارایی برای کاهش تهدید کاربران خودی ارایه شده است. در این چارچوب سطح دسترسی کاربر به جدول پایگاه داده با توجه به مقدار کارایی وی و سطح حساسیت جدول تعیین می گردد. مقدار کارایی کاربر در فواصل زمانی معین و یا هنگام تشخیص سوءاستفاده به روزرسانی می شود. نتایج شبیه سازی با استفاده از داده های واقعی از یک سیستم اطلاعات بیمارستانی نشان می دهد که چارچوب پیشنهادی از کارایی مناسبی برخوردار است.

    کلیدواژگان: امنیت سایبری، پایگاه داده، تهدید خودی، کنترل دسترسی، مجوزدهی
  • علی محمد نوروززاده گیل ملک، محمدرضا عارف*، رضا رمضانی خورسید دوست صفحات 71-84

    تحقق امنیت مطلوب و پایدار در شبکه های برخوردار از گستره ملی، سازمانی و حتی در سامانه های اطلاعاتی دارای حساسیت، باید مبتنی بر یک روش نظام مند و همه جانبه نگر بوده و به صورت گام به گام انجام گیرد. رمزنگاری مهمترین سازوکار برای تامین امنیت اطلاعات بوده که عمدتا مبتنی بر الگوریتم های رمزنگاری است. در طراحی یک الگوریتم همه مولفه های لازم امنیت را باید در یک الگوی تعالی از جنبه های فنی، سازمانی، رویه ای و انسانی در نظر گرفت. برای پاسخگویی به این نیازها، ابتدا باید بر اساس یک مدل، مولفه های موثر را استخراج و سپس میزان تاثیر مولفه ها را تعیین نمود. در این مقاله از روش شناسی سایبرنتیک برای تهیه یک ابرمدل استفاده می کنیم.فعل و انفعالات مولفه های این ابرمدل یک گراف پیچیده تشکیل می دهند. برای غلبه بر این پیچیدگی برای تعیین اولویت مولفه های آن از ابزار ELECTRE III  استفاده می کنیم. نتایج حاصل  از آن با درصد بالایی منطبق بر گزارش های منتشر شده توسطITU در سال های 2015، 2017 و 2018  است.

    کلیدواژگان: الگوریتم های رمزنگاری، ابرمدل، سایبرنتیک، MCDM، ELECTRE III
  • جواد علیزاده*، نصور باقری صفحات 85-94

    پروتکل های احراز اصالت و توافق کلید (AKA)  نقش مهمی در امنیت اینترنت اشیا (IoT) دارند. شبکه های حسگر بی سیم (WSN) یک مولفه مهم در برخی کاربردهای IoT هستند. در سال 2019، جانبابایی و همکاران یک پروتکل AKA سبک وزن برای WSN ارایه و ادعا کردند ویژگی های امنیتی مانند گمنامی و محرمانگی را تامین می کند. در این مقاله، چند آسیب پذیری مهم و غیر بدیهی از این طرح ارایه می شود. دقیق تر اینکه نشان داده می شود هنگام برقراری نشست با استفاده از این پروتکل، یک حسگر بدخواه می تواند پارامترهای محرمانه یک حسگر دیگر را به دست آورد. علاوه بر این نشان داده می شود یک مهاجم با داشتن تنها یک کلید نشست شناخته شده، می تواند هر کلید نشست دیگر توافق شده میان حسگرها را به دست آورد. با توجه به این ضعف ها، حملاتی مانند حمله جعل گره حسگر و مردی در میانه روی پروتکل جانبابایی و همکاران عملی است و می توان نشان داد این طرح، بر خلاف ادعای مولفان، نمی تواند ویژگی گمنامی گره های حسگر را تامین کند. ضعف مهم این طرح مربوط به انتقال کلید نشست بدون استفاده از تابع چکیده ساز روی آن است که برای رفع آن یک پیشنهاد ساده ارایه می شود.

    کلیدواژگان: اینترنت اشیا، شبکه حسگر بی سیم، احراز اصالت و توافق کلید، گمنامی
  • صدرالله عباسی، صمد نجاتیان*، حمید پروین، وحیده رضایی، کرم الله باقری فرد صفحات 95-120

    خوشه بندی داده ها یکی از مراحل اصلی در داده کاوی است که وظیفه کاوش الگوهای پنهان در داده های بدون برچسب را بر عهده دارد. به خاطر پیچیدگی مسیله و ضعف روش های خوشه بندی پایه، امروزه اکثر مطالعات به سمت روش های خوشه بندی ترکیبی هدایت شده است. پراکندگی در نتایج اولیه یکی از مهم ترین عواملی است که می تواند در کیفیت نتایج نهایی اثرگذار باشد. همچنین، کیفیت نتایج اولیه نیز عامل دیگری است که در کیفیت نتایج حاصل از ترکیب موثر است. هر دو عامل در تحقیقات اخیر خوشه بندی ترکیبی مورد توجه قرار گرفته اند. در این جا یک چارچوب جدید برای بهبود کارایی خوشه بندی ترکیبی پیشنهاد شده است که مبتنی بر استفاده از زیرمجموعه ای از خوشه های اولیه می باشند روش ارایه شده نشان می دهد که  استفاده از زیرمجموعه ای از نتایج خوشه بندی های اولیه می تواند بهتر از استفاده از کل نتایج باشد همچنین معیاری را پشنهاد می دهد  که چگونه  نتایج اولیه نسبت به هم ارزیابی شوند. این تحقیق معیاری ارایه می دهد که به وسیله آن میتوان تشخیص داد کدام زیرمجموعه از نتایج اولیه می تواند منجر به بهبود عملکرد خوشه بندی ترکیبی شود.  از آن جایی که الگوریتم های هوشمند تکاملی توانسته اند اکثریت مسایل پیچیده مهندسی را حل نمایند، در این مقاله نیز از این روش های هوشمند برای انتخاب زیرمجموعه ای از خوشه های اولیه استفاده شده است.  این انتخاب به کمک سه روش هوشمند (الگوریتم ژنتیک، شبیه سازی تبرید و الگوریتم ازدحام ذرات) انجام می گیرد. ایده های اصلی در روش های پیشنهادی برای انتخاب زیرمجموعه ای از خوشه ها، استفاده از خوشه های پایدار به کمک الگوریتم های جستجوی هوشمند (الگوریتم های تکاملی) می باشند. برای ارزیابی خوشه ها، از معیار پایداری مبتنی بر اطلاعات متقابل استفاده شده است. در آخر نیز خوشه های انتخاب شده را به کمک چندین روش ترکیب نهایی با هم جمع می کنیم. نتایج تجربی روی چندین مجموعه داده استاندارد و با معیارهای ارزیابی اطلاعات متقابل نرمال شده، فیشر و دقت در مقایسه با روش های علیزاده، عظیمی، Berikov ، CLWGC، RCESCC، KME، CFSFDP،DBSCAB، NSC و Chenنشان می دهد که روش های پیشنهادی می تواند به طور موثری روش ترکیب کامل  را بهبود دهد.

    کلیدواژگان: بهینه سازی محلی، تنوع، الگوریتم های تکاملی، ماتریس همبستگی
  • سعید بختیاری*، زهرا نصیری، سید محمدصادق حجازی صفحات 121-136

    کارت های اعتباری باعث سرعت بخشیدن و سهولت زندگی تمامی شهروندان و مشتریان بانک ها می شود. این امر موجب استفاده گسترده و روزافزون جهت پرداخت آسان پول از طریق تلفن همراه، اینترنت، دستگاه های خودپرداز و غیره می باشد. با وجود محبوبیت کارت های اعتباری، مشکلات امنیتی مختلف مانند تقلب برای آن وجود دارد. همان طور که روش های امنیتی بروز می شوند، متقلبان نیز روش های خود را بروز می کنند که این امر موجب نگرانی بانک ها و مشتریان آنها می شود. به همین دلیل محققان سعی کردند راه حل های مختلفی جهت تشخیص، پیش بینی و پیشگیری از تقلب در کارت های اعتباری ارایه دهند. یکی از روش ها روش داده کاوی و یادگیری ماشین است. یکی از با اهمیت ترین مسایل در این زمینه، دقت و کارایی است. در این پژوهش روش های Gradient Boosting که زیر مجموعه روش های تجمیعی و یادگیری ماشین هستند را بررسی کرده و با ترکیب روش ها نرخ خطا را کاهش و دقت تشخیص را بهبود می دهیم. بنابراین دو الگوریتم LightGBM و XGBoost را مقایسه کرده و سپس آنها را با استفاده از روش های تجمیعی میانگین گیری ساده و وزن دار ترکیب نمودیم و در نهایت مدل ها را بوسیله AUC و Recall وscore - F1 و  Precisionو Accuracy ارزیابی کردیم. مدل پیشنهادی پس از اعمال مهندسی ویژگی با استفاده از روش میانگین گیری وزن دار به ترتیب برای روش های ارزیابی مذکور به اعدادی معادل 08/95، 57/90، 35/89، 28/88 و 27/99 رسیده است. بر این اساس مهندسی ویژگی و میانگین گیری وزن دار تاثیر به سزایی در بهبود دقت پیش بینی و شناسایی داشتند.

    کلیدواژگان: تشخیص تقلب، کارت اعتباری، یادگیری تجمیعی، داده کاوی
  • زهرا رحیمی، محمدمهدی همایونپور* صفحات 137-148

    یکی از کاربردهای مهم در پردازش زبان طبیعی، دسته بندی متون است. برای دسته بندی متون خبری باید ابتدا آنها را به شیوه مناسبی بازنمایی کرد. روش های مختلفی برای بازنمایی متن وجود دارد ولی بیشتر آنها روش هایی همه منظوره هستند و  فقط از اطلاعات هم رخدادی محلی و مرتبه اول کلمات برای بازنمایی استفاده می نمایند. در این مقاله روشی  بی ناظر برای بازنمایی متون خبری ارایه شده است که از اطلاعات هم رخدادی سراسری و اطلاعات موضوعی  برای بازنمایی اسناد استفاده می نماید. اطلاعات موضوعی علاوه بر اینکه بازنمایی انتزاعی تری از متن ارایه می دهد حاوی اطلاعات هم رخدادی های مراتب بالاتر نیز هست. اطلاعات هم رخدادی سراسری و موضوعی مکمل یکدیگرند. بنابراین در این مقاله به منظور تولید بازنمایی غنی تری برای دسته بندی متن، هر دو بکارگرفته شده اند. روش پیشنهادی بر روی پیکره های R8  و 20-Newsgruops که از پیکره های شناخته شده برای دسته بندی متون هستند آزمایش شده و با روش های مختلفی مقایسه گردید. در مقایسه با روش پیشنهادی با سایر روش ها افزایش دقتی به میزان افزایش 3%  مشاهده گردید.

    کلیدواژگان: بازنمایی سند، تعبیه سند، تعبیه کلمه، همرخدادی کلمات، اطلاعات موضوعی، دسته بندی متن
  • بهار تاج الدینی*، سعیدرضا صیدنژاد، سهیلا رضاخانی صفحات 149-172

    با توجه به اینکه تشنج‏ها موجب اختلال در هوشیاری بدون پیش آگاهی می‏شود، پیش بینی آن‏ها می‏تواند باعث کاهش فشار روانی و بهبود کیفیت زندگی شود. در این مقاله، امکان پیش بینی کوتاه مدت حمله صرع بدون حذف مصنوعات ، با زمان و دقت مناسب با استفاده از مدل AR و کپستروم بهبود یافته بررسی شده است. ابتدا سیگنال EEG با تبدیل موجک، به دلیل تفاوت فرکانس حمله ‏ها و مصنوعات هر بیمار با بیمار دیگر تفکیک می‏شود. سپس تشخیص تغییرات دوره حمله با استفاده از مدل‏سازی AR و روش کپستروم به دلیل متناوب بودن دامنه و فرکانس این دوره، انجام می‏پذیرد. در مرحله بعد با مقایسه دوره جاری با دوره پس‏زمینه و اعمال فیلتر میانه، خطای ناشی از مصنوعات (Artifact) و تخلیه‏های میان حمله‏ای کاهش داده می‏شود. در نهایت سیگنال با روش پنجره پیشرو متوسط‏گیری شده و منحنی پوش بالای نمودار محاسبه می‏شود. روش پیشنهادی روی مدل پیشنهادی صرعی بزرگسال و همچنین 10 بیمار با داده‏های EEG طولانی مدت بدون حذف مصنوعات بررسی شده است. دقت و مقدار متوسط زمان پیش بینی، به ترتیب 92% ، 5/18 ثانیه بدست آمده است.

    کلیدواژگان: پیش گویی حمله صرع، صرع لوب تمپورال، تبدیل موجک، مدل AR، کپستروم، فیلتر میانه، منحنی پوش، مدل صرعی بزرگسال
  • شقایق رضا، علی سید صالحی*، زهره سید صالحی صفحات 173-196

    شواهد و آزمایشات گفتاری نشان می دهد که اطلاعات در سیگنال گفتار به صورت غیر یکنواخت توزیع شده و انسان با تمرکز به نواحی پر اطلاعات آن قادر است به صورت مقاوم گفتار را بازشناسی کند. در این راستا در این تحقیق، یک سامانه ی بازشناسی آوای فارسی مبتنی بر تمرکز روی بازشناسی مقاوم نواحی پراطلاعات و مجزای صوتی ارایه شده است. این نواحی شاخص های صوتی نامیده می شوند. بدین منظور ابتدا برای سیگنال گفتار زبان فارسی یک مجموعه از شاخص های مناسب صوتی انتخاب شده و به یک شبکه ی عصبی عمیق آموزش داده شده اند. سپس، به منظور حذف تنوعات شاخص های صوتی، تغییراتی در ساختار مدل و شیوه ی آموزش آن در چهار طرح مختلف انجام شده است. در طرح اول، از یک شبکه ی عصبی جداگانه و در طرح دوم از یک ساختار یادگیری چند تکلیفی برای جبران سازی غیرخطی تنوعات شاخص های صوتی استفاده شده است. در طرح سوم نیز از یک اتصال بازگشتی در لایه ی پنهان شبکه برای بازسازی ورودی و در طرح چهارم از یک ساختار مبتنی بر شبکه های جاذب دار عمیق برای کاهش تنوعات ناخواسته استفاده شده است. در این مقاله آزمایش ها روی مجموعه دادگان گفتاری فارسی "فارس دات" انجام شده است و نتایج بازشناسی به صورت خطای بازشناسی آوا گزارش شده است. بهترین مدل آموزش یافته، یک شبکه ی عصبی جلوسو با پنج لایه ی پنهان است. خطای بازشناسی آوای این ساختار روی دادگان آزمون برابر 74/21 درصد به دست آمد. همچنین استفاده از چهارطرح پالایش تنوعات به ترتیب خطای بازشناسی آوا را به طور مطلق 39/0، 58/0، 43/0 و 3/1 درصد کاهش داده است.

    کلیدواژگان: بازشناسی آوا، شاخص های صوتی، یادگیری عمیق، بازشناسی مقاوم، پالایش غیر خطی
|
  • Hamid Nourollahi, S. Abolfazl Hosseini*, Ali Shahzadi, Ramin Shaghaghi Kandovan Pages 3-18

    In this manuscript, we proposed a new scheme in communication signal detection which is respect to the curve shape of received signal and based on the extraction of curve fitting (CF) features. This feature extraction technique is proposed for signal data classification in receiver. The proposed scheme is based on curve fitting and approximation of rational fraction coefficients. For each symbol of received signal, a specific rational function approximation is developed to fit with received signal curve and the coefficients of the numerator and denominator polynomials of this function are considered as new extracted features. Then  it will be shown that the coefficients of this polynomials have the potential for using as new features in a statistical classifier and have better performance in competition with other solutions such as linear and even nonlinear feature extraction methods in  classification. The criteria used in performance evaluation are  probability of error and signal to noise ratio in FSK and ASK modulations. For each symbol of received signal, a specific rational function approximation is developed to fit with received signal curve and the coefficients of the numerator and denominator polynomials of this function are considered as new extracted features. In the proposed method, there are two phases train and test, which are described in the following two steps. First, in the train phase, the algorithm starts by using binary FSK and ASK modulations, so first, a system generate a number of random symbols then signal is modulated by binary ASK and FSK. The Modulated FSK and ASK signals are corrupted in the channel with noise. The noise-corrupted signal enters the receiver at the corresponding transmitted interval. Then, the samples are extracted from the modulated signals based on predetermined sample rates. Then, we fit a rational fraction curve with degrees of L and M to each set of N samples. Afterward, we apply all the numerator (L+1) and denominator (M) coefficients to 0 and 1 classes  in the binary FSK and ASK modulations. We store all the specific coefficients of the deterministic symbols at different M and L values to create the corresponding histogram in each class. In each histogram (i.e., the coefficients of a class), we extract and store specific coefficients that completely discriminate between the two classes. Therefore, we determine all the histograms where there is a good approximation of discrimination and create the related table. Note that the data used in histograms are the training data. Then, in order to analyze and evaluate the performance of the proposed curve fitting method, we send the testing data through the channel corresponding to the related modulator. The results of the proposed classification method show that it provides smaller error rate regarding to the theoretical error rate probability in AWGN channel.

    Keywords: detection, feature extraction, curve fitting, classification
  • Mona Sharifnezhad, Mohsen Rahmani*, Hosein Ghafarian Pages 19-32

    Feature selection is considered as an important issue in classification domain. Selecting a good feature through maximum relevance criterion to class label and minimum redundancy among features affect improving the classification accuracy. However, most current feature selection algorithms just work with the centralized methods. In this paper, we suggest a distributed version of the mRMR feature selection approach. In mRMR, feature selection is performed based on maximum relevance to class and minimum redundancy among the features. The suggested method include six stages: in the first stage, after determining training and test data, training data are distributed horizontally. All subsets have same number of features. In the second stage, each subset of features is scored using mRMR feature selection. Features with higher ranks are selected and others are eliminated. In the fourth stage, features which were omitted are voted. In the fifth stage, the selected features are merged to determine the final set. In the final stage, classification accuracy is evaluated using final training data and test data. Our method quality has been evaluated by six datasets. The results prove that the suggested method can improve classification accuracy compared to methods just based on maximum relevance to class label in addition to runtime reduction.

    Keywords: Multivariate filter feature selection, Embedded feature selection, Classification, Distribution
  • Elham Pejhan, Mohammad Ghasemzadeh* Pages 33-44

    This research is related to the use of deep learning tools and image processing technology in the automatic generation of images from text. Previous researches have used one sentence to produce images. In this research, a memory-based hierarchical model is presented that uses three different descriptions that are presented in the form of sentences to produce and improve the image. The proposed scheme focuses on using more information to produce high-resolution images, using competitive productive networks. Implementing programs related to this field require massive processing resources. Therefore, the proposed method was implemented and tested on a cluster with 25 GPUs using the hardware platform of the University of Copenhagen. The experiments were performed on CUB-200 and ids-ade datasets. The experimental results show that the proposed model can produce higher quality images than the two basic models StackGAN and AttGAN.

    Keywords: Generative Adversarial Network, Deep Learning, Hierarchical Model, Natural Language Processing
  • Rahim Dehklharghani*, Hojat Emami Pages 45-60

    Unemployment insurance is one of the most popular insurance types in the modern world. The Social Security Organization is responsible for checking the unemployment benefits of individuals supported by unemployment insurance. Hand-crafted evaluation of unemployment claims requires a big deal of time and money. Data mining and machine learning as two efficient tools for data analysis can assist Social Security Organization in automating this process. In this research work, a hybrid supervised learning method is proposed to verify the eligibility of applicants for unemployment. The proposed method takes as input the information of insured individuals, and assigns a numeric score to each applicant through analyzing the input data. Then, claimants are classified into two groups according to those scores: "Qualified” and "Unqualified". The proposed method includes two hybrid strategies: BSA-SVM and combination of confidence values. In BSA-SVM method, backtracking search algorithm (BSA) is used to estimate the prameters of support vector machines (SVM) and improves the classification performance. In the second approach, confidence values extracted from individual classofiers are combined to better classify the input data. Empirical evaluation shows an accuracy of 87% for BSA-SVM and 86% for the second approach.

    Keywords: Unemployment benefits, data mining, machine learning, supervised learning, BSA-SVM, classifier combination
  • Payam Mahmoudi-Nasr* Pages 61-70

    Today, data plays an essential role in all levels of human life, from personal cell phones to medical, educational, military and government agencies. In such circumstances, the rate of cyber-attacks is also increasing. According to official reports, data breaches exposed 4.1 billion records in the first half of 2019. An information system consists of several components, which one of the most important them is the database. A database in addition to being a repository of data, acts as a common information bus between system components. For this reason, any attack on the database may disrupt the operation of other components of the system. In fact, database security is shared throughout the whole information system. The attack may carried out in various ways, such as data theft, damaging data, and privacy breach. According to the sensitivity of the stored data, database attack could lead to significant human and financial losses even at the national level. Among the different types of threats, since legitimate operator plays a key role in an information system, his/her threat is one of the most dangerous threats to the security and integrity of a database system. This type of cyber-attack occurs when an insider operator abuses his/her legal permissions in order to access unauthorized data. In this paper, a new performance-based authorization framework has been presented which is able to reduce the potential of insider threat in the database system. The proposed method insure that only authenticated operator performs authorized activities on the database objects. In the proposed framework, the access permission of the operator to a database table is determined using his/her performance and the level of sensitivity of the table. The value of the operator performance is updated periodically or when an abuse is detected, in order to protect access to the contents of a database as well as preserve the consistency, integrity, and overall quality of the data. Simulation results, using real dataset from a hospital information system, indicate that the proposed framework has effective performance for mitigating insider threats.

    Keywords: Access control, Authorization, cyber security, database, insider threat
  • Ali Mohammad Norouzzadeh Gilmolk, MohammadReza Aref*, Reza Ramazani Khorshidoust Pages 71-84

    Nowadays, achieving desirable and stable security in networks with national and organizational scope and even in sensitive information systems, should be based on a systematic and comprehensive method and should be done step by step. Cryptography is the most important mechanism for securing information. a cryptographic system consists of three main components: cryptographic algorithms, cryptographic keys, and security protocols, which are mainly based on cryptographic algorithms. In designing a cryptographic algorithm, all the necessary components of information security must be considered in a model of excellence in technical, organizational, procedural and human aspects. To meet these needs, we must first extract the effective components in the design and implementation of cryptographic algorithms based on a model and then determine the impact of the components. In this paper, we use cybernetic methodology to prepare a   metamodel.The cryptographic cybernetics metamodel has four components: " strategy / policy ", "main process", "support process" and "control process". The "main process" has four stages and also, the "suport process" includes 13 components of hardware and software. The interactions of these two processes shape its structure, leading to a complex graph. To prioritize suport components for resource allocation and cryptography strategy, it is necessary to rank these components in the designed metamodel. To overcome this complexity in order to rank the support components, we use the ELECTRE III method, which is a multi-criteria decision-making method. The results show that the components with high priority for the development of the cryptographic system are: Research and Development, Human Resources, Management, Organizational, Information and Communication Technology, Rrules and Regulations and standards. These results are consistent with reports published by the ITU in 2015, 2017 and 2018.

    Keywords: Cryptographic algorithms, Metamodel, Cybernetics, MCDM, ELECTRE III
  • Javad Alizadeh*, Nasour Bagheri Pages 85-94

    Over the last years‎, ‎the concept of Internet of Things (IoT) leads to a revolution in the communications of humans and things. ‎Security and efficiency could be the main challenges of that communication‎‎. ‎‎On the other hand, ‎ authenticity and confidentiality are two important goals to provide desired security in an information system‎, including IoT-based applications. An Authentication and Key Agreement (AKA) protocol is a tool to ‎achieve authenticity and agree on a secret key to reach confidentiality. Therefor using a secure AKA protocol, one can establish the mentioned security. ‎In the last years‎, ‎several articles have discussed AKA protocols in the WSN‎. ‎For example‎, ‎in 2014‎, ‎Turkanovic et al‎. proposed a new AKA scheme for the heterogeneous ad-hoc WSN. ‎In 2016‎, ‎Sabzinejad et al‎. presented an improved one. ‎In 2017‎, ‎Jiang et al‎. introduced a secure AKA protocol‎. ‎Some other AKA protocols have presented in the last three years. ‎All the mentioned protocols are lightweight ones and need minimum resources and try to decrease the computation and communication costs in the WSN context‎. ‎In 2019‎, ‎Janababaei et al. proposed an AKA scheme in the WSN for the IoT applications, in the journal of Signal and Data Processing (JSDP)‎. ‎In the context of efficiency‎, ‎the protocol only uses a hash function‎, ‎bitwise XOR‎, ‎and concatenation operation‎. ‎Hence‎, ‎it can be  considered as a lightweight protocol‎. ‎The authors also discussed the security of their scheme and claimed that the proposed protocol has the capability  to offer anonymity and trust and is secure against traceability‎, ‎impersonation‎, ‎reply and man in the middle attacks‎. ‎However, despite their claims‎, ‎this research highlights some vulnerabilities in that protocol, for the first time to the best of our knowledge‎. More precisely, we showe that a malicious sensor node can find the secret parameters of another sensor node when it establishes a session with the victimized sensor. Besides, an adversary can determine any session key of two sensor nodes, given only a known session key of them. We also show that the protocol could not satisfy the anonymity of the sensor nodes. Other attacks which influence the Janababaei et al.’s scheme, are impersonation attack on the sensor nodes and cluster heads and also the man in the middle attack. In this paper we find that the main weaknesses of the Janababaei et al.’s protocol are related to computation of the session key, . We also propose a simple remedy to enhance the security of the Janababaei et al.’s protocol. ‎An initial attempt to improve the protocol is using a hash function on the calculated key, . This suggestion is presented to enhance the security of the protocol against the observed weaknesses in this paper; but it does not mean that there are no other security issues in the protocol. Therefore, modification and improvement of the Janababaei et al.’s protocol such that it provides other security features can be considered in the future research of this paper. Besides, since in this paper we focus on the security of the protocol, then the efficiency of it was not discussed. Therefore one can consider the modification of the message structure of the protocol to reduce the computational and telecommunication costs of it as another future work in the context of this paper.

    Keywords: Internet of Things, Wireless Sensor Network, Authentication, Key Agreement, Anonymity
  • Sadrollah Abbasi, Samad Nejatian*, Hamid Parvin, Vahideh Rezaei, Karamollah Bagheri Fard Pages 95-120

    Data clustering is one of the main steps in data mining, which is responsible for exploring hidden patterns in non-tagged data. Due to the complexity of the problem and the weakness of the basic clustering methods, most studies today are guided by clustering ensemble methods. Diversity in primary results is one of the most important factors that can affect the quality of the final results. Also, the quality of the initial results is another factor that affects the quality of the results of the ensemble. Both factors have been considered in recent research on ensemble clustering. Here, a new framework for improving the efficiency of clustering has been proposed, which is based on the use of a subset of primary clusters, and the proposed method answers the above questions and ambiguities. The selection of this subset plays a vital role in the efficiency of the assembly. Since evolutionary intelligent algorithms have been able to solve the majority of complex engineering problems, this paper also uses these intelligent methods to select subsets of primary clusters. This selection is done using three intelligent methods (genetic algorithm, simulation annealing and particle swarm optimization). In this paper a clustering ensemble method is proposed which is based on a subset of primary clusters. The main idea behind this method is using more stable clusters in the ensemble. The stability is applied as a goodness measure of the clusters. The clusters which satisfy a threshold of this measure are selected to participate in the ensemble. For combining the chosen clusters, a co-association based consensus function is applied. A new EAC based method which is called Extended Evidence Accumulation Clustering, EEAC, is proposed for constructing the Co-association Matrix from the subset of clusters. Experimental results on several standard datasets with normalized mutual information evaluation, Fisher and accuracy criteria compared to Alizadeh, Azimi, Berikov, CLWGC, RCESCC, KME, CFSFDP, DBSCAB, NSC and Chen methods show the significant improvement of the proposed method in comparison with other ones.

    Keywords: Clustering Ensemble, local optimization, evolutionary algorithm, correlation matrix, diversity
  • Saeid Bakhtiari*, Zahra Nasiri, Seyed MohammadSadegh Hejazi Pages 121-136

    As we know, credit cards speed up and make life easier for all citizens and bank customers. They can use it anytime and anyplace according to their personal needs, instantly and quickly and without hassle, without worrying about carrying a lot of cash and more security than having liquidity. Together, these factors make credit cards one of the most popular forms of online banking. This has led to widespread and increasing use for easy payment for purchases made through mobile phones, the Internet, ATMs, and so on. Despite the popularity and ease of payment with credit cards, there are various security problems, increasing day by day. One of the most important and constant challenges in this field is credit card fraud all around the world. Due to the increasing security issues in credit cards, fraudsters are also updating themselves. In general, as a field grows in popularity, more fraudsters are attracted to it, and this is where credit card security comes into play. So naturally, this worries banks and their customers around the world. Meanwhile, financial information acts as the main factor in market financial transactions. For this reason, many researchers have tried to prioritize various solutions for detecting, predicting, and preventing credit card fraud in their research work and provide essential suggestions that have been associated with significant success. One of the practical and successful methods is data mining and machine learning. In these methods, one of the most critical parameters in fraud prediction and detection is the accuracy of fraud transaction detection. This research intends to examine the Gradient Boosting methods, which are a subset of Ensemble Learning and machine learning methods. By combining these methods, we can identify credit card fraud, reduce error rates, and improve the detection process, which in turn increases efficiency and accuracy. This study compared the two algorithms LightGBM and XGBoost, merged them using simple and weighted averaging techniques, and then evaluate the models using AUC, Recall, F1-score, Precision, and Accuracy. The proposed model provided 95.08, 90.57, 89.35, 88.28, and 99.27, respectively, after applying feature engineering and using the weighted average approach for the mentioned validation parameters. As a result, function engineering and weighted averaging significantly improved prediction and detection accuracy.

    Keywords: Fraud Detection, Credit Card, Ensemble Learning, Data Mining
  • Zahra Rahimi, MohammadMehdi Homayounpour* Pages 137-148

    Text classification is one of the main tasks of natural language processing (NLP). In this task, documents are classified into pre-defined categories. There is lots of news spreading on the web. A text classifier can categorize news automatically and this facilitates and accelerates access to the news. The first step in text classification is to represent documents in a suitable way that can be distinguishable by a classifier. There is an abundance of methods in the literature for document representation which can be divided into a bag of words model, graph-based methods, word embedding pooling, neural network-based, and topic modeling based methods. Most of these methods only use local word co-occurrences to generate document embeddings. Local word co-occurrences miss the overall view of a document and topical information which can be very useful for classifying news articles.  In this paper, we propose a method that utilizes term-document and document-topic matrix to generate richer representations for documents.  Term-document matrix represents a document in a specific way where each word plays a role in representing a document. The generalization power of this type of representation for text classification and information retrieval is not very well. This matrix is created based on global co-occurrences (in document-level). These types of co-occurrences are more suitable for text classification than local co-occurrences. Document-topic matrix represents a document in an abstract way and the higher level co-occurrences are used to generate this matrix. So this type of representation has a good generalization power for text classification but it is so high-level and misses the rare words as features which can be very useful for text classification. The proposed approach is an unsupervised document-embedding model that utilizes the benefit of both document-topic and term-document matrices to generate a richer representation for documents. This method constructs a tensor with the help of these two matrices and applied tensor factorization to reveal the hidden aspects of data. The proposed method is evaluated on the task of text classification on 20-Newsgroups and R8 datasets which are benchmark datasets in the news classification area. The results show the superiority of the proposed model with respect to baseline methods. The accuracy of text classification is improved by 3%.

    Keywords: Text classification, Document representation, Document Embedding, Topic modeling, word co-occurrences
  • Bahar Tajadini*, Saeidreza Seydnejad, Soheila Rezakhani Pages 149-172

    Epilepsy is a chronic disorder of brain function caused by abnormal and excessive electrical neurons discharge in the brain. Seizures cause disturbances in consciousness that occur without prior notice, so their prediction ability, based on EEG data, can reduce stress and improve quality of life. An epileptic patient EEG data consists of five parts: Ictal, Inter-Ictal, pre-Ictal, Post-Ictal, and IT (seconds before Ictal onset). The purpose of predicting an attack is to detect the period of pre-ictal or IT to create warnings for medical procedures that are actually determined hours or minutes before ictal and do not necessarily mean the exact time of ictal [4]. The aim of many studies has been to identify the pre-ictal period based on EEG data. However, the problem of reliable prediction of epileptic seizures remains largely unsolved [5].  EEG and IEEG data types are used in detection and predicting methods. Due to the fact that artifacts and noises have a greater effect on EEG than IEEG, if there is IEEG, it has been tried to use it [6, 7]. Seizure warning methods that have a clinical application are generally based on the use on EEG [8]. Numerous studies have been performed to detect and predict seizures. The methods of signal processing and feature extraction are same in detection and prediction, but the difference is that, in detection, ictal and inter-ictal periods are compared, while in prediction, pre-ictal or IT and inter-ictal periods are being compared. Some algorithms use data modeling to extract features. References [13, 14], the coefficients AR model for the EEG data is obtained with least squares estimator, then the model coefficients are classified by SVM binary classification. In the article [15] the non-Gaussian EEG is considered using the ARIMA model (Autoregressive integrated moving average). In references [16, 17], predictions are performed based on the dynamic model with hidden variable and the sparse LVAR model, respectively. Also other features such as Mean Phase Coherency [18-20], Lag Synchronization Index to compare phase Synchronization between irregular oscillations [8,21], eigenspectra of space-delay correlation and covariance matrices [22], Largest Lyapunov Exponent [23, 25], decorrelation time, Hjorth parameters such as mobility and complexity, power spectrum in frequency bands, spectral edge frequency, the four statistical moments: mean, variance, kurtosis, skewness and there are features based on entropy and probability [6, 26-29]. Empirical mode decomposition (EMD) and wavelet transform methods have also been used to extract the feature [2, 30, 31, 37]. In articles [32, 33], the Cepstrum method has been used on short time multi channels EEG and IEEG in different patient states. Cepstrum is used to extract slow and periodic changes in speech that can be used to detect the ictal period from the inter-ictal, and has also been used to linearize the EEG [34]. In the paper [33], Cepstrum coefficients of multi-channel EEG are calculated and the 9 first coefficients are considered, then calculates the velocity and acceleration of the desired coefficients and uses a neural network to detect an epileptic seizure. The method of this paper was improved in 2014. In this way, first the signal energy and coefficients of Cepstrum are calculated and then the same process is followed. The accuracy values ​​of velocity and acceleration coefficients in this study were 89.7% - 98.7% and 98.9% - 99.9%, respectively [32].  In this study, the period of IT was detected in patients with temporal lobe epilepsy (TLE), which is the most common type of epilepsy [38]. For this purpose, two long term EEG channels LTM (long term monitoring) with a sampling rate 256, which are facing each other have been used. First, the desired signal is considered by the moving window with a length if 5 seconds and 80% overlap. The desired signal is normalized and its linear trend is removed and band-pass filtered (220 order FIR filter, cutoff at 6-20 Hz). Then the filtered date will de decomposed using discrete wavelet transform with 6-levels and Daubechies4 mother wavelet. In this step we will have 12 outputs. Next, by windowing of 500 samples and 75% overlap, the AR model with 8 order is applied to outputs. Cepstrum method can be used to detect regular and periodic changes in the ictal period of the EEG signal. According to this feature, the Cepstrum coefficients of the data window are calculated and the first coefficient of each window is considered. By applying a median filter to the 12 outputs of the previous stage, the current period of the first channel is compared to the background period of the same channel and the second channel, and the same is done for the second channel. This method reduces artifact error and inter-attack discharges. Finally, the signal is averaged by the moving window and the positive envelope of the curve is calculated. Given that we will eventually have 12 outputs, 12 threshold values are obtained for a patient’s training data, then these values are checked on the test data.  The proposed method was reviewed on a proposed model of adult epilepsy as well as 10 patients with long-term EEG data without artifact removal. Accuracy and average prediction time were 92% and 18.5 seconds, respectively. The algorithm performed better than other methods. Another advantage of the algorithm is the ability to reduce artifacts, while many studies have used short-term data without artifacts. Artifacts are located at different frequencies, which frequency analysis is performed by wavelet transform. Because two channel artifacts are unequal at the same time and in the same channel at different times, the artifacts are reduced by comparing the channels to each other. Algorithm testing on more patients is recommended to confirm the performance of the algorithm clinically.

    Keywords: Epileptic Seizure Prediction, Temporal Lobe Epilepsy, Wavelet Transform, AR Model, Cepstrum, Median Filter, Positive Envelope of the Curve, Adult Epileptic Model
  • Shaghayegh Reza, Ali Seyyedsalehi*, Zohreh Seyyedsalehi Pages 173-196

    Speech recognition is a subfield of artificial intelligence that develops technologies to convert speech utterance into transcription. So far, various methods such as hidden Markov models and artificial neural networks have been used to develop speech recognition systems. In most of these systems, the speech signal frames are processed uniformly, while the information is not evenly distributed in all of them. Auditory experiments have also shown that the human brain pays more attention to information-rich areas. By focusing on these areas instead of uniform processing, the brain can more robustly recognize speech in intrinsic and environmental speech variations such as speaker and noise. In contrast, the performance of most speech recognition systems degrades dramatically in these conditions. Therefore, to boost speech recognition systems' robustness, some researchers have focused on developing speech recognition systems by modeling these informative parts of the speech signal named landmarks. Similarly, in this article, we implemented a landmark-based system to obtain a robust Persian speech recognition system inspired by human brain perception. We also conducted neural networks-based variation compensation methods to boost its performance. In this article, acoustic landmarks are classified into two categories of events and states with the following definitions. Events are defined as areas of the speech signal in which the spectral characteristics change drastically while their length does not change a lot. The transition areas between some adjacent pairs of phones (phones' borders) are primarily selected as events. States are also defined as areas of the speech signal that spectral characteristics do not change significantly. Here the nuclei of phones are considered as the states. Previous research, linguistic sources, and implementation results have been used to determine the Persian language's appropriate landmarks. Finally, a set of 313 landmarks was selected and used in our acoustic landmarks-based phone recognition system.  The neural network structure used to recognize acoustic landmarks is a feed-forward fully connected structure with ReLU function in its hidden layers and a linear function in its final layer. The number of layers and neurons of this structure has been determined experimentally. The best structure is composed of 5 fully connected layers with 1000 neurons per layer. In this study, instead of considering 313 neurons to express each of the 313 landmarks, a heuristic labeling method is used to reduce the number of output neurons and utilize the shared information between the landmarks. The landmark recognition model slides on the speech feature sequence in the test phase to produce the output landmark sequence. Finally, to convert the obtained landmark sequence to a phone sequence, three rule-based post-processing steps are performed.  Variabilities are among the essential quality degradation sources in speech recognition; therefore, we proposed two approaches to reduce them and boost phone recognition quality in our landmark-based system. To this aim, we have utilized the nonlinear filtering characteristic of neural networks by implementing four neural network schemes. In scheme 1, a feed-forward neural network is first trained to map training landmarks to their corresponding well-recognized samples. Then this structure can act as a nonlinear filter before the landmark recognition block. In scheme 2, a unified structure is simultaneously trained to learn landmark labels and the filtering part. In both of these schemes, we used a recursive loop to increase the chance of attractor manipulation in the structures. In scheme 3, a recursive loop is added to one hidden layer. This loop acts as an input variability simulator and forces the network to recognize the input data and its variations correctly. Finally, in scheme four, a deep attractor neural network-based structure is proposed to shape the structure’s hidden layer components so that it can compensate for variabilities. The experiments are implemented on a Persian database named Farsdat, and the results are reported using phone error rate (PER) criteria. From every 25-millisecond speech frame, an acoustic feature called LHCB is extracted and combined with delta and delta-delta features of that frame. Every frame's features are concatenated with fourteen adjacent frames and are finally fed to our neural network-based landmark extraction model. The best-trained model obtained the PER of 21.74% on test data. Using scheme one to four, we achieved an absolute PER decrease by 0.39, 0.58, 0.43 and 1.30 percent, respectively. Comparing our landmark-based system's performance with other Persian phone recognition systems shows that this method could perform efficiently as a Persian phone recognition system.  In our future works, we intend to compare our acoustic-based phone recognition system's performance with conventional methods such as CTC in noisy conditions. Besides, it seems that acoustic landmarks can be used to create an alignment of the input speech sequence and the output transcription. Therefore, we will present a combination of CTC-based methods and acoustic landmarks to utilize acoustic landmarks' complementary information. This information might boost the performance and speed of CTC-based speech recognition methods, particularly in low resource languages.

    Keywords: Phone Recognition, Acoustic Landmarks, Deep Learning, Robust Recognition, Nonlinear Filtering