فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال شانزدهم شماره 2 (پیاپی 40، تابستان 1398)

  • تاریخ انتشار: 1398/06/10
  • تعداد عناوین: 10
|
  • فرشته بهبهانی، وحید مهرداد*، حسین ابراهیم نژاد صفحات 3-18

    در این مقاله توصیف گر نوین مدل سه بعدی در حوزه فوریه پیشنهاد شده است. به منظور استخراج ویژگی در روش پیشنهادی، کره مش بندی شده محیط بر مدل، از بیرون مدل به سمت مرکز آن فشرده شده، سپس طول مسیری که راس های کره از ابتدا تا رسیدن به رویه مدل طی می کنند، محاسبه می شود. این مقادیر به منظور محاسبه تابع مسیر، که طول مسیر راس های مدل تا مرکز آن است، استفاده می شوند. تابع به دست آمده در مقابل تغییرات ایزومتریک مقاوم و برای شناسایی مدل های غیر صلب بسیار کار آمد است. در ادامه، ضرایب فوریه تابع مسیر به عنوان بردار ویژگی محاسبه می شوند و سپس بردار ویژگی استخراج شده در طبقه بند SVM مورد استفاده قرار می گیرد. با بهره گیری از ویژگی پاسخ دامنه تبدیل فوریه سیگنال های حقیقی، مدل در فضایی با ابعاد کمتر، بدون از دست دادن ویژگی های ذاتی خود توصیف شده، همچنین از نرمالیزاسیون حالت بی نیاز می شود. نتایج پیاده سازی برروی پایگاه داده McGill نشان دهنده دقت بالای روش پیشنهادی در طبقه بندی مدل های سه بعدی است.

    کلیدواژگان: ویژگی های مبتنی بر محتوا، استخراج ویژگی، شناسایی مدل های سه بعدی، طبقه بند SVM، تبدیل فوریه گسسته
  • نیره مومنیان*، بهروز ترک صفحات 19-40

    مهندسی معکوس برنامه های کاربردی شبکه، به خصوص از دیدگاه امنیت، بسیار مورد توجه قرار گرفته و اهمیت بالایی دارد. بسیاری از برنامه های کاربردی شبکه، از پروتکل های خاصی را که ویژگی های آنها برای عموم در دسترس نیست، استفاده می کنند. مهندسی معکوس این برنامه های کاربردی، می تواند اطلاعات مورد نیاز برای فهم پروتکل های ناشناخته مستقر در آنها فراهم کند؛ دسترسی به این اطلاعات می تواند بسیاری از وظایف، از جمله بازبینی عمیق پروتکل در نسل جدید دیواره های آتش و تحلیل کدهای دودویی مشکوک را تسهیل کند. با این وجود، اگرچه پژوهش های بسیاری در این زمینه انجام شده، اما این پژوهش ها در بیش تر موارد فقط بر استخراج ساختار نحوی پیام های پروتکل متمرکز شده اند. در این مقاله، روش های جدیدی برای بهبود استخراج ساختار نحوی و معنایی پیام های پروتکل از طریق مهندسی معکوس کد دودویی برنامه های کاربردی شبکه ارائه شده است. برای این کار، از ترکیب تحلیل پویا و ایستای کدهای دودویی استفاده می شود. به منظور ارزیابی روش های پیشنهادی، چهار پروتکل مختلف لایه کاربرد شامل DNS، eDonkey، Modbus و Stun تحلیل شده است. نتیجه آزمایش ها نشان می دهد که روش های پیشنهادی، نه تنها می توانند ساختار نحوی پیام را کامل تر از روش های مشابه استخراج کنند، بلکه معانی سودمندی از پیام های پروتکل نیز استخراج می کنند که در روش های قبلی قابل دست یابی نیست.

    کلیدواژگان: مهندسی معکوس، استخراج فرمت پیام، اطلاعات معنایی
  • وحید کیانی، احد هراتی*، عابدین واحدیان صفحات 41-60

    تبدیلات گوک (Wedgelet) و شیبک (Platelet) که پیش ازاین در خانواده موجک های هندسی وفقی برای بازنمایی تصاویر روشنایی مطرح شده اند، توانایی بازنمایی تنک تصاویر قطعه ای ثابت، و تصاویر قطعه ای خطی را دارند؛ اما کارایی آن ها در بازنمایی تصاویر قطعه ای غیرخطی مانند تصاویر عمق بهینه نیست. در این مقاله تبدیل صفحک[1] به عنوان عضو جدیدی از خانواده موجک های هندسی برای بازنمایی بهینه تصاویر عمق قطعه ای صفحه گون ارائه شده است. برخلاف موجک های هندسی پیشین که تنها از مدل های خطی و ثابت برای توصیف هر ناحیه هموار در تصویر استفاده می کنند، تبدیل صفحک برای تقریب هر ناحیه صفحه گون از یک مدل غیرخطی مبتنی بر توابع گویا بهره می گیرد. آزمایش ها بر روی تصاویر عمق واقعی نشان دادند که در نرخ بیت bpp 03/0 استفاده از کدگذار مبتنی بر صفحک در فشرده سازی تصاویر عمق نسبت به موجک هندسی گوک به طور میانگین تا dB 2/7 کیفیت را افزایش می دهد. همچنین در شرایط مشابه، در مقایسه با کدگذارهای مدرن JPEG2000 و H.264، استفاده از کدگذار عمق مبتنی بر صفحک به ترتیب منجر به dB 2/59 و dB 1/56 افزایش در کیفیت تصاویر بازسازی شده می شود.


    [1] Planelet Transform

    کلیدواژگان: فشرده سازی تصویر عمق، موجک هندسی، تبدیل صفحک، توابع گویا
  • امین ترکیان، پیمان معلم* صفحات 61-76

    اگرچه بازشناسی خودکار پلاک خودرو از مسائل مورد توجه در حوزه پردازش تصاویر ترافیکی است، ولی در مواقعی این تصاویر به دلیل پایین بودن کیفیت دوربین و یا به دلیل زیاد بودن فاصله از خودرو، اطلاعات چندان مفیدی در اختیار سامانه بازشناسی خودکار پلاک قرار نمی دهند. از راه حل های ممکن برای برخورد با این چالش، استفاده از روش های ابرتفکیک پذیری تصویر با هدف بهبود کیفیت بازشناسی پلاک، بر مبنای ادغام تصاویر موجود در رشته تصاویر ویدیویی است. در این مقاله یک روش ابرتفکیک پذیری چند تصویری با استفاده از کانوولوشن نرمال شده، با چند الگوریتم انطباق تصویری نظیر روش فوریه-ملین ، روش کرن و روش وندول ترکیب شده تا تفکیک پذیری تصاویر پلاک را افزایش دهد؛ در نهایت الگوریتم پیشنهادی بر روی تصاویر شبیه سازی شده، تصاویر واقعی کوچک شده، و نیز تصاویر واقعی به دست آمده از 72 پلاک متفاوت مورد ارزیابی قرار گرفت و مشخص شد که این الگوریتم نسبت به روش تک تصویری ASDS-AR و روش POCS بسته به نوع داده ورودی، میزان دقت در الگوریتم پلاک خوان را حدود 25% بر نویسه و حدود 40% بر پلاک افزایش داده است.

    کلیدواژگان: ابرتفکیک پذیری، کانوولوشن نرمال شده، تثبیت تصاویر، بازشناسی پلاک خودرو
  • حسین خاتمی*، حکیمه فدایی، هشام فیلی صفحات 77-90

    در این مقاله یک مترجم خودکار متون انگلیسی به فارسی با استفاده از معماری ترکیبی قاعده مند و آماری ارائه شده است. این معماری ترکیبی به منظور بهبود نتایج هر دو مترجم، خروجی مترجم ماشینی قاعده مند و آماری را ترکیب کرده و سعی می کند یک خروجی برتر از هر دو سامانه ایجاد کند. در این راستا از یک رمزگشای یک نوا با پیچیدگی زمانی چند جمله ای استفاده می شود. مترجم های ماشینی قاعده مند عمل ترجمه را بر اساس مجموعه ای از قواعد زبانی انجام می دهند. به طور معمول نتایج آنها از نظر ترتیب کلمات و ساختار نحوی، کیفیت بهتری نسبت به نتایج مترجم های آماری دارند؛ ولی عملکرد این مترجم ها در زمینه انتخاب لغات مناسب و روانی ترجمه، ضعیف تر از مترجم های ماشینی آماری است. از این رو در این معماری، ترجمه اولیه به وسیله مترجم ماشینی قاعده مند صورت می گیرد؛ سپس با استفاده از مترجم ماشینی آماری ترجمه آن بهبود داده می شود. به این منظور، ترتیب واژگان در ترجمه نهایی بر اساس ترجمه مترجم ماشینی قاعده مند صورت می گیرد؛ سپس عمل ترجمه و انتخاب لغات توسط رمزگشای یک نوا، با درنظر گرفتن ترجمه های نامزدهای ارائه شده توسط مترجم قاعده مند و آماری و همچنین با استفاده از مدل زبانی، انجام می شود. آزمایش های انجام شده نشان می دهند که کیفیت نتایج به دست آمده از معماری ترکیبی در معیار بلو، به طورتقریبی پنج واحد بهتر از نتایج مترجم ماشینی قاعده مند است. همچنین کیفیت این نتایج نسبت به نتایج مترجم ماشینی آماری در معیار بلو، یک واحد بهتر است.

    کلیدواژگان: مترجم ماشین، معماری ترکیبی، رمزگشای یکنوا، ترتیب کلمات ترجمه، انتخاب لغات
  • هانیه مریخی، حسین ابراهیم نژاد* صفحات 91-104

    این مقاله یک روش جدید برای سنتز حالات چهره انسان پیشنهاد می دهد که در آن برای شبیه سازی جابه جایی نقاط چهره در حالت های احساسی مختلف یک نیروی کشسانی تعریف می شود. اساس این نیرو وجود نقاط کنترلی با مختصات و جهت های معین روی تصویر چهره هست. به عبارت دیگر هر نقطه کنترلی یک نیروی کشسانی به نقاط چهره وارد کرده و آن ها را در جهت معینی حرکت می دهد. اندازه نیروی اعمالی به هر نقطه با فاصله بین آن نقطه و نقطه کنترلی رابطه عکس دارد. برای چند نقطه کنترلی، نیروی وارد شده به نقاط چهره برآیند نیروهای مربوط به تمام نقاط کنترلی است. برای سنتز حالت خاصی از چهره، محل نقاط کنترلی و پارامترهای نیرو برای دستیابی به چهره حالت دار تنظیم می شوند. جزئیات چهره با هرم لاپلاسین استخراج شده و به تصویر سنتز شده اضافه می شود. نتایج پیاده سازی نمایش دهنده کیفیت بصری بالا و پیچیدگی محاسباتی پایین روش پیشنهادی است.

    کلیدواژگان: سنتز حالت چهره، تغییر شکل چهره، پویانمایی چهره، شبیه سازی حالت
  • علیرضا پهلوان زاده*، علی اکبر نیک نفس صفحات 105-120

    خوشه بندی مبتنی بر چگالی یکی از روش های مورد توجه در داده کاوی و  DBSCANنمونه ای پرکاربرد از این روش است. DBSCAN علاوه بر مزایای خود معایبی نیز دارد. به عنوان نمونه، تعیین پارامترهای ورودی این الگوریتم توسط کاربر کار مشکلی است. در مقاله حاضر سعی شده است، اصلاحاتی روی یکی از الگوریتم های مبتنی برچگالی به نام ISB-DBSCAN انجام شود. در روش پیشنهادی همانند ISB-DBSCAN  از یک پارامتر ورودی k به عنوان تعداد نزدیک ترین همسایه استفاده شده است. از آنجا که تعیین پارامتر k ممکن است، برای کاربر مشکل باشد، یک روش پیشنهادی با الگوریتم ژنتیک برای تعیین خودکار k نیز ارائه شده است. برای ارزیابی روش های پیشنهادی آزمایش هایی روی یازده مجموعه داده استاندارد انجام شد و دقت خوشه بندی در روش ها مورد ارزیابی قرار گرفت. نتایج به دست آمده در مقایسه با دیگر روش های موجود نشان داد که روش پیشنهادی در مجموعه داده های مختلف، نتایج بهتری را کسب کرده است.

    کلیدواژگان: خوشه بندی مبتنی بر چگالی، پارامتر همسایگی، خوشه بندی با چگالی متفاوت
  • فربیان خردادپور*، سعید قاضی صفحات 121-136

    امروزه در سامانه های مخابرات دیجیتال نوین، از مالتی پلکس تقسیم فرکانسی متعامد (OFDM) به عنوان یک روش مدولاسیون مقبول و کارآمد استفاده می شود. در مدولاسیون چندحاملی OFDM از تبدیل FFT به منظور ایجاد تعامد زیرحامل ها استفاده می شود. این تبدیل با استفاده از توابع سینوسی پنجره شده به عنوان توابع پایه، به دلیل سطح بالای گلبرگ های کناری در طیف فرکانسی، حساسیت بالایی نسبت به تداخل بین سمبلی (ISI) و تداخل بین حاملی (ICI) دارد. به منظور بازیابی سیگنال در گیرنده، با افزودن پیشوند چرخشی (CP) در ابتدای سمبل OFDM در فرستنده، می توان ISI را حذف کرد. همچنین با استفاده از همسان سازی حوزه فرکانس در گیرنده، به سادگی سیگنال آغشته به ICI را می توان بازیابی کرد. این افزودن CP میزان قابل توجهی از پهنای باند در دسترس را هدر می دهد و درنتیجه کارایی پهنای باند را به طور قابل توجهی کاهش می دهد. با توجه به ویژگی های منحصر به فرد موجک ها نظیر انعطاف پذیری بالا، سازگاری و محلی بودن آنها، از این تبدیل برای متعامدسازی سامانه چندحاملی در این پژوهش استفاده شده است. در صورت استفاده از موجک، دیگر نیازی به استفاده از تابع پنجره ی مستطیلی نیست. این امر حساسیت سامانه به رانش فرکانسی و نوفه فاز را کم کرده و سامانه را نسبت به اعوجاج کانال چندمسیره و تداخل های ISI و ICI مقاوم تر می سازد. در این مقاله پس از بررسی و مطالعه تبدیل موجک گسسته و تبدیل بسته موجک، دو طرح مدولاسیون FFT-OFDM و WPT-OFDM برای کانال های استاندارد شهری TU6 و روستایی RA6 توسط نرم افزار MATLAB شبیه سازی شده اند. این دو کانال استاندارد و معروف توسط استاندارد 3GPP معرفی شده اند که به عنوان معیار سنجش عملکرد سامانه های مخابراتی نسل های 3G و 4G معرفی شده اند. کانال های مورد استفاده در این پژوهش، کانال های متداولی در سامانه های سیاری مانند سامانه های پخش تلویزیون دیجیتال(DVB)  هستند. نتایج شبیه سازی بهبود عملکرد سامانه WPT-OFDM را نسبت به سامانه FFT-OFDM نشان می دهد. این نتایج نشان می دهند که در سامانه های مبتنی برOFDM مانند DAB(Digital Audio Broadcast) WiMAX (worldwide Interoperability for Microwave Access), DVB(Digital Video Broadcast), می توان از این سامانه استفاده کرد.

    کلیدواژگان: مدولاسیون چندحاملی، تبدیل فوریه سریع، تبدیل بسته موجک، استاندارد 3GPP
  • فاطمه حسینی، آرش شریفی، میترا میرزارضایی* صفحات 137-146

    در این مقاله روشی مبتنی بر گراف به عنوان استخراج ویژگی برای دنباله های با طول متغیر پیشنهاد می شود. روش پیشنهادی بدون ثابت کردن طول دنباله ها، با تعیین پر تکرارترین دستورها و گذاشتن باقی دستورها در مجموعه ‘other’ از لحاظ سرعت و حافظه صرفه جویی می کند. با توجه به میزان شباهت ویژگی ها، هر نمونه امتیازی می گیرد و از امتیازات جهت دسته بندی استفاده می شود. برای بهبود نتایج، دو رویکرد پیشنهاد می شود. در رویکرد نخست، ویژگی های استخراج شده از روش های امتیازدهی بر روی آپکد، هگزادسیمال و فراخوانی سیستمی در ورودی دسته بندها ترکیب می شوند. در رویکرد دوم، خروجی دسته بندهای مختلف ترکیب شده و از رای اکثریت استفاده می شود. رویکرد پیشنهادی با دقت 97 % بدافزارهای دگرگون شده رایانه ای از مجموعه vxheaven را نه تنها شناسایی، بلکه دسته بدافزارها را نیز تعیین می کند؛ در حالی که روش هایSSD و HMM تحت شرایط یکسان با دقت 84 % و 80 % توانستند بدافزارها را شناسایی کنند.

    کلیدواژگان: آشکارسازی بدافزارها، روش های مبتنی بر گراف، ترکیب دسته بندها، دسته بندی با طول متغیر، ماشین بردار پشتیبان
  • الناز خدادای، راحیل حسینی*، مهدی مزینانی صفحات 147-165

    مدل های محاسبات نرم مبتنی بر سامانه های هوشمند فازی درتشخیص سرطان سینه، امکان مدیریت عدم قطعیت در فرایند استدلال در سامانه را فراهم می کند.در این پژوهش، یک مدل استنتاج فازی به منظور مدیریت عدم قطعیت در داده های ورودی طراحی شده است و الگوریتم های هایبریدی مبتنی بر فازی جهت تنظیم و بهینه سازی پارامتر ها، به کار برده شده اند. هدف، ارائه روش های موثر جهت تشخیص نوع توده های خوش خیم، بدخیم و نرمال سینه است. طبقه بندی توده ها جهت تشخیص موارد نرمال، خوش خیم و بدخیم با مدل های هایبریدی محاسبات نرم و بر اساس تحلیل ویژگی ها در تصاویر ماموگرافی انجام شده است. الگوریتم های هایبریدی ارایه شده در این پژوهش شامل1) فازی- ژنتیک، 2) فازی- بهینه سازی ازدحام ذرات و 3) فازی- بهینه سازی مبتنی بر جغرافیای زیستی است. به منظور سنجش عملکرد سامانه از تحلیل منحنی مشخصه(ROC)و همچنین از روش اعتبار سنجی تقاطعی ده بخشی جهت تقسیم بندی داده ها به بخش های آموزش و آزمون برای به دست آوردن نتایج قابل اعتماد و اعتبار سنجی استفاده شده است. نوآوری پژوهش حاضر در ارایه مدل پیشنهادی هایبریدی فازی- بهینه سازی مبتنی بر جغرافیای زیستی و بهبود عملکرد مدل طبقه بندی جهت تشخیص سرطان سینه است. روش جدید هایبریدی فازی- بهینه سازی مبتنی بر جغرافیای زیستی ارایه شده به منظور تشخیص سرطان سینه در این پژوهش، عملکرد بالاتری نسبت به روش های موجود بر روی این بانک اطلاعاتی معتبر و معروف جهت تشخیص سرطان سینه داشته است. باتوجه به نتایج به دست آمده و مقایسه عملکرد مدل های هایبریدی پیشنهادی در این پژوهش، روش هایبریدی فازی مبتنی بر جغرافیای زیستی با میزان صحت 25/95% از عملکرد بهینه تری نسبت به روش های هایبریدی پیشنهادی دیگر جهت تشخیص سرطان سینه برخوردار است. مدل حاضر در مقایسه با سایر مدل های پیشنهادی در پژوهش های قبلی بهبود یافته است. استفاده از مدل های پیشنهادی در این پژوهش، می تواند به منظور تشخیص زود هنگام بیماری و ارائه درمان های موثر امید بخش باشد.

    کلیدواژگان: سیستم استنتاج فازی، محاسبات نرم، الگوریتم های هایبریدی فازی-تکاملی، فازی-بهینه سازی ذرات و فازی-جغرافیای زیستی، تومور های سینه
|
  • Fereshteh Behbahani, Vahid Mehrdad*, Hossein Ebrahimnezhad Pages 3-18

    Representing 3D models in diverse fields have automatically paved the way of storing, indexing, classifying, and retrieving 3D objects. Classification and retrieval of 3D models demand that the 3D models represent in a way to capture the local and global shape specifications of the object. This requires establishing a 3D descriptor or signature that summarizes the pivotal shape properties of the object. Therefore, in this work, a new shape descriptor has been proposed to recognize 3D model utilizing global characteristics. To perform feature extraction in the proposed method, the bounding meshed sphere surrounding the 3D model and concentrated from the outside toward the center of the model. Then, the length of the path which the sphere's vertices travel from the beginning to the model’s surface will be measured. These values are exploited to compute the path function. The engendered function is robust against isometric variations and it is appropriate for recognizing non-rigid models. In the following, the Fourier transform of the path function is calculated as the features vector, and then the extracted features vector is utilized in SVM classifier. By exploiting the properties of the magnitude response of the Fourier transform of the real signals, the model can be analyzed in the lower space without losing the inherent characteristics, and no more pose normalization is needed. The simulation results based on the SVM classifier on the McGill data set show the proposed method has the highest accuracy (i.e. 79.7%) among the compared related methods. Moreover, the confusion matrix for performing 70% trained SVM classifier indicates the suitable distinguishing ability for similar models and does not have a high computational complexity of model processing in 3D space.

    Keywords: Feature Content base, Feature extraction, 3D Models Recognition, SVM Classifier, Discrete Fourier Transform
  • Nayere Momenian*, Behrouz Tork Pages 19-40

    Reverse engineering of network applications especially from the security point of view is of high importance and interest. Many network applications use proprietary protocols which specifications are not publicly available. Reverse engineering of such applications could provide us with vital information to understand their embedded unknown protocols. This could facilitate many tasks including deep protocol inspection in next generation firewalls and analysis of suspicious binary codes.
    The goal of protocol reverse engineering is to extract the protocol format and the protocol state machine. The protocol format describes the structure of all messages in protocol and the protocol state machine describes the sequence of messages that the protocol accept. Recently, there has been rising interest in automatic protocol reverse engineering. These works are divided into activities that extract protocol format and activities that extract protocol state machine. They can also be divided into those uses as input network traffic and those uses as input program implements the protocol. However, although there are some researches in this field, they mostly focused on extracting syntactic structure of the protocol messages.
    In this paper, some new techniques are presented to improve extracting the format (both the syntax and semantics) of protocol messages via reverse engineering of binary codes of network applications. To do the research, an integration of dynamic and static binary code analysis are used. The field extraction approach first detects length fields and separators and then by applying rules based on compiler principles locates all the fields in the messages. The semantic extraction approach is based on the semantic information available in the program implements of the protocol and also information exists in the environment of the program.
    For evaluating the proposed approach, four different network applications including DNS, eDonkey, Modbus, and STUN were analyzed. Experimental results show that the proposed techniques not only could extract more complete syntactic structure of messages than similar works, but also it could extract a set of advantageous semantic information about the protocol messages that are not achievable in previous works.

    Keywords: Reverse engineering, Protocol format extraction, Semantic information
  • Vahid Kiani, Ahad Harati*, Abedin Vahedian Pages 41-60

    With the advent of cheap indoor RGB-D sensors, proper representation of piecewise planar depth images is crucial toward an effective compression method. Although there exist geometrical wavelets for optimal representation of piecewise constant and piecewise linear images (i.e. wedgelets and platelets), an adaptation to piecewise linear fractional functions which correspond to depth variation over planar regions is still missing. Such planar regions constitute major portions of the indoor depth images and need to be well represented to allow for desirable rate-distortion trade-off.
    In this paper, second-order planelet transform is introduced as an optimal representation for piecewise planar depth images with sharp edges along smooth curves. Also, to speed up the computation of planelet approximation of depth images, an iterative estimation procedure is described based on non-linear least squares and discontinuity relaxation. The computed approximation is fed to a rate-distortion optimized quad-tree based encoder; and the pruned quadtree is encoded into the bit-stream. Spatial horizontal and vertical plane prediction modes are also introduced to further exploit geometric redundancy of depth images and increase the compression ratio.
    Performance of the proposed planelet-based coder is compared with wedgelets, platelets, and general image encoders on synthetic and real-world Kinect-like depth images. The synthetic images dataset consists of 30 depth images of different scenes which are manually selected from eight video sequences of ICL-NUIM RGBD Benchmark dataset. The dataset of real-world images also includes 30 depth images of indoor scenes selected from Washington RGBD Scenes V2 dataset captured by Kinect-like cameras.
    In contrast to former geometrical wavelets which approximate smooth regions of each image using constant and linear functions, planelet transform exploits a non-linear model based on linear fractional functions to approximate every smooth region. Visual comparisons by 3D surface reconstruction and visualization of the decoded depth images as surface plots revealed that at a specific bit-rate the planelets-based coder better preserves the geometric structure of the scene compared with the former geometric wavelets and the general images coders. 
    Numerical evaluations showed that compression of synthetic depth-images by planelets results in a considerable PSNR improvement of 0.83 dB and 6.92 dB over platelets and wedgelets, respectively. Due to absence of the noise, the plane prediction modes were very successful on synthetic images and boosted the PSNR gap over platelets and wedgelets to 5.73 dB and 11.82 dB, respectively. The proposed compression scheme also performed well on the real-world depth images. Compared with wedgelets, planelets-based coder with spatial prediction achieved noticeable quality improvement of 2.7 dB at the bit-rate of 0.03 bpp. It also led to 1.46 dB quality improvement over platelets at the same bit-rate. In this experiment, application of planelets-based coder led to 2.59 dB and 1.56 dB increase in PSNR over JPEG2000 and H.264 general image coders. Similar results are also achieved in terms of SSIM metric.

    Keywords: depth-image compression, geometrical wavelets, planelet transform, linear fractional functions
  • Amin Torkian, Payman Moallem* Pages 61-76

    License plate recognition (LPR) by digital image processing, which is widely used in traffic monitor and control, is one of the most important goals in Intelligent Transportation System (ITS). In real ITS, the resolution of input images are not very high since technology challenges and cost of high resolution cameras. However, when the license plate image is taken at low resolution, the license plate cannot be readable; hence, the recognition algorithm could not work well. There are many reasons resulting in the degradation of captured license plate images, such as downsampling, blurring, warping, noising, and distance of car from camera. Many researchers try to enhance the quality of input images by image restoration algorithms to improve the LPR final accuracy.
    Recently, super-resolution (SR) techniques are widely used to construct a high-resolution (HR) image from several observed low-resolution (LR) images, thereby removing the degradations caused by the imaging of a low resolution camera. As mentioned, in real ITS, the resolution of input image is not high, but there are successive frames from a target, therefore multi-frame SR methods can be used to overcome the ITS resolution challenges.
    In this paper, an SR technique based on POCS (Projection onto Convex Sets) is used to reconstruct an HR license plate image from a set of registered LR images. The normalized convolution (NC) framework is used in POCS, in which the local signal is approximated through a projection onto a subspace. However, the window function of adaptive NC is adapted to local linear structures. This results in more samples of the same modality being fused for the reconstruction, which in turn reduces diffusion across discontinuities, that is very important factor in improving LPR accuracy.
    The first step in multi-frame SR is image registration which is necessary to improve quality of the reconstructed HR image, especially in LPR when the quality of the reconstructed edges of characters is very important. For simplicity, it is often supposed simple motions (usually translation) between successive frames in multi-frame SR, but changes in scale, rotation and translation in license plate successive images may happened. It means that the registration is one of the main challenges in SR used for LPR. This paper proposes use of a two-step image matching algorithm to improve the quality of registration stage. In the first step, Fourier-Mellin image matching is used for registration which overcomes the scale and rotation challenge, but the accuracy of registration is not suitable. After matching of the successive input images by Fourier-Mellin algorithm, the Keren or Vandewalle image matching is used to improve the quality of final registration. For real LR images, Fourier-Mellin plus Keren shows higher performance while for simulated LR images, Fourier-Mellin plus Vandewalle shows higher performance.
    In order to compare the results of two proposed SR algorithms for LPR application with the other methods, we prepare three real datasets of successive frames for Persian LPR, the first and the second one are captured HR and LR successive frames, respectively, while the third one is a downsampled LR version of HR frames. The output HR image of all compared methods is feed to a demo version of a Persian LPR software (www.farsiocr.ir), and the accuracy of each character and the accuracy each license are reported. Five SR methods are compared including: cubic interpolation, ASDS-AR (Adaptive Sparse Domain Selection and Adaptive Regularization), standard POCS, our first and second proposed SR method which both of them firstly use Fourier-Mellin registration, while the first one uses Keren, and the second one uses Vandewalle image matching for a fine registration. Moreover, to present the effectiveness of using SR methods before LPR, the LR images are also directly feed to LPR software.
    The results represent when the length of license is less than 50 pixels, using SR methods before LPR improves the recognition accuracy. Moreover, when the license plate length is less 35 pixels, SR methods could not improve the performances. Our investigations show that for LR downsampled images from HR ones, our proposed SR method with Fourier-Mellin plus Keren registration reaches to the highest performance, while for real LR images, which are captured by a low resolution camera, our proposed SR method with Fourier-Mellin plus Vandewalle registration reaches to the highest performance. On the other hand, since some Persian numerical characters, like 2 (2) and 3 (3) are very similar to each other, all of the compared methods may confuse between them in LPR step, therefore, the accuracy per license of all compared methods are not high. Among all previous compared methods, for LR images with length between 35 to 50 pixels, the standard PCOS shows the best results, while our proposed SR methods improve the accuracy per character around 25%, with respect to PCOS method.

    Keywords: Super Resolution, Normalized Convolution, Images Registration, License Plate Recognition
  • Hosein Khatami*, Hakime Fadaei, Hesham Faili Pages 77-90

    In this paper, a hybrid Machine Translation (MT) system is proposed by combining the result of a rule-based machine translation (RBMT) system with a statistical approach. The RBMT uses a set of linguistic rules for translation, which leads to better translation results in terms of word ordering and syntactic structure. On the other hand, SMT works better in lexical choice. Therefore, in our system, an initial translation is generated using RBMT. Then the proper lexical for the resulted sentence is chosen by using a decoder algorithm which is inspired by SMT architecture.
    In the pure SMT approach, decoder is responsible for selecting proper final lexical during the translation procedure. Normally this method deals with lexical choice as well as reordering and required exponential order in time complexity. By fixing the word order in the output, a polynomial version of this method, named monotone decoding, is used in this paper. Monotone decoder algorithm selects the best lexical from a candidate list by maximizing the language model of resulted sentence. The candidate list is gathered from the outputs of both pure RBMT and pure SMT systems. 
    The experiments of proposed hybrid method on English-Persian language pair show significant improvements over both RBMT and SMT results. The results show that the proposed hybrid method gains an improvement of almost +5 units over RBMT and about one unit over SMT in BLEU score.

    Keywords: Machine translation, hybrid architecture, monotone decoder, translation reordering, lexical choice
  • Hanieh Merrikhi, Hossein Ebrahimnezhad* Pages 91-104

    Facial expressions play an essential role in delivering emotions. Thus facial expression synthesis gain interests in many fields such as computer vision and graphics. Facial actions are generated by contraction and relaxation of the muscles innervated by facial nerves. The combination of those muscle motions is numerous. therefore, facial expressions are often person specific. But in general, facial expressions can be divided into six groups: anger, disgust, fear, happiness, sadness, and surprise. Facial expression variations include both global facial feature motions (e.g. opening or closing of eyes or mouth) and local appearance deformations (e.g. facial wrinkles and furrows).
    Ghent and McDonald introduced the Facial Expression Shape model and Facial Expression Texture Model respectively for the synthesizing global and local changes. Zhang et al. published an elastic model to balance the local and global warping. Then, they added suitable illumination details to the warped face image with muscle-distribution-based model.
    The goal of facial expression synthesis is to create expressional face image of the subject with the availability of neutral face image of that subject.
    This paper proposes a new method for synthesis of human facial expressions, in which an elastic force is defined to simulate the displacement of facial points in various emotional expressions. The basis of this force is the presence of control points with specific coordinates and directions on the face image. In other words, each control point applies an elastic force into the points of the face and moves them in a certain direction. The force applied to each point is inversely proportional to the distance between that point and the control point. For several control points, the force applied to the points of the face is the result of the forces associated with all control points. To synthesize a specific expression, the location of the control points and parameters of the force are adjusted to achieve an expression face. Face detail is extracted with laplacian pyramid and added to the synthesized image.
    The proposed method was implemented on the KDEF and Cohn-Kanade (CK+) databases and the results were put on for comparison. Two happy and sad expressions were selected for synthesis. The proper location of the control points and elastic force parameters were determined on the neutral image of the target person based on the expressional images in the database. Then, the neutral image of the person was warped with the elastic forces. Facial expression details have been added with laplacian pyramid method to the warped image. Finally, the experimental results were compared with the photo-realistic and facial expression cloning methods which demonstrate the high visual quality and low computational complexity of the proposed method in synthesizing the face image.

    Keywords: Facial expression Synthesis, Face deformation, Face animation, Expression cloning
  • Alireza Pahlevanzadeh*, Aliakbar Niknafs Pages 105-120

    Clustering is one of the main tasks in data mining, which means grouping similar samples. In general, there is a wide variety of clustering algorithms. One of these categories is density-based clustering. Various algorithms have been proposed for this method; one of the most widely used algorithms called DBSCAN. DBSCAN can identify clusters of different shapes in the dataset and automatically identify the number of clusters. There are advantages and disadvantages in this algorithm. It is difficult to determine the input parameters of this algorithm by the user. Also, this algorithm is unable to detect clusters with different densities in the data set. ISB-DBSCAN algorithm is another example of density-based algorithms that eliminates the disadvantages of the DBSCAN algorithm. ISB-DBSCAN algorithm reduces the input parameters of DBSCAN algorithm and uses an input parameter k as the nearest neighbor's number. This method is also able to identify different density clusters, but according to the definition of the new core point, It is not able to identify some clusters in a different data set.
    This paper presents a method for improving ISB-DBSCAN algorithm. A proposed approach, such as ISB-DBSCAN, uses an input parameter k as the number of nearest neighbors and provides a new definition for core point. This method performs clustering in three steps, with the difference that, unlike ISB-DBSCAN algorithm, it can create a new cluster in the final stage. In the proposed method, a new criterion, such as the number of dataset dimensions used to detect noise in the used data set. Since the determination of the k parameter in the proposed method may be difficult for the user, a new method with genetic algorithm is also proposed for the automatic estimation of the k parameter. To evaluate the proposed methods, tests were carried out on 11 standard data sets and the accuracy of clustering in the methods was evaluated. The results showe that the proposed method is able to achieve better results in different data sets compare to other available methods. In the proposed method, the automatic determination of k parameter also obtained acceptable results.

    Keywords: Density-based clustering, neighborhood parameter, clustering with different density
  • Arbayan Khordadpoor *, Saeed Ghazi Pages 121-136

    Orthogonal frequency division multiplexing (OFDM) is used in order to provide immunity against very hostile multipath channels in many modern communication systems.. The OFDM technique divides the total available frequency bandwidth into several narrow bands. In conventional OFDM, FFT algorithm is used to provide orthogonal subcarriers. Intersymbol interference (ISI) and intercarrier interference (ICI) impairements are caused by time domain rectangular windowed sine and cosine basis functions. FFT-OFDM is a very popular multi–carrier modulation (MCM) technique. It has some interesting features such as low complex modulation/demodulation implementation, simple and fast frequency domain channel estimation/ equalization. Also, by transmitting data over different parallel frequencies, FFT-OFDM has spectrum efficiency due to overlapped sub-channels and immunity against fading channels. Unfortunately, FFT-OFDM has serious drawbacks i.e. high sensitivity to ISI and ICI which caused by time domain rectangular windowed sine and cosine basis functions and their high level side lobes in frequency domain. For this purpose, cyclic prefixes (CP) are added at the beginning of the OFDM symbols and this causes bandwidth and power inefficiencies.
    In order to provide more efficient MCM technique, besides preserving the advantages of conventional FFT-OFDM, discrete wavelet modulation (DWM) and wavelet packet modulation (WPM) have been introduced in recent years. Therefore, it is possible to use time domain equalization (TEQ) or overlap frequency domain equalization (overlap FEQ) to reduce the interferences effectively in the absence of CP. Although TEQ techniques are more complicate than FEQ in conventional OFDM, WPT-OFDM has bandwidth and power enhanced efficiencies and this makes it so appropriate for digital communication systems.
    In recent years, several studies have been done on the wavelet theory, wavelet and WPM modulation in comparison with FFT-OFDM. Because of the good performance of WPT, a number of studies are still on the performance of WPT in hostile channels with more details. Also, there are a number of studies about various kinds of FEQ and TEQ such as zero force (ZF) and minimum mean square error (MMSE) in the peresence of AWGN and some fading channels. These researches also contain the comparison of FEQ for FFT-OFDM and overlap FEQ for WPT-OFDM.
    Todays, 3GPP standard is spread in different domains like 3G, 4G and LTE-A technologhies. In this paper, all the parameters are chosen according to 3GPP standards. For demonstrating the benefits of discrete WPT, two OFDM modulation schemes, i.e. FFT-OFDM and WPT-OFDM with two applied channels i.e. 6-tap rural area (RA6) and 6-tap typical urban (TU6) channels are considered. The performance of two systems are investigated by the measure of bit error rate (BER) in different SNRs(dB). Also, Wavelet families i.e. Haar, Daubechies6 , Symlet5 and Coiflet5 are compared with FFT in OFDM system with QPSK, 16-QAM and 64-QAM constellation mappings. In the receiver side, FEQ is used in FFT-OFDM and overlap FEQ is used in WPT-OFDM to equalize multipath fading channels. This is a comprehensive comparison between FFT-OFDM and WPT-OFDM with different constellations, a number of wavelet families, different equalizer with two applied channels in order to implement a real environment. The simulation results demonstrate performance improvement of the system using WPT-OFDM scheme. In order to evaluate the performance of these two OFDM techniques, the required SNRs for reaching BER =10-3 are extracted and compared for both systems. It was observed that one can obtain better performance by using Haar wavelets as orthogonal basis function rather than FFT in OFDM modulation. We achieved better performance by using Haar wavelets rather than FFT in OFDM modulation. As a result, WPT-OFDM can be applied , with better performance, in different OFDM-based applied technologhies such as DAB( Digital Audio Broadcast), WiMAX( worldwide Interoperability for Microwave Access), DVB( Digital Video Broadcast).

    Keywords: Multicarrier modulation, Fast Fourier Transform, Wavelet Packet Transform, 3GPP standard
  • Fatemeh Hosseini, Mitra Mirzarezaee*, Arash Sharifi Pages 137-146

    In this paper, a novel method based on the graph is proposed to classify the sequence of variable length as feature extraction. The proposed method overcomes the problems of the traditional graph with variable length of data, without fixing length of sequences, by determining the most frequent instructions and insertion the rest of instructions on the set of “other”, save speed and memory. According to features and the similarities of them, a score is given to each sample and that is used for classification. To improve the results, the method is not used alone, but in the two approaches, this method is combined with other existing Technique to get better results. In the first approach, which can be considered as a feature extraction, extracted features from scoring techniques (Hidden Markov Model, simple substitution distance and similarity graph) on op-code sequences, hexadecimal sequences and system calls are combined at classifier input. The second approach consists of two steps, in the first step; the scores which obtained from each of the scoring Technique are given to the three support vector machine. The outcomes are combined according to the weight of each Technique and the final decision is taken based on the majority vote. Among the components of the support vector machine, when given a higher weight in the similarity graph method (the proposed method), the result is better, Because the similarity graph method is more accurate than the other two methods. Then, in the second section, considering the strengths and benefits of each classifier, classifier outputs are combined and the majority voting is used. Three methods have been tested for group combinations, including Ensemble Averaging, Bagging, and Boosting. Ensemble Averaging consisting of the combination of four classifiers of random forests, a support vector machine (as obtained in the previous section), K nearest neighbors and naive Bayes, and the final decision is taken based on the majority vote; therefore, it is used as the proposed method. The proposed approach could detect metamorphic malware from Vxheaven set and also determines categories of malware with accuracy of 97%, while the SSD and HMM methods under the same conditions could detect malware with an accuracy of 84% and 80% respectively.

    Keywords: Malware Detection, Graph Techniques, Combining Classifiers, Variable Length Classification, Support vector machine
  • Elnaz Khodadadi, Rahil Hosseini*, Mahdi Mazinani Pages 147-165

    Soft computing models based on intelligent fuzzy systems have the capability of managing uncertainty in the image based practices of disease. Analysis of the breast tumors and their classification is critical for early diagnosis of breast cancer as a common cancer with a high mortality rate between women all around the world. Soft computing models based on fuzzy and evolutionary algorithms play an important role in advances obtained in computer aided detection (CAD) systems. Combination of the evolutionary nature of swarm intelligence algorithms in optimization along with the potential of fuzzy models to cope with uncertainty and complex environments.
    In this research, a fuzzy inference model has been proposed for managing uncertainty in input data. The main uncertainty issues for classification of the breast tumors were modeled through the linguistic terms, fuzzy variables and fuzzy reasoning processes in the fuzzy inference model. Fuzzy linguist terms and rule sets are valuable to have an intelligent model with the ability to interact with the clinicians. Furthermore, hybrid fuzzy-evolutionary models have been proposed for tuning fuzzy membership functions for diagnosis of malignant and benign breast tumors. The hybrid proposed evolutionary methods are: 1) Fuzzy-Genetic, 2) Fuzzy-Particle swarm intelligence, and 3) Fuzzy-biogeography models. Evolutionary nature inspired combination with the fuzzy inference model (FIM) improves the proficiency of the FIM by adaption to the environment through the tuning process using training and testing datasets. To achieve this, the Genetic Algorithm was applied as a base evolutionary method. Then, the potential of the Particle Swart intelligence algorithm in using local and global experiences of the solutions in the search space. Also, bio-geographical aspects of species in finding an optimum solution lands with the high suitability habitat index has been concentrated in optimization process of the FIM. Evolutionary algorithms perform tuning of the fuzzy membership functions to improve the accuracy of the fuzzy inference model while simplicity and interpretability of the FIM was kept. For performance evaluation, an ROC curve analysis was conducted which is a robust and reliable technique that represents the trades of between classification model benefits and costs. Also, for validation purpose, a 10-fold cross-validation technique was performed for partitioning the dataset into training and testing sets in the evolutionary optimization algorithms. The performance of the proposed methods were evaluated using a dataset including 295 images and extracted features from mammographic image analysis society (MIAS) dataset. The results reveal that the hybrid Fuzzy-biogeography model outperforms the other evolutionary models with an accuracy and area under the ROC curve (AUC) of 95.25%, and 91.43%, respectively. Performance comparison of the hybrid evolutionary models in this study with the related methods for classification of the breast tumors on the MIAS dataset reveals that the fuzzy-biogeography model outperforms the other methods in terms of trades-off between accuracy and interpretability with an area under the ROC curve of 95.25% with four extracted features. The Fuzzy-GA and Fuzzy-Swarm Intelligence models are competitive with the best results of counterpart methods with an accuracy of 93.9% and 94.58% in terms of the AUC, respectively. The proposed fuzzy-evolutionary models in this study are promising for diagnosis of the breast tumors in early stages of the disease and providing suitable treatment.

    Keywords: Fuzzy Inference System, Soft Computing, Hybrid Evolutionary Algorithms, Breast Tumours