فهرست مطالب

فصلنامه پردازش علائم و داده ها
سال سیزدهم شماره 2 (پیاپی 28، تابستان 1395)

  • تاریخ انتشار: 1395/06/31
  • تعداد عناوین: 10
|
  • محسن فرهنگ، حسین بهرامگیری، حمید دهقانی صفحات 3-10
    در این مقاله یک الگوریتم طبقه بندی مدولاسیون مبتنی بر ویژگی برای جداسازی سیگنالهای PSK ارائه شده است. مدولاسیونهای کاندید شامل QPSK، OQPSK، π/4DQOSK و 8PSK در نظر گرفته شده اند. روش ارائه شده برای استخراج ویژگی های مورد نظر از روی سمبلهای مشاهده شده، از یک دمدولاتور باند پایه 8PSK استفاده می کند. خروجی دمدولاتور به صورت یک ماشین حالت محدود در نظر گرفته می شود که به ازای هر یک از مدولاسیونهای کاندید، حالتها و تغییر حالتهای متفاوتی دارد. تخمین احتمال برخی تغییر حالتهای مشخص، ویژگی های متمایزکننده مدولاسیونهای کاندید را پدید می آورند. ویژگی های بدست آمده به یک طبقه بندی کننده بیزی داده می شوند که درباره نوع مدولاسیون سیگنال دریافتی تصمیم گیری می کند. با انجام شبیه سازی های متعدد، احتمال طبقه بندی صحیح در شرایط مختلف نسبت توان سیگنال به نویز و با تعداد مختلف سمبلهای مشاهده شده محاسبه شده است. نتایج این شبیه سازی ها نشان می دهد که روش پیشنهادی در مقایسه با روش های موجود، طبقه بندی دقیقتری ارائه می دهد.
    کلیدواژگان: طبقه بندی خودکار مدولاسیون، استخراج ویژگی، شناسایی الگو، نسخه های تغییریافته QPSK، طبقه بندی کننده بیزی
  • علی مرادی، اسدالله شاه بهرامی، رضا ابراهیمی آتانی، مهران علیدوست نیا صفحات 11-23
    با توجه به رشد فزاینده ی تعداد اسناد XML، سازماندهی موثر این اسناد به منظور بازیابی اطلاعات مفید از آنها ضروری می باشد. یک راه حل امکان پذیر، انجام خوشه بندی بر روی اسناد XML به منظور کشف دانش است. مسئله کلیدی در خوشه بندی اسناد XML این است که چگونه می توان شباهت بین اسناد XML را اندازه گیری کرد. استفاده از روش های متداول خوشه بندی اسناد متنی که اطلاعات محتوایی را برای اندازه گیری شباهت سند بکار می گیرند، باعث می شود اطلاعات ساختاری موجود در اسناد XML نادیده گرفته شود. در این مقاله، مدل جدیدی با نام مدل فضای ماتریسی برای بازنمایی هر دو ویژگی ساختاری و محتوایی داده ها در اسناد XML، پیشنهاد می شود. بر اساس این مدل، معیار شباهت جاکارد را تعریف و در نهایت از الگوریتم رقابت استعماری برای خوشه بندی اسناد XML استفاده می شود. نتایج تجربی نشان می دهد که مدل پیشنهادی و تابع نزدیکی معرفی شده در شناسایی اسناد مشابه که دارای اطلاعات ساختاری و محتوایی یکسان هستند، موثر است. این روش می تواند به منظور بهبود دقت خوشه بندی و افزایش بهره وری در بازیابی اطلاعات XML مورد استفاده قرار گیرد.
    کلیدواژگان: خوشه بندی، زبان فارسی، الگوریتم رقابت استعماری، پردازش زبان طبیعی و بازیابی اطلاعات
  • محمدعلی خلیل زاده، حجت دوستدارنوقابی صفحات 25-33
    اندازه گیری جریان خون به بافت کاربردهای زیادی در پیشگیری از زخم فشار، ارزیابی میزان فعالیت عضلات ورزشکاران و مراقبت از خون رسانی بافت حین اعمال جراحی دارد. استفاده از سیگنال حجم سنجی نوری به عنوان یک معیار پیوسته و غیرتهاجمی در ارزیابی میزان جریان خون بافت مورد پذیرش محققین می باشد. در این مطالعه روشی نو، برای ارزیابی میزان خون رسانی به بافت بر اساس سیگنال حجم سنجی نوری ارائه می شود. برای این هدف سیگنال حجم سنجی نوری به صورت انعکاسی با دو فاصله فرستنده و گیرنده 7 (اول) و 22 (دوم) میلیمتر با طول موج 950 نانومتر از کتف فرد در ناحیه عضلات ذوزنقه از 19 فرد سالم تحت اعمال فشارهای 0 و 40 و 80 میلیمتر جیوه گرفته شد. استخراج پوش بالایی سیگنال حجم سنجی نوری و تحلیل موجک در بازه های فرکانسی که مرتبط با عوامل متابولیک، نروژنیک، میوژنیک، تنفس و فعالیت قلبی است، انجام شده است. نتایج حاصل از آزمون t-test برای ویژگی های استخراج شده از سیگنال حجم سنجی نوری گیرنده دوم، اختلاف معنی دار (0.005 p <) را نشان دادند. برای جداسازی سیگنال حجم سنجی نوری از گیرنده دوم در فشارهای مختلف، شبکه عصبی پس انتشار (BPNN) صحت 68/73% و شبکه عصبی برازش تعمیم یافته (GRNN) صحت 6/79% حاصل شد. نتایج حاصل از شبیه سازی ها نشان می دهند که با اعمال فشار خارجی، لایه های عمقی بافت بیشتر تحت تاثیر قرار گرفته و میزان خون رسانی به آنها کاهش پیدا می کند. بهبود این روش می تواند برای ارزیابی میزان خون رسانی به بافت به صورت بالینی به کار برده شود و در مراحل بعد به عنوان روشی موثر برای پیشگیری از زخم فشار توسعه یابد.
    کلیدواژگان: خون رسانی، حجم سنجی نوری، تبدیل ویولت، شبکه عصبی رگرسیون تعمیم یافته
  • سمیرا نوفرستی، مهرنوش شمس فرد صفحات 35-49
    مسئله نظرکاوی در سال های اخیر بسیار مورد توجه بوده است. تمرکز روش های موجود نظرکاوی بر نظرات مستقیم بوده است و اغلب آنها از نظرات غیرمستقیم صرفنظر کرده اند. درحالی که در برخی دامنه ها از جمله پزشکی نظرات غیرمستقیم به کرات رخ می دهند و نادیده گرفتن آنها باعث کاهش دقت سیستم نظرکاوی می شود. در این مقاله روشی نیمه خودکار برای ساخت پیکره ای از نظرات غیرمستقیم به زبان انگلیسی در دامنه دارو ارائه می شود. در مرحله اول روش پیشنهادی، جملاتی که بیانگر یک نظر غیرمستقیم هستند شناسایی می شوند و در مرحله دوم قطبیت آن ها با کمک دانش دامنه، الگوهای زبانی و ساختار نظرات تعیین می شود. سپس از این پیکره در روش های یادگیری ماشین جهت تعیین قطبیت نظرات مطرح شده درباره داروها استفاده می گردد. نتایج آزمایشات نشان می دهد که روش پیشنهادی در تعیین قطبیت مجموعه تست به دقت 82.81 درصد می رسد و بر یک روش برجسته تحلیل نظرات مستقیم به نام الگوهای سنتیک غلبه می کند.
    کلیدواژگان: نظرکاوی، نظرات غیرمستقیم، تحلیل احساسات، ساخت پیکره، یادگیری ماشین
  • حجت حمیدی صفحات 51-69
    در این مقاله چارچوبی برای روش های تحمل پذیری خطای مبتنی بر الگوریتم در سیستم های محاسباتی ارائه می دهیم. خطاهایی که در الگوریتم های پردازش داده رخ می دهند، با بکارگیری کدهای کانولوشن سیستماتیک تعریف شده بر روی ساختارهای حسابی نقطه ثابت، آشکارسازی و تصحیح می شوند. کدهای کانولوشن، امکان آشکارسازی خطا در عملیات پردازش داده ی عددی را ، فراهم می نمایند. بسیاری از تکنیک های تحمل پذیر خطا که مربوط به حفاظت از عملیات های ماتریسی عددی می باشند از کدهای بلوکی با افزونگی بالا برای قابلیت تحصیح خطا، استفاده می کنند. در این مقاله، از کدهای کانولوشن استفاده شده و از ویژگی های آزمون پیوسته برای آشکارسازی خطاها استفاده می شود. این تکنیک آشکارسازی خطای مبتنی بر الگوریتم، بر مقایسه مقادیر توازن محاسبه شده از دو مسیر تکیه دارد. خطاهای پردازش داده های عددی توسط مقایسه مقادیر توازن مرتبط با کدهای کانولوشن آشکار می شوند. این روش یک رویکرد جدید برای دستیابی به اصلاح خطای همزمان در سیستم های محاسبات تحمل پذیری خطا می باشد. این مقاله یک طرح محاسباتی جدید را به منظور فراهم آوردن تحمل پذیری خطا برای الگوریتم های عددی ارائه می دهد. در حالی که تصحیح داده های خروجی توسط یک کدگشای (کدبردار) آستانه که تحت تاثیر خطاهای گرد کردن و خطاهای ناشی از محاسبه گر می باشد، صورت می گیرد. هدف، توصیف یک رویکرد حفاظتی است که به آسانی با تکنیک های پردازش داده ادغام شده و به تحمل پذیری موثرتر خطا می انجامد. نتایج شبیه سازی، نشان می دهند که اختلاف میان خطای گردکردن و خطای ناشی از محاسبه گر به اندازه کافی برای متمایز شدن از یکدیگر بزرگ می باشد. این اختلاف بزرگ میان این دو خطا، محدوده و گستره ای از آستانه های آشکارسازی خطا را برای انتخاب به ما می دهد.
    کلیدواژگان: پردازش داده، تحمل پذیری خطا مبتنی بر الگوریتم (ABFT)، کدهای کانولوشن، مقادیر توازن(پریتی)، خطاهای گرد کردن، آشکارسازی خطا
  • لیدا اصغریان، حسین ابراهیم نژاد صفحات 71-89
    امروزه پویانماها با ایجاد حرکات طبیعی در اندام های شخصیت های کارتونی به شخصیت های تخیلی زندگی واقعی می بخشند. برای رسیدن به این هدف می توان حرکات موجودات زنده را به شخصیت های کارتونی اعمال نمود. دراین مقاله، یک روش مبتنی بر تناظریابی اسکلتی برای انتقال حرکت یک شخصیت دو بعدی به شخصیت جدید ارائه شده است. در این مقاله، روش نوینی برای تناظریابی بین اسکلت مرجع و هدف ارائه شده است که بر مبنای موقعیت زاویه ای استخوان های خارج شده از گره ها و مجموع طول استخوان های متصل شده به گره ها می باشد. برای این منظور، دو شخصیت با ساختار آناتومی مشابه به عنوان شخصیت مرجع و هدف انتخاب می شوند. بر اساس سکانس حرکتی موجود از شخصیت مرجع، اسکلتی با مفاصل دقیق برای این شخصیت استخراج شده و اسکلت شخصیت هدف بر اساس الگوریتم استخراج اسکلت به دست می آید. با تناظریابی بین اسکلت شکل مرجع و هدف می توان حرکات و تغییرات هر یک از استخوان های مرجع را به استخوان متناظر در شکل هدف منتقل نمود. تغییرات انتقال داده شده از شکل های مرجع بیان گر میزان چرخش، جابه جایی و تغییر مقیاس هر یک از استخوان های شکل مرجع می باشند. برای ارزیابی الگوریتم پیشنهادی و نمایش نتایج حاصل از آن، از شخصیت های پویانمائی دو بعدی استفاده شده است. نتایج به دست آمده بیان گر توانایی الگوریتم در تولید شکل های با کیفیت و با حرکات طبیعی و واقعی می باشند. الگوریتم پیشنهادی نسبت به تنوع شخصیت های مرجع مقاوم بوده و می تواند انواع تغییرات را به شخصیت های دیگر منتقل نماید.
    کلیدواژگان: انتقال حرکت، پویانمایی، تناظریابی اسکلت، استخراج مفصل
  • مجتبی شریف نوقابی، حسین مروی، دانیال دارابیان صفحات 91-103
    تشخیص لهجه از روی شکل موج گفتار یکی از شاخه های نسبتا جدید در علم پردازش گفتار است.تشخیص لهجه می تواند تا حد زیادی باعث بهبود سیستم های بازشناخت گفتار شود.همانند هر سیستم بازشناسی، فرآیند تشخیص لهجه نیز شامل سه مرحله پیش پردازش، استخراج ویژگی و طبقه بندی است.در این مقاله سه روش کارآمد استخراج ویژگی شامل دامنه مرکزی طیفی (SCM) ، مشتق اول آن (∆SCM) و تبدیل Zak روی سیگنال گفتار اعمال شده اند و کارآیی این روش ها با روش های متدوال استخراج ویژگی مانند ضرایب مل-کپستروم و مشتقات آن مقایسه شده است. علاوه بر این یک ویژگی جدید که با ایجاد تغییراتی در الگوریتم محاسبه ضرایب مل-کپستروم به دست می آید برای تشخیص لهجه ها در محیط های نویزی معرفی گردیده است. برای مرحله طبقه بندی از پنج طبقه بند مختلف، شامل MLP ، KNN ، PNN ، RBF و SVM و ترکیب این طبقه بندها با یکدیگر استفاده شده است.نتایج آزمایش ها بیانگر بهبود نرخ بازشناسی لهجه ها با روش های پیشنهادی هستند.
    کلیدواژگان: دامنه مرکزی طیفی، ترکیب طبقه بندها، لهجه فارسی، ماشین بردار پشتیبان، ضرایب مل، کپستروم بهبود یافته
  • حمید حسن پور، سکینه اسدی امیری صفحات 105-120
    تاکنون کارهای زیادی در مورد فشرده سازی تصویر انجام گرفته و روش های متفاوتی ارائه شده اند. هر یک از این روش ها بر روی تصاویر مختلف، میزان فشرده سازی متفاوتی را ارائه می دهند. با شناسایی پارامترهای تاثیرگذار در یک الگوریتم فشرده سازی و تقویت آنها در مرحله پیش پردازش، میزان فشرده سازی آن الگوریتم را می توان بهبود بخشید. JPEG یکی از روش های فشرده سازی موفق می باشد که کارهای زیادی نیز برای بهبود عملکرد آن انجام شده است. میزان وضوح تصویر، یکی از عوامل مهم در میزان فشرده سازی JPEG محسوب می شود. هر چه وضوح تصویر کمتر باشد، جزئیات کمتری در آن قابل نمایش است و JPEG قادر خواهد بود با میزان بیشتری این گونه تصاویر را فشرده نماید. در این مقاله پیش پردازش شبه بی اتلافی مبتنی بر عملگر توان ارائه شده است که با کم کردن دامنه تغییرات سطوح خاکستری تصویر، وضوح تصویر را کاهش می دهد. بر اساس نتایج این تحقیق، JPEG قادر خواهد بود با میزان فشرده سازی بیشتری تصاویر پیش پردازش شده حاصل را فشرده نماید. در مرحله بازیابی تصویر، با اعمال عملگر توان با معکوس مقدار نما، وضوح اولیه تصویر احصاء می شود. نتایج نشان می دهد که روش پیش پردازش ارائه شده میزان فشرده سازی JPEG را بر روی تصاویر طبیعی به میزان قابل ملاحظه ای افزایش می دهد.
    کلیدواژگان: پیش پردازش، فشرده سازی تصویر، شبه بی اتلاف، روش JPEG
  • محمدحسین دهقان، هشام فیلی صفحات 121-137
    درخت بانک از مهم ترین و پرکاربردترین منابع مورد استفاده در زمینه پردازش زبان طبیعی است. دو نوع از پرکاربردترین درخت بانک ها، درخت بانک وابستگی و درخت بانک سازه ای است. با توجه به نبود درخت بانک سازه ای با حجم بزرگ در زبان فارسی در این مقاله به بررسی روشی ارائه شده در تبدیل درخت بانک وابستگی به سازه ای می پردازیم. سپس مشکلات این روش را در زبان فارسی و انگلیسی بررسی و با ارائه راهکارهایی کیفیت تبدیل را بهبود می بخشیم. اولین راهکار، تصحیح مکان اتصال سازه ها در درخت سازه ای به ازای هر رابطه ی وابستگی است. راهکار دوم، انجام مکاشفه ای به صورت پس پردازش و بر روی خروجی ساختار سازه ای این روش است که، کیفیت نهایی درخت های سازه ای را بهبود می بخشد. نتایج حاصل از آزمایش ها نشان می دهد که، روش تبدیل با کمک راهکارهای ارائه شده حدود 85/25 درصد در زبان فارسی و 39/4 درصد در زبان انگلیسی دارای کیفیت بالاتری نسبت به حالتی است که از راهکارهای پیشنهادی استفاده نشود. در ادامه با کمک روش تبدیل و درخت بانک وابستگی موجود در زبان فارسی، یک درخت بانک سازه ای تولید کرده و به کمک آن تجزیه گری سازه ای را آموزش داده ایم. کیفیت تجزیه گر آموزش داده شده با استفاده از درخت بانک حاصل از روش تبدیل و راهکارهای پیشنهادی این پژوهش نسبت به حالتی که از راهکارهای پیشنهادی استفاده نشود، بهبودی 21 درصدی را نشان می دهد.
    کلیدواژگان: پردازش زبان طبیعی، زبان فارسی، بانک درخت وابستگی، بانک درخت تجزیه نحوی، تجزیه گر تجزیه نحوی
  • سجاد شفیع پور یوردشاهی، هادی سید عربی، علی آقاگل زاده صفحات 139-149
    در این تحقیق، تلاش برای بهبود نرخ شناسایی و حل مشکلات ناشی از چرخش سر، تغییر شدت روشنایی و پوشش قسمتی از چهره در رشته های ویدیویی با استفاده از افکنش متعامد با حفظ ساختار محلی (OLPP) است. در این پژوهش ابتدا برای حذف تصویر زمینه، چهره در فریم های ویدیویی تشخیص داده می شود. سپس با ارایه یک روش مناسب، مجموعه تصاویرچهره که به صورت منیفولد غیرخطی توزیع یافته است، خوشه بندی شده و مراکز خوشه ها به عنوان نماینده هر خوشه تعیین می شوند. در این مقاله نشان داده می شود که با استفاده از افکنش OLPP فریم های کلیدی به یک فضای جدیدی منتقل می شوند که در آن فریم های متعلق به یک منیفولد به هم نزدیک تر و از فریم های منیفولدهای دیگر دور می شوند. برای شناسایی، رشته ویدیویی آزمایشی به فضای جدید افکنش شده و فاصله ی بین منیفولدها محاسبه می شود. مقایسه نتایج الگوریتم پیشنهادی با روش های دیگر نشان دهنده ی کارایی بالای روش پیشنهادی است.
    کلیدواژگان: شناسایی چهره، افکنش متعامد با حفظ ساختار محلی، فریم کلیدی، زیرفضا
|
  • Hosein Bahramgiri, Hamid Dehghani, Mohsen Farhang Pages 3-10
    In this paper a feature-based modulation classification algorithm is developed for discriminating PSK signals. The candidate modulation types are assumed to be QPSK, OQPSK, π/4 DQOSK and 8PSK. The proposed method applies an 8PSK baseband demodulator in order to extract required features from observed symbols. The received signal with unknown modulation type is demodulated by an 8PSK demodulator whose output is considered as a finite state machine with different states and transitions for each candidate modulation. Estimated probabilities of particular transitions constitute the discriminating features. The obtained features are given to a Bayesian classifier which decides on the modulation type of the received signal. The probability of correct classification is computed with different number of observed symbols and SNR conditions by carrying out several simulations. The results show that the proposed method offers more accurate classification compared to previous methods for classifying variants of QPSK.
    Keywords: automatic modulation classification, feature extraction, pattern recognition, variants of QPSK, Bayes classifier
  • Ali Moradi, Dr. Asadollah Shahbahrami, Dr. Reza Ebrahimi Atani, Mehran Alidoust Nia Pages 11-23
    Due to the increasing number of documents, XML, effectively organize these documents in order to retrieve useful information from them is essential. A possible solution is performed on the clustering of XML documents in order to discover knowledge. Clustering XML documents is a key issue of how to measure the similarity between XML documents. Conventional clustering of text documents using a document similarity measure used in information content, they can cause structural information contained in XML documents is ignored. In this paper, a new model named matrix space model to represent both structural and content features of documents in XML, is proposed. Based on this model, the Jaccard similarity measure is defined and the colonial competitive algorithm for clustering XML documents is used. Experimental results show that the proposed model function in identifying similar documents which closely identified with the same structure and content information are effective. This method can improve the accuracy of clustering, and XML data can be used to increase productivity.
    Keywords: Clustering, Persian, colonial competitive algorithm
  • Mohammad Ali Khalilzadeh, Hojjat Dustdar Nughabi Pages 25-33
    Measurement of tissue blood perfusion has many applications in the prevention of pressure sores, muscle activity assessment and care of tissue blood perfusion during surgery. Photoplethysmography as a continuous measure for evaluation of blood perfusion in tissue is accepted by researchers. In this study a new method for assessment of blood perfusion to the tissue based on photoplethysmograph signal (PPG) is presented. Wavelengths of the PPG were near infrared 950 nm with source-to-detector separation of 7 and 22 mm. The probe was placed over the trapezius muscle of 19 healthy subjects under the external pressures of 0 and 40 and 80 mmHg. PPG envelope detected and wavelet transform calculated in the five frequency intervals. These bands relate to metabolic, neurogenic, myogenic, respiratory and cardiac activities. The p-value of the t-test analysis for extracted features was less than 0.005. Results have shown that by applying external pressure, tissue deep layers most affected and the amount of their blood perfusion is reduced. Accuracy of separation at different pressures for back propagation neural network (BPNN) was 73.68% and for generalized regression neural network (GRNN) was 79.6%. Improvement of this method can be as a clinical assessment of tissue blood perfusion and can be as an effective method in prevention of pressure ulcers.
    Keywords: Blood perfusion, Photoplethysmogram, Wavelet transform, generalized regression neural network (GRNN)
  • Samira Noferesti, Dr Mehrnoush Shamsfard Pages 35-49
    Opinion mining is a well-known problem in natural language processing that has attracted increasing attention in recent years. Existing approaches have been often focused on identifying direct opinions and ignored indirect ones. However, in some domains such as medical, indirect opinions occur frequently. Therefore, ignoring indirect opinions can lead to the loss of valuable information and noticeable decline in overall accuracy of opinion mining systems. In this paper, we present a semi-automatic approach to construct a corpus of indirect opinions from drug reviews. In the first step, we propose an automatic method for detection of indirect opinions and in the second step, we use domain knowledge, linguistic rules and review structure for polarity detection of drug reviews. Then we exploit the constructed corpus as a training set in machine learning techniques for polarity classification of new examples. Experimental results demonstrate that our proposed approach achieves 82.81 percent precision.
    Keywords: opinion mining, indirect opinions, sentiment analysis, corpus construction, machine learning
  • Dr Hodjat Hamidi Pages 51-69
    We present a framework for algorithm-based fault tolerance methods in the design of fault tolerant computing systems. The ABFT error detection technique relies on the comparison of parity values computed in two ways. The parallel processing of input parity values produce output parity values comparable with parity values regenerated from the original processed outputs. Number data processing errors are detected by comparing parity values associated with a convolution code. This article proposes a new computing paradigm to provide fault tolerance for numerical algorithms. The data processing system is protected through parity values defined by a high-rate real convolution code. Parity comparisons provide error detection, while output data correction is affected by a decoding method that includes both round-off error and computer-induced errors. To use ABFT methods efficiently, a systematic form is desirable. A class of burst-correcting convolution codes will be investigated. The purpose is to describe new protection techniques that are easily combined with data processing methods, leading to more effective fault tolerance.
    Keywords: algorithm, based fault tolerance (ABFT), convolution codes, parity values, syndrome
  • Lida Asgharian, Dr Hossein Ebrahimnezhad Pages 71-89
    Nowadays, the animators give life to the fancy characters by making natural movements to organs of cartoon characters. To achieve this goal, movements of living individuals can be applied into cartoon characters. In this paper, a skeletal correspondence finding based method is proposed to transfer movement of a 2D character into a new character, where these two shapes have the same structural topology, approximately. Based on the given animation sequence of source character, each body part of this character is segmented according to a specific motion. In this case, an exact skeleton with defined joints will be achieved for source shape. The target character skeleton is obtained by automatic skeleton extraction algorithms. In this stage, by skeletal correspondence finding between source and target character, we can transfer skeleton deformation of each source body parts into target body parts. This deformation contains the values of skew, scale and orientation that are achieved from reference pose and deformed poses of source skeletons. Finally, to evaluate the proposed method efficiency, we perform it on 2D animation characters. The achieved results illustrate the ability of the algorithm in generating correct and natural motions for different variety of characters. The method is robust to the type of characters and can transfer variety of deformations.
    Keywords: Motion retargeting, Animation, Skeleton correspondence, Joint extraction
  • Mojtaba Sharif Noughabi, Hossein Marvi, Danial Darabian Pages 91-103
    Speech recognition has achieved great improvements recently. However, robustness is still one of the big problems, e.g. performance of recognition fluctuates sharply depending on the speaker, especially when the speaker has strong accent and difference Accents dramatically decrease the accuracy of an ASR system. In this paper we apply three new methods of feature extraction including Spectral Centroid Magnitude (SCM), its first order difference (∆SCM ) and Zak transformation to the original speech signal using accents selected from FARSDAT corpus then their performance of these methods have been compared with some common methods such as MFCC. Moreover a new feature based on MFCC algorithm have been proposed in order to use in noisy environments. Five different classifications, including MLP, KNN, PNN, RBF and SVM and their combination have been used to evaluate the performance of each feature extraction methods. Experimental results demonstrate improvement in the recognition rates in our proposed method.
    Keywords: Spectral Centroid Magnitude, classifiers combination, Farsi accents, support vector machine, Improved Mel Frequency Cepstral Coefficient
  • Sekine Asadi Pages 105-120
    A lot of researchs have been performed in image compression and different methods have been proposed. Each of the existing methods presents different compression rates on various images. By identifing the effective parameters in a compression algorithm and strengthen them in the preprocessing stage, the compression rate of the algorithm can be improved. JPEG is one of the successful compression algorithm that various works have been done to improve its performance. Image contrast is one important factor affecting on JPEG compression rate. The lower the image contrast, the less detail is visible and JPEG will be able to compress such images with a higher rate. In this paper, a semi-lossless preprocessing method based on power operator is proposed that decreases the image contrast by reducing the range of graylevels in the image. Therefore, JPEG can compress the preprocess images with a higher compression ratio. To restore the image, after decoding the compressed image, by applying the inverse exponent value to the power operator on this image, an image similar to the original image will be achieved. The results show that the proposed preprocessing method substantially increases the JPEG compression ratio on natural images.
    Keywords: Preprocessing, Image compression, Semi, lossless, JPEG method
  • Mohammad Hossein Dehghan, Heshaam Faili Pages 121-137
    Treebanks is one of important and useful resource in Natural Language Processing tasks. Dependency and phrase structures are two famous kinds of treebanks. There have already made many efforts to convert dependency structure to phrase structure. In this paper we study an approach to convert dependency structure to phrase structure because of lack of a big phrase structure Treebank in Persian. Also we study the algorithm’s errors and propose a solution to solve the problem and improve the quality of conversion process. The experiment results show that we can improve the quality of conversion, about 25.85 percent, in Persian and about 4.39 percent in English. With the help of the conversion algorithm and the dependency Treebank, we produce the phrase structure treebank and train a parser using the resulted treebank. Our parser output is about 21 percent, better than the same parser introduced as baseline.
    Keywords: Natural Language Processing, Persian Language, Dependency Structure Treebank, Phrase Structure Treebank, Phrase Structure Parser
  • Sajjad Shafeipour Yourdeshahi, Dr. Hadi Seyedarabi, Dr. Ali Aghagolzadeh Pages 139-149
    In this paper, attempting to improve the recognition rate and solve some problems such as pose, lighting variations and partial occlusion in video sequences using Orthogonal Locality Preserving Projection (OLPP). In this research, first of all face in video frames is detected for background removing. Then each set of images is distributed on a nonlinear manifold and clustered using appropriate methods then the center of each cluster is considered as the cluster representative. It is also shown that by using OLPP the key frames are projected to the new space, where the frames in each manifold are better closed also the frames in different manifold are better separated. The recognition is done by projecting the test video sequence to the new space and calculating the distance between manifolds. Comparing the experimental results of the proposed method with other methods demonstrate the effectiveness of the proposed approach.
    Keywords: face recognition, Orthogonal Locality Preserving Projection, key frame, subspace, manifold