به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

فهرست مطالب بهنام قوامی

  • مهدیه قزوینی*، محمدجواد شهنوازی، بهنام قوامی

    پردازنده های مدرن که شامل حافظه نهان بزرگ می باشند، نسبت به خطاهای گذرا آسیب پذیری بالایی دارند. اهمیت این موضوع باعث شده است تا از روش های کدگذاری برای محافظت در برابر خطا استفاده شود. هزینه قابلیت اطمینان باید به نحوی تامین گردد تا استفاده بهینه از انرژی و ناحیه را در پی داشته باشد. در این مقاله روشی برای افزایش اتکاپذیری حافظه نهان محافظت نشده در پردازنده ها ارایه شده است. در این مقاله قابلیت اطمینان حافظه نهان در پردازنده های مدرن با استفاده از مکانیسم کاهش خطای برچسب کم هزینه مورد مطالعه قرار می گیرد. روش پیشنهادی از تکنیک افزایش فاصله همینگ در برچسب بهره برداری می کند. علاوه بر کاهش False Hit به صفر ، دارای سربار بسیار پایین نیز هست.

    کلید واژگان: فاصله همینگ, اتکاپذیری, False Hit, حافظه نهان, اشکال}
    Mahdieh Ghazvini *, Mohammadjavad Shahnavazi, Behnam Ghavami

    The modern processors that consist of large caches are very vulnerable to transient errors. Due to the importance of this problem, coding methods are adopted for protection against errors. The cost of reliability should be incurred to optimize the use of energy and area. This paper proposes an approach to dependability enhancement in unprotected caches of processors. For this purpose, the low-cost tag error mitigation mechanism is adopted to analyze the reliability of caches in modern processors. Benefiting from the tag Hamming distance increase technique, the proposed approach has a much lower overhead and decreases the false hit rate to zero.

    Keywords: Hamming distance, Dependability, False Hit, Cache, Tag, Fault}
  • سید حمیدرضا موسوی، مهدی افتخاری*، بهنام قوامی

    اخیرا تعداد زیادی الگوریتم بر پایه ی ماشین یادگیری سریع برای آموزش دادن ساختار های شبکه های عصبی عمیق معرفی شده اند .اتوانکدر مبتنی بر ماشین یادگیری سریع یکی از این الگوریتم هاست که برای ایجاد ساختار چندلایه و تعیین پارامترهای هر لایه از مدل معرفی شده است. در الگوریتم آموزش اتوانکدر مبتنی بر یادگیری سریع، وزنها در لایه اول به صورت تصادفی مقدار دهی می شوند که باعث ایجاد خطای بازسازی می شود. فرایند تکراری استفاده از این اتوانکدر ها منجر به پخش خطا درساختار عمیق شده و منجر به کاهش کارایی کل مدل خواهد شد. در این مقاله یک اتوانکدرچندلایه برای تعیین پارامترهای یک شبکه عصبی عمیق ارایه شده است. همچنین یک الگوریتم نوین برای آموزش این مدل معرفی می شود که از پخش خطا جلوگیری می کند. به منظور افزایش کارایی مدل به جای مقداردهی تصادفی پارامترهای اولین از یک اتوانکدر تکرار شونده بهره می بریم که در یک فرایند تکراری پارامترهای اولین لایه را به بهترین حالت تعیین می کند. برای طبقه بندی داده ها به کمک ویژگی های استخراج شده، از یک ماشین یادگیری سریع تک لایه استفاده شده است. آزمایش ها برای طبقه بندی داده ها نشان می دهد که روش پیشنهادی میانگین دقت روی همه ی مجموعه داده ها را به ترتیب به میزان 4%، 26%، 17% و 31% نسبت به روش های موجود بهبود داده است. برای نشان دادن کارایی اتوانکدر چندلایه از این مدل برای بازسازی تصاویر استفاده شده است و نتایج دیداری نشان دهنده ی کارایی بهتر روش پیشنهادی در بازسازی تصاویر می باشد.

    کلید واژگان: ماشین یادگیری سریع, طبقه‌بندی, اتوانکدر, بازسازی تصاویر}
    Seyed Hamid Reza Mousavi, Mahdi Eftekhari *, Behnam Ghavami

    Recently, a number of Extreme Learning Machine (ELM) based training algorithms have been introduced for training deep neural network structures. ELM based Auto-Encoder (ELM-AE) is one such algorithm that has been used for making multilayer structures and tuning parameters of each layer. In a simple ELM-AE training algorithm, the weights of the first layer are initialized randomly. This issue is a leading factor in producing reconstruction error. The frequent use of ELM-AE in deep network layers results in propagating such errors through deep structures and in decreasing performance as a consequent. In this paper, we introduce a multilayer structure and a new learning algorithm to train it that prevents error propagation. In order to boost the performance of the model, the parameters in the first layer are initialized by a novel type of ELM-AE called Repeated-AE (RAE) rather than by a random selection method. This RAE-based technique determines the parameters in the first layer far better than do the other ELM-AE existed methods. Next, a single hidden layer ELM is applied for handling the classification task. Experimental results for data classification show that the proposed method outperforms some other methods in terms of the average accuracy over all datasets by amounts of 4%, 26%, 17% and 31%. Eventually, so as to verify the performance of the proposed multilayer ELM-AE in application, we used this model to reconstruct images. The reconstructed images obtained by our approach appeared visually a lot better compared to those obtained by the other methods do.

    Keywords: extreme learning machine, Classification, autoencoder, reconstruct image}
  • محمدرضا روحانی پور، بهنام قوامی *، محسن راجی
    ر این مقاله یک تکنیک باز-سنتز مبتنی بر جایگزینی منطقی محلی به منظور کاهش نرخ خطای نرم مدارهای ترکیبی ارائه شده است. روش پیشنهادی راه کار خلاقانه ای را جهت افزایش احتمال پوشش منطقی مدار تحت خطای نرم و با در نظر گرفتن محدودیت مساحت فراهم می آورد. در این تکنیک، ابتدا زیرمداری از مدار اصلی استخراج می شود و به کمک روش Quine–McCluskey (QM) توسعه یافته، پیاده سازی های مختلف از زیرمدار به دست می آید. به منظور انتخاب بهترین جایگزین از بین مجموعه پیاده سازی های مختلف زیرمدار با کمترین نرخ خطای نرم، معیار جدید Global Failure Probability (GFP) ارائه شده است. این معیار، با در نظر گرفتن پارامترهای نظیر احتمال ایجاد پالس های گذرای خطادار در زیرمدار و احتمال انتشار این پالس ها توسط زیرمدار، این امکان را فراهم می آورد که پس از تغییر محلی ساختار زیرمدار بتوان به ارزیابی سراسری نرخ خطای نرم ناشی از این تغییر پرداخت. به عبارت دیگر، معیار ارائه شده در هر مرحله از فرآیند بهبود نرخ خطای نرم بدون نیاز به جایگزین نمودن تمام پیاده سازی های مختلف از زیرمدار در مدار اصلی و محاسبه نرخ خطای نرم کل مدار به ازای هرکدام از آن ها، تاثیر هر یک را در نرخ خطای نرم مدار اصلی محاسبه می نماید. نتایج حاصل از شبیه سازی ها بر روی مدارهای محک ISCAS’85 نشان می دهد که روش پیشنهادی به طور میانگین موجب 17/75% کاهش نرخ خطای نرم به ازای 5/39% سربار مساحت شده است.
    کلید واژگان: خطای نرم, زیر مدار, پوشش منطقی, مدار ترکیبی, نرخ خطای نرم}
    Behnam Ghavami, MohammadReza Rohanipour, Mohsen Raji
    In this paper, a re-synthesize technique based on the local logical replacement in order to reduce the soft error rate of combinational circuits is proposed. The proposed method provides an innovative technique to increase the logical masking probability considering the area overhead. In this technique, at first, using an extended Quine-McCluskey (QM) method, the sub-circuits be extracted from the main circuit; while, different implementation carried out on the extracted sub-circuits. In order to choose the best alternative among the different implementations of a sub-circuit with the lowest soft error rate, a new parameter named as Global Failure Probability (GFP) is introduced. Experimental results on some ISCAS’85 benchmarks show that, on average, a probability of circuit failure reduction of 17. 75% is achieved compared to the original circuit. The average area overhead is 5. 39% of the original circuit.
    Keywords: Soft Error, Combinational Circuit, Logical Masking, Soft Error Rate (SER)}
  • محمد امین ثابت سروستانی، بهنام قوامی*، محسن راجی
    یکی از مهم ترین چالش ها برای سیستم های دیجیتال در مقیاس نانو، کاهش قابلیت اطمینان ناشی از افزایش نرخ خطای نرم این سیستم ها می باشد. با رسیدن ابعاد تکنولوژی CMOS به مقیاس نانو، نرخ خطای گذرای چندتایی ناشی از برخورد یک ذره پرانرژی به سطح تراشه ها بیش از نرخ خطای گذرای تک رخدادی خواهد بود. بنابراین، در فرآیند طراحی این سیستم ها، تکنیک های بهینه سازی باید به صورت آگاه از خطاهای گذرای چندتایی انتخاب شوند. در این مقاله، چارچوبی جدید برای بهبود تحمل پذیری مدارهای ترکیبی در برابر خطاهای چندتایی ارائه شده است. در این چارچوب، با اندازه گذاری مجدد دروازه های حساس، پوشش الکتریکی این دروازه ها افزایش داده شده است و از این طریق، نرخ خطای نرم چندتایی مدارهای ترکیبی بهبود یافته است. نتایج به دست آمده از آزمایش های تجربی بر روی مدارهای محک ISCAS’85 نشان می دهد که اندازه گذاری مجدد دروازه ها در حضور همزمان گذارهای چندرخدادی و تک رخدادی با استفاده از چارچوب پیشنهادی، موجب بهبود 4X نرخ خطای نرم مدار در مقایسه با پیش از اندازه گذاری دروازه های مدار و همچنین بهبود 2X نرخ خطای نرم مدار در مقایسه با زمانی خواهد بود که اندازه گذاری دروازه ها تنها در حضور گذارهای تک رخدادی انجام می گیرد؛ درحالی که سربار مساحت ناشی از دو روش یکسان می باشد.
    کلید واژگان: سیستم های دیجیتال, تحمل پذیری در برابر اشکال, خطای نرم, اندازه گذاری دروازه, خطای چندتایی}
    M. A. Sabet, B. Ghavami *, M. Raji
    The aggressive device scaling and exponential increase in transistor counts of a chip have increasingly made the modern integrated circuits more susceptible to soft errors. Soft errors are caused by strikes from energetic particles such as neutrons and alpha particles. With the emerging nanoscale CMOS technology, Multiple Event Transients (METs) originated from radiation strikes are expected to become more frequent than Single Event Transients (SETs). So in design process of such circuits, optimization techniques are required to be aware of multiple-event transient faults. In this paper, a new framework to improve the tolerability of combinational circuits against METs is provided. In this context, by resizing the sensitive gates, electrical masking of the gates are increased and thus, the Soft Error Rate (SER) of the combinational circuit is improved. The experimental results on ISCAS’85 benchmark circuits show that using the proposed framework, which considers METs, leads to 4X improvement in SER of the circuits compared the original circuit. Also 2X improvement in circuit SER is achieved when only SETs are taken into consideration for gate sizing.
    Keywords: Digital Systems, fault tolerance, soft error, gate sizing, multiple fault}
  • مینا جعفری، بهنام قوامی*، وحید ستاری

    استنتاج شبکه تنظیم کننده ژن (GRN) با استفاده از داده های بیان ژن جهت درک وابستگی و نحوه تنظیم ژن ها، درک فرآیندهای زیست شناسی، نحوه رخداد فرآیندها و همچنین جلوگیری از رخداد برخی فرآیندهای ناخواسته (بیماری)، حائز اهمیت است. ساخت صحیح GRN، نیازمند استنتاج صحیح مجموعه پیش بینی کننده می باشد. به طور کلی، مهمترین محدودیت در مورد استنتاج صحیح مجموعه پیش بینی کننده، حجم عظیم ژن ها، کم بودن تعداد نمونه ها و امکان نفوذ نویز در داده های بیان ژن می باشد؛ بنابراین، ارائه روش هایی کارا جهت استنتاج پیش بینی کننده ها با قابلیت اطمینان بالا یک نیاز جدی می باشد. در این مقاله، با استفاده از الگوریتم جستجوی گرانشی(GSA)، یک روش کارا جهت استنتاج مجموعه پیش بینی کننده ارائه شده است. به ازای هر ژن هدف، یک الگوریتم GSA جهت استنتاج زیر مجموعه پیش بینی کننده آن ژن استفاده شده است. در هر جمعیت، یک جرم نشان دهنده زیر مجموعه پیش بینی کننده مرتبط با آن ژن هدف می باشد. جمعیت اولیه به ازای هر ژن هدف براساس ضریب همبستگی پیرسون تولید می شود. جهت هدایت الگوریتم GSA، از معیار ارزیابی میانگین آنتروپی شرطی (MCE) استفاده شده است. نتایج تجربی حاصل از به کارگیری این روش بر روی داده های زیست شناسی نشان می دهد که روش پیشنهادی دقت بالایی جهت استنتاج مجموعه پیش بینی کننده دارد. به علاوه، نتایج بر روی داده های زیست شناسی با مقیاس کوچک و بزرگ نشان می دهند که میزان دقت روش پیشنهادی جهت استنتاج GRN در مقایسه با روش های مشابه، بیشتر است.

    کلید واژگان: شبکه تنظیم کننده ژن (GRN), ژنومیک, میانگین آنتروپی شرطی (MCE), الگوریتم جستجوی گرانشی (GSA), ضریب همبستگی پیرسون}
    Mina Jafari, Behnam Ghavami *, Vahid Sattari Naeini

    The inference of Gene Regulatory Network (GRN) using gene expression data is significantly important in order to understand gene dependencies, regulatory functions among genes, biological processes, way of process occurrence and avoiding some unplanned processes (disease). The accurate inference of GRN needs the accurate inference of predictor set. Generally, the main limitations of the predictor set inference are the small number of samples, the large number of genes and also the possibility influence of noise in gene expression data. Hence, providing efficient methods to infer predictor set with high reliability is a serious need. In this paper, an efficient method is proposed to infer predictor set using Gravitational Search Algorithm (GSA). A GSA is used for each target gene to infer the predictor subset of the gene. In a population, a mass represents a predictor subset of the associated gene. The initial population per target gene is generated by Pearson Correlation Coefficient (PCC). In order to guide the GSA, Mean Conditional Entropy (MCE) is used as the assessment criterion. Experimental results show that the proposed method has a good ability to infer the predictor set with high reliability. In addition, we also compared the proposed algorithm with a recent similar method based on genetic algorithm. Comparison results reveal the advantage of the proposed algorithm on biological datasets with small data volumes and large network scales.

    Keywords: Gene Regulatory Network (GRN), Genomics, Mean Conditional Entropy (MCE), Gravitational Search Algorithm (GSA), Pearson Correlation Coefficient}
بدانید!
  • در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو می‌شود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشته‌های مختلف باشد.
  • همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته می‌توانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
  • در صورتی که می‌خواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال