فهرست مطالب

International Journal of Industrial Mathematics
Volume:14 Issue: 4, Autumn 2022

  • تاریخ انتشار: 1401/05/30
  • تعداد عناوین: 11
|
  • ابراهیم عبدی اقدم* صفحات 387-400

    با توجه به لقی لازم بین بوش سیلندر و پیستون موتور احتراق داخلی رفت و برگشتی، چند شکاف مابین رینگ های تراکم، سیلندر و پیستون ظاهر می شود. اگرچه نشت گاز به داخل محفظه ی میل لنگ را می توان به طور قابل ملاحظه ای با استفاده از دو یا سه رینگ تراکمی کنترل کرد، اما حذف شکاف های موجود و روزنه های رینگ مجموعه ی سیلندر-پیستون-رینگ غیرممکن است. فرار مخلوط نسوخته به داخل شکاف ها می تواند منجر به تاثیر جدی روی کار انجام شده در هر سیکل، راندمان تبدیل سوخت و انتشار آلاینده ها شود که همگی در چرخه احتراقی مهم هستند. در کار حاضر، ابتدا یک مدل نشتی پلی تروپیک مبنا (PBBM) با استفاده از یک کد شبیه ساز ترمودینامیکی (TSC) مجهز به یک زیرمدل نشتی تایید شد. سپس، با استفاده از نتایج تجربی استخراج شده از یک موتور پژوهشی تک سیلندر اشتعال جرقه ای در حالت پرش جرقه و سوخت گازطبیعی،P-q  یک سیکل میانگین (EAC) از P-q  200 سیکل تجربی محاسبه شد. آهنگ های جریان شکاف EAC با استفاده از TSC و PBBM برآورد شد و نتایج حاصله توافق خوبی بین آنها نشان داد. مطالعه نشتی در 200 سیکل تجربی با استفاده از PBBM نشان داد که تغییرات سیکلی موجود در فشار سیلندر باعث تغییرات سیکلی متناظر در افت خالص جرم سیلندر (NCML) و جرم خالص عبوری (NMP) از طریق روزنه های رینگ و فشار داخل شکاف ها می شود. یک همبستگی خطی بین حداکثر NCML و حداکثر فشار سیلندر مشاهده شد در حالی که یک همبستگی معکوس بین فشار حداکثر سیلندر و NCML در موقعیت EVO مشاهده شد.

  • سجاد خیری، فرهاد حسین زاده لطفی*، سید اسماعیل نجفی، بیجان رحمانی صفحات 401-413

    الگویابی ابزاری جهت ارزیابی عملکرد سازمانی با رویکرد یادگیری از دیگران می باشد. اهمیت الگویابی در تمامی صنایع بر هیچکس پوشیده نیست، در صنعت خودرو نیز هرساله عملکرد نمایندگی های خدمات پس از فروش خودرو در ایران توسط شرکت بازرسی کیفیت و استاندارد ایران مورد ارزیابی قرار می گیرند یکی از روش های بهبود مستمر نمایندگی های خدمات پس از فروش الگویابی از نمونه های موفق و کارا در سطح کشور می باشد. در این مقاله یک مدل الگویابی با درنظر گرفتن این موضوع که شاخص تعمیرات و رضایت مشتریان به یکدیگر وابسته هستند توسعه داده شده است. برای بهبود دقت و عملیاتی بودن الگویابی برخی محدودیت ها با نظر خبرگان به مدل اضافه شده است، با درنظر گرفتن متغیر های وابسته یک مدل تحلیل پوششی داده های پیشنهاد شده و این مدل برای الگویابی 20 نمایندگی خدمات پس از فروش یک شرکت خودرویی اجرا شده است. با اجرای مدل و مقایسه با نتایج مدل اولیه مشاهد شد که شرایط اعمال شده الگویابی را تغییر داده و دقت الگویابی را افزایش داده است. در این مقاله مفهوم تاثیر و اهمیت متغیر های وابسته در تعیین الگویابی بحث شده است و با این مفهوم یک مدل الگویابی برای نمایندگی های خدمات پس از فروش خودرو ارایه شده است.

    کلیدواژگان: تحلیل پوششی داده ها، ارزیابی عملکرد، متغیر های وابسته، خدمات پس از فروش، صنعت خودرو
  • حمید خدابنده لو، الیاس شیوانیان*، سعید عباسبندی صفحات 415-432

    در این کار، معادله دیفرانسیل مرتبه متغیر کسری چند جمله ای غیرخطی تعمیم یافته با تاخیرهای متناسب ارایه می شود. یک تکنیک ماتریس عملیاتی ژاکوبی جدید برای حل یک رده از این معادلات معرفی می شود، به طوری که مساله اصلی تبدیل به سیستم معادلات جبری می شود که می توانیم آن را به صورت عددی حل کنیم. تکنیک پیشنهادی با موفقیت برای مساله فوق الذکر توسعه یافته است. تست های عددی جامعی برای نشان دادن کلیت، کارایی، دقت روش ارایه شده و انعطاف پذیری این تکنیک بررسی و تایید می گردد. آزمایش های عددی آن را با روش های موجود دیگر مانند روش بازتولید هسته هیلبرت (RKHSM) مقایسه می کنیم. مقایسه نتایج این روش ها و همچنین مقایسه روش فعلی (NSJOM) با جواب واقعی، نشان دهنده اعتبار و کارایی این تکنیک است. بررسی ها نشان می دهد که اجرای این روش آسان است و این تکنیک به عنوان تعمیم بسیاری از روش های عددی در نظر گرفته می شود. علاوه بر این، خطا و کران آن برآورد می شود.

  • خدایار گودرزی* صفحات 433-444

    هدف از این مقاله، محاسبه کاهش مرتبه معادله تعمیم یافته mKdV با ضرایب ثابت و متغیر به روش مو-تقارن است. بعلاوه، مو- قانون بقا و لاگرانژین معادله تعمیم یافته mKdV با ضرایب ثابت و متغیر، با استفاده از روش مسیله تغیراتی بدست می آید.

    کلیدواژگان: تقارن، مو-تقارن، مو-قانون بقا، مسئله تغیراتی، کاهش مرتبه
  • عاطفه شیروانی، امیر عزیزی* صفحات 445-456

    تعیین و سنجش کارایی، راهبردی مهم در تصمیم گیری ها می باشد با توجه به شفاف نبودن میزان کارایی مراحل تولید در واحدهای تولیدکره گیری، هدف این پژوهش، طراحی مدل تحلیل پوششی داده ها برای ارزیابی کارایی مراحل تولید این واحدها میباشد.روش این پژوهش، که نوآوری این پژوهش برای این جامعه پژوهشی میباشد بدین صورت است که، با الگوگیری از مدل تحلیل پوششی داده های شبکه ای خلیلی و شهمیر(2015) مدلی برای ارزیابی کارایی سیستم تولید دو مرحله ای با خروجی مطلوب و نامطلوب، ارایه گردیده است .بدین منظور، با استفاده از داده های دقیق و قطعی سال1399 مربوط به بیست کارخانه تولید کره، با تحلیل پوششی داده های شبکه ای، کارایی مراحل دوگانه به صورت جداگانه و به صورت یکپارچه ارزیابی گردید. در پایان مرحله اول، دو نوع خروجی مطلوب وجود دارد یک خروجی مطلوب خامه صبحانه وجود دارد که وارد مرحله دوم تولید نمی شود و برای فروش به بازار عرضه می گردد و یک خروجی مطلوب دیگر، خامه پاستوریزه می باشد که به مرحله دوم تولید منتقل می شود. در پایان مرحله دوم، یک خروجی مطلوب یعنی کره بسته بندی شده و یک خروجی نامطلوب که دوغ کره می باشد، به دست می آید.کارایی تمامی بیست واحد مورد ارزیابی و مقایسه قرار گرفتند. بنا به کارایی فرآیند کل، تنها یک واحد کارا وجود دارد . بنا به کارایی مرحله اول، نیز تنها یک واحد کارا از بین بیست واحد وجود دارد و بنا به مرحله دوم، دو واحد کارا وجود دارند. نتیجه ای که گرفته شده است این می باشد که این صنعت در استانهای تهران و البرز، دارای ناکارآمدی زیادی در مراحل تولید می باشد و لزوم توجه مدیران این صنعت برای افزایش کارایی، الزامی است.

    کلیدواژگان: کارایی، شبکه تولید دو مرحله ای، تحلیل پوششی داده ها، خروجی نامطلوب، خروجی مطلوب
  • پریناز فرهادی، محسن رستمی مال خلیفه*، رضا کاظمی متین صفحات 457-465

    در روش های مرسوم DEA تمامی ورودی ها و خروجی ها پیوسته فرض می شوند. با این حال، فرض ضمنی داده های پیوسته ممکن است سطح قابل قبولی از دقت را در داده های عملی حفظ نکند. بسیاری از موقعیت های عملی مانند تعداد معلمان در یک مدرسه، تعداد دانش آموزان در کالج یا مقالات تحقیقاتی فقط مقادیر صحیح را می گیرند. کار ارایه شده فرض می کند که زیر مجموعه های متغیرهای ورودی و خروجی در اصول موضوعه ی سنتی در مدل DEA برای اولین بار در این زمینه مقادیر صحیح هستند. تلاش اضافی در این کار بدیهیات را گسترش می دهد و مدل جدیدی ارایه می شود. این مقاله یک مدل دو فاز جدید را ارایه می کند که در فاز اول مقادیر کارایی دقیق تری را تولید می کند و بهترین معیار را در فاز دوم خود ایجاد می کند، یعنی نزدیک ترین نقطه صحیح به مرز کارایی بر اساس بازده ثابت به مقیاس انتخاب می شود. یک مطالعه موردی ارایه شده است که مقایسه مقادیر کارایی به دست آمده با این مدل را در مقایسه با مدل های قبلی نشان می دهد که در جدول 1 نشان داده شده است. و در جدول 2، مقادیر شلی با یکدیگر مقایسه شده اند.

  • زهره طائب، شکوفه بنی هاشمی * صفحات 467-477

    از آنجائیکه تغییر ارزش در معرض خطر شرطی (CVaR) در سطوح مختلف اطمینان برای بهینه سازی سبد بسیار موثر است، شاخص متا مالمکوئیست (MMI) دراین پژوهش استفاده شده است. برای این هدف، مدلهای میانگین- ارزش در معرض خطر شرطی با شاخص متا مالمکوئیست در حضور داده منفی معرفی گردیده است. مشابه تئوری مارکوویتزدر چارچوب میانگین- واریانس، ارزش در معرض خطر شرطی به عنوان سنجه ریسک بکار رفته و مدلها بدون در نظر گرفتن چولگی و کشیدگی بازده مطرح شده است. در این مطالعه تعدادی داده منفی وجود دارد، بنابراین مدلهای برمبنای مدل اندازه جهت دار مبنایی (RDM) است که مقادیر مثبت و منفی را می پذیرد. در این مقاله، کارائیها در همه سطوح اطمینان در مدل های میانگین- ارزش در معرض خطر شرطی و شاخص متا مالمکوئیست روی سطوح اطمینان به عنوان دوره ها در حضور داده منفی محاسبه شده است. این روش به سرمایه گذاران کمک می کند که سبدهای سودآورشان را با شاخص متا مالمکوئیست بسازند. همچنین یک مطالعه عملی روی بازار بورس ایران انجام گرفته است.

    کلیدواژگان: بهینه سازی سبددارائی، نمره کارائی، ارزش در معرض خطر شرطی، شاخص متا مالم کوئیست، داده منفی
  • ملیحه شاهکویی، فرزاد رضایی بالف، محسن ربانی، مهدی فلاح جلودار صفحات 479-487

    تحلیل پوششی داده ها، یک تکنیک برنامه ریزی ریاضی ناپارامتریک برای ارزیابی کارایی مجموعه ای از واحدهای تصمیم گیری همگن است، به طوری که واحدهای تصمیم گیرنده را به دو گروه کارا و ناکارا ارزیابی می شوند. با توجه به هزینه های سرسام آور برای مدیریت DMU ها یا سازمان ها، نگهداری برخی از سازمان های زیان ده مقرون به صرفه نیست. بنابراین یکی از دغدغه های مدیران در بحث مربوط به مشکلات مالی سازمان ها، حفظ یا ادغام یا حذف سازمان های ناکارا (DMU های ناکارا) است. بنابراین، در این مقاله ما بهره‌ وری واحدهای تصمیم گیرنده ناکارا را با استفاده از شاخص بهره‌وری مالم کوییست اصلاح شده اندازه‌ گیری می‌کنیم تا بر اساس آن تصمیم حفظ یا ادغام یا حذف واحدهای تصمیم گیرنده ناکارا توسط تصمیم‌ گیرندگان گرفته شود.

    کلیدواژگان: تحلیل پوششی داده ها، کارائی، بهره وری، شاخص بهره وری مالم کوئیست، تصمیم گیری
  • محمدباقر کریمی صفحات 489-502

    در دهه حاضر، مفهوم سرویس و ارایه نرم افزار به صورت سرویس بر روی معماری سیستم های ابری به عنوان دو تحول مهم، دنیای سیستم های اطلاعاتی را متحول کرده است. این تغییر، چرخه حیات تولید نرم افزار را با یک دگرگونی پارادیمی مواجه کرده است که در آن تولید نرم افزار از طریق ترکیب سرویس های آماده در بستر ابر انجام میگیرد. یکی از الزامات ترکیب سرویس در محیط ابر این است که باید به صورت on-the-fly انجام گیرد که تحقق آن نیاز به یک مصالحه بین بهینه بودن سرویس مرکب و زمان ترکیب سرویس دارد. مسیله ترکیب سرویس با اطلاع از QoS، مسیله‌ای است که برای آن چندین راه حل بالقوه وجود دارد که معمولا چند تا از آنها بهینه محسوب می‌شوند، بر این اساس این مسیله، یک مسیله بهینه سازی و در زمره مسایل NP-Hard به شمار می‌آید. با توجه به این واقعیت که به دلیل افزایش روزافزون تعداد سرویس‌ها که منجر به بزرگ‌تر شدن فضای جستجوی مسیله می‌شوند، در سال های گذشته محققان زیادی به تحقیق بر روی ارایه روش های مبتنی بر الگوریتم های ترکیباتی و مکاشفه ای برای حل مسیله ترکیب سرویس در محیط ابر، علاقه نشان داده اند و این اقبال ادامه دارد. در این مقاله، بر اساس مروری نظام مند بر ادبیات تحقیق، پرسش های مهمی که می توان در حوزه تحقیقاتی ترکیب سرویس به روش مکاشفه ای می توان مطرح کرد، استخراج شده اند. سپس با طبقه بندی پژوهش ها بر اساس رویکردهای حل مسیله، اهداف و اولویت های مورد نظر محققین، نتایج و آمارهای مفیدی ارایه شده که می تواند به تحقیقات آینده کمک کند.

    کلیدواژگان: مرور نظام مند، محاسبات ابری، ترکیب سرویس با اطلاع از کیفیت، متد های ترکیباتی
|
  • M. Mohammadi, A. R. Vahidi *, T. Damercheli, S. Khezerloo, M. Nouri Pages 377-386

    In this paper, we consider Volterra integral equations of the first kind. Then by extending the modified Block-pulse functions(MBPFs) on the Volterra integral equation of the second kind obtained from Volterra integral equation of the first kind, we obtain the approximate solution. Some theorems are proved to provide an error analysis for proposed method. Numerical examples show that the proposed scheme has a suitable degree of accuracy.

    Keywords: Volterra integral equation of the first kind, Block-pulse functions, Operational matrix, Function expansion, ‎Convergence
  • E. Abdi Aghdam * Pages 387-400

    In the present work, first a Polytropic-Based Blowby Model (PBBM) was validated using a Thermodynamic Simulation Code (TSC). Then, using the results extracted from a single-cylinder SI research engine, the P- of an Ensemble Average Cycle (EAC) was calculated the experimental cycles. The crevice flow rates of the EAC were estimated using both codes. The results showed a good agreement between them.

    Keywords: Blowby, Polytropic, Cyclic variation, Thermodynamic Model, CNG, SI engine
  • S. Kheyri, F. Hosseinzadeh Lotfi *, S. E. Najafi, B. Rahmani Parchikolaei Pages 401-413

    Benchmarking is a tool for evaluating organizational performance with a learning approach from others. The importance of benchmarking in every industry is clear for anyone. In the automotive industry, the performance of after-sales service agencies in Iran is evaluated every year by Iran Standard and Quality Inspection company. One of the ways to continuously improve in after-sales service agencies is benchmarking of successful and efficient examples in the network. In this paper, a benchmarking model is developed considering that the repair index and customer satisfaction are interdependent. To improve the accuracy and operationality of benchmarking, some constraints have been added to the model with the opinion of experts. Considering the dependent parameters, a data envelopment analysis model has been proposed and this model has been implemented to benchmark 20 after-sales service agencies of a car company. By solving the model and comparing it with the results of the original model, it was observed that the considered conditions changed the benchmarking and increased the accuracy. This paper discusses the concept of the impact and importance of dependent parameters in benchmarking, and with this concept, a benchmarking model for automotive after-sales service agencies is presented.

    Keywords: Data Envelopment Analysis, Performance evaluation, Dependent parameters, After-sales services, automobile industry
  • H. R. Khodabandelo, E. Shivanian *, S. Abbasbandy Pages 415-432

    This work presents the generalized nonlinear multi-terms fractional variable-order differential equation with proportional delays. In this paper, a novel shifted Jacobi operational matrix technique is introduced to solve a class of these equations mentioned, so that the main problem becomes a system of algebraic equations that we can solve numerically. The suggested technique is successfully developed for the aforementioned problem. Comprehensive numerical tests are provided to demonstrate the generality, efficiency, accuracy of presented scheme and the flexibility of this technique. The numerical experiments compared it with other existing methods such as Reproducing Kernel Hilbert Space method ($ RKHSM $). Comparing the results of these methods as well as comparing the current method ($NSJOM$) with the true solution, indicating the validity and efficiency of this scheme. Note that the procedure is easy to implement and this technique will be considered as a generalization of many numerical schemes. Furthermore, the error and its bound are estimated.

    Keywords: Nonlinear multi-terms differential equations, Fractional variable-order with proportional delays, Shifted Jacobi operational matrix, Caputo differential ‎operator.‎
  • Kh. Goodarzi * Pages 433-444

    The goal of this paper is to calculate the order reduction of the generalized mKdV equation with constant coefficients (gmKdVcc) and the generalized mKdV equation with variable-coefficients (gmKdVvc) using the mu-symmetry method. Moreover we obtain Lagrangian and mu-conservation law of the gmKdVcc equation and the gmKdVvc equation using the variational problem method.

    Keywords: S‎ymmetry, $mu$-symmetry, $mu$-conservation law, Variational problem, Order ‎reduction‎
  • A. Shirvani, A. Azizi * Pages 445-456

    Determining and measuring efficiency is an important strategy in decision making. Due to the lack of transparency in the efficiency of production stages in Butter production units, the purpose of this study is to design a data envelopment analysis model to evaluate the efficiency of production stages of these units. The contribution of this research is to develop a model for evaluating the efficiency of a two-stage production system with both desirable and undesirable output using the network model of Khalili and Shahmir (2015). The developed two-stage model has been conducted using accurate and certain data of twenty Butter manufacturing factories in 1399, which can evaluate efficiency separately and in an integrated manner. At the end of the first stage, there are two types of desired output. There is a desired output of breakfast cream that does not enter the second stage of production and it is supplied to market for sale, and another desirable output is the pasteurized cream that is transferred to the second stage of production. At the end of the second stage, a desirable output, which is the packaged butter and an undesirable output, which is butter dough are obtained. The efficiency of all twenty units was evaluated and compared. Depending on the efficiency of the whole process, there was only one efficient unit. According to the efficiency of the first stage, there was only one efficient unit out of twenty units, and according to the second stage, there are two efficient units. The conclusion is that this industry has a high inefficiency in the factories located in provinces of Tehran and Alborz on their production process. Thus, it is necessary for the managers of this industry to increase efficiency of their production process.

    Keywords: Efficiency, two-stage production network, Data Envelopment Analysis, Undesirable Output, desirable output
  • P. Farhadi, M. Rostamy Malkhalifeh *, R. Kazemimatin Pages 457-465

    In conventional DEA methods, all inputs and outputs are assumed to be continuous. However, the implied presumption of continuous data may not maintain an acceptable level of precision in practical data. Many practical situations such as number of teachers in a school, number of students in a college, or research papers only take integer values. Presented work presumes subsets of input and output variables in traditional five-pronged axioms in DEA model to be integer values for the first time in the field. An additional effort in this work expands axioms and a new model is presented. This paper presents a novel two phase model that in the first phase produces more precise efficiency values and the best benchmark in its second phase, i.e. the nearest integer point to the efficiency boundary is selected based on constant returns to scale. A case study is presented that demonstrates a comparison of efficiency values obtained with this model compared to prior models that is show in table 1. And in Table 2, the values of the slack are compared with each other.

    Keywords: Integer values, Efficiency, Frontier, distance, ‎Benchmark
  • Z. Taeb, SH. Banihashemi * Pages 467-477
  • M. Shahkooeei‎, Farzad Rezai Balf, M. Rabbani, M. Fallah ‎Jelodar‎ Pages 479-487

    Data envelopment analysis (DEA), is a non-parametric mathematical programming technique to evaluate the efficiency of a set of homogeneous decision-making units (DMUs), so that DMUs are evaluated into two groups, efficient and inefficient. According to the staggering costs in order to managing DMUs or organizations, maintaining some loss-making organizations are not cost-effective. Therefore, one of the concerns of managers in the discussion related to the financial problems of organizations is the maintenance or merger or elimination of inefficient organizations (inefficient DMUs). However, this article focuses on the performance of inefficient units. Therefore, we measure the productivity of inefficient DMUs using the revised Malmquist productivity index (MPI) to make a decision based on the maintenance or merger or elimination of these DMUs by decision makers (DMs).

    Keywords: Data Envelopment Analysis, Efficiency, Productivity, Malmquist productivity index, Decision-making
  • M. B. Karimi Pages 489-502

    In the latest decade, the concept of service delivery and software-as-a-service have evolved into two important evolution paradigms which have affected the information systems area. A paradigm shift in software development has been triggered by this change, in which software is developed through the use of ready-made services in the cloud. Since service composition in the cloud environment must be done on-the-fly, realizing this requires a trade-off between the optimality of the composite service and the time it takes. As QoS-aware service composition has several potential solutions, some of which are usually considered optimal, which should be considered an NP-hard problem. A growing number of services leads to a larger problem search space, which is why in recent years many researchers have looked into methods that use meta-heuristic algorithms to solve the problem of service composition in a cloud environment. Thus, it is crucial that researchers have access to up-to-date and specialized review articles. Based on a systematic review of the research literature, the paper aims to extract important questions that are relevant to meta-heuristic QoS-aware service composition methods. Then, after classifying the studies and studying the proposed methods, goals, and priorities of researchers in articles, useful results and statistics for future research in this field are presented.

    Keywords: Cloud computing, Systematic review, QoS-aware service composition, Combinatorial methods, NP-Hard Problem
  • Mohammadreza Shahriari * Pages 503-513

    This paper develops an efficient non-dominated sorting genetic algorithm (NSGA-II) to solve the redundancy allocation problem (RAP) of series-parallel systems. The system consists of subsystem in series, where components are used in parallel for each subsystem. Both the system and its subsystems can only take two states of complete perfect and complete failure. Identical redundant components are included to achieve a desirable reliability. The components of each subsystem, which are chosen from a list that is available in the market, are characterized by their cost, weight, and reliability. To find the optimum combination of the number of components for each subsystem, the mathematical formulation for the maximal reliability and minimal cost of the system configuration under cost constraint is first obtained. Then, a modified NSGA-II is proposed to solve the model. In this algorithm, a heuristic method of generating a primary solution is integrated to achieve better solutions. Moreover, design of experiment approach is employed to calibrate the parameters of the algorithm. At the end, some numerical examples are used to validate the solution, to assess the performance of the proposed methodology under different configurations, and to compare the performance with the ones of two other meta-heuristic algorithms. The results of experiments are generally in favor of the proposed solution algorithm.

    Keywords: Reliability, Redundancy allocation problem, series-parallel systems, heuristic methods, hybrid algorithm