فهرست مطالب

نشریه اندیشه آماری
سال بیست و هفتم شماره 1 (پیاپی 53، بهار و تابستان 1401)

  • تاریخ انتشار: 1402/01/27
  • تعداد عناوین: 12
|
  • ابوذر بازیاری* صفحات 1-10

    در مدل های مخاطره با وجود اطلاع از توزیع آماری متغیرهای تصادفی ‏اندازه های خسارت ، احتمالات ورشکستگی و کران لاندبرگ محاسبه می شوند. در این مقاله برای مدل های مخاطره جمعی و زمان-گسسته شرکت بیمه با خسارت های مستقل و هم توزیع و دارای توزیع دم سبک، با استفاده از کران لاندبرگ احتمالات ورشکستگی زمان نامتناهی محاسبه ‏شده و شکل کلی توابع چگالی متغیرهای تصادفی اندازه های خسارت بدست آمده اند. نشان داده می شود که برای برخی از حالت های خاص در مدل مخاطره زمان-گسسته توابع چگالی اندازه های خسارت دارای توزیع هندسی شیفت داده شده و برای مدل مخاطره جمعی همواره دارای توزیع نمایی هستند. ارایه مثال های عددی احتمالات ورشکستگی زمان نامتناهی و مقادیر شبیه سازی شده این احتمالات و کران لاندبرگ از نتایج پایانی این مقاله می باشد.

    کلیدواژگان: احتمال ورشکستگی زمان نامتناهی، توزیع هندسی شیفت داده شده، توزیع نمایی، کران لاندبرگ، مدل مخاطره
  • بهزاد منصوری*، رحیم چینی پرداز، سامی عطیه سید الفرطوسی، حبیب الله ممبینی صفحات 11-18

    از تابع توزیع تجربی به عنوان برآورد تابع توزیع احتمال تجمعی یک متغیر تصادفی استفاده میشود. تابع توزیع تجربی نقشی اساسی در بسیاری از استنباط های آماری دارد که در برخی موارد کمتر شناخته شده هستند. در این مقاله تابع احتمال تجربی به عنوان مشتق تابع توزیع تجربی معرفی شده و نشان داده می شود که برآوردگرهای گشتاوری مانند میانگین نمونه، میانه نمونه، واریانس نمون های و ضریب همبستگی نمون های حاصل جایگزین کردن تابع چگالی متغیر تصادفی با تابع احتمال تجربی آن در تعریف های نظری هستند. علاوه بر این، برای برآورد پارامترهای جامعه از برآوردگر هسته تابع چگالی احتمال استفاده شده و یک روش جدید برای برآورد پهنای باند در برآوردگر هسته تابع چگالی احتمال، معرفی شده است.

    کلیدواژگان: تابع توزیع تجربی، برآوردگر هسته، برآورد گشتاوری، پهنای باند
  • مهدی روزبه*، منیره معنوی صفحات 19-31

    تحلیل و مدل بندی داده های با بعد بالا یکی از چالش برانگیزترین مسایل روز دنیا است. تحلیل و تفسیر این داده ها کاری ساده نیست و نیازمند استفاده از روش های مدرن است. روش های جریمه ای یکی از مشهورترین راه های تحلیل داد ه های با بعد بالاست. همچنین مدل بندی رگرسیونی و تحلیل آن به شدت تحت تاثیر مشاهدات پرت قرار می گیرد. روش کمترین توا ن های دوم پیراسته نیز یکی از بهترین روش های استوار برای از بین بردن تاثیر تخریبی این نقاط است. مدل های نیمه پارامتری که مدل هایی بسیار انعطاف پذیرند، ترکیبی از هر دو نوع مدل های پارامتری و ناپارامتری هستند. این مدل ها زمانی که هم بخش پارامتری و هم بخش ناپارامتری در مدل وجود دارد، مفیدند. هدف اصلی این مقاله تحلیل مدل های نیمه پارامتری در داده های با بعد بالا با حضور نقاط پرت با استفاده از روش لاسو تنک استوار است. در انتها، کارایی برآوردگر پیشنهادی با استفاده از یک داده واقعی در مورد تولید ویتامین ‎lr{B2}‎ سنجیده می شود.

    کلیدواژگان: داده های با بعد بالا، روش کمترین توان های دوم پیراسته، روش کمترین توا ن های دوم پیراسته تنک، روش لاسو، مدل های نیمه پارامتری
  • زهرا جعفریان مورکانی، حیدرعلی مردانی فرد* صفحات 33-40

    در رگرسیون خطی معمول، مدل به صورت $Y=Xbeta+varepsilon$ است و برآورد پارامتر $beta$ عبارتست از: $hatbeta=(X'X)^{-1}X'Y$ است. با این حال در هنگام استفاده از این برآوردگر به صورت عملی، ممکن است مشکلات خاصی مانند مشکل انتخاب متغیر، هم خطی، مدل با ابعاد بالا، کاهش بعد، وجود خطای اندازه گیری بوجود آید که استفاده از  برآوردگر بالا را مشکل می سازد. در اغلب این مشکلات، مساله اصلی عدم معکوس پذیری ماتریس $X'X$ است. برای رفع آن ها راه حل های متعددی ارایه شده است. در این مقاله ضمن مروری بر این مشکلات، مجموعه ای از راه حل های معمول و متداول و همچنین چند روش خاص و پیشرفته (که کمتر مورد اقبال همگان است ولی با این حال توانایی بالقوه ای در رفع هوشمند این مشکلات دارند) برای رفع آن ها را بررسی می کنیم.

    کلیدواژگان: همخطی، کاهش بعد، خطای اندازه گیری، رگرسیون ستیغی، شبه برآورد، رگرسیون معکوس قطعه قطعه شده
  • نبز اسمعیل زاده، خسرو فضلی* صفحات 41-49

    در این مقاله بر اساس نمونه ای تصادفی از توزیع نرمال با پارامترهای مجهول، کوتاهترین بازه اطمینان برای پارامتر انحراف استاندارد را با استفاده از انحراف استاندارد نمونه بدست می آوریم. نشان می دهیم این بازه اطمینان را نمی توان با گرفتن ریشه دوم از نقاط انتهایی کوتاهترین بازه اطمینان برای واریانس که بوسیله تیت و کلت ارایه شده است، بدست آورد. همچنین جدولی برای محاسبه این بازه اطمینان بر حسب چند اندازه نمونه و ضریب اطمینان رایج ارایه می دهیم. با توجه به ارتباط بازه اطمینان با مسیله آزمون فرض، عملکرد توان چند آزمون ساخته شده براساس بازه های اطمینان ذکر شده مقایسه می شود.

    کلیدواژگان: طول بازه اطمینان، انحراف استاندارد، بازه اطمینان نااریب
  • صدیقه شمس*، صدیقه برزوئی صفحات 51-58

    توابع مفصل ابزار مفیدی در مدل سازی وابستگی بین متغیرهای تصادفی هستند اما بیشتر توابع مفصل موجود متقارن هستند در حالی که در بسیاری از کاربردها‏، توابع مفصل نامتقارن مورد نیاز هستند. یکی از این کاربردها‏، مدل سازی قابلیت اعتماد است که در آن، توابع مفصل نامتقارن می توانند وابستگی های دمی متفاوت را تبیین کنند‏ و مدل بهتری اریه دهند. بنابراین نظریه ساختن توابع مفصل نامتقارن که می تواند دامنه وسیع تری از داده ها را مدل سازی کند، توسعه یافته است. در این پژوهش ضمن مرور روش های ساختن توابع مفصل نامتقارن که می توانند وابستگی های دمی مختلفی را تامین نمایند، از این توابع برای برآورد قابلیت اعتماد دوبعدی داده های سن و میزان استفاده خودروهای رانا و دنا، استفاده می شود.

    کلیدواژگان: تابع مفصل، تابع مفصل نامتقارن، قابلیت اعتماد، وابستگی دمی
  • آرتا روحی، فاطمه جهادی، مهدی روزبه* صفحات 59-72

    مشهورترین تکنیک تحلیل داده های تابعی رویکرد مولفه های اصلی تابعی است که ابزاری مهم برای کاهش بعد نیز است. رگرسیون بردار پشتیبان شاخه ای از یادگیری ماشین و ابزار قدرتمندی برای تحلیل داده است. در این مقاله با استفاده از رگرسیون مولفه اصلی تابعی براساس تاوان های مشتق دوم، ریج و لاسو و با توجه به رگرسیون بردار پشتیبان با چهار هسته (خطی، چند جمله ای، سیگمویید و شعاعی) در داده های طیف سنجی به مدل سازی متغیر وابسته روی متغیرهای پیش بین پرداخته شده است. بر اساس نتایج بدست آمده طبق معیارهای نیکویی برازش پیشنهادی، مدل رگرسیون بردار پشتبان با هسته خطی و خطای بهینه شده ‎ $0.2$‎مناسب ترین برازش را به داده ها داشته است.

    کلیدواژگان: تحلیل داده های تابعی، رگرسیون بردار پشتیبان، رگرسیون تابعی، رگرسیون مولفه اصلی، یادگیری ماشین
  • فاطمه حسینی*، امید کریمی صفحات 73-79

    برای مدل بندی داده های گسسته فضایی معمولا از مدل آمیخته خطی تعمیم یافته فضایی استفاده می شود که همبستگی فضایی در این مدل ها با استفاده از متغیرهای پنهان گاوسی وارد مدل می شوند. در این مقاله برای افزایش دقت برآورد پارمترها و پیش گویی ها، متغیرهای پنهان با استفاده از یک میدان تصادفی چوله گاوسی مانا مدل بندی و برای برآورد پارامترهای مدل یک الگوریتم جدید براساس درست نمایی حاشیه ای مرکب ارایه می شود. کارایی میدان تصادفی به کار گرفته شده و الگوریتم پیشنهادی در یک مثال شبیه سازی پیاده سازی و بررسی می شود.

    کلیدواژگان: مدل های آمیخته خطی تعمیم یافته فضایی، میدان تصادفی چوله گاوسی ایستا، درست نمایی حاشیه ای مرکب
  • اعظم کاراندیش مروستی، احسان ارمز*، مریم بصیرت صفحات 81-92

    در این مقاله، مفهوم توزیع گومپرتز تعمیم یافته یکه به عنوان مدل جدید تغییریافته ای از توزیع گومپرتز یکه معرفی می شود. این مدل تعمیمی از توزیع گومپرتز یکه است. ما ضمن معرفی توابع توزیع، گشتاور، مولد گشتاور، چندک، خطر و آنتروپی تی سالیس و رنی توزیع پیشنهادی را محاسبه می کنیم. برای برآورد و استنباط در مورد پارامترهای مجهول مدل، روش های ماکسیمم درستنمایی، برآورد ماکسیمم حاصل ضرب فاصله ها و نمونه گیری خودگردان موردبحث قرارگرفته اند و همچنین فاصله اطمینان تقریبی ارایه شده است. سرانجام، یک مطالعه شبیه سازی انجام شده و مدل به یک مجموعه داده واقعی برازش شده است.

    کلیدواژگان: توزیع گومپرتز تعمیم یافته، گشتاور، ماکسیمم درستنمایی، ماکسیمم حاصل ضرب فاصله ها
  • مهرداد نیاپرست*، زهرا احمدی، اکرم حیدری صفحات 93-99

    امروزه کاربرد علم آمار در علوم دیگر از جمله علوم پزشکی بسیار رایج شده است.  اخیرا طرح بهینه بعنوان ابزاری برای افزایش کارایی در انجام آزمایش ها  در این علوم مورد توجه محققان است.فارماکوکنتیک بعنوان شاخه ای از داروشناسی که وظیفه بررسی عملکرد دارو در موجودات زنده را دارد، از اهمیت خاصی در علوم پزشکی برخوردار است. هدف این تحقیق معرفی طرح های بهینه برای  مدل های مطالعات فارماکوکنتیک است. مدل های مورد استفاده در این مقاله، در متون آماری تحت عنوان مدل های غیرخطی شناخته می شوند. این مدل ها وابسته به پارامترهای خاص براساس فاکتورهای داروشناسی و نیز زمان بعنوان متغیر پیشگو کننده هستند. طرح های بهینه براساس توابعی از ماتریس اطلاع فیشر بدست می آیند. این توابع بعنوان معیارهای بهینگی شناخته می شوند. در این مقاله ما دو معیار A- و E- بهینگی را در نظر می گیریم. براساس این دومعیار طرح های بهینه موضعی برای مدل های  معرفی شده، بدست آورده می شوند.

    کلیدواژگان: مدلهای غیرخطی، ماتریس اطلاع فیشر، A- و E- بهینگی، فارماکوکنتیک
  • حبیب جعفری، آنیتا عبدالهی* صفحات 101-112

    آنتروپومتری علمی است که به بررسی اندازه های بدن شامل ابعاد قسمت های مختلف، میدان حرکت و قدرت عضلات بدن می پردازد. معمولا ابعاد اختصاصی فردی مانند ارتفاع ها، پهناها، عمق ها، فاصله ها، محیط ها و انحنا ها اندازه گرفته می شوند. در مقاله حاضر به بررسی ویژگی های آنتروپومتریک بیمارن مبتلا به بیماری های مزمن (دیابت، فشار خون، سکته های قلبی و مغزی) و یافتن عوامل موثر بر این بیماری ها پرداخته و میزان تاثیر هر کدام را برای انجام برنامه ریزی های لازم جهت پیشگیری، مورد مطالعه قرار گرفته است. این تحقیق به صورت توصیفی- تحلیلی انجام شده است. جامعه پژوهش مردم شهرستان روانسر از توابع استان کرمانشاه می باشد. برای تجزیه و تحلیل داده ها و آزمون فرضیه های ارایه شده از نرم افزارهای آماری M‏ATLAB، R و SPSS استفاده شده است. سطح معنی داری برای تمام آزمون ها کمتر از 0/05 در نظر گرفته شد. به منظور توصیف و خلاصه سازی متغیر ها از روش های آمار توصیفی استفاده شد. از روش های آمار تحلیلی شامل ضریب همبستگی پیرسون به منظور بررسی ارتباط بین متغیر ها و روش تحلیل رگرسیونی (لجستیک)، برای بررسی تاثیر متغیرهای مستقل بر متغیر وابسته استفاده شده است. علاوه بر آن از یکی از الگوریتم های داده کاوی به نام درخت تصمیم نیز برای کاهش بعد داده ها و تحلیل آن ها استفاده گردید. یا توجه به نتایج به نظر می رسد که بسیاری از شاخص های پیکرسنجی با عوامل خطر ساز بیماری های مزمن، رابطه معنی داری دارند، لذا ارزیابی های مستمر، تغییر سبک زندگی و افزایش سطح آگاهی برای کنترل و پیش گیری از بیماری پیشنهاد می شود.

    کلیدواژگان: شاخص های آنتروپومتری، عوامل خطرساز بیماری های مزمن، شاخص BMI
  • مهدی شمس*، غلامرضا حسامیان صفحات 113-126

    نامساوی های اطلاع کاربرد فراوان در نظریه برآورد یابی و اتخاذ تصمیم های آماری دارند. در این مقاله کاربرد یک نامساوی اطلاع برای اتخاذ تصمیم مینیماکس در چارچوب نظریه بیز بیان می شود. بدین صورت که ابتدا یک نامساوی اساسی برای مخاطره بیز تحت تابع زیان مربع خطا معرفی می شود و سپس کاربردهایی از آن در تعیین برآوردگرهای مینیماکس مجانبی-موضعی در حالت یک متغیره و چند متغیره بیان می شود. در حالتی که مولفه های پارامتر متعامد باشند، برآوردگرهای مینیماکس مجانبی-موضعی، برای تابعی از بردار میانگین و ماتریس کواریانس در توزیع نرمال چند متغیره به دست می آید. در پایان کران های نامساوی اطلاع تحت یک تابع زیان عمومی محاسبه می شود.

    کلیدواژگان: برآوردگر مینیماکس، توزیع پیشین، تابع مخاطره، نامساوی اطلاع، پارامتر های متعامد
|
  • Abouzar Bazyari* Pages 1-10

    In risk models, the ruin probabilities and ‎Lundberg‎ bound are calculated despite knowing the statistical distribution of random variables. In the present paper, for collective risk model and discrete time risk model of insurance company for independent and identically distributed claims with light-tailed distribution, the infinite time ruin probabilities are computed using Lundberg bound, moreover the general forms of density functions of random variables of claim sizes are derived. ‎‎‎For some special cases in the discrete time risk model, the density functions of claim sizes have the shifted geometric distribution, and for the collective risk model, they always have an exponential distribution.‎ ‎ ‎‎Presenting the numerical examples of infinite time ruin probabilities and the simulated values of these probabilities and the Lundberg bound are the final results of this article.

    Keywords: Exponential distribution, Infinite time ruin probability, Lundberg bound, Risk model, Shifted geometric distribution
  • Behzad Mansouri*, Rahim Chinipardaz, Sami Atiyah Sayyid Al-Farttosi, Habiballah Habiballah Pages 11-18

    The empirical distribution function is used as an estimate of the cumulative probability distribution function of a random variable. The empirical distribution function has a fundamental role in many statistical inferences, which are little known in some cases. In this article, the empirical probability function is introduced as a derivative of the empirical distribution function, and it is shown that moment estimators such as sample mean, sample median, sample variance, and sample correlation coefficient result from replacing the random variable density function with the empirical probability function in the theoretical definitions. In addition, the kernel probability density function estimator is used to estimate the population parameters and a new method for bandwidth estimation in the kernel density estimation is introduced. Keywords: Empirical distribution function, moment estimate, kernel estimator, bandwidth.

    Keywords: Empirical distribution function, moment estimate, kernel estimator, bandwidth
  • Mahdi Roozbeh*, Monireh Maanavi Pages 19-31

    Analysis and modeling the‎ ​‎h​igh-dimensional data is one of the most challenging problems faced by the world nowaday‎. ‎Interpretation of such data is not easy and needs to be applied to modern methods‎. The penalized methods are one of the most popular ways to analyze the high-dimensional data‎. ‎Also‎, ‎the regression models and their analysis are affected by the outliers seriously‎. The least trimmed squares method is one of the best robust approaches to solve the corruptive influence of the outliers‎. ‎Semiparametric models‎, ‎which are a combination of both parametric and nonparametric models‎, ‎are very flexible models‎. ‎They are useful when the model contains both parametric and nonparametric parts‎. ‎The main purpose of this paper is to analyze semiparametric models in high-dimensional data with the presence of outliers using the robust sparse Lasso approach‎. ‎Finally‎, ‎the performance of the proposed estimator is examined using a real data analysis about production of vitamin B2‎.

    Keywords: ‎High-dimensional data‎, ‎Lasso method‎, ‎Least timmed squares method‎, ‎Semiparametric model‎, ‎Sparse least trimmed squares method‎
  • Zahra Jafarian Moorakani, HeydarAli Mardani-Fard* Pages 33-40

    The ordinary linear regression model is $Y=Xbeta+varepsilon$ and the estimation of parameter $beta$ is: $hatbeta=(X'X)^{-1}X'Y$. However, when using this estimator in a practical way, certain problems may arise such as variable selection, collinearity, high dimensionality, dimension reduction, and measurement error, which makes it difficult to use the above estimator. In most of these cases, the main problem is the singularity of the matrix $X'X$. Many solutions have been proposed to solve them. In this article, while reviewing these problems, a set of common solutions as well as some special and advanced methods (which are less favored by someone, but still have the potential to solve these problems intelligently) to solve them.

    Keywords: Colliniarity, dimension reduction, measurement error, ridge regression, psuedo estimation, SIR regression
  • Nabaz Esmailzadeh, Khosrow Fazli* Pages 41-49

    In this article, based on a random sample from a normal distribution with unknown parameters, we obtain the shortest confidence interval for the standard deviation parameter using the sample standard deviation. We show that this confidence interval cannot be obtained by taking the square root of the endpoints of the shortest confidence interval for the variance given by Tate and Klett. A table is provided to calculate the confidence interval for several sample sizes and three common confidence coefficients. Also, the power performance of the tests made based on the mentioned confidence intervals is considered.

    Keywords: Confidence interval length, Standard deviation, Unbiased confidence interval
  • Sedigheh Shams* Pages 51-58

    Copula functions are  useful tools in modeling the dependence between random variables, but most existing copula functions are symmetric, while in many applications, asymmetric joint functions are required. One of these applications is reliability modeling, where asymmetric joint functions can explain different tail dependencies and provide a better model. Therefore, the theory of constructing asymmetric copula functions that can model a wider range of data has been developed. In this research, while reviewing the methods of creating asymmetric copula functions that can provide various tail dependencies, these functions are used to estimate the two-dimensional reliability of data on the age an usage of Rana and Dana cars.

    Keywords: Copula function, Asymmetric copula function, Tail dependence, Reliability
  • Arta Roohi, Fatemeh Jahadi, Mahdi Roozbeh* Pages 59-72

    ‎The most popular technique for functional data analysis is the functional principal component approach‎, ‎which is also an important tool for dimension reduction‎. ‎Support vector regression is branch of machine learning and strong tool for data analysis‎. ‎In this paper by using the method of functional principal component regression based on the second derivative penalty‎, ‎ridge and lasso and support vector regression with four kernels (linear‎, ‎polynomial‎, ‎sigmoid and radial) in spectroscopic data‎, ‎the dependent variable on the predictor variables was modeled‎. ‎According to the obtained results‎, ‎based on the proposed criteria for evaluating the goodness of fit‎, ‎support vector regression with linear kernel and error equal to $0.2$ has had the most appropriate fit to the data set‎.

    Keywords: Functional data analysis‎, ‎ Functional regression‎, ‎Machine learning‎, ‎Principal component regression‎, ‎Support vector regression‎
  • Fatemeh Hosseini*, Omid Karimi Pages 73-79

    Spatial generalized linear mixed model is commonly used to model Non-Gaussian data and the spatial correlation of the data is modelled by latent variables. In this paper, latent variables are modeled using a stationary skew Gaussian random field and a new algorithm based on composite marginal likelihood is presented. The performance of this stationary random field in the model and the proposed algorithm is implemented in a simulation example.

    Keywords: Spatial generalized linear mixed model, stationary skew Gaussian random field, composite marginal likelihood
  • Azam Karandish Marvasti, Ehsan Ormoz*, Maryam Basirat Pages 81-92

    In this paper, the concept of unit generalized Gompertz (UGG) distribution will be introduced as a new transformed model of the unit Gompertz distribution, which contains the unit Gompertz distribution as a special case. We calculate explicit expressions for the moments, moment generating, quantile, and hazard functions, and Tsallis and R'{e}nyi entropy. Some different methods for estimation and inference about model parameters are presented too. To estimate the unknown parameters of the model, the maximum likelihood, maximum product spacings, and bootstrap sampling have been discussed, and also approximate confidence interval is presented. Finally, a simulation study and an application to a real data set are given.

    Keywords: Generalized Gompertz distribution, Moments, Maximum likelihood, Maximum product spacing
  • Mehrdad Niaparast*, Zahra Ahmadi, Akram Heidari Pages 93-99

    Today, applying statistics in other sciences, including medical sciences, has become very common. Researchers consider optimal design as a tool to increase the efficiency of experiments.Pharmacokinetics is particularly important in the medical sciences as a branch of pharmacology that studies the performance of drugs in living organisms.This study aims to introduce optimal designs for models in pharmacokinetic studies. The models used in this paper are known as nonlinear models in the statistical literature. These models depend on specific parameters based on pharmacological factors and time as predictor variables.Optimal designs are obtained based on functions of the Fisher information matrix. These functions are known as optimal criteria. In this paper, we consider two criteria, A- and E-optimality. Based on these two criteria, locally optimal designs are obtained for the considered models.

    Keywords: Non-linear models, Fisher Information Matrix, A-, E- optimality, pharmacokinetic
  • Habib Jafari, Anita Abdollahi* Pages 101-112

    Anthropometr is a science that deals with the size of the body including the dimensions of different parts, the field of motion and the strength of the muscles of the body. Specific individual dimensions such as heights, widths, depths, distances, environments and curvatures are usually measured. In this article, we investigate the anthropometric characteristics of patients with chronic diseases (diabetes, hypertension, cardiovascular disease, heart attacks and strokes) and find the factors affecting these diseases and the extent of the impact of each to make the necessary planning.This research is done descriptively-analytically, the research community of the people of Ravansar county is one of the functions of Kermanshah province. MATLAB, R and SPSS statistical software are used to analyze the data and test the presented hypotheses. Significance level for all tests is less than 0.05. Descriptive statistics methods is used to describe and summarize the variables. The Pearson correlation analysis method is used to investigate the relationship between variables, regression analysis (logistics) is used to investigate the effect of independent variables on the dependent variable. According to the results, it seems that some anthropometric indicators have a significant relationship with risk factors of chronic diseases. So, continuous evaluations, lifestyle changes and increasing the level of awareness to control, prevent and adjust the indicators are suggested.

    Keywords: Anthropometric indices, Risk factors for chronic diseases, BMI index
  • Mehdi Shams*, Gholamreza Hesamian Pages 113-126

    ‎Information inequalities have many applications in estimation theory and statistical decision making‎. ‎This paper describes the application of an information inequality to make the minimax decision in the framework of Bayesian theory‎. ‎In this way‎, ‎first a fundamental inequality for Bayesian risk is introduced under the square error loss function and then its applications are expressed in determining asymptotically and locally minimax estimators in the case of univariate and multivariate‎. ‎In the case that the parameter components are orthogonal‎, ‎the asymptotic-local minimax estimators are obtained for a function of the mean vector and the covariance matrix in the multivariate normal distribution‎. ‎In the end‎, ‎the bounds of information inequality are calculated under a general loss function‎.

    Keywords: Minimax estimator, prior distribution, risk function, information inequality, orthogonal parameters