فهرست مطالب

اندیشه آماری - سال بیست و پنجم شماره 1 (پیاپی 49، بهار و تابستان 1399)

نشریه اندیشه آماری
سال بیست و پنجم شماره 1 (پیاپی 49، بهار و تابستان 1399)

  • تاریخ انتشار: 1399/11/11
  • تعداد عناوین: 12
|
  • محمدحسین پورسعید* صفحات 1-7

    در این مقاله با در نظر گرفتن داده های تحت سانسور بازه ای که دارای توزیع نمایی با نرخ خطر θ هستند، روشی برای برآورد فاصله ای توابعی از θ ارایه می شود. همچنین زمان نظارت بهینه و مطالعات شبیه سازی مورد بررسی قرار گرفته و به کاربردی از مباحث نیز اشاره می گردد.

    کلیدواژگان: آماره هایترتیبی، توزیعنمایی، زماننظارتبهینه، خاصیتمارکفی، سانسوربازه ای
  • فاطمه حسینی*، امید کریمی صفحات 9-15

    در مدل های آمیخته خطی تعمیم یافته فضایی، همبستگی فضایی با اضافه کردن متغیرهای پنهان به مدل در نظر گرفته می شود. در این مدل ها چون متغیر پاسخ فضایی غیر گاوسی است و به دلیل وجود متغیرهای پنهان تابع درستنمایی معمولا شکل بسته ای ندارد و لذا رهیافت ماکسیمم درستنمایی برای برآورد پارامترها با چالش مواجه است. هدف اصلی این مقاله معرفی دو الگوریتم جدید برای به دست آوردن برآوردهای ماکسیمم درستنمایی پارامترها و مقایسه با الگوریتم های موجود از نظر سرعت و دقت است. الگوریتم های معرفی شده برروی یک مجموعه داده شبیه سازی شده به کار گرفته و عملکرد آن هامقایسه می شود.

    کلیدواژگان: همبستگی فضایی، مدل های آمیخته خطی تعمیم یافته فضایی، برآورد ماکسیمم درستنمایی
  • امید کریمی*، فاطمه حسینی صفحات 17-23

    داده های شمارشی فضایی در اغلب علوم مانند علوم محیطی، هواشناسی، زمین شناسی و پزشکی مشاهده می شود. برای تحلیل داده های رسته ای شمارشی که همبستگی مکانی در آن ها مشاهده می شود اغلب از مدل های خطی تعمیم یافته فضایی براساس توزیع های پواسونی  (مدل فضایی پواسون-لگ نرمال) و دوجمله ای (مدل فضایی دوجمله ای-لوجیت نرمال) استفاده می شود. تابع درست نمایی این نوع مدل ها دارای پیچیدگی های تیوری و محاسباتی است. رهیافت بیزی به واسطه الگوریتم های مونت کارلویی زنجیر مارکوف یک راه حل برای برازش این مدل ها می تواند باشد، هرچند مشکلاتی از لحاظ نرخ پایین پذیرش نمونه ها و طولانی شدن زمان اجرای الگوریتم ها معمولا وجود دارد. یک راه کار مناسب استفاده از الگوریتم مونت کارلویی همیلتونی  (هیبریدی) در رهیافت بیزی است. در این مقاله، روش جدید مونت کارلوی همیلتونی برای تحلیل بیزی مدل های شمارشی فضایی  روی داده های آلودگی هوای شهر تهران مورد مطالعه قرار می گیرد. همچنین دو الگوریتم مونت کارلویی معمول زنجیر مارکوفی (گیبز و متروپولیس- هستینگس)  و لانجوین-هستینگس برای رهیافت بیزی کامل مدل ها روی داده ها به کار گرفته می شوند.  در نهایت با ملاک های تشخیصی، رهیافت مناسب برای تحلیل داده ها و پیشگویی در همه نقاط شهر معرفی می شود.

    کلیدواژگان: مدل های شمارشی فضایی، مدل های خطی تعمیم یافته، داده های فضایی، الگوریتم مونت کارلوی همیلتونی
  • حبیب نادری*، محمد ملانوری، حامد احمدزاده، سلمان ایزدخواه، جواد جمال زاده صفحات 25-31

    جمعیت های زیادی در آنالیز بقا اغلب با مشکل ناهمگنی مواجه هستند. افراد در نحوه برخورد با علت مرگ، واکنش به معالجه و تحت تاثیر عوامل خطر قرار گرفتن، انعطاف پذیرهستند. نادیده گرفتن این ناهمگنی می تواند باعث به دست آمدن نتایج نادرست شود. برای برطرف کردن این مشکلات، مدل بی ثبات نرخ خطر متناسب را معرفی می کنیم. در این مقاله، ضمن معرفی مدل بی ثبات نرخ خطر متناسب، ویژگی های آن را مورد مطالعه قرار می دهیم. برازش مدل بی ثبات به داده های سانسور شده از راست در حضور متغیرهای توضیحی (متغیرهای قابل مشاهده) بررسی می کنیم و در قالب مثال کاربردی برای برازش مدل بی ثبات به داده ها با در نظر گرفتن توزیع پایه وایبل و نمایی در توابع درستنمایی، از آنها برای برآورد پارامترهای مدل استفاده می شود و با معیارهای مختلف به مقایسه مناسبت مدل ها می پردازیم.

    کلیدواژگان: برآورد حداکثر درستنمایی، توزیع پایه، تابع بقای غیر شرطی، مدل بی ثبات
  • سمانه بهشتی زاده*، حمیدرضا نواب پور صفحات 33-42

    مدیریت شواهد مبنا و برنامه ریزی های توسعه ای متکی به آمارهای رسمی هستند. بعضی موانع وجود دارند که باعث می شوند نتوان آمارگیری تک مدی را انجام داد. این موانع عبارت اند از چارچوب نمونه گیری، زمان، بودجه و دقت اندازه گیری در هر مد. این عامل ها باعث می شوند که همیشه نتوان از آمارگیری تک مدی استفاده کرد. بنا بر این نیاز است که از روش دیگری برای گرداوری داده ها که بر این موانع فایق بیایند، استفاده کرد. این روش را روش آمارگیری آمیخته مد که ترکیبی از چند مد است می نامند. ما در این مقاله نشان می دهیم که آمارگیری های آمیخته مد می توانند دقت بیشتری در تولید آمارهای رسمی نسبت به آمارگیری های تک مدی داشته باشند.

    کلیدواژگان: خطای کل آمارگیری، خطای بی پاسخی، خطای اندازه گیری، خطای پوشانشی، واریانس نمونه گیری
  • رضا چراغی، سید رضا هاشمی* صفحات 43-51

    هنگامی که داده ها از یک الگوی خطی ثابت تبعیت نکنند و به شکل پویایی بر حسب زمان یا مکان الگوهای متنوعی داشته باشند، مدل های با ضرایب متغیر به عنوان مهم ترین ابزار برای کشف الگوهای پویا در آنها مطرح می شوند. این مدل ها تعمیم طبیعی مدل های کلاسیک پارامتری هستند که با تفسیر پذیری خوب، محبوبیت زیادی در تجزیه و تحلیل داده ها به دست آورده اند. انعطاف پذیری و تفسیر پذیری بالای این مدل ها سبب کاربرد زیاد آنها در داده های واقعی شده است. در این مقاله ضمن مرور مختصری بر مدل های با ضرایب متغیر به روش برآورد پارامتر با استفاده از تابع هسته و اسپلاین مکعبی پرداخته و فاصله اطمینان و آزمون فرض برای توابع پارامترها به دست می آوریم. در نهایت با استفاده از داده های واقعی نرخ تورم ایران در سالهای 1368 تا 1396، کاربرد و قابلیت های مدل با ضرایب متغیر را در تفسیر نتایج نشان می دهیم چالش اصلی عدم برازش مناسب مدل داده های پانلی و نیز مدل های با واریانس غیر ثابت سربهای زمانی مثل مدل های آرچ و گارچ و مشتقات آنها به این داده هاست که استفاده از مدل های با ضرایب متغیر را توجیه می نماید.

    کلیدواژگان: مدل با ضرایب متغیر، تابع هسته، اسپلاین مکعبی، نرخ تورم ایران
  • زهرا اسلامی*، مینا نوروزی راد، محمد آرشی صفحات 53-67

    در تجزیه و تحلیل داده های بقای سانسورشده، مدل های رگرسیونی کاکس از اهمیت ویژه ای برخوردار هستند. با افزایش متغیرها در یک مدل، به منظور دست یابی به مدل های کاراتر، می توان از روش های تاوانیده  استفاده کرد.  در این مقاله،  به مروری بر مدل رگرسیون کاکس تاوانیده برای برخی از توابع تاوان معروف پرداخته شده است. هم چنین،  مجموعه داده های پزشکی mgus2 بررسی شده و نشان داده شده که مدل های تاوانیده بهتر از رگرسیون کاکس به این داده ها برازش می شود که تاوان لاسو، بهترین عملکرد را برای این داده ها دارد.

    کلیدواژگان: تابع بقا، رگرسیون کاکس، تابع خطر، رگرسیون تاوانیده، لاسو
  • منیره معنوی، مهدی روزبه* صفحات 69-90

    با پیشرفت علم، دانش و تکنولوژی، روش های جدید و جامع برای اندازه گیری، جمع آوری و ثبت اطلاعات ابداع شده اند، که منجر به ظهور و توسعه داده های بعد بالا شده اند. مجموعه داده های بعد بالا، یعنی مجموعه داده هایی که در آن تعداد متغیرهای توضیحی بسیار بزرگتر از تعداد مشاهدات است، به سادگی و با روش های سنتی و کلاسیک، مانند روش کمترین توان های دوم معمولی، نمی توانند تحلیل شوند و تفسیرپذیری آن امری بسیار پیچیده خواهد بود. اگرچه در صورتیکه فرضیات اساسی برقرار باشند، برآورد کمترین توان های دوم معمولی بهترین روش برآورد در تحلیل رگرسیونی است ولی برای داده های بعد بالا قابل استفاده نبوده و در این شرایط مستلزم به کارگیری روش هایی نوینی هستیم. در این مقاله در ابتدا، به مشکلات روش های کلاسیک در تحلیل داده های بعد بالا اشاره می شود و سپس، به معرفی و توضیح روش های تحلیل رگرسیونی متداول و امروزی مانند روش های تحلیل مولفه اصلی و تاوانیده برای داده های بعد بالا پرداخته می شود. در انتها یک مطالعه شبیه سازی برای بررسی و مقایسه روش های اشاره شده در داده های بعد بالا انجام می گردد.

    کلیدواژگان: تحلیل مولفه های اصلی، مجموعه داده های بعد بالا، روش کمترین توان های دوم تاوانیده
  • محسن حاجیتبار فیروزجایی، مریم طالبی* صفحات 91-100

    ارزیابی کلاس جزیی اصلی از فرایند آموزش و یادگیری می‏باشد. هدف پژوهش حاضر، بررسی روایی عاملی و پایایی " پرسش‏نامه  ادراک دانشجویان از سنجش و ارزیابی  فعالیت‏ها" یوجی  می‏باشد. در این راستا پرسش‏نامه ادراک دانشجویان از سنجش و ارزیابی فعالیت‏ها روی 400 دانشجو که با روش نمونه‏گیری خوشه‏ای از بین دانشجویان دانشگاه مازندران انتخاب شده بودند، اجرا شد. برای بررسی پایایی پرسش‏نامه  از ضریب آلفای کرانباخ و برای تعیین روایی عاملی از تحلیل عاملی تاییدی استفاده شد. نتایج پژوهش حاضر نشان داد که این پرسش‏نامه  از همسانی درونی قابل قبولی برخوردار است و ضریب آلفای کرانباخ در خرده‏آزمون‏های آن بین 71/0 تا 78/0 بوده است. همچنین نتایج تحلیل عاملی تاییدی موید آن است که ساختار پرسش‏نامه برازش قابل قبولی با داده‏ها دارد و کلیه شاخص‏های نیکویی برازش، مدل را تایید می‏کنند. بنابراین، پرسش‏نامه می‏تواند ابزار مناسبی برای ارزیابی ‏ ادراک دانشجویان از سنجش و ارزیابی فعالیت‏ها و تکالیف باشد.

    کلیدواژگان: ویژگی های روانسنجی، ادراک دانشجویان از ارزیابی فعالیت ها، روایی عاملی، پایایی
  • علیرضا رضایی، مجتبی گنجعلی*، احسان بهرامی صفحات 101-109

    بی پاسخی در آمارگیری ها منبعی برای بروز خطا در نتایج آمارگیری است و سازمان های ملی آماری همواره به دنبال راهکارهایی برای کنترل و کاهش آن هستند. پیش بینی واحدهای نمونه گیری بی پاسخ در آمارگیری قبل از اجرای آمارگیری از جمله راهکارهایی است که می تواند کمک زیادی به کاهش و مرتفع نمودن مشکل بی پاسخی آمارگیری داشته باشد. با توسعه های اخیر فناوری و تسهیل در محاسبات پیچیده امکان به کارگیری روش های یادگیری آماری، مانند درخت های رگرسیون و رده بندی یا ماشین بردار پشتیبان در بسیاری از مسایل از جمله پیش بینی بی پاسخی واحدهای نمونه گیری در آمارگیری ها فراهم شده است. در این مقاله ضمن مرور کلی روش های فوق، واحدهای نمونه گیری بی پاسخ در یک آمارگیری کارگاهی با استفاده از آن ها پیش بینی شده و نشان داده می شود ترکیب روش های فوق دارای دقت بیشتری در پیش بینی درست بی پاسخی نسبت به هر کدام از روش های تکی است.

    کلیدواژگان: بی پاسخی، درخت رگرسیون و طبقه بندی، رگرسیون لوژستیک، ماشین بردار پشتیبان
  • شهرام یعقوب زاده شهرستانی، رضا زارعی* صفحات 111-121

    ‏هر‎گاه اطلاعاتی تقریبی و اولیه راجع به پارامتر نامعلوم یک توزیع در دسترس باشد، می توان از روش برآورد انقباضی برای برآورد آن استفاده نمود. در این مقاله ابتدا برآورد  E‎ -بیز پارامتر توزیع رایلی معکوس تحت تابع زیان آنتروپی عمومی به دست آورده شده و سپس به کمک مقدار حدسی پارامتر توزیع رایلی معکوس، برآورد انقباضی آن ارایه شده است. همچنین با استفاده از شبیه سازی مونت کارلو و یک مجموعه داده واقعی، برآورد انقباضی پیشنهادی با برآوردهای نااریب با کمترین واریانس و ‎E‎ -بیز ‏بر اساس معیار کارایی نسبی، مقایسه می شود.

    کلیدواژگان: توزیع رایلی معکوس، برآورد انقباضی، برآورد ‎E‎ -بیز، تابع زیان آنتروپی عمومی
  • مجتبی رستمی*، شهرام فتاحی صفحات 123-137

    نظریه های اقتصادی با استفاده از مجموعه ای از اصول موضوعه، عبارات تعریف شده و قضایا در پی تبیین علمی یا پیش بینی پدیده های اقتصادی می باشند. مدل های اقتصادی تصریحی ریاضی وار از این نظریه ها می باشند. به علت مجهول بودن ساختار هر مدل، وجود خطای اندازه گیری در کمیت های اقتصادی و عدم برقراری فرض ثبات سایر شرایط؛ وجه تالیفی هر نظریه اقتصادی نیازمند مدل سازی از نوع احتمالی و آماری است. بنابراین، درک شیوه رایج مدل سازی و اهمیت استفاده مناسب از آن در اقتصاد، اقتصاددانان را به شناخت دقیق مدل سازی آماری نیازمند می کند. پژوهش حاضر درصدد اصلاح این بینش است که هرچند هدف از ارایه مدل های آماری آزمایش تجربی ادعاهای نظریه هاست اما روش های آماری نقش پسینی و دست دوم در مقابل نظریه های اقتصادی را ندارند بلکه شیوه مناسب مدل سازی اقتصادی وابسته به استفاده صحیح از روش های آماری و الگوهای احتمالی در مرحله وضع نظریه است.

    کلیدواژگان: اقتصادسنجی، احتمال، مدلسازی
|
  • Mohammad Hossein Poursaeed* Pages 1-7

    In this study, the interval estimations are proposed for the functions of the parameter in exponential lifetimes, when interval censoring is used. Optimal monitoring time and simulation studies are examined as well as the applicability of the topics.

    Keywords: Exponential distribution, Ordered statistics, Interval censoring, Inspection times, Markovian property
  • Fatemeh Hossini*, Omid Karimi Pages 9-15

    In spatial generalized linear mixed models, spatial correlation is assumed by adding normal latent variables to the model. In these models because of the non-Gaussian spatial response and the presence of latent variables the likelihood function cannot usually be given in a closed form, thus the maximum likelihood approach is very challenging. The main purpose of this paper is to introduce two new algorithms for the maximum likelihood estimations of parameters and to compare them in terms of speed and accuracy with existing algorithms. The presented algorithms are applied to a simulation study and their performance are compared.

    Keywords: Spatial Correlation, Spatial Generalized Linear Mixed Model, Maximum Likelihood Estimation
  • Omid Karimi*, Fatemeh Hosseini Pages 17-23

    Spatial count data is usually found in most sciences such as environmental science, meteorology, geology and medicine. Spatial generalized linear models based on poisson (poisson-lognormal spatial model) and binomial (binomial-logitnormal spatial model) distributions are often used to analyze discrete count data in which spatial correlation is observed. The likelihood function of these models is complex as analytic and so computation.  The Bayesian approach using Monte Carlo Markov chain algorithms can be a solution to fit these models, although there are usually problems with low sample acceptance rates and long runtime to implement the algorithms. An appropriate solution is to use the Hamilton (hybrid) Monte Carlo algorithm  in The Bayesian approach. In this paper, the new Hamilton (hybrid) Monte Carlo method for Bayesian analysis of spatial count models on air pollution data in Tehran is studied. Also, the two common Monte Carlo algorithms such as the Markov chain (Gibbs and Metropolis-Hastings) and Langevin-Hastings are used to apply  the complete Bayesian approach on the data modeling.  Finally, an appropriate approach to data analysis and forecasting in all points of the city is introduced with the diagnostic criteria.

    Keywords: Spatial Count Models, Generalized Linear Models, Spatial Data, Hamiltonian Monte Carlo
  • Habib Naderi*, Mohammad Mollanoori, Hamed Ahmadzadeh, Salman Izadkhah Pages 25-31

    Many populations encountered in survival analysis are often not homogeneous. Individuals are flexible in their susceptibility to causes of death, response to treatment and influence of various risk factors. Ignoring this heterogeneity can result in misleading conclusions. To deal with these problems, the proportional hazard frailty model was introduced. In this paper, the frailty model is explained as the product of the frailty random variable and baseline hazard rate. We examine the fit of the frailty model to the right censored data from in the presence of explanatory variables (observable variables) and use it as a practical example to fit the frailty model to the data by considering the Weibull basis distribution and exponential in the likelihood functions. It is used to estimate the model parameters and compare the fit of the models with different criteria.

    Keywords: Likelihood Maximum Estimator, Baseline Distribution, Unconditional Survival Functions, Frailty Model
  • Samaneh Beheshtizadeh*, Hamidreza Navvabpour Pages 33-42

    Evidence-based management and development planning relies on official statistics. There are some obstacles that make it impossible to do single mode survey. These obstacles are sampling frame, time, the budget and accuracy of measurment of each mode. Always we can not use single mode survey becase of these factors. So we need to use other data collection method to overcome these obstacles. This method is called the mixed mode survey, which is a combination of several modes. In this article we show that mixed mode surveys can produce more accurate official statistics than single mode surveys.

    Keywords: total survey error, nonresponse error, measurment error, coverage error, sampling variance
  • Reza Cheraghi, Reza Hashemi* Pages 43-51

    Varying coefficient Models are among the most important tools for discovering the dynamic patterns when a fixed pattern does not fit adequately well on the data, due to existing diverse temporal or local patterns. These models are natural extensions of classical parametric models that have achieved great popularity in data analysis with good interpretability.The high flexibility and interpretability of these models have led to use in many real applications. In this paper, after presenting a brief review of varying coefficient models, we use the parameter estimation method using the kernel function and cubic spline then confidence band and hypothesis testing are investigated. Finally, using the real data of Iranchr(chr('39')39chr('39'))s inflation rate from 1989 to 2017, we show the application and capabilities of the varying coefficient model in interpreting the results. The main challenge in this application is that the panel or longitudinal models or even time series models with heterogeneous variances such as ARCH and GARCH models and their derived models did not fit adequately well on this dataset which justify the use of varying coefficient model.

    Keywords: Varying coefficients model, Kernel function, Cubic Splines, Iran's Inflation rate
  • Zahra Eslami*, Mina Norouzirad, Mohammad Arashi Pages 53-67

    The proportional hazard Cox regression models play a key role in analyzing censored survival data. We use penalized methods in high dimensional scenarios to achieve more efficient models. This article reviews the penalized Cox regression for some frequently used penalty functions. Analysis of medical data namely ”mgus2” confirms the penalized Cox regression performs better than the cox regression model. Among all penalty functions, LASSO provides the best fit.

    Keywords: Cox regression, Hazard function, Penalized regression, Lasso, Survival function
  • Monireh Maanavi, Mahdi Roozbeh* Pages 69-90

    By evolving science, knowledge and technology, new and precise methods for measuring, collecting and recording information have been innovated, which have resulted in the appearance and development of high-dimensional data. The high-dimensional data set, i.e., a data set in which the number of explanatory variables is much larger than the number of observations, cannot be easily analyzed by traditional and classical methods, same as the ordinary least-squares method, and its interpretability will be very complex. Although, in classical regression analysis, the ordinary least-squares estimation is the best estimation method if the essential assumptions are met, but it is not applicable for high-dimensional data and in this cconditions, we need to apply the modern methods. In this research, it is firstly mentioned to the drawbacks of classical methods in analysis of high-dimensional data and then, it is proceeded to introduce and explain about the modern and common approaches of the regression analysis for high-dimensional data same as principal component analysis and penalized methods. Finally, a simulation study is performed to apply and compare the mentioned methods in high-dimensional data.

    Keywords: High-dimensional data set, Penalized least-squares method, Principle component Analysis
  • Mohsen Hajitabar Firuzjayee, Maryam Talebi* Pages 91-100

    Classroom evaluation is a key part of the teaching and learning process. The purpose of this study is to investigate the factor validity and reliability of the "Student Perceptions Questionnaire of Assessment and Evaluation of Activities" by Yuji. In this regard, the questionnaire of studentschr(chr('39')39chr('39')) perception of measuring and evaluating activities was performed on 400 students who were selected by cluster sampling method from Mazandaran University students. Cranbachchr(chr('39')39chr('39'))s alpha coefficient was used to evaluate the reliability of the questionnaire and confirmatory factor analysis was used to determine the validity of the factor. The results of the present study showed that this questionnaire has an acceptable internal consistency and Cranbachchr(chr('39')39chr('39'))s alpha coefficient in its subtests was between 0.71 and 0.78. Also, the results of confirmatory factor analysis confirm that the structure of the questionnaire has an acceptable fit with the data and all indicators of good fit confirm the model. Therefore, the questionnaire can be a good tool for assessing studentschr(chr('39')39chr('39')) perceptions of assessment and evaluation of activities and assignments.

    Keywords: Psychometric properties, Students' perceptions of assessment, evaluation task, Factor validity, Reliability
  • Alireza Rezaee, Mojtaba Ganjali*, Ehsan Bahrami Pages 101-109

    Nonrespose is a source of error in the survey results and national statistical organizations are always looking for ways to control and reduce it. Predicting nonrespons sampling units in the survey before conducting the survey is one of the solutions that can help a lot in reducing and treating the survey nonresponse. Recent advances in technology and the facilitation of complex calculations have made it possible to apply statistical learning methods, such as regression and classification trees or support vector machines, to many issues, including predicting the nonresponse of sampling units in statistics. In this article, while reviewing the above methods, the nonresponse sampling units are predicted using them in an establishment survey and it is shown that a combination of the above methods is more accurate in predicting the correct nonresponse than any of these methods.

    Keywords: Classification, regression trees, logistic regression, nonresponse, Support vector machine
  • Shahram Yaghoobzadeh Shahrestani, Reza Zarei* Pages 111-121

    ‎Whenever approximate and initial information about the unknown parameter of a distribution is available, the shrinkage estimation method can be used to estimate it. In this paper, first the $ E $-Bayesian estimation of the parameter of inverse Rayleigh distribution under the general entropy loss function is obtained. Then, the shrinkage estimate of the inverse Rayleigh distribution parameter is investigated using the guess value. Also, using Monte Carlo simulations and a real data set, the proposed shrinkage estimation is compared with the UMVU and $ E $-Bayesian estimators based on the relative efficiency criterion.

    Keywords: I‎nverse Rayleigh Distribution‎, ‎Shrinkage estimation‎, ‎E-Bayesian estimation‎, ‎General entropy loss function‎
  • Mojtaba Rostami*, Shahram Fattahi Pages 123-137

    Economic theories seek a scientific explanation or prediction of economic phenomena using a set of axiom, defined expressions, and theorems. Mathematically explicit economic models are one of these theories. Due to the unknown structure of each model, the existence of measurement error in economic committees and failure of Ceteris Paribus; the Synthetic of any economic theory requires probabilistic and statistical modeling. Therefore, understanding the current method of modeling and the importance of its proper use in economics requires economists to have an accurate knowledge of statistical modeling. The present study seeks to correct the view that although the purpose of providing statistical models is to experimentally test the claims of theories, statistical methods do not play a secondary role in economic theories, but the appropriate method of economic modeling depends on the correct use of statistical methods and probability models in the situation. of make a theory.

    Keywords: econometrics, probability, modeling