ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Statistical inference based on divergence measures

دانلود کتاب استنتاج آماری بر اساس معیارهای واگرایی

Statistical inference based on divergence measures

مشخصات کتاب

Statistical inference based on divergence measures

ویرایش:  
نویسندگان:   
سری: Statistics, textbooks and monographs, v. 185 
ISBN (شابک) : 1584886005, 9781584886006 
ناشر: Chapman & Hall/CRC 
سال نشر: 2006 
تعداد صفحات: 497 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 مگابایت 

قیمت کتاب (تومان) : 50,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 17


در صورت تبدیل فایل کتاب Statistical inference based on divergence measures به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب استنتاج آماری بر اساس معیارهای واگرایی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب استنتاج آماری بر اساس معیارهای واگرایی

ایده استفاده از توابع نظریه اطلاعات، مانند آنتروپی یا واگرایی، در استنتاج آماری جدید نیست. با این حال، علیرغم این واقعیت که آمار واگرایی جایگزین بسیار خوبی برای آزمون نسبت درستنمایی کلاسیک و آماره نوع پیرسون در مدل‌های گسسته شده است، بسیاری از آماردانان از این رویکرد قدرتمند بی‌اطلاع هستند. استنتاج آماری بر اساس معیارهای واگرایی، مشکلات کلاسیک استنتاج آماری، مانند تخمین و آزمون فرضیه ها را بر اساس معیارهای آنتروپی و واگرایی بررسی می کند. دو فصل اول، از منظر آماری، مروری بر مهمترین معیارهای آنتروپی و واگرایی و بررسی خواص آنها را تشکیل می دهد. نویسنده سپس تجزیه و تحلیل آماری داده‌های چند متغیره گسسته را با تأکید بر مشکلات موجود در جداول احتمالی و مدل‌های خطی با استفاده از آمار آزمون واگرایی فی و همچنین برآوردگرهای حداقل واگرایی فی بررسی می‌کند. فصل آخر به آزمایش در جمعیت‌های عمومی می‌پردازد، و امکان جالب معرفی آمار آزمون جایگزین به آمارهای کلاسیک مانند Wald، Rao و نسبت احتمال را ارائه می‌کند. هر فصل با تمرین هایی به پایان می رسد که نتایج نظری را روشن می کند و نتایج اضافی را ارائه می دهد که مکمل بحث های اصلی است. این کتاب واضح، جامع و منطقی توسعه یافته، فرصتی منحصر به فرد برای به دست آوردن دیدگاه جدیدی در مورد برخی از مسائل آمار استاندارد، بلکه ابزارهایی برای عملی کردن آن ارائه می دهد.


توضیحاتی درمورد کتاب به خارجی

The idea of using functionals of Information Theory, such as entropies or divergences, in statistical inference is not new. However, in spite of the fact that divergence statistics have become a very good alternative to the classical likelihood ratio test and the Pearson-type statistic in discrete models, many statisticians remain unaware of this powerful approach. Statistical Inference Based on Divergence Measures explores classical problems of statistical inference, such as estimation and hypothesis testing, on the basis of measures of entropy and divergence. The first two chapters form an overview, from a statistical perspective, of the most important measures of entropy and divergence and study their properties. The author then examines the statistical analysis of discrete multivariate data with emphasis is on problems in contingency tables and loglinear models using phi-divergence test statistics as well as minimum phi-divergence estimators. The final chapter looks at testing in general populations, presenting the interesting possibility of introducing alternative test statistics to classical ones like Wald, Rao, and likelihood ratio. Each chapter concludes with exercises that clarify the theoretical results and present additional results that complement the main discussions. Clear, comprehensive, and logically developed, this book offers a unique opportunity to gain not only a new perspective on some standard statistics problems, but the tools to put it into practice.



فهرست مطالب

Statistical Inference Based on Divergence Measures......Page 4
Preface......Page 7
Contents......Page 12
References......Page 0
1.1. Introduction......Page 18
1.2. Phi-divergence Measures between Two Probability Distributions: Definition and Properties......Page 20
1.2.1. Basic Properties of the Phi-divergence Measures......Page 25
1.3. Other Divergence Measures between Two Probability Distributions......Page 35
1.3.1. Entropy Measures......Page 36
1.3.2. Burbea and Rao Divergence Measures......Page 42
1.4. Divergence among k Populations......Page 44
1.5. Phi-disparities......Page 46
1.6. Exercises......Page 48
1.7. Answers to Exercises......Page 51
2.1. Introduction......Page 71
2.2. Phi-entropies. Asymptotic Distribution......Page 74
2.3.1. Test for a Predicted Value of the Entropy of a Population (Diversity of a Population)......Page 80
2.3.3. Test for the Equality of the Entropies of r Independent Populations......Page 81
An Application to Equality of Variances in Normal Populations......Page 86
2.3.5. Confidence Intervals......Page 90
2.4. Multinomial Populations: Asymptotic Distributions......Page 91
2.4.1. Test of Discrete Uniformity......Page 100
2.5. Maximum Entropy Principle and Statistical Inference on Condensed Ordered Data......Page 103
2.6. Exercises......Page 109
2.7. Answers to Exercises......Page 114
3.1. Introduction......Page 129
3.2. Phi-divergences and Goodness-of-fit with Fixed Number of Classes......Page 132
3.3. Phi-divergence Test Statistics under Sparseness Assumptions......Page 141
3.4.1. Goodness-of-fit with Quantile Characterization......Page 148
Stationary Distribution......Page 151
Chain Markov and Order......Page 155
3.4.3. Misclassified Data......Page 156
3.4.4. Goodness-of-fit for and against Order Restrictions......Page 160
3.5. Exercises......Page 162
3.6. Answers to Exercises......Page 166
4.1. Introduction......Page 180
4.2.1. Pitman Asymptotic Relative Efficiency......Page 181
4.2.2. Bahadur Efficiency......Page 183
4.2.3. Approximations to the Power Function: Comparisons......Page 189
4.3. Exact and Asymptotic Moments: Comparison......Page 190
4.3.1. Under the Null Hypothesis......Page 191
4.3.2. Under Contiguous Alternative Hypotheses......Page 200
4.3.3. Corrected Phi-divergence Test Statistic......Page 204
4.4. A Second Order Approximation to the Exact Distribution......Page 205
4.5. Exact Powers Based on Exact Critical Regions......Page 209
4.6. Small Sample Comparisons for the Phi-divergence Test Statistics......Page 213
4.7. Exercises......Page 218
4.8. Answers to Exercises......Page 219
5.1. Introduction......Page 228
5.2. Maximum Likelihood and Minimum Phi-divergence Estimators......Page 230
5.2.1. Minimum Power-divergence Estimators in Normal and Weibull Populations......Page 235
5.3. Properties of the Minimum Phi-divergence Estimator......Page 239
5.3.1. Asymptotic Properties......Page 242
5.3.2. Minimum Phi-divergence Functional Robustness......Page 248
5.4. Normal Mixtures: Minimum Phi-divergence Estimator......Page 250
5.5. Minimum Phi-divergence Estimator with Constraints: Properties......Page 259
5.6. Exercises......Page 262
5.7. Answers to Exercises......Page 264
6.1. Introduction......Page 272
6.2. Asymptotic Distribution with Fixed Number of Classes......Page 274
6.3.1. Maximum Likelihood Estimator Based on Original Data and Test Statistics Based on Phi-divergences......Page 286
6.3.2. Goodness-of-fit with Quantile Characterization......Page 291
6.3.3. Estimation from an Independent Sample......Page 293
6.3.4. Goodness-of-fit with Dependent Observations......Page 294
6.3.5. Goodness-of-fit with Constraints......Page 296
6.4. Exercises......Page 297
6.5. Answers to Exercises......Page 299
7.1. Introduction......Page 312
7.2. Loglinear Models: Definition......Page 320
7.3. Asymptotic Results for Minimum Phi-divergence Estimators in Loglinear Models......Page 322
7.4. Testing in Loglinear Models......Page 324
7.5. Simulation Study......Page 340
7.6. Exercises......Page 351
7.7. Answers to Exercises......Page 355
8.1. Introduction......Page 365
8.2. Independence......Page 366
8.2.1. Restricted Minimum Phi-divergence Estimator......Page 368
8.2.2. Test of Independence......Page 374
Power of the Test......Page 376
8.3. Symmetry......Page 382
8.3.1. Test of Symmetry......Page 387
Power of the Test......Page 389
8.3.2. Symmetry in a Three-way Contingence Table......Page 392
8.4. Marginal Homogeneity......Page 396
8.5. Quasi-symmetry......Page 402
8.6. Homogeneity......Page 408
8.7. Exercises......Page 413
8.8. Answers to Exercises......Page 414
9.1. Introduction......Page 421
9.2. Simple Null Hypotheses: Wald, Rao, Wilks and Phi-divergence Test Statistics......Page 422
9.3. Composite Null Hypothesis......Page 434
9.4. Multi-sample Problem......Page 444
9.5. Some Topics in Multivariate Analysis......Page 450
9.6. Exercises......Page 451
9.7. Answers to Exercises......Page 454
References......Page 473




نظرات کاربران