ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Neural Networks for Conditional Probability Estimation: Forecasting Beyond Point Predictions

دانلود کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای

Neural Networks for Conditional Probability Estimation: Forecasting Beyond Point Predictions

مشخصات کتاب

Neural Networks for Conditional Probability Estimation: Forecasting Beyond Point Predictions

ویرایش: 1 
نویسندگان:   
سری: Perspectives in Neural Computing 
ISBN (شابک) : 9781852330958, 9781447108474 
ناشر: Springer-Verlag London 
سال نشر: 1999 
تعداد صفحات: 279 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 24 مگابایت 

قیمت کتاب (تومان) : 41,000



کلمات کلیدی مربوط به کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای: تشخیص الگو، فیزیک آماری، سیستم‌های دینامیکی و پیچیدگی، زیست‌شناسی عصبی



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 15


در صورت تبدیل فایل کتاب Neural Networks for Conditional Probability Estimation: Forecasting Beyond Point Predictions به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای



کاربردهای معمولی شبکه های عصبی معمولاً یک مقدار واحد را به عنوان تابعی از ورودی های داده شده پیش بینی می کنند. برای مثال، در پیش‌بینی، یک هدف استاندارد، پیش‌بینی ارزش آتی یک واحد مورد علاقه بر اساس یک سری زمانی از اندازه‌گیری‌ها یا مشاهدات گذشته است. طرح‌های آموزشی معمولی با هدف به حداقل رساندن مجموع انحرافات مجذور بین مقادیر پیش‌بینی‌شده و واقعی («هدف‌ها»)، که به‌طور ایده‌آل، شبکه میانگین شرطی هدف را با توجه به ورودی می‌آموزد، انجام می‌شود. اگر توزیع شرطی زیربنایی گاوس سیان یا حداقل یک وجهی باشد، این ممکن است یک رویکرد رضایت‌بخش باشد. با این حال، برای یک توزیع چندوجهی، میانگین شرطی ویژگی‌های مربوط به سیستم را نشان نمی‌دهد، و عملکرد پیش‌بینی، به طور کلی، بسیار ضعیف خواهد بود. این نیاز به یک مدل قوی تر و پیچیده تر دارد که می تواند کل توزیع احتمال شرطی را یاد بگیرد. فصل 1 نشان می‌دهد که حتی برای یک سیستم قطعی و نویز مشاهده‌ای گاوسی «خفیف»، توزیع مشروط مشاهدات آینده، مشروط به مجموعه‌ای از مشاهدات گذشته، می‌تواند به شدت منحرف و چندوجهی شود. در فصل 2، یک ساختار شبکه عصبی کلی برای مدل‌سازی چگالی احتمال شرطی مشتق شده است، و نشان داده می‌شود که یک تقریب جهانی برای این کار توسعه‌یافته حداقل به دو لایه پنهان نیاز دارد. یک طرح آموزشی از رویکرد حداکثر احتمال در فصل 3 ایجاد شده است، و عملکرد این روش در سه سری زمانی تصادفی در فصل های 4 و 5 نشان داده شده است.


توضیحاتی درمورد کتاب به خارجی

Conventional applications of neural networks usually predict a single value as a function of given inputs. In forecasting, for example, a standard objective is to predict the future value of some entity of interest on the basis of a time series of past measurements or observations. Typical training schemes aim to minimise the sum of squared deviations between predicted and actual values (the 'targets'), by which, ideally, the network learns the conditional mean of the target given the input. If the underlying conditional distribution is Gaus­ sian or at least unimodal, this may be a satisfactory approach. However, for a multimodal distribution, the conditional mean does not capture the relevant features of the system, and the prediction performance will, in general, be very poor. This calls for a more powerful and sophisticated model, which can learn the whole conditional probability distribution. Chapter 1 demonstrates that even for a deterministic system and 'be­ nign' Gaussian observational noise, the conditional distribution of a future observation, conditional on a set of past observations, can become strongly skewed and multimodal. In Chapter 2, a general neural network structure for modelling conditional probability densities is derived, and it is shown that a universal approximator for this extended task requires at least two hidden layers. A training scheme is developed from a maximum likelihood approach in Chapter 3, and the performance ofthis method is demonstrated on three stochastic time series in chapters 4 and 5.



فهرست مطالب

Front Matter....Pages i-xxiii
Introduction....Pages 1-19
A Universal Approximator Network for Predicting Conditional Probability Densities....Pages 21-37
A Maximum Likelihood Training Scheme....Pages 39-55
Benchmark Problems....Pages 57-67
Demonstration of the Model Performance on the Benchmark Problems....Pages 69-85
Random Vector Functional Link (RVFL) Networks....Pages 87-97
Improved Training Scheme Combining the Expectation Maximisation (EM) Algorithm with the RVFL Approach....Pages 99-119
Empirical Demonstration: Combining EM and RVFL....Pages 121-135
A simple Bayesian regularisation scheme....Pages 137-145
The Bayesian Evidence Scheme for Regularisation....Pages 147-163
The Bayesian Evidence Scheme for Model Selection....Pages 165-177
Demonstration of the Bayesian Evidence Scheme for Regularisation....Pages 179-191
Network Committees and Weighting Schemes....Pages 193-201
Demonstration: Committees of Networks Trained with Different Regularisation Schemes....Pages 203-219
Automatic Relevance Determination (ARD)....Pages 221-227
A Real-World Application: The Boston Housing Data....Pages 229-250
Summary....Pages 251-253
Appendix: Derivation of the Hessian for the Bayesian Evidence Scheme....Pages 255-265
Back Matter....Pages 267-275




نظرات کاربران