دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Sivarama Dandamudi (auth.)
سری: Series in Computer Science
ISBN (شابک) : 9781461349389, 9781461501336
ناشر: Springer US
سال نشر: 2003
تعداد صفحات: 262
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 9 مگابایت
کلمات کلیدی مربوط به کتاب برنامه ریزی سلسله مراتبی در سیستم های موازی و خوشه ای: معماری پردازنده، سازمان سیستم های کامپیوتری و شبکه های ارتباطی، سیستم عامل، نظریه محاسبات
در صورت تبدیل فایل کتاب Hierarchical Scheduling in Parallel and Cluster Systems به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب برنامه ریزی سلسله مراتبی در سیستم های موازی و خوشه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
سیستمهای چند پردازنده دسته مهمی از سیستمهای موازی هستند. در طول سالها، چندین معماری برای ساخت چنین سیستمهایی برای برآوردن الزامات محاسبات با کارایی بالا پیشنهاد شدهاند. این معماری ها طیف گسترده ای از انواع سیستم ها را در بر می گیرند. در انتهای طیف پایین، ما می توانیم یک سیستم موازی کوچک با حافظه مشترک با ده ها پردازنده بسازیم. این سیستم ها معمولا از یک گذرگاه برای اتصال پردازنده ها و حافظه استفاده می کنند. برای مثال، چنین سیستمهایی در ایستگاههای کاری گرافیکی با کارایی بالا رایج شدهاند. این سیستم ها را چند پردازنده های دسترسی به حافظه یکنواخت (UMA) می نامند زیرا دسترسی یکنواخت به حافظه را برای همه پردازنده ها فراهم می کنند. این سیستم ها یک فضای آدرس واحد را فراهم می کنند که توسط برنامه نویسان ترجیح داده می شود. با این حال، به دلیل محدودیتهای پهنای باند گذرگاه، این معماری حتی به سیستمهای متوسط با صدها پردازنده قابل گسترش نیست. مقیاس سازی سیستم ها تا برد متوسط i. ه. ، برای صدها پردازنده، شبکه های اتصال غیر باس پیشنهاد شده است. برای مثال، این سیستم ها از یک شبکه ارتباطی پویا چند مرحله ای استفاده می کنند. چنین سیستم هایی مانند سیستم های UMA، حافظه مشترک و جهانی را نیز فراهم می کنند. با این حال، آنها حافظه های محلی و راه دور را معرفی می کنند که منجر به معماری دسترسی غیریکنواخت حافظه (NUMA) می شود. معماری حافظه توزیع شده برای سیستم هایی با هزاران پردازنده استفاده می شود. این سیستم ها با معماری های حافظه مشترک تفاوت دارند زیرا هیچ حافظه مشترک قابل دسترسی جهانی وجود ندارد. در عوض، از ارسال پیام برای تسهیل ارتباط بین پردازنده ها استفاده می کنند. در نتیجه، فضای آدرس واحدی را ارائه نمی دهند.
Multiple processor systems are an important class of parallel systems. Over the years, several architectures have been proposed to build such systems to satisfy the requirements of high performance computing. These architectures span a wide variety of system types. At the low end of the spectrum, we can build a small, shared-memory parallel system with tens of processors. These systems typically use a bus to interconnect the processors and memory. Such systems, for example, are becoming commonplace in high-performance graph ics workstations. These systems are called uniform memory access (UMA) multiprocessors because they provide uniform access of memory to all pro cessors. These systems provide a single address space, which is preferred by programmers. This architecture, however, cannot be extended even to medium systems with hundreds of processors due to bus bandwidth limitations. To scale systems to medium range i. e. , to hundreds of processors, non-bus interconnection networks have been proposed. These systems, for example, use a multistage dynamic interconnection network. Such systems also provide global, shared memory like the UMA systems. However, they introduce local and remote memories, which lead to non-uniform memory access (NUMA) architecture. Distributed-memory architecture is used for systems with thousands of pro cessors. These systems differ from the shared-memory architectures in that there is no globally accessible shared memory. Instead, they use message pass ing to facilitate communication among the processors. As a result, they do not provide single address space.
Front Matter....Pages i-xxv
Front Matter....Pages 1-1
Introduction....Pages 3-11
Parallel and Cluster Systems....Pages 13-48
Parallel Job Scheduling....Pages 49-84
Front Matter....Pages 85-85
Hierarchical Task Queue Organization....Pages 87-119
Performance of Scheduling Policies....Pages 121-139
Performance with Synchronization Workloads....Pages 141-164
Front Matter....Pages 165-165
Scheduling in Shared-Memory Multiprocessors....Pages 167-191
Scheduling in Distributed-Memory Multicomputers....Pages 193-211
Scheduling in Cluster Systems....Pages 213-229
Front Matter....Pages 231-231
Conclusions....Pages 233-237
Back Matter....Pages 239-251