این صفحه شامل اصطلاحات واژه نامه Google Cloud است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .
آ
تراشه شتاب دهنده
دسته ای از اجزای سخت افزاری تخصصی که برای انجام محاسبات کلیدی مورد نیاز برای الگوریتم های یادگیری عمیق طراحی شده اند.
تراشه های شتاب دهنده (یا فقط شتاب دهنده ها ، به طور خلاصه) می توانند سرعت و کارایی وظایف آموزش و استنتاج را در مقایسه با یک CPU همه منظوره به میزان قابل توجهی افزایش دهند. آنها برای آموزش شبکه های عصبی و کارهای مشابه محاسباتی بسیار ایده آل هستند.
نمونه هایی از تراشه های شتاب دهنده عبارتند از:
- واحدهای پردازش تنسور Google ( TPU ) با سخت افزار اختصاصی برای یادگیری عمیق.
- پردازندههای گرافیکی NVIDIA که اگرچه در ابتدا برای پردازش گرافیکی طراحی شدهاند، برای فعال کردن پردازش موازی طراحی شدهاند که میتواند سرعت پردازش را به میزان قابل توجهی افزایش دهد.
ب
استنتاج دسته ای
فرآیند استنباط پیشبینیها در چندین مثال بدون برچسب که به زیرمجموعههای کوچکتر ("مجموعه") تقسیم میشوند.
استنتاج دسته ای می تواند از ویژگی های موازی سازی تراشه های شتاب دهنده استفاده کند. به این معنا که شتابدهندههای متعدد میتوانند به طور همزمان پیشبینیهایی را بر روی دستههای مختلف نمونههای بدون برچسب استنباط کنند و تعداد استنتاجها را بهطور چشمگیری در هر ثانیه افزایش دهند.
سی
Cloud TPU
یک شتاب دهنده سخت افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud طراحی شده است.
دی
دستگاه
یک اصطلاح پربار با دو تعریف احتمالی زیر:
- دستهای از سختافزار که میتواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
- هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.
اچ
میزبان
هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:
- جریان کلی کد.
- استخراج و تبدیل خط لوله ورودی.
میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.
م
مش
در برنامهنویسی موازی ML، اصطلاحی است که با تخصیص دادهها و مدل به تراشههای TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.
مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:
- طرح فیزیکی تراشه های TPU.
- یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.
در هر صورت، یک مش به عنوان یک شکل مشخص می شود.
اس
تکه شکسته
یک تقسیم منطقی از مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.
به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.
تی
واحد پردازش تانسور (TPU)
یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.
TPU
مخفف واحد پردازش تنسور .
تراشه TPU
یک شتابدهنده جبر خطی قابل برنامهریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.
دستگاه TPU
یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.
استاد TPU
فرآیند هماهنگی مرکزی در حال اجرا بر روی یک ماشین میزبان که داده ها، نتایج، برنامه ها، عملکرد و اطلاعات سلامت سیستم را برای کارکنان TPU ارسال و دریافت می کند. استاد TPU همچنین راه اندازی و خاموش کردن دستگاه های TPU را مدیریت می کند.
گره TPU
یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گرههای TPU منبعی هستند که در Cloud TPU API تعریف شدهاند.
TPU Pod
پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.
منبع TPU
یک موجودیت TPU در Google Cloud که ایجاد، مدیریت یا مصرف میکنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.
برش TPU
یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.
نوع TPU
پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud ایجاد می کنید، نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8
TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048
دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.
کارگر TPU
فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.