واژه نامه یادگیری ماشینی: Google Cloud

این صفحه شامل اصطلاحات واژه نامه Google Cloud است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .

آ

تراشه شتاب دهنده

‎#GoogleCloud

دسته ای از اجزای سخت افزاری تخصصی که برای انجام محاسبات کلیدی مورد نیاز برای الگوریتم های یادگیری عمیق طراحی شده اند.

تراشه های شتاب دهنده (یا فقط شتاب دهنده ها ، به طور خلاصه) می توانند سرعت و کارایی وظایف آموزش و استنتاج را در مقایسه با یک CPU همه منظوره به میزان قابل توجهی افزایش دهند. آنها برای آموزش شبکه های عصبی و کارهای مشابه محاسباتی بسیار ایده آل هستند.

نمونه هایی از تراشه های شتاب دهنده عبارتند از:

  • واحدهای پردازش تنسور Google ( TPU ) با سخت افزار اختصاصی برای یادگیری عمیق.
  • پردازنده‌های گرافیکی NVIDIA که اگرچه در ابتدا برای پردازش گرافیکی طراحی شده‌اند، برای فعال کردن پردازش موازی طراحی شده‌اند که می‌تواند سرعت پردازش را به میزان قابل توجهی افزایش دهد.

ب

استنتاج دسته ای

#TensorFlow
‎#GoogleCloud

فرآیند استنباط پیش‌بینی‌ها در چندین مثال بدون برچسب که به زیرمجموعه‌های کوچک‌تر ("مجموعه") تقسیم می‌شوند.

استنتاج دسته ای می تواند از ویژگی های موازی سازی تراشه های شتاب دهنده استفاده کند. به این معنا که شتاب‌دهنده‌های متعدد می‌توانند به طور همزمان پیش‌بینی‌هایی را بر روی دسته‌های مختلف نمونه‌های بدون برچسب استنباط کنند و تعداد استنتاج‌ها را به‌طور چشمگیری در هر ثانیه افزایش دهند.

سی

Cloud TPU

#TensorFlow
‎#GoogleCloud

یک شتاب دهنده سخت افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud طراحی شده است.

دی

دستگاه

#TensorFlow
‎#GoogleCloud

یک اصطلاح پربار با دو تعریف احتمالی زیر:

  1. دسته‌ای از سخت‌افزار که می‌تواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
  2. هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.

اچ

میزبان

#TensorFlow
‎#GoogleCloud

هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:

  • جریان کلی کد.
  • استخراج و تبدیل خط لوله ورودی.

میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.

م

مش

#TensorFlow
‎#GoogleCloud

در برنامه‌نویسی موازی ML، اصطلاحی است که با تخصیص داده‌ها و مدل به تراشه‌های TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.

مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:

  • طرح فیزیکی تراشه های TPU.
  • یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.

در هر صورت، یک مش به عنوان یک شکل مشخص می شود.

اس

تکه شکسته

#TensorFlow
‎#GoogleCloud

یک تقسیم منطقی از مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.

به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.

تی

واحد پردازش تانسور (TPU)

#TensorFlow
‎#GoogleCloud

یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.

TPU

#TensorFlow
‎#GoogleCloud

مخفف واحد پردازش تنسور .

تراشه TPU

#TensorFlow
‎#GoogleCloud

یک شتاب‌دهنده جبر خطی قابل برنامه‌ریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.

دستگاه TPU

#TensorFlow
‎#GoogleCloud

یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.

استاد TPU

#TensorFlow
‎#GoogleCloud

فرآیند هماهنگی مرکزی در حال اجرا بر روی یک ماشین میزبان که داده ها، نتایج، برنامه ها، عملکرد و اطلاعات سلامت سیستم را برای کارکنان TPU ارسال و دریافت می کند. استاد TPU همچنین راه اندازی و خاموش کردن دستگاه های TPU را مدیریت می کند.

گره TPU

#TensorFlow
‎#GoogleCloud

یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گره‌های TPU منبعی هستند که در Cloud TPU API تعریف شده‌اند.

TPU Pod

#TensorFlow
‎#GoogleCloud

پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.

منبع TPU

#TensorFlow
‎#GoogleCloud

یک موجودیت TPU در Google Cloud که ایجاد، مدیریت یا مصرف می‌کنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.

برش TPU

#TensorFlow
‎#GoogleCloud

یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.

نوع TPU

#TensorFlow
‎#GoogleCloud

پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud ایجاد می کنید، نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8 TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048 دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.

کارگر TPU

#TensorFlow
‎#GoogleCloud

فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.