این صفحه شامل اصطلاحات واژهنامه گوگل کلود است. برای مشاهده همه اصطلاحات واژهنامه، اینجا کلیک کنید .
الف
تراشه شتابدهنده
دستهای از قطعات سختافزاری تخصصی که برای انجام محاسبات کلیدی مورد نیاز الگوریتمهای یادگیری عمیق طراحی شدهاند.
تراشههای شتابدهنده (یا به اختصار شتابدهندهها ) میتوانند سرعت و کارایی وظایف آموزش و استنتاج را در مقایسه با یک پردازندهی مرکزی همه منظوره به طور قابل توجهی افزایش دهند. آنها برای آموزش شبکههای عصبی و وظایف محاسباتی مشابه ایدهآل هستند.
نمونههایی از تراشههای شتابدهنده عبارتند از:
- واحدهای پردازش تنسور ( TPU ) گوگل با سختافزار اختصاصی برای یادگیری عمیق.
- پردازندههای گرافیکی انویدیا که اگرچه در ابتدا برای پردازش گرافیکی طراحی شده بودند، اما برای پردازش موازی نیز طراحی شدهاند که میتواند سرعت پردازش را به میزان قابل توجهی افزایش دهد.
ب
استنتاج دستهای
فرآیند استنباط پیشبینیها روی چندین مثال بدون برچسب که به زیرمجموعههای کوچکتر ("دستهها") تقسیم شدهاند.
استنتاج دستهای میتواند از ویژگیهای موازیسازی تراشههای شتابدهنده بهره ببرد. یعنی، چندین شتابدهنده میتوانند بهطور همزمان پیشبینیهایی را روی دستههای مختلف از نمونههای بدون برچسب استنتاج کنند و تعداد استنتاجها در ثانیه را بهطور چشمگیری افزایش دهند.
برای اطلاعات بیشتر به بخش «سیستمهای یادگیری ماشین تولیدی: استنتاج ایستا در مقابل استنتاج پویا» در دوره فشرده یادگیری ماشین مراجعه کنید.
سی
TPU ابری
یک شتابدهنده سختافزاری تخصصی که برای سرعت بخشیدن به حجم کار یادگیری ماشین در Google Cloud طراحی شده است.
دی
دستگاه
یک اصطلاح سربارگذاری شده با دو تعریف ممکن زیر:
- دستهای از سختافزارها که میتوانند یک جلسه TensorFlow را اجرا کنند، شامل CPUها، GPUها و TPUها .
- هنگام آموزش یک مدل یادگیری ماشین روی تراشههای شتابدهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازیها را دستکاری میکند. دستگاه روی تراشههای شتابدهنده اجرا میشود. در مقابل، میزبان معمولاً روی یک CPU اجرا میشود.
ح
میزبان
هنگام آموزش یک مدل یادگیری ماشین روی تراشههای شتابدهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل میکند:
- جریان کلی کد.
- استخراج و تبدیل خط لوله ورودی.
میزبان معمولاً روی یک CPU اجرا میشود، نه روی یک تراشه شتابدهنده؛ دستگاه، تانسورها را روی تراشههای شتابدهنده دستکاری میکند.
م
مش
در برنامهنویسی موازی یادگیری ماشین، اصطلاحی مرتبط با اختصاص دادهها و مدل به تراشههای TPU و تعریف نحوه تقسیمبندی یا تکثیر این مقادیر.
مش یک اصطلاح اضافه بار است که میتواند به یکی از معانی زیر باشد:
- طرح فیزیکی تراشههای TPU.
- یک ساختار منطقی انتزاعی برای نگاشت دادهها و مدل به تراشههای TPU.
در هر دو حالت، یک مش به صورت یک شکل مشخص میشود.
س
خرده شیشه
تقسیم منطقی مجموعه آموزشی یا مدل . معمولاً، برخی فرآیندها با تقسیم مثالها یا پارامترها به تکههای (معمولاً) مساوی، قطعات (shard) ایجاد میکنند. سپس هر قطعه به یک ماشین متفاوت اختصاص داده میشود.
تقسیمبندی یک مدل، موازیسازی مدل و تقسیمبندی دادهها، موازیسازی دادهها نامیده میشود.
تی
واحد پردازش تنسور (TPU)
یک مدار مجتمع با کاربرد خاص (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه میکند. این ASICها به صورت چندین تراشه TPU روی یک دستگاه TPU مستقر میشوند.
تی پی یو
مخفف واحد پردازش تنسور .
تراشه TPU
یک شتابدهنده جبر خطی قابل برنامهریزی با حافظه پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چندین تراشه TPU روی یک دستگاه TPU مستقر شدهاند.
دستگاه TPU
یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابطهای شبکه با پهنای باند بالا و سختافزار خنککننده سیستم.
گره TPU
یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل میشود. گرههای TPU منبعی هستند که در API Cloud TPU تعریف شدهاند.
غلاف TPU
پیکربندی خاصی از دستگاههای TPU در یک مرکز داده گوگل. تمام دستگاههای موجود در یک TPU Pod از طریق یک شبکه پرسرعت اختصاصی به یکدیگر متصل هستند. یک TPU Pod بزرگترین پیکربندی دستگاههای TPU موجود برای یک نسخه خاص TPU است.
منبع TPU
یک موجودیت TPU در Google Cloud که شما ایجاد، مدیریت یا مصرف میکنید. برای مثال، گرههای TPU و انواع TPU ، منابع TPU هستند.
برش TPU
یک برش TPU بخش کسری از دستگاههای TPU در یک TPU Pod است. تمام دستگاههای موجود در یک برش TPU از طریق یک شبکه پرسرعت اختصاصی به یکدیگر متصل هستند.
نوع TPU
پیکربندی یک یا چند دستگاه TPU با یک نسخه سختافزاری TPU خاص. شما هنگام ایجاد یک گره TPU در Google Cloud، یک نوع TPU را انتخاب میکنید. به عنوان مثال، یک نوع TPU نسخه v2-8 یک دستگاه TPU نسخه 2 با 8 هسته است. یک نوع TPU نسخه v3-2048 دارای 256 دستگاه TPU نسخه 3 شبکهای و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شدهاند.
کارگر TPU
فرآیندی که روی یک ماشین میزبان اجرا میشود و برنامههای یادگیری ماشین را روی دستگاههای TPU اجرا میکند.