این صفحه شامل اصطلاحات واژه نامه TensorFlow است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .
ب
استنتاج دسته ای
فرآیند استنباط پیشبینیها در چندین مثال بدون برچسب که به زیرمجموعههای کوچکتر ("مجموعه") تقسیم میشوند.
استنتاج دسته ای می تواند از ویژگی های موازی سازی تراشه های شتاب دهنده استفاده کند. به این معنا که شتابدهندههای متعدد میتوانند به طور همزمان پیشبینیهایی را بر روی دستههای مختلف نمونههای بدون برچسب استنباط کنند و تعداد استنتاجها را بهطور چشمگیری در هر ثانیه افزایش دهند.
سی
Cloud TPU
یک شتاب دهنده سخت افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud طراحی شده است.
دی
API مجموعه داده (tf.data)
یک API سطح بالا TensorFlow برای خواندن داده ها و تبدیل آن به شکلی که الگوریتم یادگیری ماشینی به آن نیاز دارد. یک شی tf.data.Dataset
نشان دهنده دنباله ای از عناصر است که در آن هر عنصر حاوی یک یا چند تانسور است. یک شی tf.data.Iterator
دسترسی به عناصر یک Dataset
را فراهم می کند.
برای جزئیات بیشتر در مورد Dataset API، به tf.data مراجعه کنید: خطوط لوله ورودی TensorFlow را در راهنمای برنامه نویس TensorFlow ایجاد کنید.
دستگاه
یک اصطلاح پربار با دو تعریف احتمالی زیر:
- دستهای از سختافزار که میتواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
- هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.
E
اعدام مشتاقانه
یک محیط برنامه نویسی TensorFlow که در آن عملیات بلافاصله اجرا می شود. در مقابل، عملیاتی که در اجرای گراف نامیده می شوند، تا زمانی که صریحاً ارزیابی نشوند، اجرا نمی شوند. اجرای مشتاق یک رابط ضروری است، بسیار شبیه کد در اکثر زبان های برنامه نویسی. برنامه های اجرایی مشتاق عموماً به مراتب راحت تر از برنامه های اجرای گراف اشکال زدایی می شوند.
برآوردگر
یک API منسوخ TensorFlow. به جای Estimators از tf.keras استفاده کنید.
اف
مهندسی ویژگی
فرآیندی که شامل مراحل زیر است:
- تعیین اینکه کدام ویژگی ممکن است در آموزش یک مدل مفید باشد.
- تبدیل داده های خام از مجموعه داده به نسخه های کارآمد آن ویژگی ها.
برای مثال، ممکن است تعیین کنید که temperature
ممکن است یک ویژگی مفید باشد. سپس، میتوانید با سطلسازی آزمایش کنید تا آنچه را که مدل میتواند از محدودههای temperature
مختلف بیاموزد، بهینه کنید.
مهندسی ویژگی گاهی اوقات استخراج ویژگی یا ویژگی نامیده می شود.
مشخصات ویژگی
اطلاعات مورد نیاز برای استخراج داده های ویژگی ها از بافر پروتکل tf.Example را شرح می دهد. از آنجایی که بافر پروتکل tf.Example فقط یک محفظه برای داده است، باید موارد زیر را مشخص کنید:
- داده هایی که باید استخراج شوند (یعنی کلیدهای ویژگی ها)
- نوع داده (مثلاً float یا int)
- طول (ثابت یا متغیر)
جی
نمودار
در TensorFlow، یک مشخصات محاسباتی. گره ها در نمودار نشان دهنده عملیات هستند. یال ها جهت داده می شوند و انتقال نتیجه یک عملیات ( تنسور ) را به عنوان عملوند به عملیات دیگر نشان می دهند. از TensorBoard برای تجسم نمودار استفاده کنید.
اجرای گراف
یک محیط برنامه نویسی TensorFlow که در آن برنامه ابتدا یک نمودار می سازد و سپس تمام یا بخشی از آن گراف را اجرا می کند. اجرای نمودار حالت اجرای پیش فرض در TensorFlow 1.x است.
در مقابل اجرای مشتاقانه .
اچ
میزبان
هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:
- جریان کلی کد.
- استخراج و تبدیل خط لوله ورودی.
میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.
L
Layers API (tf.layers)
API TensorFlow برای ساخت یک شبکه عصبی عمیق به عنوان ترکیبی از لایهها. Layers API به شما امکان می دهد انواع مختلفی از لایه ها را بسازید، مانند:
-
tf.layers.Dense
برای یک لایه کاملا متصل . -
tf.layers.Conv2D
برای یک لایه کانولوشن.
Layers API از قراردادهای Keras لایه های API پیروی می کند. یعنی جدا از پیشوند متفاوت، همه توابع در لایههای API دارای نامها و امضاهای مشابه با همتایان خود در Keras لایههای API هستند.
م
مش
در برنامهنویسی موازی ML، اصطلاحی است که با تخصیص دادهها و مدل به تراشههای TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.
مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:
- طرح فیزیکی تراشه های TPU.
- یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.
در هر صورت، یک مش به عنوان یک شکل مشخص می شود.
متریک
آماری که شما به آن اهمیت می دهید.
هدف معیاری است که یک سیستم یادگیری ماشینی سعی در بهینه سازی آن دارد.
ن
گره (گراف TensorFlow)
عملیات در نمودار TensorFlow.
O
عملیات (عملیات)
در TensorFlow، هر رویهای که یک Tensor را ایجاد، دستکاری یا از بین میبرد. به عنوان مثال، ضرب ماتریس عملیاتی است که دو تانسور را به عنوان ورودی می گیرد و یک تانسور را به عنوان خروجی تولید می کند.
پ
سرور پارامتر (PS)
کاری که پارامترهای مدل را در یک محیط توزیع شده پیگیری می کند.
س
صف
یک عملیات TensorFlow که یک ساختار داده صف را پیاده سازی می کند. معمولاً در I/O استفاده می شود.
آر
رتبه (تنسور)
تعداد ابعاد در یک تانسور . به عنوان مثال، یک اسکالر دارای رتبه 0، یک بردار دارای رتبه 1، و یک ماتریس دارای رتبه 2 است.
با رتبه (ترتیب) اشتباه نشود.
دایرکتوری ریشه
دایرکتوری که برای میزبانی زیرشاخه های پست بازرسی TensorFlow و فایل های رویدادهای چند مدل مشخص می کنید.
اس
SavedModel
فرمت توصیه شده برای ذخیره و بازیابی مدل های TensorFlow. SavedModel یک فرمت سریالسازی با زبان خنثی و قابل بازیابی است که سیستمها و ابزارهای سطح بالاتر را قادر میسازد تا مدلهای TensorFlow را تولید، مصرف و تغییر دهند.
برای جزئیات کامل به بخش ذخیره و بازیابی در راهنمای برنامه نویس TensorFlow مراجعه کنید.
پس انداز
یک شی TensorFlow که مسئول ذخیره نقاط بازرسی مدل است.
تکه شکسته
تقسیم منطقی مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.
به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.
خلاصه
در TensorFlow، یک مقدار یا مجموعه ای از مقادیر محاسبه شده در یک مرحله خاص، معمولا برای ردیابی معیارهای مدل در طول آموزش استفاده می شود.
تی
تانسور
ساختار داده اولیه در برنامه های TensorFlow. تانسورها ساختارهای دادهای N بعدی هستند (که N میتواند بسیار بزرگ باشد)، معمولاً اسکالرها، بردارها یا ماتریسها. عناصر یک تانسور می توانند مقادیر صحیح، ممیز شناور یا رشته ای را نگه دارند.
TensorBoard
داشبوردی که خلاصه های ذخیره شده در طول اجرای یک یا چند برنامه TensorFlow را نمایش می دهد.
TensorFlow
یک پلت فرم یادگیری ماشینی در مقیاس بزرگ، توزیع شده. این اصطلاح همچنین به لایه پایه API در پشته TensorFlow اشاره دارد که از محاسبات عمومی بر روی نمودارهای جریان داده پشتیبانی می کند.
اگرچه TensorFlow در درجه اول برای یادگیری ماشین استفاده می شود، شما همچنین می توانید از TensorFlow برای کارهای غیر ML استفاده کنید که نیاز به محاسبه عددی با استفاده از نمودارهای جریان داده دارند.
زمین بازی تنسورفلو
برنامه ای که چگونگی تأثیر فراپارامترهای مختلف بر آموزش مدل (عمدتاً شبکه عصبی) را به تصویر می کشد. برای آزمایش TensorFlow Playground به http://playground.tensorflow.org بروید.
سرویس TensorFlow
بستری برای استقرار مدل های آموزش دیده در تولید.
واحد پردازش تانسور (TPU)
یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.
رتبه تانسور
رجوع به رتبه (تنسور) شود.
شکل تانسور
تعداد عناصر موجود در یک تانسور در ابعاد مختلف. به عنوان مثال، یک تانسور [5, 10]
دارای شکل 5 در یک بعد و 10 در بعد دیگر است.
اندازه تانسور
تعداد کل اسکالرهایی که یک تانسور دارد. به عنوان مثال، یک تانسور [5, 10]
دارای اندازه 50 است.
tf. مثال
یک بافر پروتکل استاندارد برای توصیف داده های ورودی برای آموزش یا استنتاج مدل یادگیری ماشین.
tf.keras
اجرای Keras که در TensorFlow ادغام شده است.
TPU
مخفف واحد پردازش تنسور .
تراشه TPU
یک شتابدهنده جبر خطی قابل برنامهریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.
دستگاه TPU
یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.
استاد TPU
فرآیند هماهنگی مرکزی در حال اجرا بر روی یک ماشین میزبان که داده ها، نتایج، برنامه ها، عملکرد و اطلاعات سلامت سیستم را برای کارکنان TPU ارسال و دریافت می کند. استاد TPU همچنین راه اندازی و خاموش کردن دستگاه های TPU را مدیریت می کند.
گره TPU
یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گرههای TPU منبعی هستند که در Cloud TPU API تعریف شدهاند.
TPU Pod
پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.
منبع TPU
یک موجودیت TPU در Google Cloud که ایجاد، مدیریت یا مصرف میکنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.
برش TPU
یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.
نوع TPU
پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud ایجاد می کنید، نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8
TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048
دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.
کارگر TPU
فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.