مسرد مصطلحات تعلُّم الآلة: Google Cloud

تحتوي هذه الصفحة على مصطلحات مسرد مصطلحات Google Cloud. للاطّلاع على جميع مصطلحات المسرد، يُرجى النقر هنا.

A

شريحة تسريع

#GoogleCloud

فئة من مكوّنات الأجهزة المتخصّصة المصمَّمة لإجراء العمليات الحسابية الأساسية اللازمة لخوارزميات التعلّم العميق

يمكن أن تؤدي شرائح المعالجة السريعة (أو المعالجات السريعة باختصار) إلى زيادة سرعة وكفاءة مهام التدريب والاستدلال بشكل كبير مقارنةً بوحدة المعالجة المركزية للأغراض العامة. وهي مثالية لتدريب الشبكات العصبية والمهام المشابهة التي تتطلب قدرة حاسوبية عالية.

تشمل أمثلة شرائح المعالجة السريعة ما يلي:

  • وحدات معالجة الموتّرات (TPU) من Google مع أجهزة مخصّصة للتعليم المعمّق
  • وحدات معالجة الرسومات من NVIDIA، والتي تم تصميمها في البداية لمعالجة الرسومات، تم تصميمها لتمكين المعالجة المتوازية، ما يمكن أن يؤدي إلى زيادة كبيرة في سرعة المعالجة.

B

الاستنتاج المجمّع

#GoogleCloud

عملية استنتاج التوقعات بشأن عدة أمثلة غير مصنّفة مقسّمة إلى مجموعات فرعية أصغر ("دفعات").

يمكن أن تستفيد الاستنتاجات المجمّعة من ميزات التوازي في شرائح الأجهزة المسرّعة. أي أنّ العديد من أدوات التسريع يمكنها في الوقت نفسه استنتاج التوقعات بشأن مجموعات مختلفة من الأمثلة غير المصنّفة، ما يؤدي إلى زيادة كبيرة في عدد الاستنتاجات في الثانية.

يمكنك الاطّلاع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: الاستنتاج الثابت مقابل الاستنتاج الديناميكي في "دورة تدريبية مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

C

Cloud TPU

#TensorFlow
#GoogleCloud

أداة تسريع أجهزة متخصّصة مصمّمة لتسريع مهام تعلُّم الآلة على Google Cloud

D

جهاز

#TensorFlow
#GoogleCloud

مصطلح مثقل بالمعاني يتضمّن التعريفَين المحتملَين التاليَين:

  1. فئة من الأجهزة يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) ووحدات معالجة الموتّرات (TPU).
  2. عند تدريب نموذج تعلُّم آلي على شرائح تسريع (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، يكون هذا الجزء من النظام هو المسؤول عن معالجة الموتّرات وعمليات التضمين. يعمل الجهاز باستخدام شرائح تسريع. في المقابل، يعمل المضيف عادةً على وحدة معالجة مركزية.

H

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم آلي على شرائح تسريع (وحدات معالجة الرسومات أو وحدات معالجة Tensor)، يكون الجزء من النظام الذي يتحكّم في كلّ مما يلي:

  • تمثّل هذه السمة التدفق العام للرمز.
  • استخراج بيانات مسار الإدخال وتحويلها

يعمل المضيف عادةً على وحدة معالجة مركزية (CPU)، وليس على شريحة تسريع، بينما يعالج الجهاز الموترات على شرائح التسريع.

M

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة المتوازية لتعلُّم الآلة، يشير هذا المصطلح إلى عملية ربط البيانات والنموذج بشرائح TPU، وتحديد طريقة تقسيم هذه القيم أو تكرارها.

"الشبكة" مصطلح عام يمكن أن يشير إلى أيّ مما يلي:

  • تخطيط فعلي لشرائح TPU
  • بنية منطقية مجرّدة لربط البيانات والنموذج بشرائح TPU.

في كلتا الحالتين، يتم تحديد الشبكة على أنّها شكل.

S

شظية

#TensorFlow
#GoogleCloud

تقسيم منطقي لمجموعة التدريب أو النموذج عادةً، تنشئ بعض العمليات أجزاءً من خلال تقسيم الأمثلة أو المَعلمات إلى أجزاء متساوية الحجم (عادةً). بعد ذلك، يتمّ تعيين كل جزء إلى جهاز مختلف.

يُطلق على تقسيم النموذج اسم التوازي على مستوى النموذج، بينما يُطلق على تقسيم البيانات اسم التوازي على مستوى البيانات.

T

وحدة معالجة الموتّرات (TPU)

#TensorFlow
#GoogleCloud

شريحة مُدمَجة خاصة بالتطبيقات (ASIC) تعمل على تحسين أداء مهام معالجة تعلُّم الآلة. يتم نشر هذه الدوائر المتكاملة الخاصة بالتطبيقات على شكل شرائح TPU متعددة على جهاز TPU.

TPU

#TensorFlow
#GoogleCloud

اختصار وحدة معالجة الموتّرات

شريحة TPU

#TensorFlow
#GoogleCloud

هي أداة تسريع قابلة للبرمجة خاصة بالجبر الخطي، وتتضمّن ذاكرة عالية النطاق الترددي على الشريحة، وهي محسّنة لتناسب مهام معالجة تعلُّم الآلة. يتم نشر شرائح متعددة من وحدات معالجة الموتّرات على جهاز TPU.

جهاز TPU

#TensorFlow
#GoogleCloud

لوحة دوائر مطبوعة (PCB) تحتوي على عدة شرائح TPU، وواجهات شبكة ذات نطاق ترددي عالٍ، وأجهزة تبريد النظام.

عقدة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

مورد لوحدة معالجة الموتّرات على Google Cloud بنوع وحدة معالجة موتّرات محدّد. تتصل عقدة TPU بشبكة VPC من شبكة VPC نظيرة. عُقد TPU هي موارد محدّدة في Cloud TPU API.

حزمة TPU

#TensorFlow
#GoogleCloud

هي إعدادات محدّدة لأجهزة TPU في أحد مراكز بيانات Google. تكون جميع الأجهزة في وحدة TPU Pod متصلة ببعضها البعض عبر شبكة مخصّصة عالية السرعة. ‫TPU Pod هي أكبر عملية إعداد لأجهزة TPU متاحة لإصدار معيّن من TPU.

مورد TPU

#TensorFlow
#GoogleCloud

كيان لوحدة معالجة الموتّرات على Google Cloud يمكنك إنشاؤه أو إدارته أو استخدامه. على سبيل المثال، عُقد وحدات معالجة الموتّرات وأنواع وحدات معالجة الموتّرات هي موارد لوحدات معالجة الموتّرات.

شريحة TPU

#TensorFlow
#GoogleCloud

شريحة وحدة معالجة الموتّرات (TPU) هي جزء كسري من أجهزة TPU في حزمة TPU. يتم ربط جميع الأجهزة في شريحة وحدة معالجة الموتّرات (TPU) ببعضها البعض عبر شبكة مخصّصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير إلى إعداد جهاز واحد أو أكثر من أجهزة TPU مع إصدار محدّد من أجهزة TPU. يمكنك اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة وحدة معالجة الموتّرات على Google Cloud. على سبيل المثال، v2-8نوع وحدة معالجة الموتّرات هو جهاز TPU v2 واحد مزوّد بـ 8 نوى. يحتوي v3-2048 نوع وحدة معالجة الموتّرات (TPU) على 256 جهاز TPU v3 متصل بشبكة و2048 نواة إجمالاً. أنواع وحدات معالجة الموتّرات هي موارد محدّدة في Cloud TPU API.

عامل TPU

#TensorFlow
#GoogleCloud

هي عملية يتم تنفيذها على جهاز مضيف وتنفّذ برامج تعلُّم الآلة على أجهزة TPU.

V

الذروة

#GoogleCloud
#generativeAI
منصة Google Cloud للذكاء الاصطناعي وتعلُّم الآلة توفّر Vertex أدوات وبنية أساسية لإنشاء تطبيقات الذكاء الاصطناعي ونشرها وإدارتها، بما في ذلك إمكانية الوصول إلى نماذج Gemini.