Глоссарий машинного обучения: Google Cloud

Эта страница содержит термины глоссария Google Cloud. Чтобы ознакомиться со всеми терминами глоссария, нажмите здесь .

А

чип-ускоритель

#GoogleCloud

Категория специализированных аппаратных компонентов, предназначенных для выполнения ключевых вычислений, необходимых для алгоритмов глубокого обучения.

Микросхемы-ускорители (или просто ускорители ) могут значительно повысить скорость и эффективность задач обучения и вывода по сравнению с универсальными центральными процессорами. Они идеально подходят для обучения нейронных сетей и решения аналогичных ресурсоёмких задач.

Примеры микросхем-ускорителей включают в себя:

  • Тензорные процессоры Google ( TPU ) со специализированным оборудованием для глубокого обучения.
  • Графические процессоры NVIDIA, изначально разработанные для обработки графики, также способны поддерживать параллельную обработку, что позволяет значительно увеличить скорость обработки.

Б

пакетный вывод

#GoogleCloud

Процесс выведения прогнозов на основе нескольких непомеченных примеров, разделенных на меньшие подмножества («партии»).

Пакетный вывод может использовать возможности распараллеливания чипов-ускорителей . То есть, несколько ускорителей могут одновременно делать прогнозы на основе разных партий немаркированных примеров, значительно увеличивая количество выводов в секунду.

Для получения дополнительной информации см. раздел Производственные системы машинного обучения: статический и динамический вывод в ускоренном курсе по машинному обучению.

С

Облачный ТПУ

#TensorFlow
#GoogleCloud

Специализированный аппаратный ускоритель, предназначенный для ускорения рабочих нагрузок машинного обучения в Google Cloud.

Д

устройство

#TensorFlow
#GoogleCloud

Перегруженный термин, имеющий следующие два возможных определения:

  1. Категория оборудования, на котором может запускаться сеанс TensorFlow, включая центральные процессоры, графические процессоры и TPU .
  2. При обучении модели машинного обучения на ускорителях (GPU или TPU) часть системы, которая фактически обрабатывает тензоры и вложения . Устройство работает на ускорителях. В отличие от этого, хост обычно работает на центральном процессоре.

ЧАС

хозяин

#TensorFlow
#GoogleCloud

При обучении модели МО на ускорительных чипах (графических процессорах или TPU ) часть системы, которая контролирует оба следующих параметра:

  • Общий поток кода.
  • Извлечение и преобразование входного трубопровода.

Хост обычно работает на центральном процессоре, а не на чипе ускорителя; устройство манипулирует тензорами на чипах ускорителя.

М

сетка

#TensorFlow
#GoogleCloud

В параллельном программировании ML термин, связанный с назначением данных и модели чипам TPU и определением того, как эти значения будут сегментироваться или реплицироваться.

Сетка — это перегруженный термин, который может означать одно из следующего:

  • Физическая компоновка чипов TPU.
  • Абстрактная логическая конструкция для отображения данных и модели на чипах TPU.

В любом случае сетка задается как форма .

С

осколок

#TensorFlow
#GoogleCloud

Логическое разделение обучающего набора или модели . Как правило, какой-либо процесс создаёт шарды, разделяя примеры или параметры на (обычно) равные по размеру фрагменты. Каждый шард затем назначается отдельной машине.

Разделение модели называется параллелизмом модели ; разделение данных называется параллелизмом данных .

Т

Блок тензорной обработки (TPU)

#TensorFlow
#GoogleCloud

Специализированная интегральная схема (ASIC), оптимизирующая производительность задач машинного обучения. Эти ASIC-схемы представляют собой несколько микросхем TPU на одном устройстве TPU .

ТПУ

#TensorFlow
#GoogleCloud

Аббревиатура для тензорного процессора .

чип ТПУ

#TensorFlow
#GoogleCloud

Программируемый ускоритель линейной алгебры со встроенной памятью с высокой пропускной способностью, оптимизированный для задач машинного обучения. На одном устройстве TPU размещено несколько микросхем TPU.

устройство ТПУ

#TensorFlow
#GoogleCloud

Печатная плата (PCB) с несколькими чипами TPU , сетевыми интерфейсами с высокой пропускной способностью и охлаждающим оборудованием системы.

узел ТПУ

#TensorFlow
#GoogleCloud

Ресурс TPU в Google Cloud с определённым типом TPU . Узел TPU подключается к вашей сети VPC из одноранговой сети VPC . Узлы TPU — это ресурс, определённый в API Cloud TPU .

TPU Pod

#TensorFlow
#GoogleCloud

Конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU соединены друг с другом через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU, доступная для конкретной версии TPU.

Ресурс ТПУ

#TensorFlow
#GoogleCloud

Сущность TPU в Google Cloud, которую вы создаёте, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.

ломтик ТПУ

#TensorFlow
#GoogleCloud

Слайс TPU — это часть устройств TPU в модуле TPU . Все устройства в слайсе TPU подключены друг к другу через выделенную высокоскоростную сеть.

Тип ТПУ

#TensorFlow
#GoogleCloud

Конфигурация из одного или нескольких устройств TPU с определённой версией оборудования TPU. Тип TPU выбирается при создании узла TPU в Google Cloud. Например, тип TPU v2-8 — это одно устройство TPU v2 с 8 ядрами. Тип TPU v3-2048 включает 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурс, определённый в API Cloud TPU .

работник ТПУ

#TensorFlow
#GoogleCloud

Процесс, который выполняется на хост-машине и выполняет программы машинного обучения на устройствах TPU .

В

Вершина

#GoogleCloud
#generativeAI
Платформа Google Cloud для искусственного интеллекта и машинного обучения. Vertex предоставляет инструменты и инфраструктуру для создания, развертывания и управления приложениями искусственного интеллекта, включая доступ к моделям Gemini .