Эта страница содержит термины глоссария Google Cloud. Чтобы ознакомиться со всеми терминами глоссария, нажмите здесь .
А
чип-ускоритель
Категория специализированных аппаратных компонентов, предназначенных для выполнения ключевых вычислений, необходимых для алгоритмов глубокого обучения.
Микросхемы-ускорители (или просто ускорители ) могут значительно повысить скорость и эффективность задач обучения и вывода по сравнению с универсальными центральными процессорами. Они идеально подходят для обучения нейронных сетей и решения аналогичных ресурсоёмких задач.
Примеры микросхем-ускорителей включают в себя:
- Тензорные процессоры Google ( TPU ) со специализированным оборудованием для глубокого обучения.
- Графические процессоры NVIDIA, изначально разработанные для обработки графики, также способны поддерживать параллельную обработку, что позволяет значительно увеличить скорость обработки.
Б
пакетный вывод
Процесс выведения прогнозов на основе нескольких непомеченных примеров, разделенных на меньшие подмножества («партии»).
Пакетный вывод может использовать возможности распараллеливания чипов-ускорителей . То есть, несколько ускорителей могут одновременно делать прогнозы на основе разных партий немаркированных примеров, значительно увеличивая количество выводов в секунду.
Для получения дополнительной информации см. раздел Производственные системы машинного обучения: статический и динамический вывод в ускоренном курсе по машинному обучению.
С
Облачный ТПУ
Специализированный аппаратный ускоритель, предназначенный для ускорения рабочих нагрузок машинного обучения в Google Cloud.
Д
устройство
Перегруженный термин, имеющий следующие два возможных определения:
- Категория оборудования, на котором может запускаться сеанс TensorFlow, включая центральные процессоры, графические процессоры и TPU .
- При обучении модели машинного обучения на ускорителях (GPU или TPU) часть системы, которая фактически обрабатывает тензоры и вложения . Устройство работает на ускорителях. В отличие от этого, хост обычно работает на центральном процессоре.
ЧАС
хозяин
При обучении модели МО на ускорительных чипах (графических процессорах или TPU ) часть системы, которая контролирует оба следующих параметра:
- Общий поток кода.
- Извлечение и преобразование входного трубопровода.
Хост обычно работает на центральном процессоре, а не на чипе ускорителя; устройство манипулирует тензорами на чипах ускорителя.
М
сетка
В параллельном программировании ML термин, связанный с назначением данных и модели чипам TPU и определением того, как эти значения будут сегментироваться или реплицироваться.
Сетка — это перегруженный термин, который может означать одно из следующего:
- Физическая компоновка чипов TPU.
- Абстрактная логическая конструкция для отображения данных и модели на чипах TPU.
В любом случае сетка задается как форма .
С
осколок
Логическое разделение обучающего набора или модели . Как правило, какой-либо процесс создаёт шарды, разделяя примеры или параметры на (обычно) равные по размеру фрагменты. Каждый шард затем назначается отдельной машине.
Разделение модели называется параллелизмом модели ; разделение данных называется параллелизмом данных .
Т
Блок тензорной обработки (TPU)
Специализированная интегральная схема (ASIC), оптимизирующая производительность задач машинного обучения. Эти ASIC-схемы представляют собой несколько микросхем TPU на одном устройстве TPU .
ТПУ
Аббревиатура для тензорного процессора .
чип ТПУ
Программируемый ускоритель линейной алгебры со встроенной памятью с высокой пропускной способностью, оптимизированный для задач машинного обучения. На одном устройстве TPU размещено несколько микросхем TPU.
устройство ТПУ
Печатная плата (PCB) с несколькими чипами TPU , сетевыми интерфейсами с высокой пропускной способностью и охлаждающим оборудованием системы.
узел ТПУ
Ресурс TPU в Google Cloud с определённым типом TPU . Узел TPU подключается к вашей сети VPC из одноранговой сети VPC . Узлы TPU — это ресурс, определённый в API Cloud TPU .
TPU Pod
Конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU соединены друг с другом через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU, доступная для конкретной версии TPU.
Ресурс ТПУ
Сущность TPU в Google Cloud, которую вы создаёте, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.
ломтик ТПУ
Слайс TPU — это часть устройств TPU в модуле TPU . Все устройства в слайсе TPU подключены друг к другу через выделенную высокоскоростную сеть.
Тип ТПУ
Конфигурация из одного или нескольких устройств TPU с определённой версией оборудования TPU. Тип TPU выбирается при создании узла TPU в Google Cloud. Например, тип TPU v2-8
— это одно устройство TPU v2 с 8 ядрами. Тип TPU v3-2048
включает 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурс, определённый в API Cloud TPU .
работник ТПУ
Процесс, который выполняется на хост-машине и выполняет программы машинного обучения на устройствах TPU .