Глоссарий машинного обучения: TensorFlow

Эта страница содержит термины глоссария TensorFlow. Чтобы ознакомиться со всеми терминами глоссария, нажмите здесь .

С

Облачный ТПУ

#TensorFlow
#GoogleCloud

Специализированный аппаратный ускоритель, предназначенный для ускорения рабочих нагрузок машинного обучения в Google Cloud.

Д

API набора данных (tf.data)

#TensorFlow

Высокоуровневый API TensorFlow для чтения данных и преобразования их в форму, необходимую алгоритму машинного обучения. Объект tf.data.Dataset представляет собой последовательность элементов, каждый из которых содержит один или несколько тензоров . Объект tf.data.Iterator предоставляет доступ к элементам Dataset .

устройство

#TensorFlow
#GoogleCloud

Перегруженный термин, имеющий следующие два возможных определения:

  1. Категория оборудования, на котором может запускаться сеанс TensorFlow, включая центральные процессоры, графические процессоры и TPU .
  2. При обучении модели машинного обучения на ускорителях (GPU или TPU) часть системы, которая фактически обрабатывает тензоры и вложения . Устройство работает на ускорителях. В отличие от этого, хост обычно работает на центральном процессоре.

Э

нетерпеливое исполнение

#TensorFlow

Среда программирования TensorFlow, в которой операции выполняются немедленно. В отличие от этого, операции, вызываемые в графовом исполнении, не выполняются до тех пор, пока не будут явно вычислены. Энергичное выполнение — это императивный интерфейс , во многом похожий на код в большинстве языков программирования. Программы с энергичным выполнением, как правило, гораздо проще отлаживать, чем программы с графовым выполнением.

Оценщик

#TensorFlow

Устаревший API TensorFlow. Используйте tf.keras вместо Estimators.

Ф

проектирование функций

#основы
#TensorFlow

Процесс, включающий следующие этапы:

  1. Определение того, какие признаки могут быть полезны при обучении модели.
  2. Преобразование необработанных данных из набора данных в эффективные версии этих функций.

Например, вы можете решить, что temperature может быть полезной характеристикой. Затем вы можете поэкспериментировать с группировкой , чтобы оптимизировать то, чему модель может научиться в разных temperature диапазонах.

Проектирование признаков иногда называют извлечением признаков или признаками .

Дополнительную информацию см. в разделе Числовые данные: как модель получает данные с использованием векторов признаков в ускоренном курсе по машинному обучению.

спецификация функции

#TensorFlow

Описывает информацию, необходимую для извлечения данных о признаках из буфера протокола tf.Example . Поскольку буфер протокола tf.Example — это всего лишь контейнер для данных, необходимо указать следующее:

  • Данные для извлечения (то есть ключи для признаков)
  • Тип данных (например, float или int)
  • Длина (фиксированная или переменная)

Г

график

#TensorFlow

В TensorFlow — спецификация вычислений. Узлы в графе представляют операции. Ребра направлены и представляют собой передачу результата операции ( тензора ) в качестве операнда другой операции. Используйте TensorBoard для визуализации графа.

выполнение графика

#TensorFlow

Среда программирования TensorFlow, в которой программа сначала строит граф , а затем выполняет его полностью или частично. Графическое выполнение — режим выполнения по умолчанию в TensorFlow 1.x.

Сравните с жадным исполнением .

ЧАС

хозяин

#TensorFlow
#GoogleCloud

При обучении модели МО на ускорительных чипах (графических процессорах или TPU ) часть системы, которая контролирует оба следующих параметра:

  • Общий поток кода.
  • Извлечение и преобразование входного трубопровода.

Хост обычно работает на центральном процессоре, а не на чипе ускорителя; устройство манипулирует тензорами на чипах ускорителя.

Л

API слоев (tf.layers)

#TensorFlow

API TensorFlow для построения глубокой нейронной сети как композиции слоёв. API слоёв позволяет создавать различные типы слоёв , например:

API слоёв следует соглашениям API слоёв Keras . То есть, за исключением префикса, все функции в API слоёв имеют те же имена и сигнатуры, что и их аналоги в API слоёв Keras.

М

сетка

#TensorFlow
#GoogleCloud

В параллельном программировании ML термин, связанный с назначением данных и модели чипам TPU и определением того, как эти значения будут сегментироваться или реплицироваться.

Сетка — это перегруженный термин, который может означать одно из следующего:

  • Физическая компоновка чипов TPU.
  • Абстрактная логическая конструкция для отображения данных и модели на чипах TPU.

В любом случае сетка задается как форма .

метрика

#TensorFlow
#Метрика

Статистика, которая вас волнует.

Цель — это показатель, который система машинного обучения пытается оптимизировать.

Н

узел (граф TensorFlow)

#TensorFlow

Операция в графе TensorFlow.

О

операция (оп)

#TensorFlow

В TensorFlow любая процедура создаёт, обрабатывает или уничтожает тензор . Например, умножение матриц — это операция, которая принимает два тензора на входе и генерирует один тензор на выходе.

П

Сервер параметров (PS)

#TensorFlow

Задание, отслеживающее параметры модели в распределенной среде.

В

очередь

#TensorFlow

Операция TensorFlow, реализующая структуру данных очереди. Обычно используется в операциях ввода-вывода.

Р

ранг (тензор)

#TensorFlow

Число измерений в тензоре . Например, скаляр имеет ранг 0, вектор — ранг 1, а матрица — ранг 2.

Не путать с рангом (порядковостью) .

корневой каталог

#TensorFlow

Каталог, который вы указываете для размещения подкаталогов контрольных точек TensorFlow и файлов событий нескольких моделей.

С

SavedModel

#TensorFlow

Рекомендуемый формат для сохранения и восстановления моделей TensorFlow. SavedModel — это независимый от языка программирования, восстанавливаемый формат сериализации, который позволяет системам и инструментам более высокого уровня создавать, использовать и преобразовывать модели TensorFlow.

Полную информацию см. в разделе «Сохранение и восстановление» Руководства программиста TensorFlow.

Сохранитель

#TensorFlow

Объект TensorFlow , отвечающий за сохранение контрольных точек модели.

осколок

#TensorFlow
#GoogleCloud

Логическое разделение обучающего набора или модели . Как правило, какой-либо процесс создаёт шарды, разделяя примеры или параметры на (обычно) равные по размеру фрагменты. Каждый шард затем назначается отдельной машине.

Разделение модели называется параллелизмом модели ; разделение данных называется параллелизмом данных .

краткое содержание

#TensorFlow

В TensorFlow значение или набор значений, вычисляемых на определенном этапе , обычно используемые для отслеживания показателей модели во время обучения.

Т

Тензор

#TensorFlow

Основная структура данных в программах TensorFlow. Тензоры — это N-мерные (где N может быть очень большим) структуры данных, чаще всего скаляры, векторы или матрицы. Элементы тензора могут содержать целые, плавающие или строковые значения.

TensorBoard

#TensorFlow

Панель управления, на которой отображаются сводки, сохраненные во время выполнения одной или нескольких программ TensorFlow.

TensorFlow

#TensorFlow

Крупномасштабная распределённая платформа машинного обучения. Этот термин также относится к базовому уровню API в стеке TensorFlow, который поддерживает общие вычисления на графах потоков данных.

Хотя TensorFlow в первую очередь используется для машинного обучения, вы также можете использовать TensorFlow для задач, не связанных с машинным обучением, которые требуют численных вычислений с использованием графов потоков данных.

Игровая площадка TensorFlow

#TensorFlow

Программа, которая визуализирует влияние различных гиперпараметров на обучение модели (в первую очередь нейронной сети). Перейдите по ссылке http://playground.tensorflow.org , чтобы поэкспериментировать с TensorFlow Playground.

Обслуживание TensorFlow

#TensorFlow

Платформа для внедрения обученных моделей в производство.

Блок тензорной обработки (TPU)

#TensorFlow
#GoogleCloud

Специализированная интегральная схема (ASIC), оптимизирующая производительность задач машинного обучения. Эти ASIC-схемы представляют собой несколько микросхем TPU на одном устройстве TPU .

Ранг тензора

#TensorFlow

См. ранг (Тензор) .

Форма тензора

#TensorFlow

Число элементов, содержащихся в тензоре в различных измерениях. Например, тензор [5, 10] имеет форму 5 в одном измерении и 10 в другом.

Размер тензора

#TensorFlow

Общее количество скаляров, содержащихся в тензоре . Например, тензор [5, 10] имеет размер 50.

tf.Example

#TensorFlow

Стандартный буфер протокола для описания входных данных для обучения или вывода модели машинного обучения.

tf.keras

#TensorFlow

Реализация Keras , интегрированная в TensorFlow .

ТПУ

#TensorFlow
#GoogleCloud

Аббревиатура для тензорного процессора .

чип ТПУ

#TensorFlow
#GoogleCloud

Программируемый ускоритель линейной алгебры со встроенной памятью с высокой пропускной способностью, оптимизированный для задач машинного обучения. На одном устройстве TPU размещено несколько микросхем TPU.

устройство ТПУ

#TensorFlow
#GoogleCloud

Печатная плата (PCB) с несколькими чипами TPU , сетевыми интерфейсами с высокой пропускной способностью и охлаждающим оборудованием системы.

узел ТПУ

#TensorFlow
#GoogleCloud

Ресурс TPU в Google Cloud с определённым типом TPU . Узел TPU подключается к вашей сети VPC из одноранговой сети VPC . Узлы TPU — это ресурс, определённый в API Cloud TPU .

TPU Pod

#TensorFlow
#GoogleCloud

Конфигурация устройств TPU в центре обработки данных Google. Все устройства в модуле TPU соединены друг с другом через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU, доступная для конкретной версии TPU.

Ресурс ТПУ

#TensorFlow
#GoogleCloud

Сущность TPU в Google Cloud, которую вы создаёте, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.

ломтик ТПУ

#TensorFlow
#GoogleCloud

Слайс TPU — это часть устройств TPU в модуле TPU . Все устройства в слайсе TPU подключены друг к другу через выделенную высокоскоростную сеть.

Тип ТПУ

#TensorFlow
#GoogleCloud

Конфигурация из одного или нескольких устройств TPU с определённой версией оборудования TPU. Тип TPU выбирается при создании узла TPU в Google Cloud. Например, тип TPU v2-8 — это одно устройство TPU v2 с 8 ядрами. Тип TPU v3-2048 включает 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурс, определённый в API Cloud TPU .

работник ТПУ

#TensorFlow
#GoogleCloud

Процесс, который выполняется на хост-машине и выполняет программы машинного обучения на устройствах TPU .