Эта страница содержит термины глоссария TensorFlow. Чтобы просмотреть все термины глоссария, нажмите здесь .
Б
пакетный вывод
Процесс вывода прогнозов на нескольких немаркированных примерах, разделенных на более мелкие подмножества («партии»).
Пакетный вывод может использовать возможности распараллеливания микросхем-ускорителей . То есть несколько ускорителей могут одновременно делать прогнозы на разных пакетах немаркированных примеров, резко увеличивая количество выводов в секунду.
Дополнительные сведения см. в разделе «Производственные системы ML: статический и динамический вывод» в ускоренном курсе машинного обучения.
С
Облачный ТПУ
Специализированный аппаратный ускоритель, предназначенный для ускорения рабочих нагрузок машинного обучения в Google Cloud.
Д
API набора данных (tf.data)
Высокоуровневый API TensorFlow для чтения данных и преобразования их в форму, необходимую алгоритму машинного обучения. Объект tf.data.Dataset
представляет собой последовательность элементов, в которой каждый элемент содержит один или несколько Tensor . Объект tf.data.Iterator
обеспечивает доступ к элементам Dataset
.
устройство
Перегруженный термин со следующими двумя возможными определениями:
- Категория оборудования, на котором можно запустить сеанс TensorFlow, включая процессоры, графические процессоры и TPU .
- При обучении модели МО на чипах-ускорителях (GPU или TPU) — той части системы, которая фактически манипулирует тензорами и внедрениями . Устройство работает на чипах-ускорителях. Напротив, хост обычно работает на процессоре.
Э
нетерпеливое исполнение
Среда программирования TensorFlow, в которой операции выполняются немедленно. Напротив, операции, вызываемые при выполнении графа, не выполняются до тех пор, пока они не будут явно оценены. Стремительное выполнение — это императивный интерфейс , очень похожий на код большинства языков программирования. Программы быстрого выполнения обычно гораздо легче отлаживать, чем программы выполнения на графе.
Оценщик
Устаревший API TensorFlow. Используйте tf.keras вместо оценщиков.
Ф
разработка функций
Процесс, который включает в себя следующие этапы:
- Определение того, какие функции могут быть полезны при обучении модели.
- Преобразование необработанных данных из набора данных в эффективные версии этих функций.
Например, вы можете решить, что temperature
может быть полезной функцией. Затем вы можете поэкспериментировать с группированием , чтобы оптимизировать то, что модель может узнать из разных temperature
диапазонов.
Инжиниринг функций иногда называют извлечением функций или реализацией функций.
Дополнительные сведения см. в разделе «Численные данные: как модель принимает данные с использованием векторов признаков» в ускоренном курсе машинного обучения.
спецификация функции
Описывает информацию, необходимую для извлечения данных функций из буфера протокола tf.Example . Поскольку буфер протокола tf.Example — это всего лишь контейнер для данных, необходимо указать следующее:
- Данные для извлечения (то есть ключи для функций)
- Тип данных (например, float или int)
- Длина (фиксированная или переменная)
Г
график
В TensorFlow — спецификация вычислений. Узлы графа представляют операции. Ребра являются направленными и представляют собой передачу результата операции ( Tensor ) в качестве операнда в другую операцию. Используйте TensorBoard для визуализации графика.
выполнение графа
Среда программирования TensorFlow, в которой программа сначала создает граф , а затем выполняет весь или часть этого графа. Выполнение графа — это режим выполнения по умолчанию в TensorFlow 1.x.
Сравните с нетерпеливым исполнением .
ЧАС
хозяин
При обучении модели МО на чипах-ускорителях (GPU или TPU ) — это часть системы, которая контролирует оба следующих фактора:
- Общий поток кода.
- Извлечение и преобразование входного трубопровода.
Хост обычно работает на процессоре, а не на чипе-ускорителе; устройство манипулирует тензорами на чипах ускорителя.
л
API слоев (tf.layers)
API TensorFlow для построения глубокой нейронной сети как композиции слоев. Layers API позволяет создавать различные типы слоев , например:
-
tf.layers.Dense
для полностью связного слоя . -
tf.layers.Conv2D
для сверточного слоя.
API слоев соответствует соглашениям API слоев Keras . То есть, за исключением другого префикса, все функции в API слоев имеют те же имена и подписи, что и их аналоги в API слоев Keras.
М
сетка
В параллельном программировании машинного обучения — термин, связанный с назначением данных и модели микросхемам TPU и определением того, как эти значения будут сегментироваться или реплицироваться.
Сетка — это перегруженный термин, который может означать одно из следующих значений:
- Физическое расположение чипов ТПУ.
- Абстрактная логическая конструкция для отображения данных и модели на чипах TPU.
В любом случае сетка указывается как shape .
метрика
Статистика, которая вас волнует.
Цель — это показатель, который система машинного обучения пытается оптимизировать.
Н
узел (граф TensorFlow)
Операция в графе TensorFlow.
О
операция (оп)
В TensorFlow — любая процедура, которая создает, манипулирует или уничтожает Tensor . Например, умножение матрицы — это операция, которая принимает два тензора на входе и генерирует один тензор на выходе.
П
Сервер параметров (PS)
Задание, которое отслеживает параметры модели в распределенной среде.
вопрос
очередь
Операция TensorFlow, реализующая структуру данных очереди. Обычно используется при вводе-выводе.
Р
ранг (тензор)
Количество измерений в тензоре . Например, скаляр имеет ранг 0, вектор — ранг 1, а матрица — ранг 2.
Не путать с рангом (ординальностью) .
корневой каталог
Каталог, который вы указываете для размещения подкаталогов контрольной точки TensorFlow и файлов событий нескольких моделей.
С
Сохраненнаямодель
Рекомендуемый формат для сохранения и восстановления моделей TensorFlow. SavedModel — это независимый от языка восстанавливаемый формат сериализации, который позволяет системам и инструментам более высокого уровня создавать, использовать и преобразовывать модели TensorFlow.
Подробную информацию см. в разделе «Сохранение и восстановление» Руководства программиста TensorFlow.
Экономьте
Объект TensorFlow, отвечающий за сохранение контрольных точек модели.
осколок
Логическое разделение обучающего набора или модели . Как правило, некоторые процессы создают сегменты, разделяя примеры или параметры на (обычно) фрагменты одинакового размера. Затем каждый осколок назначается отдельной машине.
Шардинг модели называется параллелизмом модели ; сегментирование данных называется параллелизмом данных .
краткое содержание
В TensorFlow — значение или набор значений, вычисляемые на определенном этапе , обычно используемые для отслеживания показателей модели во время обучения.
Т
Тензор
Основная структура данных в программах TensorFlow. Тензоры — это N-мерные (где N может быть очень большими) структуры данных, чаще всего скаляры, векторы или матрицы. Элементы тензора могут содержать целые числа, значения с плавающей запятой или строковые значения.
Тензорборд
Панель мониторинга, на которой отображаются сводные данные, сохраненные во время выполнения одной или нескольких программ TensorFlow.
ТензорФлоу
Крупномасштабная распределенная платформа машинного обучения. Этот термин также относится к базовому уровню API в стеке TensorFlow, который поддерживает общие вычисления на графах потоков данных.
Хотя TensorFlow в основном используется для машинного обучения, вы также можете использовать TensorFlow для задач, не связанных с машинным обучением, которые требуют численных вычислений с использованием графов потоков данных.
Детская площадка TensorFlow
Программа, которая визуализирует, как различные гиперпараметры влияют на обучение модели (в первую очередь нейронной сети). Перейдите на http://playground.tensorflow.org, чтобы поэкспериментировать с игровой площадкой TensorFlow.
Обслуживание TensorFlow
Платформа для внедрения обученных моделей в производство.
Тензорный процессор (ТПУ)
Специализированная интегральная схема (ASIC), которая оптимизирует производительность рабочих нагрузок машинного обучения. Эти ASIC развертываются в виде нескольких микросхем TPU на устройстве TPU .
Тензорный ранг
См. ранг (Тензор) .
Тензорная форма
Количество элементов, содержащихся в тензоре в различных измерениях. Например, тензор [5, 10]
имеет форму 5 в одном измерении и 10 в другом.
Размер тензора
Общее количество скаляров, содержащихся в тензоре . Например, тензор [5, 10]
имеет размер 50.
tf.Пример
Стандартный буфер протокола для описания входных данных для обучения или вывода модели машинного обучения.
tf.keras
Реализация Keras , интегрированная в TensorFlow .
ТПУ
Аббревиатура от Tensor Processing Unit .
ТПУ чип
Программируемый ускоритель линейной алгебры со встроенной памятью с высокой пропускной способностью, оптимизированный для рабочих нагрузок машинного обучения. На устройстве TPU развернуто несколько чипов TPU.
Устройство ТПУ
Печатная плата (PCB) с несколькими микросхемами TPU , сетевыми интерфейсами с высокой пропускной способностью и оборудованием для охлаждения системы.
магистр ТПУ
Централизованный процесс координации, выполняемый на хост-компьютере, который отправляет и получает данные, результаты, программы, производительность и информацию о состоянии системы работникам TPU . Мастер TPU также управляет настройкой и выключением устройств TPU .
узел ТПУ
Ресурс TPU в Google Cloud с определенным типом TPU . Узел TPU подключается к вашей сети VPC из одноранговой сети VPC . Узлы TPU — это ресурс, определенный в Cloud TPU API .
ТПУ Стручок
Конкретная конфигурация устройств TPU в дата-центре Google. Все устройства в модуле TPU подключены друг к другу через выделенную высокоскоростную сеть. Модуль TPU — это самая большая конфигурация устройств TPU, доступная для конкретной версии TPU.
Ресурс ТПУ
Объект TPU в Google Cloud, который вы создаете, управляете или используете. Например, узлы TPU и типы TPU являются ресурсами TPU.
кусочек ТПУ
Срез TPU — это дробная часть устройств TPU в модуле TPU . Все устройства в срезе TPU подключены друг к другу через выделенную высокоскоростную сеть.
Тип ТПУ
Конфигурация одного или нескольких устройств TPU с определенной версией оборудования TPU. Вы выбираете тип TPU при создании узла TPU в Google Cloud. Например, тип TPU v2-8
— это одно устройство TPU v2 с 8 ядрами. Тип v3-2048
TPU имеет 256 сетевых устройств TPU v3 и в общей сложности 2048 ядер. Типы TPU — это ресурс, определенный в Cloud TPU API .
работник ТПУ
Процесс, который запускается на хост-компьютере и выполняет программы машинного обучения на устройствах TPU .