หน้านี้มีคำศัพท์ในอภิธานศัพท์ของ TensorFlow หากต้องการดูคำศัพท์ในอภิธานศัพท์ทั้งหมด คลิกที่นี่
B
การอนุมานแบบกลุ่ม
กระบวนการคาดการณ์การอนุมานในตัวอย่างที่ไม่มีป้ายกำกับหลายรายการจะแบ่งออกเป็นชุดย่อย ("กลุ่ม")
การอนุมานแบบกลุ่มสามารถใช้ประโยชน์จากฟีเจอร์การปรับพร้อมกันของชิป Accelerator กล่าวคือ Accelerator หลายตัวสามารถอนุมานการคาดการณ์ในกลุ่มตัวอย่างที่ไม่มีป้ายกำกับได้พร้อมกัน ซึ่งทำให้จำนวนการอนุมานต่อวินาทีเพิ่มขึ้นอย่างมาก
C
Cloud TPU
ตัวเร่งฮาร์ดแวร์เฉพาะที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงบน Google Cloud
D
API ชุดข้อมูล (tf.data)
TensorFlow API ระดับสูงสำหรับการอ่านข้อมูลและเปลี่ยนให้อยู่ในรูปแบบที่อัลกอริทึมแมชชีนเลิร์นนิงต้องใช้
ออบเจ็กต์ tf.data.Dataset
แสดงลำดับขององค์ประกอบ โดยแต่ละองค์ประกอบจะมี Tensor อย่างน้อย 1 รายการ ออบเจ็กต์ tf.data.Iterator
ให้สิทธิ์เข้าถึงองค์ประกอบของ Dataset
โปรดดูรายละเอียดเกี่ยวกับ Dataset API ที่ tf.data: ไปป์ไลน์อินพุต TensorFlow ในคู่มือของ TensorFlow Programmer
อุปกรณ์
คำศัพท์มากเกินไปซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้
- หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ซึ่งรวมถึง CPU, GPU และ TPU
- เมื่อฝึกโมเดล ML บนชิป Accelerator (GPU หรือ TPU) ซึ่งเป็นส่วนของระบบที่ควบคุม tensors และการฝัง อุปกรณ์ทำงานบนชิป Accelerator ในทางตรงกันข้าม โฮสต์โดยทั่วไปจะทำงานบน CPU
จ.
Eager Execution
สภาพแวดล้อมในการเขียนโปรแกรม TensorFlow ที่operationsจะทำงานทันที ในทางตรงกันข้าม การดำเนินการที่เรียกใช้ในการเรียกใช้กราฟจะไม่ทำงานจนกว่าจะมีการประเมินอย่างชัดแจ้ง การดำเนินการอย่างกระตือรือร้นเป็นอินเทอร์เฟซที่จำเป็น ซึ่งคล้ายกับโค้ดในภาษาโปรแกรมส่วนใหญ่ โดยทั่วไปแล้วโปรแกรมการดำเนินการที่กระตือรือร้น จะแก้ไขข้อบกพร่องได้ง่ายกว่าโปรแกรมการดำเนินการแบบกราฟ
เครื่องมือประมาณ
TensorFlow API ที่เลิกใช้งานแล้ว ใช้ tf.keras แทนเครื่องมือประมาณ
F
Feature Engineering
กระบวนการที่เกี่ยวข้องกับขั้นตอนต่อไปนี้
- ระบุฟีเจอร์ที่อาจเป็นประโยชน์ในการฝึกโมเดล
- การแปลงข้อมูลดิบจากชุดข้อมูลให้เป็นเวอร์ชันที่มีประสิทธิภาพของฟีเจอร์เหล่านั้น
ตัวอย่างเช่น คุณอาจระบุว่า temperature
อาจเป็นฟีเจอร์ที่มีประโยชน์ จากนั้นคุณอาจทดสอบด้วยการเก็บข้อมูลเพื่อเพิ่มประสิทธิภาพสิ่งที่โมเดลเรียนรู้ได้จากช่วง temperature
ต่างๆ
บางครั้งเราเรียกวิศวกรรมฟีเจอร์ว่าการแยกฟีเจอร์หรือการทำให้ฟีเจอร์เหล่านั้น
ข้อมูลจำเพาะของฟีเจอร์
อธิบายข้อมูลที่จำเป็นในการแยกข้อมูล features จากบัฟเฟอร์โปรโตคอล tf.Example เนื่องจากบัฟเฟอร์โปรโตคอล tf.Example เป็นเพียงคอนเทนเนอร์สำหรับข้อมูล คุณจึงต้องระบุข้อมูลต่อไปนี้
- ข้อมูลที่จะดึง (ซึ่งก็คือคีย์สำหรับฟีเจอร์ต่างๆ)
- ประเภทข้อมูล (เช่น ทศนิยมหรือ int)
- ความยาว (คงที่หรือแปรผัน)
G
กราฟ
ใน TensorFlow ข้อกำหนดเฉพาะในการคำนวณ โหนดในกราฟแสดงการดำเนินการ Edge จะกำกับและแสดงถึงการส่งผลลัพธ์ของการดำเนินการ (Tensor) เป็นโอเปอแรนด์ไปยังการดำเนินการอื่น ใช้ TensorBoard เพื่อแสดงภาพกราฟ
Graph Execution
สภาพแวดล้อมในการเขียนโปรแกรม TensorFlow ที่โปรแกรมจะสร้างกราฟก่อนแล้วจึงเรียกใช้กราฟนั้นทั้งหมดหรือบางส่วน การเรียกใช้กราฟคือโหมดการดำเนินการเริ่มต้นใน TensorFlow 1.x
ซึ่งตรงข้ามกับการดำเนินการที่ตั้งใจไว้
ฮิต
ผู้จัด
เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่ควบคุมทั้ง 2 รายการต่อไปนี้
- ขั้นตอนโดยรวมของโค้ด
- การแยกและการเปลี่ยนรูปแบบของไปป์ไลน์อินพุต
โฮสต์มักทำงานบน CPU ไม่ใช่ในชิปตัวเร่ง แต่อุปกรณ์จะควบคุม tensors บนชิป Accelerator
L
API เลเยอร์ (tf.layers)
TensorFlow API สำหรับสร้างโครงข่ายระบบประสาทระดับลึกเป็นองค์ประกอบของเลเยอร์ API เลเยอร์ช่วยให้คุณสร้างเลเยอร์ประเภทต่างๆ ได้ เช่น
tf.layers.Dense
สำหรับเลเยอร์ที่เชื่อมต่อครบถ้วนtf.layers.Conv2D
สำหรับเลเยอร์ Convolutional
Layer API จะเป็นไปตามข้อกำหนดเกี่ยวกับ Layer API ของ Keras กล่าวคือ นอกจากคำนำหน้าที่ต่างกันแล้ว ฟังก์ชันทั้งหมดใน Layer API ยังมีชื่อและลายเซ็นเหมือนกับใน Keras layers API
M
Mesh
ในการเขียนโปรแกรมคู่ขนานของ ML ซึ่งเป็นคำที่เชื่อมโยงกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU รวมถึงการระบุวิธีการชาร์ดหรือจำลองค่าเหล่านี้
ตาข่ายเป็นคำที่ใช้มากเกินไปซึ่งอาจมีความหมายอย่างใดอย่างหนึ่งต่อไปนี้
- เลย์เอาต์จริงของชิป TPU
- โครงสร้างเชิงตรรกะนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU
ในทั้ง 2 กรณี จะมีการระบุ Mesh เป็นรูปร่าง
เมตริก
สถิติที่คุณสนใจ
วัตถุประสงค์คือเมตริกที่ระบบแมชชีนเลิร์นนิงพยายามจะเพิ่มประสิทธิภาพ
N
โหนด (กราฟ TensorFlow)
การดำเนินการในกราฟของ TensorFlow
O
การดำเนินการ (op)
ใน TensorFlow กระบวนการทั้งหมดที่สร้าง ควบคุม หรือทำลาย Tensor ตัวอย่างเช่น การคูณเมทริกซ์คือการดำเนินการที่ใช้ Tensor 2 ตัวเป็นอินพุตและสร้าง Tensor 1 ตัวเป็นเอาต์พุต
คะแนน
เซิร์ฟเวอร์พารามิเตอร์ (PS)
งานที่ติดตามพารามิเตอร์ของโมเดลในการตั้งค่าแบบกระจาย
Q
คิว
การดำเนินการของ TensorFlow ที่ใช้โครงสร้างข้อมูลคิว มักใช้ใน I/O
R
อันดับ (Tensor)
จำนวนมิติข้อมูลใน Tensor ตัวอย่างเช่น สเกลาร์มีอันดับ 0 เวกเตอร์มีอันดับ 1 เมทริกซ์มีอันดับ 2
อย่าสับสนกับอันดับ (ลําดับ (ลําดับ)
ไดเรกทอรีราก
ไดเรกทอรีที่คุณระบุเพื่อโฮสต์ไดเรกทอรีย่อยของจุดตรวจสอบ TensorFlow และไฟล์เหตุการณ์ของหลายๆ โมเดล
S
SavedModel
รูปแบบที่แนะนำสำหรับการบันทึกและกู้คืนโมเดล TensorFlow SavedModel คือรูปแบบการทำให้เป็นอนุกรมที่กู้คืนได้แต่ใช้ภาษาที่ไม่เสถียร ซึ่งช่วยให้ระบบและเครื่องมือระดับสูงสร้าง ใช้ และเปลี่ยนรูปแบบโมเดล TensorFlow ได้
ดูรายละเอียดทั้งหมดได้ที่ส่วนการบันทึกและการคืนค่าในคู่มือสำหรับโปรแกรมเมอร์ TensorFlow
ประหยัด
ออบเจ็กต์ TensorFlow ที่มีหน้าที่บันทึกจุดตรวจสอบของโมเดล
ชาร์ด
แผนกเชิงตรรกะของชุดการฝึกหรือโมเดล โดยปกติแล้ว บางกระบวนการจะสร้างชาร์ดโดยแบ่งตัวอย่างหรือพารามิเตอร์เป็น (โดยปกติ) เป็นกลุ่มขนาดเท่ากัน จากนั้นชาร์ดแต่ละรายการจะกำหนดไปยังเครื่องอื่น
การชาร์ดโมเดลเรียกว่าโมเดลการทำงานขนานกัน การชาร์ดดิ้งข้อมูลเรียกว่าข้อมูลพร้อมกัน
สรุป
ใน TensorFlow ค่าหรือชุดค่าที่คำนวณในขั้นตอนหนึ่งๆ มักใช้สำหรับการติดตามเมตริกโมเดลระหว่างการฝึก
T
Tensor
โครงสร้างข้อมูลหลักในโปรแกรม TensorFlow Tensor คือโครงสร้างข้อมูลแบบ N มิติ (โดยที่ N อาจมีขนาดใหญ่มาก) ซึ่งโดยทั่วไปจะเป็นสเกลาร์ เวกเตอร์ หรือเมทริกซ์ องค์ประกอบของ Tensor สามารถเก็บจำนวนเต็ม จุดลอยตัว หรือค่าสตริงได้
TensorBoard
แดชบอร์ดที่แสดงสรุปที่บันทึกไว้ระหว่างการดำเนินการของโปรแกรม TensorFlow อย่างน้อย 1 โปรแกรม
TensorFlow
แพลตฟอร์มแมชชีนเลิร์นนิงขนาดใหญ่ที่กระจายตัวอยู่ คำนี้ยังหมายถึงเลเยอร์ API พื้นฐานในสแต็ก TensorFlow ซึ่งรองรับการคำนวณทั่วไปในกราฟโฟลว์ข้อมูล
แม้ว่า TensorFlow จะใช้สำหรับแมชชีนเลิร์นนิงเป็นหลัก แต่คุณก็ใช้ TensorFlow สำหรับงานที่ไม่ใช่ ML ซึ่งต้องคำนวณตัวเลขโดยใช้กราฟโฟลว์ข้อมูลได้ด้วย
สนามเด็กเล่น TensorFlow
โปรแกรมที่แสดงภาพความแตกต่างระหว่าง ไฮเปอร์พารามิเตอร์ของโมเดลที่มีอิทธิพลต่อการฝึก (โครงข่ายประสาทเป็นหลัก) ไปที่ http://playground.tensorflow.org เพื่อทดลองใช้ TensorFlow Playground
การแสดง TensorFlow
แพลตฟอร์มสำหรับติดตั้งใช้งานโมเดลที่ฝึกแล้วในเวอร์ชันที่ใช้งานจริง
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพภาระงานของแมชชีนเลิร์นนิง ASIC เหล่านี้จะมีการใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU
อันดับของ Tensor
รูปร่าง Tensor
จำนวนองค์ประกอบที่ Tensor มีในมิติข้อมูลต่างๆ
เช่น [5, 10]
Tensor มีรูปร่างเป็น 5 ในมิติข้อมูลหนึ่งและ 10 ในอีกมิติหนึ่ง
ขนาดของ Tensor
จำนวนสเกลาร์ทั้งหมดที่ Tensor มี เช่น [5, 10]
Tensor มีขนาด 50
tf.Example
บัฟเฟอร์โปรโตคอลมาตรฐานสำหรับอธิบายข้อมูลอินพุตสำหรับการฝึกหรือการอนุมานโมเดลแมชชีนเลิร์นนิง
tf.keras
การใช้งาน Keras ที่ผสานรวมเข้ากับ TensorFlow
TPU
เป็นตัวย่อของ Tensor Processing Unit
ชิป TPU
ตัวเร่งพีชคณิตเชิงเส้นแบบตั้งโปรแกรมได้ที่มีหน่วยความจำแบนด์วิดท์สูงแบบออนชิป ซึ่งเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง มีการใช้ชิป TPU หลายตัวในอุปกรณ์ TPU
อุปกรณ์ TPU
แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายแบนด์วิดท์สูง และฮาร์ดแวร์การทำความเย็นของระบบ
ต้นแบบ TPU
กระบวนการประสานงานส่วนกลางที่ทำงานบนเครื่องโฮสต์ที่ส่งและรับข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพการทำงานของระบบไปยังผู้ปฏิบัติงาน TPU นอกจากนี้ ต้นแบบ TPU จะจัดการการตั้งค่าและการปิดการทำงานของอุปกรณ์ TPU อีกด้วย
โหนด TPU
ทรัพยากร TPU บน Google Cloud ที่มีประเภท TPU ที่เฉพาะเจาะจง โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU คือทรัพยากรที่กำหนดไว้ใน Cloud TPU API
พ็อด TPU
การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU จะเชื่อมต่อกันผ่านเครือข่ายความเร็วสูงเฉพาะ พ็อด TPU เป็นการกำหนดค่าขนาดใหญ่ที่สุดของอุปกรณ์ TPU สำหรับเวอร์ชัน TPU ที่เจาะจง
ทรัพยากร TPU
เอนทิตี TPU บน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ ตัวอย่างเช่น โหนด TPU และประเภท TPU คือทรัพยากร TPU
ส่วนแบ่ง TPU
ส่วนแบ่ง TPU เป็นส่วนเล็กๆ ของอุปกรณ์ TPU ใน พ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU จะเชื่อมต่อกันผ่านเครือข่ายความเร็วสูงเฉพาะ
ประเภท TPU
การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องโดยใช้เวอร์ชันฮาร์ดแวร์ TPU ที่เจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU บน Google Cloud เช่น v2-8
ประเภท TPU คืออุปกรณ์ TPU v2 เดี่ยวที่มี 8 แกน ประเภท TPU v3-2048
มีอุปกรณ์ TPU v3 ในเครือข่าย 256 เครื่อง และแกนทั้งหมด 2,048 แกน ประเภท TPU คือทรัพยากรที่กำหนดไว้ใน Cloud TPU API
ผู้ปฏิบัติงาน TPU
กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิงบนอุปกรณ์ TPU