หน้านี้มีคำศัพท์ในคำศัพท์ของ TensorFlow ดูคำศัพท์ทั้งหมดได้โดยคลิกที่นี่
C
Cloud TPU
ตัวเร่งฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงใน Google Cloud
D
Dataset API (tf.data)
API TensorFlow ระดับสูงสําหรับการอ่านข้อมูลและ
แปลงข้อมูลให้อยู่ในรูปแบบที่อัลกอริทึมแมชชีนเลิร์นนิงต้องการ
ออบเจ็กต์ tf.data.Dataset
แสดงลำดับขององค์ประกอบ ซึ่งแต่ละองค์ประกอบมี Tensor อย่างน้อย 1 รายการ ออบเจ็กต์ tf.data.Iterator
ให้สิทธิ์เข้าถึงองค์ประกอบของ Dataset
อุปกรณ์
คำที่มีความหมายหลายอย่างซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้
- หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
- เมื่อฝึกโมเดล ML ในชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการเทนเซอร์และการฝังจริง อุปกรณ์ทำงานบนชิปตัวเร่ง ในทางตรงกันข้าม โฮสต์ มักจะทำงานบน CPU
E
Eager Execution
สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ซึ่งการดำเนินการ จะทำงานทันที ในทางตรงกันข้าม การดำเนินการที่เรียกใช้ในการดำเนินการกราฟจะไม่ทำงานจนกว่าจะมีการประเมินอย่างชัดเจน การดำเนินการแบบกระตือรือร้นคืออินเทอร์เฟซแบบคำสั่ง ซึ่งคล้ายกับโค้ดในภาษาโปรแกรมส่วนใหญ่ โดยทั่วไปแล้ว โปรแกรมการดำเนินการแบบกระตือรือร้นจะแก้ไขข้อบกพร่องได้ง่ายกว่าโปรแกรมการดำเนินการแบบกราฟมาก
Estimator
API ของ TensorFlow ที่เลิกใช้งานแล้ว ใช้ tf.keras แทน Estimators
F
Feature Engineering
กระบวนการที่มีขั้นตอนต่อไปนี้
- การพิจารณาว่าฟีเจอร์ใดบ้างที่อาจมีประโยชน์ ในการฝึกโมเดล
- การแปลงข้อมูลดิบจากชุดข้อมูลเป็นฟีเจอร์เวอร์ชันที่มีประสิทธิภาพ
เช่น คุณอาจพิจารณาว่า temperature
อาจเป็นฟีเจอร์ที่มีประโยชน์
จากนั้นคุณอาจทดลองใช้การจัดกลุ่ม
เพื่อเพิ่มประสิทธิภาพสิ่งที่โมเดลสามารถเรียนรู้จากtemperature
ช่วงต่างๆ ได้
บางครั้งเราเรียกการปรับแต่งฟีเจอร์ว่า การดึงฟีเจอร์หรือ การสร้างฟีเจอร์
ดูข้อมูลเพิ่มเติมได้ที่ข้อมูลเชิงตัวเลข: วิธีที่โมเดลรับข้อมูลโดยใช้เวกเตอร์ฟีเจอร์ ในหลักสูตรเร่งรัดแมชชีนเลิร์นนิง
ข้อมูลจำเพาะของฟีเจอร์
อธิบายข้อมูลที่จำเป็นในการดึงข้อมูลฟีเจอร์ จากบัฟเฟอร์โปรโตคอล tf.Example เนื่องจากบัฟเฟอร์โปรโตคอล tf.Example เป็นเพียงคอนเทนเนอร์สำหรับข้อมูล คุณจึงต้องระบุข้อมูลต่อไปนี้
- ข้อมูลที่จะดึง (เช่น คีย์สำหรับฟีเจอร์)
- ประเภทข้อมูล (เช่น ลอยหรือ int)
- ความยาว (คงที่หรือเปลี่ยนแปลงได้)
G
กราฟ
ใน TensorFlow ข้อมูลจำเพาะของการคำนวณ โหนดในกราฟ แสดงถึงการดำเนินการ ขอบมีทิศทางและแสดงถึงการส่งผลลัพธ์ ของการดำเนินการ (Tensor) เป็น ตัวถูกดำเนินการไปยังการดำเนินการอื่น ใช้ TensorBoard เพื่อแสดงภาพกราฟ
การดำเนินการกราฟ
สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ซึ่งโปรแกรมจะสร้างกราฟก่อน แล้วจึงเรียกใช้กราฟทั้งหมดหรือบางส่วน การดำเนินการกราฟ เป็นโหมดการดำเนินการเริ่มต้นใน TensorFlow 1.x
แตกต่างจากการดำเนินการแบบรีบร้อน
H
ผู้จัด
เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบ ที่ควบคุมทั้ง 2 อย่างต่อไปนี้
- โฟลว์โดยรวมของโค้ด
- การแยกและการแปลงไปป์ไลน์อินพุต
โดยปกติแล้วโฮสต์จะทำงานบน CPU ไม่ใช่ชิปตัวเร่ง ส่วนอุปกรณ์จะจัดการเทนเซอร์บนชิปตัวเร่ง
L
Layers API (tf.layers)
API ของ TensorFlow สำหรับสร้างดีปนิวรัลเน็ตเวิร์ก เป็นองค์ประกอบของเลเยอร์ Layers API ช่วยให้คุณสร้างเลเยอร์ประเภทต่างๆ ได้ เช่น
tf.layers.Dense
สำหรับเลเยอร์ที่เชื่อมต่ออย่างเต็มรูปแบบtf.layers.Conv2D
สำหรับเลเยอร์ Convolutional
Layers API เป็นไปตามรูปแบบ API ของเลเยอร์ Keras กล่าวคือ นอกเหนือจากคำนำหน้าที่แตกต่างกัน ฟังก์ชันทั้งหมดใน Layers API มีชื่อและลายเซ็นเหมือนกับฟังก์ชันที่เทียบเท่าใน Keras layers API
M
Mesh
ในการเขียนโปรแกรมแบบขนาน ML คำที่เกี่ยวข้องกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU และการกำหนดวิธีที่จะแยกส่วนหรือจำลองค่าเหล่านี้
Mesh เป็นคำที่มีความหมายหลากหลาย ซึ่งอาจหมายถึงสิ่งใดสิ่งหนึ่งต่อไปนี้
- เลย์เอาต์จริงของชิป TPU
- โครงสร้างเชิงตรรกะเชิงนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU
ไม่ว่าในกรณีใดก็ตาม ระบบจะระบุตาข่ายเป็นรูปร่าง
เมตริก
สถิติที่คุณสนใจ
วัตถุประสงค์คือเมตริกที่ระบบแมชชีนเลิร์นนิง พยายามเพิ่มประสิทธิภาพ
N
โหนด (กราฟ TensorFlow)
การดำเนินการในกราฟ TensorFlow
O
การดำเนินการ (op)
ใน TensorFlow ขั้นตอนใดๆ ที่สร้าง จัดการ หรือทำลาย Tensor ตัวอย่างเช่น การคูณเมทริกซ์เป็นการดำเนินการที่รับเทนเซอร์ 2 รายการเป็น อินพุตและสร้างเทนเซอร์ 1 รายการเป็นเอาต์พุต
P
เซิร์ฟเวอร์พารามิเตอร์ (PS)
งานที่ติดตามพารามิเตอร์ของโมเดลใน การตั้งค่าแบบกระจาย
Q
คิว
การดำเนินการ TensorFlow ที่ใช้โครงสร้างข้อมูลคิว มักใช้ใน I/O
R
อันดับ (Tensor)
จำนวนมิติข้อมูลในTensor เช่น สเกลาร์มีอันดับ 0 เวกเตอร์มีอันดับ 1 และเมทริกซ์มีอันดับ 2
อย่าสับสนกับอันดับ (ลำดับ)
ไดเรกทอรีราก
ไดเรกทอรีที่คุณระบุสําหรับการโฮสต์ไดเรกทอรีย่อยของไฟล์จุดตรวจและเหตุการณ์ TensorFlow ของโมเดลหลายรายการ
S
SavedModel
รูปแบบที่แนะนำสำหรับการบันทึกและกู้คืนโมเดล TensorFlow SavedModel เป็นรูปแบบการซีเรียลไลซ์ที่กู้คืนได้และไม่ขึ้นกับภาษา ซึ่งช่วยให้ระบบและเครื่องมือระดับสูงสามารถสร้าง ใช้ และแปลงโมเดล TensorFlow ได้
ดูรายละเอียดทั้งหมดได้ที่ ส่วนการบันทึกและกู้คืน ของคู่มือโปรแกรมเมอร์ TensorFlow
ประหยัด
ออบเจ็กต์ TensorFlow ที่รับผิดชอบในการบันทึกจุดตรวจของโมเดล
ชาร์ด
การแบ่งชุดการฝึกหรือโมเดลอย่างมีเหตุผล โดยปกติแล้ว กระบวนการบางอย่างจะสร้าง Shard โดยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็นกลุ่มที่มีขนาดเท่ากัน (โดยปกติ) จากนั้นจะกำหนดแต่ละ Shard ให้กับเครื่องที่แตกต่างกัน
การแบ่งพาร์ติชันโมเดลเรียกว่าการทำงานแบบคู่ขนานของโมเดล การแบ่งพาร์ติชันข้อมูลเรียกว่าการทำงานแบบคู่ขนานของข้อมูล
สรุป
ใน TensorFlow ค่าหรือชุดค่าที่คำนวณในขั้นตอนหนึ่งๆ มักใช้เพื่อติดตามเมตริกของโมเดลระหว่างการฝึก
T
Tensor
โครงสร้างข้อมูลหลักในโปรแกรม TensorFlow Tensor เป็นโครงสร้างข้อมูล N มิติ (โดย N อาจมีค่ามาก) ซึ่งส่วนใหญ่เป็นสเกลาร์ เวกเตอร์ หรือเมทริกซ์ องค์ประกอบของเทนเซอร์สามารถเก็บค่าจำนวนเต็ม ทศนิยม หรือ สตริงได้
TensorBoard
แดชบอร์ดที่แสดงข้อมูลสรุปที่บันทึกไว้ระหว่างการเรียกใช้โปรแกรม TensorFlow อย่างน้อย 1 โปรแกรม
TensorFlow
แพลตฟอร์มแมชชีนเลิร์นนิงแบบกระจายขนาดใหญ่ คำนี้ยังหมายถึง เลเยอร์ API พื้นฐานในสแต็ก TensorFlow ซึ่งรองรับการคำนวณทั่วไป ในกราฟ Dataflow
แม้ว่า TensorFlow จะใช้สำหรับแมชชีนเลิร์นนิงเป็นหลัก แต่คุณก็ใช้ TensorFlow สำหรับงานที่ไม่ใช่ ML ซึ่งต้องมีการคำนวณตัวเลขโดยใช้กราฟ Dataflow ได้เช่นกัน
TensorFlow Playground
โปรแกรมที่แสดงให้เห็นว่าไฮเปอร์พารามิเตอร์ต่างๆ ส่งผลต่อการฝึกโมเดล (โดยหลักคือโครงข่ายประสาทเทียม) อย่างไร ไปที่ http://playground.tensorflow.org เพื่อทดลองใช้ TensorFlow Playground
TensorFlow Serving
แพลตฟอร์มสำหรับการติดตั้งใช้งานโมเดลที่ฝึกแล้วในเวอร์ชันที่ใช้งานจริง
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่เพิ่มประสิทธิภาพ ปริมาณงานของแมชชีนเลิร์นนิง ASIC เหล่านี้ได้รับการติดตั้งใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU
อันดับของ Tensor
รูปร่างของ Tensor
จํานวนองค์ประกอบที่ Tensor มีในมิติข้อมูลต่างๆ
เช่น [5, 10]
เทนเซอร์มีรูปร่างเป็น 5 ในมิติหนึ่งและ 10
ในอีกมิติหนึ่ง
ขนาดของเทนเซอร์
จำนวนสเกลาร์ทั้งหมดที่ Tensor มี เช่น [5, 10]
เทนเซอร์มีขนาด 50
tf.Example
Protocol Buffer มาตรฐานสำหรับอธิบายข้อมูลอินพุตสำหรับการฝึกหรือการอนุมานโมเดลแมชชีนเลิร์นนิง
tf.keras
การติดตั้งใช้งาน Keras ที่ผสานรวมเข้ากับ TensorFlow
TPU
ตัวย่อของ Tensor Processing Unit
ชิป TPU
ตัวเร่งพีชคณิตเชิงเส้นที่ตั้งโปรแกรมได้พร้อมหน่วยความจำแบนด์วิดท์สูงบนชิป ซึ่งได้รับการเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายตัวได้รับการติดตั้งใช้งานในอุปกรณ์ TPU
อุปกรณ์ TPU
แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูง และฮาร์ดแวร์ระบายความร้อนของระบบ
โหนด TPU
ทรัพยากร TPU ใน Google Cloud ที่มี ประเภท TPU ที่เฉพาะเจาะจง โหนด TPU จะเชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC ที่มีการเชื่อมต่อแบบเพียร์ โหนด TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API
พ็อด TPU
การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูลของ Google อุปกรณ์ทั้งหมดใน TPU Pod เชื่อมต่อกัน ผ่านเครือข่ายความเร็วสูงเฉพาะ TPU Pod เป็นการกำหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่พร้อมใช้งานสำหรับ TPU เวอร์ชันที่เฉพาะเจาะจง
ทรัพยากร TPU
เอนทิตี TPU ใน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU
Slice TPU
TPU Slice คือส่วนย่อยของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดใน TPU Slice จะเชื่อมต่อ กันผ่านเครือข่ายความเร็วสูงเฉพาะ
ประเภท TPU
การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องที่มี
ฮาร์ดแวร์ TPU เวอร์ชันที่เฉพาะเจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU ใน Google Cloud เช่น v2-8
ประเภท TPU คืออุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ v3-2048
ประเภท TPU มีอุปกรณ์ TPU v3 ที่เชื่อมต่อเครือข่าย 256 เครื่องและมีคอร์ทั้งหมด 2048 คอร์ ประเภท TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API
TPU Worker
กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิง ในอุปกรณ์ TPU