หน้านี้มีคําศัพท์ในอภิธานศัพท์ของ Google Cloud สําหรับอภิธานศัพท์ทั้งหมด คลิกที่นี่
ก
ชิปตัวเร่ง
หมวดหมู่ของคอมโพเนนต์ฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อใช้การคํานวณที่สําคัญซึ่งจําเป็นสําหรับอัลกอริทึมการเรียนรู้เชิงลึก
ชิป Accelerator (หรือเรียกสั้นๆ ว่า Accelerator) สามารถเพิ่มความเร็วและประสิทธิภาพของงานการฝึกและการอนุมานได้อย่างมาก เมื่อเทียบกับ CPU ทั่วไป เหมาะสําหรับการฝึกโครงข่ายระบบประสาทเทียม และงานที่เน้นด้านการคํานวณคล้ายๆ กัน
ตัวอย่างของชิป Accelerator ได้แก่
- Tensor Processing Unit (TPU) ของ Google พร้อมฮาร์ดแวร์เฉพาะ สําหรับการเรียนรู้เชิงลึก
- GPU ของ NVIDIA ซึ่งแต่เดิมออกแบบมาเพื่อการประมวลผลกราฟิก ออกแบบมาเพื่อให้ใช้การประมวลผลแบบคู่ขนานซึ่งสามารถเพิ่มความเร็วในการประมวลผลได้อย่างมาก
ข
การอนุมานเป็นชุด
กระบวนการทําการคาดคะเนการอนุมานบนตัวอย่างแบบไม่ติดป้ายกํากับหลายรายการแบ่งเป็นส่วนย่อยที่ย่อยกว่า ("แบทช์")
การอนุมานแบบกลุ่มใช้ประโยชน์จากฟีเจอร์การโหลดพร้อมกันได้ของชิปตัวเร่ง กล่าวคือ ตัวเร่งหลายตัวสามารถอนุมานการคาดการณ์สําหรับตัวอย่างกลุ่มต่างๆ ที่ไม่มีป้ายกํากับได้พร้อมกัน ซึ่งเพิ่มจํานวนของการอนุมานต่อวินาทีได้อย่างมาก
ค
Cloud TPU
ตัวเร่งฮาร์ดแวร์พิเศษที่ออกแบบมาเพื่อช่วยเร่งความเร็วของแมชชีนเลิร์นนิงใน Google Cloud Platform
ง
อุปกรณ์
คําที่มากเกินไปพร้อมด้วยคําจํากัดความที่เป็นไปได้สองข้อต่อไปนี้:
- หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
- เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการ tensor และ embeds อุปกรณ์ทํางานบนชิป Accelerator ในทางกลับกัน โฮสต์ มักจะทํางานบน CPU
H
โฮสต์
เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนหนึ่งของระบบที่ควบคุมทั้ง 2 อย่างต่อไปนี้
- โฟลว์โดยรวมของโค้ด
- การแยกและการเปลี่ยนไปป์ไลน์อินพุต
โดยปกติโฮสต์จะทํางานบน CPU ไม่ใช่บนชิปตัวเร่ง device จะจัดการ Tenser บนชิป Accelerator
M
Mesh
ในการเขียนโปรแกรมแบบ ML เป็นคําที่เชื่อมโยงกับการกําหนดข้อมูลและโมเดลให้กับชิป TPU และเป็นตัวกําหนดว่าจะชาร์ดหรือจําลองค่าเหล่านี้
Mesh เป็นคําที่มากเกินไปซึ่งอาจหมายความว่าข้อใดข้อหนึ่งต่อไปนี้
- เลย์เอาต์จริงของชิป TPU
- โครงสร้างเชิงตรรกะสําหรับการแมปข้อมูลและโมเดลกับชิป TPU
ในกรณีดังกล่าว ระบบจะระบุ Mesh เป็นรูปร่าง
S
ชาร์ด
แผนกที่สมเหตุสมผลของชุดการฝึกหรือโมเดล โดยปกติแล้ว บางกระบวนการจะสร้างชาร์ดด้วยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็น (มัก) แบ่งเป็นขนาดเท่ากัน จากนั้นระบบจะกําหนดชาร์ดแต่ละรายการไปยังเครื่องอื่น
การชาร์ดโมเดลเรียกว่าการโหลดพร้อมกันของโมเดล การชาร์ดข้อมูลจะเรียกว่าการแยกข้อมูลพร้อมกัน
T
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพของภาระงานของแมชชีนเลิร์นนิง เราทําให้ ASIC เหล่านี้ใช้งานได้เป็นชิป TPU หลายรายการในอุปกรณ์ TPU
TPU
ตัวย่อของหน่วยประมวลผล Tensor
ชิป TPU
Accelerator พีชคณิตเชิงเส้นในการเขียนโปรแกรมพร้อมหน่วยความจําแบนด์วิดท์สูงแบบชิปที่เพิ่มประสิทธิภาพสําหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายรายการจะทําให้ใช้งานได้ในอุปกรณ์ TPU
อุปกรณ์ TPU
แผ่นวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายอินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูงและฮาร์ดแวร์ระบายความร้อนระบบ
TPU ต้นแบบ
กระบวนการประสานงานส่วนกลางที่ทํางานในเครื่องโฮสต์ซึ่งจะรับและส่งข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพของระบบไปยังผู้ปฏิบัติงาน TPU ต้นแบบ TPU ยังจัดการการตั้งค่าและการปิดอุปกรณ์ TPU ด้วย
โหนด TPU
ทรัพยากร TPU บน Google Cloud Platform ที่มีประเภท TPU เฉพาะ โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API
พ็อด TPU
การกําหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ พ็อด TPU เป็นการกําหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่ใช้ได้กับเวอร์ชัน TPU ที่เจาะจง
ทรัพยากร TPU
เอนทิตี TPU ใน Google Cloud Platform ที่คุณสร้าง จัดการ หรือใช้งาน เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU
ชิ้นส่วน TPU
ชิ้นส่วน TPU เป็นเศษส่วนของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ
ประเภท TPU
การกําหนดค่าของอุปกรณ์ TPU 1 เครื่องขึ้นไปที่มีฮาร์ดแวร์เวอร์ชัน TPU เฉพาะ คุณจะเลือกประเภทของ TPU ได้เมื่อสร้างโหนด TPU ใน Google Cloud Platform เช่น v2-8
ประเภท TPU เป็นอุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ ประเภท TPU v3-2048
มีอุปกรณ์ TPU v3 จํานวน 256 เครื่องที่มีเครือข่าย รวมทั้งหมด 2048 แกน ประเภท TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API
ผู้ปฏิบัติงาน TPU
กระบวนการที่ทํางานบนเครื่องโฮสต์และดําเนินการโปรแกรมแมชชีนเลิร์นนิงในอุปกรณ์ TPU