หน้านี้มีคำศัพท์เกี่ยวกับอภิธานศัพท์ของ Google Cloud หากต้องการดูคำศัพท์ในอภิธานศัพท์ทั้งหมด คลิกที่นี่
A
ชิปตัวเร่ง
หมวดหมู่ของคอมโพเนนต์ฮาร์ดแวร์เฉพาะที่ออกแบบมาเพื่อดำเนินการคำนวณที่สำคัญซึ่งจำเป็นสำหรับอัลกอริทึมการเรียนรู้เชิงลึก
ชิป Accelerator (หรือเรียกสั้นๆ ว่า Accelerator) สามารถเพิ่มความเร็วและประสิทธิภาพของงานการฝึกและการอนุมานได้อย่างมากเมื่อเทียบกับ CPU อเนกประสงค์ โดยเหมาะสำหรับการฝึกอบรม โครงข่ายประสาทและงานคำนวณที่คล้ายกัน
ตัวอย่างของชิป Accelerator ได้แก่
- Tensor Processing Unit (TPU) ของ Google พร้อมฮาร์ดแวร์เฉพาะสำหรับการเรียนรู้เชิงลึก
- GPU ของ NVIDIA ซึ่งออกแบบมาเพื่อการประมวลผลกราฟิกตั้งแต่แรก แต่ออกแบบมาเพื่อประมวลผลแบบคู่ขนาน ซึ่งจะช่วยเพิ่มความเร็วในการประมวลผลได้อย่างมาก
B
การอนุมานแบบกลุ่ม
กระบวนการคาดการณ์การอนุมานในตัวอย่างที่ไม่มีป้ายกำกับหลายรายการจะแบ่งออกเป็นชุดย่อย ("กลุ่ม")
การอนุมานแบบกลุ่มสามารถใช้ประโยชน์จากฟีเจอร์การปรับพร้อมกันของชิป Accelerator กล่าวคือ Accelerator หลายตัวสามารถอนุมานการคาดการณ์ในกลุ่มตัวอย่างที่ไม่มีป้ายกำกับได้พร้อมกัน ซึ่งทำให้จำนวนการอนุมานต่อวินาทีเพิ่มขึ้นอย่างมาก
C
Cloud TPU
ตัวเร่งฮาร์ดแวร์เฉพาะที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงบน Google Cloud
D
อุปกรณ์
คำศัพท์มากเกินไปซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้
- หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ซึ่งรวมถึง CPU, GPU และ TPU
- เมื่อฝึกโมเดล ML บนชิป Accelerator (GPU หรือ TPU) ซึ่งเป็นส่วนของระบบที่ควบคุม tensors และการฝัง อุปกรณ์ทำงานบนชิป Accelerator ในทางตรงกันข้าม โฮสต์โดยทั่วไปจะทำงานบน CPU
ฮิต
ผู้จัด
เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่ควบคุมทั้ง 2 รายการต่อไปนี้
- ขั้นตอนโดยรวมของโค้ด
- การแยกและการเปลี่ยนรูปแบบของไปป์ไลน์อินพุต
โฮสต์มักทำงานบน CPU ไม่ใช่ในชิปตัวเร่ง แต่อุปกรณ์จะควบคุม tensors บนชิป Accelerator
M
Mesh
ในการเขียนโปรแกรมคู่ขนานของ ML ซึ่งเป็นคำที่เชื่อมโยงกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU รวมถึงการระบุวิธีการชาร์ดหรือจำลองค่าเหล่านี้
ตาข่ายเป็นคำที่ใช้มากเกินไปซึ่งอาจมีความหมายอย่างใดอย่างหนึ่งต่อไปนี้
- เลย์เอาต์จริงของชิป TPU
- โครงสร้างเชิงตรรกะนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU
ในทั้ง 2 กรณี จะมีการระบุ Mesh เป็นรูปร่าง
S
ชาร์ด
แผนกเชิงตรรกะของชุดการฝึกหรือโมเดล โดยปกติแล้ว บางกระบวนการจะสร้างชาร์ดโดยแบ่งตัวอย่างหรือพารามิเตอร์เป็น (โดยปกติ) เป็นกลุ่มขนาดเท่ากัน จากนั้นชาร์ดแต่ละรายการจะกำหนดไปยังเครื่องอื่น
การชาร์ดโมเดลเรียกว่าโมเดลการทำงานขนานกัน การชาร์ดดิ้งข้อมูลเรียกว่าข้อมูลพร้อมกัน
T
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพภาระงานของแมชชีนเลิร์นนิง ASIC เหล่านี้จะมีการใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU
TPU
เป็นตัวย่อของ Tensor Processing Unit
ชิป TPU
ตัวเร่งพีชคณิตเชิงเส้นแบบตั้งโปรแกรมได้ที่มีหน่วยความจำแบนด์วิดท์สูงแบบออนชิป ซึ่งเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง มีการใช้ชิป TPU หลายตัวในอุปกรณ์ TPU
อุปกรณ์ TPU
แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายแบนด์วิดท์สูง และฮาร์ดแวร์การทำความเย็นของระบบ
ต้นแบบ TPU
กระบวนการประสานงานส่วนกลางที่ทำงานบนเครื่องโฮสต์ที่ส่งและรับข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพการทำงานของระบบไปยังผู้ปฏิบัติงาน TPU นอกจากนี้ ต้นแบบ TPU จะจัดการการตั้งค่าและการปิดการทำงานของอุปกรณ์ TPU อีกด้วย
โหนด TPU
ทรัพยากร TPU บน Google Cloud ที่มีประเภท TPU ที่เฉพาะเจาะจง โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU คือทรัพยากรที่กำหนดไว้ใน Cloud TPU API
พ็อด TPU
การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU จะเชื่อมต่อกันผ่านเครือข่ายความเร็วสูงเฉพาะ พ็อด TPU เป็นการกำหนดค่าขนาดใหญ่ที่สุดของอุปกรณ์ TPU สำหรับเวอร์ชัน TPU ที่เจาะจง
ทรัพยากร TPU
เอนทิตี TPU บน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ ตัวอย่างเช่น โหนด TPU และประเภท TPU คือทรัพยากร TPU
ส่วนแบ่ง TPU
ส่วนแบ่ง TPU เป็นส่วนเล็กๆ ของอุปกรณ์ TPU ใน พ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU จะเชื่อมต่อกันผ่านเครือข่ายความเร็วสูงเฉพาะ
ประเภท TPU
การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องโดยใช้เวอร์ชันฮาร์ดแวร์ TPU ที่เจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU บน Google Cloud เช่น v2-8
ประเภท TPU คืออุปกรณ์ TPU v2 เดี่ยวที่มี 8 แกน ประเภท TPU v3-2048
มีอุปกรณ์ TPU v3 ในเครือข่าย 256 เครื่อง และแกนทั้งหมด 2,048 แกน ประเภท TPU คือทรัพยากรที่กำหนดไว้ใน Cloud TPU API
ผู้ปฏิบัติงาน TPU
กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิงบนอุปกรณ์ TPU