หน้านี้มีคำศัพท์ในพจนานุกรมของ Google Cloud ดูคำศัพท์ทั้งหมดได้โดยคลิกที่นี่
A
ชิปตัวเร่ง
หมวดหมู่ของคอมโพเนนต์ฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อทำการคำนวณที่สำคัญ ซึ่งจำเป็นสำหรับอัลกอริทึมการเรียนรู้เชิงลึก
ชิปตัวเร่ง (หรือเรียกสั้นๆ ว่าตัวเร่ง) สามารถเพิ่มความเร็วและประสิทธิภาพของงานการฝึกและอนุมานได้อย่างมาก เมื่อเทียบกับ CPU แบบอเนกประสงค์ เหมาะอย่างยิ่งสำหรับการฝึก โครงข่ายประสาทเทียมและงานที่ต้องใช้การคำนวณสูงที่คล้ายกัน
ตัวอย่างชิปเร่งความเร็ว ได้แก่
- Tensor Processing Unit (TPU) ของ Google ที่มีฮาร์ดแวร์เฉพาะ สำหรับการเรียนรู้เชิงลึก
- GPU ของ NVIDIA ซึ่งแม้จะออกแบบมาเพื่อการประมวลผลกราฟิกในตอนแรก แต่ก็ออกแบบมาเพื่อเปิดใช้การประมวลผลแบบขนาน ซึ่งจะช่วยเพิ่มความเร็วในการประมวลผลได้อย่างมาก
B
การอนุมานแบบกลุ่ม
กระบวนการอนุมานการคาดการณ์ในหลาย ตัวอย่างที่ไม่มีป้ายกำกับซึ่งแบ่งออกเป็น ชุดข้อมูลย่อยที่เล็กลง ("กลุ่ม")
การอนุมานแบบกลุ่มสามารถใช้ประโยชน์จากฟีเจอร์การประมวลผลแบบขนานของชิปตัวเร่ง กล่าวคือ ตัวเร่งหลายตัว สามารถอนุมานการคาดการณ์ในกลุ่มตัวอย่างที่ไม่มีป้ายกำกับ ที่แตกต่างกันได้พร้อมกัน ซึ่งจะเพิ่มจำนวนการอนุมานต่อวินาทีอย่างมาก
ดูข้อมูลเพิ่มเติมได้ที่ระบบ ML ในการใช้งานจริง: การอนุมานแบบคงที่เทียบกับการอนุมานแบบไดนามิก ในหลักสูตรเร่งรัดแมชชีนเลิร์นนิง
C
Cloud TPU
ตัวเร่งฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงใน Google Cloud
D
อุปกรณ์
คำที่มีความหมายหลายอย่างซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้
- หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
- เมื่อฝึกโมเดล ML ในชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการเทนเซอร์และการฝังจริง อุปกรณ์ทำงานบนชิปตัวเร่ง ในทางตรงกันข้าม โฮสต์ มักจะทำงานบน CPU
H
ผู้จัด
เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบ ที่ควบคุมทั้ง 2 อย่างต่อไปนี้
- โฟลว์โดยรวมของโค้ด
- การแยกและการแปลงไปป์ไลน์อินพุต
โดยปกติแล้วโฮสต์จะทำงานบน CPU ไม่ใช่ชิปตัวเร่ง ส่วนอุปกรณ์จะจัดการเทนเซอร์บนชิปตัวเร่ง
M
Mesh
ในการเขียนโปรแกรมแบบขนาน ML คำที่เกี่ยวข้องกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU และการกำหนดวิธีที่จะแยกส่วนหรือจำลองค่าเหล่านี้
Mesh เป็นคำที่มีความหมายหลากหลาย ซึ่งอาจหมายถึงสิ่งใดสิ่งหนึ่งต่อไปนี้
- เลย์เอาต์จริงของชิป TPU
- โครงสร้างเชิงตรรกะเชิงนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU
ไม่ว่าในกรณีใดก็ตาม ระบบจะระบุตาข่ายเป็นรูปร่าง
S
ชาร์ด
การแบ่งชุดการฝึกหรือโมเดลอย่างมีเหตุผล โดยปกติแล้ว กระบวนการบางอย่างจะสร้าง Shard โดยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็นกลุ่มที่มีขนาดเท่ากัน (โดยปกติ) จากนั้นจะกำหนดแต่ละ Shard ให้กับเครื่องที่แตกต่างกัน
การแบ่งพาร์ติชันโมเดลเรียกว่าการทำงานแบบคู่ขนานของโมเดล การแบ่งพาร์ติชันข้อมูลเรียกว่าการทำงานแบบคู่ขนานของข้อมูล
T
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่เพิ่มประสิทธิภาพ ปริมาณงานของแมชชีนเลิร์นนิง ASIC เหล่านี้ได้รับการติดตั้งใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU
TPU
ตัวย่อของ Tensor Processing Unit
ชิป TPU
ตัวเร่งพีชคณิตเชิงเส้นที่ตั้งโปรแกรมได้พร้อมหน่วยความจำแบนด์วิดท์สูงบนชิป ซึ่งได้รับการเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายตัวได้รับการติดตั้งใช้งานในอุปกรณ์ TPU
อุปกรณ์ TPU
แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูง และฮาร์ดแวร์ระบายความร้อนของระบบ
โหนด TPU
ทรัพยากร TPU ใน Google Cloud ที่มี ประเภท TPU ที่เฉพาะเจาะจง โหนด TPU จะเชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC ที่มีการเชื่อมต่อแบบเพียร์ โหนด TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API
พ็อด TPU
การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูลของ Google อุปกรณ์ทั้งหมดใน TPU Pod เชื่อมต่อกัน ผ่านเครือข่ายความเร็วสูงเฉพาะ TPU Pod เป็นการกำหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่พร้อมใช้งานสำหรับ TPU เวอร์ชันที่เฉพาะเจาะจง
ทรัพยากร TPU
เอนทิตี TPU ใน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU
Slice TPU
TPU Slice คือส่วนย่อยของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดใน TPU Slice จะเชื่อมต่อ กันผ่านเครือข่ายความเร็วสูงเฉพาะ
ประเภท TPU
การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องที่มี
ฮาร์ดแวร์ TPU เวอร์ชันที่เฉพาะเจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU ใน Google Cloud เช่น v2-8
ประเภท TPU คืออุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ v3-2048
ประเภท TPU มีอุปกรณ์ TPU v3 ที่เชื่อมต่อเครือข่าย 256 เครื่องและมีคอร์ทั้งหมด 2048 คอร์ ประเภท TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API
TPU Worker
กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิง ในอุปกรณ์ TPU