อภิธานศัพท์ของแมชชีนเลิร์นนิง: Google Cloud

หน้านี้มีคำศัพท์ในพจนานุกรมของ Google Cloud ดูคำศัพท์ทั้งหมดได้โดยคลิกที่นี่

A

ชิปตัวเร่ง

#GoogleCloud

หมวดหมู่ของคอมโพเนนต์ฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อทำการคำนวณที่สำคัญ ซึ่งจำเป็นสำหรับอัลกอริทึมการเรียนรู้เชิงลึก

ชิปตัวเร่ง (หรือเรียกสั้นๆ ว่าตัวเร่ง) สามารถเพิ่มความเร็วและประสิทธิภาพของงานการฝึกและอนุมานได้อย่างมาก เมื่อเทียบกับ CPU แบบอเนกประสงค์ เหมาะอย่างยิ่งสำหรับการฝึก โครงข่ายประสาทเทียมและงานที่ต้องใช้การคำนวณสูงที่คล้ายกัน

ตัวอย่างชิปเร่งความเร็ว ได้แก่

  • Tensor Processing Unit (TPU) ของ Google ที่มีฮาร์ดแวร์เฉพาะ สำหรับการเรียนรู้เชิงลึก
  • GPU ของ NVIDIA ซึ่งแม้จะออกแบบมาเพื่อการประมวลผลกราฟิกในตอนแรก แต่ก็ออกแบบมาเพื่อเปิดใช้การประมวลผลแบบขนาน ซึ่งจะช่วยเพิ่มความเร็วในการประมวลผลได้อย่างมาก

B

การอนุมานแบบกลุ่ม

#GoogleCloud

กระบวนการอนุมานการคาดการณ์ในหลาย ตัวอย่างที่ไม่มีป้ายกำกับซึ่งแบ่งออกเป็น ชุดข้อมูลย่อยที่เล็กลง ("กลุ่ม")

การอนุมานแบบกลุ่มสามารถใช้ประโยชน์จากฟีเจอร์การประมวลผลแบบขนานของชิปตัวเร่ง กล่าวคือ ตัวเร่งหลายตัว สามารถอนุมานการคาดการณ์ในกลุ่มตัวอย่างที่ไม่มีป้ายกำกับ ที่แตกต่างกันได้พร้อมกัน ซึ่งจะเพิ่มจำนวนการอนุมานต่อวินาทีอย่างมาก

ดูข้อมูลเพิ่มเติมได้ที่ระบบ ML ในการใช้งานจริง: การอนุมานแบบคงที่เทียบกับการอนุมานแบบไดนามิก ในหลักสูตรเร่งรัดแมชชีนเลิร์นนิง

C

Cloud TPU

#TensorFlow
#GoogleCloud

ตัวเร่งฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงใน Google Cloud

D

อุปกรณ์

#TensorFlow
#GoogleCloud

คำที่มีความหมายหลายอย่างซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้

  1. หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
  2. เมื่อฝึกโมเดล ML ในชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการเทนเซอร์และการฝังจริง อุปกรณ์ทำงานบนชิปตัวเร่ง ในทางตรงกันข้าม โฮสต์ มักจะทำงานบน CPU

H

ผู้จัด

#TensorFlow
#GoogleCloud

เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบ ที่ควบคุมทั้ง 2 อย่างต่อไปนี้

  • โฟลว์โดยรวมของโค้ด
  • การแยกและการแปลงไปป์ไลน์อินพุต

โดยปกติแล้วโฮสต์จะทำงานบน CPU ไม่ใช่ชิปตัวเร่ง ส่วนอุปกรณ์จะจัดการเทนเซอร์บนชิปตัวเร่ง

M

Mesh

#TensorFlow
#GoogleCloud

ในการเขียนโปรแกรมแบบขนาน ML คำที่เกี่ยวข้องกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU และการกำหนดวิธีที่จะแยกส่วนหรือจำลองค่าเหล่านี้

Mesh เป็นคำที่มีความหมายหลากหลาย ซึ่งอาจหมายถึงสิ่งใดสิ่งหนึ่งต่อไปนี้

  • เลย์เอาต์จริงของชิป TPU
  • โครงสร้างเชิงตรรกะเชิงนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU

ไม่ว่าในกรณีใดก็ตาม ระบบจะระบุตาข่ายเป็นรูปร่าง

S

ชาร์ด

#TensorFlow
#GoogleCloud

การแบ่งชุดการฝึกหรือโมเดลอย่างมีเหตุผล โดยปกติแล้ว กระบวนการบางอย่างจะสร้าง Shard โดยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็นกลุ่มที่มีขนาดเท่ากัน (โดยปกติ) จากนั้นจะกำหนดแต่ละ Shard ให้กับเครื่องที่แตกต่างกัน

การแบ่งพาร์ติชันโมเดลเรียกว่าการทำงานแบบคู่ขนานของโมเดล การแบ่งพาร์ติชันข้อมูลเรียกว่าการทำงานแบบคู่ขนานของข้อมูล

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่เพิ่มประสิทธิภาพ ปริมาณงานของแมชชีนเลิร์นนิง ASIC เหล่านี้ได้รับการติดตั้งใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU

TPU

#TensorFlow
#GoogleCloud

ตัวย่อของ Tensor Processing Unit

ชิป TPU

#TensorFlow
#GoogleCloud

ตัวเร่งพีชคณิตเชิงเส้นที่ตั้งโปรแกรมได้พร้อมหน่วยความจำแบนด์วิดท์สูงบนชิป ซึ่งได้รับการเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายตัวได้รับการติดตั้งใช้งานในอุปกรณ์ TPU

อุปกรณ์ TPU

#TensorFlow
#GoogleCloud

แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูง และฮาร์ดแวร์ระบายความร้อนของระบบ

โหนด TPU

#TensorFlow
#GoogleCloud

ทรัพยากร TPU ใน Google Cloud ที่มี ประเภท TPU ที่เฉพาะเจาะจง โหนด TPU จะเชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC ที่มีการเชื่อมต่อแบบเพียร์ โหนด TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API

พ็อด TPU

#TensorFlow
#GoogleCloud

การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูลของ Google อุปกรณ์ทั้งหมดใน TPU Pod เชื่อมต่อกัน ผ่านเครือข่ายความเร็วสูงเฉพาะ TPU Pod เป็นการกำหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่พร้อมใช้งานสำหรับ TPU เวอร์ชันที่เฉพาะเจาะจง

ทรัพยากร TPU

#TensorFlow
#GoogleCloud

เอนทิตี TPU ใน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU

Slice TPU

#TensorFlow
#GoogleCloud

TPU Slice คือส่วนย่อยของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดใน TPU Slice จะเชื่อมต่อ กันผ่านเครือข่ายความเร็วสูงเฉพาะ

ประเภท TPU

#TensorFlow
#GoogleCloud

การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องที่มี ฮาร์ดแวร์ TPU เวอร์ชันที่เฉพาะเจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU ใน Google Cloud เช่น v2-8 ประเภท TPU คืออุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ v3-2048 ประเภท TPU มีอุปกรณ์ TPU v3 ที่เชื่อมต่อเครือข่าย 256 เครื่องและมีคอร์ทั้งหมด 2048 คอร์ ประเภท TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API

TPU Worker

#TensorFlow
#GoogleCloud

กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิง ในอุปกรณ์ TPU

V

Vertex

#GoogleCloud
#generativeAI
แพลตฟอร์มของ Google Cloud สำหรับ AI และแมชชีนเลิร์นนิง Vertex มีเครื่องมือ และโครงสร้างพื้นฐานสำหรับการสร้าง การติดตั้งใช้งาน และการจัดการแอปพลิเคชัน AI รวมถึงสิทธิ์เข้าถึงโมเดล Gemini