อภิธานศัพท์ของแมชชีนเลิร์นนิง: Google Cloud

หน้านี้มีคําศัพท์ในอภิธานศัพท์ของ Google Cloud สําหรับอภิธานศัพท์ทั้งหมด คลิกที่นี่

ชิปตัวเร่ง

#GoogleCloud

หมวดหมู่ของคอมโพเนนต์ฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อใช้การคํานวณที่สําคัญซึ่งจําเป็นสําหรับอัลกอริทึมการเรียนรู้เชิงลึก

ชิป Accelerator (หรือเรียกสั้นๆ ว่า Accelerator) สามารถเพิ่มความเร็วและประสิทธิภาพของงานการฝึกและการอนุมานได้อย่างมาก เมื่อเทียบกับ CPU ทั่วไป เหมาะสําหรับการฝึกโครงข่ายระบบประสาทเทียม และงานที่เน้นด้านการคํานวณคล้ายๆ กัน

ตัวอย่างของชิป Accelerator ได้แก่

  • Tensor Processing Unit (TPU) ของ Google พร้อมฮาร์ดแวร์เฉพาะ สําหรับการเรียนรู้เชิงลึก
  • GPU ของ NVIDIA ซึ่งแต่เดิมออกแบบมาเพื่อการประมวลผลกราฟิก ออกแบบมาเพื่อให้ใช้การประมวลผลแบบคู่ขนานซึ่งสามารถเพิ่มความเร็วในการประมวลผลได้อย่างมาก

การอนุมานเป็นชุด

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการทําการคาดคะเนการอนุมานบนตัวอย่างแบบไม่ติดป้ายกํากับหลายรายการแบ่งเป็นส่วนย่อยที่ย่อยกว่า ("แบทช์")

การอนุมานแบบกลุ่มใช้ประโยชน์จากฟีเจอร์การโหลดพร้อมกันได้ของชิปตัวเร่ง กล่าวคือ ตัวเร่งหลายตัวสามารถอนุมานการคาดการณ์สําหรับตัวอย่างกลุ่มต่างๆ ที่ไม่มีป้ายกํากับได้พร้อมกัน ซึ่งเพิ่มจํานวนของการอนุมานต่อวินาทีได้อย่างมาก

Cloud TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ตัวเร่งฮาร์ดแวร์พิเศษที่ออกแบบมาเพื่อช่วยเร่งความเร็วของแมชชีนเลิร์นนิงใน Google Cloud Platform

อุปกรณ์

#ขั้นตอนของ Tensor
#GoogleCloud

คําที่มากเกินไปพร้อมด้วยคําจํากัดความที่เป็นไปได้สองข้อต่อไปนี้:

  1. หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
  2. เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการ tensor และ embeds อุปกรณ์ทํางานบนชิป Accelerator ในทางกลับกัน โฮสต์ มักจะทํางานบน CPU

H

โฮสต์

#ขั้นตอนของ Tensor
#GoogleCloud

เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนหนึ่งของระบบที่ควบคุมทั้ง 2 อย่างต่อไปนี้

  • โฟลว์โดยรวมของโค้ด
  • การแยกและการเปลี่ยนไปป์ไลน์อินพุต

โดยปกติโฮสต์จะทํางานบน CPU ไม่ใช่บนชิปตัวเร่ง device จะจัดการ Tenser บนชิป Accelerator

M

Mesh

#ขั้นตอนของ Tensor
#GoogleCloud

ในการเขียนโปรแกรมแบบ ML เป็นคําที่เชื่อมโยงกับการกําหนดข้อมูลและโมเดลให้กับชิป TPU และเป็นตัวกําหนดว่าจะชาร์ดหรือจําลองค่าเหล่านี้

Mesh เป็นคําที่มากเกินไปซึ่งอาจหมายความว่าข้อใดข้อหนึ่งต่อไปนี้

  • เลย์เอาต์จริงของชิป TPU
  • โครงสร้างเชิงตรรกะสําหรับการแมปข้อมูลและโมเดลกับชิป TPU

ในกรณีดังกล่าว ระบบจะระบุ Mesh เป็นรูปร่าง

S

ชาร์ด

#ขั้นตอนของ Tensor
#GoogleCloud

แผนกที่สมเหตุสมผลของชุดการฝึกหรือโมเดล โดยปกติแล้ว บางกระบวนการจะสร้างชาร์ดด้วยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็น (มัก) แบ่งเป็นขนาดเท่ากัน จากนั้นระบบจะกําหนดชาร์ดแต่ละรายการไปยังเครื่องอื่น

การชาร์ดโมเดลเรียกว่าการโหลดพร้อมกันของโมเดล การชาร์ดข้อมูลจะเรียกว่าการแยกข้อมูลพร้อมกัน

T

Tensor Processing Unit (TPU)

#ขั้นตอนของ Tensor
#GoogleCloud

วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพของภาระงานของแมชชีนเลิร์นนิง เราทําให้ ASIC เหล่านี้ใช้งานได้เป็นชิป TPU หลายรายการในอุปกรณ์ TPU

TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ตัวย่อของหน่วยประมวลผล Tensor

ชิป TPU

#ขั้นตอนของ Tensor
#GoogleCloud

Accelerator พีชคณิตเชิงเส้นในการเขียนโปรแกรมพร้อมหน่วยความจําแบนด์วิดท์สูงแบบชิปที่เพิ่มประสิทธิภาพสําหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายรายการจะทําให้ใช้งานได้ในอุปกรณ์ TPU

อุปกรณ์ TPU

#ขั้นตอนของ Tensor
#GoogleCloud

แผ่นวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายอินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูงและฮาร์ดแวร์ระบายความร้อนระบบ

TPU ต้นแบบ

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการประสานงานส่วนกลางที่ทํางานในเครื่องโฮสต์ซึ่งจะรับและส่งข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพของระบบไปยังผู้ปฏิบัติงาน TPU ต้นแบบ TPU ยังจัดการการตั้งค่าและการปิดอุปกรณ์ TPU ด้วย

โหนด TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ทรัพยากร TPU บน Google Cloud Platform ที่มีประเภท TPU เฉพาะ โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API

พ็อด TPU

#ขั้นตอนของ Tensor
#GoogleCloud

การกําหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ พ็อด TPU เป็นการกําหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่ใช้ได้กับเวอร์ชัน TPU ที่เจาะจง

ทรัพยากร TPU

#ขั้นตอนของ Tensor
#GoogleCloud

เอนทิตี TPU ใน Google Cloud Platform ที่คุณสร้าง จัดการ หรือใช้งาน เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU

ชิ้นส่วน TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ชิ้นส่วน TPU เป็นเศษส่วนของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ

ประเภท TPU

#ขั้นตอนของ Tensor
#GoogleCloud

การกําหนดค่าของอุปกรณ์ TPU 1 เครื่องขึ้นไปที่มีฮาร์ดแวร์เวอร์ชัน TPU เฉพาะ คุณจะเลือกประเภทของ TPU ได้เมื่อสร้างโหนด TPU ใน Google Cloud Platform เช่น v2-8ประเภท TPU เป็นอุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ ประเภท TPU v3-2048 มีอุปกรณ์ TPU v3 จํานวน 256 เครื่องที่มีเครือข่าย รวมทั้งหมด 2048 แกน ประเภท TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API

ผู้ปฏิบัติงาน TPU

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการที่ทํางานบนเครื่องโฮสต์และดําเนินการโปรแกรมแมชชีนเลิร์นนิงในอุปกรณ์ TPU