อภิธานศัพท์ของแมชชีนเลิร์นนิง: TensorFlow

หน้านี้มีคําใน TensorFlow สําหรับอภิธานศัพท์ทั้งหมด คลิกที่นี่

การอนุมานเป็นชุด

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการทําการคาดคะเนการอนุมานบนตัวอย่างแบบไม่ติดป้ายกํากับหลายรายการแบ่งเป็นส่วนย่อยที่ย่อยกว่า ("แบทช์")

การอนุมานแบบกลุ่มใช้ประโยชน์จากฟีเจอร์การโหลดพร้อมกันได้ของชิปตัวเร่ง กล่าวคือ ตัวเร่งหลายตัวสามารถอนุมานการคาดการณ์สําหรับตัวอย่างกลุ่มต่างๆ ที่ไม่มีป้ายกํากับได้พร้อมกัน ซึ่งเพิ่มจํานวนของการอนุมานต่อวินาทีได้อย่างมาก

Cloud TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ตัวเร่งฮาร์ดแวร์พิเศษที่ออกแบบมาเพื่อช่วยเร่งความเร็วของแมชชีนเลิร์นนิงใน Google Cloud Platform

Dataset API (tf.data)

#ขั้นตอนของ Tensor

API ระดับสูงของ TensorFlow สําหรับการอ่านข้อมูลและการเปลี่ยนให้อยู่ในรูปแบบที่อัลกอริทึมของแมชชีนเลิร์นนิงต้องการ วัตถุ tf.data.Dataset แสดงถึงลําดับขององค์ประกอบ โดยที่องค์ประกอบแต่ละรายการจะมี Tensor อย่างน้อยหนึ่งองค์ประกอบ ออบเจ็กต์ tf.data.Iterator มอบสิทธิ์เข้าถึงเอลิเมนต์ของ Dataset

โปรดดูรายละเอียดเกี่ยวกับ Dataset API ที่ tf.data: สร้างไปป์ไลน์อินพุต TensorFlow ในคู่มือของโปรแกรม TensorFlow

อุปกรณ์

#ขั้นตอนของ Tensor
#GoogleCloud

คําที่มากเกินไปพร้อมด้วยคําจํากัดความที่เป็นไปได้สองข้อต่อไปนี้:

  1. หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
  2. เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการ tensor และ embeds อุปกรณ์ทํางานบนชิป Accelerator ในทางกลับกัน โฮสต์ มักจะทํางานบน CPU

การดําเนินการที่กระฉับกระเฉง

#ขั้นตอนของ Tensor

สภาพแวดล้อมการเขียนโปรแกรมของ TensorFlow ที่การดําเนินการจะทํางานทันที ในทางตรงกันข้าม การดําเนินการในการเรียกใช้กราฟจะไม่ทํางานจนกว่าจะได้รับการประเมินอย่างชัดแจ้ง การดําเนินการที่กระตือรือร้นเป็นอินเทอร์เฟซที่จําเป็น ซึ่งคล้ายกับโค้ดในภาษาโปรแกรมส่วนใหญ่ โดยทั่วไปโปรแกรมการเรียกใช้ที่กระตือรือร้นจะ แก้ไขข้อบกพร่องได้ง่ายกว่าโปรแกรมการเรียกใช้กราฟ

เครื่องมือประมาณ

#ขั้นตอนของ Tensor

TensorFlow API ที่เลิกใช้งานแล้ว ใช้ tf.keras แทนเครื่องมือประมาณ

F

Feature Engineering

#fundamentals
#ขั้นตอนของ Tensor

ซึ่งเป็นกระบวนการที่เกี่ยวข้องกับขั้นตอนต่อไปนี้

  1. การพิจารณาว่าฟีเจอร์ใดเป็นประโยชน์ ในการฝึกโมเดล
  2. การแปลงข้อมูลดิบจากชุดข้อมูล ให้เป็นฟีเจอร์เหล่านี้ที่มีประสิทธิภาพ

ตัวอย่างเช่น คุณอาจมองว่า temperature อาจเป็นฟีเจอร์ที่มีประโยชน์ จากนั้น คุณอาจทดสอบด้วยที่เก็บข้อมูลเพื่อเพิ่มประสิทธิภาพสิ่งที่โมเดลเรียนรู้ได้จากtemperatureช่วงต่างๆ

บางครั้งวิศวกรรมฟีเจอร์เรียกว่าการแยกฟีเจอร์

ข้อมูลจําเพาะของฟีเจอร์

#ขั้นตอนของ Tensor

อธิบายข้อมูลที่จําเป็นเพื่อดึงข้อมูล features จากบัฟเฟอร์โปรโตคอล tf.Example เนื่องจากบัฟเฟอร์โปรโตคอล tf.เป็นเพียงคอนเทนเนอร์สําหรับข้อมูล คุณต้องระบุข้อมูลต่อไปนี้

  • ข้อมูลที่จะแตก (คีย์ของจุดสนใจ)
  • ประเภทข้อมูล (เช่น float หรือ int)
  • ความยาว (คงที่หรือแปรผัน)

G

กราฟ

#ขั้นตอนของ Tensor

ใน TensorFlow ข้อกําหนดเฉพาะในการประมวลผล โหนดในกราฟแสดงการดําเนินการ ขอบจะเปลี่ยนและแสดงการผ่านของผลลัพธ์ (Tensor) เป็นโอเปอแรนด์กับการดําเนินการอื่น ใช้ TensorBoard เพื่อแสดงภาพกราฟ

การเรียกใช้กราฟ

#ขั้นตอนของ Tensor

สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ที่โปรแกรมสร้างกราฟก่อน จากนั้นจึงเรียกใช้กราฟนั้นบางส่วนหรือทั้งหมด การดําเนินการกราฟเป็นโหมดการดําเนินการเริ่มต้นใน TensorFlow 1.x

ตรงข้ามกับการดําเนินการที่กระตือรือร้น

H

โฮสต์

#ขั้นตอนของ Tensor
#GoogleCloud

เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนหนึ่งของระบบที่ควบคุมทั้ง 2 อย่างต่อไปนี้

  • โฟลว์โดยรวมของโค้ด
  • การแยกและการเปลี่ยนไปป์ไลน์อินพุต

โดยปกติโฮสต์จะทํางานบน CPU ไม่ใช่บนชิปตัวเร่ง device จะจัดการ Tenser บนชิป Accelerator

L

เลเยอร์ API (tf.layers)

#ขั้นตอนของ Tensor

TensorFlow API สําหรับการสร้างเครือข่ายระบบประสาทเทียมระดับลึกที่เป็นองค์ประกอบของเลเยอร์ เลเยอร์ API ช่วยให้คุณสร้าง เลเยอร์ ประเภทต่างๆ ได้ เช่น:

เลเยอร์ API จะเป็นไปตามแบบแผน Keras เลเยอร์ นอกเหนือจากคํานําหน้าอื่นแล้ว ทุกฟังก์ชันใน เลเยอร์ API มีชื่อและลายเซ็นเหมือนกับชื่อที่ตรงกันใน Keras layers API

M

Mesh

#ขั้นตอนของ Tensor
#GoogleCloud

ในการเขียนโปรแกรมแบบ ML เป็นคําที่เชื่อมโยงกับการกําหนดข้อมูลและโมเดลให้กับชิป TPU และเป็นตัวกําหนดว่าจะชาร์ดหรือจําลองค่าเหล่านี้

Mesh เป็นคําที่มากเกินไปซึ่งอาจหมายความว่าข้อใดข้อหนึ่งต่อไปนี้

  • เลย์เอาต์จริงของชิป TPU
  • โครงสร้างเชิงตรรกะสําหรับการแมปข้อมูลและโมเดลกับชิป TPU

ในกรณีดังกล่าว ระบบจะระบุ Mesh เป็นรูปร่าง

เมตริก

#ขั้นตอนของ Tensor

สถิติที่คุณสนใจ

วัตถุประสงค์คือเมตริกที่ระบบแมชชีนเลิร์นนิงพยายามที่จะเพิ่มประสิทธิภาพ

N

โหนด (กราฟ TensorFlow)

#ขั้นตอนของ Tensor

การดําเนินการในกราฟ TensorFlow

O

การดําเนินการ (op)

#ขั้นตอนของ Tensor

ใน TensorFlow กระบวนการต่างๆ ที่สร้าง บิดเบือน หรือทําลาย Tensor เช่น การคูณเมทริกซ์คือการดําเนินการที่ใช้ Tensor 2 ตัวเป็นอินพุตและสร้าง Tensor 1 รายการเป็นเอาต์พุต

P

เซิร์ฟเวอร์พารามิเตอร์ (PS)

#ขั้นตอนของ Tensor

งานที่ติดตามพารามิเตอร์ของโมเดลในการตั้งค่าแบบกระจาย

Q

คิว

#ขั้นตอนของ Tensor

การดําเนินการของ TensorFlow ที่ใช้โครงสร้างข้อมูลคิว มักใช้ใน I/O

ขวา

อันดับ (Tensor)

#ขั้นตอนของ Tensor

จํานวนมิติข้อมูลใน Tensor เช่น สเกลาร์มีอันดับเป็น 0 เวกเตอร์มีอันดับ 1 และเมทริกซ์มีอันดับ 2

อย่าสับสนกับอันดับ (ลําดับ)

ไดเรกทอรีราก

#ขั้นตอนของ Tensor

ไดเรกทอรีที่คุณระบุสําหรับโฮสติ้งไดเรกทอรีย่อยของจุดตรวจสอบ TensorFlow และไฟล์กิจกรรมของหลายโมเดล

S

SavedModel

#ขั้นตอนของ Tensor

รูปแบบที่แนะนําสําหรับการบันทึกและกู้คืนโมเดล TensorFlow SaveModel เป็นรูปแบบการเรียงอันดับใหม่ที่กู้คืนได้ระหว่างภาษา ซึ่งทําให้ระบบและเครื่องมือระดับสูงสร้าง ใช้งาน และเปลี่ยนรูปแบบ TensorFlow ได้

ดูรายละเอียดทั้งหมดได้ที่ส่วนการบันทึกและคืนค่าในคู่มือโปรแกรม TensorFlow

ประหยัด

#ขั้นตอนของ Tensor

ออบเจ็กต์ TensorFlow ซึ่งมีหน้าที่บันทึกจุดตรวจสอบโมเดล

ชาร์ด

#ขั้นตอนของ Tensor
#GoogleCloud

แผนกที่สมเหตุสมผลของชุดการฝึกหรือโมเดล โดยปกติแล้ว บางกระบวนการจะสร้างชาร์ดด้วยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็น (มัก) แบ่งเป็นขนาดเท่ากัน จากนั้นระบบจะกําหนดชาร์ดแต่ละรายการไปยังเครื่องอื่น

การชาร์ดโมเดลเรียกว่าการโหลดพร้อมกันของโมเดล การชาร์ดข้อมูลจะเรียกว่าการแยกข้อมูลพร้อมกัน

ค่าสรุป

#ขั้นตอนของ Tensor

ใน TensorFlow ค่าหรือชุดของค่าที่คํานวณที่ขั้นตอนมักจะใช้ในการติดตามเมตริกโมเดลระหว่างการฝึกทํางาน

T

Tensor

#ขั้นตอนของ Tensor

โครงสร้างข้อมูลหลักในโปรแกรม TensorFlow Tensor เป็นโครงสร้างข้อมูล N ขนาด (ที่ N อาจมีขนาดใหญ่มาก) ซึ่งมักจะเป็นสเกลาร์ เวกเตอร์ หรือเมทริกซ์ องค์ประกอบของ Tensor สามารถมีค่าจํานวนเต็ม จุดลอย หรือสตริง

TensorBoard

#ขั้นตอนของ Tensor

หน้าแดชบอร์ดที่แสดงสรุปที่บันทึกไว้ระหว่างการดําเนินการของโปรแกรม TensorFlow อย่างน้อย 1 โปรแกรม

TensorFlow

#ขั้นตอนของ Tensor

แพลตฟอร์มแมชชีนเลิร์นนิงขนาดใหญ่ ซึ่งมีการกระจายตัว คํานี้ยังหมายถึงเลเยอร์ API พื้นฐานในกลุ่ม TensorFlow ที่รองรับการคํานวณทั่วไปในกราฟข้อมูล

แม้ว่า TensorFlow จะใช้สําหรับแมชชีนเลิร์นนิงเป็นหลัก แต่คุณก็อาจใช้ TensorFlow สําหรับงานที่ไม่ใช่ ML ที่ต้องใช้การคํานวณตัวเลขโดยใช้กราฟโฟลว์ข้อมูล

สนามเด็กเล่น TensorFlow

#ขั้นตอนของ Tensor

โปรแกรมที่แสดงให้เห็นว่า hyperparameters ที่ต่างกันส่งผลต่อการฝึกโมเดล (เครือข่ายโครงข่ายประสาท) อย่างไร ไปที่ http://playground.tensorflow.org เพื่อทดสอบกับ TensorFlow Playground

การแสดงโฆษณา TensorFlow

#ขั้นตอนของ Tensor

แพลตฟอร์มที่ทําให้โมเดลที่ผ่านการฝึกใช้งานใช้งานได้จริง

Tensor Processing Unit (TPU)

#ขั้นตอนของ Tensor
#GoogleCloud

วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพของภาระงานของแมชชีนเลิร์นนิง เราทําให้ ASIC เหล่านี้ใช้งานได้เป็นชิป TPU หลายรายการในอุปกรณ์ TPU

การจัดอันดับ Tensor

#ขั้นตอนของ Tensor

ดูอันดับ (Tensor)

รูปร่าง Tensor

#ขั้นตอนของ Tensor

จํานวนองค์ประกอบที่ Tensor ประกอบด้วยมิติข้อมูลต่างๆ ตัวอย่างเช่น [5, 10] Tensor มีรูปแบบ 5 มิติในมิติข้อมูลหนึ่งและอีก 10 รายการอยู่ในอีกมิติข้อมูลหนึ่ง

ขนาด Tensor

#ขั้นตอนของ Tensor

จํานวนสเกลาร์ทั้งหมดที่ Tensor ประกอบด้วย เช่น [5, 10] Tensor มีขนาด 50

ตัวอย่าง

#ขั้นตอนของ Tensor

บัฟเฟอร์โปรโตคอลมาตรฐานสําหรับอธิบายข้อมูลอินพุตสําหรับการฝึกหรือการอนุมานโมเดลแมชชีนเลิร์นนิง

Tf.keras

#ขั้นตอนของ Tensor

การใช้ Keras ผสานรวมใน TensorFlow

TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ตัวย่อของหน่วยประมวลผล Tensor

ชิป TPU

#ขั้นตอนของ Tensor
#GoogleCloud

Accelerator พีชคณิตเชิงเส้นในการเขียนโปรแกรมพร้อมหน่วยความจําแบนด์วิดท์สูงแบบชิปที่เพิ่มประสิทธิภาพสําหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายรายการจะทําให้ใช้งานได้ในอุปกรณ์ TPU

อุปกรณ์ TPU

#ขั้นตอนของ Tensor
#GoogleCloud

แผ่นวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายอินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูงและฮาร์ดแวร์ระบายความร้อนระบบ

TPU ต้นแบบ

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการประสานงานส่วนกลางที่ทํางานในเครื่องโฮสต์ซึ่งจะรับและส่งข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพของระบบไปยังผู้ปฏิบัติงาน TPU ต้นแบบ TPU ยังจัดการการตั้งค่าและการปิดอุปกรณ์ TPU ด้วย

โหนด TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ทรัพยากร TPU บน Google Cloud Platform ที่มีประเภท TPU เฉพาะ โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API

พ็อด TPU

#ขั้นตอนของ Tensor
#GoogleCloud

การกําหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ พ็อด TPU เป็นการกําหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่ใช้ได้กับเวอร์ชัน TPU ที่เจาะจง

ทรัพยากร TPU

#ขั้นตอนของ Tensor
#GoogleCloud

เอนทิตี TPU ใน Google Cloud Platform ที่คุณสร้าง จัดการ หรือใช้งาน เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU

ชิ้นส่วน TPU

#ขั้นตอนของ Tensor
#GoogleCloud

ชิ้นส่วน TPU เป็นเศษส่วนของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ

ประเภท TPU

#ขั้นตอนของ Tensor
#GoogleCloud

การกําหนดค่าของอุปกรณ์ TPU 1 เครื่องขึ้นไปที่มีฮาร์ดแวร์เวอร์ชัน TPU เฉพาะ คุณจะเลือกประเภทของ TPU ได้เมื่อสร้างโหนด TPU ใน Google Cloud Platform เช่น v2-8ประเภท TPU เป็นอุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ ประเภท TPU v3-2048 มีอุปกรณ์ TPU v3 จํานวน 256 เครื่องที่มีเครือข่าย รวมทั้งหมด 2048 แกน ประเภท TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API

ผู้ปฏิบัติงาน TPU

#ขั้นตอนของ Tensor
#GoogleCloud

กระบวนการที่ทํางานบนเครื่องโฮสต์และดําเนินการโปรแกรมแมชชีนเลิร์นนิงในอุปกรณ์ TPU