อภิธานศัพท์ของแมชชีนเลิร์นนิง: TensorFlow

หน้านี้มีคำศัพท์ในคำศัพท์ของ TensorFlow ดูคำศัพท์ทั้งหมดได้โดยคลิกที่นี่

C

Cloud TPU

#TensorFlow
#GoogleCloud

ตัวเร่งฮาร์ดแวร์เฉพาะทางที่ออกแบบมาเพื่อเพิ่มความเร็วของภาระงานแมชชีนเลิร์นนิงใน Google Cloud

D

Dataset API (tf.data)

#TensorFlow

API TensorFlow ระดับสูงสําหรับการอ่านข้อมูลและ แปลงข้อมูลให้อยู่ในรูปแบบที่อัลกอริทึมแมชชีนเลิร์นนิงต้องการ ออบเจ็กต์ tf.data.Dataset แสดงลำดับขององค์ประกอบ ซึ่งแต่ละองค์ประกอบมี Tensor อย่างน้อย 1 รายการ ออบเจ็กต์ tf.data.Iterator ให้สิทธิ์เข้าถึงองค์ประกอบของ Dataset

อุปกรณ์

#TensorFlow
#GoogleCloud

คำที่มีความหมายหลายอย่างซึ่งมีคำจำกัดความที่เป็นไปได้ 2 อย่างต่อไปนี้

  1. หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
  2. เมื่อฝึกโมเดล ML ในชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบที่จัดการเทนเซอร์และการฝังจริง อุปกรณ์ทำงานบนชิปตัวเร่ง ในทางตรงกันข้าม โฮสต์ มักจะทำงานบน CPU

E

Eager Execution

#TensorFlow

สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ซึ่งการดำเนินการ จะทำงานทันที ในทางตรงกันข้าม การดำเนินการที่เรียกใช้ในการดำเนินการกราฟจะไม่ทำงานจนกว่าจะมีการประเมินอย่างชัดเจน การดำเนินการแบบกระตือรือร้นคืออินเทอร์เฟซแบบคำสั่ง ซึ่งคล้ายกับโค้ดในภาษาโปรแกรมส่วนใหญ่ โดยทั่วไปแล้ว โปรแกรมการดำเนินการแบบกระตือรือร้นจะแก้ไขข้อบกพร่องได้ง่ายกว่าโปรแกรมการดำเนินการแบบกราฟมาก

Estimator

#TensorFlow

API ของ TensorFlow ที่เลิกใช้งานแล้ว ใช้ tf.keras แทน Estimators

F

Feature Engineering

#fundamentals
#TensorFlow

กระบวนการที่มีขั้นตอนต่อไปนี้

  1. การพิจารณาว่าฟีเจอร์ใดบ้างที่อาจมีประโยชน์ ในการฝึกโมเดล
  2. การแปลงข้อมูลดิบจากชุดข้อมูลเป็นฟีเจอร์เวอร์ชันที่มีประสิทธิภาพ

เช่น คุณอาจพิจารณาว่า temperature อาจเป็นฟีเจอร์ที่มีประโยชน์ จากนั้นคุณอาจทดลองใช้การจัดกลุ่ม เพื่อเพิ่มประสิทธิภาพสิ่งที่โมเดลสามารถเรียนรู้จากtemperatureช่วงต่างๆ ได้

บางครั้งเราเรียกการปรับแต่งฟีเจอร์ว่า การดึงฟีเจอร์หรือ การสร้างฟีเจอร์

ดูข้อมูลเพิ่มเติมได้ที่ข้อมูลเชิงตัวเลข: วิธีที่โมเดลรับข้อมูลโดยใช้เวกเตอร์ฟีเจอร์ ในหลักสูตรเร่งรัดแมชชีนเลิร์นนิง

ข้อมูลจำเพาะของฟีเจอร์

#TensorFlow

อธิบายข้อมูลที่จำเป็นในการดึงข้อมูลฟีเจอร์ จากบัฟเฟอร์โปรโตคอล tf.Example เนื่องจากบัฟเฟอร์โปรโตคอล tf.Example เป็นเพียงคอนเทนเนอร์สำหรับข้อมูล คุณจึงต้องระบุข้อมูลต่อไปนี้

  • ข้อมูลที่จะดึง (เช่น คีย์สำหรับฟีเจอร์)
  • ประเภทข้อมูล (เช่น ลอยหรือ int)
  • ความยาว (คงที่หรือเปลี่ยนแปลงได้)

G

กราฟ

#TensorFlow

ใน TensorFlow ข้อมูลจำเพาะของการคำนวณ โหนดในกราฟ แสดงถึงการดำเนินการ ขอบมีทิศทางและแสดงถึงการส่งผลลัพธ์ ของการดำเนินการ (Tensor) เป็น ตัวถูกดำเนินการไปยังการดำเนินการอื่น ใช้ TensorBoard เพื่อแสดงภาพกราฟ

การดำเนินการกราฟ

#TensorFlow

สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ซึ่งโปรแกรมจะสร้างกราฟก่อน แล้วจึงเรียกใช้กราฟทั้งหมดหรือบางส่วน การดำเนินการกราฟ เป็นโหมดการดำเนินการเริ่มต้นใน TensorFlow 1.x

แตกต่างจากการดำเนินการแบบรีบร้อน

H

ผู้จัด

#TensorFlow
#GoogleCloud

เมื่อฝึกโมเดล ML บนชิปตัวเร่ง (GPU หรือ TPU) ส่วนของระบบ ที่ควบคุมทั้ง 2 อย่างต่อไปนี้

  • โฟลว์โดยรวมของโค้ด
  • การแยกและการแปลงไปป์ไลน์อินพุต

โดยปกติแล้วโฮสต์จะทำงานบน CPU ไม่ใช่ชิปตัวเร่ง ส่วนอุปกรณ์จะจัดการเทนเซอร์บนชิปตัวเร่ง

L

Layers API (tf.layers)

#TensorFlow

API ของ TensorFlow สำหรับสร้างดีปนิวรัลเน็ตเวิร์ก เป็นองค์ประกอบของเลเยอร์ Layers API ช่วยให้คุณสร้างเลเยอร์ประเภทต่างๆ ได้ เช่น

Layers API เป็นไปตามรูปแบบ API ของเลเยอร์ Keras กล่าวคือ นอกเหนือจากคำนำหน้าที่แตกต่างกัน ฟังก์ชันทั้งหมดใน Layers API มีชื่อและลายเซ็นเหมือนกับฟังก์ชันที่เทียบเท่าใน Keras layers API

M

Mesh

#TensorFlow
#GoogleCloud

ในการเขียนโปรแกรมแบบขนาน ML คำที่เกี่ยวข้องกับการกำหนดข้อมูลและโมเดลให้กับชิป TPU และการกำหนดวิธีที่จะแยกส่วนหรือจำลองค่าเหล่านี้

Mesh เป็นคำที่มีความหมายหลากหลาย ซึ่งอาจหมายถึงสิ่งใดสิ่งหนึ่งต่อไปนี้

  • เลย์เอาต์จริงของชิป TPU
  • โครงสร้างเชิงตรรกะเชิงนามธรรมสำหรับการแมปข้อมูลและโมเดลกับชิป TPU

ไม่ว่าในกรณีใดก็ตาม ระบบจะระบุตาข่ายเป็นรูปร่าง

เมตริก

#TensorFlow
#Metric

สถิติที่คุณสนใจ

วัตถุประสงค์คือเมตริกที่ระบบแมชชีนเลิร์นนิง พยายามเพิ่มประสิทธิภาพ

N

โหนด (กราฟ TensorFlow)

#TensorFlow

การดำเนินการในกราฟ TensorFlow

O

การดำเนินการ (op)

#TensorFlow

ใน TensorFlow ขั้นตอนใดๆ ที่สร้าง จัดการ หรือทำลาย Tensor ตัวอย่างเช่น การคูณเมทริกซ์เป็นการดำเนินการที่รับเทนเซอร์ 2 รายการเป็น อินพุตและสร้างเทนเซอร์ 1 รายการเป็นเอาต์พุต

P

เซิร์ฟเวอร์พารามิเตอร์ (PS)

#TensorFlow

งานที่ติดตามพารามิเตอร์ของโมเดลใน การตั้งค่าแบบกระจาย

Q

คิว

#TensorFlow

การดำเนินการ TensorFlow ที่ใช้โครงสร้างข้อมูลคิว มักใช้ใน I/O

R

อันดับ (Tensor)

#TensorFlow

จำนวนมิติข้อมูลในTensor เช่น สเกลาร์มีอันดับ 0 เวกเตอร์มีอันดับ 1 และเมทริกซ์มีอันดับ 2

อย่าสับสนกับอันดับ (ลำดับ)

ไดเรกทอรีราก

#TensorFlow

ไดเรกทอรีที่คุณระบุสําหรับการโฮสต์ไดเรกทอรีย่อยของไฟล์จุดตรวจและเหตุการณ์ TensorFlow ของโมเดลหลายรายการ

S

SavedModel

#TensorFlow

รูปแบบที่แนะนำสำหรับการบันทึกและกู้คืนโมเดล TensorFlow SavedModel เป็นรูปแบบการซีเรียลไลซ์ที่กู้คืนได้และไม่ขึ้นกับภาษา ซึ่งช่วยให้ระบบและเครื่องมือระดับสูงสามารถสร้าง ใช้ และแปลงโมเดล TensorFlow ได้

ดูรายละเอียดทั้งหมดได้ที่ ส่วนการบันทึกและกู้คืน ของคู่มือโปรแกรมเมอร์ TensorFlow

ประหยัด

#TensorFlow

ออบเจ็กต์ TensorFlow ที่รับผิดชอบในการบันทึกจุดตรวจของโมเดล

ชาร์ด

#TensorFlow
#GoogleCloud

การแบ่งชุดการฝึกหรือโมเดลอย่างมีเหตุผล โดยปกติแล้ว กระบวนการบางอย่างจะสร้าง Shard โดยการแบ่งตัวอย่างหรือพารามิเตอร์ออกเป็นกลุ่มที่มีขนาดเท่ากัน (โดยปกติ) จากนั้นจะกำหนดแต่ละ Shard ให้กับเครื่องที่แตกต่างกัน

การแบ่งพาร์ติชันโมเดลเรียกว่าการทำงานแบบคู่ขนานของโมเดล การแบ่งพาร์ติชันข้อมูลเรียกว่าการทำงานแบบคู่ขนานของข้อมูล

สรุป

#TensorFlow

ใน TensorFlow ค่าหรือชุดค่าที่คำนวณในขั้นตอนหนึ่งๆ มักใช้เพื่อติดตามเมตริกของโมเดลระหว่างการฝึก

T

Tensor

#TensorFlow

โครงสร้างข้อมูลหลักในโปรแกรม TensorFlow Tensor เป็นโครงสร้างข้อมูล N มิติ (โดย N อาจมีค่ามาก) ซึ่งส่วนใหญ่เป็นสเกลาร์ เวกเตอร์ หรือเมทริกซ์ องค์ประกอบของเทนเซอร์สามารถเก็บค่าจำนวนเต็ม ทศนิยม หรือ สตริงได้

TensorBoard

#TensorFlow

แดชบอร์ดที่แสดงข้อมูลสรุปที่บันทึกไว้ระหว่างการเรียกใช้โปรแกรม TensorFlow อย่างน้อย 1 โปรแกรม

TensorFlow

#TensorFlow

แพลตฟอร์มแมชชีนเลิร์นนิงแบบกระจายขนาดใหญ่ คำนี้ยังหมายถึง เลเยอร์ API พื้นฐานในสแต็ก TensorFlow ซึ่งรองรับการคำนวณทั่วไป ในกราฟ Dataflow

แม้ว่า TensorFlow จะใช้สำหรับแมชชีนเลิร์นนิงเป็นหลัก แต่คุณก็ใช้ TensorFlow สำหรับงานที่ไม่ใช่ ML ซึ่งต้องมีการคำนวณตัวเลขโดยใช้กราฟ Dataflow ได้เช่นกัน

TensorFlow Playground

#TensorFlow

โปรแกรมที่แสดงให้เห็นว่าไฮเปอร์พารามิเตอร์ต่างๆ ส่งผลต่อการฝึกโมเดล (โดยหลักคือโครงข่ายประสาทเทียม) อย่างไร ไปที่ http://playground.tensorflow.org เพื่อทดลองใช้ TensorFlow Playground

TensorFlow Serving

#TensorFlow

แพลตฟอร์มสำหรับการติดตั้งใช้งานโมเดลที่ฝึกแล้วในเวอร์ชันที่ใช้งานจริง

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่เพิ่มประสิทธิภาพ ปริมาณงานของแมชชีนเลิร์นนิง ASIC เหล่านี้ได้รับการติดตั้งใช้งานเป็นชิป TPU หลายตัวในอุปกรณ์ TPU

อันดับของ Tensor

#TensorFlow

ดูอันดับ (เทนเซอร์)

รูปร่างของ Tensor

#TensorFlow

จํานวนองค์ประกอบที่ Tensor มีในมิติข้อมูลต่างๆ เช่น [5, 10] เทนเซอร์มีรูปร่างเป็น 5 ในมิติหนึ่งและ 10 ในอีกมิติหนึ่ง

ขนาดของเทนเซอร์

#TensorFlow

จำนวนสเกลาร์ทั้งหมดที่ Tensor มี เช่น [5, 10]เทนเซอร์มีขนาด 50

tf.Example

#TensorFlow

Protocol Buffer มาตรฐานสำหรับอธิบายข้อมูลอินพุตสำหรับการฝึกหรือการอนุมานโมเดลแมชชีนเลิร์นนิง

tf.keras

#TensorFlow

การติดตั้งใช้งาน Keras ที่ผสานรวมเข้ากับ TensorFlow

TPU

#TensorFlow
#GoogleCloud

ตัวย่อของ Tensor Processing Unit

ชิป TPU

#TensorFlow
#GoogleCloud

ตัวเร่งพีชคณิตเชิงเส้นที่ตั้งโปรแกรมได้พร้อมหน่วยความจำแบนด์วิดท์สูงบนชิป ซึ่งได้รับการเพิ่มประสิทธิภาพสำหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายตัวได้รับการติดตั้งใช้งานในอุปกรณ์ TPU

อุปกรณ์ TPU

#TensorFlow
#GoogleCloud

แผงวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายตัว อินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูง และฮาร์ดแวร์ระบายความร้อนของระบบ

โหนด TPU

#TensorFlow
#GoogleCloud

ทรัพยากร TPU ใน Google Cloud ที่มี ประเภท TPU ที่เฉพาะเจาะจง โหนด TPU จะเชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC ที่มีการเชื่อมต่อแบบเพียร์ โหนด TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API

พ็อด TPU

#TensorFlow
#GoogleCloud

การกำหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูลของ Google อุปกรณ์ทั้งหมดใน TPU Pod เชื่อมต่อกัน ผ่านเครือข่ายความเร็วสูงเฉพาะ TPU Pod เป็นการกำหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่พร้อมใช้งานสำหรับ TPU เวอร์ชันที่เฉพาะเจาะจง

ทรัพยากร TPU

#TensorFlow
#GoogleCloud

เอนทิตี TPU ใน Google Cloud ที่คุณสร้าง จัดการ หรือใช้ เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU

Slice TPU

#TensorFlow
#GoogleCloud

TPU Slice คือส่วนย่อยของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดใน TPU Slice จะเชื่อมต่อ กันผ่านเครือข่ายความเร็วสูงเฉพาะ

ประเภท TPU

#TensorFlow
#GoogleCloud

การกำหนดค่าอุปกรณ์ TPU อย่างน้อย 1 เครื่องที่มี ฮาร์ดแวร์ TPU เวอร์ชันที่เฉพาะเจาะจง คุณเลือกประเภท TPU เมื่อสร้างโหนด TPU ใน Google Cloud เช่น v2-8 ประเภท TPU คืออุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ v3-2048 ประเภท TPU มีอุปกรณ์ TPU v3 ที่เชื่อมต่อเครือข่าย 256 เครื่องและมีคอร์ทั้งหมด 2048 คอร์ ประเภท TPU เป็นทรัพยากรที่กำหนดไว้ใน Cloud TPU API

TPU Worker

#TensorFlow
#GoogleCloud

กระบวนการที่ทำงานบนเครื่องโฮสต์และเรียกใช้โปรแกรมแมชชีนเลิร์นนิง ในอุปกรณ์ TPU