หน่วยก่อนหน้านี้ได้อธิบายเกี่ยวกับ LLM ที่มีวัตถุประสงค์ทั่วไปไว้หลายอย่าง หรือที่รู้จักกันในชื่อ:
- LLM ของมูลนิธิ
- LLM พื้นฐาน
- LLM ก่อนการฝึก
LLM ระดับพื้นฐานได้รับการฝึกด้วยภาษาที่เป็นธรรมชาติมากพอที่จะ "รู้" ที่โดดเด่น เกี่ยวกับไวยากรณ์ คำ และสำนวน โมเดลภาษาพื้นฐาน สร้างประโยคที่เป็นประโยชน์เกี่ยวกับหัวข้อที่ฝึกสอน นอกจากนี้ LLM พื้นฐานยังทำงานบางอย่างที่เดิมเรียกว่า "สร้างสรรค์" อย่างการเขียนบทกวี แต่ข้อความ Generative AI ของพื้นฐาน LLM เอาต์พุตไม่ใช่ทางออกสำหรับปัญหา ML ทั่วไปประเภทอื่นๆ เช่น การถดถอยหรือการจำแนกประเภท สำหรับกรณีการใช้งานเหล่านี้ LLM พื้นฐานสามารถแสดงได้ เป็นแพลตฟอร์ม ไม่ใช่โซลูชัน
การเปลี่ยน LLM พื้นฐานให้เป็นโซลูชันที่ตอบโจทย์ ความต้องการจะต้องมีกระบวนการที่เรียกว่าการปรับแต่ง กระบวนการรองที่เรียกว่า distillation จะสร้างตัวแปรที่ปรับแต่งโดยมีขนาดเล็กลง (พารามิเตอร์น้อยลง) โมเดล
การปรับแต่ง
งานวิจัยแสดงให้เห็นว่าความสามารถในการจดจำรูปแบบของพื้นฐาน โมเดลภาษามีประสิทธิภาพมากจนบางครั้งต้องใช้ การฝึกอบรมเพิ่มเติมเล็กน้อย เพื่อเรียนรู้งานบางอย่าง การฝึกเพิ่มเติมดังกล่าวช่วยให้โมเดลคาดการณ์ได้ดีขึ้น สำหรับงานที่เจาะจงโดยเฉพาะ การฝึกอบรมเพิ่มเติมนี้เรียกว่า การปรับแต่ง ปลดล็อกด้านการปฏิบัติจริงของ LLM
การปรับแต่งการฝึกตัวอย่างที่เจาะจงสำหรับงานแอปพลิเคชันของคุณ จะประสบความสำเร็จจริงๆ บางครั้งวิศวกรสามารถปรับแต่ง LLM พื้นฐานในไม่กี่ตัวเลือก ตัวอย่างการฝึกประมาณ 100-200,000 ตัวอย่าง
แม้จะมีตัวอย่างการฝึกที่ไม่มากนัก แต่การปรับแต่งแบบมาตรฐาน มักมีค่าใช้จ่ายในการประมวลผลสูง เพราะการปรับแต่งแบบมาตรฐานเกี่ยวข้องกับ อัปเดตน้ำหนักและความลำเอียงของทุกพารามิเตอร์ในแต่ละพารามิเตอร์ backpropagation โชคดีที่กระบวนการที่ชาญฉลาดขึ้น ซึ่งเรียกว่า การใช้พารามิเตอร์อย่างมีประสิทธิภาพ การปรับแต่ง สามารถปรับแต่ง LLM ได้โดยการปรับเฉพาะสับเซ็ตของพารามิเตอร์ในแต่ละพารามิเตอร์ Backpropagation ซ้ำ
การคาดการณ์ของโมเดลที่ปรับแต่งแล้วมักจะดีกว่า LLM พื้นฐาน การคาดการณ์ อย่างไรก็ตาม แบบจำลองที่ผ่านการปรับแต่งจะมีจำนวนเท่ากัน เป็น LLM พื้นฐาน ดังนั้นหาก LLM ของมูลนิธิมี แล้วยังมีเวอร์ชันที่ปรับแต่งมาอย่างดี พารามิเตอร์
น้ำกลั่น
LLM ที่มีการปรับแต่งส่วนใหญ่จะมีพารามิเตอร์จำนวนมาก ด้วยเหตุนี้ LLM พื้นฐานต้องใช้ทรัพยากรด้านการคำนวณและสิ่งแวดล้อมจำนวนมหาศาล เพื่อสร้างการคาดการณ์ โปรดทราบว่ากลุ่มพารามิเตอร์ขนาดใหญ่ มักไม่เกี่ยวข้องกับแอปพลิเคชันใดแอปพลิเคชันหนึ่ง
การกลั่น จะสร้าง LLM เวอร์ชันที่เล็กลง LLM ที่กลั่นแล้วสร้างการคาดการณ์ รวดเร็วกว่ามาก รวมถึงใช้ทรัพยากรในการคำนวณและสิ่งแวดล้อมน้อยกว่า LLM เต็มรูปแบบ อย่างไรก็ตาม การคาดการณ์ของโมเดลที่ผ่านการกลั่นกรองมักจะไม่ ค่อนข้างดีพอๆ กับการคาดการณ์ของ LLM เดิมเลย อย่าลืมว่า LLM มีค่ามากกว่า พารามิเตอร์มักจะสร้างการคาดการณ์ที่ดีกว่า LLM ที่มีจำนวนน้อยกว่าเสมอ พารามิเตอร์
วิศวกรรมพรอมต์
วิศวกรรมพรอมต์ เปิดใช้ผู้ใช้ปลายทางของ LLM เพื่อปรับแต่งเอาต์พุตของโมเดล กล่าวคือ ผู้ใช้ปลายทางควรชี้แจงวิธีที่ LLM ควรตอบสนองต่อข้อความแจ้งของตน
มนุษย์เรียนรู้ได้ดีจากตัวอย่าง LLM ก็เช่นเดียวกัน กำลังแสดงตัวอย่าง 1 รายการสำหรับ LLM เรียกว่า การส่งข้อความแจ้งแบบครั้งเดียว ตัวอย่างเช่น สมมติว่าคุณต้องการให้โมเดลใช้รูปแบบต่อไปนี้ในการแสดงผล ครอบครัวผลไม้:
ผู้ใช้ป้อนชื่อผลไม้: เอาต์พุต LLM จะแสดงคลาสของผลไม้ดังกล่าว
พรอมต์แบบครั้งเดียวจะแสดงตัวอย่างเดียวของรูปแบบก่อนหน้าให้ LLM และขอให้ LLM ดำเนินการค้นหาตามตัวอย่างดังกล่าว ตัวอย่างเช่น
peach: drupe apple: ______
แค่เพียงตัวอย่างเดียวก็เพียงพอแล้ว หากใช่ LLM จะแสดงผลเป็น การคาดคะเน ตัวอย่างเช่น
apple: pome
ในกรณีอื่นๆ ตัวอย่างเดียวไม่เพียงพอ กล่าวคือ ผู้ใช้ต้อง แสดงตัวอย่าง LLM หลายรายการ ตัวอย่างเช่น พรอมต์ต่อไปนี้มี ตัวอย่าง 2 รายการ
plum: drupe pear: pome lemon: ____
การระบุหลายตัวอย่างเรียกว่า ข้อความแจ้งเพียง 2-3 ครั้ง ให้ลองคิดว่า 2 บรรทัดแรกของข้อความแจ้งก่อนหน้าเป็นการฝึก ตัวอย่าง
LLM สามารถให้การคาดคะเนที่มีประโยชน์โดยไม่มีตัวอย่างได้หรือไม่ (ศูนย์ภาพ การแสดงข้อความแจ้ง) บางครั้ง LLM คล้ายกับบริบท หากไม่มีบริบท ข้อความแจ้งการตั้งค่า Zero-shot ต่อไปนี้ แสดงข้อมูลเกี่ยวกับบริษัทเทคโนโลยี ไม่ใช่ประโยชน์:
apple: _______
การอนุมานออฟไลน์
บางครั้ง จำนวนพารามิเตอร์ใน LLM มีค่าเท่ากับ ขนาดใหญ่ที่การอนุมานออนไลน์ ช้าเกินไปที่จะนำมาใช้งานในชีวิตจริง เช่น การถดถอย หรือ การจำแนกประเภท ทีมวิศวกรจำนวนมากจึงอาศัย การอนุมานออฟไลน์ (รวมถึง หรือที่เรียกว่าการอนุมานแบบกลุ่ม หรือการอนุมานแบบคงที่) แทน กล่าวคือ แทนที่จะตอบกลับคำค้นหาขณะแสดงผล โมเดลที่ผ่านการฝึกจะคาดการณ์ล่วงหน้าแล้วแคชการคาดการณ์เหล่านั้น
ไม่ว่า LLM จะต้องใช้เวลานานในการทำงานหรือไม่ก็ตามหาก LLM จะทำงานเพียงสัปดาห์ละครั้งหรือเดือนละครั้ง
เช่น Google Search ใช้ LLM ทำการอนุมานแบบออฟไลน์เพื่อแคชรายการคำพ้องความหมายกว่า 800 คำ สำหรับวัคซีนโควิดในกว่า 50 ภาษา จากนั้น Google Search ใช้ รายการที่แคชไว้เพื่อระบุคำค้นหาเกี่ยวกับวัคซีนในการเข้าชมแบบสด
ใช้ LLM อย่างมีความรับผิดชอบ
โดยทั่วไปแล้ว LLM มักมีอคติต่อไปนี้ เช่นเดียวกับแมชชีนเลิร์นนิงทุกรูปแบบ
- ข้อมูลที่ได้รับการฝึกมา
- ข้อมูลที่มีการกลั่น
ใช้ LLM อย่างเป็นธรรมและมีความรับผิดชอบตามบทเรียนที่นำเสนอ ก่อนหน้านี้ในหลักสูตรนี้