หน่วยก่อนหน้านี้ได้อธิบาย LLM สำหรับวัตถุประสงค์ทั่วไป หรือที่เรียกว่า
- LLM พื้นฐาน
- LLM พื้นฐาน
- LLM ที่ผ่านการฝึกอบรมล่วงหน้า
LLM พื้นฐานได้รับการฝึกด้วยภาษาที่เป็นธรรมชาติมากพอที่จะ "รู้" ข้อมูลจำนวนมากเกี่ยวกับไวยากรณ์ คำ และสำนวน โมเดลภาษาพื้นฐานสามารถสร้างประโยคที่เป็นประโยชน์เกี่ยวกับหัวข้อที่ผ่านการฝึก นอกจากนี้ LLM พื้นฐานยังทำงานบางอย่างที่เรียกกันว่า "ความคิดสร้างสรรค์" ได้ เช่น การเขียนบทกวี อย่างไรก็ตาม เอาต์พุตข้อความแบบ Generative ของ LLM พื้นฐานไม่ใช่โซลูชันสำหรับปัญหา ML ทั่วไปประเภทอื่นๆ เช่น การถดถอยหรือการจำแนก สำหรับกรณีการใช้งานเหล่านี้ LLM พื้นฐานทำหน้าที่เป็นแพลตฟอร์ม ไม่ใช่โซลูชัน
การเปลี่ยน LLM พื้นฐานเป็นโซลูชันที่ตรงกับความต้องการของแอปพลิเคชันต้องใช้กระบวนการที่เรียกว่าการปรับแต่ง กระบวนการรองที่เรียกว่าการกลั่นจะสร้างโมเดลที่ปรับแต่งมาอย่างดีเวอร์ชันที่เล็กลง (มีพารามิเตอร์น้อยกว่า)
การปรับแต่ง
งานวิจัยแสดงให้เห็นว่าความสามารถในการจดจำรูปแบบของโมเดลภาษาพื้นฐานมีประสิทธิภาพสูงมากจนบางครั้งต้องอาศัยการฝึกเพิ่มเติมเพียงเล็กน้อยเพื่อเรียนรู้งานบางอย่าง การฝึกเพิ่มเติมนี้ช่วยให้โมเดลคาดการณ์ได้ดีขึ้นสำหรับงานหนึ่งๆ การฝึกอบรมเพิ่มเติมนี้เรียกว่าการปรับแต่ง ซึ่งจะช่วยปลดล็อกด้านการปฏิบัติจริงของ LLM
การปรับแต่งแบบละเอียดจะฝึกจากตัวอย่างที่เจาะจงกับงานที่แอปพลิเคชันจะดำเนินการ บางครั้งวิศวกรสามารถปรับแต่ง LLM พื้นฐานโดยใช้ตัวอย่างการฝึกเพียงไม่กี่ร้อยหรือไม่กี่พันตัวอย่าง
แม้จะมีตัวอย่างการฝึกเพียงเล็กน้อย แต่การปรับแต่งแบบมาตรฐานมักจะมีค่าใช้จ่ายในการคำนวณสูง เนื่องจากการปรับแต่งแบบละเอียดมาตรฐานเกี่ยวข้องกับการอัปเดตน้ำหนักและค่ากําหนดของพารามิเตอร์แต่ละรายการในการวนซ้ำbackpropagation แต่ละครั้ง แต่โชคดีที่กระบวนการที่ฉลาดขึ้นที่เรียกว่าการปรับพารามิเตอร์อย่างมีประสิทธิภาพสามารถปรับแต่ง LLM ได้โดยการปรับเฉพาะชุดย่อยของพารามิเตอร์ในการวนซ้ำของการย้อนกลับแต่ละครั้ง
การคาดการณ์ของโมเดลที่ปรับแต่งอย่างละเอียดมักจะดีกว่าการคาดการณ์ของ LLM พื้นฐาน อย่างไรก็ตาม โมเดลที่ปรับแต่งจะมีจำนวนพารามิเตอร์เท่ากับ LLM พื้นฐาน ดังนั้นหาก LLM พื้นฐานมีพารามิเตอร์ 10, 000 ล้านรายการ เวอร์ชันที่ปรับแต่งจะมีพารามิเตอร์ 10, 000 ล้านรายการด้วย
น้ำกลั่น
LLM ที่ปรับแต่งอย่างละเอียดส่วนใหญ่มีพารามิเตอร์จํานวนมาก ด้วยเหตุนี้ LLM พื้นฐานจึงต้องใช้ทรัพยากรด้านการคำนวณและสภาพแวดล้อมจำนวนมากเพื่อสร้างการคาดการณ์ โปรดทราบว่าพารามิเตอร์จำนวนมากเหล่านั้นมักจะไม่เกี่ยวข้องกับแอปพลิเคชันหนึ่งๆ โดยเฉพาะ
การกลั่น สร้าง LLM เวอร์ชันที่เล็กลง LLM ที่กลั่นแล้วจะสร้างการคาดการณ์ได้เร็วกว่ามาก และใช้ทรัพยากรการประมวลผลและสภาพแวดล้อมน้อยกว่า LLM แบบเต็ม อย่างไรก็ตาม การคาดการณ์ของโมเดลที่ผ่านการกลั่นกรองมักจะไม่ค่อยดีเท่ากับการคาดการณ์ของ LLM เดิม โปรดอย่าลืมว่า LLM ที่มีพารามิเตอร์มากกว่าจะสร้างการคาดการณ์ที่ดีกว่า LLM ที่มีพารามิเตอร์น้อยกว่าเกือบทุกครั้ง
วิศวกรรมพรอมต์
การปรับแต่งพรอมต์ ช่วยให้ผู้ใช้ปลายทางของ LLM ปรับแต่งเอาต์พุตของโมเดลได้ กล่าวคือ ผู้ใช้ปลายทางจะชี้แจงว่า LLM ควรตอบสนองต่อพรอมต์อย่างไร
มนุษย์เรียนรู้จากตัวอย่างได้ดี LLM ก็เช่นกัน การแสดงตัวอย่าง 1 รายการต่อ LLM เรียกว่าการแจ้งเตือนแบบครั้งเดียว ตัวอย่างเช่น สมมติว่าคุณต้องการให้โมเดลใช้รูปแบบต่อไปนี้ เพื่อแสดงกลุ่มของผลไม้
ผู้ใช้ป้อนชื่อผลไม้: LLM จะแสดงผลคลาสของผลไม้นั้น
พรอมต์แบบครั้งเดียวจะแสดงตัวอย่างเดียวของรูปแบบก่อนหน้าให้ LLM แล้วขอให้ LLM ดำเนินการค้นหาตามตัวอย่างดังกล่าว ตัวอย่างเช่น
peach: drupe apple: ______
บางครั้งตัวอย่างเพียงรายการเดียวก็เพียงพอแล้ว หากใช่ LLM จะแสดงการคาดการณ์ที่เป็นประโยชน์ ตัวอย่างเช่น
apple: pome
ในกรณีอื่นๆ ตัวอย่างเพียงรายการเดียวอาจไม่เพียงพอ กล่าวคือ ผู้ใช้ต้องแสดงตัวอย่าง LLM หลายรายการ เช่น พรอมต์ต่อไปนี้มี ตัวอย่าง 2 รายการ
plum: drupe pear: pome lemon: ____
การใส่ตัวอย่างหลายรายการเรียกว่าข้อความแจ้งเพียง 2-3 ครั้ง คุณอาจมองว่า 2 บรรทัดแรกของพรอมต์ก่อนหน้าเป็นตัวอย่างการฝึกก็ได้
LLM ให้การคาดการณ์ที่มีประโยชน์ได้โดยไม่ต้องมีตัวอย่าง (การพรอมต์แบบไม่ใช้ตัวอย่าง) ไหม บางครั้ง แต่ LLM ชอบบริบท หากไม่มีบริบท พรอมต์แบบยิงนัดเดียวต่อไปนี้อาจแสดงข้อมูลเกี่ยวกับบริษัทเทคโนโลยีแทนผลไม้
apple: _______
การทำนายแบบออฟไลน์
บางครั้งจํานวนพารามิเตอร์ใน LLM อาจมีมากจนการอนุมานออนไลน์ทำงานช้าเกินกว่าที่จะนําไปใช้กับงานในชีวิตจริงได้ เช่น การหาค่าสัมประสิทธ์เชิงเส้นหรือการแยกประเภท ด้วยเหตุนี้ ทีมวิศวกรจํานวนมากจึงใช้การอนุมานแบบออฟไลน์ (หรือที่เรียกว่าการอนุมานแบบเป็นกลุ่มหรือการอนุมานแบบคงที่) แทน กล่าวคือ โมเดลที่ผ่านการฝึกอบรมจะทำการคาดการณ์ล่วงหน้าและแคชการคาดการณ์เหล่านั้นไว้แทนที่จะตอบกลับการค้นหา ณ เวลาแสดงผล
ไม่ว่า LLM จะต้องใช้เวลานานในการทำงานหรือไม่ก็ตามหาก LLM ต้องดำเนินการดังกล่าวเพียงสัปดาห์ละครั้งหรือเดือนละครั้ง
ตัวอย่างเช่น Google Search ใช้ LLM เพื่อทำการอนุมานแบบออฟไลน์เพื่อแคชรายการคำพ้องความหมายกว่า 800 คำสำหรับวัคซีนโควิดในภาษาต่างๆ กว่า 50 ภาษา จากนั้น Google Search จะใช้รายการที่แคชไว้เพื่อระบุการค้นหาเกี่ยวกับวัคซีนในการเข้าชมแบบเรียลไทม์
ใช้ LLM อย่างมีความรับผิดชอบ
โดยทั่วไปแล้ว LLM มักมีอคติดังต่อไปนี้ เช่นเดียวกับแมชชีนเลิร์นนิงทุกรูปแบบ
- ข้อมูลที่ได้รับในการฝึก
- ข้อมูลที่ใช้กลั่น
ใช้ LLM อย่างเป็นธรรมและมีความรับผิดชอบตามบทเรียนที่นำเสนอก่อนหน้านี้ในหลักสูตรนี้