LLM: การปรับแต่ง การกลั่น และพรอมต์วิศวกรรม

หน่วยก่อนหน้านี้ได้อธิบาย LLM สำหรับวัตถุประสงค์ทั่วไป หรือที่เรียกว่า

  • LLM พื้นฐาน
  • LLM พื้นฐาน
  • LLM ที่ผ่านการฝึกอบรมล่วงหน้า

LLM พื้นฐานได้รับการฝึกด้วยภาษาที่เป็นธรรมชาติมากพอที่จะ "รู้" ข้อมูลจำนวนมากเกี่ยวกับไวยากรณ์ คำ และสำนวน โมเดลภาษาพื้นฐานสามารถสร้างประโยคที่เป็นประโยชน์เกี่ยวกับหัวข้อที่ผ่านการฝึก นอกจากนี้ LLM พื้นฐานยังทำงานบางอย่างที่เรียกกันว่า "ความคิดสร้างสรรค์" ได้ เช่น การเขียนบทกวี อย่างไรก็ตาม เอาต์พุตข้อความแบบ Generative ของ LLM พื้นฐานไม่ใช่โซลูชันสำหรับปัญหา ML ทั่วไปประเภทอื่นๆ เช่น การถดถอยหรือการจำแนก สำหรับกรณีการใช้งานเหล่านี้ LLM พื้นฐานทำหน้าที่เป็นแพลตฟอร์ม ไม่ใช่โซลูชัน

การเปลี่ยน LLM พื้นฐานเป็นโซลูชันที่ตรงกับความต้องการของแอปพลิเคชันต้องใช้กระบวนการที่เรียกว่าการปรับแต่ง กระบวนการรองที่เรียกว่าการกลั่นจะสร้างโมเดลที่ปรับแต่งมาอย่างดีเวอร์ชันที่เล็กลง (มีพารามิเตอร์น้อยกว่า)

การปรับแต่ง

งานวิจัยแสดงให้เห็นว่าความสามารถในการจดจำรูปแบบของโมเดลภาษาพื้นฐานมีประสิทธิภาพสูงมากจนบางครั้งต้องอาศัยการฝึกเพิ่มเติมเพียงเล็กน้อยเพื่อเรียนรู้งานบางอย่าง การฝึกเพิ่มเติมนี้ช่วยให้โมเดลคาดการณ์ได้ดีขึ้นสำหรับงานหนึ่งๆ การฝึกอบรมเพิ่มเติมนี้เรียกว่าการปรับแต่ง ซึ่งจะช่วยปลดล็อกด้านการปฏิบัติจริงของ LLM

การปรับแต่งแบบละเอียดจะฝึกจากตัวอย่างที่เจาะจงกับงานที่แอปพลิเคชันจะดำเนินการ บางครั้งวิศวกรสามารถปรับแต่ง LLM พื้นฐานโดยใช้ตัวอย่างการฝึกเพียงไม่กี่ร้อยหรือไม่กี่พันตัวอย่าง

แม้จะมีตัวอย่างการฝึกเพียงเล็กน้อย แต่การปรับแต่งแบบมาตรฐานมักจะมีค่าใช้จ่ายในการคำนวณสูง เนื่องจากการปรับแต่งแบบละเอียดมาตรฐานเกี่ยวข้องกับการอัปเดตน้ำหนักและค่ากําหนดของพารามิเตอร์แต่ละรายการในการวนซ้ำbackpropagation แต่ละครั้ง แต่โชคดีที่กระบวนการที่ฉลาดขึ้นที่เรียกว่าการปรับพารามิเตอร์อย่างมีประสิทธิภาพสามารถปรับแต่ง LLM ได้โดยการปรับเฉพาะชุดย่อยของพารามิเตอร์ในการวนซ้ำของการย้อนกลับแต่ละครั้ง

การคาดการณ์ของโมเดลที่ปรับแต่งอย่างละเอียดมักจะดีกว่าการคาดการณ์ของ LLM พื้นฐาน อย่างไรก็ตาม โมเดลที่ปรับแต่งจะมีจำนวนพารามิเตอร์เท่ากับ LLM พื้นฐาน ดังนั้นหาก LLM พื้นฐานมีพารามิเตอร์ 10, 000 ล้านรายการ เวอร์ชันที่ปรับแต่งจะมีพารามิเตอร์ 10, 000 ล้านรายการด้วย

น้ำกลั่น

LLM ที่ปรับแต่งอย่างละเอียดส่วนใหญ่มีพารามิเตอร์จํานวนมาก ด้วยเหตุนี้ LLM พื้นฐานจึงต้องใช้ทรัพยากรด้านการคำนวณและสภาพแวดล้อมจำนวนมากเพื่อสร้างการคาดการณ์ โปรดทราบว่าพารามิเตอร์จำนวนมากเหล่านั้นมักจะไม่เกี่ยวข้องกับแอปพลิเคชันหนึ่งๆ โดยเฉพาะ

การกลั่น สร้าง LLM เวอร์ชันที่เล็กลง LLM ที่กลั่นแล้วจะสร้างการคาดการณ์ได้เร็วกว่ามาก และใช้ทรัพยากรการประมวลผลและสภาพแวดล้อมน้อยกว่า LLM แบบเต็ม อย่างไรก็ตาม การคาดการณ์ของโมเดลที่ผ่านการกลั่นกรองมักจะไม่ค่อยดีเท่ากับการคาดการณ์ของ LLM เดิม โปรดอย่าลืมว่า LLM ที่มีพารามิเตอร์มากกว่าจะสร้างการคาดการณ์ที่ดีกว่า LLM ที่มีพารามิเตอร์น้อยกว่าเกือบทุกครั้ง

วิศวกรรมพรอมต์

การปรับแต่งพรอมต์ ช่วยให้ผู้ใช้ปลายทางของ LLM ปรับแต่งเอาต์พุตของโมเดลได้ กล่าวคือ ผู้ใช้ปลายทางจะชี้แจงว่า LLM ควรตอบสนองต่อพรอมต์อย่างไร

มนุษย์เรียนรู้จากตัวอย่างได้ดี LLM ก็เช่นกัน การแสดงตัวอย่าง 1 รายการต่อ LLM เรียกว่าการแจ้งเตือนแบบครั้งเดียว ตัวอย่างเช่น สมมติว่าคุณต้องการให้โมเดลใช้รูปแบบต่อไปนี้ เพื่อแสดงกลุ่มของผลไม้

ผู้ใช้ป้อนชื่อผลไม้: LLM จะแสดงผลคลาสของผลไม้นั้น

พรอมต์แบบครั้งเดียวจะแสดงตัวอย่างเดียวของรูปแบบก่อนหน้าให้ LLM แล้วขอให้ LLM ดำเนินการค้นหาตามตัวอย่างดังกล่าว ตัวอย่างเช่น

peach: drupe
apple: ______

บางครั้งตัวอย่างเพียงรายการเดียวก็เพียงพอแล้ว หากใช่ LLM จะแสดงการคาดการณ์ที่เป็นประโยชน์ ตัวอย่างเช่น

apple: pome

ในกรณีอื่นๆ ตัวอย่างเพียงรายการเดียวอาจไม่เพียงพอ กล่าวคือ ผู้ใช้ต้องแสดงตัวอย่าง LLM หลายรายการ เช่น พรอมต์ต่อไปนี้มี ตัวอย่าง 2 รายการ

plum: drupe
pear: pome
lemon: ____

การใส่ตัวอย่างหลายรายการเรียกว่าข้อความแจ้งเพียง 2-3 ครั้ง คุณอาจมองว่า 2 บรรทัดแรกของพรอมต์ก่อนหน้าเป็นตัวอย่างการฝึกก็ได้

LLM ให้การคาดการณ์ที่มีประโยชน์ได้โดยไม่ต้องมีตัวอย่าง (การพรอมต์แบบไม่ใช้ตัวอย่าง) ไหม บางครั้ง แต่ LLM ชอบบริบท หากไม่มีบริบท พรอมต์แบบยิงนัดเดียวต่อไปนี้อาจแสดงข้อมูลเกี่ยวกับบริษัทเทคโนโลยีแทนผลไม้

apple: _______

การทำนายแบบออฟไลน์

บางครั้งจํานวนพารามิเตอร์ใน LLM อาจมีมากจนการอนุมานออนไลน์ทำงานช้าเกินกว่าที่จะนําไปใช้กับงานในชีวิตจริงได้ เช่น การหาค่าสัมประสิทธ์เชิงเส้นหรือการแยกประเภท ด้วยเหตุนี้ ทีมวิศวกรจํานวนมากจึงใช้การอนุมานแบบออฟไลน์ (หรือที่เรียกว่าการอนุมานแบบเป็นกลุ่มหรือการอนุมานแบบคงที่) แทน กล่าวคือ โมเดลที่ผ่านการฝึกอบรมจะทำการคาดการณ์ล่วงหน้าและแคชการคาดการณ์เหล่านั้นไว้แทนที่จะตอบกลับการค้นหา ณ เวลาแสดงผล

ไม่ว่า LLM จะต้องใช้เวลานานในการทำงานหรือไม่ก็ตามหาก LLM ต้องดำเนินการดังกล่าวเพียงสัปดาห์ละครั้งหรือเดือนละครั้ง

ตัวอย่างเช่น Google Search ใช้ LLM เพื่อทำการอนุมานแบบออฟไลน์เพื่อแคชรายการคำพ้องความหมายกว่า 800 คำสำหรับวัคซีนโควิดในภาษาต่างๆ กว่า 50 ภาษา จากนั้น Google Search จะใช้รายการที่แคชไว้เพื่อระบุการค้นหาเกี่ยวกับวัคซีนในการเข้าชมแบบเรียลไทม์

ใช้ LLM อย่างมีความรับผิดชอบ

โดยทั่วไปแล้ว LLM มักมีอคติดังต่อไปนี้ เช่นเดียวกับแมชชีนเลิร์นนิงทุกรูปแบบ

  • ข้อมูลที่ได้รับในการฝึก
  • ข้อมูลที่ใช้กลั่น

ใช้ LLM อย่างเป็นธรรมและมีความรับผิดชอบตามบทเรียนที่นำเสนอก่อนหน้านี้ในหลักสูตรนี้

แบบฝึกหัด: ทดสอบความเข้าใจ

ข้อความใดต่อไปนี้เป็นจริงเกี่ยวกับ LLM
LLM ที่กลั่นมีพารามิเตอร์น้อยกว่าโมเดลภาษาพื้นฐานที่สร้างขึ้น
ใช่ การกลั่นจะลดจํานวนพารามิเตอร์
LLM ที่ปรับแต่งจะมีพารามิเตอร์น้อยกว่าโมเดลภาษาพื้นฐานที่ใช้ฝึก
โมเดลที่ปรับแต่งจะมีพารามิเตอร์จํานวนเท่ากันกับโมเดลภาษาพื้นฐานเดิม
เมื่อผู้ใช้ทำการวิศวกรรมพรอมต์มากขึ้น จํานวนพารามิเตอร์ใน LLM ก็จะเพิ่มขึ้น
Prompt Engineering จะไม่เพิ่ม (หรือลบ) หรือแก้ไข) พารามิเตอร์ LLM