LLM: Tinh chỉnh, chưng cất và kỹ thuật tạo câu lệnh

Bài trước đã mô tả các mô hình ngôn ngữ lớn (LLM) đa năng, theo nhiều cách được gọi là:

  • mô hình ngôn ngữ lớn (LLM) thành lập
  • các mô hình ngôn ngữ lớn (LLM) cơ sở
  • các mô hình ngôn ngữ lớn được đào tạo trước

Một mô hình ngôn ngữ lớn (LLM) nền tảng được huấn luyện về ngôn ngữ tự nhiên đủ để "biết" một sự kiện đáng chú ý liên quan đến ngữ pháp, từ ngữ và thành ngữ. Mô hình ngôn ngữ nền tảng có thể tạo ra những câu hữu ích về những chủ đề được huấn luyện. Hơn nữa, một mô hình ngôn ngữ lớn (LLM) nền tảng có thể thực hiện một số nhiệm vụ nhất định mà trước đây gọi là "quảng cáo" chẳng hạn như làm thơ. Tuy nhiên, văn bản tạo sinh của một mô hình ngôn ngữ lớn (LLM) nền tảng đầu ra không phải là giải pháp cho các loại vấn đề học máy phổ biến khác, chẳng hạn như hồi quy hoặc phân loại. Đối với những trường hợp sử dụng này, một mô hình ngôn ngữ lớn (LLM) nền tảng có thể phân phát dưới dạng nền tảng chứ không phải là một giải pháp.

Chuyển đổi một mô hình ngôn ngữ lớn (LLM) nền tảng thành một giải pháp đáp ứng được đòi hỏi một quá trình gọi là tinh chỉnh. Một quá trình phụ được gọi là quá trình chưng cất tạo ra một phiên bản nhỏ hơn (ít tham số hơn) của tinh chỉnh mô hình.

Tinh chỉnh

Nghiên cứu cho thấy khả năng nhận biết mẫu của nền tảng các mô hình ngôn ngữ mạnh đến mức đôi khi chúng đòi hỏi tương đối để tìm hiểu các nhiệm vụ cụ thể. Việc huấn luyện bổ sung giúp mô hình này đưa ra dự đoán chính xác hơn về một nhiệm vụ cụ thể. Chương trình đào tạo bổ sung này, có tên là tinh chỉnh, khai phá khía cạnh thực tiễn của một LLM.

Tinh chỉnh các quá trình huấn luyện dựa trên các ví dụ cụ thể cho tác vụ mà ứng dụng của bạn sẽ thực hiện. Đôi khi, các kỹ sư có thể tinh chỉnh một mô hình ngôn ngữ lớn (LLM) nền tảng chỉ bằng một vài hàng trăm hoặc vài nghìn ví dụ huấn luyện.

Mặc dù số lượng ví dụ huấn luyện tương đối nhỏ, nhưng tinh chỉnh chuẩn thường rất tốn kém về mặt tính toán. Đó là do quá trình tinh chỉnh chuẩn liên quan đến cập nhật trọng số và độ chệch của mọi tham số của mỗi tham số Lặp lại backpropagation. May mắn là một quy trình thông minh hơn có tên là hiệu quả về tham số chỉnh có thể tinh chỉnh một LLM bằng cách chỉ điều chỉnh một tập hợp con các tham số trên mỗi lặp lại lan truyền ngược.

Thông tin dự đoán của một mô hình được tinh chỉnh thường tốt hơn dự đoán của LLM (mô hình ngôn ngữ lớn) nền tảng dự đoán. Tuy nhiên, một mô hình được tinh chỉnh có cùng số lượng các tham số này làm mô hình ngôn ngữ lớn (LLM) nền tảng. Nếu một LLM (mô hình ngôn ngữ lớn) của tổ chức chứa 10 tỷ thì phiên bản tinh chỉnh cũng sẽ chứa 10 tỷ tham số.

Chưng cất

Hầu hết các LLM được tinh chỉnh đều chứa số lượng lớn các tham số. Do đó, các LLM (mô hình ngôn ngữ lớn) nền tảng đòi hỏi lượng tài nguyên điện toán khổng lồ và tài nguyên môi trường để tạo các dự đoán. Xin lưu ý rằng phần lớn các tham số đó được thường không liên quan đến một ứng dụng cụ thể.

chưng cất sẽ tạo một phiên bản nhỏ hơn của một mô hình ngôn ngữ lớn (LLM). Mô hình ngôn ngữ lớn (LLM) được chắt lọc tạo ra thông tin dự đoán nhanh hơn nhiều và đòi hỏi ít tài nguyên điện toán và môi trường hơn so với LLM đầy đủ. Tuy nhiên, các dự đoán của mô hình chắt lọc thường không khá tốt như dự đoán của LLM ban đầu. Hãy nhớ rằng các LLM (mô hình ngôn ngữ lớn) có nhiều các tham số hầu như luôn tạo ra thông tin dự đoán chính xác hơn so với các LLM có ít tham số hơn tham số.

Kỹ thuật đặt câu lệnh

Kỹ thuật câu lệnh cho phép người dùng cuối của LLM tuỳ chỉnh dữ liệu đầu ra của mô hình. Tức là người dùng cuối có thể làm rõ cách LLM phản hồi lời nhắc của họ.

Con người có thể học hỏi nhiều thông qua các ví dụ. Các LLM (mô hình ngôn ngữ lớn) cũng vậy. Đang hiển thị một ví dụ cho một mô hình ngôn ngữ lớn (LLM) được gọi nhắc nhở một lần. Ví dụ: giả sử bạn muốn mô hình sử dụng định dạng sau để xuất kết quả gia đình hoa quả:

Người dùng nhập tên của một loại trái cây: LLM xuất ra lớp của loại trái cây đó.

Câu lệnh một lần hiển thị cho LLM một ví dụ duy nhất về định dạng trước đó sau đó yêu cầu LLM hoàn thành một truy vấn dựa trên ví dụ đó. Ví dụ:

peach: drupe
apple: ______

Chỉ một ví dụ đôi khi là đủ. Nếu có, LLM sẽ đưa ra một thông tin hữu ích truy vấn dự đoán. Ví dụ:

apple: pome

Trong các trường hợp khác, chỉ một ví dụ duy nhất là chưa đủ. Tức là, người dùng phải hiển thị nhiều ví dụ cho LLM. Ví dụ: câu lệnh sau đây có chứa hai ví dụ:

plum: drupe
pear: pome
lemon: ____

Việc đưa ra nhiều ví dụ được gọi là thử nhắc vài lần. Bạn có thể coi hai dòng đầu tiên của câu lệnh trước đó là nội dung huấn luyện ví dụ.

Một mô hình ngôn ngữ lớn (LLM) có thể đưa ra thông tin dự đoán hữu ích mà không cần ví dụ không (quay video tự động) nhắc)? Thỉnh thoảng, nhưng Các LLM (mô hình ngôn ngữ lớn) như ngữ cảnh. Nếu không có ngữ cảnh, lời nhắc "không thể thực hiện" sau đây có thể trả về thông tin về công ty công nghệ chứ không phải là trái cây:

apple: _______

Suy luận ngoại tuyến

Số lượng tham số trong một LLM đôi khi là như vậy lớn đến mức suy luận trực tuyến quá chậm nên không thể thực hiện được trong thực tế như hồi quy hoặc của bạn. Do đó, nhiều nhóm kỹ sư dựa vào suy luận ngoại tuyến (cũng được gọi là suy luận hàng loạt hoặc suy luận tĩnh). Nói cách khác, thay vì phản hồi các truy vấn tại thời điểm phân phát, mô hình đã huấn luyện sẽ đưa ra dự đoán trước rồi lưu các dự đoán đó vào bộ nhớ đệm.

Việc một LLM hoàn thành nhiệm vụ sẽ không mất nhiều thời gian nếu LLM chỉ phải thực hiện nhiệm vụ này mỗi tuần một lần hoặc một lần mỗi tháng.

Ví dụ: Google Tìm kiếm đã sử dụng một mô hình ngôn ngữ lớn (LLM) để tiến hành suy luận ngoại tuyến nhằm lưu vào bộ nhớ đệm một danh sách hơn 800 từ đồng nghĩa đối với vắc-xin COVID bằng hơn 50 ngôn ngữ. Sau đó, Google Tìm kiếm đã sử dụng danh sách lưu vào bộ nhớ đệm để xác định cụm từ tìm kiếm về vắc-xin trong lưu lượng truy cập trực tiếp.

Sử dụng LLM một cách có trách nhiệm

Giống như mọi hình thức học máy khác, các LLM thường có chung thiên kiến:

  • Dữ liệu mà họ được đào tạo.
  • Dữ liệu được chắt lọc.

Sử dụng các LLM một cách công bằng và có trách nhiệm theo các bài học được trình bày trước đó trong khoá học này.

Bài tập: Kiểm tra kiến thức

Câu nào sau đây là đúng về LLM?
Một mô hình ngôn ngữ lớn (LLM) được tinh lọc chứa ít tham số hơn nền tảng mô hình ngôn ngữ tương ứng.
Có, quá trình lọc làm giảm số lượng thông số.
Một LLM được tinh chỉnh chứa ít tham số hơn nền tảng mô hình ngôn ngữ được huấn luyện.
Mô hình được tinh chỉnh chứa số lượng tham số giống như mô hình ngôn ngữ nền tảng ban đầu.
Khi người dùng thực hiện nhiều thao tác thiết kế câu lệnh hơn, số lượng tham số trong một LLM phát triển.
Kỹ thuật tạo câu lệnh không thêm (hoặc xoá hoặc thay đổi) mô hình ngôn ngữ lớn (LLM) tham số.