Glosarium Machine Learning: AI Generatif

Halaman ini berisi istilah glosarium AI Generatif. Untuk semua istilah glosarium, klik di sini.

A

adaptasi

#generativeAI

Sinonim untuk penyesuaian atau penyesuaian.

evaluasi otomatis

#generativeAI

Menggunakan software untuk menilai kualitas output model.

Jika output model relatif sederhana, skrip atau program dapat membandingkan output model dengan respons ideal. Jenis evaluasi otomatis ini terkadang disebut evaluasi terprogram. Metrik seperti ROUGE atau BLEU sering kali berguna untuk evaluasi terprogram.

Jika output model rumit atau tidak ada satu jawaban yang benar, program ML terpisah yang disebut penilai otomatis terkadang melakukan evaluasi otomatis.

Berbeda dengan evaluasi manual.

evaluasi pemberi rating otomatis

#generativeAI
Mekanisme hibrida untuk menilai kualitas output model AI generatif yang menggabungkan evaluasi manual dengan evaluasi otomatis. Penilai otomatis adalah model ML yang dilatih pada data yang dibuat oleh evaluasi manusia. Idealnya, autorater belajar meniru evaluator manusia.

Penilai otomatis bawaan tersedia, tetapi penilai otomatis terbaik adalah yang di-fine-tune secara khusus untuk tugas yang Anda evaluasi.

model autoregresif

#generativeAI

Model yang menyimpulkan prediksi berdasarkan prediksi sebelumnya. Misalnya, model bahasa autoregresif memprediksi token berikutnya berdasarkan token yang diprediksi sebelumnya. Semua model bahasa besar berbasis Transformer bersifat autoregresif.

Sebaliknya, model gambar berbasis GAN biasanya tidak autoregresif karena menghasilkan gambar dalam satu penerusan ke depan dan tidak secara iteratif dalam langkah-langkah. Namun, model pembuatan gambar tertentu bersifat autoregresif karena model tersebut menghasilkan gambar secara bertahap.

B

model dasar

#generativeAI

Model terlatih yang dapat berfungsi sebagai titik awal untuk penyesuaian guna menangani tugas atau aplikasi tertentu.

Lihat juga model terlatih dan model dasar.

C

prompting chain-of-thought

#generativeAI

Teknik rekayasa perintah yang mendorong model bahasa besar (LLM) untuk menjelaskan penalarannya, langkah demi langkah. Misalnya, perhatikan perintah berikut, dengan memberikan perhatian khusus pada kalimat kedua:

Berapa gaya gravitasi yang akan dialami pengemudi dalam mobil yang melaju dari 0 hingga 60 mil per jam dalam 7 detik? Dalam jawaban, tunjukkan semua perhitungan yang relevan.

Respons LLM kemungkinan akan:

  • Tampilkan urutan rumus fisika, dengan memasukkan nilai 0, 60, dan 7 di tempat yang sesuai.
  • Jelaskan alasan pemilihan formula tersebut dan arti berbagai variabelnya.

Prompting chain-of-thought memaksa LLM untuk melakukan semua perhitungan, yang dapat menghasilkan jawaban yang lebih benar. Selain itu, perintah chain-of-thought memungkinkan pengguna memeriksa langkah-langkah LLM untuk menentukan apakah jawaban yang diberikan masuk akal atau tidak.

chat

#generativeAI

Isi dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (apa yang Anda ketik dan cara model bahasa besar merespons) menjadi konteks untuk bagian chat berikutnya.

Chatbot adalah aplikasi model bahasa besar.

embedding bahasa yang dikontekstualisasi

#generativeAI

Embedding yang mendekati "pemahaman" kata dan frasa seperti yang dilakukan penutur manusia yang fasih. Penyematan bahasa yang dikontekstualisasi dapat memahami sintaksis, semantik, dan konteks yang kompleks.

Misalnya, pertimbangkan embedding kata cow dalam bahasa Inggris. Embedding lama seperti word2vec dapat merepresentasikan kata-kata bahasa Inggris sehingga jarak dalam ruang embedding dari cow ke bull mirip dengan jarak dari ewe (domba betina) ke ram (domba jantan) atau dari female ke male. Penyematan bahasa yang dikontekstualisasi dapat melangkah lebih jauh dengan mengenali bahwa penutur bahasa Inggris terkadang menggunakan kata cow secara kasual untuk merujuk pada sapi betina atau sapi jantan.

jendela konteks

#generativeAI

Jumlah token yang dapat diproses model dalam perintah tertentu. Makin besar jendela konteks, makin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.

D

perintah langsung

#generativeAI

Sinonim untuk zero-shot prompting.

distilasi

#generativeAI

Proses mengurangi ukuran satu model (dikenal sebagai pengajar) menjadi model yang lebih kecil (dikenal sebagai siswa) yang meniru prediksi model asli seakurat mungkin. Distilasi berguna karena model yang lebih kecil memiliki dua manfaat utama dibandingkan model yang lebih besar (pengajar):

  • Waktu inferensi yang lebih cepat
  • Mengurangi penggunaan memori dan energi

Namun, prediksi siswa biasanya tidak sebaik prediksi pengajar.

Distilasi melatih model siswa untuk meminimalkan fungsi loss berdasarkan perbedaan antara output prediksi model siswa dan model pengajar.

Bandingkan dan bedakan distilasi dengan istilah berikut:

Lihat LLM: Penyesuaian, distilasi, dan rekayasa prompt di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.

E

evaluasi

#generativeAI
#Metric

Terutama digunakan sebagai singkatan untuk evaluasi LLM. Secara umum, evaluasi adalah singkatan untuk segala bentuk evaluasi.

evaluasi

#generativeAI
#Metric

Proses mengukur kualitas model atau membandingkan berbagai model satu sama lain.

Untuk mengevaluasi model machine learning terawasi, Anda biasanya menilainya berdasarkan set validasi dan set pengujian. Mengevaluasi LLM biasanya melibatkan penilaian kualitas dan keamanan yang lebih luas.

F

faktualitas

#generativeAI

Dalam dunia ML, properti yang menjelaskan model yang outputnya didasarkan pada kenyataan. Faktualitas adalah konsep, bukan metrik. Misalnya, Anda mengirimkan perintah berikut ke model bahasa besar:

Apa rumus kimia untuk garam dapur?

Model yang mengoptimalkan faktualitas akan merespons:

NaCl

Kita cenderung berasumsi bahwa semua model harus didasarkan pada faktualitas. Namun, beberapa perintah, seperti berikut, akan menyebabkan model AI generatif mengoptimalkan kreativitas, bukan faktualitas.

Buatkan saya sajak lucu tentang astronot dan ulat.

Limerick yang dihasilkan kemungkinan tidak akan didasarkan pada kenyataan.

Berbeda dengan keterikatan dengan data.

peluruhan cepat

#generativeAI

Teknik pelatihan untuk meningkatkan performa LLM. Peluruhan cepat melibatkan penurunan kecepatan pembelajaran dengan cepat selama pelatihan. Strategi ini membantu mencegah model melakukan overfitting pada data pelatihan, dan meningkatkan generalisasi.

few-shot prompting

#generativeAI

Perintah yang berisi lebih dari satu contoh (beberapa contoh) yang menunjukkan cara model bahasa yang besar harus merespons. Misalnya, perintah panjang berikut berisi dua contoh yang menunjukkan cara model bahasa yang besar menjawab kueri.

Bagian dari satu perintah Catatan
Apa mata uang resmi negara yang ditentukan? Pertanyaan yang ingin Anda minta jawabannya dari LLM.
Prancis: EUR Satu contoh.
Inggris Raya: GBP Contoh lain.
India: Kueri sebenarnya.

Few-shot prompting umumnya menghasilkan hasil yang lebih diinginkan daripada zero-shot prompting dan one-shot prompting. Namun, perintah few-shot memerlukan perintah yang lebih panjang.

Few-shot prompting adalah bentuk few-shot learning yang diterapkan pada pembelajaran berbasis perintah.

Lihat Rekayasa perintah di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.

penyesuaian

#generativeAI

Proses pelatihan khusus tugas kedua yang dilakukan pada model terlatih untuk menyempurnakan parameternya untuk kasus penggunaan tertentu. Misalnya, urutan pelatihan lengkap untuk beberapa model bahasa besar adalah sebagai berikut:

  1. Prapelatihan: Melatih model bahasa besar pada set data umum yang besar, seperti semua halaman Wikipedia berbahasa Inggris.
  2. Penyesuaian: Melatih model terlatih untuk melakukan tugas tertentu, seperti merespons kueri medis. Penyesuaian biasanya melibatkan ratusan atau ribuan contoh yang berfokus pada tugas tertentu.

Sebagai contoh lain, urutan pelatihan lengkap untuk model gambar besar adalah sebagai berikut:

  1. Prapelatihan: Latih model gambar besar pada set data gambar umum yang luas, seperti semua gambar di Wikimedia Commons.
  2. Penyesuaian: Melatih model terlatih untuk melakukan tugas tertentu, seperti membuat gambar orca.

Penyesuaian dapat mencakup kombinasi strategi berikut:

  • Mengubah semua parameter model yang sudah ada dan telah dilatih sebelumnya. Hal ini terkadang disebut penyesuaian penuh.
  • Mengubah hanya beberapa parameter yang ada pada model terlatih (biasanya, lapisan yang paling dekat dengan lapisan output), sambil mempertahankan parameter yang ada lainnya (biasanya, lapisan yang paling dekat dengan lapisan input). Lihat parameter-efficient tuning.
  • Menambahkan lebih banyak lapisan, biasanya di atas lapisan yang ada yang paling dekat dengan lapisan output.

Penyesuaian adalah bentuk transfer learning. Oleh karena itu, penyesuaian mungkin menggunakan fungsi kerugian yang berbeda atau jenis model yang berbeda dengan yang digunakan untuk melatih model terlatih. Misalnya, Anda dapat melakukan penyesuaian pada model gambar besar terlatih untuk menghasilkan model regresi yang menampilkan jumlah burung dalam gambar input.

Bandingkan dan bedakan penyesuaian dengan istilah berikut:

Lihat Penyesuaian di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.

Model flash

#generativeAI

Rangkaian model Gemini yang relatif kecil dan dioptimalkan untuk kecepatan dan latensi rendah. Model Flash dirancang untuk berbagai aplikasi yang memerlukan respons cepat dan throughput tinggi.

model dasar

#generativeAI
#Metric

Model terlatih yang sangat besar dan dilatih pada set pelatihan yang sangat besar dan beragam. Model dasar dapat melakukan kedua hal berikut:

  • Merespons dengan baik berbagai permintaan.
  • Berfungsi sebagai model dasar untuk penyesuaian tambahan atau penyesuaian lainnya.

Dengan kata lain, model dasar sudah sangat mumpuni secara umum, tetapi dapat disesuaikan lebih lanjut agar menjadi lebih berguna untuk tugas tertentu.

fraksi keberhasilan

#generativeAI
#Metric

Metrik untuk mengevaluasi teks yang dihasilkan model ML. Pecahan keberhasilan adalah jumlah output teks yang dihasilkan "berhasil" dibagi dengan total jumlah output teks yang dihasilkan. Misalnya, jika model bahasa besar menghasilkan 10 blok kode, lima di antaranya berhasil, maka rasio keberhasilannya adalah 50%.

Meskipun fraksi keberhasilan sangat berguna dalam statistik, dalam ML, metrik ini terutama berguna untuk mengukur tugas yang dapat diverifikasi seperti pembuatan kode atau masalah matematika.

G

Gemini

#generativeAI

Ekosistem yang terdiri dari AI tercanggih Google. Elemen ekosistem ini meliputi:

  • Berbagai model Gemini.
  • Antarmuka percakapan interaktif ke model Gemini. Pengguna mengetik perintah dan Gemini merespons perintah tersebut.
  • Berbagai Gemini API.
  • Berbagai produk bisnis berdasarkan model Gemini; misalnya, Gemini untuk Google Cloud.

Model Gemini

#generativeAI

Model multimodal berbasis Transformer mutakhir dari Google. Model Gemini dirancang secara khusus untuk terintegrasi dengan agen.

Pengguna dapat berinteraksi dengan model Gemini dalam berbagai cara, termasuk melalui antarmuka dialog interaktif dan melalui SDK.

Gemma

#generativeAI

Sekumpulan model terbuka yang ringan, dibangun dari riset dan teknologi yang sama dengan yang digunakan untuk membuat model Gemini. Beberapa model Gemma yang berbeda tersedia, yang masing-masing menyediakan fitur yang berbeda, seperti penglihatan, kode, dan mengikuti perintah. Lihat Gemma untuk mengetahui detailnya.

AI generatif atau AI Generatif

#generativeAI

Singkatan untuk AI generatif.

Teks yang dihasilkan

#generativeAI

Secara umum, teks yang dihasilkan oleh model ML. Saat mengevaluasi model bahasa besar, beberapa metrik membandingkan teks yang dihasilkan dengan teks referensi. Misalnya, Anda sedang mencoba menentukan seberapa efektif model ML menerjemahkan dari bahasa Prancis ke bahasa Belanda. Dalam hal ini:

  • Teks yang dihasilkan adalah terjemahan Belanda yang dihasilkan oleh model ML.
  • Teks rujukan adalah terjemahan dalam bahasa Belanda yang dibuat oleh penerjemah manusia (atau software).

Perhatikan bahwa beberapa strategi evaluasi tidak melibatkan teks rujukan.

AI generatif

#generativeAI

Bidang transformatif yang baru muncul tanpa definisi formal. Namun, sebagian besar pakar setuju bahwa model AI generatif dapat membuat ("menghasilkan") konten yang memenuhi semua kriteria berikut:

  • kompleks
  • koheren
  • asli

Contoh AI generatif meliputi:

  • Model bahasa besar, yang dapat menghasilkan teks asli yang canggih dan menjawab pertanyaan.
  • Model pembuatan gambar, yang dapat menghasilkan gambar unik.
  • Model pembuatan audio dan musik, yang dapat menyusun musik asli atau menghasilkan ucapan yang realistis.
  • Model pembuatan video, yang dapat membuat video asli.

Beberapa teknologi sebelumnya, termasuk LSTM dan RNN, juga dapat menghasilkan konten orisinal dan koheren. Beberapa pakar menganggap teknologi sebelumnya ini sebagai AI generatif, sementara pakar lainnya merasa bahwa AI generatif yang sebenarnya memerlukan output yang lebih kompleks daripada yang dapat dihasilkan oleh teknologi sebelumnya tersebut.

Berbeda dengan ML prediktif.

respons emas

#generativeAI

Respons yang diketahui baik. Misalnya, dengan prompt berikut:

2 + 2

Respons terbaik yang diharapkan adalah:

4

H

evaluasi manual

#generativeAI

Proses saat orang menilai kualitas output model ML; misalnya, meminta orang bilingual menilai kualitas model terjemahan ML. Evaluasi manusia sangat berguna untuk menilai model yang tidak memiliki satu jawaban yang benar.

Berbeda dengan evaluasi otomatis dan evaluasi autorater.

Human in the loop (HITL)

#generativeAI

Idiom yang tidak jelas yang dapat berarti salah satu dari berikut ini:

  • Kebijakan untuk melihat output AI generatif secara kritis atau skeptis.
  • Strategi atau sistem untuk memastikan bahwa orang-orang membantu membentuk, mengevaluasi, dan menyempurnakan perilaku model. Dengan mempertahankan keterlibatan manusia, AI dapat memanfaatkan kecerdasan mesin dan kecerdasan manusia. Misalnya, sistem yang menggunakan AI untuk membuat kode yang kemudian ditinjau oleh software engineer adalah sistem human-in-the-loop.

I

pembelajaran dalam konteks

#generativeAI

Sinonim untuk few-shot prompting.

inferensi

#fundamentals
#generativeAI

Dalam machine learning tradisional, proses pembuatan prediksi dengan menerapkan model terlatih ke contoh tak berlabel. Lihat Supervised Learning dalam kursus Pengantar ML untuk mempelajari lebih lanjut.

Dalam model bahasa besar, inferensi adalah proses penggunaan model terlatih untuk menghasilkan respons terhadap perintah input.

Inferensi memiliki arti yang agak berbeda dalam statistik. Lihat artikel Wikipedia tentang inferensi statistik untuk mengetahui detailnya.

penyesuaian instruksi

#generativeAI

Bentuk penyesuaian yang meningkatkan kemampuan model AI generatif dalam mengikuti petunjuk. Penyesuaian perintah melibatkan pelatihan model pada serangkaian perintah instruksi, yang biasanya mencakup berbagai tugas. Model yang disesuaikan dengan petunjuk ini kemudian cenderung menghasilkan respons yang berguna terhadap perintah zero-shot di berbagai tugas.

Bandingkan dan bedakan dengan:

L

latensi

#generativeAI

Waktu yang dibutuhkan model untuk memproses input dan menghasilkan respons. Respons latensi tinggi memerlukan waktu lebih lama untuk dihasilkan daripada respons latensi rendah.

Faktor-faktor yang memengaruhi latensi model bahasa besar meliputi:

  • Panjang input dan output [token]
  • Kompleksitas model
  • Infrastruktur tempat model berjalan

Mengoptimalkan latensi sangat penting untuk membuat aplikasi yang responsif dan mudah digunakan.

LLM

#generativeAI

Singkatan dari model bahasa besar.

Evaluasi LLM (evaluasi)

#generativeAI
#Metric

Serangkaian metrik dan tolok ukur untuk menilai performa model bahasa besar (LLM). Secara umum, evaluasi LLM:

  • Membantu peneliti mengidentifikasi area yang perlu ditingkatkan pada LLM.
  • Berguna dalam membandingkan berbagai LLM dan mengidentifikasi LLM terbaik untuk tugas tertentu.
  • Membantu memastikan bahwa LLM aman dan etis untuk digunakan.

Lihat Model bahasa besar (LLM) di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.

LoRA

#generativeAI

Singkatan dari Low-Rank Adaptability.

Low-Rank Adaptability (LoRA)

#generativeAI

Teknik parameter-efisien untuk penyesuaian yang "membekukan" bobot model yang telah dilatih sebelumnya (sehingga tidak dapat lagi diubah) lalu menyisipkan sekumpulan kecil bobot yang dapat dilatih ke dalam model. Kumpulan bobot yang dapat dilatih ini (juga dikenal sebagai "matriks update") jauh lebih kecil daripada model dasar dan oleh karena itu, pelatihan jauh lebih cepat.

LoRA memberikan manfaat berikut:

  • Meningkatkan kualitas prediksi model untuk domain tempat penyesuaian diterapkan.
  • Penyesuaian lebih cepat daripada teknik yang memerlukan penyesuaian semua parameter model.
  • Mengurangi biaya komputasi inferensi dengan memungkinkan penyajian serentak beberapa model khusus yang berbagi model dasar yang sama.

B

terjemahan mesin

#generativeAI

Menggunakan software (biasanya, model machine learning) untuk mengonversi teks dari satu bahasa manusia ke bahasa manusia lain, misalnya, dari bahasa Inggris ke bahasa Jepang.

presisi rata-rata pada k (mAP@k)

#generativeAI
#Metric

Rata-rata statistik dari semua skor presisi rata-rata pada k di seluruh set data validasi. Salah satu penggunaan presisi rata-rata mean pada k adalah untuk menilai kualitas rekomendasi yang dihasilkan oleh sistem rekomendasi.

Meskipun frasa "rata-rata" terdengar berlebihan, nama metrik ini sudah tepat. Bagaimanapun, metrik ini menemukan rata-rata dari beberapa nilai presisi rata-rata pada k.

campuran pakar

#generativeAI

Skema untuk meningkatkan efisiensi jaringan neural dengan hanya menggunakan subset parameternya (dikenal sebagai pakar) untuk memproses token atau contoh input tertentu. Jaringan gating mengarahkan setiap token atau contoh input ke pakar yang tepat.

Untuk mengetahui detailnya, lihat salah satu makalah berikut:

MMIT

#generativeAI

Singkatan dari multimodal instruction-tuned.

penggabungan model

#generativeAI

Sistem yang memilih model yang ideal untuk kueri inferensi tertentu.

Bayangkan sekelompok model, mulai dari yang sangat besar (banyak parameter) hingga yang jauh lebih kecil (lebih sedikit parameter). Model yang sangat besar mengonsumsi lebih banyak resource komputasi pada waktu inferensi daripada model yang lebih kecil. Namun, model yang sangat besar biasanya dapat menyimpulkan permintaan yang lebih kompleks daripada model yang lebih kecil. Cascading model menentukan kompleksitas kueri inferensi, lalu memilih model yang sesuai untuk melakukan inferensi. Motivasi utama untuk pengelompokan model adalah mengurangi biaya inferensi dengan umumnya memilih model yang lebih kecil, dan hanya memilih model yang lebih besar untuk kueri yang lebih kompleks.

Bayangkan model kecil berjalan di ponsel dan versi model yang lebih besar berjalan di server jarak jauh. Cascading model yang baik mengurangi biaya dan latensi dengan memungkinkan model yang lebih kecil menangani permintaan sederhana dan hanya memanggil model jarak jauh untuk menangani permintaan yang kompleks.

Lihat juga model router.

router model

#generativeAI

Algoritma yang menentukan model ideal untuk inferensi dalam penggabungan model. Router model itu sendiri biasanya merupakan model machine learning yang secara bertahap mempelajari cara memilih model terbaik untuk input tertentu. Namun, perute model terkadang bisa berupa algoritma non-machine learning yang lebih sederhana.

MOE

#generativeAI

Singkatan dari mixture of experts.

MT

#generativeAI

Singkatan dari machine translation.

T

Nano

#generativeAI

Model Gemini yang relatif kecil dan dirancang untuk penggunaan di perangkat. Lihat Gemini Nano untuk mengetahui detailnya.

Lihat juga Pro dan Ultra.

tidak ada satu jawaban yang benar (NORA)

#generativeAI

Perintah yang memiliki beberapa respons yang benar. Misalnya, perintah berikut tidak memiliki satu jawaban yang benar:

Ceritakan lelucon lucu tentang gajah.

Mengevaluasi respons terhadap perintah tanpa satu jawaban yang benar biasanya jauh lebih subjektif daripada mengevaluasi perintah dengan satu jawaban yang benar. Misalnya, mengevaluasi lelucon tentang gajah memerlukan cara sistematis untuk menentukan seberapa lucu lelucon tersebut.

NORA

#generativeAI

Singkatan untuk tidak ada jawaban yang benar.

Notebook LM

#generativeAI

Alat berbasis Gemini yang memungkinkan pengguna mengupload dokumen, lalu menggunakan perintah untuk mengajukan pertanyaan tentang, meringkas, atau mengatur dokumen tersebut. Misalnya, seorang penulis dapat mengupload beberapa cerita pendek dan meminta NotebookLM untuk menemukan tema umumnya atau mengidentifikasi mana yang akan menjadi film terbaik.

O

satu jawaban benar (ORA)

#generativeAI

Perintah yang memiliki satu respons yang benar. Misalnya, pertimbangkan perintah berikut:

Benar atau salah: Saturnus lebih besar dari Mars.

Satu-satunya respons yang benar adalah benar.

Berbeda dengan tidak ada jawaban yang benar.

one-shot prompting

#generativeAI

Perintah yang berisi satu contoh yang menunjukkan cara model bahasa besar harus merespons. Misalnya, perintah berikut berisi satu contoh yang menunjukkan kepada model bahasa besar cara menjawab kueri.

Bagian dari satu perintah Catatan
Apa mata uang resmi negara yang ditentukan? Pertanyaan yang ingin Anda minta jawabannya dari LLM.
Prancis: EUR Satu contoh.
India: Kueri sebenarnya.

Bandingkan dan bedakan prompting sekali tembak dengan istilah berikut:

ORA

#generativeAI

Singkatan dari one right answer (satu jawaban yang benar).

P

parameter-efficient tuning

#generativeAI

Serangkaian teknik untuk menyesuaikan model bahasa besar (LLM) terlatih (PLM) secara lebih efisien daripada penyesuaian penuh. Penyesuaian yang efisien parameter biasanya menyesuaikan jauh lebih sedikit parameter daripada penyesuaian penuh, tetapi umumnya menghasilkan model bahasa besar yang berperforma sama baiknya (atau hampir sama baiknya) dengan model bahasa besar yang dibuat dari penyesuaian penuh.

Membandingkan dan membedakan parameter-efficient tuning dengan:

Parameter-efficient tuning juga dikenal sebagai parameter-efficient fine-tuning.

Pax

#generativeAI

Framework pemrograman yang dirancang untuk melatih jaringan neural model berskala besar sehingga model tersebut mencakup beberapa TPU slice chip akselerator atau pod .

Pax dibangun di atas Flax, yang dibangun di atas JAX.

Diagram yang menunjukkan posisi Pax dalam stack software.
          Pax dibangun di atas JAX. Pax sendiri terdiri dari tiga
          lapisan. Lapisan bawah berisi TensorStore dan Flax.
          Lapisan tengah berisi Optax dan Flaxformer. Lapisan
          teratas berisi Praxis Modeling Library. Fiddle dibuat
          di atas Pax.

PLM

#generativeAI

Singkatan dari pre-trained language model.

model yang dilatih ulang

#generativeAI

Istilah yang didefinisikan secara longgar yang biasanya merujuk pada model pra-latih yang telah melalui beberapa pasca-pemrosesan, seperti satu atau beberapa hal berikut:

model terlatih

#generativeAI

Meskipun istilah ini dapat merujuk ke model terlatih atau vektor sematan terlatih, model terlatih kini biasanya merujuk ke model bahasa besar terlatih atau bentuk model AI generatif terlatih lainnya.

Lihat juga model dasar dan model dasar.

pra-pelatihan

#generativeAI

Pelatihan awal model pada set data yang besar. Beberapa model terlatih adalah raksasa yang canggung dan biasanya harus disempurnakan melalui pelatihan tambahan. Misalnya, pakar ML dapat melatih model bahasa besar terlebih dahulu pada set data teks yang sangat besar, seperti semua halaman berbahasa Inggris di Wikipedia. Setelah pra-pelatihan, model yang dihasilkan dapat disempurnakan lebih lanjut melalui salah satu teknik berikut:

Pro

#generativeAI

Model Gemini dengan parameter yang lebih sedikit daripada Ultra, tetapi lebih banyak parameter daripada Nano. Lihat Gemini Pro untuk mengetahui detailnya.

perintah

#generativeAI

Teks apa pun yang dimasukkan sebagai input ke model bahasa besar untuk mengondisikan model agar berperilaku dengan cara tertentu. Perintah bisa sesingkat frasa atau sepanjang apa pun (misalnya, seluruh teks novel). Perintah terbagi dalam beberapa kategori, termasuk yang ditampilkan dalam tabel berikut:

Kategori perintah Contoh Catatan
Pertanyaan Seberapa cepat merpati dapat terbang?
Petunjuk Tulis puisi lucu tentang arbitrase. Perintah yang meminta model bahasa besar untuk melakukan sesuatu.
Contoh Terjemahkan kode Markdown ke HTML. Misalnya:
Markdown: * item daftar
HTML: <ul> <li>item daftar</li> </ul>
Kalimat pertama dalam perintah contoh ini adalah petunjuk. Bagian perintah lainnya adalah contoh.
Peran Jelaskan alasan penurunan gradien digunakan dalam pelatihan machine learning kepada seorang PhD di bidang Fisika. Bagian pertama kalimat adalah petunjuk; frasa "to a PhD in Physics" adalah bagian peran.
Input parsial yang harus diselesaikan oleh model Perdana Menteri Inggris Raya tinggal di Perintah input parsial dapat berakhir tiba-tiba (seperti contoh ini) atau berakhir dengan garis bawah.

Model AI generatif dapat merespons perintah dengan teks, kode, gambar, embedding, video…hampir semua hal.

pembelajaran berbasis perintah

#generativeAI

Kemampuan model tertentu yang memungkinkannya menyesuaikan perilakunya sebagai respons terhadap input teks arbitrer (perintah). Dalam paradigma pembelajaran berbasis perintah yang umum, model bahasa besar merespons perintah dengan menghasilkan teks. Misalnya, pengguna memasukkan perintah berikut:

Ringkas Hukum Ketiga Gerak Newton.

Model yang mampu melakukan pembelajaran berbasis perintah tidak dilatih secara khusus untuk menjawab perintah sebelumnya. Sebaliknya, model "mengetahui" banyak fakta tentang fisika, banyak tentang aturan bahasa umum, dan banyak tentang apa yang merupakan jawaban yang umumnya berguna. Pengetahuan tersebut sudah cukup untuk memberikan jawaban yang (semoga) bermanfaat. Masukan tambahan dari petugas ("Jawaban itu terlalu rumit" atau "Apa itu reaksi?") memungkinkan beberapa sistem pembelajaran berbasis perintah secara bertahap meningkatkan kegunaan jawabannya.

desain perintah

#generativeAI

Sinonim untuk rekayasa perintah.

rekayasa perintah

#generativeAI

Seni membuat perintah yang mendapatkan respons yang diinginkan dari model bahasa besar. Manusia melakukan rekayasa perintah. Menulis perintah yang terstruktur dengan baik adalah bagian penting untuk memastikan respons yang berguna dari model bahasa besar. Rekayasa perintah bergantung pada banyak faktor, termasuk:

Desain perintah adalah sinonim untuk rekayasa perintah.

Lihat Pengantar desain perintah untuk mengetahui detail selengkapnya tentang cara menulis perintah yang bermanfaat.

set perintah

#generativeAI

Sekelompok perintah untuk mengevaluasi model bahasa besar. Misalnya, ilustrasi berikut menunjukkan kumpulan perintah yang terdiri dari tiga perintah:

Tiga perintah ke LLM menghasilkan tiga respons. Ketiga perintah tersebut
          adalah set perintah. Ketiga respons tersebut adalah set respons.

Set perintah yang baik terdiri dari kumpulan perintah yang cukup "luas" untuk mengevaluasi secara menyeluruh keamanan dan kegunaan model bahasa besar.

Lihat juga set respons.

penyesuaian perintah

#generativeAI

Mekanisme parameter efficient tuning yang mempelajari "awalan" yang ditambahkan sistem ke perintah yang sebenarnya.

Salah satu variasi penyesuaian perintah—terkadang disebut penyesuaian awalan—adalah menambahkan awalan di setiap lapisan. Sebaliknya, sebagian besar penyesuaian perintah hanya menambahkan awalan ke lapisan input.

R

teks referensi

#generativeAI

Respons pakar terhadap prompt . Misalnya, dengan perintah berikut:

Terjemahkan pertanyaan "Siapa namamu?" dari bahasa Inggris ke bahasa Prancis.

Respons pakar mungkin:

Comment vous appelez-vous?

Berbagai metrik (seperti ROUGE) mengukur tingkat kecocokan teks referensi dengan teks yang dihasilkan model ML.

Reinforcement Learning from Human Feedback (RLHF)

#generativeAI

Menggunakan masukan dari pemberi rating manual untuk meningkatkan kualitas respons model. Misalnya, mekanisme RLHF dapat meminta pengguna untuk menilai kualitas respons model dengan emoji 👍 atau 👎. Kemudian, sistem dapat menyesuaikan responsnya di masa mendatang berdasarkan masukan tersebut.

respons

#generativeAI

Teks, gambar, audio, atau video yang disimpulkan oleh model AI generatif. Dengan kata lain, perintah adalah input ke model AI generatif dan responsnya adalah output.

kumpulan respons

#generativeAI

Kumpulan respons yang model bahasa besar berikan untuk input set perintah.

perintah peran

#generativeAI

Perintah, biasanya dimulai dengan kata ganti Anda, yang memberi tahu model AI generatif untuk berpura-pura menjadi orang tertentu atau peran tertentu saat membuat respons. Perintah peran dapat membantu model AI generatif mendapatkan "pola pikir" yang tepat untuk menghasilkan respons yang lebih berguna. Misalnya, salah satu perintah peran berikut mungkin sesuai, bergantung pada jenis respons yang Anda inginkan:

Anda memiliki gelar PhD di bidang ilmu komputer.

Anda adalah seorang software engineer yang suka memberikan penjelasan sabar tentang Python kepada siswa yang baru belajar pemrograman.

Anda adalah pahlawan aksi dengan serangkaian keterampilan pemrograman yang sangat khusus. Yakinkan saya bahwa Anda akan menemukan item tertentu dalam daftar Python.

S

penyesuaian perintah ringan

#generativeAI

Teknik untuk menyesuaikan model bahasa besar untuk tugas tertentu, tanpa penyesuaian yang memerlukan banyak resource. Daripada melatih ulang semua bobot dalam model, penyesuaian perintah ringan secara otomatis menyesuaikan perintah untuk mencapai sasaran yang sama.

Dengan perintah tekstual, penyesuaian perintah lembut biasanya menambahkan embedding token tambahan ke perintah dan menggunakan backpropagation untuk mengoptimalkan input.

Perintah "keras" berisi token aktual, bukan penyematan token.

T

suhu

#generativeAI

Hyperparameter yang mengontrol tingkat keacakan output model. Temperatur yang lebih tinggi menghasilkan output yang lebih acak, sedangkan temperatur yang lebih rendah menghasilkan output yang kurang acak.

Memilih suhu terbaik bergantung pada aplikasi dan/atau nilai string tertentu.

U

Ultra

#generativeAI

Model Gemini dengan parameter terbanyak. Lihat Gemini Ultra untuk mengetahui detailnya.

Lihat juga Pro dan Nano.

V

Vertex

#GoogleCloud
#generativeAI
Platform Google Cloud untuk AI dan machine learning. Vertex menyediakan alat dan infrastruktur untuk membangun, men-deploy, dan mengelola aplikasi AI, termasuk akses ke model Gemini.

Z

zero-shot prompting

#generativeAI

Perintah yang tidak memberikan contoh cara Anda ingin model bahasa besar merespons. Contoh:

Bagian dari satu perintah Catatan
Apa mata uang resmi negara yang ditentukan? Pertanyaan yang ingin Anda minta jawabannya dari LLM.
India: Kueri sebenarnya.

Model bahasa besar dapat merespons dengan salah satu dari berikut ini:

  • Rupee
  • INR
  • Rs
  • Rupee India
  • Rupee
  • Rupee India

Semua jawaban benar, meskipun Anda mungkin lebih menyukai format tertentu.

Bandingkan dan bedakan prompting zero-shot dengan istilah berikut: