Makine Öğrenimi Sözlüğü: Dizi Modelleri

Bu sayfada, sıralı modeller sözlüğündeki terimler yer almaktadır. Tüm terimler için burayı tıklayın.

B

büyük harf

#seq
#language

N=2 olan bir N-gram.

E

patlayan gradyan sorunu

#seq

Derin nöral ağlarda (özellikle yinelenen nöral ağlarda) gradyanların şaşırtıcı derecede dik (yüksek) olma eğilimi. Dik eğimler genellikle derin bir nöral ağdaki her düğümün ağırlıklarında çok büyük güncellemelere neden olur.

Patlayan gradyan sorunundan etkilenen modellerin eğitilmesi zor veya imkansız hale gelir. Gradyan kırpma bu sorunu hafifletebilir.

Kaybolan gradyan sorunu ile karşılaştırın.

C

forget gate

#seq

Uzun Kısa Süreli Bellek hücresinin, hücredeki bilgi akışını düzenleyen kısmı. Unutma kapıları, hücre durumundan hangi bilgilerin atılacağına karar vererek bağlamı korur.

G

gradyan kırpma

#seq

Bir modeli eğitmek için gradyan azalma kullanılırken gradyanların maksimum değerini yapay olarak sınırlayarak (kırparak) gradyan patlaması sorununu azaltmak için yaygın olarak kullanılan bir mekanizmadır.

L

Uzun kısa süreli bellek (LSTM)

#seq

El yazısı tanıma, makine çevirisi ve resim altyazı ekleme gibi uygulamalarda veri dizilerini işlemek için kullanılan yineleyici sinir ağında bir hücre türü. LSTM'ler, RNN'lerin uzun veri dizileri nedeniyle eğitilirken ortaya çıkan gradyan kaybolma sorununu, geçmişi RNN'deki önceki hücrelerden gelen yeni girişe ve içeriğe dayalı bir dahili bellek durumunda tutarak çözer.

LSTM

#seq

Uzun Kısa Süreli Bellek kısaltması.

H

N-gram

#seq
#language

N kelimelik sıralı bir dizi. Örneğin, truly madly 2 gramdır. Sıranın önemli olması nedeniyle madly truly, truly madly ile aynı 2 gram değildir.

H Bu tür bir N-gram için adlar Örnekler
2 iki heceli veya 2 heceli gitmek, gitmek için, öğle yemeği yemek, akşam yemeği yemek
3 üçlü veya 3'lü ate too much, three blind mice, the bell tolls
4 4 gram walk in the park, dust in the wind, the boy ate lentils

Birçok doğal dil anlama modeli, kullanıcının yazacağı veya söyleyeceği bir sonraki kelimeyi tahmin etmek için N-gramlara dayanır. Örneğin, bir kullanıcının üç kör yazdığını varsayalım. Üçlülere dayalı bir NLU modeli, kullanıcının bir sonraki kelime olarak fare yazacağını tahmin eder.

N-gramları, sırasız kelime grupları olan kelime torbası ile karşılaştırın.

K

yinelemeli nöral ağ

#seq

Her çalıştırmanın bir kısmının bir sonraki çalıştırmaya aktarıldığı, kasıtlı olarak birden çok kez çalıştırılan bir nöral ağ. Daha açık belirtmek gerekirse, önceki çalıştırmadan gelen gizli katmanlar, sonraki çalıştırmada aynı gizli katmanın girişinin bir kısmını sağlar. Yinelemeli sinir ağları özellikle dizileri değerlendirmek için kullanışlıdır. Böylece gizli katmanlar, nöral ağın dizinin önceki bölümlerinde yaptığı önceki çalışmalardan bilgi edinebilir.

Örneğin, aşağıdaki şekilde dört kez çalışan bir tekrarlayan nöral ağ gösterilmektedir. İlk çalıştırmadaki gizli katmanlarda öğrenilen değerlerin, ikinci çalıştırmadaki aynı gizli katmanların girişinin bir parçası haline geldiğini unutmayın. Benzer şekilde, ikinci çalıştırmada gizli katmanda öğrenilen değerler üçüncü çalıştırmada aynı gizli katmanın girişinin bir parçası olur. Bu sayede, tekrarlayan sinir ağı kademeli olarak eğitilir ve tek tek kelimelerin anlamını değil, tüm dizenin anlamını tahmin eder.

Dört giriş kelimesini işlemek için dört kez çalışan bir RNN.

RNN

#seq

Yinelemeli nöral ağlar kısaltması.

S

sıra modeli

#seq

Girişlerinin sıralı bir bağımlılığı olan bir model. Örneğin, daha önce izlenen videoların sırasına göre izlenecek bir sonraki videoyu tahmin etme.

T

adım aralığı

#seq

Yineleyici nöral ağ içindeki bir "açılmış" hücre. Örneğin, aşağıdaki şekilde üç adım (t-1, t ve t+1 alt dizeleri ile etiketlenmiştir) gösterilmektedir:

Yinelemeli nöral ağda üç zaman adımı. İlk zaman adımının çıkışı, ikinci zaman adımının girişi olur. İkinci adım aralığının çıkışı, üçüncü adım aralığının girişi olur.

üçlü

#seq
#language

N=3 olan bir N-gram.

V

gradyanın kaybolması sorunu

#seq

Bazı derin nöral ağların ilk gizli katmanlarının gradyanlarının şaşırtıcı bir şekilde düz (düşük) olma eğilimi. Gittikçe daha düşük gradyanlar, derin nöral ağdaki düğümlerdeki ağırlıklarda giderek daha küçük değişikliklere neden olur ve öğrenmenin çok az olmasına veya hiç olmamasına yol açar. Eğilmenin kaybolması sorunundan muzdarip modellerin eğitilmesi zor veya imkansız hale gelir. Uzun kısa süreli bellek hücreleri bu sorunu giderir.

Patlayan gradyan sorunu ile karşılaştırın.