Makine Öğrenimi Sözlüğü: Dizi Modelleri

Bu sayfa, Dizi Modelleri sözlüğü terimlerini içermektedir. Tüm sözlük terimleri için burayı tıklayın.

B

Bigram

#seq
#language

N=2 olan bir N-gram.

E

patlayan gradyan sorunu

#seq

Derin sinir ağlarındaki (özellikle yinelenen nöral ağlar) gradyanların şaşırtıcı düzeyde dik olma (yüksek) eğilimi. Dik gradyanlar genellikle derin nöral ağdaki her düğümün ağırlıklarında çok büyük güncellemelere neden olur.

Patlayan gradyan probleminden etkilenen modellerin eğitilmesi zor veya imkansız hale gelir. Renk geçişi kısaltma bu sorunu azaltabilir.

Kaybolan gradyan sorununu karşılaştırın.

F

kapıyı unut

#seq

Hücre üzerinden bilgi akışını düzenleyen uzun süreli kısa bellek hücresi. Kapılar, hücre durumundan hangi bilgilerin silineceğine karar vererek bağlamı korur.

G

gradyan kırpma

#seq

Bir modeli eğitmek için gradyan inişi kullanırken maksimum gradyan değerini maksimum olarak yapay bir şekilde sınırlandırarak (kilitlenerek) patlayan gradyan sorununu hafifletmek için yaygın olarak kullanılan bir mekanizmadır.

L

Uzun Vadeli Bellek (LSTM)

#seq

Yinelenen nöral ağdaki bir el yazısı tanıma, makine çevirisi ve görüntü altyazılama gibi uygulamalarda veri dizilerini işlemek için kullanılan bir hücre türü. LSTM'ler, uzun veri dizileri nedeniyle RNN'leri eğitirken gerçekleşen kayıp gradyan sorununu RNN'deki önceki hücrelerden alınan yeni giriş ve bağlamlara göre geçmişi koruyarak ortaya çıkarır.

LSTM

#seq

Uzun Vadeli Kısa Bellek teriminin kısaltması.

N

N-gram

#seq
#language

N kelimeden oluşan sıralı bir dizi. Örneğin, gerçekten çılgınca bir 2 gram. Sipariş alakalı olduğundan, çok çılgınca iki çılgın'dan farklı bir 2 gram'dır.

N Bu N-gram türü için adlar Örnekler
2 Bigram veya 2-gram gitmek, gitmek, öğle yemeği yemek, akşam yemeği yemek
3 trigram veya 3 gram çok çiğneme, üç kör fare, zil ücreti
4 4 gram parkta yürüyüş, rüzgarda toz, mercimek yiyen çocuk

Birçok doğal dil anlama modeli, kullanıcının yazacağı veya söyleyeceği bir sonraki kelimeyi tahmin etmek için N-gramlarını kullanır. Örneğin, bir kullanıcının üç kör yazdığını varsayalım. Trilügramları temel alan bir NLU modeli, büyük olasılıkla kullanıcının mikrofon yazacağını tahmin eder.

Sıralanmamış kelime grupları olan kelime paketiyle N-gramları karşılaştırın.

balon

tekrarlayan nöral ağ

#seq

Kasıtlı olarak birden çok kez çalıştırılan nöral ağ. Her bir feed'in bazı bölümleri bir sonraki çalıştırmaya dönüştürülür. Spesifik olarak, önceki çalıştırmadaki gizli katmanlar, bir sonraki çalıştırmada aynı gizli katman girişinin bir kısmını sağlar. Tekrarlayan nöral ağlar özellikle dizileri değerlendirmek için yararlıdır. Böylece gizli katmanlar, dizinin önceki bölümlerinde bulunan nöral ağın önceki çalışmalarından öğrenebilir.

Örneğin, aşağıdaki şekilde dört kez çalışan yinelenen bir nöral ağ gösterilmektedir. İlk çalıştırmada gizli katmanlardan öğrenilen değerlerin, ikinci çalıştırmada aynı gizli katmanlara yapılan girişin bir parçası haline geldiğine dikkat edin. Benzer şekilde, ikinci çalıştırmada gizli katmanda öğrenilen değerler, üçüncü çalıştırmada aynı gizli katman girişinin bir parçası olur. Bu şekilde, yinelenen nöral ağ, tek tek kelimelerin anlamı yerine adım sırasının anlamını yavaş yavaş eğitir ve tahmin eder.

Dört giriş kelimesini işlemek için dört kez çalışan bir RNN.

199,99

#seq

Yinelenen nöral ağlar'ın kısaltması.

C

dizi modeli

#seq

Girişlerinin sıralı bir bağımlılığı olan bir model. Örneğin, önceden izlenen video dizisinden izlenecek bir sonraki videoyu tahmin etmek.

T

zaman adımı

#seq

Yinelenen nöral ağ içindeki bir "yuvarlanmamış" hücre. Örneğin, aşağıdaki şekilde üç zaman süreci t-1, t ve t+1 alt başlıklarıyla etiketlenmiş olarak gösterilmektedir:

Tekrarlayan nöral ağda üç adet adım. İlk zaman adımının çıkışı, ikinci zaman adımının girişi olur. İkinci zaman adımının çıkışı, üçüncü zaman adımına girer.

trigram

#seq
#language

N=3 olan bir N-gram.

V

kaybolan gradyan sorunu

#seq

Bazı derin nöral ağların erken gizli katmanlarının gradyanlarının şaşırtıcı düzeyde düz (düşük) olma eğilimi. Gradyanların sayısının gitgide düşmesi, derin nöral ağdaki düğümlerin ağırlıklarında giderek daha az değişiklik olmasına neden olur. Bu da öğrenmenin az olmasına veya hiç öğrenmesine yol açar. Eksik olan gradyan probleminden etkilenen modellerin eğitilmesi zor veya imkansız hale gelir. Uzun Vadeli Kısa Bellek hücreleri bu sorunu giderir.

Patlayan gradyan sorununu karşılaştırın.