Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Bu sayfa Makine Öğrenimiyle İlgili Temel Bilgiler sözlük terimlerini içerir. Tüm sözlük terimleri için burayı tıklayın.

CEVAP

accuracy

#fundamentals

Doğru sınıflandırma tahminlerinin sayısının toplam tahmin sayısına bölünmesiyle elde edilen oran. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru ve 10 yanlış tahminde bulunan bir modelin doğruluğu şu şekilde olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, farklı doğru tahmin ve yanlış tahmin kategorileri için özel adlar sağlar. Dolayısıyla, ikili sınıflandırmanın doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu hassas ve geri çağırma özellikleriyle karşılaştırın.

aktivasyon fonksiyonu

#fundamentals

Nöral ağların, özellikler ve etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme fonksiyonlarının grafikleri hiçbir zaman tek bir düz çizgiler değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgiden oluşur:

İki satırlık kartezyen grafik. İlk çizginin y sabit değeri 0'dır. Bu değer, x ekseni boyunca -sonsuz,0 ile 0,-0 arasındadır.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1 olduğu için 0,0 ile +sonsuz,+sonsuz arasındadır.

Sigmoid aktivasyon işlevinin grafiği aşağıdaki gibi görünür:

-sonsuz ile +pozitif alan arasında, y değerleri ise neredeyse 0 ile neredeyse 1 aralığını kapsayan x değerlerine sahip iki boyutlu eğri bir grafiktir. x 0 olduğunda y 0, 5'tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5'te olur ve x'in mutlak değeri arttıkça kademeli olarak azalan eğimler olur.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan kaynaklı olmayan program veya model. Örneğin, radyolojik görüntülerle hastalıkları tanımlayan bir metin ya da program veya modelin çevirisini yapan bir program veya modelde yapay zeka sergilenir.

Makine öğrenimi, resmi olarak yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma özelliğini temsil eden 0,0 ile 1,0 arasında bir sayı. AUC değeri 1, 0'a ne kadar yakın olursa modelin sınıfları birbirinden ayırma özelliği de o kadar iyi olur.

Örneğin, aşağıdaki çizimde pozitif sınıfları (yeşil oval) negatif sınıflardan (mor dikdörtgenler) mükemmel şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Gerçekçi olmayan bu mükemmel modelin AUC'si 1,0'dır:

Bir tarafında 8 pozitif, diğer tarafında 9 negatif örnek bulunan bir sayı satırı.

Buna karşılık, aşağıdaki resimde rastgele sonuçlar üreten bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin AUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif negatif, pozitif, negatiftir.

Evet, önceki modelin AUC'si 0,0 değil 0,5'tir.

Çoğu model bu iki uç nokta arasında bir yerdedir. Örneğin, aşağıdaki model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle AUC'si 0,5 ile 1,0 arasında bir değere sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi negatif, negatif, negatif, negatif, pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif, pozitiftir.

AUC, sınıflandırma eşiği için belirlediğiniz değerleri yoksayar. Bunun yerine, AUC olası tüm sınıflandırma eşiklerini dikkate alır.

B

geri yayılım

#fundamentals

Nöral ağlarda gradyan azalma uygulayan algoritma.

Bir nöral ağı eğitmek, aşağıdaki iki geçişli döngünün birçok yinelemesini gerektirir:

  1. İleriye doğru hesaplama sırasında sistem, tahmin elde etmek için örnek toplu işler. Sistem her tahmini her label değeriyle karşılaştırır. Tahmin ve etiket değeri arasındaki fark, bu örnekteki loss değeridir. Sistem, geçerli toplu iş için toplam kaybı hesaplamak amacıyla tüm örneklerdeki kayıpları toplar.
  2. Geriye doğru aktarım (geri yayılım) sırasında sistem, tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kaybı azaltır.

Nöral ağlar genellikle birçok gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri genel kayba farklı şekillerde katkıda bulunur. Geri yayılım, belirli nöronlara uygulanan ağırlıkların artırılıp azaltılmayacağını belirler.

Öğrenme hızı, her geriye doğru aktarımın her bir ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Yüksek bir öğrenme hızı, her ağırlığı düşük öğrenme hızından daha fazla artırır veya azaltır.

Hesaplama terimlerinde, geri yayılım hesaplamanın zincir kuralını uygular. Diğer bir deyişle, geri yayılım her bir parametreye göre hatanın kısmi türevini hesaplar. Daha fazla bilgi için Makine Öğrenimi Kilitlenme Kursu'ndaki bu eğiticiye göz atın.

Yıllar önce, makine öğrenimi uzmanlarının geri yayılımı uygulamak için kod yazması gerekiyordu. TensorFlow gibi modern ML API'leri artık sizin için geri yayılımı uyguluyor. Bora

grup

#fundamentals

Tek bir eğitim iterasyonunda kullanılan örnek grubu. Grup boyutu, bir toplu gruptaki örnek sayısını belirler.

Bir grubun bir dönemle nasıl ilişkili olduğunun açıklamasını görmek için epoch (epoch) bölümüne bakın.

grup boyutu

#fundamentals

Bir topludaki örneklerin sayısı. Örneğin, grup boyutu 100 ise model, iterasyon başına 100 örnek işler.

Popüler toplu boyut stratejileri aşağıda verilmiştir:

  • Grup boyutunun 1 olduğu Olasılıksal Gradyan İniş (SGD).
  • Grup boyutunun tüm eğitim kümesindeki örnek sayısıdır. Örneğin, eğitim kümesi bir milyon örnek içeriyorsa grup boyutu bir milyon örnek olur. Tam parti genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ile 1.000 arasında olduğu mini-toplu. Mini toplu işlem genellikle en verimli stratejidir.

önyargı (etik/adillik)

#fairness
#fundamentals

1. Bir şeylere, kişilere veya gruplara karşı klişeler, önyargı ya da fakirlik Bu önyargılar verilerin toplanıp yorumlanmasını, bir sistemin tasarımını ve kullanıcıların sistemle nasıl etkileşimde bulunduğunu etkileyebilir. Bu tür yanlılık türleri şunlardır:

2. Örnekleme veya raporlama prosedüründen kaynaklanan sistematik hata. Bu tür yanlılık türleri şunlardır:

Makine öğrenimi modellerindeki yanlılık terimi veya tahmin yanlılığı ile karıştırılmamalıdır.

önyargı (matematik) veya ön yargı terimi

#fundamentals

Bir başlangıç noktasından kesişme veya uzaklık. Önyargı, makine öğrenimi modellerinde bir parametredir. Bu parametre, aşağıdakilerden biri ile temsil edilir:

  • b
  • h0

Örneğin, ağırlık aşağıdaki formülde b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, ön yargı yalnızca "y kesme noktası" anlamına gelir. Örneğin, aşağıdaki resimdeki çizginin eğimi 2'dir.

Eğimi 0,5 ve eğimi (y kesme noktası) 2 olan bir çizginin grafiği.

Her model başlangıçtan başlamadığı için (0,0) yanlılık meydana gelir. Örneğin, bir lunaparka giriş ücreti 2 TL ve müşterinin konakladığı her saat için ek 0,5 TL olduğunu varsayalım. Bu nedenle, en düşük maliyet 2 avro olduğu için toplam maliyeti eşleyen bir model 2 sapmaya sahiptir.

Önyargı, etik ve adalet ön yargıları veya tahmin yanlılığı ile karıştırılmamalıdır.

ikili sınıflandırma

#fundamentals

Ayrışık iki sınıftan birini tahmin eden bir sınıflandırma görevi türü:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olduğunu belirleyen bir model.
  • Bir kişinin belirli bir hastalığı olup olmadığını (pozitif sınıf) veya bu hastalığa sahip olup olmadığını (negatif sınıf) belirlemek için tıbbi semptomları değerlendiren bir model.

Çok sınıflı sınıflandırmayla kontrast.

Mantıksal regresyon ve sınıflandırma eşiği bölümlerini de inceleyin.

paketleme

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına dayanarak paketler veya binler adı verilen birden fazla ikili özelliğe dönüştürme. Doğranmış özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine, sıcaklık aralıklarını aşağıdaki gibi ayrı kovalara ayırabilirsiniz:

  • <= 10 santigrat derece ise "soğuk" kova anlamına gelir.
  • Sıcaklık 11-24 santigrat derece arasında değişir.
  • >= 25 santigrat derece ise "sıcak" kova anlamına gelir.

Model, aynı paketteki her değeri aynı şekilde ele alır. Örneğin, 13 ve 22 değerlerinin ikisi de ılıman pakette olduğundan model, iki değeri aynı şekilde ele alır.

C

kategorik veri

#fundamentals

Belirli olası değerler grubuna sahip özellikler. Örneğin, aşağıdaki üç olası değerden yalnızca birine sahip olabilen traffic-light-state adlı kategorik bir özelliği ele alalım:

  • red
  • yellow
  • green

traffic-light-state, kategorik özellik olarak temsil edildiğinde model, red, green ve yellow özelliklerinin sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen ayrı özellikler olarak da adlandırılır.

Sayısal verilerle kontrast.

sınıf

#fundamentals

Bir etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Buna karşılık, regresyon modeli bir sınıf yerine bir sayıyı tahmin eder.

sınıflandırma modeli

#fundamentals

Tahmini bir sınıf olan bir model. Örneğin, aşağıda tüm sınıflandırma modelleri yer almaktadır:

  • Bir giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca? İtalyanca?) girin.
  • Ağaç türlerini tahmin eden bir model (Maple? Oak? Baobab?).
  • Belirli bir tıbbi durumun pozitif veya negatif sınıfını tahmin eden bir model.

Buna karşılık, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Yaygın olarak kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, mantıksal regresyon modelinin ham çıktısını pozitif sınıfın veya negatif sınıfın tahminine dönüştüren 0 ile 1 arasında bir sayıdır. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, insanın seçtiği bir değer olduğunu unutmayın.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer verir. Ardından:

  • Bu işlenmemiş değer sınıflandırma eşiğinden büyükse pozitif sınıf tahmin edilir.
  • Bu işlenmemiş değer, sınıflandırma eşiğinden düşükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yanlış pozitif ve yanlış negatif sayısını önemli ölçüde etkiler.

sınıf dengesiz veri kümesi

#fundamentals

Her bir sınıfın toplam etiket sayısının önemli ölçüde farklılık gösterdiği bir sınıflandırma sorunu için veri kümesi. Örneğin, iki etiketi aşağıdaki gibi bölünen bir ikili sınıflandırma veri kümesi ele alalım:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatifin pozitif etiketlere oranı 100.000'e 1'dir. Yani bu, sınıf dengeli bir veri kümesidir.

Buna karşılık, negatif etiketlerin pozitif etiketlere oranı 1'e görece yakın olduğu için aşağıdaki veri kümesi sınıf dengeli değildir:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümeleri de sınıf dengeli olmayabilir. Örneğin, bir etiket diğer ikisinden çok daha fazla örneğe sahip olduğu için aşağıdaki çok sınıflı sınıflandırma veri kümesi de sınıf dengesizdir:

  • "Yeşil" sınıfıyla 1.000.000 etiket
  • "Mor" sınıfıyla 200 etiket
  • "Turuncu" sınıfıyla 350 etiket

Entropi, çoğunluk sınıfı ve azınlık sınıfı bölümlerini de inceleyin.

kırpma

#fundamentals

Aşağıdakilerden birini veya ikisini birden yaparak aykırı değerleri ele almaya yönelik bir teknik:

  • Bir maksimum eşiğin üzerindeki feature değerlerini, bu maksimum eşiğe kadar azaltır.
  • Minimum eşiğin altında olan özellik değerlerini o minimum eşiğe yükseltme.

Örneğin, belirli bir özellik için değerlerin <%0,5'inin 40–60 aralığının dışında olduğunu varsayalım. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler, modellere zarar verebilir ve bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri önemli ölçüde bozabilir. Kırpma, zararı sınırlandırmak için yaygın bir tekniktir.

Gradyan kırpma, gradyan değerlerini eğitim sırasında belirtilen aralık içinde zorlar.

kafa karışıklığı matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin:

Tümör (tahmini) Tüm Olmayan (tahmini)
Tümör (kesin referans) 18 (TP) 1 (FN)
Tüm Olmayan (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisinde aşağıdakiler gösterilmektedir:

  • Kesin referans tümör olan 19 tahminden 18'ini doğru şekilde sınıflandırmış ve 1'ini yanlış sınıflandırmıştır.
  • Kesin referansın Tümör Olmayan tahminleri içeren 458 tahminden 452'sini doğru sınıflandırmış ve 6'sını yanlış sınıflandırmıştır.

Çok sınıflı sınıflandırma sorunu için karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) kategorize eden 3 sınıflı çok sınıflı bir sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin. Kesin referans Virginica olduğunda, kafa karışıklığı matrisi modelin Versicolor tahmininin Setosa'dan çok daha yüksek olduğunu gösteriyor:

  Setosa (tahmini) Çok Renkli (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Çok renkli (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, bir karışıklık matrisi, elle yazılmış rakamları tanımak üzere eğitilmiş bir modelin yanlışlıkla 4 yerine 9 veya yanlışlıkla 7 yerine 1 tahmin etme eğiliminde olduğunu ortaya çıkarabilir.

Karışıklık matrisleri, hassas ve geri çağırma dahil olmak üzere çeşitli performans metriklerini hesaplamak için yeterli bilgi içerir.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz olası değer aralığına sahip bir kayan nokta özelliği.

Ayrı özellik ile kontrast.

yakınsaklık

#fundamentals

Kayıp değerleri her bir yineleme ile çok az değiştiğinde veya hiç değişmediğinde ulaşılan bir durum. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 iterasyonda yakınlaşmayı önerir:

Kartezyen olay örgüsü. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısıdır. Kayıp, ilk birkaç iterasyonda çok yüksek olsa da ani bir şekilde düşer. Yaklaşık 100 yinelemeden sonra kayıp hâlâ azalmakta ancak çok daha yavaş yavaştır. Yaklaşık 700 iterasyondan sonra kayıp sabit kalır.

Ek eğitim, modeli iyileştirmediğinde model yakınlaştırılır.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya çoğu yinelemede sonunda azalmaya başlar. Değer kaybı yaşandığı uzun süre boyunca geçici olarak yanlış bir yakınlık hissine kapılabilirsiniz.

Erken durdurma bölümünü de inceleyin.

D

DataFrame

#fundamentals

Bellekte veri kümelerini temsil etmek için popüler bir pandalar veri türü.

DataFrame, tablolara veya e-tablolara benzer. DataFrame'in her sütununun bir adı (bir başlık) vardır ve her satır benzersiz bir sayıyla tanımlanır.

DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Tek fark, her sütuna kendi veri türü atanabilir.

Ayrıca, resmi pandas.DataFrame referans sayfasına da bakın.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak özel olarak değil) aşağıdaki biçimlerden birinde düzenlenmiş ham veri koleksiyonu:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçimindeki bir dosya

derin model

#fundamentals

Birden fazla gizli katman içeren nöral ağ.

Derin modeller, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast.

yoğun özellik

#fundamentals

Değerlerinin çoğunun veya tümünün sıfır olmadığı bir özellik, genellikle kayan nokta değerlerinin Tensörü. Örneğin, aşağıdaki 10 öğeli Tensor, değerlerinden 9'u sıfır olmadığı için yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile kontrast.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanına sahip bir nöral ağının derinliği 6'dır.

Giriş katmanının derinliği etkilemediğine dikkat edin.

ayrı özellik

#fundamentals

Sınırlı bir olası değer grubuna sahip bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilen bir özellik ayrı (veya kategorik) bir özelliktir.

Sürekli özellik ile kontrast.

dinamik

#fundamentals

Sık veya sürekli yapılan bir şey. Dinamik ve online terimleri, makine öğreniminde eş anlamlıdır. Makine öğreniminde dinamik ve online özelliklerinin yaygın kullanımları şunlardır:

  • Dinamik model (veya online model), sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık veya sürekli eğitim sürecidir.
  • Dinamik çıkarım (veya online çıkarım), isteğe bağlı tahmin oluşturma sürecidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli olarak) yeniden eğitilen bir model. Dinamik model, değişen verilere sürekli adapte olan "yaşam boyu öğrencidir". Dinamik model, online model olarak da bilinir.

Statik modelle kontrast.

E

erken durdurma

#fundamentals

Eğitim kaybının azaltılması tamamlanmadan önce eğitimin sonlandırılmasını içeren bir normalleştirme yöntemi. Erken durdurma anında bir doğrulama veri kümesindeki kayıp artmaya başladığında, yani genelleştirme performansı düştüğünde model eğitmeyi kasıtlı olarak durdurursunuz.

yerleştirme katmanı

#language
#fundamentals

Daha düşük boyutlu bir yerleştirme vektörünü kademeli olarak öğrenmek için yüksek boyutlu kategorik özellik üzerinde eğitilen özel bir gizli katman. Yerleştirme katmanı, bir nöral ağın yalnızca yüksek boyutlu kategorik özellik üzerinde eğitimden çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türünün, modelinizde bir özellik olduğunu ve modelinizin giriş katmanının 73.000 öğe uzunluğunda bir tek sıcak vektör içerdiğini varsayalım. Örneğin, baobab şu şekilde temsil edilebilir:

73.000 öğeden oluşan bir dizi. İlk 6.232 öğe 0 değerini taşır. Sonraki öğe, 1 değerini taşır. Son 66.767 öğe sıfır değerini taşır.

73.000 öğeli bir dizi çok uzun. Modele yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpımından dolayı eğitim çok zaman alır. Belki de yerleştirme katmanını 12 boyuttan oluşacak şekilde seçersiniz. Bunun sonucunda, yerleştirme katmanı her bir ağaç türü için kademeli olarak yeni bir yerleştirme vektörü öğrenecektir.

Belirli durumlarda, yerleştirme katmanına makul bir alternatif olarak karma oluşturma kullanılabilir.

sıfır zaman

#fundamentals

Eğitim grubunun tamamı boyunca, her örnek bir kez işlenecek şekilde eksiksiz bir eğitim geçişi yapılır.

Dönem, N/toplu boyutu eğitimi yinelemelerini temsil eder. Burada N, toplam örnek sayısıdır.

Örneğin, aşağıdakini varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem için 20 yineleme gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Örnek

#fundamentals

Bir features satırının ve muhtemelen bir etiketin değerleri. Gözetimli öğrenme ile ilgili örnekler iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş örnek bir veya daha fazla özellikten oluşur ancak etiket içermez. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, hava koşullarının öğrencilerin sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıda, etiketlenmiş üç örnek verilmiştir:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda, etiketlenmemiş üç örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesinin satırı genellikle bir örneğin ham kaynağıdır. Diğer bir deyişle, bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Dahası, bir örnekteki özellikler özellik çaprazları gibi sentetik özellikleri de içerebilir.

F

yanlış negatif (FN)

#fundamentals

Modelin yanlışlıkla negatif sınıfı tahmin ettiği bir örnek. Örneğin, model, belirli bir e-posta iletisinin spam olmadığını (negatif sınıf) ancak bu e-posta iletisinin aslında spam olduğunu tahmin eder.

yanlış pozitif (FP)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam (pozitif sınıf) olduğunu ancak bu e-posta iletisinin aslında spam olmadığını tahmin eder.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin, pozitif sınıfı yanlış tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, bir ROC eğrisindeki x eksenidir.

özellik

#fundamentals

Makine öğrenimi modelindeki bir giriş değişkeni. Örnek bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast.

özellik çapraz

#fundamentals

Kategorik veya paketlenmiş özelliklerin "çaprazlanması" sonucu oluşturulan sentetik bir özellik.

Örneğin, aşağıdaki dört gruptan birindeki sıcaklığı temsil eden bir "ruh hali tahmini" modelini ele alalım:

  • freezing
  • chilly
  • temperate
  • warm

Ayrıca aşağıdaki üç gruptan birindeki rüzgar hızını gösterir:

  • still
  • light
  • windy

Özellik kesişimi olmadığında, doğrusal model önceki yedi farklı paketin her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin windy ile ilgili eğitimden bağımsız olarak freezing üzerinde eğitilir.

Alternatif olarak, sıcaklık ve rüzgar hızının karşılaştırıldığı bir özellik oluşturabilirsiniz. Bu sentetik özellik aşağıdaki 12 olası değere sahip olabilir:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Modeller, özellik çaprazları sayesinde freezing-windy gün ile freezing-still gün arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri birçok farklı pakete sahip iki özellikten sentetik bir özellik oluşturursanız, sonuçta elde edilen özellik çaprazı çok sayıda olası kombinasyona sahip olacaktır. Örneğin, bir özellik 1.000 pakete sahipken diğer özellik 2.000 pakete sahipse ortaya çıkan özellik geçişi 2.000.000 pakete sahip olur.

Resmi olarak, çarpı bir Kartezyen üründür.

Özellik çaprazları çoğunlukla doğrusal modellerle, nöral ağlarla ise nadiren kullanılır.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modeli eğitirken hangi özelliklerin yararlı olabileceğini belirlemek.
  2. Veri kümesindeki ham verileri bu özelliklerin verimli sürümlerine dönüştürme.

Örneğin, temperature faydalı bir özellik olabilir. Ardından, modelin farklı temperature aralıklarından öğrenebileceği şeyleri optimize etmek için paketleme ile denemeler yapabilirsiniz.

Özellik mühendisliği bazen özellik çıkarma olarak da adlandırılır.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellikler grubu. Örneğin; posta kodu, tesis boyutu ve mülk durumu, konut fiyatlarını tahmin eden bir model için basit bir özellik grubundan oluşabilir.

özellik vektörü

#fundamentals

Örnek oluşturan feature değerleri dizisi. Özellik vektörü, eğitim ve çıkarım sırasında girilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92, diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Bir sonraki örnek için özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özelliklerin özellik vektöründe nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip bir ikili kategorik özellik, tek sıcak kodlama ile temsil edilebilir. Bu durumda, belirli bir örnek için özellik vektörünün bölümü, dört sıfır ve üçüncü konumda tek bir 1,0 içerir.Örneğin:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellik içerdiğini varsayalım:

  • tek seferlik kodlamayla temsil edilen beş olası değere sahip ikili kategorik bir özellik; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • Tek sıcak kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategorik özellik; örneğin: [0.0, 0.0, 1.0]
  • kayan nokta özelliğidir; örneğin: 8.3.

Bu durumda, her bir örneğin özellik vektörü dokuz değerle temsil edilir. Yukarıdaki örnek değerler göz önüne alındığında, özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin aynı modele veya başka bir modele ait eğitim verilerini etkilediği durum. Örneğin, film öneren bir model, kullanıcıların göreceği filmleri etkiler. Bu da sonraki film öneri modellerini etkiler.

G

genelleştirme

#fundamentals

Bir modelin yeni, daha önce görülmemiş veriler üzerinde doğru tahminlerde bulunabilme özelliği. Genelleştirilebilen bir model, fazladan uyarlanan bir modelin tam tersidir.

genelleştirme eğrisi

#fundamentals

Yineleme sayısının bir fonksiyonu olarak hem eğitim kaybının hem de doğrulama kaybının grafiğini gösterir.

Genelleştirme eğrisi, olası fazla uyumu tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleme eğrisi fazla uyumu önerir çünkü doğrulama kaybı nihai olarak eğitim kaybına göre önemli ölçüde daha yüksek olur.

Y ekseninin &quot;kayıp&quot;, x ekseninin ise &quot;yiterasyonlar&quot; olarak etiketlendiği bir Kartezyen grafik. İki nokta görünür. Grafiklerden biri eğitim kaybını, diğeri ise doğrulama kaybını gösterir.
          İki grafik benzer şekilde başlar ancak eğitim kaybı nihayetinde doğrulama kaybından çok daha az düşer.

gradyan iniş

#fundamentals

Kaybı en aza indirmek için kullanılan matematiksel teknik. Gradyan iniş, ağırlıklar ve ön yargıları tekrarlı bir şekilde ayarlayarak kaybı en aza indirmek için en iyi kombinasyonu kademeli olarak bulur.

Gradyan iniş makine öğreniminden çok daha eskidir.

kesin referans

#fundamentals

Realite.

Gerçekte olan şey.

Örneğin, üniversitenin ilk yılındaki bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini ele alalım. Bu modeldeki temel gerçek, öğrencinin altı yıl içinde mezun olup olmadığıdır.

VR

gizli katman

#fundamentals

Nöral ağdaki, giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasındaki katman. Her bir gizli katman, bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ, birincisinde üç nöron, ikincisinde ise iki nöron bulunan iki gizli katman içermektedir:

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman, bir çıktı katmanıdır. Her özellikte üç kenar bulunur. Bunların her biri, ikinci katmandaki farklı bir nöronu işaret eder. İkinci katmandaki nöronların her biri, her biri üçüncü katmandaki farklı bir nöronu işaret eden iki kenar içerir. Üçüncü katmandaki nöronların her biri, her biri çıkış katmanını işaret eden bir kenar içerir.

Derin nöral ağ, birden fazla gizli katman içerir. Örneğin, önceki resim derin bir nöral ağdır çünkü model iki gizli katman içerir.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarlama hizmetinin bir modelin ardışık olarak eğitilmesi sırasında ayarlanır. Örneğin, öğrenme hızı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. 0,01'in çok yüksek olduğuna karar verirseniz bir sonraki eğitim oturumu için öğrenme hızını 0,003'e ayarlayabilirsiniz.

Parametreler ise modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve ön yargılardır.

İ

bağımsız ve özdeş olarak dağıtılmış (ör.

#fundamentals

Değişmeyen bir dağılımdan alınan ve çizilen her bir değerin daha önce çizilen değerlere bağlı olmadığı veriler. Makine öğreniminin ideal gazı, faydalı bir matematiksel yapıdır, ancak gerçek dünyada neredeyse hiçbir zaman bulunamamıştır. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı kısa bir zaman dilimi içinde ör. olabilir. Diğer bir deyişle, dağılım bu kısa zaman aralığında değişmez ve bir kişinin ziyareti genellikle başka bir kullanıcının ziyaretinden bağımsız olur. Ancak, bu zaman aralığını genişletirseniz, web sayfasının ziyaretçileri arasında mevsimsel farklılıklar görünebilir.

Ayrıca durağanlık bölümünü de inceleyin.

çıkarım

#fundamentals

Makine öğreniminde, etiketlenmemiş örneklere eğitilmiş bir model uygulayarak tahmin yapma süreci.

Çıkarım, istatistiklerde biraz daha farklı bir anlama sahiptir. Ayrıntılı bilgi için istatistiksel çıkarımla ilgili Wikipedia makalesine bakın.

giriş katmanı

#fundamentals

Özellik vektörünü barındıran bir nöral ağın katmanı. Diğer bir deyişle, giriş katmanı eğitim veya çıkarım için örnekler sağlar. Örneğin, aşağıdaki nöral ağda bulunan giriş katmanı iki özellikten oluşur:

Dört katman: Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.

yorumlanabilirlik

#fundamentals

Bir ML modelinin mantığını anlaşılır terimlerle açıklama veya kullanıcılara sunma becerisi.

Örneğin, çoğu doğrusal regresyon modeli, yüksek düzeyde yorumlanabilir. (Tek yapmanız gereken her bir özellik için eğitilmiş ağırlıklara bakmaktır.) Karar ormanları da son derece yorumlanabilirdir. Ancak bazı modellerin yorumlanabilir olması için gelişmiş görselleştirme gerekir.

ML modellerini yorumlamak için Learning Yorumlanabilirlik Aracı'nı (LIT) kullanabilirsiniz.

iterasyon

#fundamentals

Eğitim sırasında bir modelin parametrelerinin (modelin ağırlıkları ve ön yargıları) tek bir güncellemesi. Toplu işlem boyutu, modelin tek bir iterasyonda kaç örnek işlediğini belirler. Örneğin, grup boyutu 20 ise model, parametreleri ayarlamadan önce 20 örnek işler.

Bir nöral ağı eğitirken tek bir iterasyon aşağıdaki iki geçişi kapsar:

  1. Tek bir toplu işlemdeki kaybı değerlendirmek için ileriye doğru hesaplama.
  2. Modelin parametrelerini kayıp ve öğrenme hızına göre ayarlamak için geriye doğru hesaplama (geri yayılım).

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır olmayan ağırlıkların toplam sayısına ceza veren bir normalleştirme türü. Örneğin, sıfır olmayan 11 ağırlığa sahip bir model, sıfır olmayan 10 ağırlığa sahip benzer bir modele göre daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0norm normalleştirmesi olarak da adlandırılır.

L1 mağlubiyeti

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan toplu için L1 kaybının hesaplanması aşağıdaki gibidir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, aykırı değerlere karşı L2 kaybına göre daha az duyarlıdır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıklara ağırlıkların mutlak değeriyle orantılı olarak ceza veren bir normalleştirme türü. L1 normalleştirmesi, alakasız veya çok az alakalı özelliklerin ağırlıklarını tam olarak 0'a çıkarmaya yardımcı olur. Ağırlığı 0 olan bir özellik, modelden etkin bir şekilde kaldırılır.

L2 normalleştirmesi ile kontrast.

L2 mağlubiyeti

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan toplu için L2 kaybının hesaplanması aşağıdaki gibidir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kareleme nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybına kıyasla daha güçlü tepki verir. Örneğin, bir önceki grup için L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin 16'da 9'a karşılık geldiğine dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Kare Hatası, örnek başına ortalama L2 kaybıdır. Kareli kayıp, 2. aşama kaybının diğer adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıklara ağırlıkların karelerinin toplamıyla orantılı olarak ceza veren bir normalleştirme türü. L2 normalleştirmesi, aykırı ağırlıkların (yüksek pozitif veya düşük negatif değerlere) 0'a yakın ancak 0'a tam olarak eşit olmaması ile elde edilmesine yardımcı olur. 0'a çok yakın değerlere sahip özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi, doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesi ile kontrast.

etiket

#fundamentals

Gözetimli makine öğreniminde örneğin "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellikten ve bir etiketten oluşur. Örneğin, bir spam algılama veri kümesinde, etiket muhtemelen "spam" veya "spam değil" olur. Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarı olabilir.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren örnek. Örneğin, aşağıdaki tabloda her biri üç özellik ve bir etiket içeren, ev değerleme modelinden etiketli üç örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Ev fiyatı (etiket)
3 2 15 $345.000
2 1 72 $179.000
4 2 34 $392.000

Gözetimli makine öğreniminde modeller, etiketli örneklere göre eğitilir ve etiketlenmemiş örnekler üzerinde tahminde bulunur.

Etiketlenmemiş örneklerle kontrast etiketli örnek.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlı kelime.

Lambda kelimesi aşırı yüklü bir terim. Burada, terimin düzenlenmesi içindeki tanımına odaklanıyoruz.

katman

#fundamentals

Nöral ağdaki bir nöron kümesi. Yaygın olarak kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki çizimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'daki katmanlar, Tensörler ve yapılandırma seçeneklerini girdi olarak alıp çıkış olarak diğer tensörler üreten Python işlevleridir.

öğrenme hızı

#fundamentals

Gradyan iniş algoritmasına, her bir yinelemede ağırlıkların ve sapmaların ne kadar güçlü bir şekilde ayarlanması gerektiğini bildiren bir kayan nokta sayısı. Örneğin 0,3'lük bir öğrenme oranı, ağırlıkları ve ön yargıları 0,1'lik bir öğrenme hızından üç kat daha güçlü şekilde ayarlar.

Öğrenme hızı önemli bir hiperparametredir. Öğrenme hızını çok düşük belirlerseniz eğitim çok uzun sürer. Öğrenme hızını çok yüksek ayarlarsanız gradyan azalma genellikle yakınlığa ulaşmada sorun yaşar.

doğrusal

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla temsil edilebilecek ilişki.

Doğrusal bir ilişkinin grafiği bir çizgidir.

Doğrusal olmayan ile kontrast.

doğrusal model

#fundamentals

Tahminler yapmak için özellik başına bir ağırlık atayan bir model. (Doğrusal modeller aynı zamanda bir yanlılık da içerir.) Buna karşılık, özelliklerin derin modeller'deki tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle derin modellere kıyasla daha kolay yorumlanabilir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, iki doğrusal model türüdür.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

Mantıksal regresyon ile kontrast doğrusal regresyon. Ayrıca, sınıflandırma ile kontrast regresyonunu da inceleyin.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir regresyon modeli türüdür. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategorik. Mantıksal regresyon terimi genellikle ikili mantıksal regresyonu, diğer bir deyişle iki olası değere sahip etiketlerin olasılıklarını hesaplayan bir modeli ifade eder. Daha az yaygın olan çok terimli mantıksal regresyon, ikiden fazla olası değere sahip etiketlerin olasılıklarını hesaplar.
  • Eğitim sırasında kayıp işlevi Log Loss'tur. (İkiden fazla olası değere sahip etiketler için paralel olarak Birden fazla Günlük Kaybı birimi yerleştirilebilir.)
  • Model, derin bir nöral ağa değil, doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketlerin olasılıklarını tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olma veya spam olmama olasılığını hesaplayan mantıksal regresyon modelini ele alalım. Çıkarım sırasında modelin 0, 72 tahmin ettiğini varsayalım. Bu nedenle model şu tahmini yapar:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama olasılığı% 28.

Mantıksal regresyon modeli aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinin doğrusal işlevini uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini sigmoid işlevine girdi olarak kullanır. Bu işlev, ham tahmini 0 ile 1 arasında bir değere dönüştürür.

Herhangi bir regresyon modelinde olduğu gibi, mantıksal regresyon modeli bir sayıyı tahmin eder. Bununla birlikte, bu sayı genellikle aşağıdaki gibi ikili sınıflandırma modelinin parçası haline gelir:

  • Tahmin edilen sayı, sınıflandırma eşiğinden büyükse ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı, sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Günlük Kaybı

#fundamentals

İkili mantıksal regresyonda kullanılan kayıp işlevi.

günlük oranları

#fundamentals

Bazı etkinliklerin olasılıklarının logaritması.

mağlubiyet

#fundamentals

Gözetimli modelin eğitimi sırasında bir modelin tahminin etiketinden ne kadar uzakta olduğunun ölçüsü.

Bir kayıp işlevi, kaybı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim yineleme sayısının bir işlevi olarak kayıp grafiği. Aşağıdaki grafikte tipik bir kayıp eğrisi gösterilmektedir:

Kayıp ve eğitim iterasyonlarının ilk iterasyonlarında hızlı bir düşüş, ardından kademeli bir düşüş ve son iterasyonlar sırasında düz bir eğim izlemesi gösteren Kartezyen grafiği.

Kayıp eğrileri, modelinizin ne zaman tümleşme veya fazla uyumlu olduğunu belirlemenize yardımcı olabilir.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü çizebilir:

Ayrıca genelleme eğrisi konusuna bakın.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, kaybı örnekleri toplu olarak hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminlerde bulunan modeller için, kötü tahminler yapan modellere kıyasla daha düşük bir kayıp döndürür.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı türde kayıp işlevi mevcuttur. Derlediğiniz model türü için uygun kayıp işlevini seçin. Örneğin:

M

makine öğrenimi

#fundamentals

Giriş verilerinden bir modeli eğiten program veya sistem. Eğitilen model, modeli eğitmek için kullanılanla aynı dağıtımdan alınan yeni (daha önce hiç görülmemiş) verilerden faydalı tahminler yapabilir.

Makine öğrenimi, bu program veya sistemlerle ilgili çalışma alanını da ifade eder.

çoğunluk sınıfı

#fundamentals

Sınıf dengesiz veri kümesinde daha yaygın olan etiket. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesinde negatif etiketler çoğunluktur.

Azınlık sınıfıyla zıtlık.

mini grup

#fundamentals

Tek bir iterasyon halinde işlenen topluluğun küçük ve rastgele seçilmiş alt kümesi. Bir mini grubun toplu boyutu genellikle 10 ila 1.000 örnektir.

Örneğin, tüm eğitim veri kümesinin (tüm grubun) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her bir mini grubun grup boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle, her yineleme 1.000 örneğin rastgele 20'sindeki kaybı belirler ve daha sonra ağırlıklar ve ağırlıkları buna göre ayarlar.

Mini gruptaki kaybı hesaplamak, tam gruptaki tüm örneklerdeki kayba kıyasla çok daha verimlidir.

azınlık sınıfı

#fundamentals

Sınıf dengesiz veri kümesinde daha az yaygın olan etiket. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesinde pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfı ile kontrast.

model

#fundamentals

Genel olarak, giriş verilerini işleyen ve çıkış döndüren her türlü matematiksel yapı. Farklı bir ifadeyle model, bir sistemin tahminde bulunması için gereken parametre ve yapı grubudur. Gözetimli makine öğreniminde model, girdi olarak örneği alır ve çıktı olarak tahmin çıkarımda bulunur. Gözetimli makine öğreniminde modeller biraz farklılık gösterir. Örneğin:

  • Doğrusal regresyon modeli, bir dizi ağırlıktan ve bir yanlamadan oluşur.
  • Nöral ağ modeli şunlardan oluşur:
    • Her biri bir veya daha fazla nöron içeren bir gizli katman kümesi.
    • Her bir nöronla ilişkili ağırlıklar ve yanlılık.
  • Karar ağacı modeli aşağıdakilerden oluşur:
    • Ağacın şekli; bir başka deyişle, koşulların ve yaprakların bağlı olduğu kalıp.
    • Koşullar ve çıkışlar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu işlev, genellikle bir giriş örneğini en uygun kümeyle eşleyebilen bir işlevdir.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinde ikiden fazla sınıf bulunduğu bir sınıflandırma problemidir. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • İris setosa
  • İris Virginica
  • Çok renkli iris

Yeni örneklerde Iris türünü tahmin eden Iris veri kümesiyle eğitilmiş bir model, çok sınıflı sınıflandırma gerçekleştiriyor.

Tam olarak iki sınıfı ayıran sınıflandırma sorunları ise ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil tahminini yapan bir e-posta modeli, ikili sınıflandırma modelidir.

Kümeleme problemlerinde çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

N

negatif sınıf

#fundamentals

İkili sınıflandırmada, bir sınıf pozitif, diğeri negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği şey veya etkinliktir. Negatif sınıf ise diğer olasılıktır. Örneğin:

  • Tıbbi testlerdeki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile kontrast.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin nöral ağ, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren bir derin nöral ağ gösterilmektedir.

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ.

Bir nöral ağdaki her bir nöron bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada, ilk gizli katmandaki üç nöronun her birinin, ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığına dikkat edin.

Bilgisayarlara uygulanan nöral ağlar, bazen onları beyin ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt etmek için yapay nöral ağlar olarak adlandırılır.

Bazı nöral ağlar, farklı özellikler ve etiket arasında son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Ayrıca evrimsel nöral ağ ve yinelenen nöral ağ bölümlerini de inceleyin.

nöron

#fundamentals

Makine öğreniminde, bir nöral ağın gizli katmanında bulunan ayrı bir birim. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin ağırlıklı toplamını karşılık gelen ağırlıklarıyla çarparak hesaplar.
  2. Ağırlıklı toplamı, etkinleştirme işlevine girdi olarak iletir.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden gelen girişleri kabul eder. İlkinin ötesinde herhangi bir gizli katmanda bulunan bir nöron, önceki gizli katmanda bulunan nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, birinci gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki çizimde iki nöron ve girişleri vurgulanmaktadır.

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ. Biri birinci gizli katmanda diğeri ikinci gizli katmanda olmak üzere iki nöron vurgulanıyor. İlk gizli katmanda vurgulanan nöron, giriş katmanındaki her iki özellikten de giriş alır. İkinci gizli katmanda vurgulanan nöron, ilk gizli katmandaki üç nöronun her birinden giriş alır.

Bir sinir ağdaki nöron, beyinlerdeki ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışlarını taklit eder.

düğüm (nöral ağ)

#fundamentals

Gizli bir katman içindeki nöron.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasında yalnızca toplama ve çarpma yoluyla temsil edilemeyen ilişki. Doğrusal bir ilişki, çizgi olarak temsil edilebilir; doğrusal olmayan bir ilişki çizgi olarak temsil edilemez. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki modeli düşünün. Soldaki model doğrusaldır. Sağdaki model ise doğrusal değildir:

İki parça. Grafiklerden biri çizgi olduğu için bu doğrusal bir ilişkidir.
          Diğer grafik bir eğridir. Dolayısıyla, bu doğrusal olmayan bir ilişkidir.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen özellik. Örneğin, aşağıdaki durağanlık örneklerini ele alalım:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede, yılın büyük kısmında sıfır olsa da kısa bir süre boyunca toplanan belirli bir meyve miktarıdır.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

durağanlık ile kontrast.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme süreci. Örneğin:

  • -1'den +1'e
  • 0:1
  • normal dağılım

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri -1 ile +1 gibi standart bir aralığa kadar normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliği kapsamında yaygın bir görevdir. Özellik vektöründeki her sayısal özellik aşağı yukarı aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretir).

sayısal veri

#fundamentals

Tam sayı veya gerçek değerli sayı olarak temsil edilen özellikler. Örneğin, bir ev değerleme modeli muhtemelen bir evin büyüklüğünü (fitkare veya metrekare cinsinden) sayısal veri olarak temsil eder. Bir özelliğin sayısal veri olarak temsil edilmesi, özelliğin değerlerinin etiketle matematik bir ilişkisi olduğunu gösterir. Yani bir evdeki metrekare sayısının, muhtemelen evin değeriyle bazı matematiksel ilişkileri vardır.

Tüm tam sayı verileri, sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı yerlerindeki posta kodları tamsayıdır; ancak, tam sayı posta kodları, modellerde sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 posta kodunun 10.000 posta kodunun iki (veya yarısı) potansiyelinin olmamasıdır. Ayrıca, farklı posta kodları farklı gayrimenkul değerleriyle ilişkilendirilse de 20000 posta kodundaki gayrimenkul değerlerinin, 10000 posta kodundaki gayrimenkul değerlerinden iki kat daha değerli olduğunu varsayamayız. Posta kodları, bunun yerine kategorik veriler olarak temsil edilmelidir.

Sayısal özellikler bazen sürekli özellikler olarak da adlandırılır.

O

çevrimdışı

#fundamentals

Statik ile eş anlamlı.

çevrimdışı çıkarım

#fundamentals

Bir modelin bir grup tahmin oluşturma ve ardından bu tahminleri önbelleğe alma (kaydetme) işlemi. Böylece uygulamalar, modeli yeniden çalıştırmak yerine istenen tahmine önbellekten erişebilir.

Örneğin, her dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir modeli ele alalım. Her model çalıştırıldıktan sonra, sistem tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarımla kontrast.

tek sıcak kodlama

#fundamentals

Kategorik verileri aşağıdaki durumlarda bir vektör olarak gösterir:

  • Bir öğe 1 olarak ayarlandı.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama, sınırlı bir olası değer grubuna sahip dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değerinin olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek sıcak kodlama sayesinde model, beş ülkenin her birine bağlı olarak farklı bağlantılar öğrenebilir.

Bir özelliği sayısal veri olarak temsil etmek, tek kullanımlık kodlamanın alternatifidir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçenek değil. Örneğin, aşağıdaki sayısal temsili düşünün:

  • "Danimarka" 0
  • "İsveç" 1
  • "Norveç" 2
  • "Finlandiya" 3'tür
  • "İzlanda" 4

Sayısal kodlamayla, bir model, ham sayıları matematik olarak yorumlar ve bu sayılara göre eğitim yapmaya çalışır. Ancak İzlanda aslında Norveç'inkinin iki katı (veya yarısı kadar) değil. Bu yüzden model bazı garip sonuçlara varabilir.

bir - tümü

#fundamentals

N sınıfındaki bir sınıflandırma sorunu göz önünde bulundurulduğunda, olası her sonuç için bir ikili sınıflandırıcı olan N ayrı ikili sınıflandırıcıdan oluşan bir çözüm. Örneğin, hayvan, sebze veya mineral olarak sınıflandırılan bir modelde "bire-hepsi" çözümü aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan mı, hayvan değil mi
  • sebze mi, sebze değil
  • mineral mi mineral değil

online

#fundamentals

dynamic ile eş anlamlı kelime.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş gönderdiğini ve bir tahmin isteğinde bulunduğunu varsayalım. Online çıkarımı kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarım ile kontrast.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki çizimde bir giriş katmanına, iki gizli katmana ve bir çıkış katmanına sahip küçük bir derin nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Modelin yeni veriler üzerinde doğru tahminlerde bulunamaması için eğitim verileriyle çok yakından eşleşen bir model oluşturmak.

Normalleştirme fazla uyumu azaltabilir. Geniş ve çeşitliliğe sahip bir eğitim seti üzerinde eğitim almak, fazla uyumun önüne geçmek için de kullanılabilir.

P

pandalar

#fundamentals

numpy üzerine inşa edilmiş sütun odaklı bir veri analizi API'si. TensorFlow da dahil olmak üzere birçok makine öğrenimi çerçevesi, pandaların veri yapılarını giriş olarak destekler. Ayrıntılı bilgi için pandas belgelerini inceleyin.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve ön yargılar. Örneğin, bir doğrusal regresyon modelinde, parametreler aşağıdaki formüldeki ağırlık (b) ve tüm ağırlıklardan (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık hiperparametre, sizin (veya bir hiperparametre döndürme hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme hızı bir hiperparametredir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcının pozitif sınıfı "spam" olabilir.

Negatif sınıf ile kontrast.

işleme sonrası

#fairness
#fundamentals

Bir modelin çalıştırıldıktan sonra çıkışını ayarlama. İşleme sonrası, modellerin kendilerini değiştirmeden adalet kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, gerçek pozitif oranın belirli bir özelliğin tüm değerleri için aynı olup olmadığı kontrol edilerek fırsat eşitliğinin korunması şeklinde bir sınıflandırma eşiği ayarlayarak ikili bir sınıflandırıcıya son işleme uygulanabilir.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modeli tahmini, pozitif sınıf veya negatif sınıf olur.
  • Çok sınıflı sınıflandırma modeli tahmini tek sınıftır.
  • Doğrusal regresyon modeli tahmini bir sayıdır.

proxy etiketleri

#fundamentals

Bir veri kümesinde doğrudan kullanılamayan etiketleri tahmin etmek için kullanılan veriler.

Örneğin, çalışanların stres seviyesini tahmin etmek için bir model eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmin özelliği içeriyor, ancak stres seviyesi adlı bir etiket içermiyor. Stres seviyesi için proxy etiket olarak "iş yeri kazaları"nı seçtiniz. Sonuçta, stres altındaki çalışanlar sakin çalışanlara kıyasla daha fazla sorunla karşılaşıyor. Yoksa içeriyorlar mı? Belki iş yeri kazaları aslında pek çok nedenden dolayı artıyor ve düşüyor.

İkinci örnek olarak, veri kümeniz için yağmur yağıyor mu? ifadesinin bir Boole etiketi olmasını istediğinizi ancak veri kümenizin yağmur verisi içermediğini varsayalım. Fotoğraflar varsa yağmur yağıyor mu? sorusunun cevabı için şemsiye taşıyan insanların fotoğraflarını çekebilirsiniz. Bu iyi bir proxy etiketi mi? Muhtemelen bazı kültürlerdeki insanların güneşten korumak için şemsiye taşıma olasılığı yağmurdan daha yüksek olabilir.

Proxy etiketleri çoğu zaman kusursuz değildir. Mümkün olduğunda proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında proxy etiketini en az korkutucu proxy etiketi adayını seçerek çok dikkatli bir şekilde seçin.

R

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan bir gerçek kişidir. "Ek açıklama oluşturucu", değerlendiricinin başka bir adıdır.

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfırsa çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun çizimi:

İki satırlık kartezyen grafik. İlk çizginin y sabit değeri 0&#39;dır. Bu değer, x ekseni boyunca -sonsuz,0 ile 0,-0 arasındadır.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1 olduğu için 0,0 ile +sonsuz,+sonsuz arasındadır.

ReLU, son derece popüler bir etkinleştirme işlevidir. Basit davranışına rağmen ReLU, bir nöral ağın hâlâ özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesini sağlıyor.

regresyon modeli

#fundamentals

Gayriresmi olarak sayısal tahmin oluşturan model. (Öte yandan, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • Belirli bir evin değerini tahmin eden bir model (ör. 423.000 avro).
  • Belirli bir ağacın yaşam beklentisini 23, 2 yıl gibi tahmin eden bir model.
  • Sonraki altı saat içinde belirli bir şehirde yağacak yağmur miktarını tahmin eden bir model (ör.0, 18 inç).

Yaygın olarak kullanılan iki regresyon modeli türü şunlardır:

  • Doğrusal regresyon, etiket değerlerini özelliklere en uygun çizgiyi bulur.
  • Mantıksal regresyon, 0,0 ile 1,0 arasında bir olasılık oluşturur. Bu olasılık, sistem genellikle daha sonra sınıf tahminiyle eşleştirilir.

Sayısal tahminler veren her model bir regresyon modeli değildir. Bazı durumlarda sayısal tahmin aslında sayısal sınıf adlarına sahip olan bir sınıflandırma modelidir. Örneğin, sayısal posta kodunu tahmin eden model regresyon modeli değil, sınıflandırma modelidir.

normalleştirme

#fundamentals

Fazla uyumu azaltan tüm mekanizmalar. Popüler normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında düzenlemenin göreceli önemini belirten bir sayıdır. Normalleştirme oranını artırmak fazladan uyumu azaltır ancak modelin tahmin gücünü azaltabilir. Buna karşılık, normalleştirme hızının azaltılması veya atlanması fazla uyumu artırır.

ReLU

#fundamentals

Düzeltilmiş Doğrusal Birim'in kısaltmasıdır.

geri alma-artırılmış oluşturma

#fundamentals

Büyük dil modeli (LLM) uygulamalarında yaygın olarak kullanılan bir yazılım mimarisi. Geri alma-artırılmış nesli kullanmanın yaygın motivasyonları arasında şunlar vardır:

  • Modelin oluşturulan yanıtlarının bilgiye dayalı doğruluğunu artırma
  • Modelin eğitilmediği bilgilere erişmesini sağlama
  • Modelin kullandığı bilgiyi değiştirme
  • Modelin kaynakları alıntılamasını sağlama

Örneğin, bir kimya uygulamasının kullanıcı sorgularıyla ilgili özetler oluşturmak için PaLM API'yi kullandığını varsayalım. Uygulamanın arka ucu bir sorgu aldığında, arka uç öncelikli olarak kullanıcının sorgusuyla alakalı verileri arar ("alır"), ilgili kimya verilerini kullanıcının sorgusuna ekler ("artırır") ve LLM'ye, eklenen verilere dayalı bir özet oluşturma talimatı verir.

ROC (alıcı çalışma özelliği) Eğrisi

#fundamentals

İkili sınıflandırmadaki farklı sınıflandırma eşikleri için gerçek pozitif oranın ve yanlış pozitif oranın karşılaştırmasını gösteren grafik.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafında 8 pozitif, solda 7 negatif örnek içeren bir sayı satırı.

Önceki modelin ROC eğrisi şöyle görünür:

ROC eğrisi. x ekseni Yanlış Pozitif Oran&#39;dır ve y ekseni Gerçek Pozitif Oran&#39;dır. Eğri ters çevrilmiş bir L şekline sahiptir. Eğri, (0,0,0,0) ile başlar ve doğrudan (0,0,1,0) değerine kadar devam eder. Daha sonra eğri (0,0,1,0) ile (1,0,1,0) olur.

Buna karşılık, aşağıdaki çizimde negatif sınıfları pozitif sınıflardan ayıramayan kötü bir modelin ham mantıksal regresyon değerleri gösterilmektedir:

Pozitif örnekler ile negatif sınıfların tamamen iç içe geçmiş bir sayı satırı.

Bu modelin ROC eğrisi şöyle görünür:

(0,0,0,0) ile (1,0,1,0) arasındaki düz bir çizgi olan ROC eğrisi.

Bu arada, gerçek dünyada çoğu ikili sınıflandırma modeli, pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle mükemmel değildir. Yani tipik bir ROC eğrisi iki uç nokta arasında bir yerde olur:

ROC eğrisi. x ekseni Yanlış Pozitif Oran&#39;dır ve y ekseni Gerçek Pozitif Oran&#39;dır. ROC eğrisi, pusula noktalarını batıdan kuzeye uzanan
          sarsıntılı bir yayı tahmin eder.

ROC eğrisinde (0,0,1,0) değerine en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak, gerçek dünyadaki diğer bazı sorunlar ideal sınıflandırma eşiğinin seçimini etkiler. Örneğin, belki de yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olur.

AUC adı verilen sayısal bir metrik, ROC eğrisini tek bir kayan nokta değerinde özetler.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Kare Hatası'nın karekökü.

S

sigmoid işlevi

#fundamentals

Bir giriş değerini kısıtlanmış bir aralığa (genellikle 0 ile 1 veya -1 ile +1 arası) "sıkıştıran" matematiksel işlev. Yani bir sigmoid'e herhangi bir sayıyı (iki, bir milyon, negatif milyar vb.) iletebilirsiniz. Sonuç olarak, çıktı yine de kısıtlanmış aralıkta olur. Sigmoid aktivasyon işlevinin grafiği aşağıdaki gibi görünür:

-sonsuz ile +pozitif alan arasında, y değerleri ise neredeyse 0 ile neredeyse 1 aralığını kapsayan x değerlerine sahip iki boyutlu eğri bir grafiktir. x 0 olduğunda y 0, 5&#39;tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5&#39;te olur ve x&#39;in mutlak değeri arttıkça kademeli olarak azalan eğimler olur.

Sigmoid işlevinin makine öğreniminde aşağıdakiler gibi çeşitli kullanım alanları vardır:

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde her olası sınıfın olasılıklarını belirleyen bir işlev. Olasılıkların toplamı tam olarak 1,0'dır. Örneğin, aşağıdaki tabloda softmax'ın çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek .85
Cat .13
at 0,02

Softmax, full softmax olarak da adlandırılır.

Aday örnekleme ile kontrast.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrek sayılır. Buna karşılık, yoğun bir özellik çoğunlukla sıfır veya boş olmayan değerlere sahiptir.

Makine öğreniminde şaşırtıcı sayıda özellik, seyrek özelliklerdir. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, bir ormandaki 300 olası ağaç türü arasından tek bir örnekte yalnızca bir akçaağaç tanımlanabilir. Ya da bir video kitaplığındaki milyonlarca olası video arasından tek bir örnek sadece "Kazablanka"yı tanımlamak olabilir.

Bir modelde genellikle tek sıcak kodlama ile seyrek özellikleri temsil edersiniz. Tek seferlik kodlama büyükse daha yüksek verimlilik için tek sıcak kodlamanın üzerine bir yerleştirme katmanı yerleştirebilirsiniz.

seyrek gösterim

#language
#fundamentals

Seyrek bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca her örneğin yalnızca tek bir türü tanımladığını varsayalım.

Her örnekte ağaç türlerini temsil etmek için tek sıcak vektör kullanabilirsiniz. Tek sıcak vektör tek bir 1 (bu örnekteki belirli ağaç türünü temsil etmek için) ve 35 0 (bu örnekte değil) 35 ağaç türünü temsil eder. Dolayısıyla, maple teriminin tek sıcak temsili aşağıdaki gibi görünebilir:

0 ile 23 arasındaki konumlarda 0, 24. konumlarda 1 ve 25 ile 35 arasındaki konumların 0 değerinde olduğu bir vektör.

Alternatif olarak, seyrek gösterim kullanılarak belirli bir türün konumu belirlenebilir. maple 24. konumdaysa maple için seyrek temsili şöyle olur:

24

Seyrek temsilin, tek seferlik gösterimden çok daha kompakt olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca Seyrek özellik ve seyreklik konularına da bakın.

kayıp kare

#fundamentals

L2 kaybı ile eş anlamlı kelime.

statik

#fundamentals

Sürekli değil bir defa yapılan bir şey. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğreniminde statik ve çevrimdışı öğelerinin yaygın kullanımları şunlardır:

  • Statik model (veya çevrimdışı model) ise bir kez eğitilip bir süre kullanılan modeldir.
  • Statik eğitim (veya çevrimdışı eğitim), statik bir modeli eğitme sürecidir.
  • statik çıkarım (veya çevrimdışı çıkarım), bir modelin aynı anda bir tahmin grubu oluşturduğu bir süreçtir.

Dinamik ile kontrast.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım kelimesinin eş anlamlısı.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen özellik. Örneğin, değerleri 2021 ve 2023'te yaklaşık olarak aynı görünen bir özellik, durağanlığı sergiler.

Gerçek dünyada durağanlığı gösteren çok az özellik vardır. İstikrarla aynı anlama gelen özellikler (deniz seviyesi gibi) bile zamanla değişir.

Hareketsizlik ile kontrast.

olasılıksal gradyan iniş (SGD)

#fundamentals

Grup boyutunun bir olduğu gradyan iniş algoritması. Diğer bir deyişle, SGD bir eğitim grubundan rastgele seçilen tek bir örnekle eğitilir.

gözetimli makine öğrenimi

#fundamentals

model ve bunlara karşılık gelen model bir model eğitme. Gözetimli makine öğrenimi, bir konuyu bir dizi soruyu ve bunlara karşılık gelen yanıtları inceleyerek öğrenmeye benzer. Soru ve cevaplar arasındaki eşlemede uzmanlaştıktan sonra, öğrenci aynı konuyla ilgili yeni (daha önce hiç görülmemiş) sorulara cevaplar verebilir.

Gözetimsiz makine öğrenimi ile karşılaştırma yapın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazlasından derlenen bir özellik. Sentetik özellik oluşturma yöntemleri arasında şunlar bulunur:

  • Sürekli bir özelliği aralık bölmelerine gruplandırma.
  • Özellik karşılaştırması oluşturma.
  • Bir özellik değerini diğer özellik değerleriyle veya kendisiyle çarpma (veya bölme). Örneğin, a ve b giriş özellikleriyse aşağıda sentetik özelliklere örnekler verilmiştir:
    • ab
    • a2
  • Bir özellik değerine transandantal işlev uygulama. Örneğin, c bir giriş özelliğiyse aşağıda sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler, sentetik özellik olarak kabul edilmez.

T

test kaybı

#fundamentals

Bir modelin test kümesine göre kaybını temsil eden bir metrik. Bir model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının düşük eğitim kaybı veya düşük doğrulama kaybı olmaktan daha güçlü bir kalite sinyali olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir boşluk, bazen düzenlileştirme oranını artırmanız gerektiğini gösterir.

eğitim

#fundamentals

Model oluşturan ideal parametreleri (ağırlıklar ve ön yargılar) belirleme süreci. Eğitim sırasında bir sistem örnekleri okur ve parametreleri kademeli olarak ayarlar. Eğitimde her örnek, birkaç kez veya milyarlarca kez kullanılır.

antrenman kaybı

#fundamentals

Belirli bir eğitim yinelemesi sırasında bir modelin kaybını temsil eden bir metrik. Örneğin, kayıp işlevinin Ortalama Kare Hata olduğunu varsayalım. 10.iterasyon için eğitim kaybı (Ortalama Kare Hata) 2,2 ve 100.iterasyon için eğitim kaybı 1,9 olabilir.

Kayıp eğrisi, eğitim kaybını ve yineleme sayısını gösterir. Kayıp eğrisi, eğitim hakkında aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin iyileşmekte olduğunu gösterir.
  • Yukarı doğru bir eğim, modelin kötüye gittiğini gösterir.
  • Düz bir eğim, modelin yakınlaşmaya ulaştığı anlamına gelir.

Örneğin, aşağıdaki idealleştirilmiş kayıp eğrisi aşağıdaki gibi gösterilmektedir:

  • İlk iterasyonlar sırasında modelin hızlı bir şekilde iyileştirildiği anlamına gelen dik bir eğim.
  • Eğitimin sonuna kadar, kademeli olarak düzleşen (ancak yine de aşağıya doğru) bir eğim. Bu, ilk iterasyonlar sırasında biraz daha yavaş bir hızda model iyileştirmesinin devam ettiği anlamına gelir.
  • Eğitimin sonuna doğru yakınlaşmayı gösteren düz bir eğim.

Eğitim kaybının ve iterasyonların karşılaştırması. Bu kayıp eğrisi dik bir aşağı eğimle başlar. Eğim, eğim sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da genelleme bölümünü inceleyin.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasında gösterdiği performans ile sunum sırasında aynı modelin performansı arasındaki fark.

antrenman seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye ayrılır:

İdeal olarak, veri kümesindeki her bir örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama kümesine ait olmamalıdır.

gerçek negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin, model, belirli bir e-posta iletisinin spam olmadığı ve e-posta iletisinin gerçekten spam olmadığı sonucuna varır.

gerçek pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin model, belirli bir e-posta iletisinin spam, bu e-posta iletisinin de gerçekten spam olduğu sonucunu çıkartır.

gerçek pozitif oranı (TPR)

#fundamentals

geri çağırma ile eş anlamlı. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oranı, bir ROC eğrisindeki y eksenidir.

U

yetersiz uyum

#fundamentals

Eğitim verilerinin karmaşıklığını tam olarak anlamadığı için tahmin gücü zayıf olan bir model oluşturma. Aşağıdakiler dahil olmak üzere birçok sorun, eksik uyuma neden olabilir:

etiketsiz örnek

#fundamentals

Özellikler içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir kurum değerleme modelinden etiketlenmemiş üç örnek gösterilmektedir. Bu örneklerin her biri üç özelliğe sahip olup kurum değeri yoktur:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde modeller, etiketli örneklere göre eğitilir ve etiketlenmemiş örnekler üzerinde tahminde bulunur.

Yarı gözetimli ve gözetimsiz öğrenimde, eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketsiz örneği etiketli örnek ile karşılaştırın.

denetlenmeyen makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki (genellikle etiketlenmemiş bir veri kümesi) kalıpları bulmak için bir model eğitme.

Gözetimsiz makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplar halinde kümelemektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre kümeleyebilir. Ortaya çıkan kümeler, diğer makine öğrenimi algoritmaları (ör. müzik öneri hizmeti) için girdi olabilir. Yararlı etiketlerin nadir olduğu veya olmadığı durumlarda kümeleme faydalı olabilir. Örneğin, kötüye kullanımla mücadele ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Gözetimli makine öğrenimiyle kontrast.

V

validation

#fundamentals

Bir modelin kalitesi için yapılan ilk değerlendirme. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama kümesine göre kontrol eder.

Doğrulama kümesi eğitim grubundan farklı olduğu için doğrulama, fazladan uyum sağlamaya karşı koruma sağlar.

Modeli, testin ilk turu olarak doğrulama grubu ile, ikinci test turu olarak da test kümesiyle karşılaştırarak değerlendirebilirsiniz.

doğrulama kaybı

#fundamentals

Belirli bir eğitim iterasyonu sırasında modelin doğrulama kümesindeki kaybını temsil eden bir metrik.

Ayrıca genelleme eğrisi konusuna bakın.

doğrulama grubu

#fundamentals

Eğitilmiş bir modele karşı ilk değerlendirmeyi gerçekleştiren veri kümesinin alt kümesi. Genellikle, modeli test kümesine göre değerlendirmeden önce eğitilen modeli doğrulama grubuna göre birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her bir örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama kümesine ait olmamalıdır.

W

weight

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme sürecidir. Çıkarım, tahminde bulunmak için bu öğrenilen ağırlıkları kullanma sürecidir.

ağırlıklı toplam

#fundamentals

Tüm alakalı giriş değerlerinin toplamının karşılık gelen ağırlıklarıyla çarpılmasıyla elde edilir. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1.3
-1 0.6
3 0.4

Dolayısıyla, ağırlıklı toplam şudur:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, bir etkinleştirme işlevinin giriş bağımsız değişkenidir.

Z

Z puanı normalleştirmesi

#fundamentals

Ham bir özellik değerini, söz konusu özelliğin ortalamasından standart sapmaların sayısını temsil eden bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniğidir. Örneğin, ortalaması 800 ve standart sapması 100 olan bir özelliği ele alalım. Aşağıdaki tabloda, Z puanı normalleştirmesinin işlenmemiş değeri Z puanıyla nasıl eşleyebileceği gösterilmektedir:

İşlenmemiş değer Z puanı
800 0
950 +1,5
575 -2.25

Ardından makine öğrenimi modeli, ham değerler yerine bu özellik için Z puanlarına göre eğitilir.