Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Bu sayfa, ML Temelleri sözlük terimlerini içerir. Tüm sözlük terimleri için burayı tıklayın.

CEVAP

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin sayısının toplam tahmin sayısına bölünmesiyle elde edilen değer. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru ve 10 yanlış tahminde bulunan bir model aşağıdaki doğruluk oranına sahip olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, farklı doğru tahmin ve yanlış tahmin kategorileri için özel adlar sağlar. Dolayısıyla, ikili sınıflandırmanın doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Hassasiyet ve geri çağırma özellikleriyle doğrulukları karşılaştırın.

aktivasyon fonksiyonu

#fundamentals

Nöral ağların, özellikler ile etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Aktivasyon fonksiyonlarının grafikleri hiçbir zaman tek düz çizgiler değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgiden oluşur:

İki çizginin kartezyen grafiği. İlk çizginin y sabit değeri 0'dır. Bu değer, x ekseni boyunca -sonsuzluktan 0'a,0,-0'a kadar devam eder.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1'dir. Dolayısıyla 0,0 ile +sonsuz ve sonsuz arasında değişir.

Sigmoid aktivasyon işlevinin grafiği aşağıdaki gibi görünür:

-sonsuz ile +pozitif alan arasında, y değerleri ise neredeyse 0 ile neredeyse 1 aralığında yer alan x değerlerine sahip iki boyutlu eğri grafik. x 0 olduğunda y 0, 5'tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5 olur ve x'in mutlak değeri arttıkça eğimleri de kademeli olarak azalır.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen, insan kaynaklı olmayan bir program veya model. Örneğin, metinleri çeviren bir program veya model ya da hastalıkları radyolojik görüntülerle tespit eden program veya modellerin her ikisi de yapay zeka sergiler.

Makine öğrenimi, resmi olarak yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma becerisini temsil eden 0,0 ile 1,0 arasında bir sayı. AUC 1, 0'a ne kadar yakın olursa modelin sınıfları birbirinden ayırma becerisi de o kadar iyi olur.

Örneğin, aşağıdaki çizimde pozitif sınıfları (yeşil oval) negatif sınıflardan (mor dikdörtgenler) mükemmel şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Bu gerçekçi olmayan mükemmel modelin EYO'su 1,0'dır:

Bir tarafta 8 pozitif, diğer tarafta 9 negatif örnek içeren bir sayı doğrusu.

Buna karşılık, aşağıdaki resimde rastgele sonuçlar üreten bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin AUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek dizisi pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif negatif, pozitif, negatiftir.

Evet, önceki modelin AUC'si 0,0 değil 0,5'tir.

Çoğu model, iki uç nokta arasında bir yerdedir. Örneğin, aşağıdaki model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle AUC'si 0,5 ile 1,0 arasında bir değere sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek dizisi negatif, negatif, negatif, negatif, pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif, pozitiftir.

AUC, sınıflandırma eşiği için belirlediğiniz tüm değerleri yoksayar. Bunun yerine, AUC olası tüm sınıflandırma eşiklerini dikkate alır.

B

geri yayılma

#fundamentals

Nöral ağlarda gradyan inişi uygulayan algoritma.

Bir sinir ağının eğitilmesi, aşağıdaki iki geçişli döngünün birçok iterasyonunu gerektirir:

  1. İleriye doğru geçiş sırasında sistem, tahminlerde bulunmak için bir örnek topluluğu işler. Sistem her tahmini her label değeriyle karşılaştırır. Tahmin ile etiket değeri arasındaki fark, söz konusu örnekteki loss'dur. Sistem, geçerli toplu işlem için toplam kaybı hesaplamak amacıyla tüm örneklerdeki kayıpları toplar.
  2. Geriye doğru aktarım (geri yayılım) sırasında sistem, tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kaybı azaltır.

Nöral ağlar genellikle birçok gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri genel kayba farklı şekillerde katkıda bulunur. Geri yayılım, belirli nöronlara uygulanan ağırlıkların artırılıp azaltılmayacağını belirler.

Öğrenme hızı, her geriye doğru aktarımın her bir ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Yüksek bir öğrenme hızı, her ağırlığı küçük bir öğrenme hızından daha fazla artırır veya azaltır.

Geri yayılma, kalkülüs kapsamında hesaplamadan zincir kuralını uygular. Yani geri yayılma, her bir parametreye bağlı olarak hatanın kısmi türevini hesaplar.

Yıllar önce, makine öğrenimi uzmanları geri yayılmayı uygulamak için kod yazmak zorunda kaldı. TensorFlow gibi modern ML API'leri artık geri yaymayı sizin için uyguluyor. Bora

grup

#fundamentals

Tek bir eğitim yinelemesinde kullanılan örnek kümesi. Grup boyutu, bir toplu işteki örnek sayısını belirler.

Bir grubun dönem ile ilişkisi hakkında açıklama için epoch (sıfır) maddesini inceleyin.

grup boyutu

#fundamentals

Bir topludaki örneklerin sayısı. Örneğin grup boyutu 100 ise model, yineleme başına 100 örnek işler.

Popüler toplu boyut stratejileri aşağıda verilmiştir:

  • Grup boyutunun 1 olduğu Olasılıksal Gradyan İniş (SGD).
  • Tam grup (grup boyutu, tüm eğitim kümesi'ndeki örneklerin sayısıdır). Örneğin, eğitim kümesi bir milyon örnek içeriyorsa grup boyutu bir milyon örnek olur. Tam grup genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ile 1.000 arasında olduğu mini toplu işlem. Mini toplu işlem genellikle en etkili stratejidir.

önyargı (etik/adalet)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı klişeler, önyargılar ya da ayrımcılık. Bu önyargılar verilerin toplanıp yorumlanmasını, sistem tasarımını ve kullanıcıların sistemle etkileşimini etkileyebilir. Bu tür önyargı biçimleri şunları içerir:

2. Örnekleme veya raporlama prosedüründen kaynaklanan sistematik hatalar. Bu tür önyargı biçimleri şunları içerir:

Makine öğrenimi modellerindeki yanlılık terimi veya tahmin yanlılığı ile karıştırılmamalıdır.

önyargı (matematik) veya önyargı terimi

#fundamentals

Bir başlangıç noktasından kesişme veya uzaklık. Ön yargı, makine öğrenimi modellerindeki bir parametredir ve aşağıdakilerden biri ile simgelenir:

  • b
  • h0

Örneğin, ön yargı aşağıdaki formülde b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, önyargı yalnızca "y kesim noktası" anlamına gelir. Örneğin, aşağıdaki çizimdeki çizginin eğimi 2'dir.

Eğimi 0,5 ve eğimi (y kesim noktası) 2 olan bir doğrunun grafiği.

Tüm modellerin başlangıç noktasından başlamaması (0,0) nedeniyle yanlılık vardır. Örneğin, bir lunaparka giriş ücretinin 2 euro olduğunu ve müşterinin konakladığı her saat için ek 0,5 euro olduğunu varsayalım. Bu nedenle, en düşük maliyet 2 avro olduğu için toplam maliyeti eşleyen bir model 2 sapmaya sahip olur.

Ön yargı, etik ve adaletteki ön yargılar veya tahmin yanlılığı ile karıştırılmamalıdır.

ikili sınıflandırma

#fundamentals

Bağdaşmayan iki sınıftan birini tahmin eden bir sınıflandırma görevi türü:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olduğunu belirleyen bir model.
  • Bir kişinin belirli bir hastalığı olup olmadığını (pozitif sınıf) veya o hastalığa sahip olup olmadığını (negatif sınıf) belirlemek için tıbbi semptomları değerlendiren bir model.

Çok sınıflı sınıflandırmayla kontrast oluşturun.

Mantıksal regresyon ve sınıflandırma eşiği bölümlerini de inceleyin.

paketleme

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına dayanarak paket veya binler adı verilen birden fazla ikili özelliğe dönüştürme. Doğranmış özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine, sıcaklık aralıklarını farklı kovalara ayırabilirsiniz. Örneğin:

  • <= 10 Santigrat derece ise "soğuk" veri grubu anlamına gelir.
  • 11-24 santigrat derece sıcaklık ise "ılıman" olarak kabul edilir.
  • >= 25 santigrat derece ise "sıcak" paket olur.

Model, aynı paketteki her değeri aynı şekilde ele alır. Örneğin, 13 ve 22 değerlerinin ikisi de ılıman pakette yer aldığından model iki değeri de aynı şekilde ele alır.

C

kategorik veri

#fundamentals

Belirli bir olası değerler grubuna sahip özellikler. Örneğin, aşağıdaki üç olası değerden yalnızca birine sahip olabilen traffic-light-state adlı kategorik bir özelliği ele alalım:

  • red
  • yellow
  • green

Modeller, traffic-light-state'yi kategorik özellik olarak göstererek red, green ve yellow özelliklerinin sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen ayrı özellikler olarak adlandırılır.

Sayısal verilerle kontrast.

sınıf

#fundamentals

Bir etiketin ait olabileceği kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Buna karşılık, regresyon modeli bir sınıf yerine bir sayıyı tahmin eder.

sınıflandırma modeli

#fundamentals

Tahmini bir sınıf olan bir model. Örneğin, aşağıda tüm sınıflandırma modelleri verilmiştir:

  • Bir giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca? İtalyanca?) girin.
  • Ağaç türlerini tahmin eden bir model ( Oak? Baobab?).
  • Belirli bir tıbbi durumun pozitif veya negatif sınıfını tahmin eden bir model.

Buna karşılık, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Yaygın olarak kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, mantıksal regresyon modelinin ham çıktısını pozitif sınıf veya negatif sınıf tahminine dönüştüren 0 ile 1 arasındaki bir sayı. Sınıflandırma eşiğinin model eğitimi tarafından seçilen bir değer değil, insanın seçtiği bir değer olduğunu unutmayın.

Mantıksal regresyon modeli, 0 ile 1 arasında bir ham değer üretir. Ardından:

  • Bu işlenmemiş değer, sınıflandırma eşiğinden büyükse pozitif sınıf tahmin edilir.
  • Bu ham değer, sınıflandırma eşiğinden küçükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yanlış pozitif ve yanlış negatif sayılarını önemli ölçüde etkiler.

sınıf dengesiz veri kümesi

#fundamentals

Her sınıfın toplam etiket sayısının önemli ölçüde farklılık gösterdiği bir sınıflandırma sorunu için veri kümesi. Örneğin, iki etiketi aşağıdaki gibi bölünen bir ikili sınıflandırma veri kümesini ele alalım:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitife oranı 100.000'e 1'dir. Bu nedenle bu, sınıf dengesiz bir veri kümesidir.

Öte yandan, negatif etiketlerin pozitif etiketlere oranı 1'e görece yakın olduğu için aşağıdaki veri kümesinde sınıf dengeli değildir:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümelerinde sınıf dengesi de dengesiz olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesinde de bir etiket diğer ikisinden çok daha fazla örnek bulunduğu için sınıf dengesizdir:

  • "Yeşil" sınıfıyla 1.000.000 etiket
  • "Mor" sınıfı 200 etiket
  • "Turuncu" sınıfına sahip 350 etiket

Ayrıca entropi, çoğunluk sınıfı ve azınlık sınıfı konularına da bakın.

kırpma

#fundamentals

Aşağıdakilerden birini veya her ikisini birden yaparak aykırı değerleri ele alan bir teknik:

  • Bir maksimum eşiğin üzerindeki özellik değerlerini, söz konusu maksimum eşiğe kadar azaltma.
  • Minimum eşiğin altında olan özellik değerlerini söz konusu minimum eşiğe kadar yükseltme.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40–60 aralığının dışında olduğunu varsayalım. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde ayarlayın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde ayarlayın.

Aykırı değerler, modellere zarar vererek bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler de doğruluk gibi metrikleri büyük ölçüde bozabilir. Kırpma, hasarı sınırlandırmak için sık kullanılan bir tekniktir.

Renk geçişi, gradyan değerlerini eğitim sırasında belirtilen bir aralıkta zorlar.

karışıklık matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen NxN tablosu. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini ele alalım:

Tümör (tahmini) Tümör Olmayan (tahmini)
Tümör (kesin referans) 18 (TP) 1 (FN)
Tümör Olmayan (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisinde aşağıdakiler gösterilmektedir:

  • Model, kesin referansın Tümör olduğu 19 tahminden 18'ini doğru şekilde sınıflandırdı ve 1'ini yanlış sınıflandırdı.
  • Kesin referansın Tüm Olmayan veriler olduğu 458 tahminden 452'si doğru sınıflandırıldı ve 6'sı yanlış sınıflandırıldı.

Çok sınıflı sınıflandırma problemi için karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) sınıflandıran 3 sınıflı çok sınıflı bir sınıflandırma modeli için aşağıdaki karışıklık matrisini ele alalım. Kesin referans Virginica olduğunda, kafa karışıklığı matrisi modelin Versicolor'ı yanlışlıkla Setosa'ya göre çok daha fazla tahmin ettiğini gösteriyor:

  Setosa (tahmini) Çok renkli (tahmini) Virginica (tahmin edilen)
Setosa (kesin referans) 88 12 0
Çok renkli (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, karışıklık matrisi, elle yazılmış rakamları tanıyacak şekilde eğitilen bir modelin yanlışlıkla 4 yerine 9 veya yanlışlıkla 7 yerine 1 tahmininde bulunduğunu ortaya çıkarabilir.

Karışıklık matrisleri, kesinlik ve geri çağırma dahil olmak üzere çeşitli performans metriklerini hesaplamak için yeterli bilgi içerir.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sınırsız olası değer aralığına sahip bir kayan nokta özellik.

Ayrı özellik ile kontrast.

yakınsaklık

#fundamentals

loss değerleri her iterasyonda çok az değiştiğinde veya hiç değişmediğinde ulaşılan bir durumdur. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 iterasyonda yakınlaşmayı önerir:

Kartezyen grafik. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısıdır. Kayıp, ilk birkaç iterasyonda çok yüksektir ancak ani bir şekilde düşer. Yaklaşık 100 yinelemeden sonra kayıp azalmaya devam eder ancak çok daha yavaş yavaş devam eder. Yaklaşık 700 yinelemeden sonra kayıp sabit kalır.

Ek eğitim modeli iyileştirmediğinde model yakınlaştırılır.

Derin öğrenme'de, kayıp değerleri bazen sabit kalır veya son olarak azalmadan önce birçok iterasyon için neredeyse aynı kalır. Sürekli sabit kayıp değerleri içeren uzun bir dönem boyunca geçici olarak geçici bir yakınlık hissi yaratabilirsiniz.

Ayrıca erken durdurma bölümünü de inceleyin.

D

DataFrame

#fundamentals

Veri kümelerini bellekte temsil eden popüler bir pandas veri türüdür.

DataFrame, tablo veya e-tabloya benzer. DataFrame'in her sütununun bir adı (başlık) vardır ve her satır benzersiz bir sayıyla tanımlanır.

DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Tek fark, her sütuna kendi veri türü atanabilmesidir.

Ayrıca, resmi pandas.DataFrame referans sayfasına da bakın.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak özel olarak değil) aşağıdaki biçimlerden birinde düzenlenmiş ham veri koleksiyonu:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçimindeki bir dosya

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin model, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast.

yoğun özellik

#fundamentals

Değerlerinin çoğunun veya tümünün sıfır olmadığı bir özellik, genellikle kayan nokta değerlerinin Tensörü. Örneğin, aşağıdaki 10 öğeli Tensor, değerlerinin 9'u sıfır olmadığı için yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellikle kontrast oluşturun.

derinlik

#fundamentals

Nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağının derinliği 6'dır.

Giriş katmanının derinliği etkilemediğine dikkat edin.

ayrı özellik

#fundamentals

Sınırlı sayıda olası değer içeren bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilen bir özellik ayrı (veya kategorik) bir özelliktir.

Sürekli özellik ile kontrast.

dinamik

#fundamentals

Sık veya sürekli yapılan bir şey. Dinamik ve online terimleri, makine öğreniminde eş anlamlıdır. Makine öğreniminde dinamik ve online'ın yaygın kullanımları aşağıda belirtilmiştir:

  • Dinamik model (veya online model) sık sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık veya sürekli eğitim sürecidir.
  • Dinamik çıkarım (veya online çıkarım), isteğe bağlı tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli olarak) yeniden eğitilen bir model. Dinamik model, sürekli değişen verilere uyum sağlayan "yaşam boyu öğrenci"dir. Dinamik model, online model olarak da bilinir.

Statik model ile kontrast oluşturun.

E

erken durdurma

#fundamentals

Eğitim kaybının azalması tamamlanmadan önce eğitimin sonlandırılmasını içeren bir düzenleme yöntemidir. Erken durdurmada, bir doğrulama veri kümesindeki kayıp artmaya başladığında, yani genelleştirme performansı kötüleştiğinde modeli eğitmeyi kasıtlı olarak durdurursunuz.

yerleştirme katmanı

#language
#fundamentals

Daha düşük boyutlu bir yerleştirme vektörünü kademeli olarak öğrenmek için yüksek boyutlu kategorik özellik üzerinde çalışan özel gizli katman. Yerleştirme katmanı, bir nöral ağın sadece yüksek boyutlu kategorik özellik üzerinde eğitimden çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türünün modelinizdeki bir özellik olduğunu ve modelinizin giriş katmanında 73.000 öğe uzunluğunda bir tek sıcak vektör bulunduğunu varsayalım. Örneğin, baobab aşağıdaki gibi temsil edilebilir:

73.000 öğeden oluşan dizi. İlk 6.232 öğe 0 değerini barındırır. Bir sonraki öğe 1 değerini tutar. Son 66.767 öğe sıfır değerini tutar.

73.000 öğeli bir dizi çok uzun. Modele bir yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpımı nedeniyle eğitim çok zaman alır. Belki de yerleştirme katmanını 12 boyuttan oluşacak şekilde seçersiniz. Bunun sonucunda, yerleştirme katmanı kademeli olarak her bir ağaç türü için yeni bir gömme vektörü öğrenecektir.

Belirli durumlarda, yerleştirme katmanına makul bir alternatif olarak karma oluşturma kullanılabilir.

sıfır zaman

#fundamentals

Tüm eğitim setinin tamamını kapsayan, her örnek bir kez işlenmiş olan tam bir eğitim pasosu.

Dönem, N/toplu boyutu eğitim yinelemelerini temsil eder. Burada N, toplam örnek sayısıdır.

Örneğin, aşağıdaki durumu varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem için 20 yineleme gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

örnek

#fundamentals

Bir features satırının ve muhtemelen bir label satırının değerleri. Gözetimli öğrenme kapsamındaki örnekler iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş örnek bir veya daha fazla özellikten oluşur ancak etiket içermez. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, hava koşullarının öğrencilerin sınav puanları üzerindeki etkisini belirlemek üzere bir modele eğitim verdiğinizi varsayalım. Etiketlenmiş üç örneği burada bulabilirsiniz:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda etiketlenmemiş üç örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesinin satırı genellikle bir örneğin ham kaynağıdır. Yani bir örnek, genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Dahası, bir örnekteki özellikler özellik çaprazı gibi sentetik özellikleri de içerebilir.

F

yanlış negatif (FN)

#fundamentals

Modelin yanlışlıkla negatif sınıfı tahmin ettiği bir örnek. Örneğin model, belirli bir e-posta iletisinin spam (negatif sınıf) olmadığını ancak bu e-posta iletisinin gerçekten spam olduğunu tahmin eder.

yanlış pozitif (FP)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği bir örnek. Örneğin model, belirli bir e-posta iletisinin spam (pozitif sınıf) olduğunu ancak bu e-posta iletisinin aslında spam olmadığını tahmin eder.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin pozitif sınıfı yanlışlıkla tahmin ettiği gerçek olumsuz örneklerin oranı. Aşağıdaki formül yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisinin x eksenidir.

özellik

#fundamentals

Makine öğrenimi modelindeki bir giriş değişkenidir. Örnek, bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrencilerin sınav puanları üzerindeki etkisini belirlemek üzere bir modele eğitim verdiğinizi varsayalım. Aşağıdaki tabloda, her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast.

özellik çaprazı

#fundamentals

"Geçiş" kategorik veya paketlenmiş özelliklerden oluşan sentetik özellik.

Örneğin, aşağıdaki dört gruptan birinde sıcaklığı temsil eden bir "ruh hali tahmini" modelini ele alalım:

  • freezing
  • chilly
  • temperate
  • warm

Ayrıca, aşağıdaki üç gruptan birinde rüzgar hızını gösterir:

  • still
  • light
  • windy

Özellik kesişimleri olmadığında, doğrusal model önceki yedi farklı paketin her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin windy ile ilgili eğitimden bağımsız olarak freezing üzerinde eğitilir.

Alternatif olarak, sıcaklık ve rüzgar hızı arası bir özellik değeri oluşturabilirsiniz. Bu sentetik özellik aşağıdaki 12 olası değere sahip olabilir:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Model, özellikler arası geçişler sayesinde freezing-windy gün ile freezing-still gün arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri birçok farklı pakete sahip iki özellikten sentetik bir özellik oluşturursanız, ortaya çıkan özellik çaprazı çok sayıda olası kombinasyona sahip olacaktır. Örneğin, bir özellik 1.000 pakete ve diğer özellik 2.000 pakete sahipse, ortaya çıkan özellik arası 2.000.000 paket olur.

Çapraz işareti, resmi olarak Kartezyen üründür.

Özellik çaprazları çoğunlukla doğrusal modellerle, nöral ağlarla ise nadiren kullanılır.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modeli eğitirken faydalı olabilecek özellikleri belirlemek.
  2. Veri kümesindeki ham verileri bu özelliklerin verimli sürümlerine dönüştürme.

Örneğin, temperature yararlı bir özellik olabilir. Ardından modelin farklı temperature aralıklarından öğrenebileceği şeyleri optimize etmek için paketleme ile denemeler yapabilirsiniz.

Özellik mühendisliği bazen özellik çıkarma veya özellik belirleme olarak da adlandırılır.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellikler grubu. Örneğin posta kodu, mülk boyutu ve mülk durumu verileri, konut fiyatlarını tahmin eden bir model için basit bir özellik grubundan oluşabilir.

özellik vektörü

#fundamentals

Örnek oluşturan feature değerleri dizisi. Özellik vektörü, eğitim ve çıkarım sırasında girilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: Giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanında biri 0,92, diğeri 0,56 değerini içeren iki düğüm bulunur.

Her örnek, özellik vektörü için farklı değerler sağlar. Bu nedenle, sonraki örnekteki özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özelliklerin özellik vektöründe nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip olan kategorik bir özellik, tek sıcak kodlama ile temsil edilebilir. Bu durumda, belirli bir örnek için özellik vektörünün bölümü, aşağıdaki gibi dört sıfır ve üçüncü konumda tek bir 1,0'dan oluşur:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellik içerdiğini varsayalım:

  • tek sıcak kodlamayla temsil edilen beş olası değere sahip ikili kategorik bir özellik; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • tek sıcak kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategorik özellik; örneğin: [0.0, 0.0, 1.0]
  • bir kayan nokta özelliğidir. örneğin: 8.3.

Bu durumda, her bir örnek için özellik vektörü dokuz değerle temsil edilir. Yukarıdaki listede yer alan örnek değerler göz önüne alındığında, özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin aynı modele veya başka bir modele yönelik eğitim verilerini etkilediği durum. Örneğin, film öneren bir model kullanıcıların gördüğü filmleri etkiler. Bu da sonraki film önerisi modellerini etkiler.

G

genelleme

#fundamentals

Bir modelin yeni, daha önce görülmemiş veriler hakkında doğru tahminlerde bulunabilme özelliği. Genelleştirme yapabilen bir model, aşırı uyumu olan bir modelin tam tersidir.

genelleştirme eğrisi

#fundamentals

Yinelemelerin sayısının işlevi olarak hem eğitim kaybının hem de doğrulama kaybının grafiği.

Genelleme eğrisi, olası fazla uyumu tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleme eğrisi fazla uyumu önerir çünkü doğrulama kaybı, eğitim kaybından önemli ölçüde daha yüksek olur.

Y ekseninin kayıp, x ekseninin de iterasyonlar olarak etiketlendiği bir Kartezyen grafik. İki çizim görünür. Bir grafik, eğitim kaybını, diğeri ise doğrulama kaybını gösterir.
          İki grafik de benzer şekilde başlar ancak eğitim kaybı nihayetinde doğrulama kaybından çok daha düşük bir düzeye düşer.

gradyan azalma

#fundamentals

Kaybı en aza indirmek için kullanılan matematiksel bir teknik. Gradyan iniş, ağırlıkları ve yanlıkları tekrarlı şekilde ayarlayarak kaybı en aza indirmek için en iyi kombinasyonu kademeli olarak bulur.

Gradyan iniş, makine öğrenimine kıyasla çok daha eskidir.

gerçek doğru

#fundamentals

Realite.

Gerçekte olan şey.

Örneğin, üniversitenin ilk yılındaki bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Bu modeldeki esas gerçek, öğrencinin altı yıl içinde mezun olup olmadığıdır.

VR

gizli katman

#fundamentals

Bir nöral ağda, giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasında bulunan katman. Her bir gizli katman, bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ, birincisinde üç nöron, ikincisinde ise iki nöron bulunan iki gizli katman içermektedir:

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren bir gizli katmandır. Üçüncü katman, iki nöron içeren bir gizli katmandır. Dördüncü katman bir çıkış katmanıdır. Her özellikte üç kenar bulunur. Bunların her biri, ikinci katmandaki farklı bir nöronu işaret eder. İkinci katmandaki nöronların her biri, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki nöronların her biri, her biri çıkış katmanına işaret eden bir kenar içerir.

Derin sinir ağı birden fazla gizli katman içerir. Örneğin, önceki çizimde model iki gizli katman içerdiği için derin bir nöral ağ gösterilmiştir.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarlama hizmetinin bir modelin ardışık olarak eğitilmesi sırasında ayarladığı değişkenler. Örneğin, öğrenme hızı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. 0,01'in çok yüksek olduğunu belirlerseniz bir sonraki eğitim oturumu için öğrenme hızını 0,003 olarak ayarlayabilirsiniz.

Buna karşın parametreler, modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve yanlıklardır.

İ

bağımsız ve özdeş şekilde dağıtılmış (ör.)

#fundamentals

Değişmeyen bir dağılımdan alınan ve çizilen hiçbir değerin daha önce çizilen değerlere bağlı olmadığı veriler. Bir i.i.d., makine öğreniminin ideal gazıdır. Yararlı bir matematiksel yapıdır, ancak gerçek dünyada neredeyse hiçbir zaman bulunamamaktadır. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı, ör. kısa bir zaman dilimi içinde olabilir. Yani, bu kısa zaman arasında dağıtım değişmez ve bir kişinin ziyareti genellikle başka bir kişinin ziyaretinden bağımsızdır. Ancak, bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerindeki mevsimsel farklılıklar görülebilir.

Ayrıca bkz. durağanlık.

çıkarım

#fundamentals

Makine öğreniminde, etiketlenmemiş örneklere eğitilmiş bir model uygulayarak tahmin yapma işlemi.

Çıkarım, istatistiklerde biraz daha farklı bir anlama sahiptir. Ayrıntılı bilgi için istatistiksel çıkarımla ilgili Wikipedia makalesine bakın.

giriş katmanı

#fundamentals

Özellik vektörünü barındıran bir nöral ağın katmanı. Yani giriş katmanı, eğitim veya çıkarım için örnekler sağlar. Örneğin, aşağıdaki nöral ağda bulunan giriş katmanı iki özellikten oluşur:

Dört katman: Giriş katmanı, iki gizli katman ve bir çıkış katmanı.

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelinin akıl yürütmesini, anlaşılabilir terimlerle bir insana açıklama veya sunma becerisi.

Örneğin, çoğu doğrusal regresyon modeli, yüksek oranda yorumlanabilir. (Tek yapmanız gereken her özellik için eğitilmiş ağırlıklara bakmaktır.) Karar ormanları da oldukça yorumlanabilir. Ancak bazı modellerin yorumlanabilir olması için karmaşık görselleştirmeler gerekir.

ML modellerini yorumlamak için Learning Interpretability Tool'u (LIT) kullanabilirsiniz.

iterasyon

#fundamentals

Eğitim sırasında bir modelin parametrelerinin (modelin ağırlıkları ve önemleri) tek bir güncellemesi. Toplu işlem boyutu, modelin tek bir yinelemede kaç örnek işleyeceğini belirler. Örneğin, grup boyutu 20 ise model, parametreleri ayarlamadan önce 20 örneği işler.

Bir sinir ağını eğitirken tek bir iterasyon aşağıdaki iki geçişi içerir:

  1. Tek bir gruptaki kaybı değerlendirmek için ileriye doğru hesaplama.
  2. Modelin parametrelerini kayba ve öğrenme hızına göre düzenlemek için geriye doğru hesaplama (geriye yayılma).

L

L0 normalleştirmesi

#fundamentals

Bir modelde sıfır olmayan ağırlıkların toplam sayısını cezalandıran bir normalleştirme türü. Örneğin, sıfır olmayan 11 ağırlığa sahip bir model, 10 farklı ağırlığa sahip benzer bir modele göre daha fazla cezaya tabi tutulur.

L0 normalleştirmesi bazen L0norm normalleştirmesi olarak da adlandırılır.

L1 kaybı

#fundamentals

Gerçek label değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan bir grup için L1 kaybının hesaplanması şu şekildedir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, aykırı değerlere karşı L2 kaybına göre daha az duyarlıdır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıkların, ağırlıkların mutlak değerinin toplamıyla orantılı olarak cezalandıran bir normalleştirme türü. L1 normalleştirmesi, alakasız veya çok az alakalı özelliklerin ağırlıklarını tam olarak 0'a çekmeye yardımcı olur. Ağırlığı 0 olan bir özellik, modelden etkin bir şekilde kaldırılır.

L2 normalleştirmesiyle kontrast oluşturun.

L2 kaybı

#fundamentals

Gerçek label değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan bir grup için L2 kaybının hesaplanması şu şekildedir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kareleme nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybından daha güçlü tepki verir. Örneğin, önceki toplu işlem için L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin 16'nın 9'unu oluşturduğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Kare Hata, örnek başına ortalama D2 kaybıdır. Karesel kayıp, L2 kaybının diğer adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıklara ağırlıkların karelerinin toplamıyla orantılı olarak ceza veren bir normalleştirme türü. L2 normalleştirmesi, aykırı ağırlıkların (yüksek pozitif veya düşük negatif değerlere sahip) 0'a yaklaşmasına ancak 0'a tam olarak yaklaşmamasına yardımcı olur. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi, doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesiyle kontrast.

etiket

#fundamentals

Gözetimli makine öğreniminde, bir örneğin "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellikten ve bir etiketten oluşur. Örneğin, bir spam algılama veri kümesinde, etiket muhtemelen "spam" veya "spam değil" olacaktır. Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarı olabilir.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren bir örnek. Örneğin, aşağıdaki tabloda her biri üç özellik ve bir etiket içeren, ev değerleme modelinden etiketli üç örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Ev yaşı Dahili fiyat (etiket)
3 2 15 345.000 $
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğreniminde modeller, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler üzerinde tahminlerde bulunur.

Etiketsiz örneklerle kontrast etiketli örnek.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlı.

Lambda terimi aşırı yüklü. Burada terimin düzenleme içindeki tanımına odaklanıyoruz.

katman

#fundamentals

Nöral ağdaki bir nöron kümesi. Yaygın olarak kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki çizimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katmanı ve bir çıkış katmanı olan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, girdi olarak Tensörler ve yapılandırma seçeneklerini alıp çıkış olarak başka tensörler oluşturan Python işlevleridir.

öğrenme hızı

#fundamentals

gradyan iniş algoritmasına her bir iterasyon için ağırlıkların ve ağırlıkların ne kadar güçlü ayarlanması gerektiğini bildiren bir kayan nokta sayısı. Örneğin, 0,3'lük bir öğrenme hızı, ağırlıkları ve ön yargıları 0,1'lik bir öğrenme hızından üç kat daha etkili şekilde ayarlar.

Öğrenme hızı önemli bir hiperparametredir. Öğrenme hızını çok düşük bir değere ayarlarsanız eğitim çok uzun sürer. Öğrenme hızını çok yüksek ayarlarsanız gradyan azalması genellikle yakınlaşmaya ulaşmada sorun yaşar.

doğrusal

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla temsil edilebilen ilişki.

Doğrusal bir ilişkinin grafiği çizgidir.

Doğrusal olmayan öğelerle kontrast oluşturun.

doğrusal model

#fundamentals

Tahmin yapmak için her özellik başına bir ağırlık atayan bir model. (Doğrusal modeller de bir yanlılık içerir.) Buna karşılık, derin modellerdeki tahminlerle özelliklerin ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolay olur ve derin modellere kıyasla daha yorumlanabilir. Bununla birlikte, derin modeller özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, iki doğrusal model türüdür.

doğrusal regresyon

#fundamentals

Aşağıdaki koşulların her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

  • Model, doğrusal model olmalıdır.
  • Tahmin, bir kayan nokta değeridir. (Bu, doğrusal regresyonun regresyon kısmıdır.)

Doğrusal regresyonu mantıksal regresyonla karşılaştırın. Ayrıca, sınıflandırma ile regresyonu karşılaştırabilirsiniz.

mantıksal regresyon

#fundamentals

Bir olasılığı tahmin eden regresyon modeli türüdür. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategoriktir. Mantıksal regresyon terimi genellikle ikili mantıksal regresyonu, yani iki olası değere sahip etiketlerin olasılıklarını hesaplayan bir modeli ifade eder. Daha az yaygın bir değişken olan çok terimli mantıksal regresyon, ikiden fazla olası değere sahip etiketlerin olasılıklarını hesaplar.
  • Eğitim sırasında kayıp işlevi Log Loss'tur. (İkiden fazla olası değere sahip etiketler için paralel olarak birden çok Günlük Kaybı birimi yerleştirilebilir.)
  • Model, derin bir nöral ağa değil, doğrusal bir mimariye sahip olmalıdır. Ancak bu tanımın geri kalanı, kategorik etiketlerin olasılıklarını tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olma veya spam olmama olasılığını hesaplayan mantıksal regresyon modelini düşünün. Çıkarım sırasında modelin 0, 72 tahmininde bulunduğunu varsayalım. Bu nedenle model şöyle tahmin ediyor:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama olasılığı% 28.

Mantıksal regresyon modeli aşağıdaki iki adımlı mimariyi kullanır:

  1. Bu model, giriş özelliklerinin doğrusal işlevini uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini sigmoid işlevine girdi olarak kullanır. Bu işlev, ham tahmini 0 ile 1 arasında (bu değerler hariç) bir değere dönüştürür.

Tüm regresyon modelleri gibi, mantıksal regresyon modeli de bir sayıyı tahmin eder. Bununla birlikte, bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modelinin parçası haline gelir:

  • Tahmin edilen sayı, sınıflandırma eşiğinden büyükse ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı, sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Günlük Kaybı

#fundamentals

İkili mantıksal regresyonda kullanılan kayıp işlevi.

günlük oranları

#fundamentals

Bir olayın olasılıklarının logaritması.

mağlubiyet

#fundamentals

Gözetimli modelin eğitimi sırasında bir modelin tahmininin etiketinden ne kadar uzakta olduğunu ölçer.

Kayıp işlevi kaybı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim yitrasyonlarının sayısının bir işlevi olarak kayıp grafiği. Aşağıdaki grafikte tipik bir kayıp eğrisi gösterilmektedir:

İlk iterasyonlarda hızlı düşüş, ardından kademeli bir düşüş ve son iterasyonlarda düz bir eğim gösteren Kartezyen grafik.

Kayıp eğrileri, modelinizin ne zaman yakınlaştırdığını veya aşırı uydurduğunu belirlemenize yardımcı olabilir.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünün grafiğini çizebilir:

Ayrıca genelleme eğrisi konusuna bakın.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, bir toplu örnekteki kaybı hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminlerde bulunan modeller için, kötü tahminlerde bulunan modellere kıyasla daha düşük bir kayıp döndürür.

Eğitimin hedefi genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı kayıp fonksiyonu türü vardır. Derlediğiniz modelin türüne uygun kayıp fonksiyonunu seçin. Örneğin:

M

makine öğrenimi

#fundamentals

Giriş verilerinden bir modeli eten program veya sistem. Eğitilen model, modeli eğitmek için kullanılan dağıtımdan elde edilen yeni (daha önce görülmemiş) verilerden faydalı tahminlerde bulunabilir.

Makine öğrenimi aynı zamanda bu program veya sistemlerle ilgili çalışma alanını da ifade eder.

çoğunluk sınıfı

#fundamentals

Sınıf dengesiz veri kümesinde daha yaygın olan etikettir. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesi düşünüldüğünde en büyük sınıf negatif etiketlerdir.

Azınlık sınıfıyla zıtlık oluşturun.

mini grup

#fundamentals

Tek bir iterasyon halinde işlenen bir topluluğun küçük ve rastgele seçilmiş alt kümesi. Bir mini grubun grup boyutu genellikle 10 ile 1.000 örnek arasındadır.

Örneğin, tüm eğitim kümesinin (tüm grup) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her bir mini grubun grup boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle, her yineleme 1.000 örneğin rastgele 20'sindeki kaybı belirler ve ağırlıklar ile yönlemeleri buna göre ayarlar.

Mini bir gruptaki kaybı hesaplamak, tam gruptaki tüm örneklerdeki kayıptan çok daha verimlidir.

azınlık sınıfı

#fundamentals

Sınıf dengesiz veri kümesinde daha az yaygın olan etikettir. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesinde pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfı ile kontrast oluşturun.

model

#fundamentals

Genel olarak, giriş verilerini işleyen ve çıkış döndüren her türlü matematiksel yapı. Başka bir deyişle model, bir sistemin tahminde bulunması için gereken parametreler ve yapı kümesidir. Gözetimli makine öğreniminde model, giriş olarak bir örneği alır ve çıkış olarak tahmin çıkarımda bulunur. Gözetimli makine öğreniminde modeller bazı farklılıklar gösterir. Örneğin:

  • Doğrusal regresyon modeli, bir dizi ağırlık ve bir yanlamadan oluşur.
  • Nöral ağ modeli şunlardan oluşur:
    • Her biri bir veya daha fazla nöron içeren bir gizli katman kümesi.
    • Her bir nöronla ilişkili ağırlıklar ve önyargı.
  • Karar ağacı modeli şunlardan oluşur:
    • Ağacın şekli; diğer bir deyişle, koşullar ile yaprakların birbirine bağladığı kalıp.
    • Koşullar ve çıkışlar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyasını oluşturabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu işlev, genellikle bir giriş örneğini en uygun kümeyle eşleyebilen bir işlevdir.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinde ikiden fazla sınıf etiket içeren bir sınıflandırma problemi. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Süsen
  • İris Virginica
  • Yeşil Mercan

Yeni örneklerde Iris türünü tahmin eden Iris veri kümesi kullanılarak eğitilmiş bir model, çok sınıflı sınıflandırma gerçekleştirmektedir.

Tam olarak iki sınıfı birbirinden ayıran sınıflandırma problemleri ise ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil tahmininde bulunan bir e-posta modeli, ikili program sınıflandırma modelidir.

Kümeleme problemlerinde çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

N

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğerine negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği şey veya etkinliktir. Negatif sınıf ise diğer olasılıktır. Örneğin:

  • Tıbbi testin negatif sınıfı "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf "spam değil" olabilir.

Pozitif sınıfla kontrast oluşturun.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin sinir ağı, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren bir derin sinir ağı gösterilmektedir.

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ.

Bir nöral ağdaki her bir nöron bir sonraki katmanda bulunan tüm düğümlere bağlanır. Örneğin, önceki şemada birinci gizli katmandaki üç nöronun her birinin, ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığına dikkat edin.

Beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt etmek için bilgisayarlara uygulanan nöral ağlara bazen yapay nöral ağlar denir.

Bazı nöral ağlar, farklı özellikler ile etiket arasında son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Ayrıca bkz. evrimsel nöral ağ ve yinelenen nöral ağ.

nöron

#fundamentals

Makine öğreniminde, bir nöral ağın gizli katmanında yer alan ayrı bir birimdir. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Girdi değerlerinin ağırlıklı toplamının ilgili ağırlıklarla çarpımını hesaplar.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine girdi olarak aktarır.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden gelen girişleri kabul eder. İlkinin ötesindeki herhangi bir gizli katmanda bulunan bir nöron, önceki gizli katmanda bulunan nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, birinci gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki görselde iki nöron ve bunların girdileri vurgulanmaktadır.

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip bir nöral ağ. Biri ilk gizli katmanda, diğeri ikinci gizli katmanda olmak üzere iki nöron vurgulanmaktadır. İlk gizli katmanda vurgulanan nöron, giriş katmanındaki her iki özellikten de giriş alır. İkinci gizli katmanda vurgulanan nöron, birinci gizli katmandaki üç nöronun her birinden giriş alır.

Sinir ağındaki bir nöron, beyinlerdeki ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışlarını taklit eder.

düğüm (nöral ağ)

#fundamentals

Gizli katmandaki bir nöron.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasındaki, sadece toplama ve çarpma yoluyla temsil edilemeyen ilişki. Doğrusal ilişki, çizgi olarak temsil edilebilir; doğrusal olmayan ilişki ise çizgi olarak temsil edilemez. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki model düşünün. Soldaki model doğrusal, sağdaki ise doğrusal olmayan:

İki çizim. Grafiklerden biri doğrudur, dolayısıyla bu doğrusal bir ilişkidir.
          Diğer grafik bir eğri olduğundan bu doğrusal olmayan bir ilişkidir.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen özellik. Örneğin, aşağıdaki durağanlık örneklerini inceleyelim:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede hasat edilen belirli bir meyvenin miktarı, yılın büyük bölümünde sıfır olsa da kısa bir süre için de fazladır.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

durağanlık ile kontrast.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme süreci. Örneğin:

  • -1'den +1'e
  • 0:1
  • normal dağılım

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında gerçek değerleri -1 ile +1 arası gibi standart bir aralığa kadar normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde yaygın bir görevdir. Özellik vektöründeki her sayısal özellik kabaca aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretir).

sayısal veri

#fundamentals

Tam sayı veya gerçek değerli sayılar olarak temsil edilen özellikler. Örneğin, bir ev değerleme modeli muhtemelen sayısal veri olarak bir evin büyüklüğünü (fitkare veya metrekare cinsinden) temsil eder. Bir özelliğin sayısal veri olarak temsil edilmesi, özellik değerlerinin etiketle matematik ilişkisi olduğunu gösterir. Yani, bir evdeki metrekare sayısının muhtemelen evin değeriyle bazı matematiksel ilişkisi vardır.

Tüm tam sayı verileri sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı yerlerindeki posta kodları tam sayıdır. Bununla birlikte, modellerde tam sayı olan posta kodları sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 posta kodunun 10.000 posta koduna göre iki (veya yarısı) daha potansiyelinin olmamasıdır. Bununla birlikte, farklı posta kodlarının farklı emlak değerleriyle ilişkisi olsa da, 20000 posta kodundaki emlak değerlerinin, 10000 posta kodundaki emlak değerlerinin iki katı olduğunu varsayamayız. Posta kodları, bunun yerine kategorik veri olarak gösterilmelidir.

Sayısal özellikler bazen sürekli özellikler olarak adlandırılır.

O

çevrimdışı

#fundamentals

Statik ile eş anlamlı.

çevrimdışı çıkarım

#fundamentals

Bir modelin bir grup tahmin oluşturup ardından bu tahminleri önbelleğe alma (kaydetme) işlemi. Böylece uygulamalar, modeli yeniden çalıştırmak yerine önbellekten tahmin edilen tahmine erişebilir.

Örneğin, her dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Her model çalıştırmasından sonra, sistem tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarım statik çıkarım olarak da adlandırılır.

Online çıkarımla kontrast.

tek sıcak kodlama

#fundamentals

Kategorik verileri aşağıdaki özelliklere sahip bir vektör olarak gösterme:

  • Bir öğe 1 olarak ayarlandı.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama, sınırlı bir olası değer grubuna sahip dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek sıcak kodlama sayesinde, bir model beş ülkenin her birine bağlı olarak farklı bağlantılar öğrenebilir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek sıcak kodlamanın alternatifidir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçim değil. Örneğin, aşağıdaki sayısal gösterimi düşünün:

  • "Danimarka" 0'dır
  • "İsveç" 1
  • "Norveç" 2'dir
  • "Finlandiya" 3'tür
  • "İzlanda" 4'tür

Sayısal kodlamayla, bir model ham sayıları matematiksel olarak yorumlar ve bu sayılar üzerine eğitim vermeye çalışır. Ancak İzlanda aslında Norveç'tekilerin iki katı (veya yarı yarıya) değil. Bu nedenle model garip sonuçlara yol açabilir.

-bir-tümünü-karşılaştırma

#fundamentals

N sınıfındaki bir sınıflandırma problemi göz önüne alındığında, olası her sonuç için bir adet ikili sınıflandırıcı olan N ayrı ikili sınıflandırıcıdan oluşan bir çözümdür. Örneğin, örnekleri hayvan, sebze veya mineral olarak sınıflandıran bir modelde bir-tümü çözümü, aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan mı hayvan değil
  • sebze mi, sebze olmayan mı?
  • mineral mi, mineral değil mi

online

#fundamentals

dinamik ile eş anlamlı.

çevrimiçi çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş gönderdiğini ve tahmin isteğinde bulunduğunu varsayalım. Online çıkarım kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarımla kontrast.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki çizimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanına sahip küçük bir derin sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katmanı ve bir çıkış katmanı olan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Modelin yeni veriler hakkında doğru tahminlerde bulunamayacağı kadar yakın bir şekilde eğitim verileriyle eşleşen bir model oluşturmak.

Normalleştirme, fazla uyumu azaltabilir. Geniş ve çeşitli bir eğitim seti eğitimi, fazla uyumun azalmasını da sağlayabilir.

P

pandalar

#fundamentals

numpy üzerine inşa edilmiş sütun odaklı bir veri analizi API'si. TensorFlow da dahil olmak üzere birçok makine öğrenimi çerçevesi, pandaların veri yapılarını giriş olarak destekler. Ayrıntılı bilgi için pandas belgelerine bakın.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve takımlar. Örneğin, bir doğrusal regresyon modelinde, parametreler ağırlık (b) ve aşağıdaki formüldeki tüm ağırlıklardan (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık hiperparametre, sizin (veya bir hiperparametre çevirme hizmetinin) modele sağladığınız değerlerdir. Örneğin, öğrenme hızı bir hiperparametredir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcıdaki pozitif sınıf "spam" olabilir.

Negatif sınıfla kontrast.

işleme sonrası

#fairness
#fundamentals

Bir modelin çalıştırılmasından sonra modelin çıkışını ayarlama. Son işleme, modellerin kendilerini değiştirmeden adalet kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, gerçek pozitif oranın, söz konusu özelliğin tüm değerleri için aynı olup olmadığı kontrol edilerek fırsat eşitliğinin korunması şeklinde bir sınıflandırma eşiği ayarlayarak ikili bir sınıflandırıcıya son işleme uygulanabilir.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modeli tahmini, pozitif sınıf veya negatif sınıf olur.
  • Çok sınıflı sınıflandırma modeli tahmini bir sınıftır.
  • Doğrusal regresyon modeli tahmini bir sayıdır.

proxy etiketleri

#fundamentals

Bir veri kümesinde doğrudan kullanılamayan etiketleri yaklaşık olarak tahmin etmek için kullanılan veriler.

Örneğin, çalışanların stres seviyesini tahmin etmek için bir model eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmine dayalı özellik içeriyor ancak stres seviyesi adlı bir etiket içermiyor. Stres seviyesi için proxy etiketi olarak "iş yeri kazaları"nı seçiyorsunuz. Sonuçta, yüksek stres altındaki çalışanlar, sakin çalışanlara kıyasla daha fazla kazayla karşı karşıya kalıyor. Yoksa kullanır mı? Belki iş yeri kazaları aslında çeşitli nedenlerle artar ve düşer.

İkinci bir örnek olarak, yağmur yağıyor mu? özelliğinin veri kümeniz için bir Boole etiketi olmasını istediğinizi, ancak veri kümenizin yağmur verileri içermediğini varsayalım. Fotoğraflar varsa yağmur yağıyor mu? sorusunun alt etiketi olarak şemsiye taşıyan kişilerin fotoğraflarını çekebilirsiniz. Bu iyi bir proxy etiketi mi? Muhtemelen bazı kültürlerdeki insanların güneşe karşı korumak için şemsiye taşıma olasılığı yağmurdan daha yüksektir.

Proxy etiketleri çoğu zaman kusursuz değildir. Mümkün olduğunda proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında proxy etiketini çok dikkatli bir şekilde ve en az korkunç proxy etiketi adayını seçin.

R

DÖNGÜ

#fundamentals

veriye alma açısından zenginleştirilmiş oluşturma ifadesinin kısaltmasıdır.

değerlendirici

#fundamentals

Örnekler için etiketleri sağlayan bir gerçek kişidir. "Ek açıklama oluşturucu", değerlendiricinin başka bir adıdır.

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfırsa çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0'dır.

ReLU'nun grafiğini aşağıda görebilirsiniz:

İki çizginin kartezyen grafiği. İlk çizginin y sabit değeri 0&#39;dır. Bu değer, x ekseni boyunca -sonsuzluktan 0&#39;a,0,-0&#39;a kadar devam eder.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1&#39;dir. Dolayısıyla 0,0 ile +sonsuz ve sonsuz arasında değişir.

ReLU çok popüler bir aktivasyon işlevidir. Basit davranışına rağmen ReLU, bir nöral ağın özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesini sağlar.

regresyon modeli

#fundamentals

Gayriresmi olarak sayısal tahmin oluşturan bir model. (Öte yandan, sınıflandırma modelleri bir sınıf tahmini oluşturur.) Örneğin, aşağıdaki tüm regresyon modelleri şunlardır:

  • Belirli bir evin değerini tahmin eden 423.000 Euro gibi bir model.
  • Belirli bir ağacın yaşam süresini (ör.23, 2 yıl) tahmin eden bir model.
  • Sonraki altı saat içinde belirli bir şehirde düşecek yağmur miktarını tahmin eden bir model (ör.0, 18 inç).

Yaygın olarak kullanılan iki regresyon modeli türü şunlardır:

  • Etiket değerlerine özellikler için en uygun çizgiyi bulan doğrusal regresyon.
  • Mantıksal regresyon, 0,0 ile 1,0 arasında bir olasılık oluşturur. Bu olasılık, sistem tarafından genellikle sınıf tahminiyle eşlenir.

Sayısal tahmin üreten her model bir regresyon modeli değildir. Bazı durumlarda sayısal tahmin sadece sayısal sınıf adlarına sahip olan bir sınıflandırma modelidir. Örneğin, sayısal posta kodunu tahmin eden bir model regresyon modeli değil, sınıflandırma modelidir.

normalleştirme

#fundamentals

Fazla uyumu azaltan tüm mekanizmalar. Popüler normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığına verilen ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında düzenlemenin göreceli önemini belirten bir sayıdır. Normalleştirme hızını artırmak fazla uyumu azaltır ancak modelin tahmin gücünü azaltabilir. Buna karşılık, normalleştirme hızının azaltılması veya atlanması fazla uyumu artırır.

ReLU

#fundamentals

Düzeltilmiş doğrusal birim'in kısaltmasıdır.

geri alma-artırılmış oluşturma (RAG)

#fundamentals

Büyük dil modeli (LLM) çıktısının kalitesini, model eğitildikten sonra alınan bilgi kaynaklarıyla temellendirerek kalitesini iyileştirmeye yönelik bir teknik. RAG, eğitimli LLM'nin güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişmesini sağlayarak LLM yanıtlarının doğruluğunu artırır.

Geri alma ile zenginleştirilmiş oluşturmayı kullanmanın yaygın nedenleri şunlardır:

  • Bir modelin oluşturduğu yanıtların gerçeğe dayalı doğruluğunu artırma.
  • Modelin eğitilmediği bilgilere erişmesini sağlama.
  • Modelin kullandığı bilgiyi değiştirme.
  • Modelin, kaynaklardan alıntı yapmasına olanak tanıma.

Örneğin, bir kimya uygulamasının kullanıcı sorgularıyla ilgili özetler oluşturmak için PaLM API'yi kullandığını varsayalım. Uygulamanın arka ucu bir sorgu aldığında arka uç:

  1. Kullanıcının sorgusuyla alakalı verileri ("alır") arar.
  2. Alakalı kimya verilerini kullanıcının sorgusuna ekler ("artırır").
  3. LLM'ye, eklenen verilere göre bir özet oluşturmasını söyler.

ROC (alıcı çalışma özelliği) Eğrisi

#fundamentals

İkili sınıflandırmada farklı sınıflandırma eşikleri için gerçek pozitif oran ile yanlış pozitif oranı karşılaştırması grafiği.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif, sol tarafta 7 negatif örnek içeren bir sayı doğrusu.

Önceki modelin ROC eğrisi şu şekilde görünür:

ROC eğrisi. x ekseni Yanlış Pozitif Oran ve y ekseni ise Gerçek Pozitif Oran&#39;dır. Eğri, ters çevrilmiş bir L şekline sahiptir. Eğri (0,0,0,0) ile başlar ve doğrudan (0,0,1,0) değerine kadar uzanır. Daha sonra eğri (0,0,1,0) değerinden (1,0,1,0) değerine doğru gider.

Buna karşılık, aşağıdaki resimde, negatif sınıfları pozitif sınıflardan ayıramayan kötü bir model için ham mantıksal regresyon değerleri grafik olarak verilmiştir:

Pozitif örnekler ile negatif sınıfların tamamen iç içe geçmiş bir sayı doğrusu.

Bu modelin ROC eğrisi şöyle görünür:

(0,0,0,0) ile (1,0,1,0) arasındaki aslında düz bir çizgi olan bir ROC eğrisi.

Bu arada, gerçek dünyada çoğu ikili sınıflandırma modeli pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle tam olarak çalışmaz. Dolayısıyla tipik bir ROC eğrisi şu iki uç noktanın arasında bir yere denk gelir:

ROC eğrisi. x ekseni Yanlış Pozitif Oran ve y ekseni ise Gerçek Pozitif Oran&#39;dır. ROC eğrisi, pusula noktalarını batıdan kuzeye doğru geçen titrek bir yay yaklaşık gösterir.

ROC eğrisinde (0,0,1,0) değerine en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak, gerçek dünyadaki diğer bazı sorunlar ideal sınıflandırma eşiğinin belirlenmesini etkiler. Örneğin, belki yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olur.

AUC adı verilen sayısal bir metrik, ROC eğrisini tek bir kayan nokta değerinde özetler.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Kare Hatanın karekökü.

S

sigmoid işlevi

#fundamentals

Bir giriş değerini kısıtlı bir aralığa "sıkıştıran" matematiksel işlev (genellikle 0-1 veya -1 ile +1). Yani bir sigmoid'e herhangi bir sayıyı (iki, bir milyon, negatif milyar, vb.) iletebilirsiniz. Ancak çıktı, kısıtlanmış aralıkta olmaya devam eder. Sigmoid aktivasyon işlevinin grafiği aşağıdaki gibi görünür:

-sonsuz ile +pozitif alan arasında, y değerleri ise neredeyse 0 ile neredeyse 1 aralığında yer alan x değerlerine sahip iki boyutlu eğri grafik. x 0 olduğunda y 0, 5&#39;tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5 olur ve x&#39;in mutlak değeri arttıkça eğimleri de kademeli olarak azalır.

sigmoid işlevinin makine öğreniminde aşağıdakiler gibi çeşitli kullanım alanları vardır:

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde her olası sınıfın olasılıklarını belirleyen bir işlev. Olasılıkların toplamı tam olarak 1,0'dır. Örneğin, aşağıdaki tabloda softmax'ın çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax'e tam softmax da denir.

Aday örnekleme ile kontrast oluşturun.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrek olarak kabul edilir. Buna karşılık, yoğun bir özellik çoğunlukla sıfır olmayan veya boş olmayan değerlere sahiptir.

Makine öğreniminde, az sayıda özellik seyrek bulunan özelliklerdir. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, bir ormandaki 300 olası ağaç türü arasından tek bir örnekte yalnızca bir akçaağaç tanımlanabilir. Ya da bir video kitaplığındaki milyonlarca olası videodan tek bir örnek sadece "Kazablanka"yı tanımlayabilir.

Bir modelde genellikle tek sıcak kodlama ile seyrek özellikleri temsil edersiniz. Tek sıcak kodlama büyükse verimliliği artırmak için tek sıcak kodlamanın üstüne bir yerleştirme katmanı yerleştirebilirsiniz.

seyrek temsil

#language
#fundamentals

Seyrek bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Buna ek olarak, her örneğin yalnızca tek bir türü tanımladığını varsayalım.

Her örnekte ağaç türlerini temsil etmek için tek sıcak vektör kullanabilirsiniz. Tek sıcak vektör, tek bir 1 (bu örnekteki belirli ağaç türünü temsil etmek için) ve 35 0 (bu örnekte değil) 35 ağaç türünü temsil eder. Dolayısıyla, maple teriminin tek anlık görüntüsü şun gibi görünebilir:

0-23 arasındaki konumlarda 0, 24. pozisyonda 1 ve 25-35 arasındaki konumlarda 0 değeri bulunan bir vektörtür.

Alternatif olarak, seyrek temsil, belirli bir türün konumunu tanımlar. maple 24. konumdaysa maple ifadesinin seyrek temsili şöyle olur:

24

Seyrek temsilin, tek ateşli temsile göre çok daha kompakt olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Seyrek özellik ve seyreklik bölümlerini de inceleyin.

karesel kayıp

#fundamentals

L2 kaybı ile eş anlamlı.

statik

#fundamentals

Sürekli değil bir kez yapılan işlemlerdir. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğreniminde statik ve çevrimdışı kullanımların yaygın kullanımları şunlardır:

  • statik model (veya çevrimdışı model) ise bir kez eğitilip bir süre kullanılan bir modeldir.
  • Statik eğitim (veya çevrimdışı eğitim), statik bir modeli eğitme sürecidir.
  • statik çıkarım (veya çevrimdışı çıkarım), bir modelin her defasında bir tahmin grubu oluşturduğu bir süreçtir.

Dinamik ile kontrast.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlı.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen özellik. Örneğin, değerleri 2021 ve 2023’te yaklaşık olarak aynı görünen bir özellik sabit kalır.

Gerçek dünyada çok az özellik durağanlık gösterir. İstikrarla aynı anlama gelen özellikler bile (deniz seviyesi gibi) zamanla değişir.

durağanlık ile zıtlık oluşturun.

olasılıksal gradyan iniş (SGD)

#fundamentals

Grup boyutunun bir olduğu gradyan iniş algoritması. Başka bir deyişle, SGD bir eğitim grubundan rastgele olarak eşit şekilde seçilen tek bir örnek üzerinden eğitim yapar.

gözetimli makine öğrenimi

#fundamentals

Özellikler ve bunlara karşılık gelen etiketlerden bir model eğitme. Gözetimli makine öğrenimi, bir grup soruyu ve bu sorulara karşılık gelen yanıtları inceleyerek öğrenmeye benzer. Sorular ve cevaplar arasındaki eşlemeyi iyice öğrendikten sonra öğrenci, aynı konuyla ilgili yeni (daha önce hiç görülmemiş) sorulara cevaplar verebilir.

Gözetimsiz makine öğrenimi ile karşılaştırın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan, ancak bir veya daha fazlasından birleştirilen bir özellik. Sentetik özellik oluşturma yöntemleri şunlardır:

  • Bir sürekli özelliği aralık kutularına paketleme.
  • Özellik karşılaştırması oluşturma.
  • Bir özellik değerini diğer özellik değerleriyle veya kendisiyle çarpma (veya bölme). Örneğin, a ve b giriş özellikleriyse aşağıda sentetik özellik örnekleri verilmiştir:
    • ab
    • a2
  • Bir özellik değerine transandantal işlev uygulama. Örneğin, c bir giriş özelliğiyse aşağıda sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler, sentetik özellik olarak kabul edilmez.

T

test kaybı

#fundamentals

Bir modelin test kümesine olan kaybını temsil eden bir metrik. Bir model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının düşük eğitim kaybı veya düşük doğrulama kaybı'na göre daha güçlü kalite sinyali olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasındaki büyük bir boşluk, bazen normalleştirme oranını artırmanız gerektiğini gösterir.

eğitim

#fundamentals

Bir model oluşturan ideal parametreleri (ağırlıklar ve ağırlıklandırmalar) belirleme süreci. Eğitim sırasında sistem, örnekleri okur ve parametreleri kademeli olarak ayarlar. Eğitimde her örnek birkaç kez ila milyarlarca kez kullanılır.

eğitim kaybı

#fundamentals

Belirli bir eğitim yinelemesi sırasında bir modelin kaybını temsil eden bir metrik. Örneğin, kayıp işlevinin Ortalama Kare Hatası olduğunu varsayalım. 10.iterasyonun eğitim kaybı (Ortalama Kare Hatası) 2,2 ve 100.iterasyonun eğitim kaybı 1,9 olabilir.

Kayıp eğrisi, eğitim kaybını iterasyon/yineleme sayısına göre gösterir. Kayıp eğrisi, eğitim hakkında aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin iyileşmekte olduğunu gösterir.
  • Yukarı doğru eğim, modelin kötüye gittiğini gösterir.
  • Düz bir eğim, modelin yakınlaşmaya ulaştığı anlamına gelir.

Örneğin, aşağıdaki idealleştirilmiş kayıp eğrisi gösterilmektedir:

  • İlk yinelemeler sırasında aşağı doğru dik bir eğim. Bu, modelin hızlı bir şekilde iyileştirildiği anlamına gelir.
  • Eğitimin sonuna kadar kademeli olarak düzleşen (ama hâlâ aşağı doğru) bir eğim. Bu, model iyileştirmesinin ilk iterasyonlardan biraz daha yavaş bir hızda devam ettiği anlamına gelir.
  • Eğitimin sonuna doğru yakınlaşmayı gösteren düz bir eğim.

Eğitim kaybının ve yinelemelerin karşılaştırması. Bu kayıp eğrisi dik bir aşağı eğimle başlar. Eğim, eğim sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da genelleme bölümünü inceleyin.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasında gösterdiği performans ile aynı modelin sunum sırasındaki performansı arasındaki fark.

eğitim seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye ayrılır:

İdeal olarak, veri kümesindeki her bir örnek yalnızca önceki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama grubuna ait olmamalıdır.

doğru negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin model, belirli bir e-posta iletisinin spam olmadığı ve bu e-posta iletisinin gerçekten spam olmadığı sonucuna varır.

gerçek pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin model, belirli bir e-posta iletisinin spam olduğu ve bu e-posta iletisinin gerçekten de spam olduğu sonucunu çıkarabilir.

gerçek pozitif oranı (TPR)

#fundamentals

recall ile eş anlamlı. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, bir ROC eğrisindeki y eksenidir.

U

yetersiz uyuma

#fundamentals

Model, eğitim verilerinin karmaşıklığını tam olarak yakalayamadığı için tahmin gücü zayıf olan bir model oluşturma. Aşağıdakiler dahil olmak üzere birçok sorun, yetersiz uyuma neden olabilir:

etiketsiz örnek

#fundamentals

Özellikler'i içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda her biri üç özelliğe sahip ancak kurum değeri içermeyen bir ev değerleme modelinden etiketlenmemiş üç örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Ev yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde modeller, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler üzerinde tahminlerde bulunur.

Yarı gözetimli ve denetimsiz öğrenimde, eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketsiz örneği etiketli örnek ile karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki (genellikle etiketlenmemiş bir veri kümesi) kalıpları bulmak için bir model eğitme.

Gözetimsiz makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplar halinde kümelemektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre kümeler. Ortaya çıkan kümeler, diğer makine öğrenimi algoritmalarına (ör. müzik öneri hizmetine) girdi olabilir. Yararlı etiketler yetersiz veya eksik olduğunda kümeleme işe yarayabilir. Örneğin, kötüye kullanımı önleme ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Gözetimli makine öğrenimi ile karşılaştırma.

V

validation

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama kümesine göre kontrol eder.

Doğrulama grubu eğitim grubundan farklı olduğu için doğrulama, fazladan faydalanmaya karşı koruma sağlar.

Modeli, testin ilk turu olarak doğrulama grubu ve ikinci test turu olarak test kümesine göre değerlendirebilirsiniz.

doğrulama kaybı

#fundamentals

Bir modelin belirli bir yineleme sırasında doğrulama grubundaki kayıpları temsil eden bir metrik.

Ayrıca genelleme eğrisi konusuna bakın.

doğrulama grubu

#fundamentals

Eğitilmiş bir modele göre ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle, eğitilen modeli test kümesine göre değerlendirmeden önce birkaç kez doğrulama kümesine göre değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her bir örnek yalnızca önceki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama grubuna ait olmamalıdır.

W

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme sürecidir. Çıkarım, öğrenilen ağırlıkları tahminde bulunmak için kullanma sürecidir.

ağırlıklı toplam

#fundamentals

Tüm ilgili giriş değerlerinin toplamının karşılık gelen ağırlıklarıyla çarpılması. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Dolayısıyla, ağırlıklı toplam şudur:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevinin giriş bağımsız değişkenidir.

Z

Z puanı normalleştirmesi

#fundamentals

Ham bir özellik değerini, söz konusu özelliğin ortalamasından standart sapmaların sayısını temsil eden bir kayan nokta değeriyle değiştiren ölçeklendirme tekniği. Örneğin, ortalaması 800 ve standart sapması 100 olan bir özelliği ele alalım. Aşağıdaki tabloda, Z puanı normalleştirmesinin ham değeri Z puanıyla nasıl eşleştireceği gösterilmektedir:

İşlenmemiş değer Z puanı
800 0
950 +1,5
575 -2,25

Ardından makine öğrenimi modeli, ham değerler yerine söz konusu özellik için Z puanlarına göre eğitilir.