Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Bu sayfada, ML Temel Bilgileri sözlüğündeki terimler yer almaktadır. Tüm terimler için burayı tıklayın.

A

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin toplam tahmin sayısına bölünmesiyle elde edilen değer. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru ve 10 yanlış tahminde bulunan bir modelin doğruluk oranı şöyle olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, doğru tahminler ve yanlış tahminler kategorileri için belirli adlar sağlar. Dolayısıyla, ikili sınıflandırma için doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu hassasiyet ve geri çağırma ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler bölümüne bakın.

aktivasyon işlevi

#fundamentals

Nöral ağların özellikler ile etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme fonksiyonlarının noktaları hiçbir zaman tek bir düz çizgi değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgiden oluşur:

İki çizginin Kartezyen grafiği. İlk satırda, -infinity,0 ile 0,-0 arasında x ekseni boyunca uzanan sabit bir y değeri vardır.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5'tedir ve x'in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Aktivasyon işlevleri bölümüne bakın.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan olmayan bir program veya model. Örneğin, metin çeviren bir program veya model ya da radyolojik görüntülerden hastalıkları tanımlayan bir program ya da model yapay zeka sergiler.

Resmi olarak makine öğrenimi, yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösteren 0,0 ile 1,0 arasında bir sayı. AUC ne kadar 1, 0'a yakınsa modelin sınıfları birbirinden ayırma yeteneği o kadar iyidir.

Örneğin, aşağıdaki görselde pozitif sınıfları (yeşil ovaller) negatif sınıflardan (mor dikdörtgenler) mükemmel şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Gerçekçi olmayan bu mükemmel modelin AUC değeri 1,0'dur:

Bir tarafında 8 olumlu örnek, diğer tarafında 9 olumsuz örnek bulunan bir sayı çizgisi.

Buna karşılık, aşağıdaki görselde rastgele sonuçlar oluşturan bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin AUC değeri 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı çizgisi.
          Örneklerin sırası şu şekildedir: olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz.

Evet, önceki modelin AUC değeri 0,0 değil 0,5'tir.

Çoğu model bu iki uç nokta arasındadır. Örneğin, aşağıdaki model pozitifleri negatiflerden bir derece ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC değerine sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı çizgisi.
          Örneklerin sırası şu şekildedir: negatif, negatif, negatif, negatif, olumlu, negatif, olumlu, olumlu, negatif, olumlu, olumlu, olumlu.

AUC, sınıflandırma eşiği için ayarladığınız tüm değerleri yoksayar. Bunun yerine AUC, olası sınıflandırma eşiklerinin tümünü dikkate alır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma: ROC ve AUC bölümüne bakın.

B

geri yayılma

#fundamentals

Nöral ağlarda gradyan azalma algoritmasını uygulayan algoritma.

Bir nöral ağı eğitmek, aşağıdaki iki geçişli döngünün birçok iterations içerir:

  1. İleri geçiş sırasında sistem, tahminler oluşturmak için örneklerden oluşan bir toplu işler. Sistem, her tahmini her etiket değeriyle karşılaştırır. Tahmin ile etiket değeri arasındaki fark, söz konusu örnek için kayıp değeridir. Sistem, mevcut grubun toplam kaybını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geri geçiş (geri yayılma) sırasında sistem, tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kaybı azaltır.

Nöral ağlar genellikle birçok gizli katmanda birçok nöron içerir. Bu nöronların her biri genel kayıplara farklı şekillerde katkıda bulunur. Geri yayılma, belirli nöronlara uygulanan ağırlıkların artırılıp azaltılmayacağını belirler.

Öğrenme hızı, her geri geçişin her ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Büyük bir öğrenme hızı, her ağırlığı küçük bir öğrenme hızından daha fazla artırır veya azaltır.

Geri yayılım, diferansiyel hesap terimleriyle zincir kuralını uygular. Yani geri yayılma, hatanın her parametreye göre kısmi türevini hesaplar.

Yıllar önce, makine öğrenimi uygulayıcılarının geri yayılımı uygulamak için kod yazması gerekiyordu. Keras gibi modern makine öğrenimi API'leri artık geri yayılımı sizin için uygular. Bora

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Nöral ağlar bölümüne bakın.

grup

#fundamentals

Bir eğitim iterasyonunda kullanılan örnek grubu. Grup boyutu, bir gruptaki örnek sayısını belirler.

Bir grubun bir dönemle nasıl ilişkili olduğuna dair açıklama için dönem bölümüne bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

grup boyutu

#fundamentals

Bir grup içindeki örnek sayısı. Örneğin, toplu boyut 100 ise model iterasyon başına 100 örnek işler.

Popüler toplu boyut stratejileri şunlardır:

  • Grup boyutunun 1 olduğu stokastik gradyan inişi (SGD).
  • Tam grup: Grup boyutu, eğitim veri kümesinin tamamındaki örneklerin sayısıdır. Örneğin, eğitim veri kümesi bir milyon örnek içeriyorsa toplu veri boyutu bir milyon örnek olur. Tam toplu işlem genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ile 1.000 arasında olduğu mini grup. Küçük grup genellikle en verimli stratejidir.

Daha fazla bilgi için aşağıdaki konulara bakın:

önyargı (etik/adalet)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı kalıp yargı, önyargı ya da diğerlerinden üstünlük gösterme Bu önyargılar, verilerin toplanmasını ve yorumlanmasını, sistemin tasarımını ve kullanıcıların sistemle etkileşimini etkileyebilir. Bu tür yanlılık örnekleri şunlardır:

2. Örnekleme veya raporlama prosedürü nedeniyle ortaya çıkan sistematik hata. Bu tür yanlılık örnekleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

önyargı (matematik) veya önyargı terimi

#fundamentals

Bir kaynaktan kesme noktası veya ofset. Yanlılık, makine öğrenimi modellerindeki bir parametredir ve aşağıdakilerden biriyle gösterilir:

  • b
  • w0

Örneğin, önyargı, aşağıdaki formüldeki b değeridir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, önyargı yalnızca "y kesme noktası" anlamına gelir. Örneğin, aşağıdaki görselde gösterilen satırın yönü 2'dir.

Eğimi 0,5 ve y eksenini kestiği nokta (y kesme noktası) 2 olan bir doğrunun grafiği.

Tüm modeller orijinden (0,0) başlamadığı için önyargı vardır. Örneğin, bir eğlence parkına giriş ücretinin 2 avro, müşterinin parkta kaldığı her saat için ek 0,5 avro olduğunu varsayalım. Bu nedenle, toplam maliyeti eşleyen bir modelin önyargı değeri 2'dir çünkü en düşük maliyet 2 avrodur.

Önyargı, etik ve adaletle ilgili önyargı veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Doğrusal Regresyon bölümüne bakın.

ikili sınıflandırma

#fundamentals

Birbiriyle çelişen iki sınıftan birini tahmin eden bir tür sınıflandırma görevi:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olup olmadığını belirleyen bir model.
  • Bir kişinin belirli bir hastalığa (pozitif sınıf) sahip olup olmadığını veya bu hastalığa sahip olmadığını (negatif sınıf) belirlemek için tıbbi semptomları değerlendiren bir model.

Çok sınıflı sınıflandırma ile karşılaştırın.

Mantıksal regresyon ve sınıflandırma eşiği hakkında da bilgi edinin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

gruplandırma

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına göre paketler veya kümeler olarak adlandırılan birden fazla ikili özelliğe dönüştürür. Bölünmüş özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine sıcaklık aralıklarını aşağıdaki gibi ayrı kaplara ayırabilirsiniz:

  • <= 10 santigrat derece "soğuk" grubuna girer.
  • 11-24 santigrat derece "ılıman" grubuna girer.
  • >= 25 santigrat derece "sıcak" grubu olur.

Model, aynı gruptaki her değeri aynı şekilde ele alır. Örneğin, 13 ve 22 değerlerinin ikisi de ılıman grupta olduğundan model bu iki değeri aynı şekilde ele alır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sayısal veriler: Gruplandırma bölümüne bakın.

C

kategorik veriler

#fundamentals

Belirli bir olası değer grubuna sahip özellikler. Örneğin, yalnızca aşağıdaki üç olası değerden birini alabilen traffic-light-state adlı kategorik bir özellik düşünün:

  • red
  • yellow
  • green

traffic-light-state, kategorik bir özellik olarak temsil edildiğinde model, red, green ve yellow'ın sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen discontinious features (discontinious features) olarak da adlandırılır.

Sayısal verilerle karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Kategorik verilerle çalışma bölümüne bakın.

sınıf

#fundamentals

Etiket'in ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Buna karşılık, regresyon modeli bir sınıf yerine bir sayıyı tahmin eder.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıdakilerin tümü sınıflandırma modelleridir:

  • Giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca?).
  • Ağaç türlerini tahmin eden bir model (Akçaağaç? Oak? Baobab?).
  • Belirli bir tıbbi durum için pozitif veya negatif sınıfı tahmin eden bir model.

Buna karşılık, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Sık kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, mantıksal regresyon modelinin ham çıkışını pozitif sınıf veya negatif sınıf tahminine dönüştüren 0 ile 1 arasında bir sayı. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, bir kişinin seçtiği bir değer olduğunu unutmayın.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer döndürür. Ardından:

  • Bu ham değer, sınıflandırma eşiğinden daha büyükse pozitif sınıf tahmin edilir.
  • Bu ham değer sınıflandırma eşiğinden düşükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0, 7 ise model negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yanlış pozitif ve yanlış negatif sayısını önemli ölçüde etkiler.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

sınıf dengesi bozuk veri kümesi

#fundamentals

Her sınıfın toplam etiket sayısının önemli ölçüde farklı olduğu bir sınıflandırma problemi için veri kümesi. Örneğin, iki etiketi aşağıdaki gibi bölünmüş bir ikili sınıflandırma veri kümesini ele alalım:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitif etiketlere oranı 100.000'e 1 olduğundan bu veri kümesi sınıf dengesi bozuk bir veri kümesidir.

Buna karşılık, negatif etiketlerin pozitif etiketlere oranı nispeten 1'e yakın olduğu için aşağıdaki veri kümesi sınıf dengeli değildir:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümeleri de sınıf dengesi bozuk olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesi de sınıf dengesi açısından bozuktur çünkü bir etiket diğer ikisine kıyasla çok daha fazla örnek içerir:

  • "Yeşil" sınıfına sahip 1.000.000 etiket
  • "mor" sınıfına sahip 200 etiket
  • "orange" sınıfına sahip 350 etiket

Entropy, çoğunluğun sınıfı ve azınlığın sınıfı bölümlerini de inceleyin.

kırpma

#fundamentals

Aşağıdakilerden birini veya ikisini birden yaparak aykırı değerleri ele alma tekniği:

  • Maksimum eşikten yüksek olan özellik değerlerini bu maksimum eşiğe indirme.
  • Minimum eşiğin altındaki özellik değerlerini bu minimum eşiğe kadar artırma.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40-60 aralığının dışında olduğunu varsayalım. Bu durumda aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar verebilir ve bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri de önemli ölçüde bozabilir. Kırpma, zararı sınırlamak için yaygın olarak kullanılan bir tekniktir.

Gradyan kırpma, eğitim sırasında gradyan değerlerini belirli bir aralık içinde zorlar.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Normalleştirme bölümüne bakın.

karışıklık matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen NxN tablo. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin:

Tümör (tahmini) Tümör dışı (tahmini)
Tümör (kesin referans) 18 (TP) 1 (FN)
Tümör dışı (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisinde aşağıdakiler gösterilmektedir:

  • Kesin referansın tümör olduğu 19 tahminden 18'ini doğru, 1'ini yanlış sınıflandırmıştır.
  • Kesin referansın Non-Tumor (tümör olmayan) olduğu 458 tahminden model 452'sini doğru, 6'sını yanlış sınıflandırmıştır.

Çok sınıflı sınıflandırma sorunu için karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) kategorize eden 3 sınıflı çok sınıflı sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin. Kesin referans Virginica olduğunda karışıklık matrisi, modelin yanlışlıkla Versicolor'u tahmin etme olasılığının Setosa'dan çok daha yüksek olduğunu gösterir:

  Setosa (tahmin edilen) Versicolor (tahmin edilen) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, karışıklık matrisi, el yazısı ile yazılmış rakamları tanımak için eğitilmiş bir modelin 4 yerine yanlışlıkla 9'u veya 7 yerine yanlışlıkla 1'i tahmin etme eğiliminde olduğunu gösterebilir.

Karıştırma matrisleri, kesinlik ve hatırlama dahil olmak üzere çeşitli performans metriklerini hesaplamak için yeterli bilgiyi içerir.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz bir olası değer aralığına sahip kayan noktalı bir özellik.

Bağımsız özellik ile karşılaştırın.

yakınsama

#fundamentals

Kayıp değerleri her yenidenleme ile çok az değiştiğinde veya hiç değişmediğinde ulaşılan durum. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 iterasyonda yakınsama olduğunu gösterir:

Kartezyen nokta grafiği. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısını gösterir. İlk birkaç iterasyonda kayıp çok yüksektir ancak keskin bir şekilde düşer. Yaklaşık 100 iterasyondan sonra kayıp azalmaya devam ediyor ancak bu süreç çok daha kademeli. Yaklaşık 700 iterasyondan sonra kayıp sabit kalır.

Ek eğitim modelin iyileşmesini sağlamadığında model toplanır.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya sonunda düşmeden önce birçok iterasyon boyunca neredeyse sabit kalır. Uzun süre boyunca sabit kayıp değerleri olduğunda geçici olarak yanlış bir yakınsama hissi edinebilirsiniz.

Erken durdurma hakkında da bilgi edinin.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Model yakınsama ve kayıp eğrileri bölümüne bakın.

D

DataFrame

#fundamentals

Bellekteki veri kümelerini temsil etmek için kullanılan popüler bir pandas veri türü.

Veri çerçevesi, bir tabloya veya e-tabloya benzer. Bir DataFrame'in her sütununun bir adı (başlığı) vardır ve her satır benzersiz bir sayıyla tanımlanır.

Bir DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Bununla birlikte, her sütuna kendi veri türü atanabilir.

Ayrıca resmi pandas.DataFrame referans sayfasına göz atın.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak yalnızca değil) aşağıdaki biçimlerden birinde düzenlenen ham veri koleksiyonu:

  • bir e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin modeller derin nöral ağ olarak da adlandırılır.

Geniş model ile kontrast.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tamamının sıfır olmayan bir özellik (genellikle kayan nokta değerlerinin tenzoru). Örneğin, aşağıdaki 10 öğeli tenör, 9 değeri sıfırdan farklı olduğu için yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile karşılaştırın.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağın derinliği 6'dır.

Giriş katmanının derinliği etkilemediğini unutmayın.

ayrık özellik

#fundamentals

Sonlu sayıda olası değere sahip bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilecek bir özellik ayrık (veya kategorik) bir özelliktir.

Sürekli özellik ile karşılaştırın.

dinamik

#fundamentals

Sık sık veya sürekli olarak yapılan bir işlem. Dinamik ve online terimleri makine öğrenimindeki eş anlamlı kelimelerdir. Makine öğrenimindeki dinamik ve online terimlerinin yaygın kullanım alanları şunlardır:

  • Dinamik model (veya online model), sık sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık sık veya sürekli olarak eğitim verme sürecidir.
  • Dinamik çıkarım (veya online çıkarım), talep üzerine tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli olarak) yeniden eğitilen bir model. Dinamik modeller, sürekli olarak değişen verilere uyum sağlayan "ömür boyu öğrenen" modellerdir. Dinamik modeller online model olarak da bilinir.

Statik model ile kontrast oluşturur.

E

erken durdurma

#fundamentals

Eğitim kaybının düşmesi bitmeden eğitimi sonlandırmayı içeren bir düzenleme yöntemi. Erken durdurma işleminde, doğrulama veri kümesinde kayıp artmaya başladığında, yani genelleştirme performansı kötüleştiğinde modeli eğitmeyi kasıtlı olarak durdurursunuz.

yerleştirme katmanı

#language
#fundamentals

Kademeli olarak daha düşük boyutlu bir yerleştirme vektörü öğrenmek için yüksek boyutlu bir kategorik özellikte eğitilen özel bir gizli katman. Yerleşim katmanı, bir nöral ağın yalnızca yüksek boyutlu kategorik özellikte eğitilmesine kıyasla çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türünün modelinizde bir özellik olduğunu varsayalım. Bu durumda, modelinizin giriş katmanı 73.000 öğe uzunluğunda bir tek sıcaklık vektörü içerir. Örneğin, baobab şu şekilde gösterilebilir:

73.000 öğe içeren bir dizi. İlk 6.232 öğe 0 değerini içerir. Sonraki öğe 1 değerini içerir. Son 66.767 öğe sıfır değerini içerir.

73.000 öğe içeren bir dizi çok uzundur. Modele bir yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpılması nedeniyle eğitim çok zaman alır. Yerleştirme katmanını 12 boyuttan oluşacak şekilde seçebilirsiniz. Sonuç olarak, yerleştirme katmanı her ağaç türü için kademeli olarak yeni bir yerleştirme vektörü öğrenir.

Belirli durumlarda, karma oluşturma, yerleştirme katmanına makul bir alternatiftir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Embedding'ler bölümüne bakın.

sıfır zaman

#fundamentals

Her örnek bir kez işlenecek şekilde eğitim veri kümesinin tamamında tam eğitim geçişi.

Bir dönem, N/toplu boyut eğitim iterasyonunu temsil eder. Burada N, toplam örnek sayısıdır.

Örneğin, aşağıdakileri varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Paket boyutu 50 örnektir.

Bu nedenle, tek bir epoch için 20 iterasyon gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

örnek

#fundamentals

Bir satır özellik ve muhtemelen bir etiket değerleri. Gözetimli öğrenme örnekleri iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketsiz örnek, bir veya daha fazla özellikten oluşur ancak etiket içermez. Etiketlenmemiş örnekler çıkarım sırasında kullanılır.

Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıda etiketlenmiş üç örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Etiketlenmemiş üç örnek aşağıda verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesinin satırı genellikle bir örnek için ham kaynaktır. Yani bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Ayrıca, bir örnekteki özellikler özellik çaprazlamaları gibi sentetik özellikler de içerebilir.

Daha fazla bilgi için Makine Öğrenimine Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

C

yanlış negatif (FN)

#fundamentals

Modelin yanlışlıkla negatif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam olmadığını (negatif sınıf) tahmin ediyor ancak söz konusu e-posta mesajı aslında spam.

yanlış pozitif (FP)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam (pozitif sınıf) olduğunu tahmin eder ancak söz konusu e-posta mesajı aslında spam değildir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül, yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisinde x eksenidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma: ROC ve AUC bölümüne bakın.

özellik

#fundamentals

Makine öğrenimi modeline ait bir giriş değişkeni. Örnek, bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda, her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast oluşturmalıdır.

Daha fazla bilgi için Makine Öğrenimi'ne Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

özellik çaprazlama

#fundamentals

Kategorik veya kümelenmiş özelliklerin "çaprazlanması" ile oluşturulan sentetik özellik.

Örneğin, sıcaklığı aşağıdaki dört gruptan birinde temsil eden bir "ruh hali tahmini" modelini düşünün:

  • freezing
  • chilly
  • temperate
  • warm

Aşağıdaki üç gruptan birinde rüzgar hızını temsil eder:

  • still
  • light
  • windy

Özellik çaprazlamaları olmadan doğrusal model, önceki yedi farklı grubun her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin freezing üzerinde eğitilir. Bu eğitim, örneğin windy üzerinde yapılan eğitimden bağımsızdır.

Alternatif olarak, sıcaklık ve rüzgar hızı için bir özellik kesişimi de oluşturabilirsiniz. Bu sentetik özellik aşağıdaki 12 olası değere sahip olur:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Özellik çaprazlamaları sayesinde model, freezing-windy günü ile freezing-still günü arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri çok sayıda farklı grup içeren iki özellikten sentetik bir özellik oluşturursanız ortaya çıkan özellik çaprazlama işleminde çok sayıda olası kombinasyon bulunur. Örneğin, bir özellikte 1.000 kap, diğer özellikte 2.000 kap varsa ortaya çıkan özellik çaprazında 2.000.000 kap bulunur.

Resmi olarak çapraz, bir Kartezyen çarpımdır.

Özellik çaprazlamaları çoğunlukla doğrusal modellerle kullanılır ve nadiren nöral ağlarla kullanılır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Kategorik veriler: Özellik kesişimleri bölümüne bakın.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modeli eğitirken hangi özelliklerin yararlı olabileceğini belirleme
  2. Veri kümesinden elde edilen ham verileri bu özelliklerin verimli sürümlerine dönüştürme.

Örneğin, temperature özelliğinin faydalı olabileceğini düşünebilirsiniz. Ardından, modelin farklı temperature aralıklarından neler öğrenebileceğini optimize etmek için gruplandırma ile denemeler yapabilirsiniz.

Özellik mühendisliği bazen özellik ayıklama veya özellik oluşturma olarak da adlandırılır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellik grubu. Örneğin, posta kodu, mülk büyüklüğü ve mülk durumu, konut fiyatlarını tahmin eden bir model için basit bir özellik grubu oluşturabilir.

özellik vektörü

#fundamentals

Örnek içeren özellik değerleri dizisi. Özellik vektörü, eğitim ve tahmin sırasında girilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92 değerini, diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Bu nedenle, bir sonraki örneğin özellik vektörü şu şekilde olabilir:

[0.73, 0.49]

Özellik mühendisliği, özelliklerin özellik vektöründe nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip ikili kategorik bir özellik one-hot kodlama ile temsil edilebilir. Bu durumda, belirli bir örnek için özellik vektörünün bölümü dört sıfır ve üçüncü konumda tek bir 1, 0 değerinden oluşur:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • Bir sıcak kodlamayla temsil edilen beş olası değere sahip ikili kategorik özellik (ör. [0.0, 1.0, 0.0, 0.0, 0.0])
  • One-hot kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategorik özellik (ör. [0.0, 0.0, 1.0])
  • kayan nokta özelliği (ör. 8.3).

Bu durumda, her bir örnek için özellik vektörü dokuz değerle temsil edilir. Önceki listedeki örnek değerler göz önüne alındığında özellik vektörü şu şekilde olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

geri bildirim döngüsü

#fundamentals

Makine öğrenimindeki bir modelin tahminlerinin, aynı modelin veya başka bir modelin eğitim verilerini etkilediği durum. Örneğin, film öneren bir model, kullanıcıların izlediği filmleri etkiler. Bu da sonraki film önerisi modellerini etkiler.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Sorulması gereken sorular bölümüne bakın.

G

genelleme

#fundamentals

Modelin yeni ve daha önce görülmemiş verilerle ilgili doğru tahminler yapma yeteneği. Genelleme yapabilen bir model, fazla uyumlu olan bir modelin tam tersidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

genelleştirme eğrisi

#fundamentals

İterasyon sayısına bağlı olarak hem eğitim kaybının hem de doğrulama kaybının grafiği.

Genelleme eğrisi, olası aşırı uyum tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleme eğrisi, doğrulama kaybının nihayetinde eğitim kaybından önemli ölçüde daha yüksek olması nedeniyle aşırı uyumu önerir.

Y ekseninin kayıp, x ekseninin ise iterasyon olarak etiketlendiği Kartezyen grafik. İki grafik görünür. Birinde eğitim kaybı, diğerinde ise doğrulama kaybı gösterilir.
          İki grafik de benzer şekilde başlar ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük bir seviyeye düşer.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

gradyan inişi

#fundamentals

Kayıpları en aza indirmek için kullanılan matematiksel bir tekniktir. Gradyan azalma, ağırlıkları ve önyargıları iteratif olarak ayarlayarak kaybı en aza indirecek en iyi kombinasyonu kademeli olarak bulur.

Gradyan azalma, makine öğreniminden çok daha eskidir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Gradyan azalma bölümüne bakın.

gerçek doğru

#fundamentals

Gerçek.

Gerçekten ne oldu?

Örneğin, üniversitenin ilk yılındaki bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Bu model için kesin referans, öğrencinin altı yıl içinde mezun olup olmadığıdır.

H

gizli katman

#fundamentals

Sinir ağında giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasında yer alan bir katman. Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki sinir ağında ilkinde üç, ikincisinde iki nöron bulunan iki gizli katman vardır:

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman bir çıkış katmanıdır. Her özellik, her biri ikinci katmandaki farklı bir nöronu gösteren üç kenar içerir. İkinci katmandaki her nöron, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki her nöron, çıkış katmanına işaret eden bir kenar içerir.

Derin nöral ağ birden fazla gizli katman içerir. Örneğin, önceki görselde model iki gizli katman içerdiğinden derin bir sinir ağı gösterilmektedir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Düğümler ve gizli katmanlar bölümüne bakın.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin (ör. Vizier) bir modeli eğitme işleminin art arda çalıştırıldığı sırada düzenlediği değişkenler.Örneğin, öğrenme hızı bir hiper parametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. 0,01'in çok yüksek olduğunu belirlerseniz bir sonraki eğitim oturumu için öğrenme hızını 0,003 olarak ayarlayabilirsiniz.

Buna karşılık parametreler, modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve önyargılardır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

I

bağımsız ve aynı şekilde dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımın kullanıldığı ve çekilen her değerin daha önce çekilen değerlere bağlı olmadığı veriler. Bağımsız örnek, makine öğreniminin ideal gazı olarak kabul edilir. Yararlı bir matematiksel yapıdır ancak gerçek dünyada neredeyse hiç tam olarak bulunmaz. Örneğin, bir web sayfasının ziyaretçilerinin dağılımı kısa bir süre boyunca bağımsız olabilir. Yani dağılım bu kısa süre boyunca değişmez ve bir kişinin ziyareti genellikle başka bir kişinin ziyaretinden bağımsızdır. Ancak bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde mevsimsel farklılıklar görebilirsiniz.

Değişmezlik konusuna da bakın.

çıkarım

#fundamentals

Makine öğrenimindeki eğitilmiş bir modeli etiketlenmemiş örneklere uygulayarak tahminde bulunma işlemi.

İstatistikte çıkarım biraz farklı bir anlama sahiptir. Ayrıntılar için İstatistiksel çıkarımla ilgili Wikipedia makalesine bakın.

Tahminin, gözetimli öğrenme sistemindeki rolünü öğrenmek için Yapay Zeka'ya Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

giriş katmanı

#fundamentals

Nöral ağın özellik vektörünü içeren katmanı. Yani giriş katmanı, eğitim veya tahmin için örnek sağlar. Örneğin, aşağıdaki sinir ağındaki giriş katmanı iki özellikten oluşur:

Dört katman: giriş katmanı, iki gizli katman ve çıkış katmanı.

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelinin mantığını insanlara anlaşılır terimlerle açıklama veya sunma yeteneği.

Örneğin, çoğu doğrusal regresyon modeli yüksek oranda yorumlanabilirdir. (Yalnızca her bir özellik için eğitilmiş ağırlıklara bakmanız yeterlidir.) Karar ağaçları da son derece yorumlanabilirdir. Ancak bazı modellerin yorumlanabilmesi için gelişmiş görselleştirmeler gerekir.

ML modellerini yorumlamak için Learning Interpretability Tool (LIT)'i kullanabilirsiniz.

iterasyon

#fundamentals

Eğitim sırasında modelin parametrelerinin (modelin ağırlıkları ve önyargıları) tek bir güncellemesi. Grup boyutu, modelin tek bir iterasyonda kaç örnek işlediğini belirler. Örneğin, toplu boyut 20 ise model, parametreleri ayarlamadan önce 20 örneği işler.

Bir nöral ağı eğitirken tek bir iterasyon aşağıdaki iki geçişi içerir:

  1. Tek bir gruptaki kaybı değerlendirmek için ileri geçiş.
  2. Modelin parametrelerini kayıp ve öğrenme hızına göre ayarlamak için geri geçiş (geri yayılma).

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır olmayan ağırlıkların toplam sayısını cezalandıran bir tür normalleştirme. Örneğin, sıfır olmayan 11 ağırlığa sahip bir model, sıfır olmayan 10 ağırlığa sahip benzer bir modelden daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0 norm normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş örnek içeren bir grup için L1 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 mağlubiyeti

L1 kaybı, L2 kaybına kıyasla aykırı değerlere karşı daha az hassastır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıkları, ağırlıkların mutlak değerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L1 normalleştirmesi, alakasız veya çok az alakalı özelliklerin ağırlıklarını tam olarak 0 değerine çekmeye yardımcı olur. Ağırlığı 0 olan özellikler modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesiyle karşılaştırın.

L2 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş örnek içeren bir grup için L2 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 mağlubiyet

Kare alma işlemi nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybına kıyasla daha güçlü tepki verir. Örneğin, önceki toplu işlem için L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin 16 değerin 9'unu oluşturduğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Karesel Hata, örnek başına ortalama L2 kaybıdır. Kare kaybı, L2 kaybının başka bir adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıkları, ağırlıkların karelerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L2 normalleştirmesi, aykırı ağırlıkları (yüksek pozitif veya düşük negatif değerlere sahip olanlar) 0'a yaklaştırır ancak tam olarak 0'a getirmez. 0'a çok yakın değerlere sahip özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi, doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesiyle karşılaştırın.

etiket

#fundamentals

Gözetimli makine öğrenimi'nde, örnek'in "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Örneğin, spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Yağış veri kümesinde etiket, belirli bir dönemde yağan yağmur miktarı olabilir.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınan, her biri üç özelliğe ve bir etikete sahip üç etiketli örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Ev fiyatı (etiket)
3 2 15 345.000 ABD doları
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğrenimi modelleri, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler hakkında tahminde bulunur.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

lambda

#fundamentals

Düzenleme oranı ile eş anlamlıdır.

Lambda, aşırı yüklenmiş bir terimdir. Burada, terimin normalleştirme bağlamındaki tanımına odaklanıyoruz.

katman

#fundamentals

Nöral ağ içindeki bir grup nöron. Sık kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki görselde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, tenzorları ve yapılandırma seçeneklerini giriş olarak alan ve çıkış olarak başka tenzorlar üreten Python işlevleridir.

öğrenme hızı

#fundamentals

Eğim azalma algoritmasına her iterasyonda ağırlıkları ve önyargıları ne kadar güçlü ayarlayacağını söyleyen kayan noktalı bir sayı. Örneğin, 0,3'lük bir öğrenme hızı, ağırlıkları ve önyargıları 0,1'lik bir öğrenme hızından üç kat daha güçlü bir şekilde ayarlar.

Öğrenme hızı, önemli bir hiperparametredir. Öğrenme hızını çok düşük ayarlarsanız eğitim çok uzun sürer. Öğrenme hızını çok yüksek ayarlarsanız gradyan azalma genellikle ayrışma noktasına ulaşmakta sorun yaşar.

doğrusal

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilebilen ilişki.

Doğrusal ilişkilerin grafiği bir çizgidir.

Doğrusal olmayan ile karşılaştırın.

doğrusal model

#fundamentals

Tahminler yapmak için özellik başına bir ağırlık atayan model. (Doğrusal modeller de önyargı içerir.) Buna karşılık, derin modellerde özelliklerin tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolaydır ve derin modellere kıyasla daha anlaşılabilirdir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, doğrusal modellerin iki türüdür.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyon ile mantıksal regresyon arasındaki farkları öğrenin. Ayrıca, regresyonu sınıflandırma ile karşılaştırın.

mantıksal regresyon

#fundamentals

Bir olasılığı tahmin eden bir tür regresyon modeli. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategorik olmalıdır. Mantıksal regresyon terimi genellikle ikili mantıksal regresyonu, yani iki olası değeri olan etiketler için olasılıkları hesaplayan bir modeli ifade eder. Daha az yaygın bir varyant olan çok değişkenli mantıksal regresyon, ikiden fazla olası değere sahip etiketlerin olasılıklarını hesaplar.
  • Eğitim sırasındaki kayıp işlevi Log Loss'tur. (İkiden fazla olası değere sahip etiketler için paralel olarak birden fazla Log Loss birimi yerleştirilebilir.)
  • Model, derin sinir ağı değil doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketler için olasılıkları tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olma olasılığını hesaplayan mantıksal regresyon modelini düşünün. Çıkarma sırasında modelin 0, 72 tahmin ettiğini varsayalım. Bu nedenle model şunu tahmin eder:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olma olasılığı% 28'dir.

Mantıksal regresyon modeli aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinin doğrusal bir işlevini uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini bir sigmoid işlevine girdi olarak kullanır. Bu işlev, ham tahmini 0 ile 1 arasında (dahil değil) bir değere dönüştürür.

Her regresyon modelinde olduğu gibi mantıksal regresyon modeli de bir sayıyı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modelinin parçası olur:

  • Tahmin edilen sayı sınıflandırma eşiğinden daha yüksekse ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı sınıflandırma eşiğinden az ise ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Günlük kaybı

#fundamentals

İkili mantıksal regresyonda kullanılan kayıp işlevi.

log olasılığı

#fundamentals

Bir olayın olasılığının logaritması.

mağlubiyet

#fundamentals

Gözetimli bir modelin eğitimi sırasında modelin tahmininin etiketinden ne kadar uzak olduğunu gösteren bir ölçümdür.

Kayıp işlevi, kaybı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim iterasyonlarının sayısına bağlı olarak kayıp grafiği. Aşağıdaki grafikte tipik bir kayıp eğrisi gösterilmektedir:

İlk iterasyonlarda kayıpta hızlı bir düşüş, ardından kademeli bir düşüş ve son iterasyonlarda düz bir eğim gösteren, kayıp ve eğitim iterasyonları arasındaki Kartezyen grafik.

Kayıp eğrileri, modelinizin ne zaman yakınlaştığını veya aşırı uyum sağladığını belirlemenize yardımcı olabilir.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Genelleştirme eğrisi konusuna da göz atın.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, bir toplu örnekteki kaybı hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminler yapan modeller için kötü tahminler yapan modellere kıyasla daha düşük bir kayıp döndürür.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı kayıp işlevi vardır. Oluşturduğunuz model türü için uygun kayıp işlevini seçin. Örneğin:

M

makine öğrenimi

#fundamentals

Giriş verilerinden model eğiten bir program veya sistem. Eğitilmiş model, modelin eğitilmesinde kullanılan dağıtımla aynı dağıtımdan alınan yeni (daha önce hiç görülmemiş) verilerden yararlı tahminler yapabilir.

Makine öğrenimi, bu programlar veya sistemlerle ilgili çalışma alanını da ifade eder.

çoğunluk sınıfı

#fundamentals

Sınıf dengesi bozuk bir veri kümesinde daha yaygın olan etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi verildiğinde negatif etiketler çoğunluk sınıfıdır.

Azınlık sınıfıyla karşılaştırın.

mini grup

#fundamentals

Bir iterasyonda işlenen grup'un rastgele seçilmiş küçük bir alt kümesi. Mini bir grubun grup boyutu genellikle 10 ila 1.000 örnek arasındadır.

Örneğin, eğitim veri kümesinin tamamının (tam grup) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her mini grubun grup boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle her iterasyon, 1.000 örnekten rastgele 20'sinde kaybı belirler ve ardından ağırlıkları ve önyargıları buna göre ayarlar.

Mini bir gruptaki kaybı hesaplamak, tam gruptaki tüm örneklerdeki kayıptan çok daha verimlidir.

azınlık sınıfı

#fundamentals

Sınıf dengesi bozuk veri kümesinde daha seyrek görülen etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi verildiğinde pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfıyla kontrast oluşturur.

model

#fundamentals

Genel olarak, giriş verilerini işleyip çıkış döndüren tüm matematiksel yapılardır. Başka bir deyişle, model, bir sistemin tahminde bulunması için gereken parametre ve yapı grubudur. Gözetimli makine öğrenimi'nde model, giriş olarak bir örnek alır ve çıkış olarak bir tahmin çıkarır. Gözetimli makine öğrenimi modelleri birbirinden biraz farklıdır. Örneğin:

  • Doğrusal regresyon modeli, bir ağırlıklar kümesinden ve bir önyargıdan oluşur.
  • Nöral ağ modeli şunları içerir:
    • Her biri bir veya daha fazla nöron içeren bir dizi gizli katman.
    • Her bir nöronla ilişkili ağırlıklar ve önyargılar.
  • Karar ağacı modeli şunları içerir:
    • Ağacın şekli, yani koşulların ve yaprakların bağlı olduğu desen.
    • Koşullar ve yapraklar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu modeller genellikle bir giriş örneğini en uygun kümeyle eşleyebilen bir işlevdir.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinin ikiden fazla sınıf etiketi içerdiği bir sınıflandırma problemi. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Iris setosa
  • Iris virginica
  • Iris versicolor

Iris veri kümesinde eğitilen ve yeni örneklerde Iris türünü tahmin eden bir model çok sınıflı sınıflandırma gerçekleştirir.

Buna karşılık, tam olarak iki sınıfı ayırt eden sınıflandırma problemleri ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil değerini tahmin eden bir e-posta modeli ikili sınıflandırma modelidir.

Küme oluşturma sorunlarında çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

H

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği şey veya etkinliktir ve negatif sınıf diğer olasılıktır. Örneğin:

  • Bir tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcısındaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile karşılaştırın.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin nöral ağ, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren derin bir sinir ağı gösterilmektedir.

Giriş katmanı, iki gizli katman ve çıkış katmanı olan bir sinir ağı.

Bir nöral ağdaki her nöron, sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada ilk gizli katmandaki üç nöronun her birinin ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığını görebilirsiniz.

Bilgisayarlarda uygulanan nöral ağlar, beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt edilmek için bazen yapay nöral ağlar olarak adlandırılır.

Bazı sinir ağları, farklı özellikler ile etiket arasındaki son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Evrişimli nöral ağ ve yinelemeli nöral ağ hakkında da bilgi edinin.

nöron

#fundamentals

Makine öğrenimindeki nöral ağ gizli katmanında bulunan ayrı bir birimdir. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin ilgili ağırlıklarıyla çarpımının ağırlıklı toplamını hesaplar.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine giriş olarak iletir.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden gelen girişleri kabul eder. İlk katmanın dışındaki herhangi bir gizli katmandaki nöron, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, ilk gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki görselde iki nöron ve girişleri vurgulanmaktadır.

Giriş katmanı, iki gizli katman ve çıkış katmanı olan bir sinir ağı. İki nöron vurgulanır: biri ilk gizli katmanda, diğeri ise ikinci gizli katmanda. İlk gizli katmandaki vurgulanan nöron, giriş katmanındaki iki özellikten de giriş alır. İkinci gizli katmandaki vurgulanan nöron, ilk gizli katmandaki üç nöronun her birinden giriş alır.

Nöral ağdaki bir nöron, beyinlerdeki ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışını taklit eder.

düğüm (nöral ağ)

#fundamentals

Gizli katman'daki bir nöron.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilemeyen ilişki. Doğrusal bir ilişki çizgi olarak temsil edilebilir; doğrusal olmayan bir ilişki çizgi olarak temsil edilemez. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki model düşünün. Soldaki model doğrusal, sağdaki model ise doğrusal olmayan bir modeldir:

İki arsa. Bir nokta bir çizgi olduğundan bu doğrusal bir ilişkidir.
          Diğer grafik bir eğri olduğundan bu doğrusal olmayan bir ilişkidir.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, aşağıdaki durağan olmayan örnekleri inceleyin:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede hasat edilen belirli bir meyvenin miktarı yılın büyük bir bölümünde sıfırdır ancak kısa bir süre için büyüktür.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Değişmezlik ile karşılaştırın.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme işlemidir. Örneğin:

  • -1 ila +1
  • 0 ila 1
  • Z puanları (yaklaşık olarak -3 ile +3 arasında)

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri -1 ile +1 gibi standart bir aralığa normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde yaygın bir işlemdir. Özellik vektöründeki her sayısal özellik yaklaşık olarak aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler yapar).

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'nun Sayısal Verilerle Çalışma modülüne bakın. Z puanı normalleştirme konusuna da bakın.

sayısal veriler

#fundamentals

Tam sayı veya gerçek değerli sayı olarak temsil edilen özellikler. Örneğin, bir ev değerleme modeli muhtemelen bir evin büyüklüğünü (metrekare cinsinden) sayısal veriler olarak temsil eder. Bir özelliğin sayısal veri olarak gösterilmesi, özelliğin değerlerinin etiketle matematiksel bir ilişkisi olduğunu gösterir. Yani bir evin metrekare sayısı, muhtemelen evin değeriyle matematiksel bir ilişkiye sahiptir.

Tüm tam sayı verileri sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı bölgelerinde posta kodları tam sayılardır. Ancak tam sayı posta kodları modellerde sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 posta kodunun 10000 posta kodunun iki katı (veya yarısı) kadar güçlü olmamasıdır. Ayrıca, farklı posta kodları farklı emlak değerleriyle ilişkili olsa da 20000 posta kodundaki emlak değerlerinin 10000 posta kodundaki emlak değerlerinin iki katı olduğunu varsayamazsınız. Posta kodları bunun yerine kategorik veri olarak temsil edilmelidir.

Sayısal özellikler bazen sürekli özellikler olarak adlandırılır.

O

çevrimdışı

#fundamentals

static eş anlamlısıdır.

Çevrimdışı çıkarım

#fundamentals

Bir modelin tahmin grubu oluşturması ve ardından bu tahminleri önbelleğe alması (kaydetmesi) işlemi. Uygulamalar daha sonra modeli yeniden çalıştırmak yerine önbellekten çıkarılan tahmine erişebilir.

Örneğin, dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Sistem, her model çalıştırmasından sonra tüm yerel hava tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile karşılaştırın.

tek sıcak kodlama

#fundamentals

Kategorik verileri aşağıdakileri içeren bir vektör olarak temsil etme:

  • Bir öğe 1 olarak ayarlanır.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama, sonlu sayıda olası değere sahip dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Bir sıcak kodlama sayesinde model, beş ülkenin her birine göre farklı bağlantılar öğrenebilir.

Bir özelliği sayısal veri olarak temsil etmek, tek sıcak kodlamaya alternatiftir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçim değildir. Örneğin, aşağıdaki sayısal gösterimi ele alalım:

  • "Danimarka" için 0 değerini girin.
  • "İsveç" 1
  • "Norveç" 2
  • "Finlandiya" 3
  • "Iceland" 4 değerini alır.

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayılarla eğitim vermeye çalışır. Ancak İzlanda, Norveç'in iki katı (veya yarısı) kadar bir şeye sahip değildir. Bu nedenle model, bazı garip sonuçlara varır.

bire karşı hepsi

#fundamentals

N sınıf içeren bir sınıflandırma problemi için N ayrı ikili sınıflandırıcıdan oluşan bir çözüm (olası her sonuç için bir ikili sınıflandırıcı). Örneğin, örnekleri hayvan, sebze veya mineral olarak sınıflandıran bir model verildiğinde, bire karşı tüm çözüm aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan ve hayvan olmayan
  • sebze ve sebze olmayan
  • mineral ve mineral olmayan

online

#fundamentals

Dinamik kelimesinin eş anlamlısıdır.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş aktardığını ve tahmin isteği gönderdiğini varsayalım. Online çıkarım kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarım ile karşılaştırın.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki görselde, giriş katmanı, iki gizli katman ve çıkış katmanı bulunan küçük bir derin sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Eğitim verileriyle o kadar benzer bir model oluşturmak ki model yeni verilerle ilgili doğru tahminler yapamaz.

Düzenleme, aşırı uyumu azaltabilir. Büyük ve çeşitli bir eğitim veri kümesinde eğitim yapmak da aşırı uyumu azaltabilir.

P

pandalar

#fundamentals

numpy üzerine inşa edilmiş sütun odaklı bir veri analizi API'si. TensorFlow da dahil olmak üzere birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekler. Ayrıntılar için pandas belgelerine bakın.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve önyargılar. Örneğin, bir doğrusal regresyon modelinde parametreler, aşağıdaki formülün önyargı (b) ve tüm ağırlıklarından (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hiperparametre, sizin (veya bir hiperparametre ayarlama hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme hızı bir hiper parametredir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcısındaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile karşılaştırın.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra modelin çıktısını ayarlama. Son işlem, modelleri değiştirmeden adaletli olma kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, bir sınıflandırma eşiği ayarlayarak ikili sınıflandırıcıya son işlem uygulayabilirsiniz. Bu sınıflandırma eşiği, gerçek pozitif oranının söz konusu özelliğin tüm değerleri için aynı olduğunu kontrol ederek bazı özelliklerde fırsat eşitliğini korur.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modelinin tahmini, pozitif sınıf veya negatif sınıftır.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinin tahmini bir sayıdır.

proxy etiketleri

#fundamentals

Doğrudan bir veri kümesinde bulunmayan etiketleri yaklaşık olarak belirlemek için kullanılan veriler.

Örneğin, çalışan stres düzeyini tahmin edecek bir model eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmini özellik içeriyor ancak stres seviyesi adlı bir etiket içermiyor. Buna rağmen stres seviyesi için proxy etiketi olarak "iş yerindeki kazalar"ı seçersiniz. Sonuçta, yüksek stres altındaki çalışanlar sakin çalışanlara kıyasla daha fazla kaza geçirir. Yoksa değil mi? İşyerinde yaşanan kazaların artmasının ve azalmasının birden fazla nedeni olabilir.

İkinci bir örnek olarak, yağmur yağıyor mu? ifadesinin veri kümeniz için mantıksal bir etiket olmasını istediğinizi ancak veri kümenizin yağmur verileri içermediğini varsayalım. Fotoğraf varsa yağmur yağıyor mu? için proxy etiketi olarak şemsiye taşıyan insanların resimlerini ekleyebilirsiniz. Bu iyi bir proxy etiketi mi? Olası. Ancak bazı kültürlerdeki insanların yağmurdan korunmak için değil, güneşten korunmak için şemsiye kullanma olasılığı daha yüksek olabilir.

Proxy etiketleri genellikle kusurludur. Mümkün olduğunda proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında proxy etiketini çok dikkatli bir şekilde seçin.

K

RAG

#fundamentals

Almayla artırılmış üretim kısaltması.

puan veren

#fundamentals

Örnekler için etiketler sağlayan bir kullanıcı. "Notlandırıcı", derecelendiricinin başka bir adıdır.

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise sonuç 0 olur.
  • Giriş pozitifse çıkış girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun grafiği aşağıda verilmiştir:

İki çizginin Kartezyen grafiği. İlk satırda, -infinity,0 ile 0,-0 arasında x ekseni boyunca uzanan sabit bir y değeri vardır.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

ReLU, çok popüler bir aktivasyon işlevidir. Basit davranışına rağmen ReLU, sinir ağının özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesine olanak tanır.

regresyon modeli

#fundamentals

Resmi olmayan bir ifadeyle, sayısal tahmin oluşturan bir model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelidir:

  • Belirli bir evin değerini avro cinsinden tahmin eden bir model (ör. 423.000).
  • Belirli bir ağacın yaşam süresini yıl cinsinden tahmin eden bir model (ör.23,2).
  • Belirli bir şehirde önümüzdeki altı saat içinde yağacak yağmurun inç cinsinden miktarını (ör.0, 18) tahmin eden bir model.

Sık kullanılan iki regresyon modeli türü şunlardır:

  • Etiket değerlerini özelliklere en iyi uyan çizgiyi bulan doğrusal regresyon.
  • Mantıksal regresyon: Bir sistemin genellikle sınıf tahminiyle eşleştirdiği 0,0 ile 1,0 arasında bir olasılık oluşturur.

Sayısal tahminler veren her model regresyon modeli değildir. Bazı durumlarda, sayısal tahmin aslında sınıf adları sayısal olan bir sınıflandırma modelidir. Örneğin, sayısal bir posta kodunu tahmin eden bir model, regresyon modeli değil sınıflandırma modelidir.

normalleştirme

#fundamentals

Aşırı uyum'u azaltan herhangi bir mekanizma. Popüler normalleştirme türleri şunlardır:

Düzenleme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında normalleştirmenin göreceli önemini belirten bir sayı. Düzenleme oranını artırmak aşırı uyumu azaltır ancak modelin tahmin gücünü azaltabilir. Buna karşılık, normalleştirme oranını azaltmak veya çıkarmak aşırı uyumu artırır.

ReLU

#fundamentals

Düzeltilmiş Doğrusal Birim kısaltması.

almayla artırılmış üretim (RAG)

#fundamentals

Model eğitildikten sonra alınan bilgi kaynaklarını temel alarak büyük dil modeli (LLM) çıktısının kalitesini artırmaya yönelik bir teknik. RAG, eğitilmiş LLM'ye güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişim sağlayarak LLM yanıtlarının doğruluğunu artırır.

Almayla artırılmış üretimi kullanmanın yaygın nedenleri arasında şunlar bulunur:

  • Modelin ürettiği yanıtların gerçeklik doğruluğunu artırma.
  • Modele, eğitilmediği bilgilere erişim izni verme.
  • Modelin kullandığı bilgileri değiştirme
  • Modelin kaynaklardan alıntı yapmasını etkinleştirme.

Örneğin, bir kimya uygulamasının kullanıcı sorgularıyla ilgili özetler oluşturmak için PaLM API'yi kullandığını varsayalım. Uygulamanın arka ucu bir sorgu aldığında arka uç:

  1. Kullanıcının sorgusuyla alakalı verileri arar ("alır").
  2. İlgili kimya verilerini kullanıcının sorgusuna ekler ("artırma").
  3. LLM'ye, eklenen verilere göre bir özet oluşturmasını söyler.

ROC (alıcı çalışma özelliği) eğrisi

#fundamentals

İkili sınıflandırmada farklı sınıflandırma eşikleri için gerçek pozitif oranı ve yanlış pozitif oranı grafiği.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif örnek ve solda 7 negatif örnek içeren bir sayı çizgisi.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise gerçek pozitif orandır. Eğri, ters L şeklindedir. Eğri (0,0,0) ile başlar ve doğrudan (0,1,0) değerine kadar gider. Ardından eğri (0,0; 1,0) noktasından (1,0; 1,0) noktasına gider.

Buna karşılık, aşağıdaki görselde, negatif sınıfları pozitif sınıflardan ayıramayan kötü bir modelin ham mantıksal regresyon değerleri grafik halinde gösterilmektedir:

Pozitif örneklerin ve negatif sınıfların tamamen birbirine karıştığı bir sayı çizgisi.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

Aslında (0,0) ile (1,1) arasında bir doğru olan ROC eğrisi.

Bu arada gerçek dünyada, çoğu ikili sınıflandırma modeli pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle mükemmel bir şekilde ayırmaz. Bu nedenle, tipik bir ROC eğrisi iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise gerçek pozitif orandır. ROC eğrisi, pusulayı batıdan kuzeye doğru kesen sarsıntılı bir yayın yaklaşık bir temsilidir.

ROC eğrisinde (0,0; 1,0) noktasına en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak gerçek dünyadaki diğer bazı sorunlar, ideal sınıflandırma eşiğinin seçimini etkiler. Örneğin, yanlış negatifler yanlış pozitiflerden çok daha fazla soruna yol açıyor olabilir.

AUC adlı sayısal metrik, ROC eğrisini tek bir kayan nokta değeri olarak özetler.

Kök ortalama kare hatası (RMSE)

#fundamentals

Ortalama Karesel Hatanın karekökü.

S

sigmoid işlevi

#fundamentals

Bir giriş değerini genellikle 0 ila 1 veya -1 ila +1 arasında olan kısıtlanmış bir aralığa "sıkıştıran" matematiksel bir işlevdir. Yani herhangi bir sayıyı (iki, bir milyon, eksi milyar vb.) bir sigmoid'e iletebilirsiniz ve çıkış yine de sınırlı aralıkta olur. Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5&#39;tedir ve x&#39;in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Sigmoid işlevinin makine öğrenimindeki çeşitli kullanım alanları şunlardır:

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıf için olasılıkları belirleyen bir işlev. Olasılıklar toplamı tam olarak 1,0'a eşittir. Örneğin, aşağıdaki tabloda softmax'in çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örnekleme ile karşılaştırın.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrektir. Buna karşılık, yoğun bir özellik, çoğunlukla sıfır veya boş olmayan değerlere sahiptir.

Makine öğrenimindeki şaşırtıcı sayıda özellik seyrek özelliktir. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, bir ormandaki 300 olası ağaç türünden tek bir örnekte yalnızca akçaağaç bulunabilir. Video kitaplığındaki milyonlarca videodan tek bir örnekte yalnızca "Casablanca" bulunabilir.

Bir modelde, seyrek özellikleri genellikle tek sıcak kodlama ile temsil edersiniz. Tek sıcak kodlama büyükse daha fazla verimlilik için tek sıcak kodlamanın üzerine bir gömülü katman yerleştirebilirsiniz.

seyrek gösterim

#language
#fundamentals

Seyrek bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca, her örnek'in yalnızca tek bir türü tanımladığını varsayalım.

Her örnekteki ağaç türlerini temsil etmek için tek sıcaklık değerine sahip bir vektör kullanabilirsiniz. Tek sıcak vektör, tek bir 1 (bu örnekteki belirli ağaç türünü temsil etmek için) ve 35 0 (bu örnekte bulunmayan 35 ağaç türünü temsil etmek için) içerir. Dolayısıyla maple için tek sıcak temsil aşağıdaki gibi görünebilir:

0 ile 23 arasındaki konumların 0 değerini, 24. konumun 1 değerini ve 25 ile 35 arasındaki konumların 0 değerini tuttuğu bir vektör.

Alternatif olarak, seyrek temsil, belirli türün konumunu tanımlar. maple 24. sıradaysa maple için seyrek gösterim şu şekilde olur:

24

Seyrek temsilin tek sıcak temsile kıyasla çok daha kompakt olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca seyrek özellik ve seyreklik konularına da bakın.

kare kaybı

#fundamentals

L2 kaybı ile eş anlamlıdır.

statik

#fundamentals

Sürekli olarak değil, bir kez yapılan bir işlem. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğrenimindeki statik ve çevrimdışı özelliklerinin yaygın kullanım alanları aşağıda verilmiştir:

  • Statik model (veya çevrimdışı model), bir kez eğitilen ve ardından bir süre kullanılan bir modeldir.
  • Statik eğitim (veya çevrimdışı eğitim), statik bir modeli eğitme sürecidir.
  • Statik çıkarım (veya çevrimdışı çıkarım), bir modelin tek seferde bir grup tahmin oluşturduğu bir işlemdir.

Dinamik ile karşılaştırın.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen bir özellik. Örneğin, 2021 ve 2023'te değerleri yaklaşık olarak aynı olan bir özellik durağandır.

Gerçek dünyada çok az sayıda özellik durağanlık gösterir. Kararlılıkla eş anlamlı özellikler (deniz seviyesi gibi) bile zaman içinde değişir.

Değişkenlik ile karşılaştırın.

stokastik gradyan inişi (SGD)

#fundamentals

Grup boyutunun bir olduğu bir gradyan azalma algoritması. Diğer bir deyişle, SGD, eğitim veri kümesinden rastgele seçilen tek bir örnek üzerinde eğitilir.

gözetimli makine öğrenimi

#fundamentals

Özellikler ve ilgili etiketlerinden model eğitme. Gözetimli makine öğrenimi, bir konuyu öğrenmek için bir dizi soru ve ilgili yanıtları incelemeye benzer. Sorular ile yanıtlar arasındaki eşleştirmeyi öğrendikten sonra öğrenciler aynı konuyla ilgili yeni (daha önce görülmemiş) sorulara yanıt verebilir.

Gözetimsiz makine öğrenimiyle karşılaştırın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazlasından derlenen bir özellik. Sentetik özellikler oluşturma yöntemleri şunlardır:

  • Sürekli bir özelliği aralık kaplarına paketlere ayırma.
  • Özellik çaprazlaması oluşturma.
  • Bir özellik değerinin diğer özellik değerleriyle veya kendisiyle çarpılması (veya bölünmesi). Örneğin, a ve b giriş özellikleriyse aşağıdakiler sentetik özelliklere örnektir:
    • ab
    • a2
  • Bir özellik değerine aşkın bir fonksiyon uygulama. Örneğin, c bir giriş özelliğiyse aşağıdakiler sentetik özelliklere örnek gösterilebilir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak kabul edilmez.

T

test kaybı

#fundamentals

Bir modelin test veri kümesine göre kayıp değerini temsil eden bir metrik. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının düşük eğitim kaybı veya düşük doğrulama kaybı olduğundan daha güçlü bir kalite sinyali olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasındaki büyük bir fark, bazen normalleştirme oranını artırmanız gerektiğini gösterir.

eğitim

#fundamentals

Model içeren ideal parametreleri (ağırlıklar ve önyargılar) belirleme süreci. Eğitim sırasında sistem örnek verileri okur ve parametreleri kademeli olarak ayarlar. Eğitimde her örnek birkaç kez ila milyarlarca kez kullanılır.

eğitim kaybı

#fundamentals

Belirli bir eğitim iterasyonunda modelin kayıp değerini temsil eden bir metrik. Örneğin, kayıp işlevinin ortalama kare hatası olduğunu varsayalım. 10.iterasyonun eğitim kaybı (ortalama kare hata) 2,2, 100.iterasyonun eğitim kaybı ise 1,9 olabilir.

Kayıp eğrisi, eğitim kaybını iterasyon sayısına göre gösterir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru bir eğim, modelin iyileştiğini gösterir.
  • Yukarı doğru bir eğim, modelin kötüye gittiğini gösterir.
  • Düz bir eğim, modelin yakınsamaya ulaştığını gösterir.

Örneğin, aşağıdaki biraz idealize edilmiş kayıp eğrisi şunu gösterir:

  • İlk iterasyonlar sırasında hızlı bir model iyileşmesi anlamına gelen dik bir aşağı eğim.
  • Eğitimin sonuna yakın bir zamana kadar kademeli olarak düzleşen (ancak yine de aşağı doğru) bir eğim. Bu, modelin ilk iterasyonlara kıyasla biraz daha yavaş bir hızda iyileşmeye devam ettiğini gösterir.
  • Eğimin eğitim sonuna doğru düzleşmesi, yakınsama olduğunu gösterir.

Eğitim kaybının yinelemelere göre grafiği. Bu kayıp eğrisi, dik bir aşağı eğimle başlar. Eğim, sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da genelleştirme konusuna da göz atın.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasındaki performansı ile aynı modelin yayınlama sırasındaki performansı arasındaki fark.

eğitim seti

#fundamentals

Modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye ayrılır:

İdeal olarak, veri kümesindeki her örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim veri kümesine hem de doğrulama veri kümesine ait olmamalıdır.

Doğru negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam olmadığını tahmin eder ve bu e-posta mesajı gerçekten spam değildir.

gerçek pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olduğunu tahmin eder ve bu e-posta iletisi gerçekten spam olur.

gerçek pozitif oranı (TPR)

#fundamentals

Hatırlama ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisinde y eksenidir.

U

yetersiz uyum

#fundamentals

Eğitim verilerinin karmaşıklığını tam olarak yakalayamadığı için tahmin gücü düşük bir model oluşturma. Aşağıdakiler dahil birçok sorun, modelin yetersiz uyum sağlamasına neden olabilir:

etiketsiz örnek

#fundamentals

Özellikler içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınan, her biri üç özelliğe sahip ancak ev değeri olmayan üç etiketsiz örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğrenimi modelleri, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler hakkında tahminde bulunur.

Yarı denetimli ve denetimsiz öğrenmede, eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketsiz örneği etiketli örnekle karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Genellikle etiketlenmemiş bir veri kümesinde kalıpları bulmak için bir model eğitme.

Gözetimli olmayan makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplara kümelendirmektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre gruplandırabilir. Elde edilen kümeler, diğer makine öğrenimi algoritmalarının (ör. müzik önerisi hizmeti) girişi olabilir. Yararlı etiketler az sayıda olduğunda veya hiç olmadığında kümeleme yardımcı olabilir. Örneğin, kötüye kullanım ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Denetimli makine öğrenimiyle karşılaştırın.

V

doğrulama

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama veri kümesiyle karşılaştırarak kontrol eder.

Doğrulama veri kümesi eğitim veri kümesinden farklı olduğundan doğrulama, aşırı uyum sorununa karşı koruma sağlar.

Modeli doğrulama kümesiyle test etmeyi ilk test turu, test kümesiyle test etmeyi ise ikinci test turu olarak düşünebilirsiniz.

doğrulama kaybı

#fundamentals

Belirli bir iterasyonda modelin doğrulama kümesindeki kayıp değerini temsil eden bir metrik.

Genelleştirme eğrisi konusuna da göz atın.

doğrulama kümesi

#fundamentals

Eğitilmiş bir model ile ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle, eğitilen modeli test kümesiyle değerlendirmeden önce doğrulama kümesiyle birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim veri kümesine hem de doğrulama veri kümesine ait olmamalıdır.

W

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme işlemidir; çıkarım ise tahminde bulunmak için bu öğrenilen ağırlıkları kullanma işlemidir.

ağırlıklı toplam

#fundamentals

Alakalı tüm giriş değerlerinin toplamı ile ilgili ağırlıkların çarpımı. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Ağırlıklı toplam şu şekildedir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevinin giriş bağımsız değişkenidir.

Z

Z puanı normalleştirmesi

#fundamentals

Ham özellik değerini, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniği. Örneğin, ortalaması 800 ve standart sapması 100 olan bir özellik düşünün. Aşağıdaki tabloda, Z-skor normalleştirmesinin ham değeri Z-skoruyla nasıl eşleyeceği gösterilmektedir:

İşlenmemiş değer Z puanı
800 0
950 +1,5
575 -2,25

Ardından makine öğrenimi modeli, ham değerler yerine söz konusu özellik için Z puanları üzerinde eğitilir.