Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Bu sayfa Makine Öğrenimiyle İlgili Temel Bilgiler sözlük terimlerini içerir. Tüm sözlük terimleri için burayı tıklayın.

A

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin sayısının bölümü toplam tahmin sayısına göre bölersiniz. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru, 10 tanesi de yanlış tahminde bulunan bir model tahminlerin doğruluğu şu şekilde olacaktır:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma belirli adlar sağlar. doğru tahmin kategorilerinin yanı sıra yanlış tahminlere neden olabilir. İkili sınıflandırmanın doğruluk formülü, şu şekildedir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu karşılaştırma ve değerlendirme hassas ve geri çağırma

aktivasyon fonksiyonu

#fundamentals

Nöral ağların öğrenmesini sağlayan bir işlev Özellikler arasındaki nonlinear (karmaşık) ilişkiler ve etiket.

Popüler etkinleştirme işlevleri şunlardır:

Aktivasyon fonksiyonlarının grafikleri hiçbir zaman tek düz çizgi değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgi:

İki çizgili kartezyen çizim. İlk satırda sabit değer var
          x ekseni boyunca -sonsuz, 0 ile 0,-0 arasında değişen, y değerinin 0 olduğunu varsayalım.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1'dir, yani
          0,0 ile +sonsuz,+sonsuz arasında değişir.

Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

Alanı kapsayan x değerlerinin yer aldığı iki boyutlu, eğri grafik
          -sonsuzdan +pozitife, y değerleri ise neredeyse 0 -
          neredeyse 1. x 0 olduğunda y de 0, 5 olur. Eğrinin eğimi her zaman
          pozitif, en yüksek eğim 0,0,5'te ve kademeli olarak azalan
          x'in mutlak değeri arttıkça eğimi de görebilirsiniz.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan harici bir program veya model. Örneğin, çevirisini yapan bir program veya model, hastalıkları tespit eden radyolojik görüntülerin her ikisi de yapay zeka sergiliyor.

Makine öğrenimi, resmî olarak yapay zekanın zekâ. Ancak, son yıllarda bazı kuruluşlar Google Ads'deki yapay zeka ve makine öğrenimi terimlerini birbirinin yerine geçecek şekilde kullanıyor.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

0,0 ile 1,0 arasında bir sayı olan ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflar. EUC'nin 1,0'a ne kadar yakın olması, modelin bir şeyler öğrenmeye başlar.

Örneğin, aşağıdaki resimde bir sınıflandırıcı modeli gösterilmektedir pozitif sınıfları (yeşil ovaller) negatif sınıflardan ayıran (mor dikdörtgenler) oluşturabilirsiniz. Gerçekçi olmayan bu mükemmel model, 1,0 AUC:

Bir tarafında 8 pozitif örnek bulunan bir sayı doğrusu ve
          Diğer tarafta 9 olumsuz örnek var.

Buna karşılık, aşağıdaki resimde bir sınıflandırıcıya ilişkin sonuçlar gösterilmektedir modelimiz var. Bu modelin EUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek dizisi pozitif, negatif,
          pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif
          negatif, pozitif, negatif.

Evet, önceki modelin EUC'si 0,0 değil 0,5'tir.

Çoğu model iki uç noktanın arasında bir yerdedir. Örneğin, model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek sırası negatif, negatif, negatif, negatif,
          pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif,
          pozitif olmalıdır.

AUC, kendisi için ayarladığınız tüm değerleri yoksayar sınıflandırma eşiğine uyduğundan emin olun. Bunun yerine, AUC Olası tüm sınıflandırma eşiklerini dikkate alır.

B

geri yayılım

#fundamentals

Projeyi uygulayan algoritma gradyan iniş nöral ağlar.

Sinir ağını eğitmek birçok iterasyon gerektirir aşağıdaki iki geçişli döngünün geri kalanı:

  1. İleriye doğru hesaplama sırasında sistem şunları toplu olarak işler: örnekler aracılığıyla tahminleri sağlar. Sistem her bir müşterinin her label değeriyle ilişkilendirin. Artımlılık ile ilişkilendirme ve etiket değeri bu örnek için kayıp olur. Sistem, toplam hacmi hesaplamak amacıyla tüm örneklerde kayıp anlamına gelir.
  2. Geriye doğru hesaplama (geri yayılım) sırasında sistem, kayıpları tüm nöronların ağırlıklarını gizli katmanlar.

Nöral ağlar genellikle çok sayıda gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri toplam kayba farklı şekillerde katkıda bulunur. Geri yayılım, ağırlıkların artırılıp azaltılmayacağını belirler belirli nöronlara uygulanır.

Öğrenme hızı, kampanyanın dönüşüm oranını kontrol eden her bir geriye doğru hesaplamanın her ağırlığı artırma veya azaltma derecesi. Yüksek bir öğrenme hızı, her ağırlığı şundan daha fazla artırır veya azaltır: düşük bir öğrenim hızına sahiptir.

Analiz açısından, geri yayılım, zincir kuralına uygun olmalıdır. hesaplamadır. Yani geri yayılım, hatanın kısmi türevi dikkate alın.

Yıllar önce, makine öğrenimi uygulayıcılarının geri yayılımı uygulamak için kod yazmaları gerekiyordu. TensorFlow gibi modern ML API'leri artık sizin için geri yayılımı uyguluyor. Bora

grup

#fundamentals

Bir eğitimde kullanılan örnek kümesi iterasyon. Grup boyutu, aynı gruptaki örneklerin sayısını grubudur.

Bir grubun nasıl ilişkili olduğuyla ilgili açıklama için dönem bölümüne bakın bir dönem.

grup boyutu

#fundamentals

Bir gruptaki örnek sayısı. Örneğin, grup boyutu 100 ise model, İterasyon başına 100 örnek.

Popüler toplu boyut stratejileri şunlardır:

  • Stokastik Gradyan İniş (SGD): Grup boyutu 1'dir.
  • Grup boyutunun tamamındaki örnek sayısı olduğu tam grup eğitim seti. Örneğin, eğitim seti bir milyon örnek içeriyorsa grup boyutu bir milyon örnekler. Tam grup genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ve 1000. Mini toplu işlem genellikle en etkili stratejidir.

önyargı (etik/adillik)

#fairness
#fundamentals

1. Bazı şeylere, insanlara, insanlara ve diğerlerine göre daha fazla tercih edilir. Bu sapmalar veri toplama sürecini verilerin yorumlanması, sistemin tasarımı ve kullanıcıların etkileşime bunu aklınızda bulundurun. Bu tür önyargıların biçimleri şunlardır:

2. Örnekleme veya raporlama prosedürüyle ortaya çıkan sistematik hata. Bu tür önyargıların biçimleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi ile karıştırılmamalıdır ya da tahmin yanlılığı gibidir.

önyargı (matematik) veya yanlılık terimi

#fundamentals

Bir kaynağa uzaklık veya kesme noktası. Önyargı, yaygın olarak kullanılan bazı araçlar, takip etmek için:

  • h0

Örneğin, aşağıdaki formülde önyargı b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide yanlılık "y kesim noktası" anlamına gelir. Örneğin, aşağıdaki çizimde çizginin yanlılığı 2'dir.

Eğimi 0,5 ve yanlılığı (y kesim noktası) 2 olan bir çizginin grafiği.

Tüm modeller kaynak (0,0) kaynağından başlamadığı için yanlılık vardır. Örneğin, bir lunaparkın giriş ücretinin 2 avro ve Müşterinin konakladığı her saat için 0,5 avro. Bu nedenle, Arkadaş Bitkiler hizmetini en düşük maliyet 2 avro olduğundan toplam maliyet 2 eğilir.

Ön yargı, etik ve adalette ön yargıyla karıştırılmamalıdır ya da tahmin yanlılığı gibidir.

ikili program sınıflandırması

#fundamentals

Kapsamlı bir sınıflandırma görevi birbirini dışlayan iki sınıftan birini tahmin eder:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf).
  • Kişinin tıbbi belirtileri değerlendiren bir model olup olmadığını belirli bir hastalığı (olumlu sınıf) varsa veya o hastalığı yok negatif sınıf olarak değerlendirilir.

Çok sınıflı sınıflandırma ile kontrast oluşturun.

Ayrıca mantıksal regresyon ve sınıflandırma eşiğini kullanın.

paketleme

#fundamentals

Tek bir özelliği birden fazla ikili özelliğe dönüştürme paketler veya bölmeler olarak adlandırılır. bir değer aralığına dayalıdır. Doğranmış özellik genellikle Kesintisiz bir deneyim.

Örneğin, sıcaklığı tek bir değer olarak göstermek yerine, sürekli kayan nokta özelliğiyle, sıcaklık farklarını ayrı ayrı gruplandırmalar yapabilirsiniz, örneğin:

  • <= 10 santigrat derece sıcaklık için "soğuk" olur. paket.
  • 11 - 24 santigrat derece "ılıman" olur. paket.
  • >= 25 santigrat derece "sıcak" olur paket.

Model, aynı paketteki tüm değerleri aynı şekilde işler. Örneğin, Örneğin, 13 ve 22 değerleri ılıman pakette olduğundan modeli, iki değeri aynı şekilde işler.

C

kategorik veri

#fundamentals

Belirli olası değerler grubuna sahip özellikler. Örneğin, traffic-light-state adında bir kategorik özelliği düşünün. şu üç olası değerden birine sahip olursunuz:

  • red
  • yellow
  • green

traffic-light-state öğesini kategorik bir özellik olarak temsil ederek, proje yönetiminin red, green ve yellow ürünlerinin sürücü davranışı üzerindeki farklı etkileri.

Kategorik özellikler bazen iyi özellikler kullanmanız gerekir.

Sayısal verilerle kontrast oluşturun.

sınıf

#fundamentals

Etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Öte yandan regresyon modeli ise belirli bir sayıyı tahmin eder. bir kontrol noktası görevi görebilir.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıda tüm sınıflandırma modelleri yer almaktadır:

  • Bir giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca mı?).
  • Ağaç türlerini tahmin eden bir model (Maple? Meşe? Baobab?).
  • Belirli bir öğe için pozitif veya negatif sınıfı tahmin eden bir model tıbbi bir durum olup olmadığını kontrol edin.

Öte yandan regresyon modelleri, sayıları tahmin eder. tercih edebilirsiniz.

Yaygın olarak kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, 0 ile 1 arasında bir sayıdır ve bu değer, mantıksal regresyon modeli pozitif sınıfın veya negatif sınıfı kullanın. Sınıflandırma eşiğinin, kullanıcıların seçtiği bir değer olduğunu unutmayın. model eğitimi tarafından seçilen bir değer değildir.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer üretir. Ardından:

  • Bu ham değer sınıflandırma eşiğinden yüksekse olduğu tahmin edilir.
  • Bu ham değer sınıflandırma eşiğinden düşükse negatif sınıfın tahmin edildiğini unutmayın.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer değeri 0,9 ise model, pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yapılacak tıklama işlemlerinin yanlış pozitif ve yanlış negatifler.

sınıf dengesiz veri kümesi

#fundamentals

Toplam sayının eşit olarak sınıflandırıldığı bir sınıflandırma sorunu için Her sınıfa ait etiketler arasında önemli farklar var. Örneğin, iki etiketi bulunan bir ikili sınıflandırma veri kümesi şu şekilde bölünür:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitif etiketlere oranı 100.000'e 1'dir. Dolayısıyla bu, sınıf dengesiz bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesinde sınıf dengesizliği değildir çünkü negatif etiketlerin pozitif etiketlere oranı 1'e nispeten yakındır:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümelerinin sınıf dengesizliği de olabilir. Örneğin, çok sınıflı sınıflandırma veri kümesi de sınıf dengesizliğidir çünkü tek bir etiket diğer ikisinden çok daha fazla örnek içerir:

  • "Yeşil" sınıfını içeren 1.000.000 etiket
  • "Mor" sınıfını içeren 200 etiket
  • "turuncu" sınıfını içeren 350 etiket

Ayrıca bkz. entropi, çoğunluk sınıfı, ve azınlık sınıfı.

kırpma

#fundamentals

Aşağıdaki yöntemlerle aykırı değerleri ele almaya yönelik bir teknik: aşağıdakilerden biri ya da her ikisi:

  • Maksimum bir değerden büyük olan feature değerlerini azaltma maksimum eşiğe kadar düşürebilirsiniz.
  • Minimum eşiğin altında kalan özellik değerlerini bu değere kadar artırmak minimum eşiktir.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40-60 aralığının dışındadır. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar vererek bazen ağırlıklara neden olabilir yaygın risk türlerini ele alalım. Bazı aykırı hesaplar da doğruluk gibi metrikler vardır. Kırpma, en sık kullanılan tekniklerden biridir. olabilir.

Gradyan kırpma kuvvetleri gradyan değerleri için otomatik olarak ayarlanır.

karışıklık matrisi

#fundamentals

Doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu sınıflandırma modelinin yaptığı karşılaştırmadır. Örneğin, bir örnek için aşağıdaki karışıklık matrisini ikili sınıflandırma modeli:

Tümör (tahmini) Tümör olmayan (tahmin edilen)
Tümör (kesin referans) 18 (TP) 1 (yanlış negatif)
Tümör Olmayan (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisi aşağıdakileri gösterir:

  • Asıl doğrunun Tumor olduğu 19 tahminden bu model 18'i doğru şekilde sınıflandırmış ve 1'i yanlış sınıflandırmıştır.
  • Kesin doğruluğun Tümör Olmayan olduğu 458 tahmin arasından model, 452 doğru sınıflandırıldı ve 6 yanlış sınıflandırıldı.

Çok sınıflı sınıflandırma için karışıklık matrisi hata örüntülerini belirlemenize yardımcı olabilir. Örneğin, 3 sınıflı bir karmaşıklık matrisini Üç farklı iris türünü kategorize eden çok sınıflı sınıflandırma modeli (Virginica, Versicolor ve Setosa). Asıl doğru, Virginica olduğunda, karışıklık matrisi, modelin hatalı olarak karar verme ihtimalinin çok daha Versicolor'u Setosa'dan tahmin et:

  Setosa (tahmini) Versicolor (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Bir başka örnek daha vermek gerekirse, karışıklık matrisi, bir modelin yanlış şekilde 4 yerine 9'u tahmin edebilmektedir. veya yanlışlıkla 7 yerine 1'i tahmin edebiliriz.

Karışıklık matrisleri aşağıdaki hesaplamaya yetecek kadar bilgi içerir: hassaslık gibi çeşitli performans metrikleri ve geri çağırma.

kesintisiz özellik

#fundamentals

Sonsuz olası aralık içeren bir kayan nokta özelliği (ör. sıcaklık veya ağırlık)

Ayrı özellik ile kontrast oluşturun.

yakınsaklık

#fundamentals

loss değerleri çok az değiştiğinde veya her yinelemede hiç yok. Örneğin, kayıp eğrisi, yaklaşık 700 yinelemede yakınsaklığı işaret eder:

Kartezyen olay. X ekseni kayıptır. Y ekseni, eğitim sayısıdır
          iterasyonlar ile 
yürütüldüğü anlamına gelir. Kayıp, ilk birkaç iterasyonda çok yüksek olsa da
          keskin bir şekilde düşer. Yaklaşık 100 yinelemeden sonra kayıp
          kademeli olarak devam ediyor. Yaklaşık 700 yinelemeden sonra
          sabit kalmıyor.

Ek eğitim olmadığında model tümleşir modeli geliştirebilirsiniz.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya pek çok yinelemede sona ulaşılmadan önce neredeyse bu kadar. Uzun bir süre boyunca kaybolduğunda geçici olarak yanlış bir yakınsaklık hissi yaşayabilirsiniz.

Ayrıca bkz. erken durma.

D

DataFrame

#fundamentals

Temsil için popüler bir pandalar veri türü veri kümelerini kapsar.

DataFrame, tabloya veya elektronik tabloya benzer. Her bir sütun DataFrame'in bir adı (başlık) vardır ve her satır benzersiz bir sayıdır.

Bir DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Tek fark, her sütuna kendi veri türü atanabilir.

Ayrıca bakın: pandas.DataFrame referansı sayfasını ziyaret edin.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak özel olarak değil) tek bir yerde düzenlenmiş ham veri koleksiyonu şu biçimlerdedir:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

derin model

#fundamentals

Birden fazla sinirsel ağ gizli katman.

Derin model, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast oluşturun.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tümünün sıfır olmayan bir özellik. Genellikle, kayan nokta değerlerinden oluşan bir Tensor. Örneğin, 10 öğeli Tensor, değerlerinin 9'u sıfır olmadığından yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile kontrast oluşturun.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağ derinliği 6'dır.

Giriş katmanının en iyi uygulamaları paylaşacağız.

ayrık özellik

#fundamentals

Sınırlı bir olası değer grubuna sahip bir özellik. Örneğin, değeri yalnızca hayvan, sebze veya mineral olabilecek bir özellik, ayrık (veya kategorik) özellik olabilir.

Sürekli özellik ile kontrast.

dinamik

#fundamentals

Sık yapılan veya sürekli yapılan bir şey. Dinamik ve online terimleri, makine öğreniminin eş anlamlılarıdır. Aşağıda, dinamik ve online öğelerinin makinede yaygın kullanımları verilmiştir öğreniyor:

  • Dinamik model (veya online model) bir modeldir yeniden eğitilen bir grup olabilir.
  • Dinamik eğitim (veya online eğitim) bir eğitim sürecidir elde edebiliyorlar.
  • Dinamik çıkarım (veya online çıkarım), belirli bir talep üzerine tahmin oluşturmaktır.

dinamik model

#fundamentals

Sık sık (hatta sürekli olan) bir model yeniden eğitildi. Dinamik model "yaşam boyu öğrenen"dir verileri değişen verilere sürekli uyum sağlar. Dinamik model, online model.

Statik model ile kontrast oluşturun.

E

erken durdurma

#fundamentals

Sonlandırma içeren bir düzenleme yöntemi Eğitim kaybı tamamlanmadan önce eğitim azalmaktadır. Erken durdurma sırasında, modeli eğitmeyi bilinçli olarak durdurursunuz doğrulama veri kümesindeki kayıp increase; yani genelleme performansı kötüleşir.

yerleştirme katmanı

#language
#fundamentals

Gizli katman yüksek boyutlu kategorik özelliği daha alt boyutlu bir yerleştirme vektörünü yavaş yavaş öğrenir. yerleştirme katmanı, bir sinir ağının çok daha fazla kategorik özellikle ilgili eğitimden daha verimli bir şekilde

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Diyelim ki ağaç türü, modelinizin bir özelliktir. Dolayısıyla modelinizin giriş katmanında 73.000 adet tek sıcak vektör bulunuyor öğe uzunluğunda olmalıdır. Örneğin, baobab şuna benzer bir şekilde temsil edilir:

73.000 öğeli bir dizi. İlk 6.232 öğe,değeri
     0 Sonraki öğede 1 değeri bulunur. Nihai 66.767 öğe
     sıfır değerini alır.

73.000 öğelik bir dizi çok uzundur. Yerleştirme katmanı eklemezseniz sahip olduğu için eğitim çok zaman alacak. 72.999 tane sıfır ile çarpılır. Belki gömme katmanını seçmiş olursunuz. emin olun. Bunun sonucunda, yerleştirme katmanı, her ağaç türü için yeni bir yerleştirme vektörü olacak.

Belirli durumlarda, karma oluşturma makul bir alternatiftir. ekleme katmanıdır.

sıfır zaman

#fundamentals

Tüm eğitim setini kapsayan tam bir eğitim geçişi Böylece her bir örnek bir kez işlenmiştir.

Bir dönem, N/toplu boyutu temsil eder eğitim iterasyonları; burada N, sayısını göreceksiniz.

Örneğin, aşağıdakilerin geçerli olduğunu varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem 20 yineleme gerektirir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

örnek

#fundamentals

Bir özellik satırının değerleri ve muhtemelen etiket ekleyin. Örnekler: gözetimli öğrenme genel kategoriler:

  • Etiketli bir örnek, bir veya daha fazla özellikten oluşur. ve bir etiket ekleyin. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş bir örnek şunlardan oluşur: daha fazla özellik var ancak etiketsiz. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, etki düzeyini belirlemek için bir modeli eğittiğinizi hava koşullarının nasıl etkilendiğini göz önünde bulundurun. Aşağıda üç etiketli örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda üç etiketsiz örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesi satırı genellikle örneğin ham kaynağıdır. Yani bir örnek, genelde yeniden boyutlandırır. Ayrıca, bir örnekteki özellikler şunları da içerebilir: sentetik özellikler; örneğin, özellikler çakışıyor.

C

yanlış negatif (FN)

#fundamentals

Modelin rastgele bir şekilde negatif sınıf olarak değiştirin. Örneğin, model Belirli bir e-posta iletisinin spam olmadığını tahmin ederse (negatif sınıf) ancak bu e-posta iletisi aslında spam'dir.

yanlış pozitif (FP)

#fundamentals

Modelin rastgele bir şekilde olumlu bir sınıfa sahip olmanız gerekir. Örneğin, model, belirli bir e-posta iletisinin spam (olumlu sınıf) olduğunu, ancak E-posta iletisi aslında spam değildir.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla ihlal ettiği gerçek negatif örneklerin oranı pozitif sınıfı ile ilgili tahminidir. Aşağıdaki formül yanlış değerini hesaplar pozitif oran:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisindeki x eksenidir.

özellik

#fundamentals

Makine öğrenimi modeli için bir giriş değişkeni Örnek bir veya daha fazla özellikten oluşur. Örneğin, Yeşil Ofis projenizde modelini kullanmayı deneyin. Aşağıdaki tabloda her biri üç özellik ve bir etiket:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

label ile kontrast oluşturun.

özellik çapraz

#fundamentals

"Çapraz geçiş" ile oluşmuş bir sentetik özellik kategorik veya gruplandırılmış özellikler.

Örneğin, bir "ruh hali tahmini"ni düşünün. temsil eden bir sıcaklığa ihtiyacınız var:

  • freezing
  • chilly
  • temperate
  • warm

Ve aşağıdaki üç kovadan birindeki rüzgar hızını gösterir:

  • still
  • light
  • windy

Özellik kesişimleri olmadan, doğrusal model her bir şemanın önce yedi farklı grup bulunuyor. Bu nedenle model, örneğin freezing (örneğin, windy.

Alternatif olarak, sıcaklık özelliklerini kullanarak rüzgar hızı. Bu sentetik özellik için mümkün olan 12 değerleri:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Çapraz özellikler sayesinde model, ruh hali farklılıklarını öğrenebilir freezing-windy gün ile freezing-still gün arasında.

Her biri çok fazla ayrıntı içeren iki özellikten sentetik bir özellik oluşturuyorsanız her bir özellik grubuna dahil edilir, ortaya çıkan özellik çapraz kombinasyonudur. Örneğin, bir özellikte 1.000 paket varsa diğer özellikte 2.000 paket vardır. Elde edilen özellik çaprazı 2.000.000 paket.

Daha resmi olarak, bir çarpı Kartezyen ürün.

Özellik çaprazları çoğunlukla doğrusal modellerde ve nadiren kullanılır nöral ağlardaki yapay zeka sistemidir.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreçtir:

  1. Hangi özelliklerin faydalı olabileceğini belirleme bir model eğiteceğiz.
  2. Veri kümesindeki ham verileri verilerin verimli sürümlerine dönüştürmek özellikler.

Örneğin, temperature kategorisinin sizin için yararlı bir araç özelliğini kullanabilirsiniz. Daha sonra, gruplandırma ile denemeler yapabilirsiniz. modelin farklı temperature aralıklarından öğrenebileceğini optimize edin.

Özellik mühendisliği bazen özellik çıkarma veya özellikleştirme.

özellik grubu

#fundamentals

Makine öğreniminizin özellikleri grubu model eğitilir. Örneğin, posta kodu, mülk boyutu ve mülk durumu Konut fiyatlarını tahmin eden bir model için basit bir özellik kümesi oluşturmak.

özellik vektörü

#fundamentals

Şunları içeren feature değerleri dizisi örnek için daha fazla bilgi edinin. Özellik vektörü eğitim sırasında ve çıkarım sırasında görüntülenebilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şu olabilir.

[0.92, 0.56]

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri
          0,92 ve 0,56 değerini içeren diğeri.

Her örnek, özellik vektörü için farklı değerler sağlar, dolayısıyla özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özellikleri kullanılabilir. Örneğin, beş olası değerle temsil edilebilir tek kullanımlık kodlama. Bu durumda, özellik vektörü dört sıfır ve üçüncü konumda tek bir 1, 0 olarak kabul edilir:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • beş olası değere sahip ikili bir kategorik özellik tek kullanımlık kodlama; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • üç olası değerin temsil edildiği başka bir ikili kategorik özellik tek kullanımlık kodlama ile; örneğin: [0.0, 0.0, 1.0]
  • kayan nokta özelliği örneğin: 8.3.

Bu durumda, her bir örneğin özellik vektörü dokuz değere göre. Yukarıdaki listede yer alan örnek değerlere özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin sonucu etkiler. verileri eğitir. Örneğin, Yeşil Ofis’in kullanıcıların izlediği filmleri etkiler ve bu da ve sonraki film öneri modellerini etkilemektedir.

Y

genelleme

#fundamentals

Bir modelin yeni, gelişmiş, normal verilere uygulanır. Genelleme yapabilen bir model için ise tam tersi geçerlidir fazla uyumlu bir model.

genelleme eğrisi

#fundamentals

Hem eğitim kaybı hem de doğrulama kaybı: iterasyonlar.

Genelleme eğrisi, olası durumları fazla uyum. Örneğin, genelleme eğrisi fazla uyum sağlıyor çünkü doğrulama kaybı eğitim kaybından önemli ölçüde daha yüksektir.

Y ekseninin kayıp ve x ekseni olarak etiketlendiği Kartezyen grafiği
          iterasyonlar olarak etiketlenir. İki tane grafik gösteriliyor. Grafiklerden biri
          diğeri ise doğrulama kaybını gösterir.
          İki olay benzer şekilde başlıyor ama eğitim kaybı nihayetinde
          değeri doğrulama kaybından çok daha düşüktür.

gradyan iniş

#fundamentals

Kaybı en aza indirmek için kullanılan matematiksel teknik. Gradyan iniş yinelemeli olarak ayarlanır ağırlıklar ve ön yargılar, kaybı en aza indirmek için en iyi kombinasyonu bulmak üzere kademeli olarak kullanılır.

Gradyan iniş, makine öğreniminden çok daha eskidir.

gerçek doğru

#fundamentals

Gerçeklik.

Meydana gelen şey.

Örneğin, ikili sınıflandırmayı kullanabilirsiniz. bir öğrencinin üniversitenin ilk yılında olup olmadığını tahmin eden bir model mezun olur. Bu modele ilişkin gerçek doğru, bitirememesine neden olabilir.

H

gizli katman

#fundamentals

Bir sinir ağında bulunan katman giriş katmanı (özellikler) ve çıkış katmanı (tahmin). Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ iki gizli katman içerir: ilki üç nöron, ikincisi ise iki nöronludur:

Dört katmanlı. İlk katman, iki katman içeren bir giriş katmanıdır
          özellikleri. İkinci katman, aynı sayfada yer alan üç
          sinir hücreleri. Üçüncü katman, iki katmanın bulunduğu gizli bir katmandır.
          sinir hücreleri. Dördüncü katman bir çıktı katmanıdır. Her bir özellik
          her biri farklı bir nörona işaret eden üç kenar içerir
          yer alır. İkinci katmandaki nöronların her biri
          iki kenar içerir ve her biri farklı bir nörona işaret eder
          üçüncü katmanda yer alır. Üçüncü katmandaki nöronların her biri
          her biri çıktı katmanını işaret edecek şekilde bir kenara yerleştirilmelidir.

Derin nöral ağda birden fazla gizli katman. Örneğin, önceki çizimde derin sinirsel ağda iki katman bulunur.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin bir model eğitirken ayarlamalara yardımcı olur. Örneğin, öğrenme hızı bir hiperparametredir. Yapabilecekleriniz öğrenme hızını bir eğitim oturumundan önce 0,01 olarak ayarlayın. Şu durumda: çok yüksek olduğunu tespit edebiliyorsanız, öğrenme davranışını buna göre ayarlayabilirsiniz. oranını 0,003’e yükseltebilirsiniz.

Buna karşılık parametreler, ağırlıklar ve ön yargılar öğrenir.

I

bağımsız ve özdeş şekilde dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımdan alınan veriler ve her değerin önceden çizilen değerlere bağlı değildir. Kimliği ideal gazdır makinenin yararlı bir matematiksel yapıdır; ancak neredeyse hiçbir zaman görebilirsiniz. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı kimliği olabilir kısa bir süre içinde yani dağıtım kısa bir süre içinde değişir ve bir kişinin ziyareti genellikle ne olduğunu öğreneceğiz. Ancak bu zaman aralığını genişletirseniz Web sayfasının ziyaretçilerinde mevsimsel farklılıklar görülebilir.

Ayrıca bkz. durağansızlık.

çıkarım

#fundamentals

Makine öğreniminde, yeni bir araçla tahminde bulunma süreci etiketsiz örneklere eğitilmiş bir model uygulama.

Çıkarım, istatistiklerde biraz farklı bir anlama sahiptir. Bkz. İstatistiksel çıkarımla ilgili Wikipedia makalesi'nde bulabilirsiniz.

giriş katmanı

#fundamentals

İşlemin gerçekleştirilmesine olanak tanıyan nöral ağın katmanı özellik vektörünü barındırır. Yani giriş katmanı eğitim için örnekler sağlar veya çıkarım. Örneğin, aşağıdaki örnekteki giriş katmanı nöral ağ iki özellikten oluşur:

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.

yorumlanabilirlik

#fundamentals

Makine öğrenimi modelinin mantığını açıklayabilme veya daha kolay anlaşılır hale getirir.

Örneğin çoğu doğrusal regresyon modeli, çok önemlidir. (Her biri için eğitilen ağırlıklara bakmanız yeterlidir. feature.) Karar ormanları da çok kolay yorumlanabilir. Ancak bazı modeller yorumlanabilir hale gelmesi için karmaşık görselleştirmeler gerekir.

URL parametrelerinin Google tarafından nasıl ele alınmasını istediğinizi belirtmek için Öğrenme Yorumlanabilirlik Aracı (LIT) makine öğrenimi modellerini yorumlamak için kullanır.

iterasyon

#fundamentals

Bir modelin parametrelerinde yapılan tek bir güncelleme (modelin ağırlıklar ve ön yargılar: eğitim. Toplu boyutu, modelin tek bir iterasyonda kaç örnek işlediğini. Örneğin, grup boyutu 20 ise model, denemeden önce 20 örneği ve parametreleri ayarlamak için kullanılır.

Bir nöral ağı eğitirken tek bir iterasyon şu iki geçişi içerir:

  1. Tek bir partideki kaybı değerlendirmek için ileriye dönük geçiş.
  2. kayıp ve öğrenme hızına dayalı olarak modelin parametrelerini ayarlar.

L

L0 normalleştirmesi

#fundamentals

Bir tür düzenleme sıfır olmayan ağırlıkların toplam sayısına ceza verir bahsediyor. Örneğin, 11 tane sıfır olmayan ağırlığa sahip bir model 10 tane sıfır olmayan ağırlığa sahip benzer bir modelden daha fazla cezalandırılacaktır.

L0 normalleştirmesi bazen L0-norm normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Mutlak değeri hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L1 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Mutlak delta değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, aykırı değerlere karşı daha az hassastır. L2 kaybından daha yüksek.

Ortalama Mutlak Hata, Örnek başına L1 kaybı.

L1 normalleştirmesi

#fundamentals

Ceza gerektiren bir düzenleme türü mutlak değerinin toplamıyla orantılı olarak ağırlıklar ağırlıklar. L1 normalleştirmesi, alakasız öğelerin ağırlıklarını artırmaya yardımcı olur alakalı özellikleri tam olarak 0'a indirebilirsiniz. Şu özelliklere sahip bir özellik: 0 ağırlık modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesi ile kontrast.

L2 kaybı

#fundamentals

Kareyi hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L2 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Delta karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kare oluşturma nedeniyle L2 kaybı, etkisini artırır. aykırı değerler. Yani L2 kaybı, kötü tahminlere kıyasla L1 kaybı. Örneğin, L1 kaybı önceki grup için 16 yerine 8 olur. Tek bir 16'nın 9'unu oluşturuyor.

Regresyon modelleri genellikle L2 kaybını kullanır işlevi olarak kullanır.

Ortalama Kare Hatası, Örnek başına L2 kaybı. Kare karesi, L2 kaybının diğer adıdır.

L2 normalleştirmesi

#fundamentals

Ceza gerektiren bir düzenleme türü Ağırlıkların karelerinin toplamıyla orantılı olarak ağırlıklar L2 normalleştirmesi, aykırı ağırlıkların (ayrıca pozitif veya düşük negatif değerlere sahiptir) 0'a yaklaşır ancak tam olarak 0 değildir. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini fazla etkilemez.

L2 normalleştirmesi şuralarda genellemeyi her zaman iyileştirir: doğrusal modeller.

L1 normalleştirmesi ile kontrast.

etiket

#fundamentals

Gözetimli makine öğreniminde "yanıt" veya "sonuç" kısmı örnek kısmıdır.

Her etiketli örnek bir veya daha fazla örnek özellikler ve etiket. Örneğin, büyük olasılıkla "spam" veya "spam" etiketi veya "spam değil." Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarıdır.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket ekleyin. Örneğin, aşağıdaki tabloda üç adet her biri üç özelliğe sahip bir ev değerleme modelinden etiketli örnekler ve bir etiket:

Yatak odası sayısı Banyo sayısı Ev yaşı Kurum fiyatı (etiket)
3 2 15 345.000 $
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğreniminde etiketli örnekler üzerinde eğitilir ve bu örnekler üzerinde etiketsiz örnekler.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlı.

Lambda aşırı yüklü bir terimdir. Burada, kavramı normalleştirme içindeki tanım.

katman

#fundamentals

Gereçlerde bir nöron sinirsel ağ. Sık kullanılan üç katman türü aşağıdaki gibidir:

Örneğin, aşağıdaki görselde bir nöral ağ ile bir giriş katmanı, iki gizli katman ve bir çıkış katmanı:

Bir giriş katmanı, iki gizli katman ve bir gizli katman içeren nöral ağ
          çıkış katmanıdır. Giriş katmanı iki özellikten oluşur. İlk
          gizli katman, üç nöron ve ikinci gizli katmandan oluşur.
          iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, aynı zamanda Giriş olarak Tensors ve yapılandırma seçenekleri başka tensörler üretebilirsiniz.

öğrenme hızı

#fundamentals

Gradyan inişini bildiren bir kayan nokta sayısı her bir cihazdaki ağırlık ve sapmayı iterasyon. Örneğin, 0,3 olan bir öğrenme hızı ağırlıkları ve ağırlıkları öğrenme hızından üç kat daha güçlü bir şekilde ayarlama 0,1.

Öğrenme hızı önemli bir hiperparametredir. Mevcut öğrenme hızı çok düşüktür, eğitim de çok uzun sürecektir. Eğer öğrenme hızını çok yüksek ayarlarsanız gradyan iniş genellikle sorun yaşanır yakınlaşma elde ediyor.

doğrusal

#fundamentals

Yalnızca temsil edilebilen iki veya daha fazla değişken arasındaki ilişki toplama ve çarpma işlemleri.

Doğrusal bir ilişkinin grafiği bir çizgidir.

nonlinear ile kontrast.

doğrusal model

#fundamentals

Her biri için bir ağırlık atayan bir model tahmin yapmak için özelliği kullanın. (Doğrusal modeller bir önyargı da içerir.) Öte yandan derin modellerdeki tahminler ile özelliklerin ilişkisi genellikle nonlinear bir değerdir.

Doğrusal modellerin eğitilmesi genellikle daha kolay olduğu için yorumlanabilir. Ancak, derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon iki tür doğrusal modeldir.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de doğru olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyonu mantıksal regresyon ile karşılaştırın. Ayrıca, sınıflandırma ile regresyonu karşılaştırın.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir regresyon modeli türü. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategoriktir. Lojistik terimi regresyon genellikle ikili mantıksal regresyon anlamına gelir. . Daha az yaygın olan bir değişken olan çoklu terimli mantıksal regresyon, olasılıklarını ifade eder.
  • Eğitim sırasındaki kayıp işlevi Günlük Kaybı'dır. (Etiketler için birden fazla Günlük Kaybı birimi paralel olarak yerleştirilebilir değer ikiden fazla olabilir.)
  • Model, derin bir sinir ağına değil, doğrusal bir mimariye sahip. Ancak bu tanımın geri kalanı, Olasılıkları tahmin eden derin modeller kullanın.

Örneğin, dönüşüm değerini hesaplayan bir mantıksal regresyon giriş e-postasının spam veya spam olmaması olasılığı. Çıkarım sırasında modelin 0, 72 değerini tahmin ettiğini varsayalım. Dolayısıyla, modelin tahmini değeri:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama ihtimali% 28'dir.

Mantıksal regresyon modeli, aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, doğrusal fonksiyon uygulayarak ham bir tahmin (y') üretir seçenekleri vardır.
  2. Model, bu ham tahmini bir kampanyaya girdi olarak kullanır sigmoid işlevi, değeri 0 ile 1 arasında bir değere ayarlayabilirsiniz.

Tüm regresyon modelleri gibi mantıksal bir regresyon modeli de bir sayıyı tahmin eder. Ancak, bu sayı genellikle ikili sistem sınıflandırmasında modelimiz şu şekildedir:

  • Tahmin edilen sayı, büyük sınıflandırma eşiğinin ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Günlük Kaybı

#fundamentals

İkili programda kullanılan kayıp işlevi mantıksal regresyon.

günlük-olasılıklar

#fundamentals

Bir olayın olasılıklarının logaritması.

mağlubiyet

#fundamentals

Bir kişinin eğitimi gözetimli model ve bu model, modelin tahmini bu modelin etiketinden alınır.

Kayıp işlevi kaybı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim sayısının fonksiyonu olarak kayıp grafiği iterasyonlar. Aşağıdaki grafikte tipik bir kayıp eğri:

Kayıp ve eğitim yinelemelerinin karşılaştırıldığı Kartezyen grafiği
          ilk iterasyonlarda kayıpta hızlı bir düşüş yaşandığını ve ardından kademeli olarak
          ve son yinelemeler sırasında düz bir eğim çizmesi gerekir.

Kayıp eğrileri modelinizin ne zaman yakınlaştırma veya uyarlama özelliklerini kullanın.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Ayrıca bkz. genelleme eğrisi.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, hesaplama yapan matematiksel fonksiyon toplu örnek kaybı. Kayıp fonksiyonu daha düşük bir kayıp döndürür için iyi tahminlerde bulunan modellerin performansını kötü tahminler yapabilirsiniz.

Eğitimin amacı genellikle kayıp fonksiyonunun belirtir.

Birçok farklı kayıp fonksiyonu türü vardır. Uygun kaybı seçin işlevini kullanın. Örneğin:

M

makine öğrenimi

#fundamentals

Bir programlamayı eğiten bir program veya sistem modeli olarak tanımlar. Eğitilen model, Google Haritalar'dan alınan yeni (hiç görülmemiş) verilerden elde edilen modeli eğitmek için kullanılanla aynı dağılıma sahiptir.

Makine öğrenimi, aynı zamanda bu program veya sistemlerle anlamaya çalışırsınız.

çoğunluk sınıfı

#fundamentals

Bir projede daha yaygın olan etiket sınıf-dengesiz veri kümesi ile ilgili daha fazla bilgi edinin. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, negatif etiketler çoğunluğa hitap eder.

Azınlık sınıfı ile kontrast.

mini toplu e-ticaret

#fundamentals

Bir grubun tek bir grupta işlenen küçük, rastgele seçilmiş bir alt kümesi iterasyon. Mini bir grubun toplu boyutu genellikle 10 ila 1.000 örnek görebilirsiniz.

Örneğin, tüm eğitim veri kümesinin (tüm grup) 1.000 örnekten oluşur. Ayrıca, Floodlight etiketindeki toplu paket boyutunu 20'ye çıkarın. Dolayısıyla her iterasyon 1.000 örneğin rastgele 20'si üzerindeki kaybı belirler ve ağırlıkları ve önyargıları buna göre ayarlar.

Mini toplu işlemlerde oluşacak kaybı hesaplamak, kayıp anlamına gelir.

azınlık sınıfı

#fundamentals

Bir sınıf-dengesiz veri kümesi ile ilgili daha fazla bilgi edinin. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfı ile kontrast oluşturun.

model

#fundamentals

Genel olarak, girdi verilerini ve getirileri işleyen herhangi bir matematiksel çıktı. Farklı ifade etmek gerekirse model, parametreler ve yapıdan oluşan bir kümedir tahminlerde bulunması için gereken tüm araçlardır. Gözetimli makine öğreniminde Bir model giriş olarak bir örnek alır ve bir modelin tahmin olarak gönderin. Gözetimli makine öğreniminde bazı farklılıklar olur. Örneğin:

  • Doğrusal regresyon modeli, bir dizi ağırlıktan oluşur bir taraf oluşturur.
  • Nöral ağ modeli aşağıdakilerden oluşur:
    • Her biri bir veya daha fazla katman içeren bir gizli katman grubu daha fazla nöron içerir.
    • Her bir nöronla ilişkili ağırlıklar ve yanlılık.
  • Karar ağacı modeli aşağıdakilerden oluşur:
    • Ağacın şekli yani koşulların belirli bir zamanda ve yapraklar birbirine bağlanır.
    • Koşullar ve yapraklar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalarını oluşturabilirsiniz.

Gözetimsiz makine öğrenimi de model oluşturur. Bu fonksiyon genellikle bir giriş örneğini en uygun kümeyi seçin.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, bir sınıflandırma sorunu Veri kümesinin ikiden fazla etiket sınıfı içerdiği. Örneğin, Iris veri kümesindeki etiketler aşağıdakilerden biri olmalıdır üç sınıf bulunuyor:

  • Süsen setosa
  • İris virginica
  • Süsen yeşil

Yeni örneklerde Iris türünü tahmin eden, Iris veri kümesinde eğitilmiş bir model çok sınıflı sınıflandırmadır.

Öte yandan, tam olarak iki kaliteyi birbirinden ayıran sınıflandırma problemleri sınıfları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil tahmini yapan bir e-posta modeli bir ikili sınıflandırma modelidir.

Kümeleme problemlerinde çok sınıflı sınıflandırma, birden fazla iki küme bulunuyor.

N

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Pozitif sınıf modelin test ettiği şey veya olayı, negatif sınıfın ise başka bir olasılık var. Örneğin:

  • Tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf, "spam değil" olabilir.

Pozitif sınıf ile kontrast oluşturun.

nöral ağ

#fundamentals

En az bir içeren model gizli katman. Derin sinir ağı, bir tür nöral ağdır gizli katman bulunur. Örneğin, aşağıdaki diyagramda iki gizli katman içeren derin bir sinir ağını gösteriyor.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır.

Bir nöral ağdaki her nöron, bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, yukarıdaki diyagramda bulunan üç nöronun her iki nörona da ayrı ayrı bağlanır. Bu iki nöronun katmandır.

Bilgisayarlarda uygulanan nöral ağlar bazen yapay nöral ağların beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardır.

Bazı nöral ağlar, son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir. farklı özellikler ve etiket arasında.

Ayrıca bkz. evrimsel nöral ağ ve yinelenen nöral ağ.

nöron

#fundamentals

Makine öğreniminde, gizli katman içindeki ayrı bir birim bir nöral ağ örneğidir. Her nöron aşağıdakileri gerçekleştirir: iki adımlı işlem:

  1. Girdi değerlerinin ağırlıklı toplamını çarpar karşılık gelen ağırlıklara göre değerlendirmelisiniz.
  2. Ağırlıklı toplamı etkinleştirme işlevini yerine getirin.

İlk gizli katmandaki bir nöron, özellik değerlerinden gelen girişleri kabul eder giriş katmanında. Bunun ötesinde herhangi bir gizli katmanda bulunan bir nöron ilki, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, sinir hücrelerinden korur.

Aşağıdaki resimde iki nöron ve bunların giriş değerleridir.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır. İlkinde biri olmak üzere iki nöron vurgulanıyor
          bir diğeri de ikinci gizli katmanda bulunuyor. Vurgulanan
          ilk gizli katmandaki nöron her iki özellikten de girdi alır
          kullanabilirsiniz. İkinci gizli katmanda vurgulanan nöron
          ilk gizli sıradaki üç nöronun her birinden girdi alır
          katmanıdır.

Sinir ağındaki bir nöron, beyindeki nöronların davranışını taklit eder ve sinir sistemlerinin diğer kısımlarından biridir.

düğüm (nöral ağ)

#fundamentals

Gizli katman içindeki bir nöron.

nonlinear

#fundamentals

Yalnızca temsil edilemeyen iki veya daha fazla değişken arasındaki ilişki toplama ve çarpma işlemleri. Doğrusal ilişki bir çizgi olarak gösterilebilir; nonlinear bir ilişki bir çizgi olarak gösterilir. Örneğin, her biri birbiriyle alakalı iki model düşünün tek bir etikete uygulayabilirsiniz. Soldaki model doğrusal ve sağdaki model doğrusal olmayan ise:

İki konu. Bir grafikse çizgi şeklindedir. Bu da doğrusal bir ilişkidir.
          Diğer grafik eğri olduğundan bu doğrusal olmayan bir ilişkidir.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, aşağıdaki durağanlık örneklerine göz atın:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede toplanan belirli bir meyvenin miktarı büyük bölümünde sıfır ancak kısa bir süre için büyüktür.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Sabitlik ile kontrast.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek aralığını dönüştürme süreci şunun gibi:

  • -1'den +1'e
  • 0 - 1
  • normal dağılım

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400. Özellik mühendisliği kapsamında, gerçek değerleri standart bir aralığa kadar normalleştirebilirsiniz: +1 olarak ayarlayın.

Normalleştirme, dünya çapında özellik mühendisliği. Modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretilmesi) için kullanılabilir. özellik vektörü hemen hemen aynı aralığa sahip.

sayısal veriler

#fundamentals

Tam sayı veya reel değerli sayılarla temsil edilen özellikler. Örneğin, ev değerleme modeli büyük olasılıkla binanın (fitkare veya metrekare cinsinden) sayısal veri olarak sunar. Temsil eden sayısal veriler olarak bir özellik, özelliğin değerlerinin, matematiksel bir ilişki olması gerekir. Yani bir evin metrekare sayısı için muhtemelen evin değeriyle matematiksel ilişki kurmaktır.

Tüm tamsayı veriler sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı bölgelerindeki posta kodları tam sayıdır; ancak, posta tam sayı kodların modellerde sayısal veri olarak temsil edilmemesi gerekir. Çünkü 20000 adresinin posta kodu, şu posta kodundan iki kat (veya yarısı) daha güçlü değil: 10.000. Dahası, farklı posta kodları farklı posta kodlarıyla ilişkili olsa da emlak değerlerinin, posta kodundaki emlak değerlerinin 20.000, 10000 posta kodundaki emlak değerlerinin iki katıdır. Posta kodları, kategorik veri olarak temsil edilmelidir. .

Sayısal özellikler bazen sürekli özelliklerle donatılmıştır.

O

çevrimdışı

#fundamentals

Statik ile eş anlamlıdır.

çevrimdışı çıkarım

#fundamentals

Toplu tahmin oluşturan bir model süreci sonra da bu tahminleri önbelleğe alır (kaydeder). Böylece uygulamalar, tahminde bulunmasını sağlar.

Örneğin, yerel hava durumu tahminleri oluşturan bir modeli ele alalım. (tahminler) ekleyebilirsiniz. Sistem, çalıştırılan her modelin tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları tahminleri alır kaldıracaktır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile kontrast oluşturun.

tek kullanımlık kodlama

#fundamentals

Kategorik verileri bir vektör olarak gösterme:

  • Bir öğe 1 olarak ayarlanmış.
  • Diğer tüm öğeler 0'a ayarlanır.

Tek kullanımlık kodlama, genellikle, SAFe olarak bilinen dizeleri veya tanımlayıcıları sonlu bir olası değer grubuna sahiptir. Örneğin, Scandinavia için beş olası değer vardır:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek seferlik kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek seferlik kodlama sayesinde, bir model farklı bağlantıları öğrenebilir kullanıcı başına ortalama gelirdir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek seferlik kodlamaya alternatiftir. Ne yazık ki, İskandinav ülkeleri sayısal olarak iyi bir seçim değil. Örneğin, şu sayısal temsili düşünün:

  • "Danimarka" 0'dır
  • "İsveç" 1'dir
  • "Norveç" 2'dir
  • "Finlandiya" 3'tür
  • "İzlanda" 4'tür

Sayısal kodlama ile, bir model ham sayıları yorumlarken vardır ve bu sayılara göre alıştırma yapmaya çalışır. Ancak İzlanda, 2022'den bu yana ortalamanın iki katı (veya yarısı kadar) bir durum olursa model bazı tuhaf sonuçlara yol açabilir.

bir veya tümü

#fundamentals

N sınıfla ilgili bir sınıflandırma sorunu verildiğinde, N ayrı çözeltiden oluşan çözüm ikili sınıflandırıcılar: Her biri için bir ikili sınıflandırıcı her olası sonucu belirlemenize yardımcı olur. Örneğin, Yeşil Ofis’teki Arkadaş Bitkiler projesinin ya da mineral olarak ortaya çıkarsa, hepsi yerine tek bir çözelti, şu üç ayrı ikili sınıflandırıcıdan gelmektedir:

  • hayvan mı hayvan mı değil mi
  • sebze mi, sebze olmayan mı
  • mineral mi, mineral değil mi

online

#fundamentals

Dinamik ile eş anlamlı.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma Örneğin, bir uygulamanın bir modele giriş ilettiğini ve bir tahmindir. Online çıkarım kullanan bir sistem, isteği (ve tahmini uygulamaya döndürmesi) gerekir.

Çevrimdışı çıkarım ile kontrast oluşturun.

çıkış katmanı

#fundamentals

"Son" katmanını oluşturur. Çıkış katmanı tahmini içerir.

Aşağıdaki resimde giriş içeren küçük bir derin nöral ağ gösterilmektedir katmanı, iki gizli katman ve bir çıkış katmanı içerir:

Bir giriş katmanı, iki gizli katman ve bir gizli katman içeren nöral ağ
          çıkış katmanıdır. Giriş katmanı iki özellikten oluşur. İlk
          gizli katman, üç nöron ve ikinci gizli katmandan oluşur.
          iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Yeni modelle eşleşen bir model eğitim verilerini modelin başarısız olmasına neden olacak şekilde yeni veriler hakkında doğru tahminlerde bulunmanızı sağlar.

Normalleştirme, fazla uyumu azaltabilir. Geniş ve çeşitlilik barındıran bir eğitim setiyle eğitim, aşırı uyumu azaltabilir.

P

pandalar

#fundamentals

numpy temel alınarak oluşturulmuş, sütun odaklı bir veri analizi API'si. Birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekleyin. Bkz. pandas dokümanları inceleyebilirsiniz.

parametre

#fundamentals

Bir modelin dönüşüm sırasında öğrendiği ağırlıklar ve ön yargılar eğitim. Örneğin, doğrusal regresyon modeli kullanıyorsanız parametreler ağırlıklandırma (b) ve tüm ağırlıklar (w1, w2, vb.) formülünü kullanabilirsiniz:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık hyperparameter, siz (veya bir hiperparametre döndürme hizmeti) tedarik etme. Örneğin, öğrenme hızı bir hiperparametredir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcıdaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile kontrast oluşturun.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra model çıktısını düzenleme. Son işleme, herhangi bir değer olmadan adalet kısıtlamalarını uygulamak için modellerin kendisinde değişiklik yapıyor.

Örneğin, bir ikili program sınıflandırıcıya işleme sonrası bir sınıflandırma eşiği belirleyerek fırsat eşitliğinin korunması Belirli bir özellik için gerçek pozitif oranı kontrol ederek bu özelliğin tüm değerleri için aynıdır.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modeli tahmini, pozitif sınıfını belirler.
  • Çok sınıflı sınıflandırma modeli için tahmin tek sınıftır.
  • Doğrusal regresyon modelinde tahmin, bir sayıdır.

proxy etiketleri

#fundamentals

Veri kümesinde doğrudan mevcut olmayan etiketleri tahmin etmek için kullanılan veriler.

Örneğin, çalışanı tahmin etmek için bir model eğitmeniz gerektiğini varsayalım stres seviyesi. Veri kümenizde çok sayıda tahmin özelliği olsa da stres seviyesi adlı bir etiket içermiyor. Tecrübesiz, "iş yeri kazaları"nı seçiyorsunuz proxy etiketi olarak kullanabilirsiniz. stres seviyesi. Sonuçta yüksek stres altındaki çalışanlar genelde sakin çalışanlardan çok kazalar. Yoksa yapıyorlar mı? İş yeri kazaları olabilir birkaç nedenden dolayı yükselip düşer.

İkinci bir örnek olarak, yağmur yağıyor mu? sorusunun Boole etiketi olmasını istediğinizi varsayalım. ancak veri kümeniz yağmur verileri içermiyor. Eğer fotoğraflar varsa, insanların yer aldığı yağmur yağıyor mu? Bu değişiklik iyi bir proxy etiketi olabilir mi? Muhtemelen ama bazı kültürlerdeki insanlar yağmurdan korunmak için şemsiye taşıma ihtimali daha yüksektir.

Proxy etiketleri genellikle kusursuz değildir. Mümkün olduğunda proxy etiketlerini kullanabilirsiniz. Bununla birlikte, gerçek bir etiket olmadığında tehlikeli olmayan proxy etiketi adayını seçerek etiketi çok dikkatli bir şekilde etiketleyin.

K

RAG

#fundamentals

için kısaltma almayla artırılmış oluşturma.

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan bir insan. "Not oluşturucu" değerlendiricinin diğer bir adıdır.

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşit olur.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun bir hikayesi şöyle:

İki çizgili kartezyen çizim. İlk satırda sabit değer var
          x ekseni boyunca -sonsuz, 0 ile 0,-0 arasında değişen, y değerinin 0 olduğunu varsayalım.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1&#39;dir, yani
          0,0 ile +sonsuz,+sonsuz arasında değişir.

ReLU çok popüler bir aktivasyon fonksiyonudur. Bu basit davranışa rağmen, ReLU, nöral ağların nonlinear konuları öğrenmesini sağlamaya devam ediyor özellikler ile etiket arasındaki ilişkiler.

regresyon modeli

#fundamentals

Gayri resmî olarak, sayısal tahmin oluşturan bir modeldir. (Buna karşın, Sınıflandırma modeli, sınıf oluşturur prediction.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • 423.000 avro gibi belirli bir evin değerini tahmin eden bir model.
  • Belirli bir ağacın yaşam süresini (ör.23, 2 yıl) tahmin eden bir model.
  • Belirli bir şehirde düşecek yağmur miktarını tahmin eden bir model (ör.0, 18 inç) görüntüler.

Yaygın iki regresyon modeli türü şunlardır:

  • Doğrusal regresyon, en iyi sonucu veren çizgiyi bulur etiket değerlerini özelliklere uygun hale getirir.
  • Mantıksal regresyon, bir sistemin genellikle daha sonra bir sınıfla eşlendiği 0,0 ile 1,0 arasında olasılık bir tahmindir.

Sayısal tahmin üreten her model regresyon modeli değildir. Bazı durumlarda sayısal tahmin yalnızca bir sınıflandırma modelidir sınıf adları vardır. Örneğin, bir tahminde bulunan sayısal posta kodu bir sınıflandırma modelidir, regresyon modeli değildir.

normalleştirme

#fundamentals

Fazla uyumu azaltan mekanizmalar. Popüler normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Her bir görevin göreceli önemini düzenleme. Hedeflerinizi yükseltme normalleştirme oranı fazla uyum'u azaltır ancak modelin tahmin gücünü azaltır. Aynı şekilde, normalleştirme oranı fazla uyumu artırır.

ReLU

#fundamentals

Doğrulanmış Doğrusal Birim'in kısaltması.

almayla artırılmış oluşturma (RAG)

#fundamentals

Kaliteyi artırmak için kullanılan bir teknik, büyük dil modeli (LLM) çıkışı modeli eğitildikten sonra edinilen bilgi kaynaklarını temel alarak. RAG, eğitimli LLM’ye (büyük dil modeli) güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişme.

Almayla zenginleştirilmiş nesilleri kullanma konusunda yaygın motivasyonlar şunlardır:

  • Bir modelin oluşturulan yanıtlarının olgusal doğruluğunu artırma.
  • Modelin, eğitilmediği bilgilere erişmesine izin verme.
  • Modelin kullandığı bilgileri değiştirme.
  • Modelin kaynaklardan alıntı yapabilme özelliği etkinleştiriliyor.

Örneğin, bir kimya uygulamasının PaLM'yi kullandığını varsayalım. API'yi kullanarak özet oluşturma alakalı olabilir. Uygulamanın arka ucu bir sorgu aldığında arka uç şunları yapar:

  1. Kullanıcının sorgusuyla alakalı verileri ("alır") arar.
  2. Alakalı kimya verilerini kullanıcının sorgusuna ekler ("artırma").
  3. LLM'ye, eklenen verilere dayalı bir özet oluşturmasını söyler.

ROC (alıcı çalışma özelliği) Eğrisi

#fundamentals

- Gerçek pozitif oran grafiği Farklı kullanıcılar için yanlış pozitif oranı İkili programdaki sınıflandırma eşikleri en iyi uygulamaları görelim.

Bir ROC eğrisinin şekli, bir ikili sınıflandırma modelinin negatif sınıfları birbirinden ayırın. Diyelim ki ve tüm negatif anahtar kelimeleri birbirinden mükemmel şekilde ayıracağını sınıflardan oluşur:

Sağ tarafında 8 pozitif örnek içeren bir sayı doğrusu ve
          Solda 7 negatif örnek var.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni Yanlış Pozitif Oranı ve y ekseni ise Yanlış Pozitif Oranı&#39;dır
          Gerçek Pozitif Oran. Eğrinin ters çevrilmiş bir L şekli var. Eğri
          (0.0,0.0) ile başlar ve doğrudan (0.0,1.0)&#39;a kadar gider. Sonra eğri
          değeri (0,0,1,0)&#39;dan (1.0,1,0) değerine kadar değişir.

Buna karşılık, aşağıdaki çizimde ham mantıksal regresyon negatif sınıfları olumlu sınıfların yanı sıra

Pozitif örnekleri ve negatif sınıfları içeren bir sayı doğrusu
          bir aradaydı.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

Aslında (0,0,0,0) değerinden düz bir çizgi olan bir ROC eğrisi
          - (1.0,1.0).

Gerçek dünyada ise çoğu ikili sınıflandırma modeli, bir dereceye kadar pozitif ve negatif sınıfları var, ancak genellikle mükemmel değil. Dolayısıyla, tipik bir ROC eğrisi, iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni Yanlış Pozitif Oranı ve y ekseni ise Yanlış Pozitif Oranı&#39;dır
          Gerçek Pozitif Oran. ROC eğrisi, titrek bir yaya yaklaşır
          Kuzey&#39;e doğru pusula noktalarını katetmek
zorunda kaldınız.

ROC eğrisinde (0,0,1,0) değerine en yakın nokta, teorik olarak eşiğine ulaşabilirsiniz. Ancak gerçek dünyayı etkileyen diğer birkaç sorun, İdeal sınıflandırma eşiğinin seçimini etkiler. Örneğin, ya da yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olabilir.

AUC adlı sayısal bir metrik, ROC eğrisini tek bir kayan nokta değerindedir.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Kare Hatanın karekökü.

S

sigmoid işlevi

#fundamentals

Sıkıştıran" matematiksel işlev sınırlı bir aralığa giriş değerini girin, genellikle 0 ile 1 arasında veya -1 ile +1 arasında değişir. Yani, herhangi bir sayıyı (iki, bir milyon, sigmoid'e ekleyebilirsiniz. Çıktı, yine bu sınırların içinde kalır. sınırlı aralıktır. Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

Alanı kapsayan x değerlerinin yer aldığı iki boyutlu, eğri grafik
          -sonsuzdan +pozitife, y değerleri ise neredeyse 0 -
          neredeyse 1. x 0 olduğunda y de 0, 5 olur. Eğrinin eğimi her zaman
          pozitif, en yüksek eğim 0,0,5&#39;te ve kademeli olarak azalan
          x&#39;in mutlak değeri arttıkça eğimi de görebilirsiniz.

Sigmoid işlevinin makine öğreniminde çeşitli kullanım alanları vardır. Örneğin:

softmax

#fundamentals

Her bir olası sınıf için olasılıkları belirleyen fonksiyon çok sınıflı sınıflandırma modelini kullanın. Olasılıklar toplanır tam olarak 1,0 yapıyorum. Örneğin, aşağıdaki tabloda softmax'ın nasıl dağıttığı gösterilmektedir çeşitli olasılıklar:

Resim: Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örneklemeyle kontrast.

seyrek özellik

#language
#fundamentals

Değerleri ağırlıklı olarak sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve milyon 0 değeri içeren bir özellik, çok azdır. Buna karşılık yoğun bir özellik, çoğunlukla sıfır veya boş değildir.

Makine öğreniminde şaşırtıcı sayıda özellik çok azdır. Kategorik özellikler genellikle az sayıdadır. Örneğin, bir ormandaki olası 300 ağaç türünden tek bir örnek sadece bir akçaağaç tanımlanabilir. Ya da olası videolar arasında yer alır. Tek bir örnekle, yalnızca "Kazablanka".

Bir modelde genelde seyrek özellikleri, tek kullanımlık kodlama. Tek seferlik kodlama çok büyükse, sayfanın üst kısmına bir yerleştirme katmanı yerleştirebilirsiniz: tek kullanımlık kodlama ile verimliliği artırır.

seyrek temsil

#language
#fundamentals

Sıfır olmayan öğelerin yalnızca konumlarını seyrek bir özellikte depolama.

Örneğin, species adlı bir kategorik özelliğin türleri hakkında bilgi edindiniz. Dahası, her bir example yalnızca tek bir türü tanımlar.

Her örnekte ağaç türlerini göstermek için tek seferlik bir vektör kullanabilirsiniz. Tek sıcak bir vektör, tek bir 1 ( ağaç türünü temsil etmesi için) ve 35 0 ( (bu örnekte 35 ağaç türü değildir). Bu yüzden bire bir temsil maple aşağıdaki gibi görünebilir:

0 ila 23. konumların 0. konuma sahip olduğu bir vektör
          24, 1 değerini, 25 ile 35 arasındaki konumlarda 0 değerini alır.

Buna karşılık, seyrek gösterim, görevin türü olabilir. maple 24. konumdaysa seyrek temsil maple şöyle bir ifade eder:

24

Seyrek temsilin, tek sıcak görüntüye göre çok daha kompakt olduğuna dikkat edin temsil eder.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca bkz. seyrek özellik ve yeterlilik.

kaybın kareli

#fundamentals

L2 kaybı ile eş anlamlıdır.

statik

#fundamentals

Bir iş sürekli değil, bir kere yapılır. Statik ve çevrimdışı terimleri eş anlamlıdır. Aşağıda, makinede statik ve çevrimdışı öğelerinin yaygın kullanımları belirtilmiştir öğreniyor:

  • statik model (veya çevrimdışı model), bir kez eğitilmiş bir modeldir bir süredir kullanılıyor.
  • statik eğitim (veya çevrimdışı eğitim), bir kullanıcının fiziksel statik model.
  • statik çıkarım (veya çevrimdışı çıkarım) bir modelin aynı anda tahmin grubu oluşturduğu süreç.

dinamik ile kontrast oluşturun.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

sabitlik

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen özellik. Örneğin, 2021'de hemen hemen aynı görünen ve 2023'te hareketsizlik sergileniyor.

Gerçek dünyada çok az özellik sabittir. Eşit özellikler Zaman içinde istikrar (deniz seviyesi gibi) değişimi ile eş anlamlıdır.

Sürdürülebilirlik ile kontrast.

olasılıksal gradyan iniş (SGD)

#fundamentals

Bir gradyan azalma algoritması toplu iş boyutu birdir. Başka bir deyişle SGD aynı orantıya sahip olacak şekilde rastgele oluşturulan bir eğitim kümesinden.

gözetimli makine öğrenimi

#fundamentals

Bir modeli özelliklerden ve İlgili etiketlerin Gözetimli makine öğrenimi bir konuyu öğrenmek için bir dizi soruyu ve bunların cevaplar. Sorular ve paydaşlar arasındaki eşlemede uzmanlaştıktan sonra yanıtlarsa öğrenci, yeni (daha önce hiç görülmemiş) yanıtlara sorular sorarsınız.

Şununla karşılaştır: gözetimsiz makine öğrenimi kullanır.

sentetik özellik

#fundamentals

Bir özellik, giriş özellikleri arasında mevcut değildir ancak bir veya birkaçından bir araya getirilmiştir. Sentetik özellik oluşturma yöntemleri şunları içerir:

  • Sürekli bir özelliği aralık bölmelerine gruplandırma.
  • Özellik çaprazı oluşturma.
  • Bir özelliğin değerini başka özellik değerleriyle çarpma (veya bölme) veya tek başına görmelerini sağlar. Örneğin, a ve b giriş özellikleriyse Aşağıda yapay özelliklere ilişkin örnekler verilmiştir:
    • ab
    • 2
  • Bir özellik değerine transandantal fonksiyon uygulama. Örneğin, c bir giriş özelliğiyse, aşağıda sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak değerlendirilmez.

S

test kaybı

#fundamentals

Modelin kaybını temsil eden metrik test kümesini kullanın. Bir model oluştururken genellikle test kaybını en aza indirmeye çalışır. Çünkü test kaybının düşük olması, düşük eğitim kaybına göre daha yüksek kaliteli sinyal veya Düşük doğrulama kaybı.

Bazen test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir boşluk olması artırmanız gerektiğini, düzenleme oranı.

eğitim

#fundamentals

İdeal parametreleri (ağırlıklar ve ön yargılar) bir model oluşturmasını sağlar. Eğitim sırasında bir sistem example olarak ayarlar ve parametreleri kademeli olarak ayarlar. Eğitimde her biri örneğin birkaç kez veya milyarlarca kez yer alabilir.

eğitim kaybı

#fundamentals

Dönüşüm sırasında modelin kaybını temsil eden bir metrik eğitim iterasyonu konusunda ısrarcı olabilirsiniz. Örneğin, kayıp fonksiyonunun Ortalama Kare Hatası'dır. Belki de eğitim kaybı (Ortalama Kareli Hata) 10.iterasyon için 2, 2'dir ve ekibinizin 100.yineleme 1,9'dur.

Kayıp eğrisi, eğitim kaybı ile eğitim kaybı sayısının karşılaştırmasını gösterir. iterasyonlar ile yürütüldüğü anlamına gelir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin gelişmeye devam ettiğini gösterir.
  • Yukarı doğru eğim, modelin kötüleştiğini gösterir.
  • Düz bir eğim, modelin tümleştirme.

Örneğin, aşağıda açıklanan idealleştirilmiş kayıp eğrisi gösterir:

  • Başlangıçtaki iterasyonlar sırasında aşağı doğru dik bir eğim vardır. Bu da hızlı model iyileştirme.
  • Sonuna doğru olana kadar kademeli olarak düzleştiren (ancak aşağı doğru) eğim Bu da belirli bir düzeyde model iyileştirmenin devamlılığını sırasında yavaş bir tempoda ilerler.
  • Eğitimin sonuna doğru yakınlaşmaya işaret eden düz bir eğim.

Eğitim kaybının ve iterasyonların karşılaştırması. Bu kayıp eğrisi
     aşağı doğru eğimli bir yapıya sahiptir. Eğim, bitişine kadar kademeli olarak düzleşir
     eğim sıfıra dönüşür.

Eğitim kaybı önemli olsa da, genelleme:

eğitim ve sunma arası sapma

#fundamentals

Bir modelin dönüşüm işlemi sırasındaki eğitim ve bu modelin performans sırasında sunum.

eğitim seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üçe ayrılır ayrı alt kümeler oluşturabilirsiniz:

İdeal olarak, veri kümesindeki her bir örneğin alt kümelere atanır. Örneğin, tek bir örnek, eğitim kümesi ve doğrulama kümesidir.

doğru negatif (TN)

#fundamentals

Modelin doğru negatif sınıf. Örneğin, model, belirli bir e-posta iletisi spam değil ve bu e-posta iletisi gerçekten spam değil olarak kaydedin.

doğru pozitif (TP)

#fundamentals

Modelin doğru olumlu bir sınıfa göz atın. Örneğin, model, spam olduğunu ve gerçekten de spam olduğunu düşünelim.

gerçek pozitif oranı (TPR)

#fundamentals

Recall'ın eş anlamlısı. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisindeki y eksenidir.

U

yetersiz

#fundamentals

Tahmin yeteneği zayıf bir model oluşturmak, çünkü modelin eğitim verilerinin karmaşıklığını tam olarak anlayamadı. Birçok sorun aşağıdakiler dahil olmak üzere yetersiz uyuma neden olabilir:

etiketsiz örnek

#fundamentals

Özellikler'i içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir evden etiketlenmemiş üç örnek gösterilmektedir değerleme modelini kullanır.

Yatak odası sayısı Banyo sayısı Ev yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde etiketli örnekler üzerinde eğitilir ve bu örnekler üzerinde etiketsiz örnekler.

Yarı gözetimli olarak ve gözetimsiz öğrenme, etiketlenmemiş örnekler eğitim sırasında kullanılır.

Etiketsiz örneği etiketli örnek ile karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki kalıpları bulmak için modeli eğitmek, genellikle etiketsiz veri kümesi ile aynı değere sahip.

Gözetimsiz makine öğreniminin en yaygın kullanımı, cluster verileri örnek olarak gruplara ayırabilirler. Örneğin, denetlenmeyen bir makine, öğrenme algoritması, şarkıları çeşitli özelliklere göre gruplandırabilir en iyisidir. Ortaya çıkan kümeler başka bir makineye giriş olabilir (ör. müzik öneri hizmetine) yenilerini öğreniyor. Kümeleme, işe yarar etiketler olmadığında veya olmadığında yardımcı olabilir. Örneğin, kötüye kullanım karşıtı ve sahtekarlık gibi alanlarda kümeler, veriler insanlar tarafından daha iyi anlaşılabiliyor.

Gözetimli makine öğrenimi ile kontrast oluşturun.

V

validation

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama setini kullanın.

Doğrulama kümesi eğitim grubundan farklı olduğu için Doğrulama, fazla uyum'dan korunmaya yardımcı olur.

Modeli, Virtual Verde için önerilen doğrulama kümesine göre test etme ve modeli mevcut risklere göre değerlendirme test seti olarak belirleyin.

doğrulama kaybı

#fundamentals

Açık bir modelin kaybını temsil eden bir metrik doğrulama kümesini eğitimin iterasyonu.

Ayrıca bkz. genelleme eğrisi.

doğrulama grubu

#fundamentals

İlk performansı gerçekleştiren veri kümesinin alt kümesi eğitilmiş bir modele göre değerlendirme. Genellikle bu riskleri doğrulama kümesine karşı eğitilen modelin modeli test kümesine göre değerlendirmeden önce birkaç kez kontrol edin.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üçe bölersiniz: ayrı alt kümeler oluşturabilirsiniz:

İdeal olarak, veri kümesindeki her bir örneğin alt kümelere atanır. Örneğin, tek bir örnek, eğitim kümesi ve doğrulama kümesidir.

W

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme sürecidir. çıkarım, öğrenilen ağırlıkları kullanarak tahminlerde bulunmanızı sağlar.

ağırlıklı toplam

#fundamentals

Alakalı tüm girdi değerlerinin toplamının karşılık gelen değerleriyle çarpılması ağırlıklar. Örneğin, ilgili girişlerin şunlardan oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Bu nedenle ağırlıklı toplam şu şekildedir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevini yerine getirin.

Z

Z puanı normalleştirmesi

#fundamentals

Ham bir verilerin yerini alan ölçeklendirme tekniği feature değeri özelliğin ortalamasından standart sapmalarının sayısı. Örneğin, ortalaması 800 olan ve standart değeri sapma 100'dür. Aşağıdaki tabloda Z puanı normalleştirmesinin ham değeri Z puanıyla eşleştirir:

İşlenmemiş değer Z-puanı
800 0
950 +1,5
575 -2,25

Makine öğrenimi modeli daha sonra Z puanlarıyla eğitilir bu özellik için veri analizi yapabilirsiniz.