Makine Öğrenimi Sözlüğü

Bu sözlükte, genel makine öğrenimi terimlerinin yanı sıra TensorFlow'a özgü terimler de tanımlanmaktadır.

A

ablasyon

Bir özelliğin veya bileşenin önemini, modelden geçici olarak kaldırarak değerlendirmek için kullanılan teknik. Ardından modeli bu özellik veya bileşen olmadan yeniden eğitin. Yeniden eğitilen model önemli ölçüde daha kötü performans gösteriyorsa kaldırılan özellik veya bileşen muhtemelen önemliydi demektir.

Örneğin, 10 özellikten oluşan bir sınıflandırma modeli eğittiğinizi ve test veri kümesinde %88 kesinlik elde ettiğinizi varsayalım. İlk özelliğin önemini kontrol etmek için modeli yalnızca diğer dokuz özelliği kullanarak yeniden eğitebilirsiniz. Yeniden eğitilen model önemli ölçüde daha kötü performans gösteriyorsa (ör. %55 doğruluk) kaldırılan özellik muhtemelen önemliydi. Buna karşılık, yeniden eğitilen model aynı performansı gösteriyorsa bu özellik muhtemelen o kadar önemli değildir.

Ameliyat, aşağıdakilerin öneminin belirlenmesinde de yardımcı olabilir:

  • Daha büyük ML sisteminin tüm alt sistemi gibi daha büyük bileşenler
  • Veri ön işleme adımı gibi süreçler veya teknikler

Her iki durumda da sistem performansının nasıl değiştiğini (veya değişmez).

A/B testi

İki (veya daha fazla) tekniğin karşılaştırıldığı istatistiksel bir yöntem: A ve B. Genellikle A mevcut bir teknik, B ise yeni bir tekniktir. A/B testi, yalnızca hangi tekniğin daha iyi performans gösterdiğini değil, farkın istatistiksel olarak anlamlı olup olmadığını da belirler.

A/B testi genellikle iki teknikte tek bir metriği karşılaştırır. Örneğin, model doğruluğu iki teknikte nasıl karşılaştırılır? Ancak A/B testi, sonlu sayıda metriği de karşılaştırabilir.

hızlandırıcı çipi

#GoogleCloud

Önemli cihazları yerine getirmek için tasarlanmış özel donanım bileşenleri kategorisi gerekli hesaplamaları nasıl yapacağınızı belirleyin.

Hızlandırıcı çipler (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Bu makineler, sinir ağlarını eğitmek ve bilgi işlem açısından yoğun benzer görevler için idealdir.

Hızlandırıcı çiplerine örnek olarak aşağıdakiler verilebilir:

  • Google'ın özel donanıma sahip Tensor İşleme Birimleri (TPU'lar) tercih edebilirsiniz.
  • Başlangıçta grafik işleme için tasarlanmış olsa da NVIDIA'nın GPU'ları paralel işlemeyi mümkün kılacak şekilde tasarlanmıştır. işlem hızını artırır.

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin sayısının bölümü toplam tahmin sayısına göre değerlendirilir. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru, 10 tanesi de yanlış tahminde bulunan bir model tahminlerin doğruluğu şu şekilde olacaktır:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma belirli adlar sağlar. doğru tahmin kategorilerinin yanı sıra yanlış tahminlere neden olabilir. İkili sınıflandırmanın doğruluk formülü, şu şekildedir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu karşılaştırma ve değerlendirme hassas ve geri çağırma

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler bölümüne bakın.

işlem

#rl

Pekiştirmeli öğrenme'de, aracı'nın ortam durumları arasında geçiş yaptığı mekanizma. Temsilci, politika kullanarak işlemi seçer.

aktivasyon fonksiyonu

#fundamentals

Nöral ağların öğrenmesini sağlayan bir işlev Özellikler arasındaki nonlinear (karmaşık) ilişkiler ve etiketi.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme fonksiyonlarının noktaları hiçbir zaman tek bir düz çizgi değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgi:

İki çizginin Kartezyen grafiği. İlk satırda, -infinity,0 ile 0,-0 arasında x ekseni boyunca uzanan sabit bir y değeri (0) vardır.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0,5 olur. Eğrinin eğimi her zaman pozitiftir. En yüksek eğim 0,0,5'tedir ve x'in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Aktivasyon işlevleri bölümüne bakın.

aktif öğrenme

Bir eğitim yaklaşımıdır. algoritma, öğrendiği verilerin bir kısmını seçer. Aktif öğrenme Özellikle etiketlenmiş örnekler olduğunda değerlidir Nadiren bulunan veya elde edilmesi pahalı olan ürünler. Etkin öğrenme algoritması, etiketli örneklerin çeşitli bir yelpazesini rastgele aramak yerine, öğrenmek için ihtiyaç duyduğu belirli örnek yelpazesini seçerek arar.

AdaGrad

Her bir parametrenin gradyanlarını yeniden ölçeklendiren ve her parametreye etkili bir şekilde bağımsız bir öğrenme hızı veren gelişmiş bir gradyan azalma algoritması. Tam açıklama için bu AdaGrad makalesine bakın.

temsilci

#rl

Güçlendirme öğrenimi'nde, ortam durumları arasında geçişten elde edilen beklenen dönüşüm değerini en üst düzeye çıkarmak için politika kullanan varlıktır.

Daha genel anlamda ise aracı, kendi kendine bir planlama ve yürütme süreci Değişikliklere uyum sağlama becerisiyle bir hedefin peşinde koşan bir dizi eylem teslim etmeye odaklandığı teslimatı öğrendiniz. Örneğin, LLM tabanlı bir temsilci, pekiştirme öğrenme politikası uygulamak yerine plan oluşturmak için LLM kullanabilir.

aglomeratif kümeleme

#clustering

Hiyerarşik kümelenme konusuna bakın.

anormallik algılama

Aykırı değerleri belirleme süreci. Örneğin, belirli bir özelliğin ortalaması 100 ve standart sapması 10 ise anormallik algılama, 200 değerini şüpheli olarak işaretlemelidir.

AR

Artırılmış gerçeklik kısaltması.

PR eğrisinin altındaki alan

PR AUC (PR Eğrisinin altındaki alan) başlıklı makaleyi inceleyin.

ROC eğrisinin altındaki alan

AUC (ROC eğrisinin altındaki alan) konusuna bakın.

yapay genel zeka

Geniş bir yelpazede problem çözme becerisi gösteren, insan kaynaklı olmayan bir mekanizma ve uyum sağlayabilirsiniz. Örneğin, 2023 Yılbaşı İndirimi adında yapay zeka metinleri çevirebilir, senfoniler besteleyebilir ve henüz icat edilmemiş oyunlar.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan harici bir program veya model. Örneğin, çevirisini yapan bir program veya model, hastalıkları tespit eden radyolojik görüntülerin her ikisi de yapay zeka sergiliyor.

Resmi olarak makine öğrenimi, yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

dikkat

#language

Nöral ağda kullanılan mekanizma, bunların belirli bir kelimenin veya sözcüğün önemini öğrenebilirsiniz. Dikkat sıkıştırır bir modelin bir sonraki jetonu/kelimeyi tahmin etmesi için gereken bilgi miktarıdır. Tipik bir dikkat mekanizması, bir giriş grubu üzerinde ağırlıklı toplam içerebilir. Bu toplamda her girişin ağırlığı, nöral ağın başka bir bölümü tarafından hesaplanır.

Transformers'ın yapı taşları olan öz dikkat ve çok başlı öz dikkat hakkında da bilgi edinin.

Kendine dikkat hakkında daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki LLM'ler: Büyük dil modeli nedir? başlıklı makaleyi inceleyin.

özellik

#fairness

Özellik ile eş anlamlıdır.

Makine öğrenimi adaletinde özellikler genellikle bireylerle ilgili özelliklere atıfta bulunur.

özellik örneklemesi

#df

Her bir kullanıcının karar verdiği bir karar ormanını eğitme taktiği karar ağacı olası modellerin yalnızca rastgele bir alt kümesini dikkate alır durumu öğrenirken özellikleri kullanın. Genellikle her düğüm için farklı bir özellik alt kümesi örneklenir. Buna karşılık, özellik örnekleme olmadan bir karar ağacı eğitilirken her düğüm için olası tüm özellikler dikkate alınır.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösteren 0,0 ile 1,0 arasında bir sayı. EUC'nin 1,0'a ne kadar yakın olması, modelin bir şeyler öğrenmeye başlar.

Örneğin, aşağıdaki resimde bir sınıflandırıcı modeli gösterilmektedir pozitif sınıfları (yeşil ovaller) negatif sınıflardan ayıran (mor dikdörtgenler) oluşturabilirsiniz. Gerçekçi olmayan bu mükemmel modelin AUC değeri 1,0'dur:

Bir tarafında 8 pozitif örnek bulunan bir sayı doğrusu ve
          Diğer tarafta 9 olumsuz örnek var.

Buna karşılık, aşağıdaki resimde bir sınıflandırıcıya ilişkin sonuçlar gösterilmektedir modelimiz var. Bu modelin EUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı çizgisi.
          Örnek dizisi pozitif, negatif,
          pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif
          negatif, pozitif, negatif.

Evet, önceki modelin AUC değeri 0,0 değil 0,5'tir.

Çoğu model iki uç noktanın arasında bir yerdedir. Örneğin, model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örneklerin sırası şu şekildedir: negatif, negatif, negatif, negatif, olumlu, negatif, olumlu, olumlu, negatif, olumlu, olumlu, olumlu.

AUC, sınıflandırma eşiği için ayarladığınız tüm değerleri yoksayar. Bunun yerine AUC, olası sınıflandırma eşiklerinin tümünü dikkate alır.

Bkz. Sınıflandırma: ROC ve AUC daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

artırılmış gerçeklik

#image

Kullanıcının gerçek dünyaya bakışını bilgisayar tarafından oluşturulmuş bir görüntüyle birleştirerek birleştirilmiş bir görüntü sunan teknoloji.

otomatik kodlayıcı

#language
#image

Web sitesinden en önemli bilgileri çıkarmayı öğrenen bir sistem giriş. Otomatik kodlayıcılar, bir kodlayıcı ve kod çözücü ile gönderin. Otomatik kodlayıcılar aşağıdaki iki adımlı süreci temel alır:

  1. Kodlayıcı, girişi (tipik olarak) kayıplı bir alt boyutla eşler (orta) biçimdedir.
  2. Kod çözücü, haritalama yaparak orijinal girişin kayıplı bir sürümünü oluşturur düşük boyutlu biçimden orijinal yüksek boyutlu biçime giriş biçimini kullanın.

Otomatik kodlayıcılar, kod çözücünün kodlayıcının ara biçimindeki orijinal girişi mümkün olduğunca yakın bir şekilde yeniden oluşturmaya çalışmasıyla uçtan uca eğitilir. Ara biçim daha küçük olduğu için (daha düşük boyutlu) olduğunda, otomatik kodlayıcı girişteki hangi bilginin gerekli olduğunu, çıktının ise girdiyle tamamen aynı olmalıdır.

Örneğin:

  • Girdi verileri bir grafikse tam olmayan kopya biraz değiştirilmiş. Belki bire bir aynı olmayan kopya, orijinal grafikteki paraziti ortadan kaldırır veya eksik pikseller var.
  • Giriş verileri metinse otomatik kodlayıcı, orijinal metni taklit eden (ancak aynı olmayan) yeni bir metin oluşturur.

Varyasyonel otomatik kodlayıcılar hakkında da bilgi edinin.

otomasyon önyargısı

#fairness

Gerçek kişi olan karar verici, otomatik karar verme sistemi hata yaptığında bile otomatik karar verme sistemi tarafından yapılan önerileri otomasyon olmadan yapılan bilgilere tercih ettiğinde

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

AutoML

Makine öğrenimi geliştirmek için kullanılan herhangi bir otomatik süreç modeller. AutoML, aşağıdakiler gibi görevleri otomatik olarak gerçekleştirebilir:

AutoML, makine öğrenimi ardışık düzenlerini geliştirirken zaman ve emekten tasarruf etmelerini sağlayıp tahmin doğruluğunu artırarak veri bilimciler için faydalıdır. Ayrıca karmaşık hale getirerek uzman olmayanlar için de daha erişilebilir hale getirebilirsiniz.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Otomatik Makine Öğrenimi (AutoML) bölümüne bakın.

otoregresif model

#language
#image
#generativeAI

Kendi önceki tahminlerine dayanarak tahminde bulunan bir model. Örneğin, otomatik regresif dil modelleri bir sonraki jetonunu kullanın. Tamamı Transformer tabanlı büyük dil modelleri otomatik regresyonludur.

Buna karşılık, GAN tabanlı görüntü modelleri genellikle otomatik regresif değildir. Bunun nedeni, bu modellerin bir resmi adım adım iteratif olarak değil, tek bir ileri geçişte oluşturmasıdır. Ancak bazı görüntü üretme modelleri otomatik regresyona göre otomatik regresyona sahiptir. adımlar halinde bir görsel oluşturur.

yedek kayıp

Ağırlıkların rastgele başlatıldığı ilk iterasyonlar sırasında eğitimi hızlandırmaya yardımcı olan, sinir ağı modelinin ana kayıp işleviyle birlikte kullanılan bir kayıp işlevi.

Yardımcı kayıp fonksiyonları, etkili gradyanları önceki katmanlara gönderir. Bu da eğitim sırasında tümleşme kayan gradyan problemi ile mücadele ederek bu sorunu çözebilirsiniz.

ortalama hassasiyet

Sıralı bir sonuç dizisinin performansını özetleyen bir metrik. Ortalama hassasiyet, her alakalı sonuç için hassasiyet değerlerinin ortalaması alınarak hesaplanır (sıralı listedeki her sonuç için, önceki sonuca göre hatırlama oranının arttığı sonuçlar).

Ayrıca bkz. PR Eğrisi altındaki Alan.

eksenle hizalanmış koşul

#df

Karar ağacında yalnızca tek bir özelliği içeren koşul. Örneğin, alan bir özellikse aşağıdaki koşul eksenle hizalanmış bir koşuldur:

area > 200

Eğik koşul ile kontrast oluşturun.

B

.

geri yayılma

#fundamentals

Nöral ağlarda gradyan azalma algoritmasını uygulayan algoritma.

Bir nöral ağı eğitmek, aşağıdaki iki geçişli döngünün birçok iterasyonunu içerir:

  1. İleri geçiş sırasında sistem, tahminler oluşturmak için örneklerden oluşan bir toplu işler. Sistem her bir müşterinin her label değeriyle ilişkilendirin. Artımlılık ile ilişkilendirme ve etiket değeri bu örnek için kayıp olur. Sistem, mevcut grubun toplam kaybını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geriye doğru hesaplama (geri yayılım) sırasında sistem, kayıpları tüm nöronların ağırlıklarını gizli katmanlar.

Nöral ağlar genellikle çok sayıda gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri toplam kayba farklı şekillerde katkıda bulunur. Geri yayılım, ağırlıkların artırılıp azaltılmayacağını belirler belirli nöronlara uygulanır.

Öğrenme hızı, her geri geçişin her ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Yüksek bir öğrenme hızı, her ağırlığı şundan daha fazla artırır veya azaltır: düşük bir öğrenim hızına sahiptir.

Geri yayılım, diferansiyel hesap terimleriyle zincir kuralını uygular. Yani geri yayılma, hatanın her parametreye göre kısmi türevini hesaplar.

Yıllar önce, yapay zeka uygulayıcılarının geri yayılımı uygulamak için kod yazması gerekiyordu. Keras gibi modern makine öğrenimi API'leri artık geri yayılımı sizin için uygular. Bora

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Nöral ağlar bölümüne bakın.

paketleme

#df

Bir topluluğu eğitmek için kullanılan yöntem bileşen model rastgele bir eğitim alt kümesinde eğitilir değişiklikle örneklenen örnekler. Örneğin, rastgele orman, torba oluşturma yöntemiyle eğitilmiş karar ağaçlarının bir koleksiyonudur.

bagging terimi bootstrap aggregating'in kısaltmasıdır.

Daha fazla bilgi için Karar Ağaçları kursunda Rastgele ağaçlar bölümüne bakın.

kelime çantası

#language

Bir kelime öbeği veya pasajdaki kelimelerin temsili elde edebiliyorlar. Örneğin, bir kelime torbası şu üç ifadeyi aynı şekilde ekleyin:

  • köpek zıplıyor
  • köpeği atlar
  • zıplayan köpek

Her kelime, seyrek vektör içindeki bir dizine eşlenir. Burada vektörün sözlükteki her kelime için bir dizini vardır. Örneğin, köpek zıplıyor ifadesi, köpek, zıplıyor ve köpek kelimelerine karşılık gelen üç dizinin sıfır olmayan değerlerine sahip bir özellik vektörüne eşlenir. Sıfır olmayan değer aşağıdakilerden herhangi biri olabilir:

  • Bir kelimenin varlığını belirtmek için 1.
  • Bir kelimenin torbada kaç kez göründüğünün sayısı. Örneğin, bordo köpek, bordo kürklü bir köpektir kelime öbeğini kullanıyorsanız her ikisi de bordo ve köpek 2 olarak temsil edilir, diğer kelimeler ise 2 olarak temsil edilir 1 olarak temsil edilir.
  • Bir kelimenin torbada kaç kez göründüğünün sayısına ait logaritma gibi başka bir değer.

referans değer

Başka bir modelin (genellikle daha karmaşık bir model) ne kadar iyi performans gösterdiğini karşılaştırmak için referans noktası olarak kullanılan bir model. Örneğin, mantıksal regresyon modeli derin bir model için iyi bir temel çizgisidir.

Belirli bir sorun için referans değer, model geliştiricilerin yeni modelin yararlı olması için yeni modelin elde etmesi gereken minimum beklenen performansı ölçmesine yardımcı olur.

grup

#fundamentals

Bir eğitim iterasyonunda kullanılan örnek grubu. Grup boyutu, bir gruptaki örnek sayısını belirler.

Bir grubun nasıl ilişkili olduğuyla ilgili açıklama için dönem bölümüne bakın bir dönem.

Doğrusal regresyon: Hiperparametreler daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

toplu çıkarım

#TensorFlow
#GoogleCloud

Daha küçük alt kümelere ("gruplar") bölünmüş birden fazla etiketlenmemiş örnek için tahminleri tahmin etme işlemi.

Toplu çıkarım, hızlandırıcı çiplerinin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı farklı etiketlenmemiş grup gruplarıyla ilgili tahminlerde kullanarak saniyedeki çıkarım sayısını önemli ölçüde artırır.

Üretim ML sistemleri: Statik ve dinamik karşılaştırması çıkarım daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

toplu normalleştirme

Veri analistinin girişini veya çıkışını normalleştirme etkinleştirme işlevlerini gizli katman olarak ayarlayın. Toplu normalleştirme aşağıdaki avantajları sağlayabilir:

grup boyutu

#fundamentals

Bir grup içindeki örnek sayısı. Örneğin, toplu boyut 100 ise model iterasyon başına 100 örnek işler.

Popüler toplu boyut stratejileri şunlardır:

  • Olasılıksal Gradyan İniş (SGD): Grup boyutu 1'dir.
  • Tam grup: Grup boyutu, eğitim veri kümesinin tamamındaki örneklerin sayısıdır. Örneğin, eğitim veri kümesi bir milyon örnek içeriyorsa toplu veri boyutu bir milyon örnek olur. Tam grup genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ve 1000. Mini toplu işlem genellikle en etkili stratejidir.

Daha fazla bilgi edinmek için aşağıdaki konulara bakın:

Bayes nöral ağı

Olasılığa dayalı bir sinirsel ağ: ağırlıklar ve çıkışlardaki belirsizliklere neden olur. Standart bir nöral ağ regresyon modeli genellikle skaler bir değeri tahmin eder. Örneğin, standart bir model 853.000 TL'lik bir ev fiyatını tahmin eder. Buna karşılık, Bayesyen sinir ağı bir değer dağılımını tahmin eder. Örneğin, Bayesyen bir model 67.200 standart sapmaya sahip 853.000 TL'lik bir ev fiyatını tahmin eder.

Bayesyen nöral ağ, ağırlıklar ve tahminlerdeki belirsizlikleri hesaplamak için Bayes' teoreminden yararlanır. Bayes türü sinir ağları, belirsizliği ölçmenin önemli olduğu durumlarda (ör. ilaçlarla ilgili modellerde) yararlı olabilir. Bayesyen nöral ağlar, aşırı uyum oluşumunu önlemeye de yardımcı olabilir.

Bayes optimizasyonu

Olası regresyon modeli daha pahalıya mal olacak optimizasyon tekniklerini vekil fonksiyonları optimize ederek hedef işlevleri Bayes öğrenme tekniğini kullanarak belirsizliği ölçen bir test yöntemidir. Bayes optimizasyonunun kendisi çok pahalı olduğundan genellikle hiper parametreler seçme gibi az sayıda parametresi olan ve değerlendirmesi pahalı olan görevleri optimize etmek için kullanılır.

Bellman denklemi

#rl

Güçlendirme öğrenimi, optimal Q işlevi tarafından aşağıdaki kimliği karşılar:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

Güçlendirme öğrenimi algoritmaları, aşağıdaki güncelleme kuralı aracılığıyla Q-öğrenme oluşturmak için bu kimliği uygular:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

Bellman denkleminin pekiştirmeli öğrenmenin ötesinde, dinamik programlama. Bellman denklemi için Wikipedia girişine göz atın.

BERT (Dönüştürücülerden Çift Yönlü Kodlayıcı Temsilleri)

#language

Metin temsili için model mimari. Eğitilmiş bir BERT modeli, metin sınıflandırma veya diğer makine öğrenimi görevleri için daha büyük bir modelin parçası olarak kullanılabilir.

BERT'in özellikleri şunlardır:

BERT'in varyantları şunlardır:

  • ALBERT: A Light BERT kısaltmasıdır.
  • LaBSE anahtar kelimesi.
ziyaret edin.

BERT'e genel bakış için BERT'i Açık Kaynak Olarak Paylaşma: Doğal Dil İşleme İçin En Gelişmiş Ön Eğitim başlıklı makaleyi inceleyin.

önyargı (etik/adillik)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı kalıp yargı, önyargı ya da kayırmacılık Bu önyargılar, verilerin toplanmasını ve yorumlanmasını, sistemin tasarımını ve kullanıcıların sistemle etkileşimini etkileyebilir. Bu tür önyargıların biçimleri şunlardır:

2. Örnekleme veya raporlama prosedürü tarafından oluşturulan sistematik hata. Bu tür önyargıların biçimleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

önyargı (matematik) veya önyargı terimi

#fundamentals

Bir kaynağa uzaklık veya kesme noktası. Önyargı, yaygın olarak kullanılan bazı araçlar, takip etmek için:

  • b
  • w0

Örneğin, aşağıdaki formülde önyargı b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, önyargı yalnızca "y kesme noktası" anlamına gelir. Örneğin, aşağıdaki görselde gösterilen satırın eğilimi 2'dir.

Eğimi 0,5 ve yanlılığı (y kesim noktası) 2 olan bir çizginin grafiği.

Tüm modeller orijinden (0,0) başlamadığı için önyargı vardır. Örneğin, bir eğlence parkına giriş ücretinin 2 avro, müşterinin parkta kaldığı her saat için ek 0,5 avro olduğunu varsayalım. Bu nedenle, toplam maliyeti eşleyen bir modelin önyargı değeri 2'dir çünkü en düşük maliyet 2 avrodur.

Yanlılık, etik ve adalet konusundaki yanlılık veya tahmin yanlılık ile karıştırılmamalıdır.

Doğrusal Regresyon bölümünü inceleyin daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

iki yönlü

#language

Metni ilk önce önce ve metnin bir hedef bölümünü takip eder. Öte yandan Yalnızca tek yönlü sistem metnin hedef bölümünden öncesi metni değerlendirir.

Örneğin, aşağıdaki soruda altı çizili kelimeyi veya kelimeleri temsil eden kelimelerin olasılıklarını belirlemesi gereken bir maskeli dil modelini ele alalım:

What is the _____ with you?

Tek yönlü bir dil modelinin olasılıklarını yalnızca "Ne", "nedir" ve "o" kelimelerinin sağladığı bağlama göre belirlemesi gerekir. Öte yandan iki yönlü bir dil modeli, aynı zamanda "birlikte" ifadesinden bağlam da alabilir. ve "siz", Bu da modelin daha iyi tahminler oluşturmasına yardımcı olabilir.

iki yönlü dil modeli

#language

Bir kullanıcının belirli bir isteği yerine getirme olasılığını belirleyen bir dil modeli belirtilen konuma dayalı bir metin alıntısında belirtilen konum önceki ve sonraki metin.

Bigram

#seq
#language

N=2 olan bir N-gram.

ikili sınıflandırma

#fundamentals

Karşılıklı olarak birbirini dışlayan iki sınıftan birini tahmin eden bir sınıflandırma görevi türü:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) mi yoksa spam değil (negatif sınıf) mi olduğunu belirleyen bir model.
  • Kişinin tıbbi belirtileri değerlendiren bir model olup olmadığını belirli bir hastalığı (olumlu sınıf) varsa veya o hastalığı yok negatif sınıf olarak değerlendirilir.

Çok sınıflı sınıflandırma ile kontrast oluşturun.

Mantıksal regresyon ve sınıflandırma eşiği hakkında da bilgi edinin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

ikili koşul

#df

Karar ağacında, bir koşul genellikle evet veya hayır olmak üzere yalnızca iki olası sonuç içeren bir kampanya oluşturun. Örneğin, aşağıdaki bir ikili koşuldur:

temperature >= 100

Non-binary koşulu ile karşılaştırın.

Koşul türleri bölümüne bakın. başlıklı makaleyi okuyabilirsiniz.

binning

gruplama ile eş anlamlıdır.

BLEU (İki Dilli Değerlendirme Asistanı)

#language

Çevirinin kalitesini gösteren 0, 0 ile 1, 0 (dahil) arasında bir puan iki insan dili arasında (örneğin, İngilizce ve Rusça arasında). BLEU 1,0 puan, çevirinin mükemmel olduğunu gösterir; 0,0 olan bir BLEU puanı kötü bir çeviri olabilir.

güçlendirme

Modelin şu anda yanlış sınıflandırdığı örneklere ağırlık vererek basit ve çok doğru olmayan bir dizi sınıflandırıcıyı ("zayıf" sınıflandırıcılar olarak adlandırılır) iteratif olarak yüksek doğruluktaki bir sınıflandırıcıyla ("güçlü" sınıflandırıcı) birleştiren bir makine öğrenimi tekniği.

Bkz. Gradient Boosted Karar Ağaçlar? başlıklı makaleyi okuyabilirsiniz.

sınırlayıcı kutu

#image

Bir resimde,x (ör. resimdeki köpeği) seçin.

Koltukta oturan bir köpeğin fotoğrafı. Yeşil bir sınırlayıcı kutu
          (275, 1271) sol üst koordinatları ve sağ alt
          (2954, 2761) koordinatlarının köpeğin vücudunun çevresini çizdiği

yayın

Matris matematik işleminde bir operandın şeklini, söz konusu işlemle uyumlu boyutlara genişletme. Örneğin, doğrusal cebir, bir matris toplama işlemindeki iki operandın aynı boyutlara sahip olmasını gerektirir. Sonuç olarak, şekil matrisi ekleyemezsiniz (m, n) formülünü n uzunluğunda bir vektöre dönüştürür. Anons, şu şekilde bu işlemi etkinleştirir: n uzunluk vektörünü bir şekil matrisine (m, n) sanal olarak aşağı doğru aynı değerleri kopyalamaktır.

Örneğin, aşağıdaki tanımlara göre, doğrusal cebir A ve B farklı boyutlara sahip olduğundan A+B:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

Ancak yayınlama, B'yi sanal olarak şu şekilde genişleterek A+B işlemini etkinleştirir:

 [[2, 2, 2],
  [2, 2, 2]]

Böylece A+B artık geçerli bir işlemdir:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

Daha fazla bilgi için NumPy'de yayın ile ilgili aşağıdaki açıklamaya bakın.

gruplandırma

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına göre paketler veya kümeler olarak adlandırılan birden fazla ikili özelliğe dönüştürür. Doğranmış özellik genellikle Kesintisiz bir deneyim.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine sıcaklık aralıklarını aşağıdaki gibi ayrı kaplara ayırabilirsiniz:

  • <= 10 santigrat derece "soğuk" grubuna girer.
  • 11-24 santigrat derece "ılıman" grubuna girer.
  • >= 25 santigrat derece "sıcak" grubu olur.

Model, aynı paketteki tüm değerleri aynı şekilde işler. Örneğin, Örneğin, 13 ve 22 değerleri ılıman pakette olduğundan modeli, iki değeri aynı şekilde işler.

Bkz. Sayısal veriler: Kutulama daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

C

kalibrasyon katmanı

Genellikle tahmin önyargısını hesaba katmak için kullanılan tahmin sonrası düzenleme. Düzeltilen tahminler ve olasılıklar, gözlemlenen bir etiket kümesinin dağılımıyla eşleşmelidir.

aday oluşturma

#recsystems

Öneri sistemi tarafından seçilen ilk öneri grubu. Örneğin, 100.000 kitap sunan bir kitapçıyı düşünün. Aday oluşturma aşaması, belirli bir kullanıcı için çok daha küçük bir kitap listesi (ör. 500) oluşturur. Ama hatta 500 kitap, bir kullanıcıya önerilemeyecek kadar fazla. Önerinin daha pahalı olan sonraki aşamaları (ör. puanlama ve yeniden sıralama), bu 500 öğeyi çok daha küçük ve daha kullanışlı bir öneri grubuna indirger.

Aday oluşturma genel bakış daha fazla bilgi için Öneri Sistemleri kursuna göz atın.

aday örnekleme

Örneğin, softmax kullanarak tüm pozitif etiketler için olasılığı hesaplayan ancak yalnızca rastgele bir negatif etiket örneği için olan eğitim zamanı optimizasyonu. Örneğin, beagle ve köpek etiketli bir örnek verildiğinde, aday örnekleme aşağıdakiler için tahmini olasılıkları ve ilgili kayıp terimlerini hesaplar:

  • beagle
  • köpek
  • rastgele bir alt kümesi (örneğin, kedi, lollipop, çit).

Buradaki fikir, negatif sınıflar olduğu sürece olumsuz pekiştirme pozitif sınıflar her zaman olumlu sonuçlar verir pekiştirir ve bu gerçekten de deneysel olarak gözlemlenir.

Aday örnekleme, özellikle olumsuz sınıf sayısı çok fazla olduğunda tüm olumsuz sınıflar için tahminleri hesaplayan eğitim algoritmalarından daha verimlidir.

kategorik veri

#fundamentals

Belirli bir olası değer grubuna sahip özellikler. Örneğin, traffic-light-state adında bir kategorik özelliği düşünün. şu üç olası değerden birine sahip olursunuz:

  • red
  • yellow
  • green

traffic-light-state, kategorik bir özellik olarak temsil edildiğinde model, red, green ve yellow'ın sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen discontinious features (discontinious features) olarak da adlandırılır.

Sayısal verilerle kontrast oluşturun.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Kategorik verilerle çalışma bölümüne bakın.

nedensel dil modeli

#language

Tek yönlü dil modeli ile eş anlamlıdır.

Dil modellemede farklı yönsel yaklaşımları karşılaştırmak için iki yönlü dil modeli konusuna bakın.

kütle merkezi

#clustering

K-ortalama veya k-orta algoritması tarafından belirlenen bir kümenin merkezi. Örneğin, k 3 ise k-ortalama veya k-ortalama algoritması 3 ağırlık merkezi bulur.

Daha fazla bilgi için Küme oluşturma kursundaki Küme oluşturma algoritmaları bölümüne bakın.

merkeze dayalı kümeleme

#clustering

Verileri hiyerarşik olmayan kümelere ayıran bir kümeleme algoritması kategorisi. K-ortalama, ağırlık merkezine dayalı en yaygın kümeleme algoritmasıdır.

Hiyerarşik kümelemeyle kontrast kullanır.

Daha fazla bilgi için Küme oluşturma kursundaki Küme oluşturma algoritmaları bölümüne bakın.

düşünce zinciri istemi

#language
#generativeAI

Bir istem mühendisliği tekniği olarak, büyük dil modeli (LLM) kullanarak ve akıl yürütmeye ne dersiniz? Örneğin, şu istemi dikkate alın: aşağıdaki cümleye çok dikkat etmeniz gerekir:

7 saniyede 0'dan 100 kilometre hıza çıkan bir araçta sürücü kaç g kuvveti yaşar? Yanıtta, ilgili tüm hesaplamaları gösterin.

LLM'nin yanıtı büyük olasılıkla:

  • 0, 60 ve 7 değerlerini dikkate alarak bir fizik formülleri dizisini göster koymanız gerekir.
  • Şirketin bu formülleri neden seçtiğini ve çeşitli değişkenlerin ne anlama geldiğini açıklayın.

Düşünce zinciri istenmesi, LLM'yi tüm hesaplamaları yapmaya zorlar, Bu da daha doğru bir yanıt almanızı sağlayabilir. Ayrıca düşünce zinciri istemi, kullanıcının cevabın mantıklı olup olmadığını belirlemek için LLM'nin adımlarını incelemesini sağlar.

sohbet

#language
#generativeAI

Bir ML sistemiyle yapılan diyalogların içeriği, genelde büyük dil modelini kullanın. Sohbetteki önceki etkileşim (ne yazdığınız ve büyük dil modelinin nasıl yanıt verdiği), sohbetin sonraki bölümlerinin bağlamı olur.

Chatbot, büyük dil modelinin bir uygulamasıdır.

kontrol noktası

Eğitim sırasında veya eğitim tamamlandıktan sonra bir modelin parametrelerinin durumunu yakalayan veriler. Örneğin, eğitim sırasında yapabilecekleriniz:

  1. Belki kasıtlı veya belki de bir sebepten dolayı eğitimi neden olabilir.
  2. Kontrol noktasını yakalayın.
  3. Daha sonra, kontrol noktasını muhtemelen farklı bir donanımda yeniden yükleyin.
  4. Eğitimi yeniden başlatın.
ziyaret edin.

sınıf

#fundamentals

Etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Öte yandan regresyon modeli ise belirli bir sayıyı tahmin eder. bir kontrol noktası görevi görebilir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıda tüm sınıflandırma modelleri yer almaktadır:

  • Giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca mı?).
  • Ağaç türünü tahmin eden bir model (Akçaağaç? Meşe? Baobab?).
  • Belirli bir öğe için pozitif veya negatif sınıfı tahmin eden bir model tıbbi bir durum olup olmadığını kontrol edin.

Öte yandan regresyon modelleri, sayıları tahmin eder. tercih edebilirsiniz.

Sık kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, 0 ile 1 arasında bir sayıdır ve bu değer, mantıksal regresyon modeli pozitif sınıfın veya negatif sınıfı kullanın. Sınıflandırma eşiğinin, kullanıcıların seçtiği bir değer olduğunu unutmayın. model eğitimi tarafından seçilen bir değer değildir.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer üretir. Ardından:

  • Bu ham değer sınıflandırma eşiğinden yüksekse olduğu tahmin edilir.
  • Bu ham değer sınıflandırma eşiğinden düşükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0,9 ise model pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yapılacak tıklama işlemlerinin yanlış pozitif ve yanlış negatifler.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

sınıf dengesiz veri kümesi

#fundamentals

Her sınıfın toplam etiket sayısının önemli ölçüde farklı olduğu bir sınıflandırma problemi için veri kümesi. Örneğin, iki etiketi bulunan bir ikili sınıflandırma veri kümesi şu şekilde bölünür:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitif etiketlere oranı 100.000'e 1 olduğundan bu veri kümesi sınıf dengesi bozuk bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesinde sınıf dengesizliği değildir çünkü negatif etiketlerin pozitif etiketlere oranı 1'e nispeten yakındır:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümeleri de sınıf dengesi bozuk olabilir. Örneğin, çok sınıflı sınıflandırma veri kümesi de sınıf dengesizliğidir çünkü tek bir etiket diğer ikisinden çok daha fazla örnek içerir:

  • "Yeşil" sınıfını içeren 1.000.000 etiket
  • "mor" sınıfına sahip 200 etiket
  • "orange" sınıfına sahip 350 etiket

Ayrıca bkz. entropi, çoğunluk sınıfı, ve azınlık sınıfı.

kırpma

#fundamentals

aykırı değerleri şu şekilde ele almaya yönelik bir teknik: aşağıdakilerden biri ya da her ikisi:

  • Maksimum bir değerden büyük olan feature değerlerini azaltma maksimum eşiğe kadar düşürebilirsiniz.
  • Minimum eşiğin altındaki özellik değerlerini bu minimum eşiğe kadar artırma.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40-60 aralığının dışındadır. Bu durumda aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar vererek bazen ağırlıklara neden olabilir yaygın risk türlerini ele alalım. Bazı aykırı hesaplar da doğruluk gibi metrikler vardır. Kırpma, en sık kullanılan tekniklerden biridir. olabilir.

Gradyan kırpma, eğitim sırasında gradyan değerlerini belirli bir aralık içinde zorlar.

Bkz. Sayısal veriler: Normalleştirme daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.

kümeleme

#clustering

İlgili örnekleri gruplandırma, özellikle de gözetimsiz öğrenim. Tüm örnekler gruplandırıldıktan sonra, bir kullanıcı isteğe bağlı olarak her kümeye anlam verebilir.

Birçok küme oluşturma algoritması vardır. Örneğin, k-ortalama algoritması, örnekleri aşağıdaki şemada gösterildiği gibi bir orta noktaya olan yakınlıklarına göre gruplandırır:

X ekseninin ağaç genişliği, y ekseninin ise ağaç yüksekliği olarak etiketlendiği iki boyutlu bir grafik. Grafikte iki
          onlarca veri noktası yer alıyor. Veri noktaları,
          yakınlıklarına göre kategorize edilir. Yani veri noktaları
          bir merkeze en yakın küme 1 olarak sınıflandırılırken, bu merkezler küme 1
          diğer merkeze en yakın olan küme 2 olarak sınıflandırılır.

Daha sonra insan araştırmacı, kümeleri inceleyebilir ve örneğin küme 1'i "cüce ağaçlar" olarak etiketle ve küme 2'yi "tam boyutlu ağaçlar" olarak görürsünüz.

Başka bir örnek olarak, bir kümeye dayalı bir kümeleme algoritması şu şekilde gösterilmiştir:

Onlarca veri noktası, neredeyse bir dart tahtasının ortasındaki delikler gibi iç içe geçmiş çemberler halinde düzenlenir. En içteki halka
          Veri noktasının yüzde 15&#39;i küme 1, ortadaki halka
          küme 2 ve en dıştaki halka ise
          küme 3.

Kümeleme kursunu inceleyin konulu videomuzu izleyin.

ortak uyarlama

Sinir hücreleri, ağın bir bütün olarak davranışına güvenmek yerine neredeyse yalnızca belirli diğer sinir hücrelerinin çıkışlarına güvenerek eğitim verilerindeki kalıpları tahmin ettiğinde. Ortak adaptasyona neden olan kalıplar doğrulama verilerinde bulunmadığında ortak adaptasyon aşırı uyuma neden olur. Ayrılmaların normalleştirilmesi, birlikte uyarlamayı azaltır Çünkü ayrılma, nöronların yalnızca belirli diğer nöronlara bel bağlamamasını sağlar.

ortak çalışmaya dayalı filtreleme

#recsystems

Bir kullanıcının ilgi alanları hakkında tahminlerde bulunma Google Analytics 4'te arama yapın. Ortak çalışmaya göre filtreleme Genellikle öneri sistemlerinde kullanılır.

Bkz. Ortak çalışmaya dayalı filtreleme daha fazla bilgi için Öneri Sistemleri kursuna göz atın.

kavram kayması

Özellikler ve etiket arasındaki ilişkide bir kayma. Kavram kayması zaman içinde modelin kalitesini düşürür.

Eğitim sırasında model, eğitim veri kümesindeki özellikler ile etiketleri arasındaki ilişkiyi öğrenir. Eğitim veri kümesindeki etiketler için iyi proxy'ler sunuyorsa model, gerçek dünya tahminleridir. Ancak kavram kayması nedeniyle modelin tahminleri zaman içinde kötüleşme eğilimindedir.

Örneğin, ikili sınıflandırmayı göz önünde bulundurun. belirli bir otomobil modelinin "yakıt verimliliği" olup olmadığını tahmin eden bir modeldir. Yani, özellikler şöyle olabilir:

  • araç ağırlığı
  • motor sıkıştırması
  • transmission type

ise etiket şunlardan biridir:

  • yakıt verimliliği
  • yakıt verimliliği düşük

Ancak, "yakıt tasarruflu araba" kavramı, saklar bir değişim söz konusu. 1994'te yakıt tasarruflu olarak etiketlenen bir araç modeli, 2024'te neredeyse kesinlikle yakıt tasarruflu değil olarak etiketlenecektir. Konsept kayması sorunu yaşayan bir model zamanla daha az faydalı tahminlerde bulunur.

Değişkenlik ile karşılaştırma yapın.

koşul

#df

Karar ağacında, sizi bekleyen herhangi bir düğüm bir ifadeyi değerlendirir. Örneğin, bir karar ağacının aşağıdaki kısmı iki koşul içerir:

İki koşuldan oluşan bir karar ağacı: (x > 0) ve (y > 0).

Koşul, bölme veya test olarak da adlandırılır.

Yaprak ile kontrast koşulu.

Şuna da bakabilirsiniz:

Koşul türleri bölümüne bakın. başlıklı makaleyi okuyabilirsiniz.

sohbet

#language

halüsinasyon ile eş anlamlıdır.

"Kafa" terimi, teknik olarak halüsinasyondan daha doğru bir terimdir. Ancak önce halüsinasyon popüler oldu.

yapılandırma

Aşağıdakiler dahil olmak üzere bir modeli eğitmek için kullanılan ilk özellik değerlerini atama işlemi:

Makine öğrenimi projelerinde yapılandırma, özel bir yapılandırma dosyasını kullanarak veya aşağıdaki gibi yapılandırma kitaplıklarını kullanarak:

doğrulama önyargısı

#fairness

Belirli bir çerçevede bilgileri arama, yorumlama, destekleme ve hatırlama eğilimi mevcut inançlarını veya hipotezlerini doğrulayan bir yöntem bulmaktır. Makine öğrenimi geliştiricileri, istemeden topladıkları veya etiketleyebilir. sağlayacak bir sonucu etkileyecek, inançlar için kullanılır. Doğrulama yanlılığı bir dolaylı ön yargı biçimidir.

Deneycinin yanlılığı bir onay yanlılığı şeklidir. model mevcut bir model olana kadar eğitime onaylanmış olur.

karışıklık matrisi

#fundamentals

Doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu sınıflandırma modelinin yaptığı karşılaştırmadır. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini ele alalım:

Tümör (tahmini) Tümör dışı (tahmini)
Tümör (kesin referans) 18 (TP) 1 (yanlış negatif)
Tümör Olmayan (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisi aşağıdakileri gösterir:

  • Kesin referansın tümör olduğu 19 tahminden 18'ini doğru, 1'ini yanlış sınıflandırmıştır.
  • Kesin referansın Non-Tumor (tümör olmayan) olduğu 458 tahminden model 452'sini doğru, 6'sını yanlış sınıflandırmıştır.

Çok sınıflı sınıflandırma için karışıklık matrisi hata örüntülerini belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) kategorize eden 3 sınıflı çok sınıflı sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin. Kesin referans Virginica olduğunda karışıklık matrisi, modelin yanlışlıkla Versicolor'u tahmin etme olasılığının Setosa'dan çok daha yüksek olduğunu gösterir:

  Setosa (tahmini) Versicolor (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, karışıklık matrisi, el yazısı ile yazılmış rakamları tanımak için eğitilmiş bir modelin 4 yerine yanlışlıkla 9'u veya 7 yerine yanlışlıkla 1'i tahmin etme eğiliminde olduğunu gösterebilir.

Karışıklık matrisleri aşağıdaki hesaplamaya yetecek kadar bilgi içerir: hassaslık gibi çeşitli performans metrikleri ve geri çağırma.

seçim bölgesi ayrıştırma

#language

Cümleyi daha küçük dil bilgisi yapılarına ("bileşenler") bölmek. Makine öğrenimi sisteminin daha sonra doğal dil anlama modelini kullanır ve bileşenleri, orijinal cümleye göre daha kolay ayrıştırabilir. Örneğin, şu cümleyi düşünün:

Arkadaşım iki kedi sahiplendi.

Bir seçim bölgesi ayrıştırıcısı bu cümleyi aşağıdaki bölümlere bölebilir şu iki bileşenden oluşur:

  • Arkadaşım bir isim kelime öbeğidir.
  • iki kedi sahiplenme fiil ifadesidir.

Bu bileşenler, daha küçük alt bölümlere ayrılabilir. Örneğin,

iki kedi sahiplendi

aşağıdaki alt kategorilere ayrılabilir:

  • kabullenilmiş bir fiildir.
  • iki kedi başka bir isim kelime öbeğidir.

bağlama dayalı dil yerleştirme

#language
#generativeAI

"Anlama"ya yakın bir yerleştirme kelimeler şekilde ifade etmesine yardımcı olur. Bağlamsallaştırılmış dil embeddings'leri karmaşık söz dizimi, anlambilim ve bağlamı anlayabilir.

Örneğin, İngilizce inek kelimesini yerleştirebilirsiniz. Daha eski yerleştirilmiş öğeler word2vec gibi bir ifade İngilizceyi temsil edebilir yerleştirme alanındaki mesafe gibi kelimeler ewe (dişi koyun) ile boğa arasındaki mesafe, ewe (dişi koyun) ile koç (erkek koyun) veya dişi'den erkek'e. Bağlamsallaştırılmış dil embeddings'leri, İngilizce konuşan kişilerin bazen inek veya boğa anlamına gelen cow kelimesini gelişigüzel kullandığını fark ederek bir adım daha ileri gidebilir.

bağlam penceresi

#language
#generativeAI

Bir modelin belirli bir istemde işleyebileceği jeton sayısı. Bağlam penceresi ne kadar büyükse o kadar fazla bilgi tutarlı ve tutarlı yanıtlar vermek için kullanabileceği komut istemine ekleyin.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz olası değer aralığına sahip kayan noktalı bir özellik.

Ayrı özellik ile kontrast oluşturun.

uygun örnekleme

Hızlı çalıştırma amacıyla bilimsel olarak toplanmamış bir veri kümesi kullanma denemeler yapabilirsiniz. Daha sonra, platformu bilimsel olarak toplanmış veri kümesiyle eşleştirilir.

yakınsama

#fundamentals

loss değerleri çok az değiştiğinde veya her yinelemede hiç yok. Örneğin, kayıp eğrisi, yaklaşık 700 yinelemede yakınsaklığı işaret eder:

Kartezyen şema. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısını gösterir. İlk birkaç iterasyonda kayıp çok yüksektir ancak keskin bir şekilde düşer. Yaklaşık 100 iterasyondan sonra kayıp azalmaya devam ediyor ancak bu süreç çok daha kademeli. Yaklaşık 700 iterasyondan sonra kayıp sabit kalır.

Ek eğitim olmadığında model tümleşir modeli geliştirebilirsiniz.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya sonunda düşmeden önce birçok iterasyon boyunca neredeyse sabit kalır. Uzun süre boyunca sabit kayıp değerleri olduğunda geçici olarak yanlış bir yakınsama hissi edinebilirsiniz.

Ayrıca bkz. erken durma.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Model yakınsama ve kayıp eğrileri bölümüne bakın.

dışbükey işlevi

İşlevin grafiğinin üzerindeki bölgenin konveks bir küme olduğu bir işlev. Prototip dışbükey fonksiyonu U harfine benzer. Örneğin, aşağıdakilerin tümü dışbükey işlevlerdir:

Her biri tek bir minimum noktaya sahip U şeklindeki eğriler.

Öte yandan, aşağıdaki işlev dışbükey değildir. Etiketin grafiğin üzerindeki bölge dışbükey küme değil:

İki farklı yerel minimum noktaya sahip W şekilli bir eğri.

Tamamen dışbükey fonksiyonun tam olarak bir yerel minimum noktası vardır. aynı zamanda küresel minimum noktadır. Klasik U şekilli işlevler fonksiyonel fonksiyonlar vardır. Ancak bazı dışbükey fonksiyonlar (örneğin, düz çizgiler) U şeklinde değildir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Yaklaşma ve dışbükey fonksiyonlar bölümüne bakın.

dışbükey optimizasyon

Matematiksel teknikleri kullanma süreci, gradyan iniş dışbükey fonksiyonun minimum değeri. Makine öğreniminde yapılan birçok araştırma, çeşitli formüllerle iç içe geçmiş optimizasyon problemleri olarak ele aldıklarını ve bu problemleri çözmelerine yolları aranır.

Ayrıntılı bilgi için Boyd ve Vandenberghe, Convex Optimizasyon.

dışbükey kümesi

Öklid uzayının, alt kümedeki herhangi iki nokta arasında çizilen bir çizginin tamamen alt küme içinde kalması gibi bir özelliği olan alt kümesi. Örneğin aşağıdaki iki ayar şekiller dışbükey kümelerdir:

Dikdörtgen resmi. Diğer bir oval çizim.

Öte yandan, aşağıdaki iki şekil dışbükey kümeler değildir:

Dilim eksik olan bir pasta grafiği görseli.
          Düzensiz bir çokgenin başka bir resmi.

konvolüsyon

#image

Matematikte, günlük konuşmada iki işlevin bir karışımıdır. Makine öğrenimindeki bir topoloji, ağırlıkları eğitmek için topolojik filtreyi ve giriş matrisini karıştırır.

Konvolüsyon terimi yaygın kullanılan bir yöntemdir. evrimsel işlemden konvolüsyonel katman olarak tanımlanabilir.

Devrimler olmadan, bir makine öğrenimi algoritmasının büyük bir tenzor içindeki her hücre için ayrı bir ağırlık öğrenmesi gerekir. Örneğin, 2K x 2K görüntüler üzerinde eğitilen bir makine öğrenimi algoritmasının, ayrı ağırlıklar bulur. Devrimler sayesinde, makine öğrenimi algoritmasının yalnızca dönüşüm filtresindeki her hücrenin ağırlığını bulması gerekir. Bu da modeli eğitmek için gereken belleği önemli ölçüde azaltır. Devrimsel filtre uygulandığında, hücreler arasında kopyalanır ve her hücre filtreyle çarpılır.

Daha fazla bilgi için Resim Sınıflandırması kursundaki Derin Öğrenme ile Konvolüsyonel Sinir Ağları başlıklı makaleyi inceleyin.

konvolüsyon filtresi

#image

Dönüşüm işlemi'ndeki iki aktörden biri. (Diğer aktör bir giriş matrisinin dilimidir.) Konvolüsyonel filtre, girdi matrisi ile aynı sıralama, ancak daha küçük bir şekildir. Örneğin, 28x28 boyutunda bir giriş matrisi verildiğinde filtre, herhangi bir 2D matris olabilir. daha küçük olmalıdır.

Fotoğrafta oynama işleminde, birleştirme filtresindeki tüm hücreler genellikle sabit bir birler ve sıfırlar desenine ayarlanır. Makine öğreniminde kıvrımlı filtreler genellikle rastgele sayılarla başlar, daha sonra ağının ideal değerleri eğitmesine olanak tanır.

Eşleştirme başlıklı makaleyi inceleyin daha fazla bilgi için Görüntü Sınıflandırma kursuna bakabilirsiniz.

konvolüsyonel katman

#image

Evrişimli filtrenin bir giriş matrisinden geçtiği derin sinir ağı katmanı. Örneğin, aşağıdaki 3x3 dönüştürme filtresini ele alalım:

Şu değerlere sahip 3x3 boyutunda bir matris: [[0,1,0], [1,0,1], [0,1,0]]

Aşağıdaki animasyonda 9 öğeden oluşan kıvrımlı bir katman gösterilmektedir 5x5 giriş matrisini içeren konvolüsyonel işlemler. Her konvolusyon işleminin, giriş matrisinin farklı bir 3x3 dilimiyle çalıştığını unutmayın. Elde edilen 3x3 matris (sağda), 9 konvolusyon işleminin sonuçlarından oluşur:

İki matrisi gösteren animasyon. İlk matris 5x5 matristir: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          İkinci matris, 3x3 matristir:
          [[181.303.618], [115.338.605], [169.351.560]].
          İkinci matris, 5x5 matrisin farklı 3x3 alt kümelerine [[0, 1, 0], [1, 0, 1], [0, 1, 0]] convolutional filtresi uygulanarak hesaplanır.

Bkz. Tamamen Bağlı Katmanlar daha fazla bilgi için Görüntü Sınıflandırma kursuna bakabilirsiniz.

evrişimli nöral ağ

#image

En az bir katmanın bir öğe olduğu sinirsel ağ konvolüsyonel katman. Tipik konvolüsyon nöral ağ, aşağıdaki katmanların bir kombinasyonundan oluşur:

Konvolüsyonel nöral ağlar bazı alanlarda büyük başarı sağlamıştır. ön plana çıkarırız.

konvolüsyon işlemi

#image

Aşağıdaki iki adımlı matematiksel işlem:

  1. Dönüşüm filtresinin ve giriş matrisinin bir diliminin öğe bazında çarpımı. (Giriş matrisinin dilimi, konvolusyon filtresiyle aynı rütbeye ve boyuta sahiptir.)
  2. Elde edilen ürün matrisindeki tüm değerlerin toplamı.

Örneğin, aşağıdaki 5x5 giriş matrisini ele alalım:

5x5 matrisi: [[128,97,53,201,198], [35,22,25,200,195],
          [37.24.28.197.182], [33.28.92.195.179], [31.40.100.192.177]].

Şimdi aşağıdaki 2x2 konvolüsyonlu filtreyi düşünün:

2x2 matrisi: [[1, 0], [0, 1]]

Her kıvrımlı işlem, 2x2 boyutunda tek bir parça giriş matrisi. Örneğin, giriş matrisinin sol üst kısmındaki 2x2 dilimi kullandığımızı varsayalım. Bu nedenle, evrişim işlemi bu dilim aşağıdaki gibi görünür:

Sol üste konvolüsyonel filtre [[1, 0], [0, 1]] uygulanıyor
          [[128,97], [35,22]] olmak üzere giriş matrisinin 2x2 bölümü.
          Devrimsel filtre, 128 ve 22 değerlerini olduğu gibi bırakır ancak 97 ve 35 değerlerini sıfıra Sonuç olarak, toplama işlemi 150 (128+22) değerini verir.

Konvolüsyonsal katman şunları içerir: her biri farklı bir dilime göre hareket eden konvolüsyonel işlem dizisi vardır.

maliyet

kayıp ile eş anlamlıdır.

ortak eğitim

Yarı gözetimli öğrenme yaklaşımı özellikle aşağıdaki koşulların tümü doğru olduğunda yararlıdır:

Ortak eğitim, bağımsız sinyalleri daha güçlü bir sinyale dönüştürür. Örneğin, şu özelliklere sahip bir sınıflandırma modeli oluşturabilirsiniz: İkinci el araçları İyi veya Kötü olarak sınıflandırır. Bir tahmine dayalı özellik grubu, aracın yılı, markası ve modeli gibi toplu özelliklere odaklanırken başka bir tahmine dayalı özellik grubu, önceki sahibin sürüş geçmişine ve aracın bakım geçmişine odaklanabilir.

Ortak eğitimle ilgili önemli makale, Etiketli ve Etiketsiz Verileri Ortak Eğitim: Blum ve Mitchell.

karşıt gerçeklik adaleti

#fairness

Sınıflandırıcının bir kişi ve başka bir kişi için aynı sonucu verdiğinde arasında, bir veya daha fazla içeriğe göre hariç, ilkiyle aynıdır hassas özellikler için geçerlidir. Bir sınıflandırıcıyı karşıt gerçeklik adaleti açısından değerlendirmek, bir modeldeki olası önyargı kaynaklarını ortaya çıkarmanın yöntemlerinden biridir.

Daha fazla bilgi için aşağıdakilerden birine bakın:

kapsam yanlılığı

#fairness

Seçim yanlılığı bölümünü inceleyin.

kaza çiçek

#language

Belirsiz bir anlamı olan cümle veya ifade. Kilitlenme çiçekleri, doğal dil anlama konusunda önemli bir sorun teşkil eder. Örneğin, Kırmızı Kurdele Gökdeleni Engelliyor başlığı, bir NLU modelinin başlığı kelimenin tam anlamıyla veya mecazi olarak yorumlayabileceği için kilitlenme çiçeğidir.

eleştirmen

#rl

Deep Q-Network ile eş anlamlı.

çapraz entropi

Log kaybı'nın çok sınıflı sınıflandırma sorunları için genelleştirilmiş hali. Çapraz entropi, iki olasılık dağılımı arasındaki farkı ölçer. Şu kaynakları da inceleyin şaşkınlık.

çapraz doğrulama

Bir modelin, eğitim veri kümesinden hariç tutulan bir veya daha fazla çakışmayan veri alt kümesiyle test edilerek yeni verilere ne kadar iyi genelleştirileceğini tahmin eden bir mekanizma.

kümülatif dağılım işlevi (CDF)

Bir hedef değeri. Örneğin, sürekli değerlerin normal dağılımını düşünün. CDF, örneklerin yaklaşık %50'sinin ortalamanın altında veya ortalamaya eşit, yaklaşık %84'ünün ise ortalamanın bir standart sapma üzerinde veya ortalamaya eşit olması gerektiğini gösterir.

D

veri analizi

Örnekleri, ölçümleri ve yöntemleri değerlendirerek veriler hakkında ve görselleştirmeyi kullanırsınız. Veri analizi, özellikle bir veri kümesi ilk kez alındığında, ilk model oluşturulmadan önce yararlı olabilir. Denemelerle ilgili denemelerde ve hatalarda hata ayıklamada da sisteme bakacağız.

veri genişletme

#image

Hedef dönüşüm aralığını ve sayısını yapay olarak artırma eğitim örnekleri mevcut dönüşüm kapsamındaki örnekler kullanarak başka örnekler oluşturun. Örneğin, resimlerin features gösterir ancak veri kümeniz şunları yapmaz: modelin yararlı ilişkilendirmeleri öğrenmesi için yeterli sayıda resim örneği içermelidir. İdeal olarak, modelinizin düzgün bir şekilde eğitilebilmesi için veri kümenize yeterli miktarda etiketlenmiş resim eklemeniz gerekir. Bu mümkün değilse veri artırma, orijinal resmin birçok varyantını oluşturmak için her resmi döndürebilir, uzatabilir ve yansıtabilir. Bu sayede, mükemmel bir eğitim için yeterli sayıda etiketli veri elde edebilirsiniz.

DataFrame

#fundamentals

Temsil için popüler bir pandalar veri türü veri kümelerini kapsar.

DataFrame, tabloya veya elektronik tabloya benzer. Her bir sütun DataFrame'in bir adı (başlık) vardır ve her satır benzersiz bir sayıdır.

Bir DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Tek fark, her sütuna kendi veri türü atanabilir.

Ayrıca bakın: pandas.DataFrame referansı sayfasını ziyaret edin.

veri paralelliği

Modelin tamamını birden fazla cihaza kopyalayıp ardından giriş verilerinin bir alt kümesini her cihaza aktaran eğitim veya tahmine ölçeklendirme yöntemi. Veri paralelliği, çok büyük boyutlu ortamlarda eğitim ve çıkarımları mümkün toplu boyutlar; Ancak veri paralelliği, model tüm cihazlara sığacak kadar küçük olmalıdır.

Veri paralelliği genellikle eğitimi ve çıkarım yapmayı hızlandırır.

Ayrıca model paralellik konusuna da bakın.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak özel olarak değil) tek bir yerde düzenlenmiş ham veri koleksiyonu şu biçimlerde sunulur:

  • bir e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

Dataset API (tf.data)

#TensorFlow

Verileri okuyup makine öğrenimi algoritmasının gerektirdiği bir biçime dönüştürmek için kullanılan üst düzey bir TensorFlow API'si. tf.data.Dataset nesnesi, bir öğe dizisini temsil eder. Burada Her öğe bir veya daha fazla Tensör içerir. tf.data.Iterator nesnesi, Dataset öğelerine erişim sağlar.

karar sınırı

Bunlar arasındaki ayırıcı sınıfları model olarak ikili sınıf veya çok sınıflı sınıflandırma sorunları. Örneğin, aşağıdaki resimde bir ikili sınıflandırma problemini karar sınırı turuncu sınıf ile mavi sınıf:

Bir sınıf ile diğeri arasında iyi tanımlanmış bir sınır.

karar ormanı

#df

Birden fazla karar ağacından oluşturulmuş bir model. Karar ormanı, her bir kullanıcının tahmin verilerini birleştirerek üzerine konuşacağız. Popüler karar ağacı türleri arasında rastgele ormanlar ve gradyan artırmalı ağaçlar yer alır.

Bkz. Karar Ormanlar başlıklı bölüme bakın.

karar eşiği

Sınıflandırma eşiği ile eş anlamlıdır.

karar ağacı

#df

Gözetimli öğrenme modeli koşullar ve ayrılmalar hiyerarşik olarak düzenlenir. Örneğin, aşağıdaki bir karar ağacıdır:

Hiyerarşik olarak düzenlenmiş dört koşuldan oluşan ve beş yaprağa yol açan bir karar ağacı.

kod çözücü

#language

Genel olarak, işlenmiş, yoğun veya veya dış temsile dönüştürme sürecidir.

Kod çözücüler genellikle daha büyük bir modelin bileşenidir ve sıklıkla bir kodlayıcı ile birlikte kullanılır.

Diziden sıralı görevlerde, kod çözücü bir sonraki aşamayı tahmin etmek için kodlayıcı tarafından oluşturulan dahili durumla başlar tıklayın.

Dönüştürücü mimarisindeki kod çözücünün tanımı için Dönüştürücü başlıklı makaleyi inceleyin.

Büyük dil modelleri bölümüne bakın daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin model, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast oluşturun.

derin sinir ağı : derin nöral ağ

Derin model ile eş anlamlıdır.

Derin Q-Ağ (DQN)

#rl

Q-öğrenme'de, Q işlevlerini tahmin eden derin bir sinir ağı.

Eleştirmen, Derin Q-Network ile eş anlamlıdır.

demografik benzerlik

#fairness

Bir adillik metriği, model sınıflandırmasının sonuçları verilen hassas özellik değerine sahip olduğundan emin olun.

Örneğin, hem Lilliputians hem de Brobdingnagians kullanıcıları bir Glubbdubdrib Üniversitesi'ne göre demografik benzerlik, kabul edilen Lilliputyalıların oranı, Brobdingnagiyalıların yüzdesiyle aynıdır. bir grubun ortalama olarak daha nitelikli veya nitelikli daha fazla bilgi sağlar.

Eşit olasılıklar ve fırsat eşitliği ile karşılaştırıldığında, toplu sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin verir ancak belirli belirtilen gerçek doğruluk etiketlerinin sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin vermez. Görüntüleyin "Saldırı ayrımcılıktan bahsediyor ve (ör. daha akıllı makine öğrenimiyle) ve demografik benzerlik için optimizasyon yapmanın dengesini keşfedeceğiz.

Bkz. Adalet: demografik grup eşitlik daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

gürültü giderme

#language

Kendi kendine gözetimli öğrenmeye yaygın bir yaklaşım burada:

  1. Gürültü, veri kümesine yapay olarak eklenir.
  2. Model gürültüyü kaldırmaya çalışır.

Parazit giderme, etiketsiz örneklerden öğrenmeyi sağlar. Orijinal dataset hedef label ve gürültülü verileri giriş olarak kullanır.

Bazı maskeli dil modelleri gürültü giderme özelliğini aşağıdaki gibi kullanır:

  1. Bazılarını maskeleyerek etiketsiz cümlelere yapay olarak gürültü eklenir. jetonlar.
  2. Model, orijinal jetonları tahmin etmeye çalışır.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tamamının sıfır olmayan bir özellik (genellikle kayan nokta değerlerinin tenzoru). Örneğin, aşağıdaki 10 öğeli tenör, 9 değeri sıfırdan farklı olduğu için yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile karşılaştırın.

yoğun katman

Tamamen bağlı katman ile eş anlamlı.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağ derinliği 6'dır.

Giriş katmanının en iyi uygulamaları paylaşacağız.

derinlikli ayrılabilir konvolüsyonel nöral ağ (sepCNN)

#image

Konvolüsyonel nöral ağ Google Yapay Zeka'dan Başlangıç, Ancak Başlangıç modüllerinin yerini derinlemesine ayrılmış olacak şekilde değiştirebilirsiniz. evrişim. Xception olarak da bilinir.

Derinlik yönünde ayrılabilir birleştirme (ayrıca ayrılabilir birleştirme olarak kısaltılır), standart bir 3D birleştirme işlemini daha hesaplama açısından verimli olan iki ayrı birleştirme işlemine ayırır: birincisi, 1 derinliğe (n ✕ n ✕ 1) sahip derinlik yönünde birleştirme, ikincisi ise 1 uzunluk ve genişliğe (1 ✕ 1 ✕ n) sahip noktasal birleştirme.

Daha fazla bilgi için bkz. Xception: Depthniz Separable ile Derin Öğrenme Konvolüsyonlar.

türetilmiş etiket

proxy etiketi ile eş anlamlı.

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımı olan aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Bir makine öğrenimi modelini hızlandırıcı çiplerinde eğitirken (GPU'lar veya TPU'lar): Sistemin bunu gerçekten manipüle eden kısmı tensörler ve yerleştirmeler. Cihaz hızlandırıcı çiplerle çalışır. Buna karşılık barındırıcı genelde CPU üzerinde çalışır.

diferansiyel gizlilik

Makine öğreniminde, hassas verileri korumak için kullanılan bir anonimleştirme yaklaşımı (örneğin, bireyin kişisel bilgileri) bir modelin eğitim grubunun açığa çıkmasını engeller. Bu yaklaşım sayesinde modelin belirli bir model hakkında çok fazla bilgi edinmediği veya belirleyebilirsiniz. Bu, model sırasında örnekleme ve gürültü eklenerek gerçekleştirilir ve verilerin açığa çıkma riskini azaltacak şekilde, hassas eğitim verileri bulunur.

Diferansiyel gizlilik, makine öğrenimi dışında da kullanılır. Örneğin, veri bilimciler bazen farklı demografik gruplara ait ürün kullanım istatistiklerini hesaplarken bireysel gizliliği korumak için diferansiyel gizliliği kullanır.

boyut azaltma

Belirli bir özelliği temsil etmek için kullanılan boyutların sayısını azaltma bir özellik vektöründe, genellikle bir yerleştirme vektörüne dönüştürme.

boyutlar

Aşağıdaki tanımlardan herhangi birine sahip aşırı yüklenmiş terim:

  • Bir Tensor'daki koordinat düzeylerinin sayısı. Örneğin:

    • Skalerin boyutu sıfırdır; örneğin, ["Hello"].
    • Vektörün bir boyutu vardır. örneğin, [3, 5, 7, 11].
    • Matrislerin iki boyutu vardır (ör. [[2, 4, 18], [5, 7, 14]]). Tek boyutlu bir vektörde belirli bir hücreyi tek bir koordinatla benzersiz şekilde belirtebilirsiniz. İki boyutlu bir matriste belirli bir hücreyi benzersiz şekilde belirtmek için iki koordinata ihtiyacınız vardır.
  • Bir özellik vektörindeki girişlerin sayısı.

  • Bir yerleştirme katmanındaki öğe sayısı.

doğrudan istem

#language
#generativeAI

Sıfır görevli istem ile eş anlamlıdır.

ayrık özellik

#fundamentals

Sınırlı bir olası değer grubuna sahip bir özellik. Örneğin, değeri yalnızca hayvan, sebze veya mineral olabilecek bir özellik, ayrık (veya kategorik) özellik olabilir.

Sürekli özellik ile karşılaştırın.

ayırt edici model

Bir veya daha fazla özellik grubundan etiketleri tahmin eden bir model. Daha resmi bir ifadeyle ayırt edici modeller, özellikler ve ağırlıklar göz önüne alındığında bir çıktının koşullu olasılığını tanımlar. Yani:

p(output | features, weights)

Örneğin, bir e-postanın spam olup olmadığını özellikler ve ağırlıklardan tahmin eden bir model ayırt edici bir modeldir.

Sınıflandırma dahil olmak üzere gözetimli öğrenme modellerinin büyük çoğunluğu ve regresyon modelleri, ayrımcı modellerdir.

Üretken model ile karşılaştırın.

ayrımcı

Örneklerin gerçek mi yoksa sahte mi olduğunu belirleyen bir sistem.

Alternatif olarak, ürkütücü bir üretkenliğe sahip alt sistem bir ağda yer alıp almayacağını üretken tarafından oluşturulan örnekler gerçek veya sahtedir.

Daha fazla bilgi için GAN kursundaki Ayırt edici bölümüne bakın.

farklı etki

#fairness

Farklı popülasyonları etkileyen insanlar hakkında kararlar alma orantısız şekilde görebilirsiniz. Bu genellikle, algoritmik karar verme sürecinin bazı alt gruplara diğerlerinden daha fazla zarar verdiği veya bu gruplara diğerlerinden daha fazla fayda sağladığı durumları ifade eder.

Örneğin, bir Lilliputian’ın minyatür ev kredisine uygunlukla ilgili sınıflandırma daha yüksek "uygun değil" olarak işaretle kullanıcının posta adresinde belirli bir posta kodu. Büyük Endian lilliputyenlerinin yakın bir zamanda posta kodu yerine Little-Endian Lilliputanlar’dan daha fazla bu algoritmanın farklı etkileri olabilir.

Farklı muamele ile Alt grup özellikleri bir araya geldiğinde ortaya çıkan algoritmaya dayalı karar alma sürecine açık girdilerdir.

farklı değerlendirme

#fairness

Kişilerin hassas özelliklerini algoritmik karar verme sürecine dahil ederek farklı insan alt gruplarına farklı şekilde davranılması.

Örneğin, Lilliputian'ların kredi başvurularında sağladıkları verilere göre minyatür ev kredisi almaya uygunluklarını belirleyen bir algoritma düşünelim. Algoritma Lilliputian'ın, Big-Endian veya Little-Endian'a bağlı olduğu için bu boyutta ayrımcılık uygulanmasıdır.

Bu, algoritmik kararların alt gruplar üzerindeki toplumsal etkilerindeki farklılıklara odaklanan farklı etkiye kıyasla farklıdır. Bu alt gruplar, modele giriş olup olmadığına bakılmaksızın modele giriş olarak kabul edilir.

damıtma

#generativeAI

Bir modelin ( Öğretmen) emülasyon yapan daha küçük bir modele (öğrenci olarak bilinir) orijinal modelin tahminlerini olabildiğince güvenilir olduğundan emin olmaktır. Küçük modelin büyük modele (öğretmen) kıyasla iki önemli avantajı olduğundan damıtma faydalıdır:

  • Daha hızlı çıkarım süresi
  • Azaltılmış bellek ve enerji kullanımı

Ancak öğrencinin tahminleri genellikle öğretmenin tahminleri kadar iyi değildir.

Damıtma, öğrenci modelini en aza indirecek çıkışlar arasındaki farka dayalı olarak kayıp işlevi modellerin tahminlerini görebilirsiniz.

Damıtma işlemini aşağıdaki terimlerle karşılaştırın ve ayırt edin:

LLM'ler: İnce ayar, ayrıştırma ve istem bölümüne bakın. mühendislik daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

distribution

Belirli bir özellik veya etiket için farklı değerlerin sıklığı ve aralığı. Dağılım, belirli bir değerin ne kadar olası olduğunu gösterir.

Aşağıdaki resimde, iki farklı dağılımın histogramları gösterilmektedir:

  • Solda, güç yasasında insanların sayısı ile zenginliğin dağılımı hiç pişman olmayacaksınız.
  • Sağ tarafta, boya göre normal dağılım ve bu boya sahip kişi sayısı gösterilmektedir.

İki histogram. Bir histogramde, x ekseninde servet ve y ekseninde bu servete sahip olan kişi sayısıyla birlikte bir güç yasası dağılımı gösterilir. Çoğu insanın çok az mülkü varken birkaç kişinin çok fazla mülkü vardır. Diğer histogram normal dağılımı gösterir
          x ekseninde yükseklik ve bu yüksekliğe sahip insan sayısı ile
          y ekseninde. Çoğu kullanıcı ortalamaya yakın bir yerde toplanmıştır.

Her özelliğin ve etiketin dağılımını anlamak, her bir özelliğin ve etiketin değerleri normalleştirmek ve aykırı değerleri tespit etmek için kullanılır.

Dağıtım dışı kelime öbeği, çok nadirdir. Örneğin, Satürn gezegeninin resmi, kedi resimlerinden oluşan bir veri kümesi için dağıtım dışı olarak kabul edilir.

bölünmüş kümeleme

#clustering

Hiyerarşik kümeleme konusuna bakın.

çözünürlüğü düşürme

#image

Aşağıdakilerden herhangi biri anlamına gelebilecek aşırı yüklenmiş terim:

  • Bir özellikteki bilgi miktarını azaltmak üzere kullanarak bir modeli daha verimli eğitebilir. Örneğin, Resim tanıma modelini eğitmeden önce, yüksek çözünürlüklü daha düşük çözünürlüklü resimlere dönüştürebilirsiniz.
  • Yeterince temsil edilmeyen sınıflarda model eğitimini iyileştirmek için orantısız olarak düşük bir yüzdede fazla temsil edilen sınıf örnekleriyle eğitim Örneğin, sınıf dengesi bozuk bir veri kümesinde modeller çoğunluk sınıfı hakkında çok şey öğrenir ve azınlık sınıfı hakkında yeterince bilgi edinmez. Örnekleme azaltma işlemi, çoğunluk ve azınlık sınıflarına verilen eğitimin miktarını dengelemek.

Veri Kümeleri: Dengesiz veri kümeleri daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

DQN

#rl

Deep Q-Network'ün kısaltmasıdır.

atlama normalleştirmesi

Nöral ağları eğitirken faydalı olan bir düzenleme biçimidir. Düşmeyle normalleştirme, tek bir gradyan adımı için ağ katmanındaki sabit sayıda birimin rastgele bir seçimini kaldırır. Ayrılan birim sayısı arttıkça daha güçlü yardımcı olur. Bu, ağı emülasyon (emülasyon) konusunda eğitmeye benzer. daha küçük ağların katlanarak büyük bir topluluğu. Tüm ayrıntılar için şuraya bakın: Ayrılma: Nöral Ağların Trafiğini Önlemenin Basit Bir Yolu Fazla uyumlu.

dinamik

#fundamentals

Sık yapılan veya sürekli yapılan bir şey. Dinamik ve online terimleri, makine öğreniminin eş anlamlılarıdır. Makine öğrenimindeki dinamik ve online terimlerinin yaygın kullanım alanları şunlardır:

  • Dinamik model (veya online model) bir modeldir yeniden eğitilen bir grup olabilir.
  • Dinamik eğitim (veya online eğitim), sık sık veya sürekli olarak eğitim verme sürecidir.
  • Dinamik çıkarım (veya online çıkarım), belirli bir talep üzerine tahmin oluşturmaktır.

dinamik model

#fundamentals

Sık sık (hatta sürekli olan) bir model yeniden eğitildi. Dinamik modeller, sürekli olarak değişen verilere uyum sağlayan "ömür boyu öğrenen" modellerdir. Dinamik model, online model.

Statik model ile kontrast oluşturur.

E

hemen yürütme

#TensorFlow

İşlemlerin hemen çalıştırılacağı bir TensorFlow programlama ortamı. Buna karşılık, grafik yürütme sırasında çağrılan işlemler açıkça değerlendirilene kadar çalıştırılmaz. Eşik yürütme zorunlu arayüze sahip olduğundan çoğu programlama dilindeki kod gibi. İsteksiz yürütme programlarında genellikle hata ayıklama işlemi, grafik yürütme programlarına kıyasla çok daha kolaydır.

erken durdurma

#fundamentals

Eğitim kaybının düşmesi bitmeden eğitimi sonlandırmayı içeren bir normalleştirme yöntemi. Erken durdurma işleminde, doğrulama veri kümesinde kayıp artmaya başladığında, yani genelleştirme performansı kötüleştiğinde modeli eğitmeyi kasıtlı olarak durdurursunuz.

toprak taşıyıcının mesafesi (EMD)

İki dağıtımın göreceli benzerliğinin ölçüsü. Toprağı hareket ettiren aracın mesafesi ne kadar düşükse dağılımlar o kadar benzer olur.

mesafeyi düzenleme

#language

İki metin dizesinin birbirine ne kadar benzediğinin ölçümü. Makine öğrenimindeki düzenleme mesafesi, hesaplaması kolay olduğu ve benzer olduğu bilinen iki dizeyi karşılaştırmanın veya belirli bir dizeye benzer dizeleri bulmanın etkili bir yolu olduğu için kullanışlıdır.

Düzenleme mesafesinin her biri farklı dize işlemleri kullanan birkaç tanımı vardır. Örneğin, Levenshtein mesafesi en az sayıda silme, ekleme ve değiştirme işlemini dikkate alır.

Örneğin, "kalp" kelimeleri arasındaki Levenshtein mesafesi ve "dart" 3'tür, çünkü aşağıdaki 3 düzenleme bir kelimeyi dönüştürmek için yapılacak en az değişikliktir diğerine:

  1. kalp → deart ("h" yerine "d")
  2. deart → dart ("e"yi silin)
  3. dart → darts ("s" ekleyin)

Einsum gösterimi

İki tensör'ün nasıl birleştirileceğini açıklamak için kullanılan etkili bir gösterim. Tensörler, bir tensörün elemanlarının çarpılmasıyla birleştirilir toplamından elde edilir ve çarpım toplanarak hesaplanır. Einsum notasyonu, her bir tensörün eksenlerini tanımlamak için semboller kullanır ve aynı semboller, ortaya çıkan yeni tensörün şeklini belirtecek şekilde yeniden düzenlenir.

NumPy, yaygın bir Einsum uygulaması sağlar.

yerleştirme katmanı

#language
#fundamentals

Şurada eğitilen özel bir gizli katman: yüksek boyutlu kategorik özelliği daha alt boyutlu bir yerleştirme vektörünü yavaş yavaş öğrenir. yerleştirme katmanı, bir sinir ağının çok daha fazla kategorik özellikle ilgili eğitimden daha verimli bir şekilde

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Diyelim ki ağaç türü, modelinizin bir özelliktir. Dolayısıyla modelinizin giriş katmanında 73.000 adet tek sıcak vektör bulunuyor öğe uzunluğunda olmalıdır. Örneğin, baobab şuna benzer bir şekilde temsil edilir:

73.000 öğeden oluşan bir dizi. İlk 6.232 öğe 0 değerini içerir. Sonraki öğe 1 değerini içerir. Son 66.767 öğe sıfır değerini içerir.

73.000 öğe içeren bir dizi çok uzundur. Yerleştirme katmanı eklemezseniz sahip olduğu için eğitim çok zaman alacak. 72.999 tane sıfır ile çarpılır. Belki gömme katmanını seçmiş olursunuz. emin olun. Bunun sonucunda, yerleştirme katmanı, her ağaç türü için yeni bir yerleştirme vektörü olacak.

Belirli durumlarda, karma oluşturma makul bir alternatiftir. ekleme katmanıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Embedding'ler bölümüne bakın.

yerleştirme alanı

#language

Daha yüksek boyutlu bir vektör alanından alınan özelliklerin eşlendiği d boyutlu vektör alanı. İdeal olarak, yerleştirme alanı anlamlı matematiksel sonuçlar veren bir yapı içerir. Örneğin, ideal bir yerleştirme alanında, yerleştirmelerin eklenmesi ve çıkarılması kelime analojisi görevlerini çözebilir.

İki yerleştirmenin nokta çarpımı, benzerliklerinin bir ölçüsüdür.

yerleştirme vektörü

#language

Genel olarak, herhangi bir gizli katmandan alınan ve bu gizli katmanın girişlerini tanımlayan kayan noktalı sayı dizisidir. Bir yerleştirme vektörü genellikle bir yerleştirme katmanında eğitilen kayan noktalı sayı dizisidir. Örneğin, bir yerleştirme katmanının Dünya'daki 73.000 ağaç türünün her biri için bir yerleştirme vektörü öğrenmesi gerektiğini varsayalım. Aşağıdaki dizi, bir baobab ağacının yerleştirme vektörü olabilir:

Her biri kayan nokta sayısına sahip olan 12 öğeden oluşan dizi
          0,0 ile 1,0 arasında değişir.

Yerleştirme vektörü, rastgele sayılardan oluşan bir grup değildir. Bir yerleştirme katmanı, eğitim sırasında sinir ağının diğer ağırlıkları öğrenme şekline benzer şekilde bu değerleri eğitim yoluyla belirler. Dizenin her bir öğesi, bir ağaç türünün bazı özelliklerine göre bir derecelendirmedir. Hangi öğesi, hangi ağaç türünü özellikleri nelerdir? Bu, insanların belirlemesi çok zordur.

Bir yerleştirme vektörünün matematiksel açıdan dikkate değer kısmı, benzer öğelerin benzer kayan noktalı sayı kümelerine sahip olmasıdır. Örneğin, ağaç türlerindeki yüzen nokta sayılarına farklı ağaç türleri olabilir. Sekoya ve sekoya ağacı, birbirine yakın ağaç türleridir. Bu nedenle, sekoya ve hindistancevizi ağacına kıyasla daha benzer kayan noktalı sayılara sahiptirler. Modeli aynı girişle yeniden eğitseniz bile, yerleştirme vektöründeki sayılar modeli her yeniden eğittiğinizde değişir.

ampirik kümülatif dağılım işlevi (eCDF veya EDF) kaldırın

Gerçek bir veri kümesinden alınan deneysel ölçümlere dayalı bir kümülatif dağılım fonksiyonu. The value of x ekseni üzerindeki herhangi bir nokta fonksiyonu, veri kümesi için belirtilen değerden küçük veya ona eşit olmalıdır.

deneysel risk minimizasyonu (ERM)

Eğitim veri kümesinde kaybı en aza indiren işlevi seçme. Yapısal risk azaltma ile karşılaştırın.

kodlayıcı

#language

Genel olarak, ham, seyrek veya harici bir temsili daha işlenmiş, daha yoğun veya daha dahili bir temsile dönüştüren tüm ML sistemleri.

Kodlayıcılar genellikle daha büyük bir modelin bileşenidir ve sıklıkla bir kod çözücü ile birlikte kullanılır. Bazı Transformer'lar kodlayıcıları kod çözücülerle eşlerken diğerleri yalnızca kodlayıcıyı veya yalnızca kod çözücüyü kullanır.

Bazı sistemler, sınıflandırma veya regresyon ağının girişi olarak kodlayıcının çıkışını kullanır.

Diziden diziye görevlerde kodlayıcı, giriş dizisini alır ve dahili bir durum (vektör) döndürür. Ardından, kod çözücü, bir sonraki diziyi tahmin etmek için bu dahili durumu kullanır.

Dönüştürücü mimarisinde kodlayıcının tanımı için Dönüştürücü başlıklı makaleyi inceleyin.

LLM'ler: Büyük dil nedir? başlıklı makaleyi inceleyin. modeli daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

topluluk

Bağımsız olarak eğitilen ve tahminlerinin ortalaması veya toplaması alınan modeller koleksiyonu. Çoğu durumda bir takımla daha iyi sonuç alırsınız. tahmine dayalıdır. Örneğin, rastgele orman, birden fazla karar ağacından oluşan bir topluluktur. Tüm karar ağaçlarının topluluk olmadığını unutmayın.

Bkz. Rastgele Orman daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

entropi

#df

İçinde bilgi teorisi, bir olasılığın ne kadar öngörülemediğinin olduğunu da bilir. Alternatif olarak entropi de bir şeyin her bir örnekde bulunan bilgileri içerir. Bir dağıtım rastgele bir değişkenin tüm değerleri şöyle olduğunda mümkün olan en yüksek entropi mümkündür.

"0" ve "1" olmak üzere iki olası değeri olan bir kümenin entropisi (örneğin, ikili sınıflandırma problemindeki etiketler) aşağıdaki formüle sahiptir:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

Bu örnekte:

  • H entropidir.
  • p, "1"in kesiridir örnekler.
  • q, "0" örneklerinin kesridir. q = (1 - p) olduğunu unutmayın.
  • log genellikle log2'dir. Bu durumda entropi birimi bittir.

Örneğin, aşağıdakileri varsayalım:

  • "1" değerini içeren 100 örnek
  • 300 örnek "0" değerini içeriyor

Dolayısıyla entropi değeri şu şekildedir:

  • y = 0,25
  • q = 0,75
  • H = (-0,25)log2(0,25) - (0,75)log2(0,75) = örnek başına 0,81 bit

Mükemmel şekilde dengelenmiş bir kümenin (örneğin, 200 "0" ve 200 "1") örnek başına entropisi 1,0 bit olur. Bir küme daha dengeli hale geldikçe entropisi 0,0'a doğru hareket eder.

Karar ağaçlarında entropi, formülleri bilgi edinmeye yardımcı olacak koşulları ayırıcı seçin büyümesini gözlemledik.

Entropiyi şu verilerle karşılaştırın:

Entropi genellikle Shannon entropisi olarak adlandırılır.

Sayısallı ikili sınıflandırma için tam ayırıcı bölümüne bakın özellikler başlıklı makaleyi okuyabilirsiniz.

ortam

#rl

Pekiştirmeli öğrenmede, aracıyı içeren dünya ve temsilcinin dünyanın durumunu gözlemlemesini sağlar. Örneğin, Bu, satranç gibi bir oyun veya fiziksel bir dünya. bir labirent gibidir. Temsilci ortama bir işlem uyguladığında, ortam, durumlar arasında geçiş yapar.

bölüm

#rl

Pekiştirmeli öğrenmede, öğrenme yönteminin tekrarlanan aracı kullanarak ortam öğrenin.

sıfır zaman

#fundamentals

Tüm eğitim setini kapsayan tam bir eğitim geçişi Böylece her bir örnek bir kez işlenmiştir.

Bir dönem, N/toplu boyut eğitim iterasyonunu temsil eder. Burada N, toplam örnek sayısını ifade eder.

Örneğin, aşağıdakileri varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem 20 yineleme gerektirir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Doğrusal regresyon: Hiperparametreler daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

epsilon greedy politikası

#rl

Güçlendirme öğrenimi, epsilon olasılığıyla rastgele bir politika veya aksi takdirde açgözlü bir politika izleyen bir politikadır. Örneğin, epsilon 0,9 ise politika, zamanın %90'ında rastgele bir politika ve zamanın %10'unda açgözlü bir politika izler.

Algoritma, art arda gelen bölümlerde epsilon değerini sırayla azaltır rastgele bir politika izlemekten açgözlü bir politikaya geçmemizi sağlıyor. Ölçüt ortam değiştirildikten sonra temsilci ilk olarak ortamı rastgele araştırır sonra da rastgele keşiflerin sonuçlarından hevesli bir şekilde çıkar.

fırsat eşitliği

#fairness

Bir modelin uygun nitelikte olup olmadığını değerlendiren adillik metriği bir projenin tüm değerleri için, istenen sonuca eşit derecede hassas özellik. Diğer bir deyişle, bir model için istenen sonuç pozitif sınıf ise hedef, gerçek pozitif oranının tüm gruplar için aynı olmasını sağlamaktır.

Fırsat eşitliği, olanların eşit olmasıyla Bu da hem gerçek pozitif oranların hem de yanlış pozitif oranları tüm gruplar için aynıdır.

Glubbdubdrib Üniversitesi'nin hem Lilliputyalılar hem de Brobdingnagiyenleri kabul ettiğini varsayalım bir matematik programına dönüştürülebilir. Lilliputians Ortaöğretim okulları sağlam bir müfredat var ve öğrencilerin büyük çoğunluğu üniversite programına katılmaya hak kazanmıştır. Brobdingnagians ortaokullar ve sonuç olarak bu kursa sahip olan öğrencilerin çok daha azı gerekir. Tercih edilen etiket için fırsat eşitliği, "kabul edildi" uyruk açısından (Lilliputian veya Brobdingnagian) alakalıysa kabul edilme olasılığı ne olursa olsun, uygun niteliklere sahip öğrencilerin Lilliput ya da Brobdingnagian oldu.

Örneğin, Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki gibi verildiğini varsayalım:

Tablo 1. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 3
Reddedildi 45 7
Toplam 90 10
Kabul edilen uygun öğrencilerin oranı: 45/90 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 7/10 =%70
Kabul edilen Lilliputya öğrencilerinin toplam yüzdesi: (45+3)/100 = %48

 

Tablo 2. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 9
Reddedildi 5 81
Toplam 10 90
Kabul edilen uygun öğrencilerin yüzdesi: 5/10 = %50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 81/90 = %90
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+9)/100 = %14

Uygun Lilliput ve Brobdingnag vatandaşlarının kabul edilme şansı %50 olduğundan, yukarıdaki örnekler uygun öğrencilerin kabulü için fırsat eşitliğini karşılar.

Fırsat eşitliği sağlanmış olsa da aşağıdaki iki adalet metriği sağlanmamıştır:

  • Demografik eşitlik: Lilliput ve Brobdingnag sakinleri üniversiteye farklı oranlarda kabul edilir. Lilliput sakinlerinin %48'i, Brobdingnag sakinlerinin ise yalnızca %14'ü kabul edilir.
  • eşitleştirilmiş oranlar: Uygun Lilliputian ve Brobdingnagian öğrencilerinin kabul edilme şansı da aynı, nitelendirmek zorunda olmayan Lilliputanlar ve Brobdingnagians'ın reddedilme olasılığı aynı, memnun kaldım. Uygun olmayan Lilliputian'ların ret oranı %70 iken uygun olmayan Brobdingnag'ların ret oranı %90'tır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: Fırsat eşitliği bölümüne bakın.

eşitlenmiş oranlar

#fairness

Bir modelin sonuçları eşit şekilde tahmin edip etmediğini değerlendirmek için kullanılan bir adalet metriği hassas bir özelliğin tüm değerleri için olumlu sınıfa ve negatif sınıf (sadece bir sınıfı veya diğeri değil) . Başka bir deyişle, hem gerçek pozitif oran ve yanlış negatif oranı tüm gruplar.

Eşitlenmiş oranlar, yalnızca tek bir sınıfın (pozitif veya negatif) hata oranlarına odaklanan fırsat eşitliği ile ilgilidir.

Örneğin, Glubbdubdrib Üniversitesi'nin hem Lilliputluları hem de Brobdingnaglıları sıkı bir matematik programına kabul ettiğini varsayalım. Lilliputians'ın ortaokullarında zengin bir matematik müfredatı sunulur ve öğrencilerin büyük çoğunluğu üniversite programına uygundur. Brobdingnag'ın ortaokullarında hiç matematik dersi verilmez. Bu nedenle, öğrencilerinin çok azı bu programa uygundur. Hiçbir riskin karşılanmaması için Lilliputyalı veya Brobdingnagian olabilir. programa kabul edilme olasılıkları da o kadar yüksektir. Uygun olmayanların reddedilme olasılıkları da eşittir.

Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki şekilde alındığını varsayalım:

Tablo 3. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 2
Reddedildi 45 8
Toplam 90 10
Kabul edilen uygun öğrencilerin yüzdesi: 45/90 = %50
Kabul edilmeyen uygunsuz öğrencilerin yüzdesi: 8/10 = %80
Kabul edilen Lilliputian öğrencilerin toplam yüzdesi: (45+2)/100 = %47

 

Tablo 4. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 18
Reddedildi 5 72
Toplam 10 90
Kabul edilen uygun öğrencilerin oranı: 5/10 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 72/90 =%80
Kabul edilen Brobdingnagian öğrencilerinin toplam yüzdesi: (5+18)/100 = %23

Uygun Lilliput ve Brobdingnagian eşit olduğundan, şanslar eşittir her iki öğrencinin de kabul edilme şansı% 50 ve yeterli niteliklere sahip olmayan Lilliputanlar ve Brobdingnagian'ın reddedilme olasılığı% 80.

Eşitlenmiş olasılıklar, "Gözetimli Öğrenmede Fırsat Eşitliği" başlıklı makalede şu şekilde tanımlanmıştır: "Ŷ ve A bağımsızsa, Y koşuluyla Ŷ öngörücüsü, korunan özellik A ve sonuç Y ile ilgili eşitlenmiş olasılıkları karşılar."

Estimator

#TensorFlow

Kullanımdan kaldırılmış bir TensorFlow API'sidir. Bunun yerine tf.keras'ı kullanın en iyi uygulamaları görelim.

evals

#language
#generativeAI

Öncelikle LLM değerlendirmeleri için kısaltma olarak kullanılır. evals, daha geniş kapsamda değerlendirme.

değerlendirme

#language
#generativeAI

Bir modelin kalitesini ölçme veya farklı modelleri karşılaştırma süreci zannediyor.

Bir gözetimli makine öğrenimi modelini değerlendirmek için genellikle doğrulama kümesi ve test kümesi ile karşılaştırmalı olarak değerlendirirsiniz. LLM'yi değerlendirme genellikle daha kapsamlı kalite ve güvenlik değerlendirmelerini içerir.

örnek

#fundamentals

Bir satır özellik ve muhtemelen bir etiket değeri. Örnekler: gözetimli öğrenme genel kategoriler:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketsiz bir örnek şunlardan oluşur: daha fazla özellik var ancak etiketsiz. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, etki düzeyini belirlemek için bir modeli eğittiğinizi hava koşullarının nasıl etkilendiğini göz önünde bulundurun. Aşağıda üç etiketli örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda üç etiketsiz örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir dataset satırı genellikle örneğin ham kaynağıdır. Yani bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Ayrıca, bir örnekteki özellikler şunları da içerebilir: sentetik özellikler; örneğin, özellikler çakışıyor.

Gözetimli Öğrenme başlıklı makaleyi inceleyin. daha fazla bilgi için Makine Öğrenimine Giriş kursuna göz atın.

deneyimi yeniden oynatma

#rl

Pekiştirmeli öğrenmede, bir DQN tekniği ile eğitim verilerindeki zamansal korelasyonları azaltma. Temsilci durum geçişlerini bir tekrar oynatma arabelleğinde saklar ve daha eğitim verileri oluşturmak için tekrar oynatma arabelleğinden örnek geçişleri uygular.

deneycinin ön yargısı

#fairness

Onay yanlılığı bölümünü inceleyin.

patlayan gradyan sorunu

#seq

Derin nöral ağlarda (özellikle yinelenen nöral ağlarda) gradyanların şaşırtıcı derecede dik (yüksek) olma eğilimi. Dik gradyanlar genellikle çok büyük güncellemelere neden olur her bir düğümün ağırlıklarına derin sinir ağını ele alalım.

Patlayan gradyan sorunundan etkilenen modellerin eğitilmesi zor veya imkansız hale gelir. Gradyan kırpma bu sorunu hafifletebilir.

Kaybolan gradyan sorunu ile karşılaştırın.

C

F1

Hem hassasiyet hem de geri çağırma metriklerini kullanan bir "toplama" ikili sınıflandırma metriği. Formülü şu şekildedir:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

Örneğin, aşağıdaki gibi:

  • precision = 0,6
  • recall = 0,4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

Hassasiyet ve geri çağırma oldukça benzer olduğunda (önceki örnekte olduğu gibi), F1, bunların ortalamasına yakındır. Hassasiyet ve geri çağırma farklı olduğunda F1 daha düşük değere daha yakındır. Örneğin:

  • hassasiyet = 0,9
  • recall = 0,1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

adalet kısıtlaması

#fairness
Bir veya daha fazla tanım sağlamak için algoritmaya kısıtlama uygulama memnun olduğunu anlayabilirsiniz. Adil olma kısıtlamalarına örnek olarak aşağıdakiler verilebilir:

adaletlilik metriği

#fairness

"Adaletin" matematiksel tanımı bir şablondur. Yaygın olarak kullanılan adalet metriklerinden bazıları şunlardır:

Birçok adalet metriği birbirini dışlar. Adalet metriklerinin uyumsuzluğu başlıklı makaleyi inceleyin.

yanlış negatif (FN)

#fundamentals

Modelin rastgele bir şekilde negatif sınıf olarak değiştirin. Örneğin, model Belirli bir e-posta iletisinin spam olmadığını tahmin ederse (negatif sınıf) ancak bu e-posta iletisi aslında spam'dir.

yanlış negatif oranı

Modelin hata sonucu ortaya çıktığı gerçek pozitif örneklerin oranı negatif sınıfı tahmin etmiştir. Aşağıdaki formül yanlış değerini hesaplar negatif oran:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

Eşikler ve karışıklık matris daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

yanlış pozitif (FP)

#fundamentals

Modelin rastgele bir şekilde olumlu bir sınıfa sahip olmanız gerekir. Örneğin, model belirli bir e-posta mesajının spam (pozitif sınıf) olduğunu tahmin eder ancak söz konusu e-posta mesajı aslında spam değildir.

Eşikler ve karışıklık matris daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla ihlal ettiği gerçek negatif örneklerin oranı pozitif sınıfı ile ilgili tahminidir. Aşağıdaki formül, yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisindeki x eksenidir.

Bkz. Sınıflandırma: ROC ve AUC daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

özellik

#fundamentals

Makine öğrenimi modeline ait bir giriş değişkeni. Örnek bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda her biri üç özellik ve bir etiket:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

label ile kontrast oluşturun.

Daha fazla bilgi için Makine Öğrenimi'ne Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

özellik çaprazlama

#fundamentals

"Çapraz geçiş" ile oluşmuş bir sentetik özellik kategorik veya gruplandırılmış özellikler.

Örneğin, sıcaklığı aşağıdaki dört gruptan birinde temsil eden bir "ruh hali tahmini" modelini düşünün:

  • freezing
  • chilly
  • temperate
  • warm

Ve aşağıdaki üç kovadan birindeki rüzgar hızını gösterir:

  • still
  • light
  • windy

Özellik çaprazlamaları olmadan doğrusal model, önceki yedi farklı grubun her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin freezing, örneğin, windy.

Alternatif olarak, sıcaklık ve rüzgar hızı için bir özellik kesişimi de oluşturabilirsiniz. Bu yapay özellik aşağıdaki 12 olasılığa sahip olabilir değerleri:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Özellik çaprazlamaları sayesinde model, freezing-windy günü ile freezing-still günü arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri çok sayıda farklı grup içeren iki özellikten sentetik bir özellik oluşturursanız ortaya çıkan özellik çaprazında çok sayıda olası kombinasyon bulunur. Örneğin, bir özellikte 1.000 kap, diğer özellikte 2.000 kap varsa ortaya çıkan özellik çaprazında 2.000.000 kap bulunur.

Daha resmi olarak, bir çarpı Kartezyen ürün.

Özellik çaprazlamaları çoğunlukla doğrusal modellerle kullanılır ve nadiren nöral ağlarla kullanılır.

Bkz. Kategorik veriler: Özellik çarpılar daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreçtir:

  1. Bir modeli eğitirken hangi özelliklerden yararlanabileceğinizi belirleme
  2. Veri kümesinden elde edilen ham verileri bu özelliklerin etkili sürümlerine dönüştürme.

Örneğin, temperature kategorisinin sizin için yararlı bir araç özelliğini kullanabilirsiniz. Daha sonra, gruplandırma ile denemeler yapabilirsiniz. modelin farklı temperature aralıklarından öğrenebileceğini optimize edin.

Özellik mühendisliği bazen özellik çıkarma veya özellikleştirme.

Sayısal veriler: Bir model özelliği kullanarak verileri nasıl alır? vektörler daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

özellik ayıklama

Aşağıdaki tanımlardan birini içeren aşırı yüklenmiş terim:

özelliklerin önemi

#df

Değişken önemleri için eş anlamlı.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellik grubu. Örneğin, posta kodu, mülk boyutu ve mülk durumu Konut fiyatlarını tahmin eden bir model için basit bir özellik kümesi oluşturmak.

özellik spesifikasyonu

#TensorFlow

Özellik verilerini ayıklamak için gereken bilgileri açıklar tf.Example protokol arabelleğinden alınır. Çünkü Örnek protokol arabelleği yalnızca bir veri kapsayıcısıdır, şu:

  • Ayıklanacak veriler (yani özelliklerin anahtarları)
  • Veri türü (örneğin, kayan noktalı veya int)
  • Uzunluk (sabit veya değişken)

özellik vektörü

#fundamentals

Şunları içeren feature değerleri dizisi örnek için daha fazla bilgi edinin. Özellik vektörü eğitim sırasında ve çıkarım sırasında görüntülenebilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92 değerini, diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar, dolayısıyla özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özellikleri kullanılabilir. Örneğin, beş olası değere sahip bir ikili kategorik özellik tek sıcak kodlama ile temsil edilebilir. Bu durumda, özellik vektörü dört sıfır ve üçüncü konumda tek bir 1, 0 olarak kabul edilir:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • beş olası değere sahip ikili bir kategorik özellik tek kullanımlık kodlama; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • Tek sıcak kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategorik özellik (ör. [0.0, 0.0, 1.0])
  • kayan nokta özelliği örneğin: 8.3.

Bu durumda, her bir örneğin özellik vektörü dokuz değere göre. Yukarıdaki listede yer alan örnek değerlere özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

Sayısal veriler: Bir model özelliği kullanarak verileri nasıl alır? vektörler daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

özellik çıkarma

Bir giriş kaynağından özellikleri ayıklama işlemi ve bu özellikleri farklı bir dilde birleştirmeyi özellik vektörü olarak ayarlayın.

Bazı yapay zeka uzmanları, özellik oluşturmayı özellik mühendisliği veya özellik ayıklama ile eş anlamlı olarak kullanır.

birleşik öğrenim

Akıllı telefonlar gibi cihazlarda bulunan dağınık örneklerden yararlanarak makine öğrenimi modellerini eğiten dağıtık bir makine öğrenimi yaklaşımıdır. Birleşik öğrenimde, cihazların bir alt kümesi geçerli modeli indirir merkezi koordinasyon sunucusundan alınır. Cihazlar, depolanan örnekleri kullanır. modelde iyileştirmeler yapmak için modelde. Cihazlar daha sonra model iyileştirmelerini (eğitim örneklerini değil) koordinasyon sunucusuna yükler. Bu iyileştirmeler, daha iyi bir genel model oluşturmak için diğer güncellemelerle birleştirilir. Toplama işleminden sonra model, cihazlar tarafından hesaplanan güncellenir. artık gerekli değildir ve silinebilir.

Eğitim örnekleri hiçbir zaman yüklenmediğinden, birleşik öğrenimde odaklı veri toplama ve minimum veri toplama için gizlilik ilkelerine değineceğiz.

Birleşik öğrenim hakkında daha fazla bilgi için bu eğitime bakın.

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin sonucu etkiler. verileri eğitir. Örneğin, Yeşil Ofis’in kullanıcıların izlediği filmleri etkiler ve bu da ve sonraki film öneri modellerini etkilemektedir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Sorulması gereken sorular bölümüne bakın.

ileri beslemeli nöral ağ (FFN)

Döngüsel veya yinelemeli bağlantıları olmayan bir sinir ağı. Örneğin, geleneksel derin nöral ağlar ileri beslemeli nöral ağlardır. Yinelenen nöral ile kontrast ağları oluşturun.

az sayıda örnekle öğrenme

Genellikle nesne sınıflandırması için kullanılan makine öğrenimi yaklaşımı az sayıda veya az sayıda kullanıcıdan etkili sınıflandırıcılar eğitmek için tasarlanmıştır. örneklerine göz atalım.

Tek seferlik öğrenme ve sıfır örnekle öğrenme hakkında da bilgi edinin.

çok görevli istem

#language
#generativeAI

Birden fazla ("birkaç") örnek içeren istem Bu da büyük dil modelinin cevap vermelidir. Örneğin, aşağıdaki uzun istemde iki veya daha fazla büyük dil modelini gösteren örnekler.

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: avro Bir örnek.
Birleşik Krallık: GBP Başka bir örnek.
Hindistan: Asıl sorgu.

Az sayıda çekimle istem kullanmak genellikle sıfır çekim istemi ve tek seferlik istem. Bununla birlikte, birkaç atışlık istem daha uzun bir istem gerektirir.

Çok görevli istem, istem tabanlı öğrenmeye uygulanan bir az sayıda örnekle öğrenme biçimidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İstem mühendisliği bölümüne bakın.

Keman

#language

İşlevlerin ve sınıfların değerlerini müdahaleci kod veya altyapı olmadan ayarlayan, Python'a öncelik veren bir yapılandırma kitaplığı. Pax ve diğer makine öğrenimi kod tabanlarında bu işlevler ve sınıflar modelleri ve eğitim hiper parametrelerini temsil eder.

Fiddle, makine öğrenimi kod tabanlarının genellikle aşağıdakilere ayrıldığını varsayar:

  • Katmanları ve optimize edicileri tanımlayan kitaplık kodu.
  • Kitaplıkları çağıran ve her şeyi birbirine bağlayan veri kümesi "yapıştırıcı" kodu.

Fiddle, birleştirici kodun çağrı yapısını değerlendirilmemiş ve bir biçimdir.

ince ayar

#language
#image
#generativeAI

Önceden eğitilmiş bir modelde, belirli bir kullanım alanı için parametrelerini hassaslaştırmak amacıyla göreve özel ikinci bir eğitim geçişi. Örneğin, bazı eğitim kurumları için tam eğitim büyük dil modellerini aşağıdaki gibi görebilirsiniz:

  1. Ön eğitim: Büyük bir dil modelini kapsamlı bir genel veri kümesiyle eğitin. İngilizcedeki tüm Vikipedi sayfaları gibi.
  2. İnce ayarlama: Önceden eğitilmiş modeli, tıbbi sorguları yanıtlama gibi belirli bir görevi gerçekleştirecek şekilde eğitin. İnce ayar genellikle belirli göreve odaklanan yüzlerce veya binlerce örnek içerir.

Başka bir örnek olarak, büyük bir görüntü modeli için tam eğitim sırası şöyle olur:

  1. Önceden eğitim: Wikimedia Commons'taki tüm resimler gibi geniş bir genel resim veri kümesinde büyük bir resim modeli eğitin.
  2. İnce ayarlama: Önceden eğitilmiş modeli, orka resimleri oluşturma gibi belirli bir görevi gerçekleştirecek şekilde eğitin.

İnce ayar, aşağıdaki stratejilerin herhangi bir kombinasyonunu içerebilir:

  • Önceden eğitilmiş mevcut modelin tümünü değiştirme parametrelerini kullanın. Buna bazen tam hassas ayar da denir.
  • Önceden eğitilmiş modelin mevcut parametrelerinden yalnızca bazılarını değiştirme (genellikle çıkış katmanına en yakın katmanlar), mevcut parametreleri değiştirmeden (genellikle giriş katmanına en yakın olan) girin. Parametreleri verimli şekilde ayarlama başlıklı makaleyi inceleyin.
  • Genellikle çıkış katmanına en yakın mevcut katmanların üzerine daha fazla katman ekleme.

İnce ayar, transfer öğrenimi biçimlerinden biridir. Bu nedenle, ince ayar için farklı bir kayıp fonksiyonu veya farklı bir model kullanılabilir modeli eğitmek için kullanılan modellerden farklıdır. Örneğin, önceden eğitilmiş büyük bir resim modelinde ince ayar yaparak giriş resmindeki kuş sayısını döndüren bir regresyon modeli oluşturabilirsiniz.

İnce ayarı aşağıdaki terimlerle karşılaştırın:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İnce ayarlama bölümüne bakın.

Flax

#language

Yüksek performanslı bir açık kaynak kitaplığı: JAX üzerine inşa edilen derin öğrenme. Flax, çeşitli işlevleri ve eğitim nöral ağları için de geçerlidir yöntemleri olarak kullanabilir.

Keten Şeklinde

#language

Flax üzerine inşa edilmiş, açık kaynak bir Transformer kitaplığı. Öncelikle doğal dil işleme ve çoklu modaliteli araştırmalar için tasarlanmıştır.

kapıyı unut

#seq

Uzun Kısa Süreli Bellek hücresinin, hücredeki bilgi akışını düzenleyen kısmı. Unutma kapıları, hücre durumundan hangi bilgilerin atılacağına karar vererek bağlamı korur.

tam softmax

softmax eş anlamlısıdır.

Aday örnekleme ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Çok sınıflı sınıflandırma bölümüne bakın.

tamamen bağlı katman

Her bir düğümün içinde bulunduğu gizli katman sonraki gizli katmandaki her düğüme bağlanır.

Tamamen bağlı katman, yoğun katman olarak da bilinir.

işlev dönüştürme

Bir işlevi girdi olarak alan ve dönüştürülmüş bir işlev döndüren fonksiyon çıkış olarak kullanabilirsiniz. JAX, işlev dönüşümlerini kullanır.

Y

GAN

Üretken saldırganın kısaltması ağ.

genelleme

#fundamentals

Modelin yeni ve daha önce görülmemiş verilerle ilgili doğru tahminler yapma yeteneği. Genelleme yapabilen bir model ise tam tersi fazla uyumlu bir modeldir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

Gemini

#language
#image
#generativeAI

Google'ın en gelişmiş yapay zekasını içeren ekosistem. Bu ekosistemin öğeleri şunlardır:

Gemini modelleri

#language
#image
#generativeAI

Google'ın Transformer tabanlı son teknoloji ürünü çok modlu modelleri destekler. Gemini modelleri özellikle aracılarla entegre olacak şekilde tasarlanmıştır.

Kullanıcılar, Gemini modelleriyle etkileşime geçmek için etkileşimli bir iletişim arayüzü ve SDK'lar gibi çeşitli yöntemlerden yararlanabilir.

genelleme eğrisi

#fundamentals

Hem eğitim kaybı hem de doğrulama kaybı: iterasyonlar.

Genelleme eğrisi, olası aşırı uyum tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleme eğrisi, doğrulama kaybının nihayetinde eğitim kaybından önemli ölçüde daha yüksek olması nedeniyle aşırı uyumu önerir.

Y ekseninin kayıp, x ekseninin ise iterasyon olarak etiketlendiği Kartezyen grafik. İki tane grafik gösteriliyor. Birinde eğitim kaybı, diğerinde ise doğrulama kaybı gösterilir.
          İki grafik de benzer şekilde başlar ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük bir seviyeye düşer.

Genelleme bölümünü inceleyin daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

genelleştirilmiş doğrusal model

En az kareler regresyonunun bir genelleştirilmesi Bunlar, Google’da Gauss gürültü, diğer diğer gürültü türlerine dayalı model türleri Poisson gürültüsü veya kategorik gürültü. Genelleştirilmiş doğrusal model örnekleri arasında şunlar yer alır:

Genelleştirilmiş bir doğrusal modelin parametreleri dışbükey optimizasyon.

Genelleştirilmiş doğrusal modeller aşağıdaki özellikleri gösterir:

  • Optimum en küçük kareler regresyon modelinin ortalama tahmini, eğitim verilerindeki ortalama etikete eşittir.
  • Optimum mantıksal regresyon modeli tarafından tahmin edilen ortalama olasılık, eğitim verilerindeki ortalama etikete eşittir.

Genelleştirilmiş bir doğrusal modelin gücü, özellikleriyle sınırlıdır. Beğenmeyi kaldır genelleştirilmiş bir doğrusal model "yeni özellikler öğrenemez".

ürkütücü üretken ağ (GAN)

Oluşturucu tarafından yeni veriler oluşturmak için kullanılan bir ayırıcı bu kişinin oluşturulan verilerin geçerli olup olmadığını kontrol edin.

Üretken Zararlı Ağlar kursuna göz atın. konulu videomuzu izleyin.

üretken yapay zeka

#language
#image
#generativeAI

Resmi tanımı olmayan, yeni ortaya çıkan, dönüştürücü bir alan. Bununla birlikte, çoğu uzman üretken yapay zeka modellerinin aşağıdakilerin tümünü içeren içerikler oluşturabileceği ("üretebildiği") konusunda hemfikirdir:

  • karmaşık
  • tutarlı
  • orijinal

Örneğin, üretken yapay zeka modeli ile makale veya resim kullanabilirsiniz.

LSTMs gibi bazı eski teknolojiler ve RNN'ler gibi özgün ve tutarlı içeriğe sahip olmasını sağlar. Bazı uzmanlar bu eski teknolojileri üretken yapay zeka olarak görürken diğerleri, gerçek üretken yapay zekanın bu eski teknolojilerin üretebileceğinden daha karmaşık bir çıktı gerektirdiğini düşünüyor.

Tahmine dayalı makine öğrenimi ile kontrast oluşturun.

üretken model

Pratikte aşağıdakilerden birini yapan bir model:

  • Eğitim veri kümesinden yeni örnekler oluşturur (üretir). Örneğin, üretken bir model eğitimden sonra şiir oluşturabilir. bir veri kümesi üzerinde çalışıyoruz. Bir etkinliğin oluşturma kısmı üretken rakipler ağı bu kategoride yer alır.
  • Yeni bir örneğin eğitim veri kümesinden gelme olasılığını veya eğitim veri kümesini oluşturan mekanizmayla oluşturulma olasılığını belirler. Örneğin, Ürün İş Listesi’yle ilgili İngilizce cümlelerden oluşan bir veri kümesi kullanıyorsanız üretken bir model yeni girişin geçerli bir İngilizce cümle olma olasılığını belirler.

Üretken bir model, örneklerin dağılımını teorik olarak ayırt edebilir özellikler hakkında daha fazla bilgi edindiniz. Yani:

p(examples)

Gözetimsiz öğrenme modelleri üretkendir.

Ayırt edici modellerle karşılaştırın.

oluşturma aracı

Üretken zahmetli bir reklamveren içindeki alt sistem ağ kullanarak yeni örnekler oluşturabilirsiniz.

Ayırt edici model ile karşılaştırın.

gini safsızlık

#df

Entropi'ye benzer bir metrik. Ayırıcılar oluşturmak için gi saflığı veya entropiden elde edilen değerleri kullanma sınıflandırma için koşulları karar ağaçları oluşturun. Bilgi kazancı entropiden türetilir. Gini safsızlıktan türetilen metrik için evrensel olarak kabul edilen eşdeğer bir terim yoktur. Ancak bu adsız metrik, bilgi kazancı kadar önemlidir.

Gini safsızlık oranı, gini endeksi veya kısaca gini olarak da bilinir.

altın veri kümesi

Kesin referansı yakalayan, manuel olarak seçilmiş bir veri grubu. Ekipler bir modelin kalitesini değerlendirmek için bir veya daha fazla altın veri kümesi kullanabilir.

Bazı altın veri kümeleri, kesin referansın farklı alt alanlarını yakalar. Örneğin, görüntü sınıflandırma için altın bir veri kümesi, aydınlatma koşullarını yakalayabilir ve resim çözünürlüğü.

GPT (Önceden Eğitilmiş Üretici Dönüştürücü)

#language

Transformer tabanlı bir aile grubu tarafından geliştirilen büyük dil modellerini OpenAI.

GPT varyantları, aşağıdakiler de dahil olmak üzere birden fazla moda uygulanabilir:

  • görüntü üretme (ör. ImageGPT)
  • metinden görsele dönüştürme (örneğin, DALL-E) içerebilir.

gradyan

Tüm bağımsız değişkenlere göre kısmi türevlerin vektörü. Makine öğrenimindeki gradyan, model işlevinin kısmi türevlerinin vektörüdür. Gradyan noktaları sağa doğru ilerleyin.

gradyan birikimi

Parametreleri iterasyon başına bir kez yerine yalnızca sıfır zaman başına bir kez güncelleyen bir geri yayılma tekniği. Her mini grup işlendikten sonra gradyan birikimi, gradyanların değişen toplamını günceller. Ardından, sonrasında dönemin son mini toplu işini işlerse, sistem nihayet güncelleme yapar. renk geçişi değişikliklerinin toplamına göre değiştirin.

Gradyan birikimi, toplu boyut eğitim için kullanılabilen bellek miktarına kıyasla çok büyük olduğunda kullanışlıdır. Bellek sorun teşkil ettiğinde, doğal eğilim grup boyutunu azaltmaktır. Ancak normal geri yayılımda toplu boyutun azaltılması, parametre güncellemelerinin sayısını artırır. Gradyan birikmesi, modelin verimli bir şekilde eğitilmeye devam ediyor.

gradyan zenginleştirilmiş (karar) ağaçlar (GBT)

#df

Aşağıdakileri içeren bir tür karar ormanı:

Bkz. Gradient Boosted Karar Ağaçlar Daha fazla bilgi için Karar Ormanları kursuna göz atın.

gradyan güçlendirme

#df

Zayıf modellerin yinelemeli şekilde eğitildiği bir eğitim algoritması ve güçlü bir modelin kalitesini artırır (kayıpları azaltır). Örneğin, doğrusal veya küçük bir karar ağacı modeli zayıf bir model olabilir. Güçlü model, daha önce eğitilmiş tüm zayıf modellerin toplamı olur.

En basit gradyan artırma biçiminde, her iterasyonda güçlü modelin kayıp gradyanını tahmin etmek üzere eğitilir. Ardından, güçlü modelin çıkışı, gradyan azalma'ya benzer şekilde tahmin edilen gradyan çıkarılarak güncellenir.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

Bu örnekte:

  • $F_{0}$, başlangıçtaki güçlü modeldir.
  • Bir sonraki güçlü model $F_{i+1}$.
  • $F_{i}$, mevcut güçlü modeldir.
  • $\xi$, daraltma adı verilen 0,0 ile 1,0 arasında bir değerdir, Bu, öğrenme hızı izin verilir.
  • $f_{i}$, $F_{i}$ değerinin kayıp gradyantını tahmin etmek için eğitilmiş zayıf modeldir.

Gradyan artırmanın modern varyasyonları, hesaplamalarında kaybın ikinci türevini (Hessian) de içerir.

Karar ağaçları, gradyan güçlendirmede genellikle zayıf modeller olarak kullanılır. Gradyan artırılmış (karar) ağaçları başlıklı makaleyi inceleyin.

gradyan kırpma

#seq

risklerin etkilerini azaltmak amacıyla yaygın olarak kullanılan yapay olarak patlayan gradyan problemi kullanırken gradyanların maksimum değerini sınırlandırma (kaydırma) gradyan iniş: bir modeli eğitmek için.

gradyan iniş

#fundamentals

Kayıpları en aza indirmek için kullanılan matematiksel bir tekniktir. Gradyan iniş yinelemeli olarak ayarlanır ağırlıklar ve ön yargılar, kaybı en aza indirmek için en iyi kombinasyonu bulmak üzere kademeli olarak kullanılır.

Gradyan iniş, makine öğreniminden çok daha eskidir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Gradyan azalma bölümüne bakın.

grafik

#TensorFlow

TensorFlow'da bir hesaplama spesifikasyonu. Grafikteki düğümler işlemleri temsil eder. Kenarlar yönlendiriliyor ve sonucun iletilmesini temsil ediyor bir işlemin (Tensor) işleneni başka bir işleme taşır. Tekliflerinizi otomatikleştirmek ve optimize etmek için Bir grafiği görselleştirmek için TensorBoard.

grafik yürütme

#TensorFlow

Programın önce bir grafik oluşturduğu ve ardından bu grafiğin tamamını veya bir kısmını yürüttüğü bir TensorFlow programlama ortamı. Grafik yürütme, TensorFlow 1.x'teki varsayılan yürütme modudur.

Hızlı yürütme ile karşıtlık.

açgözlü politika

#rl

Pekiştirmeli öğrenmede, politika her zaman beklenen en yüksek dönüşü sağlayan işlem.

gerçek doğru

#fundamentals

Gerçek.

Gerçekten ne oldu?

Örneğin, üniversitenin ilk yılındaki bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Bu modelin kesin referansı, öğrencinin altı yıl içinde mezun olup olmadığıdır.

grup ilişkilendirme yanlılığı

#fairness

Bir kişi için doğru olanın, o gruptaki herkes için de doğru olduğu varsayılır. Grup ilişkilendirme yanlılığının etkileri daha da artabilir kullanışlı örnekleme veri toplama amacıyla kullanılır. Doğru temsil etmeyen bir örnekte, ilişkilendirmeler gerçeği yansıtmayacak şekilde geliştirilebilir.

Ayrıca grup dışı homojenlik yanlılığı bölümüne de bakın ve grup içi ön yargı. Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: Yanlılık türleri bölümüne de göz atın.

H

halüsinasyon

#language

Bir kullanıcı tarafından, makul görünen ancak olgusal açıdan yanlış çıktıların üretilmesi üretken yapay zeka modeli ortaya çıkarmasını sağlamaya yardımcı olur. Örneğin, Barack Obama'nın 1865'te öldüğünü iddia eden bir üretken yapay zeka modeli halüsinasyona giriyor.

karma oluşturma

Makine öğrenimindeki bir mekanizmadır. Özellikle kategori sayısı çok fazla ancak veri kümesinde görünen kategori sayısı nispeten az olduğunda kategorik verileri gruplandırmak için kullanılır.

Örneğin, Dünya yaklaşık 73.000 ağaç türüne ev sahipliği yapar. 73.000 ağaç türünün her birini 73.000 ayrı kategorik grupta temsil edebilirsiniz. Alternatif olarak, bu ağaç türlerinden yalnızca 200'ü bir veri kümesinde görünüyorsa ağaç türlerini yaklaşık 500 grupta toplamak için karma oluşturma işlemini kullanabilirsiniz.

Tek bir pakette birden fazla ağaç türü bulunabilir. Örneğin, karma oluşturma işlemi, genetik olarak farklı iki tür olan baobab ve kırmızı akçaağaç'ı aynı pakete yerleştirebilir. Bununla birlikte, karma oluşturma, büyük kategorik kümeleri seçilen sayıda pakete eşlemek için iyi bir yöntem olmaya devam etmektedir. Karma oluşturma işlemi büyük sayıda olası değere sahip kategorik özellik daha küçük sayıda değer için bir değer yazarak yöntemidir.

Bkz. Kategorik veriler: Sözlük ve tek seferlik kodlama daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

bulgusal

Bir sorun için basit ve hızlı bir şekilde uygulanan çözüm. Örneğin, "Heuristic ile %86 doğruluk elde ettik. Yeni bir doğruluk oranı %98'e yükseldi."

gizli katman

#fundamentals

Sinir ağında giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasında yer alan bir katman. Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ iki gizli katman içerir: ilki üç nöron, ikincisi ise iki nöronludur:

Dört katmanlı. İlk katman, iki katman içeren bir giriş katmanıdır
          özellikleri. İkinci katman, aynı sayfada yer alan üç
          sinir hücreleri. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman bir çıkış katmanıdır. Her özellik, her biri ikinci katmandaki farklı bir nöronu gösteren üç kenar içerir. İkinci katmandaki her nöron, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki nöronların her biri
          her biri çıktı katmanını işaret edecek şekilde bir kenara yerleştirilmelidir.

Derin nöral ağda birden fazla gizli katman. Örneğin, önceki çizimde derin sinirsel ağda iki katman bulunur.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Düğümler ve gizli katmanlar bölümüne bakın.

hiyerarşik kümeleme

#clustering

Ağaç oluşturan bir kümeleme algoritmaları kategorisi kümesidir. Hiyerarşik kümeleme, hiyerarşik veriler için çok uygundur. RACI matrisine geldi. İki tür hiyerarşik küme oluşturma algoritması vardır:

  • Toplayıcı küme oluşturma, her örneği önce kendi kümesine atar ve hiyerarşik bir ağaç oluşturmak için en yakın kümeleri iteratif olarak birleştirir.
  • Bölünme kümelenmesi, önce tüm örnekleri tek bir kümede gruplandırır, ardından kümeyi iteratif olarak hiyerarşik bir ağaca böler.

Merkez noktaya dayalı küme oluşturma ile karşılaştırın.

Bkz. Kümeleme algoritmalar daha fazla bilgi edinebilirsiniz.

menteşe kaybı

Sınıflandırma için karar sınırını her eğitim örneğinden mümkün olduğunca uzakta bulmak üzere tasarlanmış bir kayıp işlevi ailesidir. Böylece, örnekler ile sınır arasındaki marjı en üst düzeye çıkarır. KSVM'ler menteşe kaybı (veya menteşe kaybı karesine karşılık gelir). İkili sistem sınıflandırmasında menteşe kaybı işlevi şu şekilde tanımlanır:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

Burada y doğru etikettir (-1 veya +1); y' ise ham çıktıdır şu sınıflandırmayı ele alacağız:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Sonuç olarak, menteşe kaybının (y * y') ile karşılaştırmalı grafiği aşağıdaki gibi görünür:

Birleştirilmiş iki çizgi segmentinden oluşan Kartezyen grafik. İlk çizgi segmenti (-3, 4) ile başlar ve (1, 0) ile biter. İkinci çizgi segmenti (1, 0) noktasında başlar ve 0 eğimle sonsuza kadar devam eder.

geçmiş önyargısı

#fairness

Dünyada zaten mevcut olan ve veri kümesine dönüştü. Bu yanlılıkların, mevcut tecrübeleri kültürel klişeler, demografik eşitsizlikler ve belirli bir kuruma karşı sosyal gruplar.

Örneğin, bir kredi başvurucusunun kredisini ödeyip ödemeyeceğini tahmin eden ve 1980'lerden iki farklı topluluktaki yerel bankalardan alınan geçmiş kredi ödememe verileri üzerinde eğitilmiş bir sınıflandırma modeli düşünün. A Topluluğu'ndaki geçmiş başvuru sahiplerinin kredilerini ödememe olasılığı B Topluluğu'ndaki başvuru sahiplerininkine kıyasla altı kat daha yüksekse model, geçmişte bu topluluğun daha yüksek ödememe oranlarına yol açan koşullar artık geçerli olmasa bile A Topluluğu'ndaki kredileri onaylama olasılığının daha düşük olmasına neden olacak bir geçmiş önyargısı öğrenebilir.

Adalet: Türleri önyargı daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

muhafaza verileri

Eğitim sırasında kasıtlı olarak kullanılmayan örnekler ("ayık tutulan"). Doğrulama veri kümesi ve test veri kümesi, ayrılmış verilere örnektir. Verileri muhafaza etme modelinizin verileri olabilir. Bekleme grubundaki kayıp, eğitim grubundaki kayıptan daha iyi bir şekilde görülmeyen veri kümesindeki kaybı tahmin eder.

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir makine öğrenimi modeli eğitilirken sistemin aşağıdakilerin ikisini de kontrol eden kısmı:

  • Kodun genel akışı.
  • Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.

Ana makine genellikle bir hızlandırıcı çipinde değil, CPU'da çalışır. "the" device cihazındaki tensörleri manipüle eder. hızlandırıcı çipleri.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin bir model eğitilirken art arda ayarlamalar yapmaktır. Örneğin, öğrenme hızı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. Şu durumda: çok yüksek olduğunu tespit edebiliyorsanız, öğrenme yöntemini oranını 0,003’e yükseltebilirsiniz.

Buna karşılık parametreler, ağırlıklar ve ön yargılar öğrenir.

Doğrusal regresyon: Hiperparametreler daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

hiper düzlem

Bir alanı iki alt alana ayıran sınır. Örneğin, bir çizgi iki boyutlu bir hiper düzlemdir ve bir düzlem üç boyutlu bir hiper düzlemdir. Makine öğrenimindeki hiperdüzlemler genellikle yüksek boyutlu bir alanı ayıran sınırlardır. Çekirdek Destek Vektör Makineleri kullanımı pozitif sınıfları negatif sınıflardan ayırmak için hiper düzlemler oluşturarak yüksek boyutlu uzay.

I

i.i.d.

Bağımsız ve aynı olarak dağıtılmış anlamına gelen kısaltma.

resim tanıma

#image

Bir görüntüdeki nesneleri, desenleri veya kavramları sınıflandıran işlem. Görüntü tanıma, görüntü sınıflandırması olarak da bilinir.

Daha fazla bilgi için bkz. ML Pratiği: Görüntü Sınıflandırma.

Bkz. ML Pratiği: Görüntü Sınıflandırma kurs konulu videomuzu izleyin.

dengesiz veri kümesi

Sınıf dengesi bozuk veri kümesi için eş anlamlı.

örtülü önyargı

#fairness

Kişinin zihnine göre otomatik olarak bir ilişkilendirme veya varsayımda bulunma modeller. Dolaylı önyargı aşağıdakileri etkileyebilir:

  • Verilerin nasıl toplandığı ve sınıflandırıldığı.
  • Makine öğrenimi sistemlerinin tasarımı ve geliştirilmesi.

Örneğin, düğün fotoğraflarını tanımlamak için bir sınıflandırıcı oluştururken, bir mühendisin fotoğraftaki beyaz elbise içermesini özellik olarak kullanıyor olabilir. Ancak beyaz elbiseler geleneksel olarak yalnızca belirli dönemlerde bazı kültürlerde var.

Ayrıca onay yanlılığı konusuna bakın.

imputation

Değer tamamlama kısa biçimi.

Adil olma metriklerinin uyumsuzluğu

#fairness

Bazı adalet kavramlarının karşılıklı olarak uyumsuz olduğu aynı anda karşılanamaz. Sonuç olarak, adaletin ölçülmesi için evrensel metrik çözümler geliştirir.

Bu cesaret kırıcı gibi görünse de adalet metriklerinin anlamına gelmez. Bunun yerine makine öğrenimi problemi için adaletin bağlamsal olarak tanımlanması gerektiğini kullanım alanlarına özgü zararları önleme amacı vardır.

Bu konuyla ilgili daha ayrıntılı bir tartışma için "Adil olmanın (im)mkansızlığı hakkında" başlıklı makaleyi inceleyin.

bağlam içinde öğrenme

#language
#generativeAI

Çok görevli istem ile eş anlamlıdır.

bağımsız ve aynı şekilde dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımdan alınan veriler ve her değerin önceden çizilen değerlere bağlı değildir. Bağımsız örnek, makine öğreniminin ideal gazı olarak kabul edilir. Yararlı bir matematiksel yapıdır ancak gerçek dünyada neredeyse hiç tam olarak bulunmaz. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı kimliği olabilir kısa bir süre içinde yani dağıtım kısa bir süre içinde değişir ve bir kişinin ziyareti genellikle ne olduğunu öğreneceğiz. Ancak bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde mevsimsel farklılıklar görebilirsiniz.

Ayrıca bkz. durağansızlık.

Bireysel adalet

#fairness

Benzer kişilerin benzer şekilde sınıflandırılıp sınıflandırılmadığını kontrol eden bir adalet metriği. Örneğin, Brobdingnagian Akademisi, aynı notlara ve standartlaştırılmış sınav puanlarına sahip iki öğrencinin kabul edilme olasılığının eşit olmasını sağlayarak bireysel adaleti sağlamak isteyebilir.

Bireysel adaletin tamamen "benzerliği" tanımlama şeklinize dayandığını unutmayın (bu durumda notlar ve test puanları) olur. Böyle bir durumda, Benzerlik metriğiniz önemli noktaları gözden kaçırırsa yeni adalet problemleri (ör. öğrencinin müfredatının katılığı)

Bireysel adalet hakkında daha ayrıntılı bilgi için "Farkındalık

çıkarım

#fundamentals

Makine öğreniminde, yeni bir işlevin etiketsiz örneklere eğitilmiş bir model uygulama.

İstatistikte çıkarım biraz farklı bir anlama sahiptir. Bkz. İstatistiksel çıkarımla ilgili Wikipedia makalesi'nde bulabilirsiniz.

Gözetimli Öğrenme başlıklı makaleyi inceleyin. bu dersteki çıkarımların rolünü görebilirsiniz. öğrenim sistemidir.

çıkarım yolu

#df

Bir karar ağacında, çıkarım sırasında, belirli bir örneğin başlangıç noktasından diğer koşullara kök ve yaprak. Örneğin, aşağıdaki karar ağacında, kalın oklar aşağıdaki gibi bir örneğin çıkarım yolunu gösterir özellik değerleri:

  • x = 7
  • y = 12
  • z = -3

Aşağıdaki çizimde bulunan çıkarım yolu, gereken koşulları (Zeta) gösterir.

Dört koşul ve beş yapraktan oluşan bir karar ağacı.
          Kök koşul (x > 0) şeklindedir. Yanıt evet olduğundan çıkarım yolu kökten sonraki koşula (y > 0) gider.
          Yanıt Evet olduğundan çıkarım yolu sonraki koşula (z > 0) gider. Yanıt &quot;Hayır&quot; olduğu için çıkarım yolu, terminal düğümüne (Zeta) gider.

Üç kalın ok, çıkarım yolunu gösterir.

Daha fazla bilgi için Karar Ormanları kursundaki Karar ağaçları bölümüne bakın.

bilgi kazancı

#df

Karar ağaçlarında, bir düğümün entropisi ile alt düğümlerinin entropisinin ağırlıklı (örnek sayısına göre) toplamı arasındaki farktır. Bir düğümün entropisi, söz konusu düğümdeki örneklerin entropisidir.

Örneğin, aşağıdaki entropi değerlerini ele alalım:

  • üst düğümün entropisi = 0,6
  • 16 alakalı örnek içeren bir alt düğümün entropisi = 0,2
  • 24 alakalı örnekle başka bir alt düğümün entropisi = 0,1

Yani örneklerin% 40'ı bir alt düğümde, %60'ı ise tıklayın. Bu nedenle:

  • alt düğümlerin ağırlıklı entropi toplamı = (0,4 * 0,2) + (0,6 * 0,1) = 0,14

Yani bilgi kazancı şu şekildedir:

  • bilgi kazancı = üst düğümün entropisi - alt düğümlerin ağırlıklı entropi toplamı
  • bilgi kazancı = 0,6 - 0,14 = 0,46

Çoğu ayırıcı koşullar oluşturmayı amaçlar. yaygın veri türlerini konuşacağız.

grup içi önyargı

#fairness

Kendi grubuna veya özelliklerine taraf tutma Test edenler veya puan verenler makine öğrenimi geliştiricisinin arkadaşları, ailesi veya iş arkadaşlarıysa grup içi önyargı, ürün testini veya veri kümesini geçersiz kılabilir.

Grup içi önyargı, grup ilişkilendirme önyargısının bir türüdür. Ayrıca grup dışı homojenlik ön yargısı konusuna da bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

giriş üreteci

Verilerin yüklenmesi için kullanılan mekanizma sinirsel ağ.

Giriş oluşturucu, ham verileri eğitim, değerlendirme ve çıkarım için gruplar oluşturmak üzere iterasyon uygulanan tenzorlara dönüştürmekten sorumlu bir bileşen olarak düşünülebilir.

giriş katmanı

#fundamentals

İşlemin gerçekleştirilmesine olanak tanıyan nöral ağın katmanı özellik vektörünü barındırır. Yani giriş katmanı eğitim için örnekler sağlar veya çıkarım. Örneğin, aşağıdaki örnekteki giriş katmanı nöral ağ iki özellikten oluşur:

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.

setteki koşul

#df

Karar ağacında, bir öğe grubunda bir öğenin bulunup bulunmadığını test eden koşul. Örneğin, aşağıdakiler grup içi koşullardır:

  house-style in [tudor, colonial, cape]

Çıkarım sırasında, ev stili özelliğin değeri tudor veya colonial ya da cape ise bu koşul Evet olarak değerlendirilir. Eğer ev stili özelliğinin değeri başka bir şeydir (örneğin, ranch), bu koşul, Hayır olarak değerlendirilir.

Set içi koşullar genellikle tek sıcak kodlu özellikleri test eden koşullardan daha verimli karar ağaçlarına yol açar.

örnek

örnek kelimesinin eş anlamlısıdır.

talimat ayarlama

#generativeAI

Üretken yapay zeka modelinin talimatları takip etme yeteneğini artıran bir ince ayar biçimidir. Talimat ayarlama, bir modeli bir seri üzerinde eğitmeyi içerir genellikle geniş bir kapsamı kapsayan çeşitli görevler vardır. Bunun sonucunda, talimatlara göre ayarlanmış model çeşitli görevlerde sıfır atış istemlerine yararlı yanıtlar üretir.

Karşılaştıracak olanları kıyaslama ve karşılaştırma:

ziyaret edin.

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelinin mantığını insanlara anlaşılır terimlerle açıklama veya sunma yeteneği.

Örneğin, çoğu doğrusal regresyon modeli yüksek oranda yorumlanabilirdir. (Yalnızca her bir özellik için eğitilmiş ağırlıklara bakmanız yeterlidir.) Karar ormanları da çok kolay yorumlanabilir. Ancak bazı modeller yorumlanabilir hale gelmesi için karmaşık görselleştirmeye ihtiyaç vardır.

ML modellerini yorumlamak için Learning Interpretability Tool (LIT) aracını kullanabilirsiniz.

değerlendiriciler arası anlaşma

Derecelendirme yapan kişilerin bir görevi yerine getirirken ne sıklıkla hemfikir olduğunun ölçümü. Değerlendiriciler aynı fikirde değilse görev talimatlarının iyileştirilmesi gerekebilir. Bazen not oluşturucu sözleşmesi olarak da adlandırılır. dereceler arası güvenilirlik hakkında daha fazla bilgi edinin. Şu kaynakları da inceleyin Cohen'in kappa, Bu ölçüm, değerlendiriciler arası en popüler ölçümlerden biridir.

Bkz. Kategorik veriler: Yaygın sorun daha fazla bilgi için Makine Öğrenimi Crash Course'a göz atın.

tümleşik kesişim (IoU)

#image

İki kümenin birleşimine bölünen kesişimi. Makine öğrenimi görüntü algılama görevlerinde IoU, modelin tahmin edilen sınırlayıcı kutusunun kesin referans sınırlayıcı kutusuna göre doğruluğunu ölçmek için kullanılır. Bu durumda, iki kutu, örtüşen alan ile toplam alan arasındaki orandır. değeri 0 arasında değişir (tahmini sınırlayıcı kutu ile kesin referansın çakışması yoktur) sınırlayıcı kutu) 1'e (tahmini sınırlayıcı kutu ve kesin sınırlayıcı kutucuğu) koordinatlarla değiştirin).

Örneğin, aşağıdaki resimde:

  • Tahmin edilen sınırlayıcı kutu (modelin konumu belirleyen koordinatlar resmin bulunduğu gece masasının bulunduğu yer) mor renkte gösterilmiştir.
  • Kesin referans sınırlayıcı kutu (gecenin nerede olduğunu belirleyen koordinatlar resmin bulunduğu yer) yeşil dış çizgiyle gösterilir.

Van Gogh&#39;un, Arles&#39;teki Vincent&#39;ın Yatak Odası&#39;nı resmeden, iki farklı
          sınırlayıcı kutucuklar vardı. Kesin referans sınırlayıcı kutusu (yeşil renkli) gece masasını mükemmel şekilde çevreliyor. Tahmin edilen sınır kutusu (mor renkli), gerçek sınır kutusunun %50 aşağı ve sağ tarafına kaydırılmıştır; gece masasının sağ alt çeyreğini içine alır ancak masanın geri kalanını kaçırmıştır.

Burada, tahmin ve kesin referans için sınırlayıcı kutuların kesişimi (sol altta) 1, tahmin ve kesin referans için sınırlayıcı kutuların birleşimi (sağ altta) 7 olduğundan IoU \(\frac{1}{7}\)'tür.

Yukarıdaki resimle aynı ancak her sınırlayıcı kutu dört çeyreğe bölünmüş. Sağ alt kısımda olmak üzere toplamda
          kesin referans sınırlayıcı kutusunun ve sol üst tarafın
          tahmin edilen sınırlayıcı kutunun çeyreği birbiriyle çakışıyor. Bu
          çakışan bölüm (yeşil renkle vurgulanmıştır) ilgili
          kesişim ve 1 alanına sahip. Yukarıdaki resimle aynı ancak her sınırlayıcı kutu dört çeyreğe bölünmüş. Sağ alt kısımda olmak üzere toplamda
          kesin referans sınırlayıcı kutusunun ve sol üst tarafın
          tahmin edilen sınırlayıcı kutunun çeyreği birbiriyle çakışıyor.
          Her iki sınırlayıcı kutuyla da çevrelenen iç alanın tamamı (yeşil renkle vurgulanmıştır) birleşmeyi temsil eder ve 7 alanlıdır.

IoU

Kesişim bölü birleşim kısaltması.

öğe matrisi

#recsystems

Öneri sistemlerinde, her öğe hakkında gizli sinyaller içeren ve matris faktörleştirme ile oluşturulan gömülü vektör matrisi. Öğe matrisinin her satırı, tek bir gizli özelliğini kullanabilirsiniz. Örneğin, bir film öneri sistemi düşünün. Öğe matrisindeki her sütun tek bir filmi temsil eder. Gizli sinyaller türler veya tür, yıldızlar, film yaşı ya da diğer faktörler arasındaki karmaşık etkileşimleri içeren, yorumlanması daha zor sinyaller olabilir.

Öğe matrisi, faktörize edilen hedef matrisle aynı sayıda sütuna sahiptir. Örneğin, Yeşil Ofis’te 10.000 filmin tamamını değerlendiren bir öneri sistemi öğe matrisinde 10.000 sütun olur.

items

#recsystems

Öneri sisteminde, bir sistem önerir. Örneğin, videolar bir video mağazasının önerdiği öğeler, kitaplar ise bir kitapçının önerdiği öğelerdir.

iterasyon

#fundamentals

Eğitim sırasında modelin parametrelerinin (modelin ağırlıkları ve önyargıları) tek bir güncellemesi. Toplu boyutu, modelin tek bir iterasyonda kaç örnek işlediğini. Örneğin, toplu boyut 20 ise model, parametreleri ayarlamadan önce 20 örnek işler.

Bir nöral ağı eğitirken tek bir iterasyon aşağıdaki iki geçişi içerir:

  1. Tek bir partideki kaybı değerlendirmek için ileriye doğru geçiş.
  2. kayıp ve öğrenme hızına dayalı olarak modelin parametrelerini ayarlar.

J

JAX

Yüksek performanslı sayısal hesaplama için XLA (Hızlandırılmış Doğrusal Cebir) ve otomatik diferansiyel hesaplamayı bir araya getiren bir dizi hesaplama kitaplığı. JAX, birleştirilebilir dönüşümlerle hızlandırılmış sayısal kod yazmak için basit ve güçlü bir API sağlar. JAX aşağıdaki gibi özellikler sunar:

  • grad (otomatik farklılaştırma)
  • jit (tam zamanında derleme)
  • vmap (otomatik vektörleştirme veya toplu işleme)
  • pmap (paralelleştirme)

JAX, sayısal kod dönüşümlerini ifade etmek ve oluşturmak için kullanılan bir dildir. Python'un NumPy kitaplığına benzer ancak kapsamı çok daha geniştir. (Aslında, JAX altındaki .numpy kitaplığı işlevsel olarak eşdeğerdir, Python NumPy kitaplığının tamamen yeniden yazılmış bir versiyonudur.)

JAX özellikle birçok makine öğrenimi görevini hızlandırmaya uygundur modelleri ve verileri paralelliğe uygun bir forma dönüştürerek daha fazla GPU ve TPU hızlandırıcı çipinde kullanılabilir.

Flax, Optax, Pax ve daha birçok araç kitaplıklarının JAX altyapısı üzerine inşa edildiğini gösterir.

K

Keras

Popüler bir Python makine öğrenimi API'si. Keras, TensorFlow da dahil olmak üzere çeşitli derin öğrenme çerçevelerinde çalışır. TensorFlow'da tf.keras olarak kullanılabilir.

Çekirdek Destek Vektör Makineleri (KSVM'ler)

Giriş veri vektörlerini daha yüksek boyutlu bir uzayla eşleyerek pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmaya çalışan bir sınıflandırma algoritması. Örneğin, giriş veri kümesinin yüz özelliği olduğu bir sınıflandırma problemini düşünün. KSVM, pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmak için bu özellikleri dahili olarak bir milyon boyutlu alanda eşleyebilir. KSVM'ler, menteşe kaybı adlı bir kayıp işlevi kullanır.

önemli noktalar

#image

Bir resimdeki belirli özelliklerin koordinatları. Örneğin, çiçek türlerini ayırt eden bir resim tanıma modelinde anahtar noktalar her bir taç yaprağın ortası, sap, erkek organ vb. olabilir.

k katlar arası doğrulama

Modelin kapasitesini tahmin etmek için kullanılan yeni verilere genelleştirin. K katlamadaki k, bir veri kümesinin örneklerini ayırdığınız eşit grupların sayısını ifade eder. Yani modelinizi k kez eğitip test edersiniz. Her eğitim ve test turunda farklı bir grup test grubu olur ve kalan tüm gruplar eğitim grubu olur. K tur eğitim ve testten sonra, seçilen test metriklerinin ortalamasını ve standart sapmasını hesaplarsınız.

Örneğin, veri kümenizin 120 örnekten oluştuğunu varsayalım. Ayrıca, k değerini 4 olarak ayarlamaya karar verdiğinizi varsayalım. Bu nedenle, örnekleri karıştırdıktan sonra veri kümesini 30 örnekli dört eşit gruba bölüp dört eşit eğitim ve test aşamaları:

Dört eşit örnek grubuna ayrılmış bir veri kümesi. 1. turda ilk üç grup eğitim için, son grup ise test için kullanılır. 2. Turda ilk iki grup ve son grup,
          grubu eğitim için, üçüncü grup ise eğitim için kullanılıyor.
          teşvik etmek anlamına gelir. 3. turda ilk grup ve son iki grup eğitim için, ikinci grup ise test için kullanılır.
          4. Turda ilk grup test amaçlı, son grup ise test amaçlıdır.
          eğitim için üç grup kullanılır.

Örneğin, ortalama karesel hata (MSE) doğrusal regresyon modeli için en anlamlı metrik olabilir. Bu nedenle, dört tur boyunca MSE'nin ortalamasını ve standart sapmasını bulursunuz.

k-ortalama

#clustering

Gözetimli öğrenmede örnekleri gruplandıran popüler bir kümeleme algoritması. K-ortalama algoritması temel olarak aşağıdakileri yapar:

  • En iyi k merkez noktasını (merkez noktaları olarak bilinir) iteratif olarak belirler.
  • Her örneği en yakın merkez noktaya atar. Bu örnekler en yakındaki aynı gruba ait olduğundan emin olun.

K-ortalama algoritması, kümülatif konumu en aza indirmek için merkez konumlarını seçer her örnekte en yakın merkez noktasına olan mesafenin karesini gösterir.

Örneğin, köpek boyunun köpek genişliğine göre gösterildiği aşağıdaki grafiği inceleyin:

Birkaç düzine veri noktası içeren Kartezyen nokta grafiği.

k=3 ise k-ortalama algoritması üç merkezi belirler. Her bir örnek en yakın merkeze atanır ve sonuç üç grup oluşturur:

Üç ağırlık merkezinin eklenmesi dışında önceki görseldekiyle aynı Kartezyen nokta kümesi.
          Önceki veri noktaları üç farklı gruba ayrılır. Her grup, belirli bir merkeze en yakın veri noktalarını temsil eder.

Bir üreticinin, köpekler için küçük, orta ve büyük kazaklarda ideal bedenleri belirlemek istediğini varsayalım. Üç merkezi değer ortalamayı tanımlar yüksekliği ve ortalama genişliği gösterilir. Bu nedenle, üreticinin kazak bedenlerini bu üç merkez noktasına göre belirlemesi gerekir. Lütfen kümenin merkezi genellikle kümeye örnek değildir.

Yukarıdaki çizimlerde k-ortalaması yalnızca iki özelliğe (yükseklik ve genişlik) sahip. K-ortalamaların, örnekleri birçok özellikte gruplandırabileceğini unutmayın.

k-ortanca değeri

#clustering

K-ortalama ile yakından ilişkili bir kümeleme algoritması. İlgili içeriği oluşturmak için kullanılan ikisi arasındaki pratik fark şudur:

  • K-ortalama yönteminde, bir merkez adayı ile örneklerinin her biri arasındaki mesafenin karelerinin toplamı en aza indirilerek merkezler belirlenir.
  • K-ortanca değerde, centroidler toplam her bir merkez adayı ile bunun örnekleri arasındaki mesafeyi açıklamaktadır.

Mesafe tanımlarının da farklı olduğunu unutmayın:

  • k-ortalamanın Öklid uzaklığı örneğini ele alalım. (İki boyutta, Öklid mesafeyi hesaplamak için Pisagor teoremini kullanmak anlamına gelir hipotenüstür.) Örneğin, (2,2) ile (5,-2) arasındaki k-ortalama mesafe şöyle olur:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-ortanca değeri, Manhattan mesafesine dayanır örnek olarak özetleyebiliriz. Bu mesafe, her boyuttaki mutlak deltaların toplamıdır. Örneğin, (2,2) ile (5,-2) arasındaki k-median mesafesi şöyle olur:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır olmayan ağırlıkların toplam sayısını cezalandıran bir tür normalleştirme. Örneğin, sıfır olmayan 11 ağırlığa sahip bir model, sıfır olmayan 10 ağırlığa sahip benzer bir modelden daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0-norm normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Mutlak değeri hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L1 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Mutlak delta değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 mağlubiyeti

L1 kaybı, aykırı değerlere karşı daha az hassastır. L2 kaybından daha yüksek.

Ortalama Mutlak Hata, Örnek başına L1 kaybı.

L1 normalleştirmesi

#fundamentals

Ağırlıkları ağırlıkların mutlak değerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L1 normalleştirmesi, alakasız veya alaka düzeyi düşük özelliklerin ağırlıklarını tam olarak 0 değerine çekmeye yardımcı olur. Şu özelliklere sahip bir özellik: 0 ağırlık modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesiyle karşılaştırın.

L2 kaybı

#fundamentals

Kareyi hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L2 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Delta karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 mağlubiyet

Kare alma işlemi nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybına kıyasla daha güçlü tepki verir. Örneğin, önceki toplu işlem için L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin 16 değerin 9'unu oluşturduğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Kare Hatası, Örnek başına L2 kaybı. Kare karesi, L2 kaybının diğer adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıkları, ağırlıkların karelerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L2 normalleştirmesi, aykırı ağırlıkların (ayrıca pozitif veya düşük negatif değerlere sahiptir) 0'a yaklaşır ancak tam olarak 0 değildir. 0'a çok yakın değerlere sahip özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi şuralarda genellemeyi her zaman iyileştirir: doğrusal modeller.

L1 normalleştirmesi ile kontrast.

etiket

#fundamentals

Gözetimli makine öğrenimi'nde, örnek'in "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Örneğin, spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarıdır.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket ekleyin. Örneğin, aşağıdaki tabloda üç adet her biri üç özelliğe sahip bir ev değerleme modelinden etiketli örnekler ve bir etiket:

Yatak odası sayısı Banyo sayısı Ev yaşı Ev fiyatı (etiket)
3 2 15 345.000 ABD doları
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğreniminde etiketli örnekler üzerinde eğitilir ve bu örnekler üzerinde etiketsiz örnekler.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

etiket kaybı

Bir özelliğin etiketin vekili olduğu model tasarımı hatası. Örneğin, potansiyel bir müşterinin belirli bir ürünü satın alıp almayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Modelin özelliklerinden birinin SpokeToCustomerAgent Ayrıca, müşteri temsilcisinin yalnızca potansiyel müşteri ürünü satın aldıktan sonra atandığını varsayalım. Eğitim sırasında model, SpokeToCustomerAgent ile etiket arasındaki ilişkiyi hızlı bir şekilde öğrenir.

lambda

#fundamentals

Düzenleme oranı ile eş anlamlıdır.

Lambda aşırı yüklü bir terimdir. Burada, kavramı normalleştirme içindeki tanım.

LaMDA (Diyalog Uygulamaları İçin Dil Modeli)

#language

Google tarafından geliştirilen, gerçekçi konuşma yanıtları oluşturabilen büyük bir diyalog veri kümesinde eğitilmiş Transformer tabanlı büyük dil modeli.

LaMDA: Çığır açan görüşmemiz teknolojisi genel bir bakış sunar.

önemli noktalar

#image

keypoints ile eş anlamlı.

dil modeli

#language

Daha uzun bir jeton dizisinde jeton veya jeton dizisinin gerçekleşme olasılığını tahmin eden bir model.

büyük dil modeli

#language

En azından, çok yüksek bir dil modeli parametreden Daha resmi olmayan bir şekilde Dönüştürücü tabanlı dil modeli, Gemini veya GPT.

gizli alan

#language

Yerleştirme alanı ile eş anlamlıdır.

katman

#fundamentals

Nöral ağ içindeki bir grup nöron. Sık kullanılan üç katman türü aşağıdaki gibidir:

Örneğin, aşağıdaki görselde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, aynı zamanda Giriş olarak Tensors ve yapılandırma seçenekleri başka tensörler üretebilirsiniz.

Katmanlar API'sı (tf.layers)

#TensorFlow

Derin nöral ağ oluşturmak için bir TensorFlow API bir katman olarak kullanır. Katmanlar API'si, gerçek zamanlı olarak katman türleri, örneğin:

Layers API, Keras katman API'si kurallarına uyar. Yani Layers API'deki tüm işlevler, farklı bir ön ek dışında Keras layers API'deki benzerleriyle aynı ada ve imzaya sahiptir.

yaprak

#df

Karar ağacındaki herhangi bir uç nokta. Koşul'un aksine, yaprak bir test gerçekleştirmez. Yaprak daha çok olası bir tahmindir. Yaprak, çıkarım yolunun terminal düğümü de olabilir.

Örneğin, aşağıdaki karar ağacı üç yaprak içerir:

Üç yaprağa giden iki koşul içeren bir karar ağacı.

Learning Interpretability Tool (LIT)

Görsel, etkileşimli bir model anlama ve veri görselleştirme aracı.

Modelleri yorumlamak veya metin, resim ve tablo verilerini görselleştirmek için açık kaynak LIT'i kullanabilirsiniz.

öğrenme hızı

#fundamentals

Gradyan inişini bildiren bir kayan nokta sayısı her bir cihazdaki ağırlık ve sapmayı iterasyon. Örneğin, 0,3'lük bir öğrenme hızı, ağırlıkları ve önyargıları 0,1'lik bir öğrenme hızından üç kat daha güçlü bir şekilde ayarlar.

Öğrenme hızı, önemli bir hiperparametredir. Öğrenme hızını çok düşük ayarlarsanız eğitim çok uzun sürer. Öğrenme hızını çok yüksek ayarlarsanız gradyan azalma genellikle ayrışma noktasına ulaşmakta sorun yaşar.

en küçük kareler regresyonu

L2 kaybını en aza indirerek eğitilen doğrusal regresyon modeli.

doğrusal

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilebilen ilişki.

Doğrusal ilişkilerin grafiği bir çizgidir.

nonlinear ile kontrast.

doğrusal model

#fundamentals

Tahmin yapmak için özellik başına bir ağırlık atayan model. (Doğrusal modeller de önyargı içerir.) Buna karşılık, derin modellerde özelliklerin tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolay olduğu için yorumlanabilir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon iki tür doğrusal modeldir.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de doğru olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyon ile mantıksal regresyon arasındaki farkları öğrenin. Ayrıca, sınıflandırma ile regresyonu karşılaştırın.

LIT

için kısaltma Öğrenme Yorumlanabilirlik Aracı (LIT) önceden Dil Yorumlanabilirliği Aracı olarak biliniyordu.

LLM

#language
#generativeAI

Büyük dil modeli kısaltması.

LLM değerlendirmeleri (değerlendirmeler)

#language
#generativeAI

Performansı değerlendirmeye yönelik bir dizi metrik ve karşılaştırma ölçütü büyük dil modelleri (LLM) olarak değiştirin. Genel olarak LLM değerlendirmeleri:

  • Araştırmacıların, LLM'lerin iyileştirilmesi gereken alanları belirlemesine yardımcı olun.
  • Farklı LLM'lerin karşılaştırılmasında ve belirli bir konu için en iyi LLM'nin karar verebilir.
  • LLM'lerin güvenli ve etik bir şekilde kullanılmasına yardımcı olma
ziyaret edin.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir tür regresyon modeli. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategoriktir. Lojistik terimi regresyon genellikle ikili mantıksal regresyon anlamına gelir. . Daha az yaygın olan bir değişken olan çoklu terimli mantıksal regresyon, olasılıklarını ifade eder.
  • Eğitim sırasındaki kayıp işlevi Log Loss'tur. (İkiden fazla olası değere sahip etiketler için paralel olarak birden fazla Log Loss birimi yerleştirilebilir.)
  • Model, derin nöral ağ değil doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketler için olasılıkları tahmin eden derin modeller için de geçerlidir.

Örneğin, dönüşüm değerini hesaplayan bir mantıksal regresyon giriş e-postasının spam veya spam olmaması olasılığı. Çıkarım sırasında modelin 0, 72 değerini tahmin ettiğini varsayalım. Dolayısıyla, modelin tahmini değeri:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama ihtimali% 28'dir.

Mantıksal regresyon modeli, aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinden oluşan doğrusal bir işlev uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini bir kampanyaya girdi olarak kullanır sigmoid işlevi, değeri 0 ile 1 arasında bir değere ayarlayabilirsiniz.

Her regresyon modelinde olduğu gibi mantıksal regresyon modeli de bir sayıyı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modelinin parçası olur:

  • Tahmin edilen sayı, büyük sınıflandırma eşiğinin ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

mantıksal dönüşümler

Sınıflandırmanın ham (normalleştirilmemiş) tahminlerinin vektörü modeli oluşturulur ve bu normalde daha sonra bir normalleştirme işlevine geçirilir. Model bir çok sınıflı sınıflandırma problemini çözüyorsa mantıksal değerler genellikle softmax işlevinin girişi olur. Ardından softmax işlevi, her olası sınıf için bir değer içeren (normalleştirilmiş) olasılıklar vektörü oluşturur.

Günlük Kaybı

#fundamentals

İkili programda kullanılan kayıp işlevi mantıksal regresyon.

günlük-olasılıklar

#fundamentals

Bir olayın olasılığının logaritması.

Uzun kısa süreli bellek (LSTM)

#seq

Şuradaki hücre türü: yinelenen nöral ağ; el yazısı tanıma, makine gibi uygulamalardaki veri dizileri çeviri ve resim yazıları. LSTM'ler, uzun veri dizileri nedeniyle RNN'leri eğitirken ortaya çıkan gradyan kaybolma sorununu, geçmişi RNN'deki önceki hücrelerden gelen yeni girişe ve içeriğe dayalı bir dahili bellek durumunda tutarak çözer.

LoRA

#language
#generativeAI

Low-Rank Adaptability (Düşük Sıralamalı Uyarlanabilirlik) kısaltmasıdır.

mağlubiyet

#fundamentals

Gözetimli bir modelin eğitimi sırasında, modelin tahmininin etiketinden ne kadar uzak olduğunu gösteren bir ölçümdür.

Kayıp işlevi, kaybı hesaplar.

kayıp toplayıcı

Birden fazla modelin tahminlerini birleştirip tek bir tahminde bulunmak için bu tahminleri kullanarak bir modelin performansını artıran bir tür makine öğrenimi algoritması. Sonuç olarak, bir kayıp toplayıcı, tahminlerin varyansını azaltabilir tahminlerin doğruluğunu artırır.

kayıp eğrisi

#fundamentals

Eğitim iterasyonlarının sayısına bağlı olarak kayıp grafiği. Aşağıdaki grafikte tipik bir kayıp eğri:

Kayıp ve eğitim yinelemelerinin karşılaştırıldığı Kartezyen grafiği
          ilk iterasyonlarda kayıpta hızlı bir düşüş yaşandığını ve ardından kademeli olarak
          ve son yinelemeler sırasında düz bir eğim çizmesi gerekir.

Kayıp eğrileri modelinizin ne zaman yakınlaştırma veya uyarlama özelliklerini kullanın.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Genelleştirme eğrisi konusuna da göz atın.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, bir toplu örnekteki kaybı hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminler yapan modeller için kötü tahminler yapan modellere kıyasla daha düşük bir kayıp döndürür.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı kayıp fonksiyonu vardır. Oluşturduğunuz model türü için uygun kayıp işlevini seçin. Örneğin:

kayıp yüzeyi

Kilo ve kilo kaybı grafiği. Gradyan iniş, kayıp yüzeyinin yerel minimumda olduğu ağırlıkları bulmaya çalışır.

Düşük Seviyede Uyarlanabilirlik (LoRA)

#language
#generativeAI

Modelin önceden eğitilmiş ağırlıklarını "dondurup" (artık değiştirilemeyecek şekilde) ince ayarlama yapmak için kullanılan parametre açısından verimli bir tekniktir. Ardından modele küçük bir eğitilebilir ağırlık grubu ekler. Bu eğitilebilir ağırlıklar grubu ("güncelleme matrisleri" olarak da bilinir), temel modelden önemli ölçüde daha küçüktür ve bu nedenle eğitilmesi çok daha hızlıdır.

LoRA aşağıdaki avantajları sağlar:

  • Politika ihlalinin söz konusu olduğu alan için model tahminlerinin kalitesini ayarı uygulanır.
  • Modelin tüm özellikleri üzerinde ince ayar yapılmasını gerektiren tekniklere kıyasla daha hızlı ince ayarlar parametreleridir.
  • Aynı temel modeli paylaşan birden fazla özel modelin eşzamanlı olarak sunulmasını sağlayarak tahmin işleminin hesaplama maliyetini azaltır.

LSTM

#seq

Uzun Kısa Süreli Bellek kısaltması.

M

makine öğrenimi

#fundamentals

Giriş verilerinden model eğiten bir program veya sistem. Eğitilen model, Google Haritalar'dan alınan yeni (hiç görülmemiş) verilerden elde edilen modeli eğitmek için kullanılanla aynı dağılıma sahiptir.

Makine öğrenimi, aynı zamanda bu program veya sistemlerle anlamaya çalışırsınız.

çoğunluk sınıfı

#fundamentals

Sınıf dengesi bozuk bir veri kümesinde daha yaygın olan etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, negatif etiketler çoğunluğa hitap eder.

Azınlık sınıfı ile kontrast.

Markov karar süreci (MDP)

#rl

Karar verme modelini temsil eden bir grafik (veya işlemler) yapıldığından eylemlerin Markov mülkü muhafazaları. Güçlendirme öğrenimi'nde, durumlar arasındaki bu geçişler sayısal bir ödül döndürür.

Markov özelliği

#rl

Devletin bağlı olduğu belirli ortamların tüm bu geçişlerin, dolaylı yoldan gerçekleştirilen mevcut durum ve temsilcinin işlemi.

maskeli dil modeli

#language

Bir sıradaki boşlukları doldurmak için aday jetonların olasılığını tahmin eden bir dil modeli. Örneğin, maskelenmiş bir dil modeli, aşağıdaki cümledeki altı çizili kısmı değiştirmek için olası kelimeleri hesaplayabilir:

Şapkadaki ____ geri geldi.

Literatürde genellikle "MASK" dizesi kullanılmaktadır tercih edebilirsiniz. Örneğin:

Şapkadaki "MASK" geri geldi.

Modern maskeli dil modellerinin çoğu iki yönlüdür.

matplotlib

Açık kaynaklı bir Python 2D çizim kitaplığıdır. matplotlib, makine öğreniminin farklı yönlerini görselleştirmenize yardımcı olur.

matris çarpanlarına ayırma

#recsystems

Matematikte, nokta çarpımı yaklaşık bir değere sahip matrisleri bulmak için kullanılan hedef matristir.

Öneri sistemlerinde hedef matris genellikle elindeki öğeler için derecelendirmeler. Örneğin, hedef bir film öneri sisteminin matrisi pozitif tam sayılar, kullanıcı değerlendirmeleri ve 0'dır. kullanıcının filme oy vermemiş olduğu anlamına gelir:

  Kazablanka Philadelphia Hikayesi Black Panther Wonder Woman Ucuz Kurgu
1. Kullanıcı 5,0 3,0 0,0 2,0 0,0
2. Kullanıcı 4.0 0,0 0,0 1.0 5,0
3. Kullanıcı 3,0 1.0 4.0 5,0 0,0

Film öneri sistemi, derecelendirilmemiş filmler için kullanıcı puanlarını tahmin etmeyi amaçlar. Örneğin, 1. kullanıcı Black Panther'ı beğenir mi?

Öneri sistemleri için yaklaşımlardan biri, çarpanlara ayırma işlemi yapmanız gerekir:

  • Kullanıcı sayısı X yerleştirme boyutu sayısı şeklinde şekillendirilmiş bir kullanıcı matrisi.
  • Yerleştirme sayısı şeklinde ifade edilen bir öğe matrisi boyut X öğe sayısı.

Örneğin, üç kullanıcımız ve beş öğemiz için matrisi çarpanlara ayırma yöntemini kullandığımızda aşağıdaki kullanıcı matrisi ve öğe matrisi elde edilebilir:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

Kullanıcı matrisinin ve öğe matrisinin nokta çarpımı, yalnızca orijinal kullanıcı puanlarını değil, her kullanıcının izlemediği filmlerle ilgili tahminleri de içeren bir öneri matrisi oluşturur. Örneğin, 1. kullanıcının Casablanca için verdiği 5,0 puanlı derecelendirmeyi düşünün. Nokta öneri matrisinde o hücreye karşılık gelen ürün ve şu:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

Daha da önemlisi, 1. kullanıcı Black Panther'ı beğenir mi? İlk satıra ve üçüncü sütuna karşılık gelen nokta çarpımı, 4,3 olarak tahmin edilen bir puan verir:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

Matrisi çarpanlara ayırma, genelde şu özelliklere sahip bir kullanıcı matrisi ve öğe matrisi ortaya çıkarır: hedef matristen çok daha kompakttır.

Ortalama Mutlak Hata (MAE)

1 kaybı şu durumda olduğunda örnek başına ortalama kayıp: kullanılır. Ortalama mutlak hatayı aşağıdaki gibi hesaplayın:

  1. Bir grup için L1 kaybını hesaplayın.
  2. L1 kaybını, gruptaki örneklerin sayısına bölün.

Örneğin, aşağıdaki beş örnek grup verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Kayıp (gerçek ile tahmin edilen arasındaki fark)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 mağlubiyeti

Dolayısıyla, L1 kaybı 8 ve örnek sayısı 5'tir. Bu nedenle, Ortalama Mutlak Hata şöyle olur:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

Ortalama Kare Hata ve Kök Ortalama Kare Hatası.

Ortalama Karesel Hata (MSE)

L2 kaybı kullanıldığında örnek başına ortalama kayıp. Ortalama karesel hatayı aşağıdaki gibi hesaplayın:

  1. Bir toplu işlem için L2 kaybını hesaplama
  2. L2 kaybını, gruptaki örnek sayısına bölün.

Örneğin, aşağıdaki beş örnekten oluşan gruptaki kaybı ele alalım:

Gerçek değer Modelin tahmini Kayıp Kare kaybı
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 mağlubiyet

Bu nedenle, Ortalama Kareli Hata şöyle olur:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

Ortalama Karesel Hata, özellikle doğrusal regresyon için popüler bir eğitim optimizasyon aracıdır.

Ortalama karesel hatayı ortalama mutlak hata ve kök ortalama kare hatasıyla karşılaştırın.

TensorFlow Playground, kayıp değerlerini hesaplamak için Ortalama Kare Hata değerini kullanır.

örgü

#TensorFlow
#GoogleCloud

ML paralel programlamada, verilerin atanmasıyla ilişkili bir terim ve modeli oluşturarak ve bu değerlerin nasıl parçalanacağını ya da çoğaltılacağını tanımlayabilirsiniz.

Örgü, aşağıdakilerden birini ifade edebilecek aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • TPU'ya veri ve model eşlemek için soyut mantıksal bir yapı çipler.

Her iki durumda da ağ, şekil olarak belirtilir.

meta-öğrenim

#language

Bir öğrenme algoritmasını keşfeden veya iyileştiren makine öğrenimi alt kümesi. Meta öğrenme sistemi, bir modeli küçük miktarda veri veya önceki görevlerde edinilen deneyimlerden yeni bir görevi hızlı bir şekilde öğrenecek şekilde eğitmeyi de hedefleyebilir. Meta öğrenme algoritmaları genellikle aşağıdakileri sağlamaya çalışır:

  • El ile tasarlanmış özellikleri (ör. başlatıcı veya optimizatör) iyileştirme veya öğrenme
  • Veri ve işlem açısından daha verimlidir.
  • Genelleştirmeyi iyileştirin.

Meta öğrenme, az sayıda örnekle öğrenme ile ilgilidir.

metrik

#TensorFlow

Önemsediğiniz bir istatistik.

Hedef, bir makine öğrenimi sisteminin optimize etmeye çalışır.

Metrics API'si (tf.metrics)

Modelleri değerlendirmek için bir TensorFlow API'si. Örneğin, tf.metrics.accuracy, bir modelin tahminlerinin etiketlerle ne sıklıkta eşleştiğini belirler.

mini toplu e-ticaret

#fundamentals

Bir iterasyonda işlenen grup'un rastgele seçilmiş küçük bir alt kümesi. Mini bir grubun toplu boyutu genellikle 10 ila 1.000 örnek görebilirsiniz.

Örneğin, tüm eğitim veri kümesinin (tüm grup) 1.000 örnekten oluşur. Ayrıca, Floodlight etiketindeki toplu paket boyutunu 20'ye çıkarın. Dolayısıyla her iterasyon 1.000 örneğin rastgele 20'si üzerindeki kaybı belirler ve ağırlıkları ve önyargıları buna göre ayarlar.

Mini toplu işlemlerde oluşacak kaybı hesaplamak, kayıp anlamına gelir.

küçük gruplu stokastik gradyan azalma

gradyan iniş algoritması mini gruplar. Diğer bir deyişle, küçük gruplu stokastik gradyan azalma, gradyanı eğitim verilerinin küçük bir alt kümesine göre tahmin eder. Normal stokastik gradyan azalma, 1 boyutunda bir mini grup kullanır.

minimax kaybı

Oluşturulan verilerin dağılımı ile gerçek verilerin dağılımı arasındaki çapraz entropi değerine dayalı üretici zıt ağlar için kayıp işlevi.

Minimax kaybı, ilk belge Üretken yapay zeka ağları.

azınlık sınıfı

#fundamentals

Bir sınıf-dengesiz veri kümesi ile ilgili daha fazla bilgi edinin. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfı ile kontrast oluşturun.

uzmanlardan oluşan karma

#language
#generativeAI

Nöral ağ verimliliğini artırarak işleme almak için parametrelerinin yalnızca bir alt kümesini (uzman olarak bilinir) belirli bir giriş jetonu veya örnek. Giriş ağı, her giriş jetonunu veya örneği uygun uzmanlara yönlendirir.

Ayrıntılı bilgi için aşağıdaki makalelerden birini inceleyin:

ML

Makine öğrenimi kısaltması.

MMIT

#language
#image
#generativeAI

için kısaltma çok modlu talimatları inceleyin.

MNIST

#image

LeCun, Cortes ve Burges tarafından derlenen, herkese açık bir veri kümesi bir insanın belirli bir resmi manuel olarak nasıl yazdığını gösteren her resim 0–9 arasında bir rakam. Her resim, 28x28 tam sayı dizisi olarak depolanır. Her tam sayı, 0 ile 255 (ikisi de dahil) arasında bir gri tonlama değeridir.

MNIST, makine öğrenimi için kurallı bir veri kümesidir ve genellikle yeni makine öğrenimi yaklaşımlarını test etmek için kullanılır. Ayrıntılar için bkz. MNIST El Yazısı Rakamlar Veritabanı.

modalite

#language

Üst düzey bir veri kategorisi. Örneğin sayılar, metin, resimler, video ve ses ise beş farklı modalitedir.

model

#fundamentals

Genel olarak, giriş verilerini işleyip çıkış döndüren tüm matematiksel yapılardır. Farklı ifade etmek gerekirse model, parametreler ve yapıdan oluşan bir kümedir tahminlerde bulunması için gereken tüm araçlardır. Gözetimli makine öğrenimi modelinde, model giriş olarak bir örnek alır ve çıkış olarak bir tahmin çıkarır. Gözetimli makine öğrenimi modelleri arasında bazı farklılıklar vardır. Örneğin:

  • Doğrusal regresyon modeli, bir ağırlık kümesinden ve bir önyargıdan oluşur.
  • Nöral ağ modeli şunları içerir:
    • Her biri bir veya daha fazla nöron içeren bir dizi gizli katman.
    • Her bir nöronla ilişkili ağırlıklar ve önyargılar.
  • Karar ağacı modeli aşağıdakilerden oluşur:
    • Ağacın şekli, yani koşulların ve yaprakların bağlı olduğu desen.
    • Koşullar ve yapraklar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de model oluşturur. Bu fonksiyon genellikle bir giriş örneğini en uygun kümeyi seçin.

model kapasitesi

Bir modelin öğrenebileceği sorunların karmaşıklığı. Proje ne kadar karmaşıksa öğrenebileceği sorunlar varsa modelin kapasitesi de o kadar yüksek olur. Bir modelin kapasitesi genellikle model parametrelerinin sayısıyla artar. Sınıflandırıcı kapasitesinin resmi tanımı için VC boyutu başlıklı makaleyi inceleyin.

model basamaklı

#generativeAI

Belirli bir çıkarım sorgusu için ideal modeli seçen bir sistem.

Çok büyükten (çok sayıda parametre) çok daha küçüğe (çok daha az parametre) kadar değişen bir model grubunu düşünün. Çok büyük modeller daha fazla bilgi işlem kaynağı tüketir. çıkarım süresini artırır. Ancak çok büyük modeller genellikle daha küçük modellere kıyasla daha karmaşık istekler sonucuna varabilir. Model basamaklandırması, çıkarım sorgusunun karmaşıklığını belirler ve ardından çıkarım yapmak için uygun modeli seçer. Model basamaklamanın ana motivasyonu, çıkarım maliyetlerini genellikle daha küçük modelleri seçer ve karmaşık sorgular.

Küçük bir modelin bir telefonda ve bu modelin daha büyük bir sürümünün çalıştığını hayal edin uzak bir sunucuda çalışır. İyi model basamaklandırması, maliyeti ve gecikmeyi daha küçük modelin basit istekleri işleyebilmesini sağlar ve yalnızca uzak model kullanarak nasıl yürütüleceğini planlayabileceksiniz.

Ayrıca model yönlendirici bölümüne de bakın.

model paralelliği

#language

Bir modelin farklı bölümlerini farklı cihazlara yerleştiren bir eğitim veya çıkarım ölçeklendirme yöntemi. Model paralelliği, tek bir cihaza sığmayacak kadar büyük modelleri etkinleştirir.

Bir sistem, model paralelliğini uygulamak için genellikle aşağıdakileri yapar:

  1. Modeli daha küçük parçalara böler.
  2. Bu küçük parçaların eğitimini birden fazla işlemciye dağıtır. Her işlemci, modelin kendi bölümünü eğitir.
  3. Sonuçları birleştirerek tek bir model oluşturur.

Model paralelliği, eğitimi yavaşlatır.

Ayrıca veri paralelliği konusunu inceleyin.

model yönlendirici

#generativeAI

Model basamaklandırmasında tahmin için ideal modeli belirleyen algoritma. Model yönlendirici, genellikle belirli bir giriş için en iyi modeli nasıl seçeceğini kademeli olarak öğrenen bir makine öğrenimi modelidir. Ancak model yönlendirici bazen makine öğrenimi içermeyen daha basit bir algoritma olabilir.

model eğitimi

En iyi modeli belirleme süreci.

İlgiyi Artırma

Bir öğrenme adımını yalnızca mevcut adımdaki türevin yanı sıra kendisinden hemen önceki adımların türevlerine de bağlayan gelişmiş bir gradyan azalma algoritması. Momentum, fizikteki momentuma benzer şekilde, zaman içindeki gradyanların üstel ağırlıklı hareketli ortalamasını hesaplamayı içerir. Momentum bazen öğrenmeyi zorlaştırır yerel minimumda takılıp kaldı.

MOE

#language
#image
#generativeAI

Uzmanların karışımı anlamına gelen kısaltma.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinin ikiden fazla sınıf etiketi içerdiği bir sınıflandırma problemi. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Iris setosa
  • İris virginica
  • Iris versicolor

Iris veri kümesiyle eğitilen ve yeni örneklerde iris türünü tahmin eden bir model çok sınıflı sınıflandırma gerçekleştiriyor.

Öte yandan, tam olarak iki kaliteyi birbirinden ayıran sınıflandırma problemleri sınıfları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil değerini tahmin eden bir e-posta modeli ikili sınıflandırma modelidir.

Küme oluşturma sorunlarında çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

çok sınıflı mantıksal regresyon

mantıksal regresyon çok sınıflı sınıflandırma problemleri için geçerlidir.

birden fazla kafa ile kendi kendine dikkat

#language

Giriş dizisindeki her konum için kendi kendine dikkat mekanizmasını birden çok kez uygulayan kendi kendine dikkat özelliğinin bir uzantısıdır.

Transformer'lar, çok başlı kendi kendine dikkat özelliğini kullanıma sundu.

çok modlu model

#language

Girişleri ve/veya çıkışları birden fazla modalite içeren bir model. Örneğin, hem büyük hem de küçük özellik olarak bir resim ve bir metin başlığı (iki mod) ve metin başlığının resim için ne kadar uygun olduğunu gösteren bir puan verir. Dolayısıyla bu modelin girişleri çok modlu, çıktıları ise tek modludur.

çok modlu eğitime göre ayarlanmış

#language

Girişi işleyebilen instruction-tuned modeli görsel, video ve ses gibi öğeler de dahil.

çok terimli sınıflandırma

Çok sınıflı sınıflandırma ile eş anlamlı.

çoklu değişkenli regresyon

Çok sınıflı mantıksal regresyon ile eş anlamlıdır.

çoklu görev

Tek bir modelin birden fazla görev gerçekleştirmek üzere eğitildiği bir makine öğrenimi tekniğidir.

Çok görevli modeller, farklı görevlerin her biri için uygun verilerle eğitilerek oluşturulur. Bu sayede model, görevlerin arasında bilgi paylaşmayı öğrenir ve daha etkili bir şekilde öğrenir.

Birden fazla görev için eğitilmiş bir model genellikle daha iyi genelleme özelliklerine sahiptir ve farklı veri türlerini işlemede daha güçlü olabilir.

H

NaN tuzağı

Modelinizdeki bir numara NaN olduğunda bu da modelinizdeki birçok veya diğer sayının zamanla NaN'ye dönüşür.

NaN, No a Number (Sayı Değil) kısaltmasıdır.

doğal dil anlama

#language

Kullanıcının yazdıklarına veya söylediklerine göre niyetini belirleme. Örneğin, bir arama motoru, kullanıcının yazdıklarına veya söylediklerine bağlı olarak kullanıcının ne aradığını belirler.

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği şey veya etkinliktir ve negatif sınıf diğer olasılıktır. Örneğin:

  • Bir tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcısındaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile karşılaştırın.

negatif örnekleme

Aday örnekleme ile eş anlamlıdır.

Nöral Mimarili Arama (NAS)

Bir makinenin mimarisini otomatik olarak tasarlamaya sinirsel ağ. NAS algoritmaları, bir yapay sinir ağını eğitmek için gereken zaman ve kaynak miktarını azaltabilir.

NAS genellikle şunları kullanır:

  • Olası mimarilerden oluşan bir arama alanı.
  • Belirli bir etkinliğin ne kadar iyi performans gösterdiğini mimarinin belirli bir görevi nasıl gerçekleştirdiğini gösterir.

NAS algoritmaları genellikle küçük bir olası mimariler kümesiyle başlar ve algoritma ne hakkında daha fazla bilgi edindikçe arama alanını kademeli olarak etkili olduğundan emin olun. Fitness işlevi genellikle ve algoritmanın altını çizmek istiyorum. genellikle bir ekip üyesiyle pekiştirmeli öğrenme tekniğidir.

NAS algoritmalarının yüksek performanslı yüksek performanslı cihazları bulmada etkili olduğu kanıtlanmıştır. çeşitli görevler için tasarlanmıştır. sınıflandırma, metin sınıflandırma ve çevirisini inceleyeceğiz.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin sinir ağı, bir tür nöral ağdır gizli katman bulunur. Örneğin, aşağıdaki diyagramda iki gizli katman içeren derin bir sinir ağını gösteriyor.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır.

Bir nöral ağdaki her nöron, sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada ilk gizli katmandaki üç nöronun her birinin ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığını görebilirsiniz.

Bilgisayarlarda uygulanan nöral ağlar, beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt edilmek için bazen yapay nöral ağlar olarak adlandırılır.

Bazı nöral ağlar, son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir. farklı özellikler ve etiket arasında.

Ayrıca bkz. konvolüsyonel nöral ağ ve yinelenen nöral ağ.

nöron

#fundamentals

Makine öğrenimindeki nöral ağ gizli katmanında bulunan ayrı bir birimdir. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin, ilgili ağırlıklarıyla çarpımının ağırlıklı toplamını hesaplar.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine giriş olarak iletir.

İlk gizli katmandaki bir nöron, özellik değerlerinden gelen girişleri kabul eder giriş katmanında. Bunun ötesinde herhangi bir gizli katmanda bulunan bir nöron ilki, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, nöronlar oluşturabilirsiniz.

Aşağıdaki resimde iki nöron ve bunların giriş değerleridir.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır. İlkinde biri olmak üzere iki nöron vurgulanıyor
          biri de ikinci gizli katmanda bulunur. Vurgulanan
          ilk gizli katmandaki nöron her iki özellikten de girdi alır
          kullanabilirsiniz. İkinci gizli katmanda vurgulanan nöron
          ilk gizli sıradaki üç nöronun her birinden girdi alır
          katmanıdır.

Sinir ağındaki bir nöron, beyindeki nöronların davranışını taklit eder ve sinir sistemlerinin diğer kısımları üzerindedir.

N-gram

#seq
#language

N kelimelik sıralı bir dizi. Örneğin, truly madly 2 gramdır. Sıranın önemli olması nedeniyle madly truly, truly madly ile aynı 2 gram değildir.

H Bu tür bir N-gram için adlar Örnekler
2 bigram veya 2 gram gitmek, gitmek için, öğle yemeği yemek, akşam yemeği yemek
3 trigram veya 3 gram ate too much, three blind mice, the bell tolls
4 4 gram walk in the park, dust in the wind, the boy ate lentils

Birçok doğal dil anlama modeller, kullanıcının yazacağı bir sonraki kelimeyi tahmin etmek için N-gramlardan yararlanır veya deyin. Örneğin, bir kullanıcının üç kör yazdığını varsayalım. Trigramlara dayalı bir NLU modeli, büyük olasılıkla kullanıcı mikro yazar.

N-gramları kelime kesitleri ile kontrast: sırasız kelime gruplarıdır.

NLU

#language

Doğal dil anlama kısaltması.

düğüm (karar ağacı)

#df

Karar ağacında, condition veya yaprak.

İki koşul ve üç yapraklı bir karar ağacı.

düğüm (nöral ağ)

#fundamentals

Gizli katman içindeki bir nöron.

düğüm (TensorFlow grafiği)

#TensorFlow

TensorFlow grafında bir işlem.

gürültü

Genel olarak, veri kümesinde sinyali engelleyen her şey. Gürültü, verilere çeşitli şekillerde girebilir. Örneğin:

  • Gerçek kişiler etiketlemede hata yapar.
  • İnsanlar ve araçlar, özellik değerlerini yanlış kaydeder veya atlar.

ikili olmayan koşul

#df

İkiden fazla olası sonuç içeren bir koşul. Örneğin, aşağıdaki ikili olmayan koşulda üç olası sonuçlar:

Olası üç sonucu sağlayan bir koşul (number_of_legs = ?)
          yardımcı olur. Bir sonuç (number_of_legs = 8), spider adlı bir yaprağa yönlendirir. İkinci bir sonuç (number_of_legs = 4) ise
          Yaprak adı verilen köpek çiçeği. Üçüncü bir sonuç (number_of_legs = 2) ise
          penguen adlı yaprak.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilemeyen ilişki. Doğrusal ilişki bir çizgi olarak gösterilebilir; nonlinear bir ilişki bir çizgi olarak gösterilir. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki model düşünün. Soldaki model doğrusal ve sağdaki model doğrusal olmayan ise:

İki çizim. Bir grafikse çizgi şeklindedir. Bu da doğrusal bir ilişkidir.
          Diğer grafik eğri olduğundan bu doğrusal olmayan bir ilişkidir.

yanıt vermeme yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, aşağıdaki durağanlık örneklerine göz atın:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede hasat edilen belirli bir meyvenin miktarı yılın büyük bir bölümünde sıfırdır ancak kısa bir süre için büyüktür.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Değişmezlik ile karşılaştırın.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme işlemidir. Örneğin:

  • -1 ila +1
  • 0 ila 1
  • Z puanları (yaklaşık olarak -3 ila +3)

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri standart bir aralığa kadar normalleştirebilirsiniz: oluşturabilirsiniz.

Normalleştirme, özellik mühendisliğinde yaygın bir işlemdir. Özellik vektöründeki her sayısal özellik yaklaşık olarak aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler yapar).

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'nun Sayısal Verilerle Çalışma modülüne bakın. Z-skor normalleştirme konusuna da göz atın.

yenilik algılama

Yeni (yeni) bir örneğin eğitim kümesiyle aynı dağılımın bir parçası olup olmadığını belirleme işlemi. Diğer bir deyişle, eğitim veri kümesinde eğitimden sonra yenilik algılama, yeni bir örneğin (tahmin sırasında veya ek eğitim sırasında) aykırı olup olmadığını belirler.

Aykırı değer algılama ile karşılaştırın.

sayısal veriler

#fundamentals

Tam sayı veya reel değerli sayılarla temsil edilen özellikler. Örneğin, ev değerleme modeli büyük olasılıkla binanın (fitkare veya metrekare cinsinden) sayısal veri olarak sunar. Bir özelliğin sayısal veri olarak gösterilmesi, özelliğin değerlerinin etiketle matematiksel bir ilişkisi olduğunu gösterir. Yani bir evin metrekare sayısı, muhtemelen evin değeriyle matematiksel bir ilişkiye sahiptir.

Tüm tamsayı veriler sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı bölgelerinde posta kodları tam sayılardır. Ancak tam sayı posta kodları modellerde sayısal veri olarak temsil edilmemelidir. Çünkü 20000 adresinin posta kodu, şu posta kodundan iki kat (veya yarısı) daha güçlü değil: 10.000. Ayrıca, farklı posta kodları farklı emlak değerleriyle ilişkili olsa da 20000 posta kodundaki emlak değerlerinin 10000 posta kodundaki emlak değerlerinin iki katı olduğunu varsayamazsınız. Posta kodları, kategorik veri olarak temsil edilmelidir. .

Sayısal özellikler bazen sürekli özellikler olarak adlandırılır.

NumPy

Python'da etkili dizi işlemleri sağlayan açık kaynak bir matematik kitaplığıdır. pandas, NumPy üzerine kurulmuştur.

O

hedef

Algoritmanızın optimize etmeye çalıştığı bir metrik.

hedef fonksiyon

Bir modelin optimize etmeyi hedeflediği matematiksel formül veya metrik. Örneğin, doğrusal regresyon için hedef işlevi genellikle ortalama kare kaybıdır. Bu nedenle, doğrusal regresyon modeli eğitilirken eğitim, ortalama kare kaybını en aza indirmeyi amaçlar.

Bazı durumlarda amaç, hedef işlevini en üst düzeye çıkarmaktır. Örneğin, hedef işlevi doğruluk ise hedef, doğruluğu en üst düzeye çıkarmaktır.

Ayrıca loss özelliğine bakın.

eğik koşul

#df

Karar ağacında, birden fazla özellik içeren koşul. Örneğin, yükseklik ve genişlik her ikisi de özellikse aşağıdaki koşul eğik koşuldur:

  height > width

Eksene ayarlı koşul ile kontrast oluşturun.

çevrimdışı

#fundamentals

Statik ile eş anlamlıdır.

çevrimdışı çıkarım

#fundamentals

Bir modelin tahmin grubu oluşturması ve ardından bu tahminleri önbelleğe alması (kaydetmesi) işlemi. Böylece uygulamalar, tahminde bulunmasını sağlar.

Örneğin, dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Sistem, çalıştırılan her modelin tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları tahminleri alır kaldıracaktır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile karşılaştırın.

tek kullanımlık kodlama

#fundamentals

Kategorik verileri bir vektör olarak gösterme:

  • Bir öğe 1 olarak ayarlanır.
  • Diğer tüm öğeler 0'a ayarlanır.

Tek sıcak kodlama, sonlu sayıda olası değere sahip dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia için beş olası değer vardır:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vector
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Bir sıcak kodlama sayesinde model, beş ülkenin her birine göre farklı bağlantılar öğrenebilir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek seferlik kodlamaya alternatiftir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçim değildir. Örneğin, şu sayısal temsili düşünün:

  • "Danimarka" için 0 değerini girin.
  • "İsveç" 1'dir
  • "Norveç" 2 değerini alır.
  • "Finlandiya" 3
  • "İzlanda" 4'tür

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayılarla eğitim vermeye çalışır. Ancak İzlanda, Norveç'in iki katı (veya yarısı) kadar bir şeye sahip değildir. Bu nedenle model, bazı garip sonuçlara varır.

tek seferlik öğrenme

Genellikle nesne sınıflandırması için kullanılan, tek bir eğitim örneğinden etkili sınıflandırıcılar öğrenmek üzere tasarlanmış bir makine öğrenimi yaklaşımı.

Az sayıda örnekle öğrenme ve sıfır örnekle öğrenme hakkında da bilgi edinin.

tek seferlik istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesi gerektiğini gösteren bir örnek içeren istem. Örneğin, aşağıdaki istemde büyük bir dil modelinin bir sorguyu nasıl yanıtlaması gerektiğini gösteren bir örnek yer almaktadır.

Tek bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: avro Bir örnek vereyim.
Hindistan: Gerçek sorgu.

Tek seferlik istem ile aşağıdaki terimleri karşılaştırın:

bire karşı hepsi

#fundamentals

N sınıf içeren bir sınıflandırma problemi için, olası her sonuç için bir ikili sınıflandırıcı olmak üzere N ayrı ikili sınıflandırıcıdan oluşan bir çözüm. Örneğin, Yeşil Ofis’teki Arkadaş Bitkiler projesinin ya da mineral olarak ortaya çıkarsa, hepsi yerine tek bir çözelti, şu üç ayrı ikili sınıflandırıcıdan gelmektedir:

  • hayvan mı hayvan mı değil mi
  • sebze ve sebze olmayan
  • mineral ve mineral olmayan

online

#fundamentals

Dinamik kelimesinin eş anlamlısıdır.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş ilettiğini ve bir tahmindir. Online çıkarım kullanan bir sistem, isteği (ve tahmini uygulamaya döndürmesi) gerekir.

Çevrimdışı çıkarım ile karşılaştırın.

işlem (op)

#TensorFlow

TensorFlow'da, Tensor oluşturan, manipüle eden veya yok eden herhangi bir prosedür. Örneğin, matris çarpımı, giriş olarak iki Tensör alan ve çıkış olarak bir Tensör oluşturan bir işlemdir.

Optax

JAX için bir gradyan işleme ve optimizasyon kitaplığı. Optax, gerçekleşebilecek yapı taşları sağlayarak gibi parametrik modelleri optimize etmek için özel derin nöral ağlar. Diğer hedefler şunlardır:

  • Test edilmiş, etkili ve okunabilir, test edilmiş ve etkili temel bileşenler.
  • Düşük seviyeli malzemelerin bir arada kullanılmasını sağlayarak verimliliği artırma özel optimize edicilere (veya diğer gradyan işleme bileşenlerine) dönüştürmenize olanak tanır.
  • Herkesin işini kolaylaştırarak yeni fikirlerin benimsenmesini hızlandırma katkıda bulunmanız gerekiyor.

optimizer

Eğim azalma algoritmasının belirli bir uygulaması. Popüler optimizasyon araçları şunlardır:

  • AdaGrad, ADAptive GRADient descent (Uyarlanabilir Gradyan Azalma) ifadesinin kısaltmasıdır.
  • Adı, Momentum ile ADAptive'i (ADAptive) kısaltmasıdır.

grup dışı homojenlik önyargısı

#fairness

Tutumları, değerleri, kişilik özelliklerini ve diğer özellikleri karşılaştırırken grup dışındaki üyeleri grup içindeki üyelerden daha benzer olarak görme eğilimi. Grup içi, düzenli olarak etkileşimde bulunduğunuz kişileri ifade eder. out-group, düzenli olarak iletişim kurmadığınız kişileri ifade eder. Şu durumda: kullanıcıların şu özellikleri sağlamalarını isteyerek bir veri kümesi oluşturun: bu özellikler daha az incelikli ve klişeleşmiş olabilir. daha fazla değer katabilir.

Örneğin, Lilliputlular diğer Lilliputluların evlerini mimari stiller, pencereler, kapılar ve boyutlardaki küçük farklılıkları belirterek ayrıntılı bir şekilde anlatabilir. Ancak aynı Lilliputcular, bu Brobdingnagi'ler aynı evde yaşar.

Dış grup homojenliği yanlılığı, grup ilişkilendirme yanlılığının bir türüdür.

Ayrıca bkz. grup içi önyargı.

aykırı değer algılama

Eğitim veri kümesindeki aykırı değerleri belirleme işlemi.

Yenilik algılama ile kontrast.

düşünün

Diğer çoğu değerden uzak değerler. Makine öğreniminde, aykırı değerler şunlardır:

  • Değerleri ortalamadan yaklaşık 3 standart sapma daha fazla olan giriş verileri.
  • Mutlak değerleri yüksek olan ağırlıklar.
  • Tahmin edilen değerler gerçek değerlerden nispeten uzak.

Örneğin, widget-price'ün belirli bir modelin özelliği olduğunu varsayalım. Ortalama widget-price değerinin standart sapmayla 7 avro olduğunu varsayın anlamına gelir. 12 avro veya 2 avro widget-price içeren örnekler bu nedenle aykırı olarak kabul edilir çünkü bu fiyatların her biri ortalamadan beş standart sapma.

Aykırı değerler genellikle yazım hatalarından veya diğer giriş hatalarından kaynaklanır. Diğer durumlarda ise aykırı değerler hata değildir. Sonuçta, ortalamadan beş standart sapma uzaklıktaki değerler nadir olsa da imkansız değildir.

Aykırı değerler genellikle model eğitiminde sorunlara neden olur. Kırpma aykırı değerleri yönetmenin bir yoludur.

paket dışı değerlendirmesi (OOB değerlendirmesi)

#df

Her karar ağacını, söz konusu karar ağacının eğitimi sırasında kullanılmayan örneklerle test ederek karar ormanı kalitesini değerlendirme mekanizması. Örneğin, aşağıdaki şemada sistemin her karar ağacını örneklerin yaklaşık üçte ikisinde eğittiğini ve ardından örneklerin kalan üçte birinde değerlendirdiğini görebilirsiniz.

Üç karar ağacından oluşan bir karar ormanı.
          Bir karar ağacı, örneklerin üçte ikisinde eğitilir ve ardından kalan üçte birini harici veri kümesi değerlendirmesi için kullanır.
          İkinci karar ağacı, önceki karar ağacından farklı örneklerin üçte ikisinde eğitilir ve ardından önceki karar ağacından farklı bir üçte birinde harici veri kümesi değerlendirmesi yapar.

Dışarıdan yapılan değerlendirme, bilgi işlem açısından verimlidir ve muhafazakar bir yöntemdir. çapraz doğrulama mekanizmasının yaklaşık değerini gösterir. Çapraz doğrulamada, her çapraz doğrulama aşaması için bir model eğitilir (örneğin, 10 model 10 kat çapraz doğrulamayla eğitilir). OOB değerlendirmesiyle tek bir model eğitilir. Çünkü bagaj eğitim sırasında her ağaçtan bazı verileri alıkoyar, OOB değerlendirmesi bu verileri tahmin etmek için kullanır.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki resimde giriş içeren küçük bir derin nöral ağ gösterilmektedir katmanı, iki gizli katman ve bir çıkış katmanı içerir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Eğitim verileriyle o kadar benzer bir model oluşturmak ki model yeni verilerle ilgili doğru tahminler yapamaz.

Normalleştirme, fazla uyumu azaltabilir. Büyük ve çeşitli bir eğitim veri kümesinde eğitim yapmak da aşırı uyumu azaltabilir.

aşırı örnekleme

Azınlık sınıfı ile ilgili örnekleri yeniden kullanma bir sınıf dengesiz veri kümesinde Daha dengeli bir eğitim seti oluşturun.

Örneğin, çoğunluk sınıfının azınlık sınıfına oranının 5.000:1 olduğu bir ikili sınıflandırma problemini düşünün. Veri kümesi bir milyon örnek içeriyorsa azınlık sınıfı yalnızca yaklaşık 200 örnek içerir. Bu, etkili bir eğitim için çok az örnek olabilir. Bu eksikliğin üstesinden gelmek için, Bu 200 örneğin birkaç kez fazla örneklenmesi (yeniden kullanılabilir) örnek olarak verilebilir.

Fazla örnekleme yaparken aşırı uyum konusunda dikkatli olmanız gerekir.

Az örnekleme ile karşılaştırın.

P

paketlenmiş veri

Verileri daha verimli depolamaya yönelik bir yaklaşım.

Sıkıştırılmış veriler, sıkıştırılmış bir biçim kullanarak veya verilere daha verimli bir şekilde erişilmesine olanak tanıyan başka bir şekilde verileri depolar. Paketlenmiş veriler, verilere erişmek için gereken bellek ve bilgi işlem miktarını en aza indirerek daha hızlı eğitim ve daha verimli model çıkarımına yol açar.

Paketlenmiş veriler genellikle veri genişletme ve düzenlemenin performansını daha da iyileştirecek modellere göre tanımlar.

pandalar

#fundamentals

numpy temel alınarak oluşturulmuş, sütun odaklı bir veri analizi API'si. Birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekleyin. Bkz. pandas dokümanları inceleyebilirsiniz.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve önyargılar. Örneğin, doğrusal regresyon modelinde parametreler, aşağıdaki formülün önyargı (b) ve tüm ağırlıklarından (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hiperparametre, sizin (veya bir hiperparametre ayarlama hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme hızı bir hiperparametredir.

parametre verimliliği ayarı

#language
#generativeAI

Büyük ve küçük bir reklamda fine-tune yapmak önceden eğitilmiş dil modeli (PLM) tam ince ayar'lardan daha verimlidir. Parametre açısından verimli ayarı genellikle tam ayara kıyasla çok daha az parametreye ince ayar yapar ancak genellikle modelin yüksek performans gösteren büyük dil modeli aynı zamanda (ya da neredeyse aynı) tam sürümden ve ince ayar.

Parametre verimli ayarı aşağıdakilerle kıyaslayın ve karşılaştırın:

Parametre verimli ayarlama, parametre açısından verimli ince ayar olarak da bilinir.

Parametre Sunucusu (PS)

#TensorFlow

Modelin parametrelerini dağıtılmış ayardır.

parametre güncellemesi

Eğitim sırasında, genellikle tek bir gradyan azalma iterasyonunda bir modelin parametrelerini ayarlama işlemi.

kısmi türev

Değişkenlerden biri hariç tümünün sabit kabul edildiği türev. Örneğin, f(x, y) fonksiyonunun x'e göre kısmi türevi, f fonksiyonunun yalnızca x'e bağlı bir fonksiyon olarak kabul edilen türevidir (yani y sabit tutulur). f'nin x'e göre kısmi türevi yalnızca şuna odaklanır: x'in nasıl değiştiğini gösterir ve denklemdeki diğer tüm değişkenleri göz ardı eder.

katılım önyargısı

#fairness

Yanıt vermeme yanlılığının eş anlamlısı. Seçim yanlılığı konusuna bakın.

bölümlendirme stratejisi

Değişkenlerin bölündüğü algoritma parametre sunucuları.

Pax

Birden fazla TPU hızlandırıcı çip diliminden veya kapsülden oluşacak kadar büyük sinir ağı modellerini eğitmek için tasarlanmış bir programlama çerçevesi.

Pax, JAX'i temel alan Flax'i temel alır.

Pax&#39;in yazılım yığınındaki konumunu gösteren şema.
          Pax, JAX temel alınarak oluşturulmuştur. Pax üç öğeden oluşur
          katman olarak görünür. Alt katman TensorStore ve Flax&#39;i içerir.
          Orta katman Optax ve Flaxformer&#39;ı içerir. Üst
          katman, Praks Modelleme Kitaplığı içeriyor. Fiddle, Pax&#39;in üzerine kurulmuştur.

algılayıcı

Bir veya daha fazla giriş değeri alan, girişlerin ağırlıklı toplamı üzerinde bir işlev çalıştıran ve tek bir çıkış değeri hesaplayan bir sistem (donanım veya yazılım). Makine öğrenimindeki işlevler genellikle doğrusal olmayandır (ör. ReLU, sigmoid veya tanh). Örneğin, aşağıdaki algılayıcı, verileri işleme almak için sigmoid işlevine üç giriş değeri vardır:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

Aşağıdaki görselde, her biri perceptrona girmeden önce bir ağırlıkla değiştirilen üç giriş alan bir perceptron gösterilmektedir:

Her biri ayrı ağırlıklarla çarpılan 3 giriş alan bir perceptron. Algılayıcı, tek bir değer üretir.

Algılayıcılar, nöral ağlardaki nöronlardır.

performans

Aşağıdaki anlamlara sahip aşırı yüklenmiş terim:

  • Yazılım mühendisliğindeki standart anlam. Yani: Ne kadar hızlı (veya verimli bir şekilde) çalışıyor mu?
  • Makine öğrenimindeki anlam. Bu bağlamda performans, şu soruların cevabını verir: "Bu model ne kadar doğrudur? Yani, modelin tahminleri ne kadar iyi?

permütasyon değişkeninin önemleri

#df

Özelliğin değerlerini permütasyona tabi tuttuktan sonra bir modelin tahmin hatasındaki artışı değerlendiren bir değişken önemi türü. Permütasyon değişkeni önemi, modelden bağımsız bir metriktir.

şaşkınlık

Bir modelin görevini ne kadar iyi yerine getirdiğini gösteren bir ölçüm. Örneğin, kullanıcının telefon klavyesinde yazdığı bir kelimenin ilk birkaç harfini okumak ve kelimeyi tamamlamak için kullanılabilecek kelimelerin listesini sunmak göreviniz olduğunu varsayalım. Bu görev için belirsizlik (P), listenizin kullanıcının yazmaya çalıştığı gerçek kelimeyi içermesi için tahminde bulunmanız gereken yaklaşık tahmin sayısıdır.

Kafa karışıklığı, çapraz entropi ile aşağıdaki şekilde ilişkilidir:

$$P= 2^{-\text{cross entropy}}$$

ardışık düzen

Makine öğrenimi algoritmasını çevreleyen altyapı. Ardışık düzen verileri toplamayı, verileri eğitim veri dosyalarına yerleştirmeyi, bir veya daha fazla modeli eğitmek ve modelleri üretime aktarmaktır.

ardışık düzen

#language

Bir modelin işlemeninin art arda aşamalara bölündüğü ve her aşamanın farklı bir cihazda yürütüldüğü bir model paralelliği biçimi. Bir aşama bir toplu işlem işlerken önceki aşama bir sonraki toplu işlem üzerinde çalışabilir.

Ayrıca aşamalı eğitim konusuna da bakın.

pjit

Kodu birden fazla uygulamada çalıştıracak şekilde bölen bir JAX işlevi hızlandırıcı çiplerini kullanın. Kullanıcı pjit'e bir işlev geçirir, Bu sonuç, eşdeğer anlamlara sahip ancak derlenmiş bir işlev döndürür birden fazla cihazda çalışan bir XLA hesaplamasına (ör. GPU'lar veya TPU çekirdekleri).

pjit, kullanıcıların SPMD bölümleyicisini kullanarak hesaplamaları yeniden yazmadan bölümlendirmesini sağlar.

Mart 2023 itibarıyla pjit, jit ile birleştirildi. Daha fazla bilgi için Dağıtılmış diziler ve otomatik paralelleştirme bölümüne bakın.

PLM

#language
#generativeAI

Önceden eğitilmiş dil modeli kısaltması.

pmap

Giriş işlevinin kopyalarını yürüten bir JAX işlevi birden fazla temel donanım cihazında Farklı giriş değerlerine sahip CPU, GPU veya TPU'lar. pmap, SPMD'yi kullanır.

policy

#rl

Pekiştirmeli öğrenmede bir aracının olasılık eşlemesi durumlardan eylemlere kadar çeşitli özellikler sunar.

havuza alma

#image

Daha önceki bir dönüşüm katmanı tarafından oluşturulan bir matrisi (veya matrisleri) daha küçük bir matrise indirgeme. Havuzlama, genellikle en yüksek veya ortalama değerden bir grup insanda görülür. Örneğin, aşağıdaki 3x3 matrise sahip olduğumuzu varsayalım:

3x3 matrisi [[5,3,1], [8,2,5], [9,4,3]].

Havuzlama işlemi, tıpkı konvolüsyonlu işlemde olduğu gibi, dilimlere ayırır ve ardından bu kıvrımlı işlemi adımlar. Örneğin, havuz oluşturma işleminin konvolüsyon matrisi, 1x1 adımlı 2x2 dilimlere böler. Aşağıdaki şemada gösterildiği gibi dört havuz oluşturma işlemi gerçekleşir. Her bir havuz oluşturma işleminin toplam dört değer var:

Giriş matrisi, şu değerleri içeren 3x3 boyutundadır: [[5,3,1], [8,2,5], [9,4,3]].
          Giriş matrisinin sol üstteki 2x2 alt matrisi [[5,3], [8,2]] şeklindedir.
          sol üstteki havuz işlemi, 8 değerini (yani
          5, 3, 8 ve 2) kaldırın. Giriş matrisinin sağ üst 2x2 alt matrisi [[3,1], [2,5]] olduğundan sağ üst toplama işlemi 5 değerini verir. Giriş matrisinin sol alt 2x2 alt matrisi şu şekildedir:
          [[8,2], [9,4]], dolayısıyla sol alt toplama işlemi 9 değerini verir. Giriş matrisinin sağ alttaki 2x2 alt matrisi
          [[2,5], [4,3]] olduğundan sağ alttaki havuz işlemi
          5.c Özetle, havuz oluşturma işlemi 2x2 matrisi
          [[8,5], [9,5]],

Toplama, giriş matrisinde döndürme değişmezliğini zorunlu kılmaya yardımcı olur.

Görsel uygulamalar için toplama işlemi, daha resmi bir şekilde uzamsal toplama olarak bilinir. Zaman serisi uygulamaları genellikle havuza geçici havuz denir. Toplama işlemine genellikle alt örnekleme veya az örnekleme denir.

konumsal kodlama

#language

Bir jetonun bir dizilimdeki konumu hakkındaki bilgileri jetonun yerleştirilmesine ekleme tekniği. Dönüştürücü modelleri, konum verilerini kullanır. bileşenleri arasındaki ilişkiyi daha iyi anlamak için kodlama tıklayın.

Konumsal kodlamanın yaygın bir uygulaması, sinüsoidal fonksiyonları kullanır. (Özellikle, sinüsoidal işlevin frekansı ve genliği, jetonun dizindeki konumuna göre belirlenir.) Bu teknik Transformer modelinin farklı kısımlara katılmayı öğrenmesini sağlar. uygun bir sıralama elde edebilir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcısındaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile karşılaştırın.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra modelin çıkışını ayarlama. İşleme sonrası süreç herhangi bir adalet kısıtlaması olmadan modellerin kendisinde değişiklik yapıyor.

Örneğin, bir ikili program sınıflandırıcıya işleme sonrası bir sınıflandırma eşiği belirleyerek fırsat eşitliğinin korunması Belirli bir özellik için gerçek pozitif oranı kontrol ederek bu özelliğin tüm değerleri için aynıdır.

PR AUC (PR eğrisinin altındaki alan)

Sınıflandırma eşiğinin farklı değerleri için noktaların (geri çağırma, hassasiyet) çizilmesiyle elde edilen, hassasiyet/geri çağırma eğrisinin altındaki alan. Hesaplama şekline bağlı olarak PR AUC, modelin ortalama hassasiyetine eşdeğer olabilir.

Praxis

Pax'in temel ve yüksek performanslı makine öğrenimi kitaplığı. Praxis genellikle "Katman kitaplığı" olarak adlandırılır.

Plaksis yalnızca Katman sınıfının tanımlarını değil, aynı zamanda çoğu aşağıdakileri de içeren destekleyici bileşenlerine de sahiptir:

Praxis, Model sınıfının tanımlarını sağlar.

precision

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Model pozitif sınıfı tahmin ettiğinde tahminlerin yüzde kaçı doğruydu?

Formülü şu şekildedir:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

Bu örnekte:

  • Gerçek pozitif, modelin pozitif sınıfı doğru tahmin ettiği anlamına gelir.
  • yanlış pozitif, modelin pozitif sınıfı yanlışlıkla tahmin ettiği anlamına gelir.

Örneğin, bir modelin 200 olumlu tahminde bulunduğunu varsayalım. Bu 200 olumlu tahminden:

  • 150'i gerçek pozitifti.
  • 50 tanesi yanlış pozitifti.

Bu durumda:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

Doğruluk ve geri çağırma ile karşılaştırın.

Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve alakalı metrikler konulu videomuzu izleyin.

hassasiyet/geri çağırma eğrisi

Farklı noktalarda hassas eğrisi ile geri çağırma eğrisi sınıflandırma eşikleri.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modeli tahmini, pozitif sınıfını belirler.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinde tahmin, bir sayıdır.

Tahmin önyargısı

Tahminlerin ortalamasının, veri kümesindeki etiketlerin ortalamasından ne kadar uzak olduğunu gösteren bir değer.

Makine öğrenimi modellerindeki önyargı terimi ile karıştırılmamalıdır etik ve adaletteki önyargıları göz önünde bulundurun.

tahmine dayalı makine öğrenimi

Herhangi bir standart ("klasik") makine öğrenimi sistemi.

Tahmine dayalı makine öğrenimi teriminin resmi bir tanımı yoktur. Terim, daha ziyade bir makine öğrenimi sistemi kategorisini temel çözümlere üretken yapay zeka.

tahmini eşleşme

#fairness

Belirli bir sınıflandırıcı için hassasiyet oranlarının, dikkate alınan alt gruplar için eşdeğer olup olmadığını kontrol eden bir adaletlilik metriği.

Örneğin, üniversiteye kabul edileceğini öngören bir model Hassasiyet oranı aynıysa uyruk için tahmine dayalı denklik bir parçasıydı.

Tahmini eşleşme bazen tahmini ücret eşleşmesi olarak da adlandırılır.

Bkz. "Adillik Tanımları Açıklamalar" (bölüm 3.2.1) başlıklı bölüme göz atın.

tahmini ücret dengesi

#fairness

Tahmini eşleşme için başka bir ad.

ön işleme

#fairness
Verileri, model eğitmek için kullanılmadan önce işleme. Ön işleme, İngilizce metin veri kümesinden İngilizce sözlükte bulunmayan kelimeleri kaldırmak kadar basit veya veri noktalarını hassas özelliklerle mümkün olduğunca çok ilişkili özelliği ortadan kaldıracak şekilde yeniden ifade etmek kadar karmaşık olabilir. Ön işleme, adillik kısıtlamalarının yerine getirilmesine yardımcı olabilir.

önceden eğitilmiş model

#language
#image
#generativeAI

Daha önce eğitilmiş modeller veya model bileşenleri (ör. gömülü vektör). Bazen, önceden eğitilmiş yerleştirme vektörlerini sinirsel ağ. Bazı durumlarda ise modeliniz, yerleştirme vektörleri yerleştirme yöntemidir.

Önceden eğitilmiş dil modeli terimi, ön eğitim geçirmiş büyük bir dil modelini ifade eder.

ön eğitim

#language
#image
#generativeAI

Bir modelin büyük bir veri kümesi üzerinde ilk eğitimi. Önceden eğitilmiş bazı modeller sakar devlerdir ve genellikle ek eğitimle rafine olmaları gerekir. Örneğin, makine öğrenimi uzmanları, Wikipedia'daki tüm İngilizce sayfalar gibi geniş bir metin veri kümesinde büyük bir dil modelini önceden eğitebilir. Ön eğitimin ardından elde edilen model, aşağıdaki yöntemlerden herhangi biri kullanılarak daha da hassaslaştırılabilir. teknikler:

önceden var olan inanç

Verilerle ilgili eğitime başlamadan önce bu veriler hakkında ne düşündüğünüzü belirtir. Örneğin L2 normalleştirmesi, ağırlıkların küçük ve normal olması gerektiğine dair inanç yaklaşık olarak dağıtılıyor.

olasılıksal regresyon modeli

Yalnızca her bir özellik için ağırlık ve aynı zamanda belirsizlikleri giderir. Olasılıksal regresyon modeli, bir tahmin ve bu tahminin belirsizliğini oluşturur. Örneğin, olasılıksal regresyon modeli, 2025'e kadar rastgele bir sorguyla 325 12’lik standart sapma. Olasılıksal regresyon hakkında daha fazla bilgi için daha fazla bilgi için Colab tensorflow.org.

olasılık yoğunluk fonksiyonu

Tam olarak belirli bir değere sahip veri örneklerinin sıklığını tanımlayan bir işlev. Bir veri kümesinin değerleri kesintisiz kayan noktalı sayılar olduğunda tam eşleşmeler nadiren gerçekleşir. Ancak bir olasılığı entegre etmek x değeri ile y değeri arasındaki yoğunluk işlevi, beklenen sıklık değerini verir x ile y tarihleri arasında veri örnekleri.

Örneğin, ortalaması 200 ve standart sapması 30 olan normal bir dağılımı ele alalım. 211,4 ile 218,7 aralığına düşen veri örneklerinin beklenen sıklığını belirlemek için 211,4 ile 218,7 arasındaki normal dağılım için olasılık yoğunluk işlevini entegre edebilirsiniz.

istem

#language
#generativeAI

Modeli belirli bir şekilde davranmaya koşullandırmak için büyük dil modeline giriş olarak girilen tüm metinler. İstemler bir kelime öbeği kadar kısa veya istediğiniz kadar uzun olabilir (örneğin, bir romanın tamamı). İstemler, aşağıdaki tabloda gösterilenler de dahil olmak üzere birden fazla kategoriye ayrılır:

İstem kategorisi Örnek Notlar
Soru Güvercin ne kadar hızlı uçabilir?
Talimat Arbitraj hakkında komik bir şiir yazın. Büyük dil modelinden bir şey yapmasını isteyen istem.
Örnek Markdown kodunu HTML'ye çevirin. Örnek:
. Markdown: * liste öğesi
. HTML: <ul> <li>liste öğesi</li> &lt;/ul&gt;
Bu örnek istemdeki ilk cümle bir talimattır. İstemin geri kalanı örnek olarak verilmiştir.
Rol Fizik alanında doktora yapmak için makine öğrenimi eğitiminde gradyan azalma yönteminin neden kullanıldığını açıklayın. Cümlenin ilk bölümü bir talimat. ifade "Fizik alanında doktoraya" rol kısmıdır.
Modelin tamamlanması için kısmi giriş Birleşik Krallık Başbakanı şu adreste yaşıyor: Kısmi giriş istemi aniden sonlanabilir (bu örnekte olduğu gibi) veya alt çizgiyle biter.

Üretken yapay zeka modelleri, istemlere metin, kod, resim, yerleşim, video gibi neredeyse her şeyle yanıt verebilir.

istem tabanlı öğrenme

#language
#generativeAI

Belirli modellerin uyum sağlamalarını sağlayan özellik rastgele metin girişlerine (istemler) göre davranışları. Tipik bir istem tabanlı öğrenme paradigmasında büyük dil modeli, isteklere metin oluşturuyoruz. Örneğin, bir kullanıcının aşağıdaki istemi girdiğini varsayalım:

Newton'un üçüncü hareket yasasını özetleme.

İsteme dayalı öğrenme yeteneğine sahip bir model, sorunu yanıtlamak için özel olarak eğitilmemiş karar verebilir. Aksine, model fizik hakkında birçok bilgi genel dil kuralları ve genel olarak neyin geçerli faydalı cevaplar. Bu bilgiler, faydalı bir yanıt (umarım) sağlamak için yeterlidir. Ek insan geri bildirimleri ("Bu yanıt çok karmaşıktı." veya "Yanıtın ne olduğunu anlamadım.") bazı istem tabanlı öğrenme sistemlerinin yanıtlarının kullanışlılığını kademeli olarak artırmasını sağlar.

istem tasarımı

#language
#generativeAI

İstem mühendisliği ile eş anlamlıdır.

istem mühendisliği

#language
#generativeAI

Büyük dil modelinden istenen yanıtları alan istemler oluşturma sanatı. İstem mühendisliği, insanlar tarafından gerçekleştirilir. İyi yapılandırılmış istemler yazmak, büyük dil modelinden faydalı yanıtlar almaktır. İstem mühendisliği aşağıdakiler gibi birçok faktöre bağlıdır:

Faydalı istemler yazma hakkında daha fazla bilgi için İstem tasarımına giriş başlıklı makaleyi inceleyin.

İstem tasarımı, istem mühendisliğinin eş anlamlısıdır.

istem ayarı

#language
#generativeAI

Parametre açısından verimli ayarlama mekanizması "önek" öğrenen eklemesi gereken gerçek istem.

İstem ayarlamanın bir varyasyonu da (bazen önek ayarı olarak da adlandırılır) her katmanın başına öneki ekleyin. Buna karşılık, çoğu istem ayarı yalnızca giriş katmanına bir ön ek ekler.

proxy etiketleri

#fundamentals

Doğrudan bir veri kümesinde bulunmayan etiketleri yaklaşık olarak belirlemek için kullanılan veriler.

Örneğin, çalışan stres düzeyini tahmin edecek bir model eğitmeniz gerektiğini varsayalım. Veri kümenizde çok sayıda tahmin özelliği olsa da stres seviyesi adlı bir etiket içermiyor. Buna rağmen stres seviyesi için proxy etiketi olarak "iş yerindeki kazalar"ı seçersiniz. Sonuçta yüksek stres altındaki çalışanlar genelde sakin çalışanlardan çok kazalar. Yoksa yapıyorlar mı? İş yeri kazaları olabilir birkaç nedenden dolayı yükselip düşer.

İkinci bir örnek olarak, yağmur yağıyor mu? sorusunun Boole etiketi olmasını istediğinizi varsayalım. ancak veri kümeniz yağmur verileri içermiyor. Eğer fotoğraflar varsa, insanların yer aldığı yağmur yağıyor mu? sorusuna yanıt olarak şemsiye etiketi kullanmak Bu iyi bir proxy etiketi mi? Muhtemelen ama bazı kültürlerdeki insanlar yağmurdan korunmak için şemsiye taşıma ihtimali daha yüksektir.

Proxy etiketleri genellikle kusurludur. Mümkün olduğunda proxy etiketlerini kullanabilirsiniz. Bununla birlikte, gerçek bir etiket olmadığında tehlikeli olmayan proxy etiketi adayını seçerek etiketi çok dikkatli bir şekilde etiketleyin.

proxy (hassas özellikler)

#fairness
Hassas bir özellik için yedek olarak kullanılan bir özellik. Örneğin, bir kişinin posta kodu, geliri, ırkı veya etnik kökeni için proxy olarak kullanılabilir.

yalın fonksiyon

Çıkışları yalnızca girişlere dayanan ve tarafı olmayan fonksiyon hoşuma gidiyor. Daha açık belirtmek gerekirse, saf işlevler bir dosyanın içeriği veya işlevin dışındaki bir değişkenin değeri gibi herhangi bir genel durumu kullanmaz ya da değiştirmez.

Sadece işlevler kullanılabilir iş parçacığı açısından güvenli kod oluşturmak için model kodunu birden fazla parçada parçalarken hızlandırıcı çiplerini kullanın.

JAX'ın işlev dönüştürme yöntemleri, giriş işlevlerinin saf işlevler olmasını gerektirir.

SORU

Q İşlevi

#rl

Pekiştirmeli öğrenmede, tamamlanmasından beklenen dönüşü işlem durum ve ardından belirli bir politikayı takip etmeniz gerekir.

Q işlevi, durum-işlem değeri işlevi olarak da bilinir.

Q-öğrenim

#rl

Güçlendirme öğrenimi'nde, Bellman denklemini uygulayarak aracı'nın Markov karar sürecinin optimum Q işlevini öğrenmesine olanak tanıyan bir algoritmadır. Markov karar süreci, bir ortamı modeller.

yüzdelik dilim

Sınıflandırma gruplandırması'ndaki her grup.

yüzdelik dilim paketleme

Bir özelliğin değerlerini paketlere dağıtarak her bir paketinde aynı (veya neredeyse aynı) sayıda örnek bulunur. Örneğin, Aşağıdaki şekilde 44 puan, her biri 4 bölüme ayrılır. 11 puan içeriyor. Şekildeki her paketin aynı sayıda nokta içermesi için bazı paketler farklı bir x değeri genişliğine sahiptir.

44 veri noktası, her biri 11 noktalı 4 gruba ayrılmıştır.
          Her paket aynı sayıda veri noktası içerse de
          bazı paketler, diğerlerine kıyasla daha geniş bir özellik değeri aralığı içeriyor
          kovalar.

nicelleştirme

Aşağıdaki yöntemlerden herhangi birinde kullanılabilen aşırı yüklenmiş terim:

  • Kıdemli paketlemeyi uygulama belirli bir özellik üzerinden.
  • Daha hızlı depolama, eğitim ve kontrol için verileri sıfırlara ve birlere dönüştürme çıkarım yapabilirsiniz. Boolean verileri diğer biçimlere kıyasla gürültü ve hatalara karşı daha güçlü olduğundan, kesirli sayılaştırma model doğruluğunu artırabilir. Nicelendirme teknikleri arasında yuvarlama, kesme ve binning değerleridir.
  • Bir modelin parametrelerini depolamak için kullanılan bit sayısını azaltma. Örneğin, bir modelin parametrelerinin 32 bitlik kayan nokta sayısı olarak depolandığını varsayalım. Nicelendirme, bu bilgileri 32 bitten 4, 8 veya 16 bite kadar farklı parametreler içerir. Nicelendirme, takip etmek için:

    • İşlem, bellek, disk ve ağ kullanımı
    • Bir tahminde sonuç elde etme zamanı
    • Güç tüketimi

    Ancak kesirli sayılaştırma bazen modelin tahminlerinin doğruluğunu azaltır.

sıra

#TensorFlow

Sıralı veri yapısı uygulayan bir TensorFlow İşlemi. Genellikle G/Ç'de kullanılır.

K

RAG

#fundamentals

Almayla artırılmış üretim kısaltması.

rastgele orman

#df

Bir topluluk olarak karar ağaçlarından Her karar ağacının belirli bir rastgele gürültüyle eğitildiği (ör. bagaj).

Rastgele ormanlar, bir tür karar ormanıdır.

rastgele politika

#rl

Güçlendirme öğrenimi'nde, işlem seçen rastgele bir politika.

sıralama

Bir tür gözetimli öğrenme bir öğe listesini sıraya sokmaktır.

sıralama (sıralılık)

Makine öğrenimi problemindeki bir sınıfın sıradaki konumu. Sınıflandırmayı en yüksekten en düşüğe doğru sıralar. Örneğin, bir davranış sıralama sistemi, bir köpeğin ödüllerini en yüksekten (biftek) en düşüğe (sarmaşık) göre sıralayabilir.

rank (Tensor)

#TensorFlow

Tensör boyut sayısı. Örneğin, skalerlerin 0, vektörlerin 1 ve matrislerin 2 boyutu vardır.

Sıralama (sıralı düzen) ile karıştırılmamalıdır.

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan bir insan. "Notlandırıcı", derecelendiricinin başka bir adıdır.

hatırlanabilirlik

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Kesin referans pozitif sınıf olduğunda model, tahminlerin yüzde kaçında pozitif sınıfı doğru olarak tanımladı?

Formül şu şekildedir:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

Bu örnekte:

  • doğru pozitif, modelin pozitif sınıfı doğru şekilde tahmin ettiği anlamına gelir.
  • yanlış negatif, modelin yanlış negatif sınıf.

Örneğin, modelinizin kesin referansı pozitif sınıf olan örneklerde 200 tahmin yaptığını varsayalım. Bu 200 tahminden:

  • 180'i gerçek pozitifti.
  • 20 tanesi yanlış negatifti.

Bu durumda:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

Daha fazla bilgi için Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler başlıklı makaleyi inceleyin.

öneri sistemi

#recsystems

Her kullanıcı için nispeten küçük bir istenen kümeyi seçen bir sistem öğeleri. Örneğin, video öneri sistemi iki video önerebilir video kitaplığını inceleyerek Casablanca'yı ve Bir kullanıcı için The Philadelphia Story, Wonder Woman ve Diğeri için Kara Panter. Video öneri sistemi, aşağıdaki faktörleri temel alır:

  • Benzer kullanıcıların oyladığı veya izlediği filmler.
  • Tür, yönetmenler, aktörler, hedef demografi...

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise çıkış 0 olur.
  • Giriş pozitifse çıkış girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3,0 olur.

ReLU'nun bir hikayesi şöyle:

İki çizginin Kartezyen grafiği. İlk satırda sabit değer var
          x ekseni boyunca -sonsuz, 0 ile 0,-0 arasında değişen, y değerinin 0 olduğunu varsayalım.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

ReLU çok popüler bir aktivasyon fonksiyonudur. Basit davranışına rağmen ReLU, sinir ağının özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesine olanak tanır.

yinelenen nöral ağ

#seq

Her çalıştırmanın bölümlerinin bir sonraki çalıştırmaya aktarıldığı, kasıtlı olarak birden çok kez çalıştırılan bir sinir ağı. Özellikle, önceki çalıştırmadaki gizli katmanlar, aynı gizli katmana girmektir. Yinelemeli sinir ağları, özellikle dizileri değerlendirmek için kullanışlıdır. Böylece gizli katmanlar, nöral ağın dizinin önceki bölümlerinde yaptığı önceki çalışmalardan bilgi edinebilir.

Örneğin, aşağıdaki şekilde gösterilen, tekrarlayan bir nöral ağ dört kez çalışır. İlk çalıştırmadaki gizli katmanlarda öğrenilen değerlerin, ikinci çalıştırmadaki aynı gizli katmanların girişinin bir parçası haline geldiğini unutmayın. Benzer şekilde, ikinci çalıştırmada gizli katmanda öğrenilen değerler üçüncü çalıştırmada aynı gizli katmanın girişinin bir parçası olur. Bu sayede, tekrarlayan sinir ağı, yalnızca kelimelerin anlamını değil, tüm dizenin anlamını kademeli olarak eğitir ve tahmin eder.

Dört giriş kelimesini işlemek için dört kez çalışan bir RNN.

regresyon modeli

#fundamentals

Gayrı resmi olarak, sayısal tahmin üreten bir model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • 423.000 avro gibi belirli bir evin değerini tahmin eden bir model.
  • Belirli bir ağacın yaşam süresini tahmin eden bir model (ör. 23,2 yıl).
  • Belirli bir şehirde düşecek yağmur miktarını tahmin eden bir model (ör.0, 18 inç) görüntüler.

Sık kullanılan iki regresyon modeli türü şunlardır:

  • Doğrusal regresyon, en iyi sonucu veren çizgiyi bulur etiket değerlerini özelliklere uyarlar.
  • Mantıksal regresyon, bir sistemin genellikle daha sonra bir sınıfla eşlendiği 0,0 ile 1,0 arasında olasılık bir tahmindir.

Sayısal tahminler veren her model regresyon modeli değildir. Bazı durumlarda, sayısal tahmin aslında sınıf adları sayısal olan bir sınıflandırma modelidir. Örneğin, sayısal bir posta kodunu tahmin eden bir model, regresyon modeli değil sınıflandırma modelidir.

normalleştirme

#fundamentals

Fazla uyumu azaltan mekanizmalar. Popüler normalleştirme türleri şunlardır:

Düzenleme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Her bir görevin göreceli önemini düzenleme. Düzenleme oranını artırmak aşırı uyumu azaltır ancak modelin tahmin gücünü azaltabilir. Aynı şekilde, normalleştirme oranı fazla uyumu artırır.

pekiştirmeli öğrenme (RL)

#rl

Optimum politikayı öğrenen algoritma ailesi. kullanıcılarla etkileşimde bulunduğunuzda getiriyi en üst düzeye çıkarmaktır. ortam Örneğin, çoğu oyunun nihai ödülü zaferdir. Pekiştirmeli öğrenme sistemleri, önceki oyun hareketlerinin kazanca veya kayba yol açan sıralarını değerlendirerek karmaşık oyunlarda uzman olabilir.

İnsan Geri Bildiriminden (RLHF) Pekiştirmeli Öğrenme

#generativeAI
#rl

Modellere verilen yanıtların kalitesini iyileştirmek için gerçek kişilerden oluşan değerlendirme ekiplerinin geri bildirimlerinden yararlanma Örneğin, RLHF mekanizması, kullanıcılardan bir modelin kalitesini değerlendirmelerini 👍 veya 👎 emojisiyle yanıt verin. Sistem daha sonra verdiği yanıtları ayarlayabilir karar verebilir.

ReLU

#fundamentals

Doğrulanmış Doğrusal Birim'in kısaltması.

tekrar oynatma arabelleği

#rl

DQN benzeri algoritmalarda, aracı tarafından kullanılan bellek durum geçişlerini saklayarak deneyim tekrarı.

replika

Eğitim grubunun veya modelinin bir kopyası başka bir makinede çalışır. Örneğin, bir sistem aşağıdaki veri paralelliğini uygulama stratejisi:

  1. Mevcut bir modelin replikalarını birden fazla makineye yerleştirin.
  2. Eğitim kümesinin farklı alt kümelerini her replikaya gönderin.
  3. Parametre güncellemelerini toplayın.

raporlama yanlılığı

#fairness

Kullanıcıların işlemler, sonuçlar veya özellikler hakkında yazma sıklığının, gerçek dünyadaki sıklıklarını veya bir özelliğin bir birey sınıfının özelliği olma derecesini yansıtmaması. Raporlamadaki önyargı, makine öğrenimi sistemlerinin öğrendiği verilerin bileşimini etkileyebilir.

Örneğin, kitaplarda güldü kelimesi nefes aldı kelimesinden daha yaygındır. Görevlerin göreli sıklığını tahmin eden bir makine öğrenimi bir kitap koleksiyonundan gülmek ve nefes almak muhtemelen Gülmek nefes almaktan daha yaygın.

temsil

Verileri faydalı özelliklerle eşleme işlemi.

yeniden sıralama

#recsystems

Öneri sisteminin son aşaması Bu süre zarfında, puanlanan öğeler başka ölçütlere göre yeniden bir algoritmadır. Yeniden sıralama, puanlama aşamasında oluşturulan öğe listesini değerlendirir ve aşağıdaki gibi işlemler yapar:

  • Kullanıcının daha önce satın aldığı öğeleri kaldırma
  • Daha yeni öğelerin puanını artırmak.

almayla artırılmış üretim (RAG)

#fundamentals

Kaliteyi artırmak için kullanılan bir teknik, büyük dil modeli (LLM) çıkışı modeli eğitildikten sonra edinilen bilgi kaynaklarını temel alarak. RAG, eğitilmiş LLM'ye güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişim sağlayarak LLM yanıtlarının doğruluğunu artırır.

Almayla artırılmış üretimi kullanmanın yaygın nedenleri arasında şunlar bulunur:

  • Bir modelin oluşturulan yanıtlarının olgusal doğruluğunu artırma.
  • Modele eğitilmediği bilgilere erişim izni verme.
  • Modelin kullandığı bilgileri değiştirme
  • Modelin kaynaklardan alıntı yapabilme özelliği etkinleştiriliyor.

Örneğin, bir kimya uygulamasının PaLM'yi kullandığını varsayalım. API'yi kullanarak özet oluşturma alakalı olabilir. Uygulamanın arka ucu bir sorgu aldığında arka uç şunları yapar:

  1. Kullanıcının sorgusuyla alakalı verileri ("alır") arar.
  2. İlgili kimya verilerini kullanıcının sorgusuna ekler ("artırma").
  3. LLM'ye, eklenen verilere dayalı bir özet oluşturmasını söyler.

return

#rl

Güçlendirme öğrenimi sırasında, belirli bir politika ve belirli bir durum verildiğinde getiri, aracı durumdan bölüm sonuna kadar politikayı uygularken almasını beklediği tüm ödüllerin toplamıdır. Temsilci Ödüllere indirim yaparak beklenen ödüllerin gecikmeli oluşunu hesaba katar uygun olması gerekir.

Dolayısıyla, indirim faktörü \(\gamma\)ve \(r_0, \ldots, r_{N}\)ise ve ardından bölümün sonuna kadar ödüllerin ödenmesi, ardından gelirin şu şekildedir:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

ödül

#rl

Pekiştirmeli öğrenmede, ortam tarafından tanımlanan bir durumda işlem gerçekleştirmenin sayısal sonucu.

sırt normalleştirmesi

L2 normalleştirmesi ile eş anlamlıdır. Kürtaj normalleştirme terimi, saf istatistik bağlamlarında daha sık kullanılırken L2 normalleştirme makine öğrenimde daha sık kullanılır.

RNN

#seq

Yinelenen nöral ağlar kısaltması.

ROC (alıcı çalışma özelliği) Eğrisi

#fundamentals

İkili sınıflandırmada farklı sınıflandırma eşikleri için gerçek pozitif oranı ve yanlış pozitif oranı grafiği.

Bir ROC eğrisinin şekli, bir ikili sınıflandırma modelinin negatif sınıfları birbirinden ayırın. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafında 8 pozitif örnek içeren bir sayı doğrusu ve
          Solda 7 negatif örnek var.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni Yanlış Pozitif Oran, y ekseni ise Gerçek Pozitif Oran&#39;dır. Eğri, ters L şeklindedir. Eğri (0,0,0) ile başlar ve doğrudan (0,0,1) değerine gider. Ardından eğri (0,0; 1,0) noktasından (1,0; 1,0) noktasına gider.

Buna karşılık, aşağıdaki çizimde ham mantıksal regresyon negatif sınıfları olumlu sınıfların yanı sıra

Pozitif örnekleri ve negatif sınıfları içeren bir sayı doğrusu
          bir aradaydı.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

Aslında (0,0) ile (1,1) arasında bir doğru olan ROC eğrisi.

Gerçek dünyada ise çoğu ikili sınıflandırma modeli, bir dereceye kadar pozitif ve negatif sınıfları içerir, ancak genellikle mükemmel değildir. Bu nedenle, tipik bir ROC eğrisi iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni Yanlış Pozitif Oran, y ekseni ise Gerçek Pozitif Oran&#39;dır. ROC eğrisi, pusulayı batıdan kuzeye doğru kesen sarsıntılı bir yayın yaklaşık bir temsilidir.

ROC eğrisinde (0,0,1,0) değerine en yakın nokta, teorik olarak eşiğine ulaşabilirsiniz. Ancak gerçek dünyayı etkileyen diğer birkaç sorun, İdeal sınıflandırma eşiğinin seçimini etkiler. Örneğin, ya da yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olabilir.

AUC adlı sayısal metrik, ROC eğrisini tek bir kayan nokta değeriyle özetler.

rol isteme

#language
#generativeAI

Üretken yapay zeka modelinin yanıtı için hedef kitleyi tanımlayan istemin isteğe bağlı bir parçasıdır. Rol olmayan büyük dil modeli, faydalı olabilecek ya da olmayabilecek bir yanıt sağlıyorsa önemli bir adımdır. Büyük dil modelleri, rol istemi ile belirli bir hedef kitle için daha uygun ve daha faydalı bir şekilde yanıt verebilir. Örneğin, aşağıdaki istemlerin rol istemi kısmı kalın olarak gösterilir:

  • Ekonomi alanında doktora yapanlar için bu makaleyi özetleyin.
  • On yaşında bir çocuk için akıntıların nasıl gerçekleştiğini açıklama.
  • 2008 ekonomik krizini açıkla. Küçük bir çocukla veya golden retriever ile konuşuyormuş gibi konuşun.

kök

#df

Başlangıç düğüm (ilk condition) bir karar ağacında bulunmalıdır. Genellikle diyagramlar kökü karar ağacının en üstüne yerleştirir. Örneğin:

İki koşulu ve üç yaprağı olan bir karar ağacı. İlgili içeriği oluşturmak için kullanılan
          başlangıç koşulu (x > 2) köktür.

kök dizin

#TensorFlow

TensorFlow'un barındırma alt dizinlerini belirttiğiniz dizin kontrol noktası ve etkinlik dosyaları oluşturabilirsiniz.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Kare Hatanın karekökü.

dönme değişkeni

#image

Görüntü sınıflandırma problemlerinde, algoritmanın Yönü değişse bile görselleri sınıflandırır. Örneğin, bir tenis raketinin yukarıdan, kimden, yani her şeyden eğilebilir. Dönme değişkenliğinin her zaman istenen bir durum olmadığını unutmayın; örneğin, baş aşağı duran 9, 9 olarak sınıflandırılmamalıdır.

Döndürme değişmezliği ve boyut değişmezliği hakkında da bilgi edinin.

R-kare

Bir dönüşümdeki ne kadar değişim olduğunu gösteren regresyon metriği label tek bir özellikten veya özellik grubundan kaynaklanıyor. R-kare, 0 ile 1 arasında bir değerdir ve aşağıdaki şekilde yorumlanabilir:

  • 0 olan R-kare değeri, etiketin varyasyonlarının hiçbirinin özellik grubundan kaynaklanmadığı anlamına gelir.
  • 1 olan R-kare değeri, bir etiketin tüm varyasyonunun özellik grubundan kaynaklandığı anlamına gelir.
  • 0 ile 1 arasında bir R-kare değeri, etiketin varyasyonunun belirli bir özellikten veya özellik grubundan ne kadar tahmin edilebileceğini gösterir. Örneğin, 0,10'luk bir R-kare değeri, etiketteki varyansın yüzde 10'unun özellik grubundan kaynaklandığı anlamına gelir. 0,20'lik bir R-kare değeri ise yüzde 20'sinin özellik grubundan kaynaklandığı anlamına gelir.

R kare, bir modelin tahmin ettiği değerler ile kesin referans arasındaki Pearson korelasyon katsayısının karesidir.

S

örnekleme yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

değiştirme ile örnekleme

#df

Aynı öğenin birden çok kez seçilebileceği bir aday öğe grubundan öğe seçme yöntemi. "Değişim amaçlı" ifadesi anlamı her seçimden sonra seçilen öğe havuza döndürülür. bir liste oluşturabilirsiniz. Değişim yapılmadan örnekleme olan ters yöntem aday öğe yalnızca bir kez seçilebilir.

Örneğin, aşağıdaki meyve grubunu ele alalım:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Sistemin ilk öğe olarak rastgele fig seçtiğini varsayalım. Değişimli örnekleme kullanılıyorsa sistem aşağıdaki gruptan ikinci öğeyi seçer:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Evet, bu daha önce olduğu gibidir. Bu nedenle, sistem tekrar fig seçin.

Değişim yapılmadan örnekleme kullanılıyorsa bir örnek seçildikten sonra seçim yapabilirsiniz. Örneğin, sistem ilk örnek olarak rastgele fig'ü seçerse fig tekrar seçilemez. Bu nedenle sistem, ikinci örneği aşağıdaki (azaltılmış) kümeden seçer:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

TensorFlow modellerini kaydetmek ve kurtarmak için önerilen biçim. SavedModel, üst düzey sistemlerin ve araçların TensorFlow modellerini oluşturmasına, kullanmasına ve dönüştürmesine olanak tanıyan, dile duyarlı olmayan, kurtarılabilir bir serileştirme biçimidir.

Ayrıntılı bilgi için TensorFlow Programcı Kılavuzu'ndaki Kaydetme ve Geri Yükleme bölümüne bakın.

Tasarruflu

#TensorFlow

Model kontrol noktalarını kaydetmekten sorumlu bir TensorFlow nesnesi.

skaler

Bir değer olarak temsil edilebilen tek bir sayı veya tek bir dize 0 sıralama tensörü. Örneğin, aşağıdaki kod satırlarının her biri TensorFlow'da bir skaler oluşturur:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

ölçeklendirme

Bir etiketin aralığını kaydıran herhangi bir matematiksel dönüşüm veya teknik ve/veya özellik değeri belirlemelisiniz. Bazı ölçeklendirme biçimleri, normalleştirme gibi dönüşümler için çok faydalıdır.

Makine Öğrenimi'nde faydalı olan yaygın ölçeklendirme biçimleri şunlardır:

  • doğrusal ölçeklendirme, genellikle çıkarma ve orijinal değeri -1 ile +1 arasında bir sayıyla değiştirmek için bölme veya 0 ile 1 arasında olmalıdır.
  • logaritmik ölçeklendirme, orijinal değeri kendi gerekir.
  • Z-skor normalleştirmesi: Orijinal değeri, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştirir.

scikit-learn

Popüler bir açık kaynak makine öğrenimi platformu. Görüntüleyin scikit-learn.org.

puanlama

#recsystems

Öneri sisteminin, aday oluşturma aşamasında üretilen her öğe için bir değer veya sıralama sağlayan kısmı.

seçim yanlılığı

#fairness

Verilerde gözlemlenen örnekler ile gözlemlenmeyen örnekler arasında sistematik farklılıklar oluşturan bir seçim süreci nedeniyle örneklenmiş verilerden elde edilen sonuçlarda hatalar. Aşağıdaki seçim yanlılığı biçimleri mevcuttur:

  • kapsam yanlılığı: Veri kümesinde temsil edilen popülasyon, popülasyonunu eşleştirmeye yardımcı olur. müzakere tekniği de eklediniz.
  • örnekleme yanlılığı: Veriler, hedef gruptan rastgele toplanmaz.
  • Yanıt verme yanlılığı (katılım yanlılığı olarak da bilinir): Belirli gruplardaki kullanıcılar, anketlere diğer gruplardaki kullanıcılara kıyasla farklı oranlarda katılmayı reddediyor.

Örneğin, bir makine öğrenimi modeli oluşturduğunuzu varsayalım. keyif almasıdır. Eğitim verileri toplamak için, filmin gösterildiği bir sinema salonunun ön sırasına bir anket dağıtırsınız. Bu, ilk bakışta veri kümesi toplama için makul bir yöntem gibi görünebilir. Ancak bu veri toplama şekli, aşağıdaki seçim yanlılığı biçimlerini ortaya çıkarabilir:

  • kapsam yanlılığı: 7/24'ü görmeyi tercih eden bir popülasyon modelinizin tahminleri insanlar için genelleme yapmayabilir yeni bir reklam grubu oluşturmaya karar verdi.
  • örnekleme yanlılığıdır: Deneme aşamasından rastgele örnekleme yerine, hedeflenen nüfus (filmdeki tüm kişiler) için örnek olarak yalnızca kişilerle tanışmak isterim. Oturan kişiler pek çok izleyicilerinin filmle daha çok ilgilendiğini görüyoruz. diğer satırlar.
  • yanıt vermeme yanlılığı: Genel olarak, güçlü görüşlere sahip insanlar isteğe bağlı anketlere hafif düzeyde yanıt verenlere göre daha sık görüşler. Film anketi isteğe bağlı olduğundan yanıtların normal (çan şeklinde) dağılım yerine iki modlu dağılım oluşturma olasılığı daha yüksektir.

kendi kendine dikkat (kendi kendine dikkat katmanı olarak da adlandırılır)

#language

Bir diziyi dönüştüren bir nöral ağ katmanı yerleştirmeler (ör. jeton yerleştirmeleri) ekleme sırasına girer. Çıkış dizisindeki her yerleştirme, bir dikkat mekanizması aracılığıyla giriş dizisinin öğelerinden alınan bilgiler birleştirilerek oluşturulur.

Kendi kendine dikkat çekmenin kendi kısmı, bire bir görüşmelere bir bağlam sunar. Kendine dikkat etmek, Dönüştürücüler için yapı taşları ve sözlük araması kullanır "query", "key" ve "value" gibi terimleri kullanabilirsiniz.

Kendi kendine dikkat katmanı, her kelime için bir tane olmak üzere bir giriş temsili dizisiyle başlar. Bir kelimenin giriş gösterimi basit olabilir bir öğedir. Bir giriş dizisindeki her kelime için ağ kelimenin tüm dizideki her öğeyle alaka düzeyini kelimeler. Alaka düzeyi puanları, kelimenin nihai temsilinin ne kadar olduğunu belirler başka kelimelerin temsillerini içerir.

Örneğin, aşağıdaki cümleyi ele alalım:

Hayvan çok yorgun olduğu için karşıdan karşıya geçmedi.

Aşağıdaki çizim ( Transformer: Dil için Yeni Bir Nöral Ağ Mimarisi Anlama) it zamiri için öz dikkat katmanının dikkat modelini gösterir, her satırın koyu renk tonunu gösterir ve her kelimenin temsil eder:

Aşağıdaki cümle iki kez görünüyor: Hayvan çok yorgun olduğu için caddeyi geçmedi. Çizgiler, bir cümledeki &quot;o&quot; zamirinin diğer cümledeki beş jetonla (The, animal, street, it ve nokta) bağlantısını sağlar.  &quot;O&quot; zamiri ile &quot;hayvan&quot; kelimesi arasındaki çizgi en güçlüdür.

Kendine dikkat katmanı, "kendine dikkat" katmanı ile alakalı kelimeleri vurgular. Bu örnekte dikkat katmanı, kendisinin atıfta bulunabileceği kelimeleri vurgulamayı öğrenmiştir ve en yüksek ağırlığı hayvan'a atamıştır.

Kendi kendine dikkat, n jeton dizisi için bir diziyi dönüştürür n ayrı kez, dizideki her konumda bir kez.

Dikkat ve çok başlı kendi kendine dikkat hakkında da bilgi edinin.

kendi kendini denetleyen öğrenme

Bir dönüşümü işlemeye yönelik teknikler gözetimli olmayan makine öğrenimi sorunu gözetimli makine öğrenimi problemine şuradan vekil etiketler oluşturarak etiketsiz örnekler.

BERT gibi bazı Transformer tabanlı modeller, gözetimli öğrenim.

Kendi kendini denetleyen eğitim, yarı gözetimli öğrenme yaklaşımıdır.

kendi kendine eğitim

Kendi kendine gözetimli öğrenmenin bir varyantı. özellikle aşağıdaki koşulların tümü doğru olduğunda yararlıdır:

Kendi kendine eğitim, model güncellenene kadar aşağıdaki iki adımın tekrarlanmasıyla çalışır. iyileşmeyi durdurur:

  1. Etiketli örneklerde bir model eğitmek için gözetimli makine öğrenimini kullanın.
  2. Etiketlenmemiş örneklerde tahminler (etiketler) oluşturmak için 1. adımda oluşturulan modeli kullanın. Yüksek güvenilirlik değerine sahip örnekleri, tahmin edilen etiketle etiketlenmiş örneklere taşıyın.

2. Adım'ın her yinelemesinde, 1. Adım için üzerine düşünün.

yarı gözetimli öğrenme

Eğitim örneklerinin bazılarının etiketli, bazılarının etiketsiz olduğu verilerle model eğitimi Yarı gözetimli öğrenmenin bir tekniği de etiketlenmemiş örnekler oluşturmak ve yeni bir dönüşüm etiketi oluşturmak için türetilmiş etiketlerle modeli. Yarı gözetimli öğrenme, etiketlerin alınması pahalı olduğunda yararlı olabilir ancak bol bol etiketsiz örnek vardır.

Kendi kendine eğitim, yarı gözetimli eğitime yönelik ele alacağız.

hassas özellik

#fairness
Hukuki nedenlerle özel olarak değerlendirilebilecek insani özellikler etik, toplumsal veya kişisel sebepler.

yaklaşım analizi

#language

Bir grubun bir hizmete, ürüne, kuruluşa veya konuya karşı genel tutumunu (pozitif veya negatif) belirlemek için istatistiksel veya makine öğrenimi algoritmalarının kullanılması. Örneğin, doğal dil anlama, bir algoritmanın metin tabanlı geri bildirim üzerinde yaklaşım analizi gerçekleştirebileceğini öğrencilerin eğitim düzeylerini belirlemek için üniversite dersinden beğenme veya beğenmeme ihtimalini ifade eder.

sıra modeli

#seq

Girdileri sıralı bağımlılığı olan bir model. Örneğin, daha önce izlenen videoların sırasına göre izlenecek bir sonraki videoyu tahmin etme.

sıradan sıraya görev

#language

Bir giriş jeton dizisini çıkış jeton dizisine dönüştüren bir görev. Örneğin, popüler olan iki yaygın diziden bire görevleri şunlardır:

  • Çevirmenler:
    • Örnek giriş sırası: "Seni seviyorum."
    • Örnek çıkış sırası: "Je t'aime."
  • Soru yanıtlama:
    • Örnek giriş sırası: "Arabamın New York'ta olması gerekiyor mu?"
    • Örnek çıkış sırası: "Hayır. Lütfen arabanızı evde tutun."

porsiyon

Eğitilmiş bir modeli online çıkarım veya çevrimdışı çıkarım aracılığıyla tahmin sağlamak için kullanılabilir hale getirme işlemi.

shape (Tensör)

Bir öğenin her boyutundaki tensördür. Şekil, tam sayılardan oluşan bir liste olarak gösterilir. Örneğin, aşağıdaki iki boyutlu tensör [3,4] şeklindedir:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, boyutların sırasını temsil etmek için satır öncelikli (C tarzı) biçim kullanır. Bu nedenle, TensorFlow'daki şekil [4,3] yerine [3,4] olur. Başka bir deyişle, iki boyutlu bir TensorFlow Tensor'da, [satır sayısı, sütun sayısı].

Statik şekil, derleme zamanında bilinen bir tensör şeklidir.

Dinamik şekil, derleme sırasında bilinmiyor ve bu nedenle çalışma zamanı verilerine bağlıdır. Bu tensör yer tutucu boyutu ([3, ?] gibi).

kırık

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya model olarak ayarlayın. Genellikle bazı işlemler, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara ayırarak parçalar oluşturur. Ardından her bir parça farklı bir makineye atanır.

Bir modeli parçalamaya model paralellik adı verilir; Buna veri paralelliği adı verilir.

küçülme

#df

Gradyan güçlendirme'de aşırı uyumu kontrol eden bir hiperparametre. Gradyan güçlendirmede küçülme Google Analytics 4'teki öğrenme oranına gradyan azalma. Küçülme, 0,0 ile 1,0 arasında bir ondalık değerdir. Daha düşük bir küçülme değeri, daha yüksek bir küçülme değerinden daha fazla aşırı uyumu azaltır.

sigmoid işlevi

#fundamentals

Bir giriş değerini genellikle 0 ila 1 veya -1 ila +1 arasında olan kısıtlanmış bir aralığa "sıkıştıran" matematiksel bir işlevdir. Yani, herhangi bir sayıyı (iki, bir milyon, sigmoid'e ekleyebilirsiniz. Çıktı, bu riskin içinde kalır. sınırlı aralıktır. Sigmoid aktivasyon işlevinin grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0,5 olur. Eğrinin eğimi her zaman
          pozitif, en yüksek eğim 0,0,5&#39;te ve kademeli olarak azalan
          x&#39;in mutlak değeri arttıkça eğimi de görebilirsiniz.

Sigmoid işlevinin makine öğreniminde çeşitli kullanım alanları vardır. Örneğin:

benzerlik ölçümü

#clustering

Kümeleme algoritmalarında, ne kadar benzediğini (ne kadar benzer olduğunu) gösterir.

tek program / çoklu veri (SPMD)

Aynı hesaplamanın farklı girdiler üzerinde yapıldığı bir paralellik tekniği paralel hale getirir. SPMD'nin amacı, daha hızlı sonuç elde etmektir. En yaygın paralel programlama stili budur.

boyut değişkeni

#image

Görüntü sınıflandırma probleminde, algoritmanın resmin boyutu değişse bile resimleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma 2 milyon piksel veya 200 bin piksel tüketse de kediyi tanımlayabilir. En iyi görüntü sınıflandırma algoritmalarının bile boyut değişmezliği konusunda pratik sınırlamaları olduğunu unutmayın. Örneğin, bir algoritmanın (veya kullanıcının) yalnızca 20 piksellik bir kedi resmini doğru şekilde sınıflandırması pek olası değildir.

Döndürme invaryantlığı ve dönme invaryantlığı hakkında da bilgi edinin.

çizim

#clustering

Gözetimsiz makine öğrenimi'nde, örnekler üzerinde ön bir benzerlik analizi yapan algoritma kategorisi. Çizim algoritmaları yerelliğe duyarlı karma işlevi noktaları belirlemek için bildiklerinizi bir grupta toplayın gruplandırmayı seviyorum.

Çizim, benzerlik hesaplamaları için gereken hesaplamayı azaltır büyük veri kümelerinde çalışır. Veri kümesindeki her bir örnek çifti için benzerliği hesaplamak yerine, yalnızca her gruptaki her nokta çifti için benzerliği hesaplarız.

atlama gramı

#language

Orijinal bağlamdaki kelimeleri atlayabilen (veya "atlayabilen") bir n-gram. Yani N kelimenin başlangıçta bitişik olmayabilir. Daha açık belirtmek gerekirse, "k atlama n-gramı", k'ya kadar kelimenin atlanmış olabileceği bir n-gramdır.

Örneğin, "süper tilki" aşağıdaki olası 2 gramlık bir değere sahiptir:

  • "the quick"
  • "quick brown"
  • "kahverengi tilki"

"1-at-2-gram" arasında en fazla bir kelime bulunan bir kelime çiftidir. Öyleyse "sıcak kahverengi tilki" aşağıdaki 1 atlama 2 gram'a sahiptir:

  • "the brown"
  • "quick fox"

Ayrıca, tüm 2 gram ağırlığı ayrıca 1-2 gramdır çünkü daha az birden fazla kelime atlanabilir.

Atlama gramları, bir kelimenin çevresindeki bağlamı daha iyi anlamak için yararlıdır. Örneğimizdeki "fox" "quick" ile doğrudan ilişkilendirildi 1-2 gramlık olarak atlanabilir, ancak 2 gramlık grupta değil.

Atlama gramları, kelime yerleştirme modellerini eğitmeye yardımcı olur.

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıfın olasılıklarını belirleyen bir işlev. Olasılıklar toplamı tam olarak 1,0'a eşittir. Örneğin, aşağıdaki tabloda softmax'in çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örnekleme ile karşılaştırın.

yumuşak istem ayarı

#language
#generativeAI

Büyük dil modelini ayarlamak için kullanılan bir teknik ya da yoğun kaynak ihtiyacı olmadan ince ayarlar. Yumuşak istem ayarı, modeldeki tüm ağırlıkları yeniden eğitmek yerine aynı hedefe ulaşmak için istemi otomatik olarak ayarlar.

Metin biçiminde istem, yumuşak istem ayarı genellikle isteme ek jeton yerleştirmeleri ekler ve geri yayılımı vardır.

"Sabit" istem, jeton yerleştirmeleri yerine gerçek jetonlar içerir.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrektir. Öte yandan yoğun bir özellik, çoğunlukla sıfır veya boş değildir.

Makine öğreniminde şaşırtıcı sayıda özellik çok azdır. Kategorik özellikler genellikle az sayıdadır. Örneğin, bir ormandaki 300 olası ağaç türünden tek bir örnekte yalnızca bir akçaağaç tanımlanabilir. Video kitaplığındaki milyonlarca videodan tek bir örnekte yalnızca "Casablanca" bulunabilir.

Bir modelde genelde seyrek özellikleri, tek kullanımlık kodlama. Tek seferlik kodlama çok büyükse, sayfanın üst kısmına bir yerleştirme katmanı yerleştirebilirsiniz: tek kullanımlık kodlama ile verimliliği artırır.

seyrek temsil

#language
#fundamentals

Sıfır olmayan öğelerin yalnızca konumlarını seyrek bir özellikte depolama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca, her örnek'in yalnızca tek bir türü tanımladığını varsayalım.

Her örnekte ağaç türlerini göstermek için tek seferlik bir vektör kullanabilirsiniz. Tek sıcak bir vektör, tek bir 1 ( ağaç türünü temsil etmesi için) ve 35 0 ( (bu örnekte 35 ağaç türü değildir). Bu nedenle, maple için tek sıcak temsil aşağıdaki gibi görünebilir:

0 ile 23 arasındaki konumların 0 değerini, 24. konumun 1 değerini ve 25 ile 35 arasındaki konumların 0 değerini tuttuğu bir vektör.

Buna karşılık, seyrek gösterim, görevin belirli türler olabilir. maple 24. sıradaysa maple için seyrek gösterim şu şekilde olur:

24

Seyrek gösterimin tek sıcak gösterime kıyasla çok daha kompakt olduğunu fark edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca seyrek özellik ve seyreklik konularına da bakın.

seyreklik

Bir vektör veya matriste sıfır (veya boş) olarak ayarlanan öğelerin sayısının, söz konusu vektör veya matristeki toplam giriş sayısına bölünmesiyle elde edilen değer. Örneğin, 98 hücresinin sıfır içerdiği 100 öğeli bir matrisi düşünün. Seyrekliğin hesaplanması aşağıdaki gibidir:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

Özellik azlığı, bir özellik vektörünün çokluğunu ifade eder; model seyrekliği, model ağırlıklarının azlığını ifade eder.

mekansal havuz

#image

Havuz bölümünü inceleyin.

Split

#df

Karar ağacında koşul için kullanılan başka bir ad.

ayırıcı

#df

Bir karar ağacını eğitirken rutin (ve algoritma) için en iyi sonuçları condition özelliğini her düğümde gösterir.

SPMD

Tek program / çoklu veri kısaltması.

kare menteşe kaybı

Mengene kaybının karesi. Kare içinde menteşe kaybı ceza aldı menteşe kaybına kıyasla daha ağır olabilir.

kare kaybı

#fundamentals

L2 kaybı ile eş anlamlıdır.

aşamalı eğitim

#language

Bir modeli bir dizi ayrı aşama halinde eğitme taktiği. Amaç, eğitim sürecini hızlandırmak veya daha iyi model kalitesi elde etmek olabilir.

Progresif yığınlama yaklaşımının bir resmi aşağıda gösterilmektedir:

  • 1. aşama 3 gizli katman, 2. aşama 6 gizli katman ve 3. aşama 12 gizli katman içeriyor.
  • 2. Aşama, 1. Aşama'nın 3 gizli katmanında öğrenilen ağırlıklarla eğitime başlar. 3. Aşama, 2. Aşama'nın 6 gizli katmanında öğrenilen ağırlıklarla eğitime başlar.

1. Aşama, 2. Aşama ve 3. Aşama olarak etiketlenen üç aşama.
          Her aşama farklı sayıda katman içeriyor: 1. Aşama şunları içerir:
          3 katman, 2. aşama 6 katman, 3. aşama ise 12 katman içeriyor.
          1. aşamadaki 3 katman, 2. aşamanın ilk 3 katmanı olur.
          Benzer şekilde, 2. Aşama&#39;daki 6 katman 3. Aşama&#39;nın ilk 6 katmanı olur.

İş akışı konusuna da göz atın.

durum

#rl

Güçlendirme öğrenimi, aracı'nın işlem seçmek için kullandığı, ortamın mevcut yapılandırmasını tanımlayan parametre değerleridir.

durum-işlem değer fonksiyonu

#rl

Q işlevi ile eş anlamlıdır.

statik

#fundamentals

Sürekli olarak değil, bir kez yapılan bir işlem. Statik ve çevrimdışı terimleri eş anlamlıdır. Aşağıda, makinede statik ve çevrimdışı öğelerinin yaygın kullanımları belirtilmiştir öğreniyor:

  • statik model (veya çevrimdışı model), bir kez eğitilmiş bir modeldir bir süredir kullanılıyor.
  • statik eğitim (veya çevrimdışı eğitim), bir kullanıcının fiziksel statik model.
  • Statik çıkarım (veya çevrimdışı çıkarım), bir modelin tek seferde bir grup tahmin oluşturduğu bir işlemdir.

dinamik ile kontrast oluşturun.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

sabitlik

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen özellik. Örneğin, 2021 ve 2023'te değerleri yaklaşık olarak aynı olan bir özellik durağandır.

Gerçek dünyada çok az sayıda özellik durağanlık gösterir. Eşit özellikler Zaman içinde istikrar (deniz seviyesi gibi) değişimi ile eş anlamlıdır.

Sürdürülebilirlik ile kontrast.

adım

Bir grup için ileri ve geri geçiş.

İleriye doğru ve geriye doğru geçiş hakkında daha fazla bilgi için geri yayılma konusuna bakın.

adım boyutu

Öğrenme hızı ile eş anlamlı.

stokastik gradyan azalma (SGD)

#fundamentals

Grup boyutunun bir olduğu bir gradyan azalma algoritması. Diğer bir deyişle, SGD, eğitim veri kümesinden rastgele seçilen tek bir örnek üzerinde eğitilir.

stride

#image

Konvolüsyonlu işlemde veya havuzda, çemberin her bir boyutundaki delta bir sonraki giriş dilimi dizisidir. Örneğin, aşağıdaki animasyonda konvolüsyon işlemi sırasında (1,1) adım gösteriyor. Bu nedenle, sonraki giriş dilimi bir önceki giriş diliminin sağındaki konumdan başlar. İşlem sağ kenara ulaştığında, bir sonraki dilimin tamamı sola ancak bir konum aşağıda görebilirsiniz.

5x5 giriş matrisi ve 3x3 konvolusyon filtresi. Çünkü
     kıvrımlı filtre 9 kez uygulanır. İlk
     kıvrımlı dilim, girişin sol üstteki 3x3 alt matrisini değerlendirir
     matristir. İkinci dilim, üst ortadaki 3x3 alt matrisi değerlendirir. Üçüncü konvolusyon dilimi, sağ üstteki 3x3 alt matrisi değerlendirir.  Dördüncü dilim, sol ortadaki 3x3 alt matrisini değerlendirir.
     Beşinci dilim, ortadaki 3x3 alt matrisi değerlendirir. Altıncı dilim
     sağ ortadaki 3x3 alt matrisini değerlendirir. Yedinci dilim, sol alttaki 3x3 alt matrisi değerlendirir.  Sekizinci dilim
     3x3 alt matristir. Dokuzuncu dilim, sağ alttaki 3x3&#39;ü değerlendirir.
     alt matristir.

Önceki örnekte iki boyutlu bir adım gösterilmektedir. Giriş matris üç boyutluysa, adım da üç boyutlu olur.

yapısal risk minimumu (SRM)

İki hedef arasında denge kuran bir algoritma:

  • En iyi tahmini modelin (ör. en düşük kayıp) oluşturulması gerekir.
  • Modeli mümkün olduğunca basit tutma ihtiyacı (örneğin, güçlü bir düzenleme).

Örneğin, eğitim veri kümesinde kayıp+düzenlemeyi en aza indiren bir işlev, yapısal risk azaltma algoritmasıdır.

ampirik risk minimumlaştırma ile kontrast.

alt örnekleme

#image

Birleştirme konusuna bakın.

alt kelime jetonu

#language

Dil modellerinde, bir kelimenin alt dizesi olan ve kelimenin tamamı da olabilecek jeton.

Örneğin, "itemize" gibi bir kelime, "öğe" parçalarına ayrılabilir. (kök kelime) ve "ize" gibi (sonek) (her biri kendi kendisiyle temsil edilir) jeton. Yaygın olmayan kelimeleri alt kelime adı verilen bu tür parçalara ayırmak, yaygın olarak kullanılan parçalar üzerinde çalışmak için farklı olabilir.

Bunun aksine, "gitmek" gibi yaygın kelimeler bölünmemiş olabilir tek bir jetonla temsil edilir.

özet

#TensorFlow

TensorFlow'da, belirli bir adım sırasında hesaplanan ve genellikle eğitim sırasında model metriklerini izlemek için kullanılan bir değer veya değer grubu.

gözetimli makine öğrenimi

#fundamentals

Bir modeli özelliklerden ve İlgili etiketlerin Gözetimli makine öğrenimi, bir konuyu öğrenmek için bir dizi soru ve ilgili yanıtları incelemeye benzer. Sorular ile yanıtlar arasındaki eşleştirmeyi öğrendikten sonra öğrenciler aynı konuyla ilgili yeni (daha önce görülmemiş) sorulara yanıt verebilir.

Gözetimsiz makine öğrenimiyle karşılaştırın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazlasından derlenen bir özellik. Sentetik özellik oluşturma yöntemleri şunları içerir:

  • Sürekli bir özelliği aralık kaplarına paketlere ayırma.
  • Özellik çaprazı oluşturma.
  • Bir özellik değerinin diğer özellik değerleriyle veya kendisiyle çarpılması (veya bölünmesi). Örneğin, a ve b giriş özellikleriyse Aşağıda yapay özelliklere ilişkin örnekler verilmiştir:
    • ab
    • a2
  • Bir özellik değerine aşkın bir fonksiyon uygulama. Örneğin, c bir giriş özelliğiyse, aşağıda sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak değerlendirilmez.

S

T5

#language

Metinden metne öğrenmeyi aktarma modeli sunan 2020'de Google Yapay Zeka. T5, Transformer mimarisine dayalı, son derece büyük bir veri kümesinde eğitilmiş bir kodlayıcı-kod çözücü modelidir. Metin oluşturma, dil çevirme ve soruları konuşma dilinde yanıtlama gibi çeşitli doğal dil işleme görevlerinde etkilidir.

T5, adını "Text-to-Text Transfer Transformer" (Metin-Metin Aktarım Dönüştürücüsü) aracındaki beş unsurdan alır.

T5X

#language

Büyük ölçekli doğal dil işleme (NLP) modelleri oluşturmak ve eğitmek için tasarlanmış açık kaynak bir makine öğrenimi çerçevesi. T5, T5X kod tabanında (JAX ve Flax üzerine kuruludur) uygulanır.

tablo biçiminde Q-öğrenme

#rl

Güçlendirme öğrenimi'nde, her durum ve işlem kombinasyonu için Q işlevlerini depolamak üzere bir tablo kullanarak Q öğrenme uygulanır.

hedef

label için eş anlamlı.

hedef ağ

#rl

Derin Q-learning'de, kararlı bir nöral ağ ilk nöral ağın olduğu ana sinir ağına Q işlevi veya bir politika uygular. Ardından, ana ağı hedef ağ tarafından öngörülen Q değerleriyle eğitebilirsiniz. Bu sebeple ana geri bildirim döngüsünde gerçekleşen geri bildirim ağı, kendi başına tahmin edilen Q değerlerine göre eğitilir. Bu geri bildirimden kaçınarak eğitim kararlılığı artar.

görev

Makine öğrenimi teknikleri kullanılarak çözülebilecek bir sorundur. Örneğin:

sıcaklık

#language
#image
#generativeAI

Bir modelin çıktısının rastgelelik derecesini kontrol eden hiper parametre. Yüksek sıcaklıklar daha rastgele sonuçlara, düşük sıcaklıklar ise daha az rastgele sonuçlara yol açar.

En iyi sıcaklığı seçmek, belirli uygulamaya ve modelin çıktısının tercih edilen özelliklerine bağlıdır. Örneğin, yüksek sıcaklıklar elde etmek istediğiniz reklam öğesi çıktısı üretir. Buna karşılık, sıcaklığı muhtemelen düşürecek kullanarak görselleri veya metinleri sınıflandıran bir model oluştururken ve tutarlı olmasını sağlar.

Sıcaklık genellikle softmax ile birlikte kullanılır.

zamansal veri

Farklı zaman noktalarında kaydedilen veriler. Örneğin, yılın her günü için kaydedilen kışlık mont satışları zamana dayalı verilerdir.

Tensor

#TensorFlow

TensorFlow programlarındaki birincil veri yapısı. Tensörler, N boyutlu (N çok büyük olabilir) veri yapıları olup en yaygın olarak skalerler, vektörler veya matrislerdir. Tensor öğeleri; tam sayı, kayan nokta, ya da dize değerleri kullanın.

TensorBoard

#TensorFlow

Bir veya daha fazla işlem yürütülürken kaydedilen özetleri gösteren kontrol paneli TensorFlow programını kullanabilirsiniz.

TensorFlow

#TensorFlow

Büyük ölçekli, dağıtılmış bir makine öğrenimi platformu. Bu terim, TensorFlow yığındaki ve veri akışı grafiklerinde genel hesaplamayı destekleyen temel API katmanını da ifade eder.

TensorFlow temel olarak makine öğrenimi için kullanılsa da, ve veri akışı grafikleri olabilir.

TensorFlow Oyun Alanı

#TensorFlow

Çevik yaklaşımın ne kadar farklı hyperparameters etkileme modeli (öncelikle nöral ağ) eğitimidir. TensorFlow Playground'u denemek için http://playground.tensorflow.org adresine gidin.

TensorFlow Serving

#TensorFlow

Eğitilmiş modelleri üretimde dağıtan bir platform.

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Kullanılan uygulamaya özel entegre devre (ASIC), performansı hakkında daha fazla bilgi edinin. Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.

Tensör sıralaması

#TensorFlow

rank (Tensor) konusuna bakın.

Tensör şekli

#TensorFlow

Bir tenzorun çeşitli boyutlarda içerdiği öğe sayısı. Örneğin, bir [5, 10] Tensörü'nün şekli bir boyutta 5 ve 10'dur içinde yer alır.

Tensor boyutu

#TensorFlow

Bir tenzorun içerdiği toplam skaler sayısı. Örneğin, [5, 10] Tensor boyutu 50'dir.

TensorStore

Büyük boyutlu çok boyutlu dizileri verimli bir şekilde okumak ve yazmak için bir kitaplık.

fesih koşulu

#rl

Pekiştirmeli öğrenmede, bölümün ne zaman sona ereceğini, örneğin aracının ne zaman veya belirli bir durum geçiş eşiği sayısını aşar. Örneğin, tic-tac-toe (ayrıca çarşaflar ve çarşaflar olarak bilinir) bir bölüm, oyuncu art arda üç boşluk işaretleyerek veya tüm boşlukların işaretli olduğunu gösterebilirsiniz.

test

#df

Karar ağacında koşul için kullanılan başka bir ad.

test kaybı

#fundamentals

Modelin kaybını temsil eden metrik test kümesini kullanın. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Çünkü test kaybının düşük olması, düşük eğitim kaybına göre daha yüksek kaliteli sinyal veya Düşük doğrulama kaybı.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasındaki büyük bir fark, bazen normalleştirme oranını artırmanız gerektiğini gösterir.

test seti

Eğitilmiş bir modeli test etmek için ayrılmış veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

Bir veri kümesindeki her örnek, önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de test kümesidir.

Eğitim kümesi ve doğrulama kümesi, modelin eğitilmesiyle yakından ilişkilidir. Test kümesi yalnızca eğitimle dolaylı olarak ilişkilendirildiğinden, test kaybı, eğitim kaybı veya doğrulama kaybı.

metin aralığı

#language

Bir metin dizesinin belirli bir alt bölümüyle ilişkilendirilmiş dizi dizini aralığı. Örneğin, s="Be good now" Python dizesi içindeki good kelimesi 3 ile 6 arasındaki metin aralığını kaplar.

tf.Example

#TensorFlow

Standart protokol arabelleği makine öğrenimi modeli eğitimi veya çıkarımı için giriş verilerini açıklamak üzere kullanılır.

tf.keras

#TensorFlow

Google Analytics 4'e entegre edilmiş bir Keras TensorFlow.

eşik (karar ağaçları için)

#df

Ekseni hizalanmış koşulda, özelliğin karşılaştırıldığı değerdir. Örneğin, aşağıdaki koşulda eşik değer 75'tir:

grade >= 75

zaman serisi analizi

#clustering

Makine öğreniminin ve istatistik biliminin, zamansal veriler. Sınıflandırma, kümelendirme, tahmin ve anormallik algılama dahil olmak üzere birçok makine öğrenimi sorunu zaman serisi analizi gerektirir. Örneğin, geçmiş satış verilerine dayanarak kışlık montların gelecekteki satışlarını aya göre tahmin etmek için zaman serisi analizini kullanabilirsiniz.

zaman adımı

#seq

Bir "yayını açıldı" bir hücrenin yinelenen nöral ağ özellikleri hakkında daha fazla bilgi edinin. Örneğin, aşağıdaki şekilde üç zaman adımı gösterilmektedir ( t-1, t ve t+1 alt simgelerini içerir):

Yinelenen bir sinir ağında üç zaman adımı. İlk zaman adımı çıkışı, ikinci zaman adımı girdisi olur. İkinci adım aralığının çıkışı, üçüncü adım aralığının girişi olur.

token

#language

Dil modelinde, modelin eğitildiği ve tahminlerde bulunduğu atomik birimdir. Jetonlar genellikle aşağıdakilerden biridir:

  • bir kelime (örneğin, "kedi gibi köpekler" ifadesi) üç kelimeden oluşur jetonlar: "köpekler", "beğeni" ve "kediler".
  • bir karakter (örneğin, "bisiklet balık" ifadesi) dokuzdan oluşur kullanılabilir. (Boşluğun jetonlardan biri olarak sayıldığını unutmayın.)
  • alt kelimeler (tek bir kelime tek bir jeton veya birden fazla jeton olabilir). Alt kelime bir kök kelime, bir ön ek veya bir son ekten oluşur. Örneğin, alt kelimeleri jeton olarak kullanan bir dil modeli, "köpekler" kelimesini görüntüleyebilir ("köpek" kök kelimesi ve çoğul soneki "s") şeklinde iki simge şeklinde biçimlendirilmiştir. Aynı dil modeli, "uzun" tek kelimesini görebilir ( kök kelime "uzun" ve "er" sonekini kullanın.

Dil modelleri dışındaki alanlarda jetonlar, farklı türlerdeki atom birimlerini kullanabilirsiniz. Örneğin bilgisayar vizyonunda bir jeton, bir resim.

Tower

Derin sinir ağının derin bir sinir ağı oluşturmaya başladı. Bazı durumlarda, her kule bir cihazdan sağlar ve bu kuleler, ilgili kuleler analiz edilene kadar çıktısı son bir katmanda birleştirilir. Diğer durumlarda (örneğin, birçok Transformers'ın kodlayıcı ve kod çözücü kulesinde) kuleler birbirine çapraz bağlantılarla bağlıdır.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi'nin kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleğe sahip programlanabilir bir doğrusal cebir hızlandırıcı. TPU cihazına birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi bulunan bir baskı devre kartı (PCB) yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımı.

TPU ana sistemi

#TensorFlow
#GoogleCloud

Bir ana makine üzerinde çalışan merkezi koordinasyon süreci verileri, sonuçları, programları, performans bilgilerini ve sistem sağlığı bilgilerini alır TPU çalışanlarına. TPU ana sistemi, kurulumu da yönetir ve TPU cihazların kapatılması.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud'da belirli bir TPU türü. TPU düğümü, VPC Ağı eş VPC ağı. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google'daki TPU cihazlarının belirli bir yapılandırması veri merkezimize geliyor. Bir TPU kapsülünde bulunan tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU Kapsül, en büyük Belirli bir TPU sürümü için TPU cihazlar.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU öğesi. Örneğin, Örneğin, TPU düğümleri ve TPU türleri şunlardır: TPU kaynakları.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU cihazlarının küçük bir kısmıdır: TPU Kapsülü. Bir TPU dilimindeki tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazından oluşan yapılandırma. Oluştururken TPU türü seçersiniz Google Cloud'da bir TPU düğümü. Örneğin, v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 vardır ağa bağlı TPU v3 cihazları ve toplam 2.048 çekirdek. TPU türleri bir kaynaktır Cloud TPU API.

TPU çalışanı

#TensorFlow
#GoogleCloud

Ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir işlemdir.

eğitim

#fundamentals

Model içeren ideal parametreleri (ağırlıklar ve önyargılar) belirleme süreci. Eğitim sırasında bir sistem example olarak ayarlar ve parametreleri kademeli olarak ayarlar. Eğitimde her biri örneğin birkaç kez veya milyarlarca kez yer alabilir.

eğitim kaybı

#fundamentals

Belirli bir eğitim iterasyonunda modelin kayıp değerini temsil eden bir metrik. Örneğin, kayıp işlevinin ortalama karesel hata olduğunu varsayalım. Belki de eğitim kaybı (Ortalama Kareli Hata) 10.iterasyon için 2, 2'dir ve ekibinizin 100.yineleme 1,9'dur.

Kayıp eğrisi, eğitim kaybı ile eğitim kaybı sayısının karşılaştırmasını gösterir. iterasyonlar ile yürütüldüğü anlamına gelir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin gelişmeye devam ettiğini gösterir.
  • Yukarı doğru eğim, modelin kötüleştiğini gösterir.
  • Düz bir eğim, modelin yakınsamaya ulaştığını gösterir.

Örneğin, aşağıda açıklanan idealleştirilmiş kayıp eğrisi gösterir:

  • Başlangıçtaki iterasyonlar sırasında aşağı doğru dik bir eğim vardır. Bu da hızlı model iyileştirme.
  • Eğitimin sonuna yakın bir zamana kadar kademeli olarak düzleşen (ancak yine de aşağı doğru) bir eğim. Bu, modelin ilk iterasyonlara kıyasla biraz daha yavaş bir hızda iyileşmeye devam ettiğini gösterir.
  • Eğitimin sonuna doğru yakınlaşmaya işaret eden düz bir eğim.

Eğitim kaybının ve iterasyonların karşılaştırması. Bu kayıp eğrisi, dik bir aşağı eğimle başlar. Eğim, sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da, genelleme:

eğitim ve sunma arası sapma

#fundamentals

Bir modelin dönüşüm işlemi sırasındaki eğitim ve bu modelin performans sırasında sunum.

eğitim seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üçe ayrılır ayrı alt kümeler oluşturabilirsiniz:

İdeal olarak, veri kümesindeki her örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek, eğitim kümesi ve doğrulama kümesidir.

gidişat

#rl

Pekiştirmeli öğrenmede, temsil eden tupleler aracının durum geçişleri dizisi, Burada her unsur durum, işlem, ödül ve sonraki durum ile birlikte gösterilir.

transfer öğrenimi

Bir makine öğrenimi görevinden diğerine bilgi aktarma. Örneğin, çoklu görevli öğrenmede tek bir model birden çok görevi, Mesela bir derin model üzerine konuşacağız. Öğrenme aktarımı, bilgi aktarımını da içerebilir. basit bir görevin çözümünden daha karmaşık bir sürecin daha fazla veri bulunan bir görevden, bilginin veri vardır.

Çoğu makine öğrenimi sistemi tek bir görevi çözer. Öğrenim aktarma, tek bir programın birden fazla görevi çözebildiği yapay zeka yolunda küçük bir adımdır.

Transformatör

#language

Google'da geliştirilen ve dönüşüm veya yinelenen sinir ağlarına ihtiyaç duymadan bir giriş dizilimini çıkış dizilimine dönüştürmek için kendi kendine dikkat mekanizmalarına dayanan bir nöral ağ mimarisi. Bir dönüştürücü, kendi kendine dikkat katmanlarının bir yığını olarak görülebilir.

Bir Dönüştürücü, aşağıdakilerden herhangi birini içerebilir:

Kodlayıcı, bir yerleştirme dizisini yeni bir yerleştirme dizisine dönüştürür. aynı uzunlukta. Kodlayıcıda her biri iki tane olmak üzere özdeş N katman bulunur olduğunu unutmayın. Bu iki alt katman, giriş yerleştirme dizisinin her konumuna uygulanarak dizinin her öğesini yeni bir yerleştirmeye dönüştürür. İlk kodlayıcı alt katmanı, giriş sırası. İkinci kodlayıcı alt katmanı, toplanan verileri bir çıkış yerleştirmeye dönüştürüyor.

Kod çözücü, bir giriş yerleştirilmiş öğesi dizisini muhtemelen farklı uzunlukta bir çıkış yerleştirilmiş öğesi dizisine dönüştürür. Kod çözücü ayrıca İkisi birbirine benzer olan üç alt katmana sahip özdeş N katman kodlayıcı alt katmanlarını oluşturur. Üçüncü kod çözücü alt katmanı, kodlayıcının çıkışını alır ve buradan bilgi toplamak için kendi kendine dikkat mekanizmasını uygular.

Transformer: A Novel Neural Network Architecture for Language Understanding (Dönüştürücü: Dil Anlama İçin Yeni Bir Nöral Ağ Mimarisi) adlı blog yayını, dönüştürücüler hakkında iyi bir giriş niteliğindedir.

çevrimsel değişken

#image

Görüntü sınıflandırma probleminde, algoritmanın resimdeki nesnelerin konumu değişse bile resimleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma bir köpeğin evde olup olmadığını ortasında ya da sol ucunda gösterilir.

Ayrıca boyut tutarsızlığı ve dönüşümlü değişkenlik.

üçlü

#seq
#language

N=3 olan bir N-gram.

doğru negatif (TN)

#fundamentals

Modelin doğru negatif sınıf. Örneğin, model belirli bir e-posta iletisinin spam olmadığını tahmin eder ve bu e-posta iletisi gerçekten spam değildir.

doğru pozitif (TP)

#fundamentals

Modelin doğru olumlu bir sınıfa göz atın. Örneğin, model, spam olduğunu ve gerçekten de spam olduğunu düşünelim.

gerçek pozitif oranı (TPR)

#fundamentals

Hatırlama ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisindeki y eksenidir.

U

farkındalık (hassas bir özellikle)

#fairness

Hassas özelliklerin eğitim verilerine dahil edilmez. Çünkü hassas özellikler genellikle kullanıcıya ait verilerin diğer özellikleriyle ilişkilidir; hassas bir özellikle ilgili bilgi sahibi olmadıklarından farklı etki söz konusuysa, veya diğer adillik kısıtlamalarını ihlal etmemelidir.

yetersiz

#fundamentals

Model, eğitim verilerinin karmaşıklığını tam olarak yakalayamadığı için zayıf tahmin yeteneğine sahip bir model oluşturma Birçok sorun aşağıdakiler dahil olmak üzere yetersiz uyuma neden olabilir:

yetersiz örnekleme

Daha dengeli bir eğitim kümesi oluşturmak için sınıf dengesi bozuk veri kümesinde çoğunluk sınıfından örneklerin kaldırılması.

Örneğin, çoğunluk sınıfının azınlık sınıfına oranının 20:1 olduğu bir veri kümesini düşünün. Bu sınıfın üstesinden gelmek için bir eğitim kümesiyse, azınlıkların tamamını içeren bir eğitim sınıf örneklerinden yalnızca onda biri gibi, sınıf ortamından başka bir sınıfa eğitim kümesi için 2:1'lik bir sınıf oranı oluşturmak. Az örnekleme sayesinde bu daha dengeli eğitim veri kümesi daha iyi bir model oluşturabilir. Alternatif olarak, bu daha dengeli eğitim veri kümesi etkili bir model eğitmek için yeterli örnek içermeyebilir.

Aşırı örnekleme ile kontrast oluşturun.

tek yönlü

#language

Yalnızca metnin hedef bölümünden önce gelen metni değerlendiren bir sistem. Buna karşılık çift yönlü bir sistem hem Metnin bir hedef bölümünden öncesi ve sonraki metin. Daha fazla ayrıntı için çift yönlü konusuna bakın.

tek yönlü dil modeli

#language

Olasılıklarını yalnızca hedef jetonlardan sonra değil, önce gelen jetonlara dayandıran bir dil modeli. İki yönlü dil modeliyle karşılaştırın.

etiketsiz örnek

#fundamentals

Özellikler'i içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir evden etiketlenmemiş üç örnek gösterilmektedir değerleme modelini kullanır.

Yatak odası sayısı Banyo sayısı Ev yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğrenimi modelleri, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler hakkında tahminde bulunur.

Yarı denetimli ve denetimsiz öğrenmede, eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketsiz örneği etiketli örnek ile karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki kalıpları bulmak için modeli eğitmek, genellikle etiketsiz veri kümesi ile aynı değere sahip.

Gözetimli olmayan makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplara kümelendirmektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre gruplandırabilir. Elde edilen kümeler, diğer makine öğrenimi algoritmalarının (ör. müzik önerisi hizmeti) girişi olabilir. Kümeleme, işe yarar etiketler olmadığında veya olmadığında yardımcı olabilir. Örneğin, kötüye kullanım karşıtı ve sahtekarlığı gibi alanlarda kümeler, veriler insanlar tarafından daha iyi anlaşılabiliyor.

Denetimli makine öğrenimiyle karşılaştırın.

artış modelleme

Pazarlamada yaygın olarak kullanılan ve potansiyel riskleri modelleyen "nedensel etki" ("artımlı etki") olarak da bilinir, "değerlendirme" ayrı ayrı değerlendirebilirsiniz. Aşağıda iki örnek verilmiştir:

  • Doktorlar, bir tıbbi işlemin (tedavi) ölüm oranında düşüş (nedensel etki) yaratmasını, hastanın (birey) yaşına ve tıbbi geçmişine göre tahmin etmek için artış modellemeyi kullanabilir.
  • Pazarlamacılar, bir kişi (birey) üzerindeki reklam (tedavi) nedeniyle satın alma olasılığındaki artışı (nedensel etki) tahmin etmek için artış modellemeyi kullanabilir.

Artış modellemesi, bazı etiketlerin (örneğin, ikili işlemlerdeki etiketlerin yarısı) her zaman eksik olması nedeniyle sınıflandırma veya regresyon modellerinden farklıdır. Örneğin, bir hasta tedavi görüyor veya almayabilir; Bu nedenle, yalnızca hastanın iyileşip iyileşmeyeceğini yalnızca birinde iyileşmez (iki durumda da iyileşmez). Artış modelinin temel avantajı, modelin tahmin oluşturabilmesidir bunu gözlemlemeyen durumu (karşı bildirim) kullanarak ortaya çıkarmanıza yardımcı olabilir.

yukarı ağırlıklandırma

downsampled sınıfına eşit değer uygulama faktörünü düşürür.

kullanıcı matrisi

#recsystems

Öneri sistemlerinde tarafından oluşturulan yerleştirme vektörü matris çarpanlarına ayırma gizli sinyalleri elinde bulunduruyor. Kullanıcı matrisinin her satırı, akrabası Gizli sinyallerin gücüne ilişkin son derece önemlidir. Örneğin, bir film öneri sistemi düşünün. Bu sistemde, kullanıcı matrisindeki gizli sinyaller her kullanıcının ilgi alanlarını temsil edebilir veya belirli türlerde içerik ya da podcast'leri içeren çeşitli faktörlerdeki karmaşık etkileşimleri içerir.

Kullanıcı matrisinde, her gizli özellik için bir sütun ve her kullanıcı için bir satır bulunur. Yani kullanıcı matrisi, faktörize edilen hedef matrisle aynı sayıda satıra sahiptir. Örneğin, Yeşil Ofis’te 1.000.000 kullanıcıya yönelik bir öneri sistemi, kullanıcı matrisinde 1.000.000 satır olur.

V

doğrulama

#fundamentals

Bir modelin kalitesine dair ilk değerlendirme. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama setini kullanın.

Doğrulama kümesi eğitim grubundan farklı olduğu için Doğrulama, fazla uyum'dan korunmaya yardımcı olur.

Modeli, Virtual Verde için önerilen doğrulama kümesine göre test etme ve modeli mevcut risklere göre değerlendirme test seti olarak belirleyin.

doğrulama kaybı

#fundamentals

Belirli bir iterasyonda modelin doğrulama kümesindeki kayıp değerini temsil eden bir metrik.

Genelleştirme eğrisi konusuna da göz atın.

doğrulama grubu

#fundamentals

Eğitilmiş bir model ile ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle bu riskleri doğrulama kümesine karşı eğitilen modelin modeli test kümesine göre değerlendirmeden önce birkaç kez kontrol edin.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her bir örneğin alt kümelere atanır. Örneğin, tek bir örnek hem eğitim veri kümesine hem de doğrulama veri kümesine ait olmamalıdır.

değer tamamlama

Eksik bir değeri kabul edilebilir bir alternatifle değiştirme işlemi. Bir değer eksik olduğunda örneğin tamamını silebilir veya örneği kurtarmak için değer tamamlamayı kullanabilirsiniz.

Örneğin, şöyle bir temperature özelliği içeren veri kümesi kaydedilmesi gerekir. Ancak sıcaklık ölçümü müsait olmayan bir saat olabilir. Veri kümesinin bir bölümünü aşağıda görebilirsiniz:

Zaman damgası Sıcaklık
1680561000 10
1680564600 12
1680568200 eksik
1680571800 20
1680575400 21
1680579000 21

Bir sistem eksik örneği silebilir veya eksik örneği hesaplamak için, hesaplama algoritmasına bağlı olarak sıcaklığı 12, 16, 18 veya 20 olarak ayarlayabilirsiniz.

kaybolan gradyan sorunu

#seq

Bazı derin sinir ağlarının ilk gizli katmanlarının gradyanlarının şaşırtıcı bir şekilde düz (düşük) olma eğilimi. Gittikçe daha düşük gradyanlar, derin nöral ağdaki düğümlerdeki ağırlıklarda giderek daha küçük değişikliklere neden olur ve öğrenmenin çok az olmasına veya hiç olmamasına yol açar. Eğilmenin kaybolması sorunundan muzdarip modellerin eğitilmesi zor veya imkansız hale gelir. Uzun kısa süreli bellek hücreleri bu sorunu giderir.

Patlayan gradyan problemi ile karşılaştırın.

değişken önemleri

#df

Her bir metriğin göreceli önemini gösteren puan kümesi özelliğini modele eklediğinizden emin olun.

Örneğin, bir karar ağacını ev fiyatlarını tahmin eder. Bu karar ağacında üç özellikleri: boyut, yaş ve stil. Üç özellik için değişken önem değerleri {beden=5,8, yaş=2,5, stil=4,7} olarak hesaplanırsa beden, karar ağacı için yaş veya stilden daha önemlidir.

ML uzmanlarını modellerin farklı yönleri hakkında bilgilendirebilecek farklı değişken önemi metrikleri vardır.

varyasyon otomatik kodlayıcı (VAE)

#language

Girişlerin değiştirilmiş sürümlerini oluşturmak için girişler ile çıkışlar arasındaki tutarsızlıktan yararlanan bir tür otomatik kodlayıcı. Varyasyonsal otomatik kodlayıcılar, üretken yapay zeka için kullanışlıdır.

VAE'ler, varyasyonal çıkarıma dayanır. Varyasyonal çıkarım, olasılık modelinin parametrelerini tahmin etmeye yönelik bir tekniktir.

vektör

Anlamı farklı matematiksel ve bilimsel alanlarda değişen, çok fazla yüklenmiş bir terim. Makine öğrenimi kapsamında bir vektörün iki özelliği vardır:

  • Veri türü: Makine öğrenimindeki vektörler genellikle kayan noktalı sayıları içerir.
  • Öğe sayısı: Bu, vektörün uzunluğu veya boyutu'dur.

Örneğin, sekiz kayan noktalı sayı içeren bir özellik vektörü düşünün. Bu özellik vektörünün uzunluğu veya boyutu sekizdir. Makine öğrenimi vektörlerinin genellikle çok sayıda boyutu olduğunu unutmayın.

Birçok farklı bilgi türünü vektör olarak gösterebilirsiniz. Örneğin:

  • Dünya yüzeyindeki herhangi bir konum, bir boyutu enlem, diğeri boylam olan 2 boyutlu bir vektör olarak temsil edilebilir.
  • 500 hisse senedinin her birinin mevcut fiyatı 500 boyutlu vektördür.
  • Sınırlı sayıda sınıf üzerindeki olasılık dağılımı temsil edilebilir kullanır. Örneğin, üç çıkış renginden birini (kırmızı, yeşil veya sarı) tahmin eden bir çoklu sınıflandırma sistemi, P[red]=0.3, P[green]=0.2, P[yellow]=0.5 anlamına gelen (0.3, 0.2, 0.5) vektörünü döndürebilir.

Vektörler birleştirilebilir. Bu nedenle, çeşitli farklı medyalar tek bir vektör olarak temsil edilebilir. Bazı modeller doğrudan birden fazla tek kullanımlık kodlamanın birleştirilmesi.

TPU'lar gibi özel işlemciler iyi performans gösterecek şekilde optimize edilmiştir. ve vektörler üzerindeki matematik işlemleri.

Vektör, sıralama 1'e ait bir tensor'dur.

W

Wasserstein kaybı

Oluşturulan verilerin dağılımı ile gerçek veriler arasındaki yer değiştirici mesafesini temel alan, üretici zıt ağlarda yaygın olarak kullanılan kayıp işlevlerinden biridir.

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme işlemidir; çıkarım ise tahminde bulunmak için bu öğrenilen ağırlıkları kullanma işlemidir.

Ağırlıklı Alternatif En Küçük Kareler (WALS)

#recsystems

Öneri sistemlerinde matris faktörleştirme sırasında hedef işlevi en aza indirmek için kullanılan ve eksik örneklerin ağırlığının düşürülmesine olanak tanıyan bir algoritma. WALS, iş gücüne hatanın karesini alıp orijinal matris ve yeniden oluşturma arasındaki iki ayrı dönüşüm elde edilecek. Bu optimizasyonların her biri en az kareyle çözülebilir dışbükey optimizasyon. Ayrıntılar için Öneri Sistemleri kursuna göz atın.

ağırlıklı toplam

#fundamentals

Tüm alakalı giriş değerlerinin toplamı ile ilgili ağırlıkların çarpımı. Örneğin, ilgili girişlerin şunlardan oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Bu nedenle ağırlıklı toplam şu şekildedir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevini yerine getirin.

geniş model

Doğrusal modelde genelde birçok seyrek giriş özellikleri. Buna "geniş" diyoruz. şu tarihten beri: özel bir nöral ağ türüdür ve doğrudan çıkış düğümüne bağlanan çok sayıda giriş vardır. Geniş modeller derin modellere kıyasla hata ayıklaması ve denetlenmesi genellikle daha kolaydır. Geniş modeller gizli katmanlar aracılığıyla doğrusal olmayanları ifade edemez, dönüşümler, Google Analytics 4'teki özellikler arasında geçiş ve gruplandırma özelliğini kullanın.

Derin model ile kontrast oluşturun.

genişlik

Belirli bir katman içindeki nöron sayısı nöral ağın temel özelliklerini kullanır.

kalabalığın bilgeliği

#df

Büyük bir grup insanın ("kalabalık") görüşlerinin veya tahminlerinin ortalamasının genellikle şaşırtıcı derecede iyi sonuçlar verdiği fikri. Örneğin, kullanıcıların büyük bir kavanoza doldurulmuş jöle fasulyesi sayısını tahmin ettiği bir oyun düşünün. Çoğu bireysel yanlış olacağını bildiğinizden, tüm tahminlerin ortalaması şaşırtıcı derecede gerçek sayıya yakın olduğu, deneysel olarak bir jöle var.

Ensembler, kitlenin bilgeliğinin yazılımdaki karşılığıdır. Tek tek modeller son derece yanlış tahminlerde bulunsa bile birçok modelin tahminlerinin ortalamasını almak, çoğu zaman iyi tahminler. Örneğin, tek bir karar ağacı kötü tahminler yapabilir ancak karar ormanı genellikle çok iyi tahminler yapar.

kelime yerleştirme

#language

Bir kelime grubundaki her kelimeyi yerleştirme vektörü içinde temsil etme; yani her kelimeyi 0,0 ile 1,0 arasında kayan nokta değerlerinin bir vektörü olarak temsil etme. Benzer görselleri olan kelimeler anlamları, farklı anlamlara gelen kelimelere göre daha fazla benzer temsile sahiptir. Örneğin, havuç, kereviz ve salatalık gibi ürünlerin temsilleri birbirine oldukça benzerken uçak, güneş gözlüğü ve diş macunu gibi ürünlerin temsilleri birbirinden çok farklıdır.

X

XLA (Hızlandırılmış Doğrusal Cebir)

GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları için açık kaynak bir makine öğrenimi derleyicisi.

XLA derleyicisi, aşağıdakiler gibi popüler makine öğrenimi çerçevelerinden model alır: PyTorch TensorFlow ve JAX'ın yanı sıra farklı donanım platformlarında yüksek performanslı yürütme için tasarlandı. GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları.

Z

sıfır görevli öğrenim

Modelin, özel olarak eğitilmediği bir görev için tahmin çıkardığı bir tür makine öğrenimi eğitimi. Başka bir deyişle model, göreve özgü eğitim örnekleri verilmiyor ancak belirli bir çıkarım yapabilirsiniz.

sıfır görevli istem

#language
#generativeAI

Nasıl istediğinize dair örnek sunmayan bir istem büyük dil modeline göre yanıt verin. Örneğin:

Tek bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Hindistan: Gerçek sorgu.

Büyük dil modeli aşağıdakilerden herhangi biriyle yanıt verebilir:

  • Rupi
  • INR
  • Hint rupisi
  • Rupi
  • Hindistan rupisi

Tüm yanıtlar doğrudur ancak belirli bir biçimi tercih edebilirsiniz.

Sıfır çekim istemini aşağıdaki terimlerle karşılaştırın:

Z puanı normalleştirmesi

#fundamentals

Ham bir verilerin yerini alan ölçeklendirme tekniği özellik değerini ve değeri temsil eden bir kayan nokta özelliğin ortalamasından standart sapmalarının sayısı. Örneğin, ortalaması 800 olan ve standart değeri sapma 100'dür. Aşağıdaki tabloda, Z-skor normalleştirmesinin ham değeri Z-skoruyla nasıl eşleyeceği gösterilmektedir:

İşlenmemiş değer Z-puanı
800 0
950 +1,5
575 -2,25

Ardından makine öğrenimi modeli, ham değerler yerine söz konusu özellik için Z puanları üzerinde eğitilir.