Makine Öğrenimi Sözlüğü

Bu sözlükte makine öğrenimi terimleri tanımlanmaktadır.

A

ablasyon

Bir özelliğin veya bileşenin önemini, modelden geçici olarak kaldırarak değerlendirmek için kullanılan bir teknik. Ardından modeli bu özellik veya bileşen olmadan yeniden eğitin. Yeniden eğitilen model önemli ölçüde daha kötü performans gösteriyorsa kaldırılan özellik veya bileşen muhtemelen önemliydi demektir.

Örneğin, 10 özellikten oluşan bir sınıflandırma modeli eğittiğinizi ve test veri kümesinde% 88 kesinlik elde ettiğinizi varsayalım. İlk özelliğin önemini kontrol etmek için modeli yalnızca diğer dokuz özelliği kullanarak yeniden eğitebilirsiniz. Yeniden eğitilen model önemli ölçüde daha kötü performans gösteriyorsa (ör. %55 doğruluk) kaldırılan özellik muhtemelen önemliydi. Buna karşılık, yeniden eğitilen model eşit derecede iyi performans gösteriyorsa bu özellik muhtemelen o kadar önemli değildir.

Ablasyon, aşağıdakilerin önemini belirlemeye de yardımcı olabilir:

  • Daha büyük ML sisteminin tüm alt sistemi gibi daha büyük bileşenler
  • Veri ön işleme adımı gibi süreçler veya teknikler

Her iki durumda da, bileşeni kaldırdıktan sonra sistemin performansının nasıl değiştiğini (veya değişmediğini) gözlemleyebilirsiniz.

A/B testi

İki (veya daha fazla) tekniği (A ve B) karşılaştırmanın istatistiksel bir yoludur. Genellikle A mevcut bir teknik, B ise yeni bir tekniktir. A/B testi, yalnızca hangi tekniğin daha iyi performans gösterdiğini değil, farkın istatistiksel olarak anlamlı olup olmadığını da belirler.

A/B testi genellikle iki teknikte tek bir metriği karşılaştırır. Örneğin, model doğruluğu iki teknikte nasıl karşılaştırılır? Ancak A/B testi, sonlu sayıda metriği de karşılaştırabilir.

hızlandırıcı çipi

#GoogleCloud

Derin öğrenme algoritmaları için gereken temel hesaplamaları gerçekleştirmek üzere tasarlanmış özel donanım bileşenleri kategorisi.

Hızlandırıcı çipler (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Bu makineler, sinir ağlarını eğitmek ve işlemsel açıdan yoğun benzer görevler için idealdir.

Hızlandırıcı çiplere örnek olarak aşağıdakiler verilebilir:

  • Derin öğrenmeye özel donanıma sahip Google Tensor İşleme Birimleri (TPU'lar).
  • NVIDIA'nın GPU'ları, başlangıçta grafik işleme için tasarlanmış olsa da paralel işleme olanağı sunmak üzere tasarlanmıştır. Bu da işleme hızını önemli ölçüde artırabilir.

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin toplam tahmin sayısına bölünmesiyle elde edilen değer. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru ve 10 yanlış tahminde bulunan bir modelin doğruluk oranı şöyle olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, doğru tahminler ve yanlış tahminler kategorileri için belirli adlar sağlar. Dolayısıyla, ikili sınıflandırma için doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu hassasiyet ve geri çağırma ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler bölümüne bakın.

işlem

#rl

Pekiştirmeli öğrenme'de, aracı'nın ortam durumları arasında geçiş yaptığı mekanizma. Temsilci, politika kullanarak işlemi seçer.

aktivasyon işlevi

#fundamentals

Nöral ağların özellikler ile etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme fonksiyonlarının noktaları hiçbir zaman tek bir düz çizgi değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgiden oluşur:

İki çizginin Kartezyen grafiği. İlk satırda, -infinity,0 ile 0,-0 arasında x ekseni boyunca uzanan sabit bir y değeri vardır.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5'tedir ve x'in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Aktivasyon işlevleri bölümüne bakın.

etkin öğrenme

Algoritmanın, öğrendiği verilerin bir kısmını seçtiği eğitim yaklaşımı. Aktif öğrenme, özellikle etiketlenmiş örneklerin elde edilmesi zor veya pahalı olduğunda değerlidir. Etkin öğrenme algoritması, etiketli örneklerin çeşitli bir yelpazesini rastgele aramak yerine, öğrenmek için ihtiyaç duyduğu belirli örnek yelpazesini seçerek arar.

AdaGrad

Her bir parametrenin gradyanlarını yeniden ölçeklendiren ve her parametreye etkili bir şekilde bağımsız bir öğrenme hızı veren karmaşık bir gradyan azalma algoritması. Tam açıklama için bu AdaGrad makalesine bakın.

temsilci

#rl

Güçlendirme öğrenimi'nde, ortam durumları arasında geçişten elde edilen beklenen dönüşüm değerini en üst düzeye çıkarmak için politika kullanan varlık.

Daha genel bir ifadeyle, aracı, bir hedefe ulaşmak için bir dizi işlemi bağımsız olarak planlayan ve yürüten, çevresindeki değişikliklere uyum sağlayabilen bir yazılımdır. Örneğin, LLM tabanlı bir temsilci, pekiştirme öğrenme politikası uygulamak yerine plan oluşturmak için LLM kullanabilir.

birleştirme kümeleme

#clustering

Hiyerarşik kümelenme konusuna bakın.

anormallik algılama

Ayrık değerleri belirleme işlemi. Örneğin, belirli bir özelliğin ortalaması 100 ve standart sapması 10 ise anormallik algılama, 200 değerini şüpheli olarak işaretlemelidir.

AR

Artırılmış gerçeklik kısaltması.

PR eğrisinin altındaki alan

PR AUC (PR Eğrisinin Altındaki Alan) başlıklı makaleyi inceleyin.

ROC eğrisinin altındaki alan

AUC (ROC eğrisinin altındaki alan) konusuna bakın.

yapay genel zeka

Çok çeşitli problem çözme, yaratıcılık ve uyum sağlama özelliklerini gösteren insan olmayan bir mekanizma. Örneğin, genel yapay zekayı gösteren bir program metin çevirebilir, senfoni besteleyebilir ve henüz icat edilmemiş oyunlarda başarılı olabilir.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan olmayan bir program veya model. Örneğin, metin çeviren bir program veya model ya da radyolojik görüntülerden hastalıkları tanımlayan bir program ya da model yapay zeka sergiler.

Resmi olarak makine öğrenimi, yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

dikkat

#language

Nöral ağda kullanılan ve belirli bir kelimenin veya kelimenin bir kısmının önemini belirten bir mekanizma. Dikkat, bir modelin sonraki jetonu/kelimeyi tahmin etmek için ihtiyaç duyduğu bilgi miktarını sıkıştırır. Tipik bir dikkat mekanizması, bir giriş grubu üzerinde ağırlıklı toplam içerebilir. Bu toplamda her girişin ağırlığı, nöral ağın başka bir bölümü tarafından hesaplanır.

Dönüştürücüler'in yapı taşları olan öz dikkat ve çok başlı öz dikkat hakkında da bilgi edinin.

Kendine dikkat hakkında daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki LLM'ler: Büyük dil modeli nedir? başlıklı makaleyi inceleyin.

özellik

#fairness

Özellik ile eş anlamlıdır.

Makine öğrenimi adaletinde özellikler genellikle bireylerle ilgili özelliklere atıfta bulunur.

özellik örnekleme

#df

Her karar ağacının koşulu öğrenirken yalnızca olası özelliklerden rastgele bir alt kümeyi dikkate aldığı bir karar ormanı eğitme taktiği. Genellikle her düğüm için farklı bir özellik alt kümesi örneklenir. Buna karşılık, özellik örnekleme olmadan bir karar ağacı eğitilirken her düğüm için olası tüm özellikler dikkate alınır.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösteren 0,0 ile 1,0 arasında bir sayı. AUC ne kadar 1, 0'a yakınsa modelin sınıfları birbirinden ayırma yeteneği o kadar iyidir.

Örneğin, aşağıdaki görselde pozitif sınıfları (yeşil ovaller) negatif sınıflardan (mor dikdörtgenler) mükemmel şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Gerçekçi olmayan bu mükemmel modelin AUC değeri 1,0'dur:

Bir tarafında 8 olumlu örnek, diğer tarafında 9 olumsuz örnek bulunan bir sayı çizgisi.

Buna karşılık, aşağıdaki görselde rastgele sonuçlar oluşturan bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin AUC değeri 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı çizgisi.
          Örneklerin sırası şu şekildedir: olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz.

Evet, önceki modelin AUC değeri 0,0 değil 0,5'tir.

Çoğu model bu iki uç nokta arasındadır. Örneğin, aşağıdaki model pozitifleri negatiflerden bir derece ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC değerine sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı çizgisi.
          Örneklerin sırası şu şekildedir: negatif, negatif, negatif, negatif, olumlu, negatif, olumlu, olumlu, negatif, olumlu, olumlu, olumlu.

AUC, sınıflandırma eşiği için ayarladığınız tüm değerleri yoksayar. Bunun yerine AUC, olası sınıflandırma eşiklerinin tümünü dikkate alır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma: ROC ve AUC bölümüne bakın.

artırılmış gerçeklik

#image

Kullanıcının gerçek dünyaya bakışını bilgisayar tarafından oluşturulmuş bir görüntüyle birleştirerek birleştirilmiş bir görüntü sunan teknoloji.

otomatik kodlayıcı

#language
#image

Girişten en önemli bilgileri çıkarmayı öğrenen bir sistem. Otomatik kodlayıcılar, kodlayıcı ve kod çözücü kombinasyonudur. Otomatik kodlayıcılar aşağıdaki iki adımlı süreci kullanır:

  1. Kodlayıcı, girişi (genellikle) kayıplı, daha düşük boyutlu (ara) bir biçimle eşler.
  2. Kod çözücü, düşük boyutlu biçimi orijinal yüksek boyutlu giriş biçimiyle eşleyerek orijinal girişin kayıplı bir sürümünü oluşturur.

Otomatik kodlayıcılar, kod çözücünün kodlayıcının ara biçimindeki orijinal girişi mümkün olduğunca yakın bir şekilde yeniden oluşturmaya çalışmasıyla uçtan uca eğitilir. Ara biçimi orijinal biçime kıyasla daha küçük (düşük boyutlu) olduğundan, otomatik kodlayıcı, girişteki hangi bilgilerin önemli olduğunu öğrenmek zorunda kalır ve çıkış, girişle tamamen aynı olmaz.

Örneğin:

  • Giriş verileri bir grafikse tam olmayan kopya, orijinal grafiğe benzer ancak biraz değiştirilmiş olur. Tam olarak aynı olmayan kopya, orijinal grafikteki gürültüyü kaldırıyor veya eksik pikselleri dolduruyor olabilir.
  • Giriş verileri metinse bir otomatik kodlayıcı, orijinal metni taklit eden (ancak aynı olmayan) yeni bir metin oluşturur.

Varyasyonel otomatik kodlayıcılar hakkında da bilgi edinin.

otomatik değerlendirme

#language
#generativeAI

Bir modelin çıktısının kalitesini değerlendirmek için yazılım kullanma

Model çıkışı nispeten basit olduğunda bir komut dosyası veya program, modelin çıkışını ideal yanıt ile karşılaştırabilir. Bu tür otomatik değerlendirmelere bazen programlı değerlendirme denir. ROUGE veya BLEU gibi metrikler genellikle programatik değerlendirme için yararlıdır.

Model çıktısı karmaşıksa veya tek bir doğru yanıt yoksa otomatik değerlendirmeyi bazen otomatik değerlendirici adlı ayrı bir yapay zeka programı gerçekleştirir.

Gerçek kişi tarafından yapılan değerlendirme ile karşılaştırın.

otomasyon önyargısı

#fairness

Karar veren gerçek kişi, otomatik karar verme sistemi hata yaptığında bile otomatik karar verme sistemi tarafından yapılan önerileri, otomasyon olmadan oluşturulan bilgilere tercih ettiğinde.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

AutoML

Makine öğrenimi modelleri oluşturmaya yönelik otomatik işlemler. AutoML, aşağıdakiler gibi görevleri otomatik olarak yapabilir:

AutoML, makine öğrenimi ardışık düzenlerini geliştirirken zaman ve emekten tasarruf etmelerini sağlayıp tahmin doğruluğunu artırarak veri bilimciler için faydalıdır. Uzman olmayanlar için de karmaşık makine öğrenimi görevlerini daha erişilebilir hale getirerek faydalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Otomatik Makine Öğrenimi (AutoML) bölümüne bakın.

otomatik yorum değerlendirmesi

#language
#generativeAI
Üretken yapay zeka modelinin çıktısının kalitesini değerlendirmek için insan değerlendirmesini otomatik değerlendirmeyle birleştiren karma bir mekanizma. Otomatik metin yazarı, gerçek kişiler tarafından yapılan değerlendirme ile oluşturulan verilerle eğitilmiş bir makine öğrenimi modelidir. İdeal olarak, otomatik derecelendirme sistemi gerçek bir değerlendiriciyi taklit etmeyi öğrenir.

Hazır otomatik yazıcılar mevcuttur ancak en iyi otomatik yazıcılar, özellikle değerlendirdiğiniz göreve göre hassas ayarlanır.

otoregresif model

#language
#image
#generativeAI

Kendi önceki tahminlerine dayanarak tahminde bulunan bir model. Örneğin, otomatik geriye dönük dil modelleri, daha önce tahmin edilen jetonlara göre bir sonraki jetonu tahmin eder. Transformer tabanlı tüm büyük dil modelleri otomatik geriye dönüktür.

Buna karşılık, GAN tabanlı görüntü modelleri, bir görüntüyü adım adım iteratif olarak değil, tek bir ileri geçişte oluşturdukları için genellikle otoregresif değildir. Ancak belirli resim oluşturma modelleri, resimleri adım adım oluşturdukları için otoregresif olurlar.

yardımcı kayıp

Ağırlıkların rastgele başlatıldığı ilk iterasyonlar sırasında eğitimi hızlandırmaya yardımcı olan, sinir ağı modelinin ana kayıp işleviyle birlikte kullanılan bir kayıp işlevi.

Yardımcı kayıp işlevleri, etkili gradyanları önceki katmanlara gönderir. Bu sayede, gradyan kaybolma sorunuyla mücadele ederek eğitim sırasında ayrışma sağlanır.

k değerinde ortalama hassasiyet

#language

Bir modelin, sıralanmış sonuçlar (ör. kitap önerilerinin numaralandırılmış listesi) oluşturan tek bir istemdeki performansını özetleyen metrik. k değerinde ortalama hassasiyet, her ilgili sonuç için k değerinde hassasiyet değerlerinin ortalamasıdır. Bu nedenle, k için ortalama hassasiyet formülü şu şekildedir:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

Bu örnekte:

  • \(n\) , listedeki alakalı öğelerin sayısıdır.

k'de hatırla ile karşılaştırın.

eksenle hizalanmış koşul

#df

Karar ağacında yalnızca tek bir özelliği içeren koşul. Örneğin, area bir özellikse aşağıdaki koşul eksene göre hizalanmış bir koşuldur:

area > 200

Eğik koşul ile karşılaştırın.

B

geri yayılma

#fundamentals

Nöral ağlarda gradyan azalma algoritmasını uygulayan algoritma.

Bir nöral ağı eğitmek, aşağıdaki iki geçişli döngünün birçok iterations içerir:

  1. İleri geçiş sırasında sistem, tahminler oluşturmak için örneklerden oluşan bir toplu işler. Sistem, her tahmini her etiket değeriyle karşılaştırır. Tahmin ile etiket değeri arasındaki fark, söz konusu örnek için kayıp değeridir. Sistem, mevcut grubun toplam kaybını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geri geçiş (geri yayılma) sırasında sistem, tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kaybı azaltır.

Nöral ağlar genellikle birçok gizli katmanda birçok nöron içerir. Bu nöronların her biri genel kayıplara farklı şekillerde katkıda bulunur. Geri yayılma, belirli nöronlara uygulanan ağırlıkların artırılıp azaltılmayacağını belirler.

Öğrenme hızı, her geri geçişin her ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Büyük bir öğrenme hızı, her ağırlığı küçük bir öğrenme hızından daha fazla artırır veya azaltır.

Geri yayılım, diferansiyel hesap terimleriyle zincir kuralını uygular. Yani geri yayılma, hatanın her parametreye göre kısmi türevini hesaplar.

Yıllar önce, makine öğrenimi uygulayıcılarının geri yayılımı uygulamak için kod yazması gerekiyordu. Keras gibi modern makine öğrenimi API'leri artık geri yayılımı sizin için uygular. Bora

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Nöral ağlar bölümüne bakın.

paketleme

#df

Her bileşen modelinin, yerine örneklemeyle rastgele bir eğitim örneği alt kümesinde eğitildiği bir toplu eğitme yöntemi. Örneğin, rastgele orman, torba oluşturma yöntemiyle eğitilmiş karar ağaçlarının bir koleksiyonudur.

Bagging terimi, bootstrap aggregating ifadesinin kısaltmasıdır.

Daha fazla bilgi için Karar Ağaçları kursunda Rastgele ormanlar bölümüne bakın.

kelime çantası

#language

Sıradan bağımsız olarak bir kelime öbeğindeki veya pasajdaki kelimelerin temsili. Örneğin, kelime öbeği aşağıdaki üç ifadeyi aynı şekilde temsil eder:

  • köpek zıplıyor
  • köpeği atlar
  • köpek atlar

Her kelime, seyrek bir vektördeki bir dizinle eşlenir. Bu vektörde, kelime hazinesindeki her kelime için bir dizin bulunur. Örneğin, köpek zıplıyor ifadesi, köpek, zıplıyor ve köpek kelimelerine karşılık gelen üç dizinin sıfır olmayan değerlerine sahip bir özellik vektörüne eşlenir. Sıfır olmayan değer aşağıdakilerden herhangi biri olabilir:

  • Bir kelimenin varlığını belirtmek için 1.
  • Bir kelimenin torbada kaç kez göründüğünün sayısı. Örneğin, ifade Kahverengi köpek, kahverengi tüyleri olan bir köpektir şeklindeyse hem kahverengi hem de köpek 2 olarak, diğer kelimeler ise 1 olarak temsil edilir.
  • Bir kelimenin torbada kaç kez göründüğünün sayısına ait logaritma gibi başka bir değer.

referans değer

Başka bir modelin (genellikle daha karmaşık bir model) ne kadar iyi performans gösterdiğini karşılaştırmak için referans noktası olarak kullanılan bir model. Örneğin, mantıksal regresyon modeli, derin model için iyi bir referans değer olabilir.

Belirli bir sorun için referans değer, model geliştiricilerin yeni modelin yararlı olması için yeni modelin elde etmesi gereken minimum beklenen performansı ölçmesine yardımcı olur.

grup

#fundamentals

Bir eğitim iterasyonunda kullanılan örnek grubu. Grup boyutu, bir gruptaki örnek sayısını belirler.

Bir grubun bir dönemle nasıl ilişkili olduğuna dair açıklama için dönem bölümüne bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

toplu çıkarım

#TensorFlow
#GoogleCloud

Daha küçük alt kümelere ("gruplar") bölünmüş birden fazla etiketlenmemiş örnek için tahminleri tahmin etme işlemi.

Toplu çıkarım, hızlandırıcı çiplerin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, etiketlenmemiş farklı örnek grupları için aynı anda tahminler yürütebilir. Bu da saniye başına çıkarım sayısını önemli ölçüde artırır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

toplu normalleştirme

Gizli katman'daki etkinleştirme işlevlerinin girişini veya çıkışını normalleştirme. Toplu normalleştirme aşağıdaki avantajları sağlayabilir:

grup boyutu

#fundamentals

Bir grup içindeki örnek sayısı. Örneğin, toplu boyut 100 ise model iterasyon başına 100 örnek işler.

Popüler toplu boyut stratejileri şunlardır:

  • Grup boyutunun 1 olduğu stokastik gradyan inişi (SGD).
  • Tam grup: Grup boyutu, eğitim veri kümesinin tamamındaki örneklerin sayısıdır. Örneğin, eğitim veri kümesi bir milyon örnek içeriyorsa toplu veri boyutu bir milyon örnek olur. Tam toplu işlem genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ile 1.000 arasında olduğu mini grup. Küçük grup genellikle en verimli stratejidir.

Daha fazla bilgi için aşağıdaki konulara bakın:

Bayes nöral ağı

Ağırlıklar ve çıkışlardaki belirsizliği hesaba katan olasılıklı bir nöral ağ. Standart bir nöral ağ regresyon modeli genellikle skaler bir değer tahmin eder. Örneğin, standart bir model 853.000 TL'lik bir ev fiyatını tahmin eder. Buna karşılık, Bayesyen bir sinir ağı bir değer dağılımını tahmin eder. Örneğin, Bayesyen bir model 67.200 standart sapmaya sahip 853.000 TL'lik bir ev fiyatını tahmin eder.

Bayesyen sinir ağı, ağırlıklar ve tahminlerdeki belirsizlikleri hesaplamak için Bayes' teoreminden yararlanır. Bayes türü sinir ağları, belirsizliği ölçmenin önemli olduğu durumlarda (ör. ilaçlarla ilgili modellerde) yararlı olabilir. Bayesyen nöral ağlar, aşırı uyum oluşumunu önlemeye de yardımcı olabilir.

Bayes optimizasyonu

Bayesyen öğrenme tekniği kullanarak belirsizliği ölçen bir vekil işlevi optimize ederek hesaplama açısından pahalı hedef işlevleri optimize etmek için kullanılan bir olasılıksal regresyon modeli tekniği. Bayes optimizasyonunun kendisi çok pahalı olduğundan genellikle hiper parametreler seçme gibi az sayıda parametresi olan ve değerlendirmesi pahalı olan görevleri optimize etmek için kullanılır.

Bellman denklemi

#rl

Güçlendirme öğrenimi, optimal Q işlevi tarafından aşağıdaki kimliği karşılar:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

Güçlendirme öğrenimi algoritmaları, aşağıdaki güncelleme kuralı aracılığıyla Q-öğrenimi oluşturmak için bu kimliği uygular:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

Bellman denklemi, pekiştirmeli öğrenmenin yanı sıra dinamik programlamada da kullanılır. Bellman denklemi için Wikipedia girişine göz atın.

BERT (Dönüştürücülerden Çift Yönlü Kodlayıcı Temsilleri)

#language

Metin temsilciliği için bir model mimarisi. Eğitilmiş bir BERT modeli, metin sınıflandırma veya diğer makine öğrenimi görevleri için daha büyük bir modelin parçası olarak kullanılabilir.

BERT'in özellikleri şunlardır:

BERT'in varyantları şunlardır:

BERT'e genel bakış için Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing başlıklı makaleyi inceleyin.

önyargı (etik/adalet)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı kalıp yargı, önyargı ya da diğerlerinden üstünlük gösterme Bu önyargılar, verilerin toplanmasını ve yorumlanmasını, sistemin tasarımını ve kullanıcıların sistemle etkileşimini etkileyebilir. Bu tür yanlılık örnekleri şunlardır:

2. Örnekleme veya raporlama prosedürü nedeniyle ortaya çıkan sistematik hata. Bu tür yanlılık örnekleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

önyargı (matematik) veya önyargı terimi

#fundamentals

Bir kaynaktan kesme noktası veya ofset. Yanlılık, makine öğrenimi modellerindeki bir parametredir ve aşağıdakilerden biriyle gösterilir:

  • b
  • w0

Örneğin, önyargı, aşağıdaki formüldeki b değeridir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, önyargı yalnızca "y kesme noktası" anlamına gelir. Örneğin, aşağıdaki görselde gösterilen satırın yönü 2'dir.

Eğimi 0,5 ve y eksenini kestiği nokta (y kesme noktası) 2 olan bir doğrunun grafiği.

Tüm modeller orijinden (0,0) başlamadığı için önyargı vardır. Örneğin, bir eğlence parkına giriş ücretinin 2 avro, müşterinin parkta kaldığı her saat için ek 0,5 avro olduğunu varsayalım. Bu nedenle, toplam maliyeti eşleyen bir modelin önyargı değeri 2'dir çünkü en düşük maliyet 2 avrodur.

Önyargı, etik ve adaletle ilgili önyargı veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Doğrusal Regresyon bölümüne bakın.

iki yönlü

#language

Hedef metin bölümünün hem öncesinde hem de ardından gelen metni değerlendiren bir sistemi tanımlamak için kullanılan terim. Buna karşılık, tek yönlü bir sistem yalnızca hedef metin bölümünün öncesinde gelen metni değerlendirir.

Örneğin, aşağıdaki soruda altı çizili kelimeyi veya kelimeleri temsil eden kelimelerin olasılıklarını belirlemesi gereken bir maskeli dil modelini ele alalım:

What is the _____ with you?

Tek yönlü bir dil modelinin olasılıklarını yalnızca "Ne", "nedir" ve "o" kelimelerinin sağladığı bağlama göre belirlemesi gerekir. Buna karşılık, iki yönlü bir dil modeli "ile" ve "siz" kelimelerinden de bağlam bilgisi edinebilir. Bu da modelin daha iyi tahminler yapmasına yardımcı olabilir.

çift yönlü dil modeli

#language

Belirli bir jetonun, metin alıntısındaki belirli bir konumda bulunma olasılığını önceki ve sonraki metne göre belirleyen bir dil modeli.

büyük harf

#seq
#language

N=2 olan bir N-gram.

ikili sınıflandırma

#fundamentals

Birbiriyle çelişen iki sınıftan birini tahmin eden bir tür sınıflandırma görevi:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olup olmadığını belirleyen bir model.
  • Bir kişinin belirli bir hastalığa (pozitif sınıf) sahip olup olmadığını veya bu hastalığa sahip olmadığını (negatif sınıf) belirlemek için tıbbi semptomları değerlendiren bir model.

Çok sınıflı sınıflandırma ile karşılaştırın.

Mantıksal regresyon ve sınıflandırma eşiği hakkında da bilgi edinin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

ikili koşul

#df

Karar ağacında, genellikle evet veya hayır olmak üzere yalnızca iki olası sonucu olan koşul. Örneğin, aşağıdakiler ikili koşuldur:

temperature >= 100

Non-binary koşulu ile karşılaştırın.

Daha fazla bilgi için Karar Ağaçları kursunda Koşul türleri bölümüne bakın.

gruplandırma

Gruplandırma ile eş anlamlıdır.

BLEU (İki Dilli Değerlendirme Asistanı)

#language

İspanyolca'dan Japonca'ya gibi makine çevirilerini değerlendirmek için kullanılan 0, 0 ile 1, 0 arasında bir metriktir.

BLEU, puan hesaplamak için genellikle bir makine öğrenimi modelinin çevirisini (oluşturulan metin) bir uzmanın çevirisiyle (referans metin) karşılaştırır. Oluşturulan metindeki ve referans metindeki N-gram eşleşmesinin derecesi BLEU puanını belirler.

Bu metrik hakkındaki orijinal makale BLEU: a Method for Automatic Evaluation of Machine Translation (BLEU: Makine Çevirisinin Otomatik Değerlendirilmesi İçin Bir Yöntem) başlıklı makaledir.

BLEURT işlevine de göz atın.

BLEURT (Bilingual Evaluation Understudy from Transformers)

#language

Bir dilden diğerine, özellikle de İngilizceden ve İngilizceye yapılan makine çevirilerini değerlendirmek için kullanılan bir metriktir.

İngilizceden ve İngilizceye yapılan çevirilerde BLEURT, BLEU'ya kıyasla gerçek kişiler tarafından verilen puanlara daha yakındır. BLEU'den farklı olarak BLEURT, anlamsal benzerlikleri vurgular ve başka bir dilde yorumlamayı kabul edebilir.

BLEURT, önceden eğitilmiş büyük bir dil modelini (tam olarak BERT) kullanır. Bu model daha sonra gerçek çevirmenler tarafından yazılmış metinlerle ince ayarlanır.

Bu metrik hakkındaki orijinal makale BLEURT: Learning Robust Metrics for Text Generation (BLEURT: Metin Oluşturma İçin Güçlü Metrikler Öğrenme) başlıklı makaledir.

güçlendirme

Modelin şu anda yanlış sınıflandırdığı örneklere ağırlık vererek basit ve çok doğru olmayan bir dizi sınıflandırıcıyı ("zayıf" sınıflandırıcılar olarak adlandırılır) iteratif olarak yüksek doğruluktaki bir sınıflandırıcıyla ("güçlü" sınıflandırıcı) birleştiren bir makine öğrenimi tekniğidir.

Daha fazla bilgi için Karar Ağaçları kursunda Gradyan Yükseltmeli Karar Ağaçları? başlıklı makaleyi inceleyin.

sınırlayıcı kutu

#image

Bir resimde, ilgilenilen bir alan (ör. aşağıdaki resimdeki köpek) etrafındaki dikdörtgenin (x, y) koordinatları.

Koltukta oturan bir köpeğin fotoğrafı. Köpeğin vücudunu çevreleyen, sol üst koordinatları (275, 1271) ve sağ alt koordinatları (2954, 2761) olan yeşil bir sınır kutusu

yayın

Matris matematik işleminde bir operandın şeklini, söz konusu işlemle uyumlu boyutlara genişletme. Örneğin, doğrusal cebir, bir matris toplama işlemindeki iki operandın aynı boyutlara sahip olmasını gerektirir. Sonuç olarak, n uzunluğunda bir vektöre (m, n) şeklinde bir matris ekleyemezsiniz. Yayınlama, n uzunluğundaki vektörü sanal olarak (m, n) şeklinde bir matrise genişleterek her sütunda aynı değerleri kopyalayarak bu işlemi etkinleştirir.

Örneğin, aşağıdaki tanımlar göz önüne alındığında, A ve B farklı boyutlara sahip olduğu için doğrusal cebir A+B'yi yasaklar:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

Ancak yayın, B'yi sanal olarak aşağıdaki şekilde genişleterek A+B işlemini etkinleştirir:

 [[2, 2, 2],
  [2, 2, 2]]

Böylece A+B artık geçerli bir işlemdir:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

Daha fazla bilgi için NumPy'de yayın ile ilgili aşağıdaki açıklamaya bakın.

gruplandırma

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına göre paketler veya kümeler olarak adlandırılan birden fazla ikili özelliğe dönüştürür. Bölünmüş özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine sıcaklık aralıklarını aşağıdaki gibi ayrı kaplara ayırabilirsiniz:

  • <= 10 santigrat derece "soğuk" grubuna girer.
  • 11-24 santigrat derece "ılıman" grubuna girer.
  • >= 25 santigrat derece "sıcak" grubu olur.

Model, aynı gruptaki her değeri aynı şekilde ele alır. Örneğin, 13 ve 22 değerlerinin ikisi de ılıman grupta olduğundan model bu iki değeri aynı şekilde ele alır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sayısal veriler: Gruplandırma bölümüne bakın.

C

kalibrasyon katmanı

Genellikle tahmin önyargısını hesaba katmak için yapılan tahmin sonrası düzenleme. Düzenlenmiş tahminler ve olasılıklar, gözlemlenen bir etiket grubunun dağılımıyla eşleşmelidir.

aday oluşturma

#recsystems

Öneri sistemi tarafından seçilen ilk öneri grubu. Örneğin, 100.000 kitap sunan bir kitapçıyı düşünün. Aday oluşturma aşaması, belirli bir kullanıcı için çok daha küçük bir kitap listesi (ör. 500) oluşturur. Ancak 500 kitap bile bir kullanıcıya önerilecek çok fazla kitaptır. Önerinin daha pahalı olan sonraki aşamaları (ör. puanlama ve yeniden sıralama), bu 500 öğeyi çok daha küçük ve daha kullanışlı bir öneri grubuna indirger.

Daha fazla bilgi için Öneri Sistemleri kursunda Aday oluşturmaya genel bakış bölümüne bakın.

aday örnekleme

Örneğin, softmax kullanarak tüm pozitif etiketler için olasılığı hesaplayan ancak yalnızca rastgele bir negatif etiket örneği için olan eğitim zamanı optimizasyonu. Örneğin, beagle ve köpek olarak etiketlenmiş bir örnek verildiğinde, aday örnekleme aşağıdakiler için tahmini olasılıkları ve ilgili kayıp terimlerini hesaplar:

  • beagle
  • köpek
  • Kalan negatif sınıfların rastgele bir alt kümesi (ör. kedi, lolipop, çit).

Buradaki fikir, pozitif sınıflar her zaman uygun pozitif pekiştirme aldığı sürece negatif sınıfların daha seyrek negatif pekiştirmeden öğrenebileceğidir ve bu durum deneysel olarak gözlemlenmiştir.

Aday örnekleme, özellikle negatif sınıf sayısı çok fazla olduğunda tüm negatif sınıflar için tahminleri hesaplayan eğitim algoritmalarından daha verimlidir.

kategorik veriler

#fundamentals

Belirli bir olası değer grubuna sahip özellikler. Örneğin, yalnızca aşağıdaki üç olası değerden birini alabilen traffic-light-state adlı kategorik bir özellik düşünün:

  • red
  • yellow
  • green

traffic-light-state, kategorik bir özellik olarak temsil edildiğinde model, red, green ve yellow'ın sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen discontinious features (discontinious features) olarak da adlandırılır.

Sayısal verilerle karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Kategorik verilerle çalışma bölümüne bakın.

nedensel dil modeli

#language

Tek yönlü dil modeli ile eş anlamlıdır.

Dil modellemede farklı yönsel yaklaşımları karşılaştırmak için iki yönlü dil modeli konusuna bakın.

kütle merkezi

#clustering

K-ortalama veya k-orta algoritması tarafından belirlenen bir kümenin merkezi. Örneğin, k 3 ise k-ortalama veya k-ortalama algoritması 3 ağırlık merkezi bulur.

Daha fazla bilgi için Küme oluşturma kursundaki Küme oluşturma algoritmaları bölümüne bakın.

merkeze dayalı kümeleme

#clustering

Verileri hiyerarşik olmayan kümelere ayıran bir kümeleme algoritması kategorisi. K-ortalama, ağırlık merkezine dayalı en yaygın kümeleme algoritmasıdır.

Hiyerarşik kümeleme algoritmalarıyla karşılaştırın.

Daha fazla bilgi için Küme oluşturma kursundaki Küme oluşturma algoritmaları bölümüne bakın.

düşünce zinciri istemi

#language
#generativeAI

Büyük dil modelini (LLM) mantığını adım adım açıklamaya teşvik eden bir istem mühendisliği tekniği. Örneğin, ikinci cümleye özellikle dikkat ederek aşağıdaki istemi inceleyin:

7 saniyede 0'dan 100 kilometre hıza çıkan bir araçta sürücü kaç g kuvveti yaşar? Yanıtta, ilgili tüm hesaplamaları gösterin.

LLM'nin yanıtı büyük olasılıkla:

  • Uygun yerlere 0, 60 ve 7 değerlerini ekleyerek bir dizi fizik formülü gösterin.
  • Bu formülleri neden seçtiğini ve çeşitli değişkenlerin ne anlama geldiğini açıklayın.

Düşünce zinciri istemi, LLM'yi tüm hesaplamaları yapmaya zorlar. Bu da daha doğru bir yanıta yol açabilir. Ayrıca düşünce zinciri istemi, kullanıcının cevabın mantıklı olup olmadığını belirlemek için LLM'nin adımlarını incelemesini sağlar.

sohbet

#language
#generativeAI

Genellikle büyük dil modeli olan bir yapay zeka sistemiyle yapılan karşılıklı konuşmanın içeriği. Sohbetteki önceki etkileşim (ne yazdığınız ve büyük dil modelinin nasıl yanıt verdiği), sohbetin sonraki bölümlerinin bağlamı olur.

Chat bot, büyük dil modelinin bir uygulamasıdır.

kontrol noktası

Eğitim sırasında veya eğitim tamamlandıktan sonra modelin parametrelerinin durumunu yakalayan veriler. Örneğin, eğitim sırasında şunları yapabilirsiniz:

  1. Eğitimin kasıtlı olarak veya belirli hatalar sonucunda durdurulması.
  2. Kontrol noktasını yakalayın.
  3. Daha sonra, kontrol noktasını muhtemelen farklı bir donanımda yeniden yükleyin.
  4. Eğitimi yeniden başlatın.

sınıf

#fundamentals

Etiket'in ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Buna karşılık, regresyon modeli bir sınıf yerine bir sayıyı tahmin eder.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıdakilerin tümü sınıflandırma modelleridir:

  • Giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca?).
  • Ağaç türlerini tahmin eden bir model (Akçaağaç? Oak? Baobab?).
  • Belirli bir tıbbi durum için pozitif veya negatif sınıfı tahmin eden bir model.

Buna karşılık, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Sık kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, mantıksal regresyon modelinin ham çıkışını pozitif sınıf veya negatif sınıf tahminine dönüştüren 0 ile 1 arasında bir sayı. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, bir kişinin seçtiği bir değer olduğunu unutmayın.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer döndürür. Ardından:

  • Bu ham değer, sınıflandırma eşiğinden daha büyükse pozitif sınıf tahmin edilir.
  • Bu ham değer sınıflandırma eşiğinden düşükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0, 7 ise model negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yanlış pozitif ve yanlış negatif sayısını önemli ölçüde etkiler.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

sınıf dengesi bozuk veri kümesi

#fundamentals

Her sınıfın toplam etiket sayısının önemli ölçüde farklı olduğu bir sınıflandırma problemi için veri kümesi. Örneğin, iki etiketi aşağıdaki gibi bölünmüş bir ikili sınıflandırma veri kümesini ele alalım:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitif etiketlere oranı 100.000'e 1 olduğundan bu veri kümesi sınıf dengesi bozuk bir veri kümesidir.

Buna karşılık, negatif etiketlerin pozitif etiketlere oranı nispeten 1'e yakın olduğu için aşağıdaki veri kümesi sınıf dengeli değildir:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümeleri de sınıf dengesi bozuk olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesi de sınıf dengesi açısından bozuktur çünkü bir etiket diğer ikisine kıyasla çok daha fazla örnek içerir:

  • "Yeşil" sınıfına sahip 1.000.000 etiket
  • "mor" sınıfına sahip 200 etiket
  • "orange" sınıfına sahip 350 etiket

Entropy, çoğunluğun sınıfı ve azınlığın sınıfı bölümlerini de inceleyin.

kırpma

#fundamentals

Aşağıdakilerden birini veya ikisini birden yaparak aykırı değerleri ele alma tekniği:

  • Maksimum eşikten yüksek olan özellik değerlerini bu maksimum eşiğe indirme.
  • Minimum eşiğin altındaki özellik değerlerini bu minimum eşiğe kadar artırma.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40-60 aralığının dışında olduğunu varsayalım. Bu durumda aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar verebilir ve bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri de önemli ölçüde bozabilir. Kırpma, zararı sınırlamak için yaygın olarak kullanılan bir tekniktir.

Gradyan kırpma, eğitim sırasında gradyan değerlerini belirli bir aralık içinde zorlar.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Normalleştirme bölümüne bakın.

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.

kümeleme

#clustering

Özellikle gözetimsiz öğrenme sırasında ilgili örneklerin gruplandırılması Tüm örnekler gruplandırıldıktan sonra, bir kullanıcı isteğe bağlı olarak her kümeye anlam verebilir.

Birçok küme oluşturma algoritması vardır. Örneğin, k-ortalama algoritması, örnekleri aşağıdaki şemada gösterildiği gibi bir orta noktaya olan yakınlıklarına göre kümeler hâlinde toplar:

X ekseninin ağaç genişliği, y ekseninin ise ağaç yüksekliği olarak etiketlendiği iki boyutlu bir grafik. Grafik iki merkez noktası ve birkaç düzine veri noktası içeriyor. Veri noktaları, yakınlıklarına göre sınıflandırılır. Yani bir merkez noktaya en yakın veri noktaları 1. küme, diğer merkez noktaya en yakın veri noktaları ise 2. küme olarak kategorize edilir.

Ardından, gerçek bir araştırmacı kümeleri inceleyebilir ve örneğin 1. kümeyi "cüce ağaçlar", 2. kümeyi ise "tam boy ağaçlar" olarak etiketleyebilir.

Bir başka örnek olarak, bir örneğin merkez noktaya olan uzaklığına dayalı bir küme oluşturma algoritmasını ele alalım. Bu algoritma aşağıdaki şekilde gösterilmiştir:

Onlarca veri noktası, neredeyse bir dart tahtasının ortasındaki delikler gibi iç içe geçmiş çemberler halinde düzenlenir. Veri noktalarının en içteki halkası 1. grup, ortadaki halkası 2. grup ve en dıştaki halkası 3. grup olarak sınıflandırılır.

Daha fazla bilgi için Gruplandırma kursuna bakın.

ortak uyarlama

Sinir hücreleri, ağın bir bütün olarak davranışına güvenmek yerine neredeyse yalnızca belirli diğer sinir hücrelerinin çıkışlarına güvenerek eğitim verilerindeki kalıpları tahmin ettiğinde. Ortak adaptasyona neden olan kalıplar doğrulama verilerinde bulunmadığında ortak adaptasyon aşırı uyuma neden olur. Atlama normalleştirmesi, nöronların yalnızca belirli diğer nöronlara güvenememesini sağladığı için birlikte uyumu azaltır.

ortak filtreleme

#recsystems

Diğer birçok kullanıcının ilgi alanlarına göre bir kullanıcının ilgi alanları hakkında tahminler yapma Ortak filtreleme, genellikle öneri sistemlerinde kullanılır.

Daha fazla bilgi için Öneri Sistemleri kursunda Ortak filtreleme bölümüne bakın.

kavram kayması

Özellikler ile etiket arasındaki ilişkide bir değişiklik. Kavram kayması zaman içinde modelin kalitesini düşürür.

Eğitim sırasında model, eğitim veri kümesindeki özellikler ile etiketleri arasındaki ilişkiyi öğrenir. Eğitim veri kümesindeki etiketler gerçek dünya için iyi birer proxy ise model gerçek dünyada iyi tahminler yapmalıdır. Ancak kavram kayması nedeniyle modelin tahminleri zaman içinde kötüleşme eğilimindedir.

Örneğin, belirli bir otomobil modelinin "yakıt tasarruflu" olup olmadığını tahmin eden bir ikili sınıflandırma modelini düşünün. Yani özellikler şunlar olabilir:

  • araç ağırlığı
  • motor sıkıştırması
  • transmission type

Etiket şu durumlarda:

  • yakıt verimliliği
  • yakıt verimliliği düşük

Ancak "yakıt tasarruflu araba" kavramı sürekli değişiyor. 1994'te yakıt tasarruflu olarak etiketlenen bir araç modeli, 2024'te neredeyse kesin olarak yakıt tasarruflu değil olarak etiketlenecektir. Kavram kayması yaşayan bir model, zaman içinde giderek daha az yararlı tahminler yapmaya eğilimlidir.

Değişkenlik ile karşılaştırma yapın.

koşul

#df

Karar ağacında, bir ifadeyi değerlendiren tüm düğümler. Örneğin, bir karar ağacının aşağıdaki kısmı iki koşul içerir:

İki koşuldan oluşan bir karar ağacı: (x > 0) ve (y > 0).

Koşullara gruplandırma veya test denir.

Yaprak ile kontrast koşulu.

Şuna da bakabilirsiniz:

Daha fazla bilgi için Karar Ağaçları kursunda Koşul türleri bölümüne bakın.

yalan söyleme

#language

Halüsinasyon ile eş anlamlıdır.

Sanrı, teknik açıdan halüsinasyondan daha doğru bir terimdir. Ancak halüsinasyon ilk olarak popüler oldu.

yapılandırma

Aşağıdakiler dahil olmak üzere bir modeli eğitmek için kullanılan ilk özellik değerlerini atama işlemi:

Makine öğrenimi projelerinde yapılandırma, özel bir yapılandırma dosyası aracılığıyla veya aşağıdaki gibi yapılandırma kitaplıkları kullanılarak yapılabilir:

doğrulama yanlılığı

#fairness

Bilgileri önceden var olan inançları veya hipotezleri doğrulayacak şekilde arama, yorumlama, tercih etme ve hatırlama eğilimi. Makine öğrenimi geliştiricileri, yanlışlıkla verileri mevcut inançlarını destekleyen bir sonucu etkileyecek şekilde toplayabilir veya etiketleyebilir. Doğrulama yanlılığı, örtülü önyargı biçimlerinden biridir.

Deneysel yanlılık, deneysel araştırmacının önceden var olan bir hipotez doğrulanana kadar modelleri eğitmeye devam ettiği bir doğrulama yanlılığı biçimidir.

karışıklık matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen NxN tablo. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin:

Tümör (tahmini) Tümör dışı (tahmini)
Tümör (kesin referans) 18 (TP) 1 (FN)
Tümör dışı (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisinde aşağıdakiler gösterilmektedir:

  • Kesin referansın tümör olduğu 19 tahminden 18'ini doğru, 1'ini yanlış sınıflandırmıştır.
  • Kesin referansın Non-Tumor (tümör olmayan) olduğu 458 tahminden model 452'sini doğru, 6'sını yanlış sınıflandırmıştır.

Çok sınıflı sınıflandırma sorunu için karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) kategorize eden 3 sınıflı çok sınıflı sınıflandırma modeli için aşağıdaki karışıklık matrisini inceleyin. Kesin referans Virginica olduğunda karışıklık matrisi, modelin yanlışlıkla Versicolor'u tahmin etme olasılığının Setosa'dan çok daha yüksek olduğunu gösterir:

  Setosa (tahmin edilen) Versicolor (tahmin edilen) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, karışıklık matrisi, el yazısı ile yazılmış rakamları tanımak için eğitilmiş bir modelin 4 yerine yanlışlıkla 9'u veya 7 yerine yanlışlıkla 1'i tahmin etme eğiliminde olduğunu gösterebilir.

Karıştırma matrisleri, kesinlik ve hatırlama dahil olmak üzere çeşitli performans metriklerini hesaplamak için yeterli bilgiyi içerir.

seçim bölgesi ayrıştırma

#language

Cümleyi daha küçük dil bilgisi yapılarına ("bileşenler") bölmek. ML sisteminin sonraki bir kısmı (ör. doğal dil anlama modeli) bileşenleri orijinal cümleden daha kolay ayrıştırabilir. Örneğin, aşağıdaki cümleyi ele alalım:

Arkadaşım iki kedi sahiplendi.

Seçim bölgesi ayrıştırıcısı bu cümleyi aşağıdaki iki bileşene ayırabilir:

  • Arkadaşım bir isim tamlamasıdır.
  • İki kedi sahiplendi bir fiil öbeğidir.

Bu bileşenler daha küçük bileşenlere ayrılabilir. Örneğin,

iki kedi sahiplendi

aşağıdaki alt kategorilere ayrılabilir:

  • adopted bir fiildir.
  • İki kedi de bir isim öbeğidir.

bağlama dayalı dil yerleştirme

#language
#generativeAI

Kelimeleri ve ifadeleri ana dili konuşan insanların anlayabileceği şekilde "anlamaya" yakın bir yerleşim. Bağlamsallaştırılmış dil embeddings'leri karmaşık söz dizimi, anlambilim ve bağlamı anlayabilir.

Örneğin, İngilizce cow kelimesinin yerleştirilmelerini ele alalım. word2vec gibi eski yerleştirmeler, İngilizce kelimeleri yerleşim alanında inek ile boğa arasındaki mesafenin koyun (dişi koyun) ile koç (erkek koyun) arasındaki mesafeye veya dişi ile erkek arasındaki mesafeye benzer olacak şekilde temsil edebilir. Bağlamsallaştırılmış dil embeddings'leri, İngilizce konuşan kişilerin bazen inek veya boğa anlamına gelen cow kelimesini gelişigüzel kullandığını fark ederek bir adım daha ileri gidebilir.

bağlam penceresi

#language
#generativeAI

Bir modelin belirli bir istemde işleyebileceği jeton sayısı. Bağlam penceresi ne kadar büyük olursa model, istem için tutarlı ve tutarlı yanıtlar sağlamak üzere o kadar fazla bilgi kullanabilir.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz bir olası değer aralığına sahip kayan noktalı bir özellik.

Bağımsız özellik ile karşılaştırın.

uygun örnekleme

Hızlı denemeler yapmak için bilimsel olarak toplanmamış bir veri kümesi kullanmak. Daha sonra, bilimsel olarak toplanmış bir veri kümesine geçmek önemlidir.

yakınsama

#fundamentals

Kayıp değerleri her yenidenleme ile çok az değiştiğinde veya hiç değişmediğinde ulaşılan durum. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 iterasyonda yakınsama olduğunu gösterir:

Kartezyen nokta grafiği. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısını gösterir. İlk birkaç iterasyonda kayıp çok yüksektir ancak keskin bir şekilde düşer. Yaklaşık 100 iterasyondan sonra kayıp azalmaya devam ediyor ancak bu süreç çok daha kademeli. Yaklaşık 700 iterasyondan sonra kayıp sabit kalır.

Ek eğitim modelin iyileşmesini sağlamadığında model toplanır.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya sonunda düşmeden önce birçok iterasyon boyunca neredeyse sabit kalır. Uzun süre boyunca sabit kayıp değerleri olduğunda geçici olarak yanlış bir yakınsama hissi edinebilirsiniz.

Erken durdurma hakkında da bilgi edinin.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Model yakınsama ve kayıp eğrileri bölümüne bakın.

dışbükey işlev

İşlevin grafiğinin üzerindeki bölgenin konveks bir küme olduğu bir işlev. Prototip dışbükey işlev, U harfine benzer bir şekle sahiptir. Örneğin, aşağıdakilerin tümü dışbükey işlevlerdir:

Her biri tek bir minimum noktaya sahip U şeklindeki eğriler.

Buna karşılık, aşağıdaki işlev dışbükey değildir. Grafiğin üzerindeki bölgenin dışbükey bir küme olmadığına dikkat edin:

İki farklı yerel minimum noktası olan W şeklinde bir eğri.

Kesinlikle dışbükey bir işlevin tam olarak bir yerel minimum noktası vardır ve bu nokta aynı zamanda genel minimum noktadır. Klasik U şeklindeki işlevler, kesinlikle dışbükey işlevlerdir. Ancak bazı dışbükey işlevler (ör. düz çizgiler) U şeklinde değildir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Yaklaşma ve dışbükey fonksiyonlar bölümüne bakın.

dışbükey optimizasyon

Kıvrımlı bir fonksiyonun minimum değerini bulmak için gradyan azalma gibi matematiksel tekniklerin kullanılması işlemi. Makine öğrenimiyle ilgili çok sayıda araştırma, çeşitli sorunları dışbükey optimizasyon sorunları olarak formüle etmeye ve bu sorunları daha verimli bir şekilde çözmeye odaklandı.

Ayrıntılı bilgi için Boyd ve Vandenberghe, Convex Optimi başlıklı makaleyi inceleyin.

dışbükey küme

Öklid uzayının, alt kümedeki herhangi iki nokta arasında çizilen bir çizginin tamamen alt küme içinde kalması gibi bir özelliği olan alt kümesi. Örneğin, aşağıdaki iki şekil dışbükey kümedir:

Dikdörtgen resmi. Ovalin başka bir resmi.

Buna karşılık, aşağıdaki iki şekil dışbükey küme değildir:

Dilim eksik olan bir pasta grafiği görseli.
          Düzensiz bir çokgenin başka bir resmi.

konvolüsyon

#image

Matematikte, iki işlevin karışımı olarak tanımlanabilir. Makine öğrenimindeki bir topoloji, ağırlıkları eğitmek için topolojik filtreyi ve giriş matrisini karıştırır.

Makine öğrenimindeki "toplama" terimi genellikle toplama işlemi veya toplama katmanı anlamına gelir.

Devrimler olmadan, bir makine öğrenimi algoritmasının büyük bir tenzor içindeki her hücre için ayrı bir ağırlık öğrenmesi gerekir. Örneğin, 2K x 2K resimlerle eğitilen bir makine öğrenimi algoritması 4 milyon ayrı ağırlık bulmak zorunda kalır. Devrimler sayesinde, makine öğrenimi algoritmasının yalnızca dönüşüm filtresindeki her hücrenin ağırlığını bulması gerekir. Bu da modeli eğitmek için gereken belleği önemli ölçüde azaltır. Devrimsel filtre uygulandığında, hücreler arasında kopyalanır ve her hücre filtreyle çarpılır.

Daha fazla bilgi için Resim Sınıflandırması kursundaki Derin Öğrenme ile Konvolüsyonel Sinir Ağları başlıklı makaleyi inceleyin.

konvolüsyon filtresi

#image

Dönüşüm işlemi'ndeki iki aktörden biri. (Diğer aktör, bir giriş matrisinin bir dilimidir.) Devrimsel filtre, giriş matrisiyle aynı sıralı ancak daha küçük bir şekle sahip bir matristir. Örneğin, 28x28 boyutunda bir giriş matrisi verildiğinde filtre, 28x28'den küçük herhangi bir 2D matris olabilir.

Fotoğrafta oynama işleminde, birleştirme filtresindeki tüm hücreler genellikle sabit bir birler ve sıfırlar desenine ayarlanır. Makine öğrenimindeki convolutional filtreler genellikle rastgele sayılarla başlatılır ve ardından ağ ideal değerleri eğitir.

Daha fazla bilgi için Resim Sınıflandırması kursunda Dönüşüm konusuna bakın.

konvolüsyon katmanı

#image

Evrişimli filtrenin bir giriş matrisinden geçtiği derin nöral ağ katmanı. Örneğin, aşağıdaki 3x3 dönüşüm filtresini ele alalım:

Aşağıdaki değerleri içeren 3x3 boyutunda bir matris: [[0,1,0], [1,0,1], [0,1,0]]

Aşağıdaki animasyonda, 5x5 giriş matrisini içeren 9 evrişim işleminden oluşan bir evrişim katmanı gösterilmektedir. Her konvolusyon işleminin, giriş matrisinin farklı bir 3x3 dilimiyle çalıştığını unutmayın. Elde edilen 3x3 matris (sağda), 9 konvolusyon işleminin sonuçlarından oluşur:

İki matrisi gösteren animasyon. İlk matris 5x5 matristir: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          İkinci matris 3x3 matristir:
          [[181,303,618], [115,338,605], [169,351,560]].
          İkinci matris, 5x5 matrisin farklı 3x3 alt kümelerine [[0, 1, 0], [1, 0, 1], [0, 1, 0]] convolutional filtresi uygulanarak hesaplanır.

Daha fazla bilgi için Resim Sınıflandırma kursundaki Tam Bağlantılı Katmanlar bölümüne bakın.

evrişimli nöral ağ

#image

En az bir katmanının evrişimli katman olduğu bir nöral ağ. Tipik bir konvolüsyonal sinir ağı, aşağıdaki katmanların bir kombinasyonundan oluşur:

Devrimsel sinir ağları, görüntü tanıma gibi belirli türde sorunlarda büyük başarı elde etmiştir.

konvolüsyon işlemi

#image

Aşağıdaki iki adımlı matematiksel işlem:

  1. Dönüşüm filtresinin ve giriş matrisinin bir diliminin öğe bazında çarpımı. (Giriş matrisinin dilimi, konvolusyon filtresiyle aynı rütbeye ve boyuta sahiptir.)
  2. Elde edilen ürün matrisindeki tüm değerlerin toplamı.

Örneğin, aşağıdaki 5x5 giriş matrisini ele alalım:

5x5 matris: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

Şimdi aşağıdaki 2x2 boyutunda bir konvolusyon filtresi olduğunu varsayalım:

2x2 matrisi: [[1, 0], [0, 1]]

Her konvolusyon işlemi, giriş matrisinin tek bir 2x2 diliminden oluşur. Örneğin, giriş matrisinin sol üst kısmındaki 2x2 dilimi kullandığımızı varsayalım. Bu nedenle, bu dilimdeki toplama işlemi aşağıdaki gibi görünür:

Giriş matrisinin sol üstteki 2x2 bölümüne [[1, 0], [0, 1]] konvolusyon filtresinin uygulanması. Bu bölüm [[128,97], [35,22]] şeklindedir.
          Devrimsel filtre, 128 ve 22 değerlerini olduğu gibi bırakır ancak 97 ve 35 değerlerini sıfıra Sonuç olarak, toplama işlemi 150 (128+22) değerini verir.

Dönüşüm katmanı, her biri giriş matrisinin farklı bir diliminde çalışan bir dizi dönüşüm işleminden oluşur.

maliyet

Kayıp ile eş anlamlıdır.

ortak eğitim

Yarı denetimli öğrenme yaklaşımı, özellikle aşağıdaki koşulların tümü geçerli olduğunda yararlıdır:

Ortak eğitim, bağımsız sinyalleri daha güçlü bir sinyale dönüştürür. Örneğin, ikinci el araçları İyi veya Kötü olarak sınıflandıran bir sınıflandırma modelini düşünün. Bir tahmine dayalı özellik grubu, aracın yılı, markası ve modeli gibi toplu özelliklere odaklanırken başka bir tahmine dayalı özellik grubu, önceki sahibin sürüş geçmişine ve aracın bakım geçmişine odaklanabilir.

Ortak eğitimle ilgili temel makale, Blum ve Mitchell tarafından yazılan Combining Labeled and Unlabeled Data with Co-Training (Etiketlenmiş ve Etiketlenmemiş Verileri Ortak Eğitimle Birleştirme) makalesidir.

karşıt gerçeklik adaleti

#fairness

Bir sınıflandırıcının, bir veya daha fazla hassas özellik dışında, bir kişi için ilk kişiyle aynı olan başka bir kişi için aynı sonucu verip vermediğini kontrol eden bir adaletlilik metriği. Bir sınıflandırıcıyı karşıt gerçeklik adaleti açısından değerlendirmek, bir modeldeki olası önyargı kaynaklarını ortaya çıkarmanın yöntemlerinden biridir.

Daha fazla bilgi için aşağıdakilerden birini inceleyin:

kapsam yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

kilitlenme çiçeği

#language

Anlamı belirsiz bir cümle veya kelime öbeği. Kilitlenme çiçekleri, doğal dil anlama konusunda önemli bir sorun teşkil eder. Örneğin, Kırmızı Kurdele Gökdeleni Engelliyor başlığı, bir NLU modelinin başlığı kelimenin tam anlamıyla veya mecazi olarak yorumlayabileceği için kilitlenme çiçeğidir.

eleştirmen

#rl

Derin Q Ağı ile eş anlamlıdır.

çapraz entropi

Log kaybının çok sınıflı sınıflandırma sorunları için genelleştirilmiş hali. Çapraz entropi, iki olasılık dağılımı arasındaki farkı ölçer. Ayrıca şaşkınlık konusuna da bakın.

çapraz doğrulama

Bir modelin, eğitim veri kümesinden hariç tutulan bir veya daha fazla çakışmayan veri alt kümesiyle test edilerek yeni verilere ne kadar iyi genelleştirileceğini tahmin eden bir mekanizma.

Kümülatif dağılım işlevi (KDF)

Hedef değere eşit veya hedef değerden küçük örneklerin sıklığını tanımlayan bir işlev. Örneğin, sürekli değerlerin normal dağılımını düşünün. CDF, örneklerin yaklaşık% 50'sinin ortalamadan az veya ortalamaya eşit, örneklerin yaklaşık% 84'ünün ise ortalamanın bir standart sapma üzerinde veya bu değere eşit olması gerektiğini gösterir.

D

veri analizi

Örnekleri, ölçümü ve görselleştirmeyi dikkate alarak verileri anlama Veri analizi, özellikle bir veri kümesi ilk kez alındığında, ilk model oluşturulmadan önce yararlı olabilir. Ayrıca, denemeleri anlama ve sistemle ilgili sorunları giderme açısından da önemlidir.

Veri artırma

#image

Mevcut örneklerin dönüştürülmesiyle ek örnekler oluşturmak için eğitim örneklerinin aralığını ve sayısını yapay olarak artırma. Örneğin, resimlerin özelliklerinizden biri olduğunu ancak veri kümenizin, modelin yararlı ilişkilendirmeler öğrenmesi için yeterli resim örneği içermediğini varsayalım. İdeal olarak, modelinizin düzgün bir şekilde eğitilebilmesi için veri kümenize yeterli miktarda etiketlenmiş resim eklemeniz gerekir. Bu mümkün değilse veri artırma, her resmi döndürerek, uzatarak ve yansıtarak orijinal resmin birçok varyantını oluşturabilir. Bu sayede, mükemmel bir eğitim için yeterli sayıda etiketli veri elde edebilirsiniz.

DataFrame

#fundamentals

Bellekteki veri kümelerini temsil etmek için kullanılan popüler bir pandas veri türü.

Veri çerçevesi, bir tabloya veya e-tabloya benzer. Bir DataFrame'in her sütununun bir adı (başlığı) vardır ve her satır benzersiz bir sayıyla tanımlanır.

Bir DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Bununla birlikte, her sütuna kendi veri türü atanabilir.

Ayrıca resmi pandas.DataFrame referans sayfasına göz atın.

veri paralelliği

Modelin tamamını birden fazla cihaza kopyalayıp ardından giriş verilerinin bir alt kümesini her cihaza aktaran eğitim veya tahmine ölçeklendirme yöntemi. Veri paralelliği, çok büyük toplu boyutlarında eğitim ve çıkarım yapılmasını sağlayabilir. Ancak veri paralelliği için modelin tüm cihazlara sığacak kadar küçük olması gerekir.

Veri paralelliği genellikle eğitimi ve çıkarım yapmayı hızlandırır.

Model paralelliği hakkında da bilgi edinin.

Dataset API (tf.data)

#TensorFlow

Verileri okuyup makine öğrenimi algoritmasının gerektirdiği bir biçime dönüştürmek için kullanılan yüksek düzey bir TensorFlow API'si. tf.data.Dataset nesnesi, her öğenin bir veya daha fazla Tenzor içerdiği bir öğe dizisi temsil eder. tf.data.Iterator nesnesi, Dataset öğelerine erişim sağlar.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak yalnızca değil) aşağıdaki biçimlerden birinde düzenlenen ham veri koleksiyonu:

  • bir e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

karar sınırı

İkili sınıf veya çok sınıflı sınıflandırma sorunlarında bir model tarafından öğrenilen sınıflar arasındaki ayırıcı. Örneğin, ikili sınıflandırma problemini gösteren aşağıdaki resimde karar sınırı, turuncu sınıf ile mavi sınıf arasındaki sınırdır:

Bir sınıf ile diğeri arasında iyi tanımlanmış bir sınır.

karar ormanı

#df

Birden fazla karar ağacından oluşturulmuş bir model. Karar ormanı, karar ağaçlarının tahminlerini toplayarak tahmin yapar. Popüler karar ağacı türleri arasında rastgele ormanlar ve gradyan artırmalı ağaçlar yer alır.

Daha fazla bilgi için Karar Ağaçları kursunun Karar Ağaçları bölümüne bakın.

karar eşiği

Sınıflandırma eşiği ile eş anlamlıdır.

karar ağacı

#df

Hiyerarşik olarak düzenlenmiş bir dizi koşul ve yaprak içeren denetimli bir öğrenme modeli. Örneğin, aşağıdaki bir karar ağacıdır:

Hiyerarşik olarak düzenlenmiş dört koşuldan oluşan ve beş yaprağa yol açan bir karar ağacı.

kod çözücü

#language

Genel olarak, işlenmiş, yoğun veya dahili bir temsilden daha ham, seyrek veya harici bir temsile dönüştüren herhangi bir yapay zeka sistemidir.

Kod çözücüler genellikle daha büyük bir modelin bileşenidir ve sıklıkla bir kodlayıcı ile birlikte kullanılır.

Diziden diziye görevlerde kod çözücü, sonraki diziyi tahmin etmek için kodlayıcı tarafından oluşturulan dahili durumla başlar.

Dönüştürücü mimarisindeki kod çözücünün tanımı için Transformer başlıklı makaleyi inceleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri bölümüne bakın.

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin modeller derin nöral ağ olarak da adlandırılır.

Geniş model ile kontrast.

derin sinir ağı : derin nöral ağ

Derin model ile eş anlamlıdır.

Deep Q-Network (DQN)

#rl

Q-öğrenme'de, Q işlevlerini tahmin eden derin bir sinir ağı.

Eleştirici, Deep Q ağının eş anlamlısıdır.

demografik eşitlik

#fairness

Bir modelin sınıflandırmasının sonuçları belirli bir hassas özelliğe bağlı değilse karşılanan bir adaletlilik metriği.

Örneğin, hem Lilliputlular hem de Brobdingnaglılar Glubbdubdrib Üniversitesi'ne başvurursa, bir grubun diğerinden ortalama olarak daha nitelikli olup olmadığına bakılmaksızın, kabul edilen Lilliputlular yüzdesi ile kabul edilen Brobdingnaglılar yüzdesi aynıysa demografik eşitlik sağlanır.

Eşit olasılıklar ve fırsat eşitliği ile karşılaştırıldığında, toplu sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin verir ancak belirli belirtilen gerçek doğruluk etiketlerinin sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin vermez. Demografik eşitlik için optimizasyon yaparken yapılan ödünleri gösteren bir görselleştirme için "Daha akıllı makine öğrenimiyle ayrımcılığa karşı mücadele etme" başlıklı makaleyi inceleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: demografik eşitlik bölümüne bakın.

gürültü giderme

#language

Aşağıdakileri içeren kendi kendini denetleyen öğrenme için yaygın bir yaklaşım:

  1. Veri kümesine yapay olarak gürültü eklenir.
  2. Model gürültüyü kaldırmaya çalışır.

Gürültü giderme, etiketlenmemiş örneklerden öğrenmeyi sağlar. Orijinal veri kümesi hedef veya etiket, gürültülü veriler ise giriş olarak kullanılır.

Bazı maskeli dil modelleri, gürültü giderme işlemini aşağıdaki gibi kullanır:

  1. İşaretlenmemiş bir cümleye, jetonların bazıları maskelenerek yapay olarak gürültü eklenir.
  2. Model, orijinal jetonları tahmin etmeye çalışır.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tamamının sıfır olmayan bir özellik (genellikle kayan nokta değerlerinin tenzoru). Örneğin, aşağıdaki 10 öğeli tenör, 9 değeri sıfırdan farklı olduğu için yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile karşılaştırın.

yoğun katman

Tamamen bağlı katman ile eş anlamlıdır.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağın derinliği 6'dır.

Giriş katmanının derinliği etkilemediğini unutmayın.

derinlik yönünde ayrılabilir evrişimli nöral ağ (sepCNN)

#image

Inception'a dayalı ancak Inception modüllerinin derinlik yönünde ayrılabilir konvolusyonlarla değiştirildiği bir konvolüsyonel nöral ağ mimarisi. Xception olarak da bilinir.

Derinlik yönünde ayrılabilir birleştirme (ayrıca ayrılabilir birleştirme olarak kısaltılır), standart bir 3D birleştirme işlemini daha hesaplama açısından verimli olan iki ayrı birleştirme işlemine ayırır: birincisi, 1 derinliğe (n ✕ n ✕ 1) sahip derinlik yönünde birleştirme, ikincisi ise 1 uzunluk ve genişliğe (1 ✕ 1 ✕ n) sahip noktasal birleştirme.

Daha fazla bilgi için Xception: Depthwise Separable Convolutions ile Derin Öğrenme başlıklı makaleyi inceleyin.

türetilmiş etiket

Proxy etiketi ile eş anlamlıdır.

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımı olan aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir ML modeli eğitirken tenzorları ve yerleşimlerini gerçekten işleyen sistem bölümü. Cihaz, hızlandırıcı çiplerle çalışır. Buna karşılık, ana makine genellikle bir CPU'da çalışır.

diferansiyel gizlilik

Makine öğrenimindeki bir anonimleştirme yaklaşımı. Modelin eğitim veri kümesinde yer alan hassas verileri (ör. bir kişinin kişisel bilgileri) açığa çıkmaktan korur. Bu yaklaşım, modelin belirli bir kişi hakkında çok fazla bilgi edinmemesini veya hatırlamamasını sağlar. Bu, model eğitimi sırasında veri noktalarını gizlemek için örnekleme ve gürültü ekleyerek yapılır. Böylece hassas eğitim verilerinin açığa çıkma riski azaltılır.

Diferansiyel gizlilik, makine öğreniminin dışında da kullanılır. Örneğin, veri bilimciler bazen farklı demografik gruplara ait ürün kullanım istatistiklerini hesaplarken bireysel gizliliği korumak için diferansiyel gizliliği kullanır.

boyut azaltma

Genellikle gömülü vektör'e dönüştürerek bir özellik vektöründe belirli bir özelliği temsil etmek için kullanılan boyut sayısını azaltma.

boyutlar

Aşağıdaki tanımlardan herhangi birine sahip aşırı yüklenmiş terim:

  • Tensor'deki koordinat düzeylerinin sayısı. Örneğin:

    • Skalerlerin boyutu sıfırdır (ör. ["Hello"]).
    • Bir vektörün bir boyutu vardır (ör. [3, 5, 7, 11]).
    • Matrislerin iki boyutu vardır (ör. [[2, 4, 18], [5, 7, 14]]). Tek boyutlu bir vektörde belirli bir hücreyi tek bir koordinatla benzersiz şekilde belirtebilirsiniz. İki boyutlu bir matriste belirli bir hücreyi benzersiz şekilde belirtmek için iki koordinata ihtiyacınız vardır.
  • Özellik vektöründeki girişlerin sayısı.

  • Bir yerleştirme katmanındaki öğe sayısı.

doğrudan istem

#language
#generativeAI

Sıfır görevli istem ile eş anlamlıdır.

ayrık özellik

#fundamentals

Sonlu sayıda olası değere sahip bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilecek bir özellik ayrık (veya kategorik) bir özelliktir.

Sürekli özellik ile karşılaştırın.

ayırt edici model

Bir veya daha fazla özellikten etiketleri tahmin eden bir model. Daha resmi bir ifadeyle, ayırt edici modeller, özellikler ve ağırlıklar göz önüne alındığında bir çıktının koşullu olasılığını tanımlar. Yani:

p(output | features, weights)

Örneğin, bir e-postanın spam olup olmadığını özellikler ve ağırlıklardan tahmin eden bir model ayırt edici bir modeldir.

Sınıflandırma ve regresyon modelleri dahil olmak üzere gözetimli öğrenme modellerinin büyük çoğunluğu ayırt edici modellerdir.

Üretken model ile karşılaştırın.

ayırıcı

Örnekler'in gerçek mi yoksa sahte mi olduğunu belirleyen bir sistem.

Alternatif olarak, üretken zıt ağ içindeki alt sistem, üretici tarafından oluşturulan örneklerin gerçek mi yoksa sahte mi olduğunu belirler.

Daha fazla bilgi için GAN kursundaki Ayırt edici bölümüne bakın.

farklı etki

#fairness

Farklı nüfus alt gruplarını orantısız bir şekilde etkileyen kararlar almak Bu genellikle, algoritmik karar verme sürecinin bazı alt gruplara diğerlerinden daha fazla zarar verdiği veya bu gruplara diğerlerinden daha fazla fayda sağladığı durumları ifade eder.

Örneğin, bir Lilliputian'ın minyatür ev kredisi almaya uygunluğunu belirleyen bir algoritmanın, posta adresi belirli bir posta kodunu içeriyorsa kullanıcıyı "uygun değil" olarak sınıflandırma olasılığının daha yüksek olduğunu varsayalım. Büyük endian Lilliputians'ın bu posta koduna sahip posta adreslerine sahip olma olasılığı küçük endian Lilliputians'a kıyasla daha yüksekse bu algoritma farklı bir etkiyle sonuçlanabilir.

Alt grup özellikleri algoritmik bir karar verme sürecine açık girişler olduğunda ortaya çıkan farklılıklara odaklanan farklı muamele ile karşılaştırın.

farklı muamele

#fairness

Kişilerin hassas özelliklerini algoritmik bir karar verme sürecine dahil ederek farklı insan alt gruplarına farklı şekilde davranılması.

Örneğin, Lilliputian'ların kredi başvurularında sağladıkları verilere göre minyatür ev kredisi almaya uygunluklarını belirleyen bir algoritma düşünün. Algoritma, girdi olarak Lilliputian'ın Big-Endian veya Little-Endian olarak ilişkisini kullanıyorsa bu boyut boyunca farklı bir işlem gerçekleştiriyor demektir.

Bu, algoritmik kararların alt gruplar üzerindeki toplumsal etkilerindeki farklılıklara odaklanan farklı etkiye kıyasla farklıdır. Bu alt gruplar, modele giriş olup olmadığına bakılmaksızın dikkate alınır.

damıtma

#generativeAI

Bir modelin (öğretmen olarak bilinir) boyutunu, orijinal modelin tahminlerini olabildiğince doğru bir şekilde taklit eden daha küçük bir modele (öğrenci olarak bilinir) indirgeme işlemi. Küçük modelin büyük modele (öğretmen) kıyasla iki önemli avantajı olduğundan damıtma faydalıdır:

  • Daha hızlı çıkarım süresi
  • Azaltılmış bellek ve enerji kullanımı

Ancak öğrencinin tahminleri genellikle öğretmenin tahminleri kadar iyi değildir.

Damıtma, öğrenci modelini öğrenci ve öğretmen modellerinin tahminlerinin çıkışları arasındaki fark temel alınarak bir kayıp fonksiyonunu en aza indirecek şekilde eğitir.

Damıtma işlemini aşağıdaki terimlerle karşılaştırın ve ayırt edin:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki LLM'ler: İnce ayar, damıtma ve istem mühendisliği bölümüne bakın.

distribution

Belirli bir özellik veya etiket için farklı değerlerin sıklığı ve aralığı. Dağılım, belirli bir değerin ne kadar olası olduğunu gösterir.

Aşağıdaki resimde iki farklı dağılımın histogramları gösterilmektedir:

  • Solda, zenginliğin güç yasası dağılımı ve bu zenginliğe sahip olan kişi sayısı gösterilmektedir.
  • Sağ tarafta, boya göre normal dağılım ve bu boya sahip kişi sayısı gösterilmektedir.

İki histogram. Bir histogramde, x ekseninde servet ve y ekseninde bu servete sahip olan kişi sayısıyla birlikte bir güç yasası dağılımı gösterilir. Çoğu insanın çok az mülkü varken birkaç kişinin çok fazla mülkü vardır. Diğer histogramde, x ekseninde boy, y ekseninde ise bu boya sahip kişilerin sayısı olan normal bir dağılım gösterilmektedir. Çoğu kullanıcı ortalamaya yakın bir yerde toplanmıştır.

Her bir özelliğin ve etiketin dağılımını anlamak, değerleri nasıl normalleştireceğinizi ve ayrık değerleri nasıl tespit edeceğinizi belirlemenize yardımcı olabilir.

Dağıtım dışı ifadesi, veri kümesinde görünmeyen veya çok nadir görülen bir değeri ifade eder. Örneğin, Satürn gezegeninin resmi, kedi resimlerinden oluşan bir veri kümesi için dağıtım dışında kabul edilir.

Bölme kümeleme

#clustering

Hiyerarşik kümelenme konusuna bakın.

örneklemeyi azaltma

#image

Aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş terim:

  • Bir modeli daha verimli bir şekilde eğitmek için özellikteki bilgi miktarını azaltma. Örneğin, bir resim tanıma modelini eğitmeden önce yüksek çözünürlüklü resimleri daha düşük çözünürlüklü bir biçime indirgeme.
  • Yeterince temsil edilmeyen sınıflarda model eğitimini iyileştirmek için orantısız olarak düşük bir yüzdede fazla temsil edilen sınıf örnekleriyle eğitim Örneğin, sınıf dengesi bozuk bir veri kümesinde modeller çoğunluk sınıfı hakkında çok şey öğrenir ve azınlık sınıfı hakkında yeterince bilgi edinmez. Örnek sayısını azaltmak, çoğunluk ve azınlık sınıflarındaki eğitim miktarını dengelemeye yardımcı olur.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri kümeleri: Dengesiz veri kümeleri bölümüne bakın.

DQN

#rl

Derin Q Ağı kısaltması.

atlama normalleştirmesi

Nöral ağları eğitirken faydalı olan bir düzenleme biçimidir. Düşmeyle normalleştirme, tek bir gradyan adımı için ağ katmanındaki sabit sayıda birimin rastgele bir seçimini kaldırır. Düşürülen birim sayısı ne kadar fazlaysa normalleştirme o kadar güçlü olur. Bu, ağı, küçük ağlardan oluşan ve katlanarak büyüyen bir toplu taklit edecek şekilde eğitmeye benzer. Ayrıntılı bilgi için Dropout: A Simple Way to Prevent Neural Networks from Overfitting (Dropout: Sinir Ağlarının Aşırı Uyumlanmasını Önlemenin Basit Bir Yolu) başlıklı makaleyi inceleyin.

dinamik

#fundamentals

Sık sık veya sürekli olarak yapılan bir işlem. Dinamik ve online terimleri makine öğrenimindeki eş anlamlı kelimelerdir. Makine öğrenimindeki dinamik ve online terimlerinin yaygın kullanım alanları şunlardır:

  • Dinamik model (veya online model), sık sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık sık veya sürekli olarak eğitim verme sürecidir.
  • Dinamik çıkarım (veya online çıkarım), talep üzerine tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli olarak) yeniden eğitilen bir model. Dinamik modeller, sürekli olarak değişen verilere uyum sağlayan "ömür boyu öğrenen" modellerdir. Dinamik modeller online model olarak da bilinir.

Statik model ile kontrast oluşturur.

E

anında yürütme

#TensorFlow

İşlemlerin hemen çalıştığı bir TensorFlow programlama ortamı. Buna karşılık, grafik yürütme sırasında çağrılan işlemler açıkça değerlendirilene kadar çalıştırılmaz. İstenmeden yürütme, çoğu programlama dilindeki koda benzer şekilde zorunlu bir arayüzdür. İsteksiz yürütme programlarında genellikle hata ayıklama işlemi, grafik yürütme programlarına kıyasla çok daha kolaydır.

erken durdurma

#fundamentals

Eğitim kaybının düşmesi bitmeden eğitimi sonlandırmayı içeren bir düzenleme yöntemi. Erken durdurma işleminde, doğrulama veri kümesinde kayıp artmaya başladığında, yani genelleştirme performansı kötüleştiğinde modeli eğitmeyi kasıtlı olarak durdurursunuz.

toprak işleyicinin mesafesi (EMD)

İki dağılımın göreli benzerliğinin ölçümüdür. Toprağı hareket ettiren aracın mesafesi ne kadar düşükse dağılımlar o kadar benzer olur.

mesafeyi düzenleme

#language

İki metin dizesinin birbirine ne kadar benzediğinin ölçümü. Makine öğrenimindeki düzenleme mesafesi şu nedenlerle yararlıdır:

  • Düzenleme mesafesinin hesaplanması kolaydır.
  • Düzenleme mesafesi, birbirine benzer olduğu bilinen iki dizeyi karşılaştırabilir.
  • Düzenleme mesafesi, farklı dizelerin belirli bir dizeye ne kadar benzediğini belirleyebilir.

Düzenleme mesafesinin her biri farklı dize işlemleri kullanan birkaç tanımı vardır. Örnek için Levenshtein mesafesi başlıklı makaleyi inceleyin.

Einsum gösterimi

İki tensör'ün nasıl birleştirileceğini açıklamak için kullanılan etkili bir gösterim. Tensörler, bir tensörün öğelerinin diğer tensörün öğeleriyle çarpılması ve ardından çarpımlarının toplanması yoluyla birleştirilir. Einsum gösterimi, her tensörün eksenlerini tanımlamak için semboller kullanır ve bu semboller, ortaya çıkan yeni tensörün şeklini belirtmek için yeniden düzenlenir.

NumPy, yaygın bir Einsum uygulaması sağlar.

yerleştirme katmanı

#language
#fundamentals

Kademeli olarak daha düşük boyutlu bir yerleştirme vektörü öğrenmek için yüksek boyutlu bir kategorik özellikte eğitilen özel bir gizli katman. Yerleşim katmanı, bir nöral ağın yalnızca yüksek boyutlu kategorik özellikte eğitilmesine kıyasla çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türünün modelinizde bir özellik olduğunu varsayalım. Bu durumda, modelinizin giriş katmanı 73.000 öğe uzunluğunda bir tek sıcaklık vektörü içerir. Örneğin, baobab şu şekilde gösterilebilir:

73.000 öğe içeren bir dizi. İlk 6.232 öğe 0 değerini içerir. Sonraki öğe 1 değerini içerir. Son 66.767 öğe sıfır değerini içerir.

73.000 öğe içeren bir dizi çok uzundur. Modele bir yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpılması nedeniyle eğitim çok zaman alır. Yerleştirme katmanını 12 boyuttan oluşacak şekilde seçebilirsiniz. Sonuç olarak, yerleştirme katmanı her ağaç türü için kademeli olarak yeni bir yerleştirme vektörü öğrenir.

Belirli durumlarda, karma oluşturma, yerleştirme katmanına makul bir alternatiftir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Embedding'ler bölümüne bakın.

yerleştirme alanı

#language

Daha yüksek boyutlu bir vektör alanından gelen özelliklerin eşlendiği d boyutlu vektör alanı. Yerleştirme alanı, amaçlanan uygulama için anlamlı olan yapıyı yakalayacak şekilde eğitilir.

İki yerleştirmenin nokta çarpımı, benzerliklerinin bir ölçüsüdür.

yerleştirme vektörü

#language

Genel olarak, herhangi bir gizli katmandan alınan ve bu gizli katmanın girişlerini tanımlayan bir kayan noktalı sayı dizisidir. Yerleştirme vektörü genellikle bir yerleştirme katmanında eğitilen kayan noktalı sayı dizisidir. Örneğin, bir yerleştirme katmanının Dünya'daki 73.000 ağaç türünün her biri için bir yerleştirme vektörü öğrenmesi gerektiğini varsayalım. Aşağıdaki dizi, bir baobab ağacının yerleştirme vektörü olabilir:

Her biri 0,0 ile 1,0 arasında bir kayan nokta sayısı içeren 12 öğeden oluşan bir dizi.

Yerleştirme vektörü, rastgele sayılardan oluşan bir grup değildir. Bir yerleştirme katmanı, eğitim sırasında sinir ağının diğer ağırlıkları öğrenme şekline benzer şekilde bu değerleri eğitim yoluyla belirler. Dizenin her bir öğesi, bir ağaç türünün bazı özelliklerine göre bir derecelendirmedir. Hangi öğe hangi ağaç türünün özelliğini temsil eder? Bu, insanların belirlemesi çok zordur.

Bir yerleştirme vektörünün matematiksel açıdan dikkate değer kısmı, benzer öğelerin benzer kayan noktalı sayı kümelerine sahip olmasıdır. Örneğin, benzer ağaç türleri, benzer olmayan ağaç türlerine kıyasla daha benzer bir kayan noktalı sayı grubuna sahiptir. Sekoya ve sekoya ağacı, birbirine yakın ağaç türleridir. Bu nedenle, sekoya ve hindistancevizi ağacına kıyasla daha benzer bir kayan noktalı sayı grubuna sahiptirler. Modeli aynı girişle yeniden eğitseniz bile, yerleştirme vektöründeki sayılar modeli her yeniden eğittiğinizde değişir.

deneysel kümülatif dağılım işlevi (eCDF veya EDF)

Gerçek bir veri kümesinden alınan deneysel ölçümlere dayalı bir kümülatif dağılım fonksiyonu. x eksenindeki herhangi bir noktada işlevin değeri, veri kümesindeki gözlemlerin belirtilen değerden az veya eşit olan kesridir.

deneysel risk azaltma (ERM)

Eğitim veri kümesinde kaybı en aza indiren işlevi seçme. Yapısal risk azaltma ile karşılaştırın.

kodlayıcı

#language

Genel olarak, ham, seyrek veya harici bir temsili daha işlenmiş, daha yoğun veya daha dahili bir temsile dönüştüren herhangi bir yapay zeka sistemidir.

Kodlayıcılar genellikle daha büyük bir modelin bileşenidir ve sıklıkla bir kod çözücü ile birlikte kullanılır. Bazı Transformer'lar kodlayıcıları kod çözücülerle eşlerken diğerleri yalnızca kodlayıcıyı veya yalnızca kod çözücüyü kullanır.

Bazı sistemler, kodlayıcının çıkışını sınıflandırma veya regresyon ağının girişi olarak kullanır.

Diziden diziye görevlerde kodlayıcı, giriş dizisini alır ve dahili bir durum (vektör) döndürür. Ardından kod çözücü, sonraki sırayı tahmin etmek için bu dahili durumu kullanır.

Dönüştürücü mimarisinde kodlayıcının tanımı için Transformer başlıklı makaleyi inceleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki LLM'ler: Büyük dil modeli nedir? başlıklı makaleyi inceleyin.

topluluk

Bağımsız olarak eğitilen ve tahminlerinin ortalaması veya toplaması alınan modeller koleksiyonu. Çoğu durumda, bir topluluk tek bir modelden daha iyi tahminler üretir. Örneğin, rastgele orman, birden fazla karar ağacından oluşan bir topluluktur. Tüm karar ormanlarının bir araya getirilmiş modeller olmadığını unutmayın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Random Forest bölümüne bakın.

entropi

#df

Bilgi teorisinde, olasılık dağılımının ne kadar tahmin edilemez olduğunun açıklaması. Alternatif olarak entropi, her örnek'in ne kadar bilgi içerdiği olarak da tanımlanır. Bir rastgele değişkenin tüm değerlerinin olasılığı eşit olduğunda dağılım mümkün olan en yüksek entropi değerine sahiptir.

"0" ve "1" olmak üzere iki olası değere sahip bir kümenin entropisi (örneğin, ikili sınıflandırma problemindeki etiketler) aşağıdaki formüle sahiptir:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

Bu örnekte:

  • H entropidir.
  • p, "1" örneklerinin kesridir.
  • q, "0" örneklerinin kesridir. q = (1 - p) olduğunu unutmayın.
  • log genellikle log2'dir. Bu durumda entropi birimi bittir.

Örneğin, aşağıdakileri varsayalım:

  • 100 örnek "1" değerini içerir
  • 300 örnek "0" değerini içeriyor

Bu nedenle, entropi değeri:

  • p = 0,25
  • q = 0,75
  • H = (-0,25)log2(0,25) - (0,75)log2(0,75) = örnek başına 0,81 bit

Mükemmel şekilde dengelenmiş bir kümenin (örneğin, 200 "0" ve 200 "1") örnek başına entropisi 1,0 bit olur. Bir veri kümesi dengeli olmaktan uzaklaştıkça entropisi 0, 0'a doğru hareket eder.

Karar ağaçlarında entropi, sınıflandırma karar ağacının büyümesi sırasında ayırıcı'nın koşulları seçmesine yardımcı olmak için bilgi kazancı oluşturmaya yardımcı olur.

Entropiyi şu verilerle karşılaştırın:

Entropi genellikle Shannon entropisi olarak adlandırılır.

Daha fazla bilgi için Karar Ağaçları kursunda Sayısal özelliklere sahip ikili sınıflandırma için tam bölücü bölümüne bakın.

ortam

#rl

Güçlendirme öğrenimi, aracı içeren ve aracının bu dünyanın durumunu gözlemlemesine olanak tanıyan dünyadır. Örneğin, temsil edilen dünya satranç gibi bir oyun veya labirent gibi fiziksel bir dünya olabilir. Temsilci, ortama bir işlem uyguladığında ortam, durumlar arasında geçiş yapar.

bölüm

#rl

Güçlendirme öğrenimi sürecinde, öğrenen tarafından ortamı öğrenmek için yapılan her deneme.

sıfır zaman

#fundamentals

Her örnek bir kez işlenecek şekilde eğitim veri kümesinin tamamında tam eğitim geçişi.

Bir dönem, N/toplu boyut eğitim iterasyonunu temsil eder. Burada N, toplam örnek sayısıdır.

Örneğin, aşağıdakileri varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Paket boyutu 50 örnektir.

Bu nedenle, tek bir epoch için 20 iterasyon gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

epsilon açgözlü politikası

#rl

Güçlendirme öğrenimi, epsilon olasılığıyla rastgele bir politika veya aksi takdirde açgözlü bir politika izleyen bir politikadır. Örneğin, epsilon 0,9 ise politika, zamanın% 90'ında rastgele bir politika ve zamanın% 10'unda açgözlü bir politika izler.

Algoritma, rastgele bir politikayı izlemekten açgözlü bir politikayı izlemeye geçmek için art arda bölümler boyunca epsilon değerini azaltır. Politikayı değiştirerek, temsilci önce ortamı rastgele keşfeder ve ardından rastgele keşfin sonuçlarından açgözlü bir şekilde yararlanır.

fırsat eşitliği

#fairness

Bir modelin, hassas bir özelliğin tüm değerleri için istenen sonucu eşit derecede iyi tahmin edip etmediğini değerlendirmek üzere kullanılan bir adaletlilik metriği. Diğer bir deyişle, bir model için istenen sonuç pozitif sınıf ise hedef, gerçek pozitif oranının tüm gruplar için aynı olmasını sağlamaktır.

Fırsat eşitliği, eşitleştirilmiş olasılıklar ile ilgilidir. Bu, hem gerçek pozitif oranlarının hem de yanlış pozitif oranlarının tüm gruplar için aynı olmasını gerektirir.

Glubbdubdrib Üniversitesi'nin hem Lilliputian'ları hem de Brobdingnag'ları titiz bir matematik programına kabul ettiğini varsayalım. Lilliput'un ortaokullarında zengin bir matematik müfredatı sunulur ve öğrencilerin büyük çoğunluğu üniversite programına uygundur. Brobdingnag'ın ortaokullarında matematik dersleri hiç verilmez. Bu nedenle, öğrencilerinin çok azı bu programa uygundur. Lilliputian veya Brobdingnagian olmalarına bakılmaksızın, uygun öğrencilerin kabul edilme olasılığı eşitse vatandaşlığa göre tercih edilen "kabul edildi" etiketi için fırsat eşitliği sağlanır.

Örneğin, Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki gibi alındığını varsayalım:

Tablo 1. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 3
Reddedildi 45 7
Toplam 90 10
Kabul edilen uygun öğrencilerin yüzdesi: 45/90 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 7/10 =%70
Kabul edilen Lilliputian öğrencilerin toplam yüzdesi: (45+3)/100 = %48

 

Tablo 2. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 9
Reddedildi 5 81
Toplam 10 90
Kabul edilen uygun öğrencilerin yüzdesi: 5/10 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 81/90 =%90
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+9)/100 = %14

Yukarıdaki örneklerde, uygun Lilliput ve Brobdingnag vatandaşlarının kabul edilme şansı% 50 olduğundan uygun öğrencilerin kabulü için fırsat eşitliği sağlanmaktadır.

Fırsat eşitliği sağlanmış olsa da aşağıdaki iki adalet metriği sağlanmamıştır:

  • Demografik eşitlik: Lilliput ve Brobdingnag sakinleri üniversiteye farklı oranlarda kabul edilir. Lilliput sakinlerinin% 48'i, Brobdingnag sakinlerinin ise yalnızca% 14'ü kabul edilir.
  • Eşit olasılıklar: Uygun Lilliput ve Brobdingnag öğrencilerinin kabul edilme şansı aynı olsa da, uygun olmayan Lilliput ve Brobdingnag öğrencilerinin reddedilme şansının da aynı olması koşulu karşılanmaz. Uygun olmayan Lilliputian'ların ret oranı% 70 iken uygun olmayan Brobdingnag'ların ret oranı% 90'tır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: Fırsat eşitliği bölümüne bakın.

eşitlenmiş oranlar

#fairness

Bir modelin, yalnızca bir sınıfa değil, hem pozitif sınıf hem de negatif sınıf ile ilgili olarak hassas bir özelliğin tüm değerleri için sonuçları eşit derecede iyi tahmin edip etmediğini değerlendirmek üzere kullanılan adalet metriği. Diğer bir deyişle, hem doğru pozitif oranı hem de yanlış negatif oranı tüm gruplar için aynı olmalıdır.

Eşitlenmiş oranlar, yalnızca tek bir sınıfın (pozitif veya negatif) hata oranlarına odaklanan fırsat eşitliği ile ilgilidir.

Örneğin, Glubbdubdrib Üniversitesi'nin hem Lilliputluları hem de Brobdingnaglıları sıkı bir matematik programına kabul ettiğini varsayalım. Lilliputians'ın ortaokullarında zengin bir matematik müfredatı sunulur ve öğrencilerin büyük çoğunluğu üniversite programına uygundur. Brobdingnag'ın ortaokullarında hiç matematik dersi verilmez. Bu nedenle, öğrencilerinin çok azı bu programa uygundur. Eşitlenmiş olasılıklar, başvuru sahibinin Lilliputian veya Brobdingnagian olması fark etmeksizin, uygun olan adayların programa kabul edilme olasılığının eşit olması ve uygun olmayan adayların reddedilme olasılığının eşit olması koşuluyla sağlanır.

Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki şekilde alındığını varsayalım:

Tablo 3. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 2
Reddedildi 45 8
Toplam 90 10
Kabul edilen uygun öğrencilerin yüzdesi: 45/90 =%50
Kabul edilmeyen uygunsuz öğrencilerin yüzdesi: 8/10 =%80
Kabul edilen Lilliputian öğrencilerin toplam yüzdesi: (45+2)/100 = %47

 

Tablo 4. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 18
Reddedildi 5 72
Toplam 10 90
Kabul edilen uygun öğrencilerin yüzdesi: 5/10 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 72/90 =%80
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+18)/100 = %23

Uygun Lilliput ve Brobdingnag öğrencilerinin kabul edilme şansı% 50, uygun olmayan Lilliput ve Brobdingnag öğrencilerinin reddedilme şansı ise% 80 olduğundan eşitlenmiş olasılıklar sağlanır.

Eşitlenmiş olasılıklar, "Gözetimli Öğrenmede Fırsat Eşitliği" başlıklı makalede şu şekilde tanımlanmıştır: "Ŷ ve A bağımsızsa, Y koşuluyla Ŷ öngörücüsü, korunan özellik A ve sonuç Y ile ilgili eşitlenmiş olasılıkları karşılar."

Estimator

#TensorFlow

Kullanımdan kaldırılmış bir TensorFlow API'sidir. Tahminciler yerine tf.keras kullanın.

evals

#language
#generativeAI

Öncelikle LLM değerlendirmeleri için kısaltma olarak kullanılır. Daha geniş bir açıdan bakıldığında evals, değerlendirme biçimlerinin kısaltmasıdır.

değerlendirme

#language
#generativeAI

Bir modelin kalitesini ölçme veya farklı modelleri birbiriyle karşılaştırma işlemi.

Bir gözetimli makine öğrenimi modelini değerlendirmek için genellikle doğrulama kümesi ve test kümesi ile karşılaştırırsınız. LLM'yi değerlendirme genellikle daha kapsamlı kalite ve güvenlik değerlendirmelerini içerir.

örnek

#fundamentals

Bir satır özellik ve muhtemelen bir etiket değerleri. Gözetimli öğrenme örnekleri iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketsiz örnek, bir veya daha fazla özellikten oluşur ancak etiket içermez. Etiketlenmemiş örnekler çıkarım sırasında kullanılır.

Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıda etiketlenmiş üç örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Etiketlenmemiş üç örnek aşağıda verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesinin satırı genellikle bir örnek için ham kaynaktır. Yani bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Ayrıca, bir örnekteki özellikler özellik çaprazlamaları gibi sentetik özellikler de içerebilir.

Daha fazla bilgi için Makine Öğrenimine Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

deneyimi yeniden oynatma

#rl

Güçlendirme öğrenimi, eğitim verilerindeki zamansal korelasyonları azaltmak için kullanılan bir DQN tekniğidir. Aracı, durum geçişlerini yeniden oynatma arabelleğinde depolar ve ardından eğitim verileri oluşturmak için yeniden oynatma arabelleğindeki geçişleri örnekler.

deneycinin yanlılığı

#fairness

Doğrulama yanlılığı hakkında bilgi edinin.

patlayan gradyan sorunu

#seq

Derin nöral ağlarda (özellikle yinelenen nöral ağlarda) gradyanların şaşırtıcı derecede dik (yüksek) olma eğilimi. Dik eğimler genellikle derin bir nöral ağdaki her düğümün ağırlıklarında çok büyük güncellemelere neden olur.

Patlayan gradyan sorunundan etkilenen modellerin eğitilmesi zor veya imkansız hale gelir. Gradyan kırpma bu sorunu hafifletebilir.

Kaybolan gradyan sorunu ile karşılaştırın.

C

F1

Hem hassasiyet hem de geri çağırma metriklerini temel alan bir "toplama" ikili sınıflandırma metriği. Formül şu şekildedir:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

doğruluk

#generativeAI

Makine öğrenimi dünyasında, çıkışı gerçeğe dayalı bir modeli tanımlayan özellik. Gerçeklik, bir metrik değil bir kavramdır. Örneğin, bir büyük dil modeline aşağıdaki isteği gönderdiğinizi varsayalım:

Sofra tuzunun kimyasal formülü nedir?

Gerçekliği optimize eden bir model şu şekilde yanıt verir:

NaCl

Tüm modellerin gerçeklere dayalı olması gerektiğini varsaymak caziptir. Ancak aşağıdaki gibi bazı istemler, üretken yapay zeka modelinin gerçeklik yerine yaratıcılığı optimize etmesine neden olur.

Bana bir astronot ve tırtıl hakkında limerick söyle.

Sonuç olarak ortaya çıkan limerick'in gerçeklere dayalı olması pek olası değildir.

Gerçekçilik ile kontrast oluşturur.

adalet kısıtlaması

#fairness
Bir veya daha fazla adalet tanımının karşılandığından emin olmak için algoritmaya kısıtlama uygulama Adil olma kısıtlamalarına örnek olarak aşağıdakiler verilebilir:

adalet metriği

#fairness

"Adalet"in ölçülebilir olan matematiksel bir tanımı. Yaygın olarak kullanılan adalet metriklerinden bazıları şunlardır:

Birçok adalet metriği birbirini dışlar. Adalet metriklerinin uyumsuzluğu başlıklı makaleyi inceleyin.

yanlış negatif (FN)

#fundamentals

Modelin yanlışlıkla negatif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam olmadığını (negatif sınıf) tahmin ediyor ancak söz konusu e-posta mesajı aslında spam.

yanlış negatif oranı

Modelin yanlışlıkla negatif sınıfı tahmin ettiği gerçek pozitif örneklerin oranı. Aşağıdaki formül, yanlış negatif oranı hesaplar:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

yanlış pozitif (FP)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam (pozitif sınıf) olduğunu tahmin eder ancak söz konusu e-posta mesajı aslında spam değildir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karışıklık matrisi bölümüne bakın.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül, yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisinde x eksenidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma: ROC ve AUC bölümüne bakın.

özellik

#fundamentals

Makine öğrenimi modeline ait bir giriş değişkeni. Örnek, bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda, her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast oluşturmalıdır.

Daha fazla bilgi için Makine Öğrenimi'ne Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

özellik çaprazlama

#fundamentals

Kategorik veya kümelenmiş özelliklerin "çaprazlanması" ile oluşturulan sentetik özellik.

Örneğin, sıcaklığı aşağıdaki dört gruptan birinde temsil eden bir "ruh hali tahmini" modelini düşünün:

  • freezing
  • chilly
  • temperate
  • warm

Aşağıdaki üç gruptan birinde rüzgar hızını temsil eder:

  • still
  • light
  • windy

Özellik çaprazlamaları olmadan doğrusal model, önceki yedi farklı grubun her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin freezing üzerinde eğitilir. Bu eğitim, örneğin windy üzerinde yapılan eğitimden bağımsızdır.

Alternatif olarak, sıcaklık ve rüzgar hızı için bir özellik kesişimi de oluşturabilirsiniz. Bu sentetik özellik aşağıdaki 12 olası değere sahip olur:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Özellik çaprazlamaları sayesinde model, freezing-windy günü ile freezing-still günü arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri çok sayıda farklı grup içeren iki özellikten sentetik bir özellik oluşturursanız ortaya çıkan özellik çaprazlama işleminde çok sayıda olası kombinasyon bulunur. Örneğin, bir özellikte 1.000 kap, diğer özellikte 2.000 kap varsa ortaya çıkan özellik çaprazında 2.000.000 kap bulunur.

Resmi olarak çapraz, bir Kartezyen çarpımdır.

Özellik çaprazlamaları çoğunlukla doğrusal modellerle kullanılır ve nadiren nöral ağlarla kullanılır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Kategorik veriler: Özellik kesişimleri bölümüne bakın.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modeli eğitirken hangi özelliklerin yararlı olabileceğini belirleme
  2. Veri kümesinden elde edilen ham verileri bu özelliklerin verimli sürümlerine dönüştürme.

Örneğin, temperature özelliğinin faydalı olabileceğini düşünebilirsiniz. Ardından, modelin farklı temperature aralıklarından neler öğrenebileceğini optimize etmek için gruplandırma ile denemeler yapabilirsiniz.

Özellik mühendisliği bazen özellik ayıklama veya özellik oluşturma olarak da adlandırılır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

özellik ayıklama

Aşağıdaki tanımlardan birine sahip aşırı yüklenmiş terim:

özellik önem düzeyleri

#df

Değişken önemleri için eş anlamlı.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellik grubu. Örneğin, posta kodu, mülk büyüklüğü ve mülk durumu, konut fiyatlarını tahmin eden bir model için basit bir özellik grubu oluşturabilir.

özellik spesifikasyonu

#TensorFlow

tf.Example protokol arabelleğinden özellik verilerini ayıklamak için gereken bilgileri açıklar. tf.Example protokol arabelleği yalnızca verileri içeren bir kapsayıcı olduğundan aşağıdakileri belirtmeniz gerekir:

  • Ayıklanacak veriler (yani özelliklerin anahtarları)
  • Veri türü (ör. float veya int)
  • Uzunluk (sabit veya değişken)

özellik vektörü

#fundamentals

Örnek içeren özellik değerleri dizisi. Özellik vektörü, eğitim ve tahmin sırasında girilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92 değerini, diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Bu nedenle, bir sonraki örneğin özellik vektörü şu şekilde olabilir:

[0.73, 0.49]

Özellik mühendisliği, özelliklerin özellik vektöründe nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip ikili kategorik bir özellik one-hot kodlama ile temsil edilebilir. Bu durumda, belirli bir örnek için özellik vektörünün bölümü dört sıfır ve üçüncü konumda tek bir 1, 0 değerinden oluşur:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • Bir sıcak kodlamayla temsil edilen beş olası değere sahip ikili kategorik özellik (ör. [0.0, 1.0, 0.0, 0.0, 0.0])
  • One-hot kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategorik özellik (ör. [0.0, 0.0, 1.0])
  • kayan nokta özelliği (ör. 8.3).

Bu durumda, her bir örnek için özellik vektörü dokuz değerle temsil edilir. Önceki listedeki örnek değerler göz önüne alındığında özellik vektörü şu şekilde olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

özellik çıkarma

Doküman veya video gibi bir giriş kaynağından özellikleri ayıklayıp bu özellikleri özellik vektörü ile eşleme işlemi.

Bazı yapay zeka uzmanları, özellik oluşturmayı özellik mühendisliği veya özellik ayıklama ile eş anlamlı olarak kullanır.

birleşik öğrenim

Akıllı telefonlar gibi cihazlarda bulunan dağınık örneklerden yararlanarak makine öğrenimi modellerini eğiten dağıtık bir makine öğrenimi yaklaşımıdır. Birleşik öğrenimde, cihazların bir alt kümesi mevcut modeli merkezi bir koordinasyon sunucusundan indirir. Cihazlar, modelde iyileştirme yapmak için cihazlarda saklanan örnekleri kullanır. Cihazlar daha sonra model iyileştirmelerini (eğitim örneklerini değil) koordinasyon sunucusuna yükler. Bu iyileştirmeler, daha iyi bir genel model oluşturmak için diğer güncellemelerle birleştirilir. Toplama işleminden sonra cihazlar tarafından hesaplanan model güncellemeleri artık gerekli değildir ve kaldırılabilir.

Eğitim örnekleri hiçbir zaman yüklenmediğinden birleşik öğrenim, odaklanmış veri toplama ve veri azaltma gizlilik ilkelerini izler.

Birleşik öğrenim hakkında daha fazla bilgi için bu eğitime bakın.

geri bildirim döngüsü

#fundamentals

Makine öğrenimindeki bir modelin tahminlerinin, aynı modelin veya başka bir modelin eğitim verilerini etkilediği durum. Örneğin, film öneren bir model, kullanıcıların izlediği filmleri etkiler. Bu da sonraki film önerisi modellerini etkiler.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Sorulması gereken sorular bölümüne bakın.

ileri beslemeli nöral ağ (FFN)

Döngüsel veya yinelemeli bağlantıları olmayan bir sinir ağı. Örneğin, geleneksel derin nöral ağlar ileri beslemeli nöral ağlardır. Döngüsel olan yineleyici nöral ağlarla karşılaştırın.

az sayıda örnekle öğrenme

Genellikle nesne sınıflandırması için kullanılan, yalnızca az sayıda eğitim örneğinden etkili sınıflandırıcılar eğitmek üzere tasarlanmış bir makine öğrenimi yaklaşımı.

Tek seferlik öğrenme ve sıfır görevli öğrenme hakkında da bilgi edinin.

çok görevli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesi gerektiğini gösteren birden fazla ("birkaç") örnek içeren bir istem. Örneğin, aşağıdaki uzun istemde büyük bir dil modelinin bir sorguyu nasıl yanıtlayacağını gösteren iki örnek yer almaktadır.

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: avro Bir örnek vereyim.
Birleşik Krallık: GBP Başka bir örnek.
Hindistan: Gerçek sorgu.

Çok görevli istem, genellikle sıfır görevli istem ve tek görevli istem'den daha iyi sonuçlar verir. Ancak çok görevli istem, daha uzun bir istem gerektirir.

Çok görevli istem, isteme dayalı öğrenmeye uygulanan bir az sayıda örnekle öğrenme biçimidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İstem mühendisliği bölümüne bakın.

Keman

#language

İşlevlerin ve sınıfların değerlerini müdahaleci kod veya altyapı olmadan ayarlayan, Python'a öncelik veren bir yapılandırma kitaplığı. Pax ve diğer makine öğrenimi kod tabanlarında bu işlevler ve sınıflar modelleri ve eğitim hiper parametrelerini temsil eder.

Fiddle, makine öğrenimi kod tabanlarının genellikle aşağıdakilere ayrıldığını varsayar:

  • Katmanları ve optimizatörleri tanımlayan kitaplık kodu.
  • Kitaplıkları çağıran ve her şeyi birbirine bağlayan veri kümesi "yapıştırıcı" kodu.

Fiddle, yapıştırma kodunun çağrı yapısını değerlendirilmemiş ve değiştirilebilir bir biçimde yakalar.

ince ayar

#language
#image
#generativeAI

Önceden eğitilmiş bir modelde, belirli bir kullanım alanı için parametrelerini hassaslaştırmak amacıyla göreve özel ikinci bir eğitim geçişi. Örneğin, bazı büyük dil modelleri için tam eğitim sırası aşağıdaki gibidir:

  1. Ön eğitim: Büyük bir dil modelini, tüm İngilizce Wikipedia sayfaları gibi geniş bir genel veri kümesiyle eğitin.
  2. İnce ayarlama: Önceden eğitilmiş modeli, tıbbi sorgulara yanıt vermek gibi belirli bir görevi gerçekleştirecek şekilde eğitin. İnce ayar genellikle belirli göreve odaklanan yüzlerce veya binlerce örnek içerir.

Başka bir örnek olarak, büyük bir resim modelinin tam eğitim sırası aşağıda verilmiştir:

  1. Ön eğitim: Wikimedia Commons'taki tüm resimler gibi geniş bir genel resim veri kümesinde büyük bir resim modeli eğitin.
  2. İnce ayarlama: Önceden eğitilmiş modeli, orka resimleri oluşturma gibi belirli bir görevi gerçekleştirecek şekilde eğitin.

İnce ayar, aşağıdaki stratejilerin herhangi bir kombinasyonunu içerebilir:

  • Önceden eğitilmiş modelin mevcut parametrelerinin tümünü değiştirme Buna bazen tam hassas ayar da denir.
  • Önceden eğitilmiş modelin mevcut parametrelerinin yalnızca bir kısmını (genellikle çıktı katmanına en yakın katmanlar) değiştirirken diğer mevcut parametreleri (genellikle giriş katmanına en yakın katmanlar) değiştirmeden bırakma Parametreleri verimli şekilde kullanma başlıklı makaleyi inceleyin.
  • Genellikle çıkış katmanına en yakın mevcut katmanların üzerine daha fazla katman ekleme.

İnce ayar, transfer öğrenimi biçimlerinden biridir. Bu nedenle, hassas ayarlama işleminde, önceden eğitilmiş modeli eğitmek için kullanılanlardan farklı bir kayıp işlevi veya farklı bir model türü kullanılabilir. Örneğin, önceden eğitilmiş büyük bir resim modelinde ince ayar yaparak giriş resmindeki kuş sayısını döndüren bir regresyon modeli oluşturabilirsiniz.

İnce ayarlama ile aşağıdaki terimleri karşılaştırın:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İnce ayarlama bölümüne bakın.

Keten

#language

JAX'in üzerine inşa edilmiş, derin öğrenme için yüksek performanslı açık kaynak kitaplık. Flax, sinir ağlarını eğitmek için işlevler ve performanslarını değerlendirme yöntemleri sağlar.

Flaxformer

#language

Transformer üzerine inşa edilmiş, açık kaynak bir Transformer kitaplığı. Öncelikle doğal dil işleme ve çoklu modaliteli araştırmalar için tasarlanmıştır.

forget gate

#seq

Uzun Kısa Süreli Bellek hücresinin, hücredeki bilgi akışını düzenleyen kısmı. Unutma kapıları, hücre durumundan hangi bilgilerin atılacağına karar vererek bağlamı korur.

başarı oranı

#generativeAI

Bir yapay zeka modelinin oluşturulan metnini değerlendirmek için kullanılan metrik. Başarı oranı, oluşturulan "başarılı" metin çıktılarının toplam oluşturulan metin çıktısı sayısına bölünmesiyle elde edilir. Örneğin, bir büyük dil modeli 10 kod bloğu oluşturduysa ve bunların beşi başarılı olduysa başarı oranı %50 olur.

Başarı oranı, istatistikler genelinde geniş bir şekilde faydalı olsa da makine öğrenimi kapsamında bu metrik, öncelikle kod oluşturma veya matematik problemleri gibi doğrulanabilir görevleri ölçmek için faydalıdır.

tam softmax

softmax için eş anlamlı.

Aday örnekleme ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Çok sınıflı sınıflandırma bölümüne bakın.

tamamen bağlı katman

Her düğümün sonraki gizli katmandaki her düğüme bağlı olduğu bir gizli katman.

Tamamen bağlı katman, yoğun katman olarak da bilinir.

işlev dönüştürme

Giriş olarak bir işlev alan ve çıktı olarak dönüştürülmüş bir işlev döndüren işlev. JAX, işlev dönüşümlerini kullanır.

G

GAN

Üretken zıt ağ kısaltması.

Gemini

#language
#image
#generativeAI

Google'ın en gelişmiş yapay zekasını içeren ekosistem. Bu ekosistemin öğeleri şunlardır:

Gemini modelleri

#language
#image
#generativeAI

Google'ın son teknoloji Transformer tabanlı çoklu modal modelleri. Gemini modelleri, özellikle müşteri temsilcileriyle entegre edilmek üzere tasarlanmıştır.

Kullanıcılar, etkileşimli bir iletişim arayüzü ve SDK'lar dahil olmak üzere çeşitli yollarla Gemini modelleriyle etkileşim kurabilir.

genelleme

#fundamentals

Modelin yeni ve daha önce görülmemiş verilerle ilgili doğru tahminler yapma yeteneği. Genelleme yapabilen bir model, fazla uyumlu olan bir modelin tam tersidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

genelleştirme eğrisi

#fundamentals

İterasyon sayısına bağlı olarak hem eğitim kaybının hem de doğrulama kaybının grafiği.

Genelleme eğrisi, olası aşırı uyum tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleme eğrisi, doğrulama kaybının nihayetinde eğitim kaybından önemli ölçüde daha yüksek olması nedeniyle aşırı uyumu önerir.

Y ekseninin kayıp, x ekseninin ise iterasyon olarak etiketlendiği Kartezyen grafik. İki grafik görünür. Birinde eğitim kaybı, diğerinde ise doğrulama kaybı gösterilir.
          İki grafik de benzer şekilde başlar ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük bir seviyeye düşer.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

genelleştirilmiş doğrusal model

Gauss gürültüsüne dayalı en küçük kareler regresyon modellerinin, Poisson gürültüsü veya kategorik gürültü gibi diğer gürültü türlerine dayalı diğer model türleri için genelleştirilmesidir. Genelleştirilmiş doğrusal modellere örnek olarak şunlar verilebilir:

Genelleştirilmiş doğrusal bir modelin parametreleri konveks optimizasyon ile bulunabilir.

Genelleştirilmiş doğrusal modeller aşağıdaki özelliklere sahiptir:

  • Optimum en küçük kareler regresyon modelinin ortalama tahmini, eğitim verilerindeki ortalama etikete eşittir.
  • Optimum mantıksal regresyon modeli tarafından tahmin edilen ortalama olasılık, eğitim verilerindeki ortalama etikete eşittir.

Genelleştirilmiş doğrusal modelin gücü, özellikleriyle sınırlıdır. Derin modellerin aksine, genelleştirilmiş doğrusal modeller "yeni özellikler öğrenemez".

oluşturulan metin

#language
#generativeAI

Genel olarak, bir makine öğrenimi modelinin oluşturduğu metindir. Büyük dil modelleri değerlendirilirken bazı metrikler, oluşturulan metni referans metinle karşılaştırır. Örneğin, bir ML modelinin Fransızcadan Hollandacaya ne kadar etkili bir şekilde çeviri yaptığını belirlemeye çalıştığınızı varsayalım. Bu durumda:

  • Oluşturulan metin, makine öğrenimi modelinin oluşturduğu Hollandaca çeviridir.
  • Referans metin, gerçek bir çevirmen (veya yazılım) tarafından oluşturulan Hollandaca çeviridir.

Bazı değerlendirme stratejilerinin referans metni içermediğini unutmayın.

üretken zıttaşım ağı (GAN)

Bir üretici'nin veri oluşturduğu ve bir ayırt edici'nin oluşturulan verilerin geçerli olup olmadığını belirlediği yeni veri oluşturma sistemi.

Daha fazla bilgi için Üretken Çekişmeli Ağlar kursuna bakın.

üretken yapay zeka

#language
#image
#generativeAI

Resmi bir tanımı olmayan, yeni ve dönüştürücü bir alan. Bununla birlikte, çoğu uzman üretken yapay zeka modellerinin aşağıdakilerin tümünü içeren içerikler oluşturabileceği ("üretebildiği") konusunda hemfikirdir:

  • karmaşık
  • tutarlı
  • orijinal

Örneğin, üretken yapay zeka modelleri karmaşık makaleler veya resimler oluşturabilir.

LSTM'ler ve RNN'ler de dahil olmak üzere bazı eski teknolojiler özgün ve tutarlı içerikler oluşturabilir. Bazı uzmanlar bu eski teknolojileri üretken yapay zeka olarak görürken diğerleri, gerçek üretken yapay zekanın bu eski teknolojilerin üretebileceğinden daha karmaşık bir çıktı gerektirdiğini düşünüyor.

Tahmine dayalı makine öğrenimi ile karşılaştırın.

üretken model

Pratikte, aşağıdakilerden birini yapan bir model:

  • Eğitim veri kümesinden yeni örnekler oluşturur (üretir). Örneğin, üretken bir model, şiir veri kümesinde eğitildikten sonra şiir oluşturabilir. Üretken zıt ağ'ın üretici bölümü bu kategoriye girer.
  • Yeni bir örneğin eğitim veri kümesinden gelme olasılığını veya eğitim veri kümesini oluşturan mekanizmayla oluşturulma olasılığını belirler. Örneğin, üretken bir model, İngilizce cümlelerden oluşan bir veri kümesinde eğitildikten sonra yeni girişin geçerli bir İngilizce cümle olma olasılığını belirleyebilir.

Üretken modeller, teorik olarak bir veri kümesindeki örneklerin veya belirli özelliklerin dağılımını ayırt edebilir. Yani:

p(examples)

Denetimsiz öğrenme modelleri üretkendir.

Ayırt edici modellerle karşılaştırın.

oluşturma aracı

Üretken zıt ağ içindeki alt sistem, yeni örnek oluşturur.

Ayırt edici model ile karşılaştırın.

gini safsızlık

#df

Entropy'ye benzer bir metrik. Bölücüler, sınıflandırma karar ağaçları için koşullar oluşturmak amacıyla gini safsızlık veya entropi değerlerinden türetilen değerleri kullanır. Bilgi kazancı entropi temellidir. Gini safsızlıktan türetilen metrik için evrensel olarak kabul edilen eşdeğer bir terim yoktur. Ancak bu adsız metrik, bilgi kazancı kadar önemlidir.

Gini safsızlık oranı, gini endeksi veya kısaca gini olarak da adlandırılır.

altın veri kümesi

Kesin referansı yakalayan, manuel olarak seçilmiş bir veri grubu. Ekipler, bir modelin kalitesini değerlendirmek için bir veya daha fazla altın veri kümesi kullanabilir.

Bazı altın veri kümeleri, kesin referansın farklı alt alanlarını yakalar. Örneğin, görsel sınıflandırma için altın veri kümesi, ışık koşullarını ve görüntü çözünürlüğünü yakalayabilir.

altın yanıt

#language
#generativeAI

İyi olduğu bilinen bir yanıt. Örneğin, aşağıdaki istem için:

2 + 2

En iyi yanıt şudur:

4

GPT (Üretken Önceden Eğitilmiş Dönüştürücü)

#language

OpenAI tarafından geliştirilen Transformer tabanlı büyük dil modelleri ailesi.

GPT varyantları aşağıdakiler gibi birden fazla mod için geçerli olabilir:

  • görüntü üretme (ör. ImageGPT)
  • metinden görüntü oluşturma (ör. DALL-E).

gradyan

Tüm bağımsız değişkenlere göre kısmi türevlerin vektörü. Makine öğrenimindeki gradyan, model işlevinin kısmi türevlerinin vektörüdür. Gradyan, en dik tırmanış yönüne işaret eder.

gradyan birikimi

Parametreleri iterasyon başına bir kez yerine yalnızca sıfır zaman başına bir kez güncelleyen bir geri yayılma tekniği. Her mini grup işlendikten sonra gradyan birikimi, gradyanların değişen toplamını günceller. Ardından, sistem, dönemdeki son mini grubu işledikten sonra parametreleri tüm gradyan değişikliklerinin toplamına göre günceller.

Gradyan birikimi, toplu boyut eğitim için kullanılabilen bellek miktarına kıyasla çok büyük olduğunda kullanışlıdır. Bellek sorunu olduğunda doğal olarak toplu işlem boyutunu azaltmak istenir. Ancak normal geri yayılımda toplu boyutun azaltılması, parametre güncellemelerinin sayısını artırır. Gradyan birikimi, modelin bellek sorunlarından kaçınmasına ancak yine de verimli bir şekilde eğitilmesine olanak tanır.

gradyan artırımlı (karar) ağaçları (GBT)

#df

Aşağıdaki özelliklere sahip bir karar ormanı türü:

Daha fazla bilgi için Karar Ağaçları kursunda Gradyan Destekli Karar Ağaçları bölümüne bakın.

gradyan güçlendirme

#df

Zayıf modellerin, güçlü bir modelin kalitesini iteratif olarak iyileştirmek (kaybını azaltmak) için eğitildiği bir eğitim algoritması. Örneğin, doğrusal veya küçük bir karar ağacı modeli zayıf bir model olabilir. Güçlü model, daha önce eğitilmiş tüm zayıf modellerin toplamı olur.

Gradyan artırmanın en basit biçiminde, her iterasyonda zayıf bir model, güçlü modelin kayıp gradyanını tahmin edecek şekilde eğitilir. Ardından, güçlü modelin çıkışı, gradyan azalma'ya benzer şekilde tahmin edilen gradyan çıkarılarak güncellenir.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

Bu örnekte:

  • $F_{0}$, başlangıçtaki güçlü modeldir.
  • $F_{i+1}$, bir sonraki güçlü modeldir.
  • $F_{i}$, mevcut güçlü modeldir.
  • $\xi$, 0,0 ile 1,0 arasında bir değerdir ve küçültme olarak adlandırılır. Bu değer, gradyan azalmadaki öğrenme hızına benzer.
  • $f_{i}$, $F_{i}$ değerinin kayıp gradyantını tahmin etmek için eğitilmiş zayıf modeldir.

Gradyan artırmanın modern varyasyonları, hesaplamalarında kaybın ikinci türevini (Hessian) de içerir.

Karar ağaçları, gradyan artırmada genellikle zayıf modeller olarak kullanılır. Gradyan artırılmış (karar) ağaçları başlıklı makaleyi inceleyin.

gradyan kırpma

#seq

Bir modeli eğitmek için gradyan azalma kullanılırken gradyanların maksimum değerini yapay olarak sınırlayarak (kırparak) gradyan patlaması sorununu azaltmak için yaygın olarak kullanılan bir mekanizmadır.

gradyan inişi

#fundamentals

Kayıpları en aza indirmek için kullanılan matematiksel bir tekniktir. Gradyan azalma, ağırlıkları ve önyargıları iteratif olarak ayarlayarak kaybı en aza indirecek en iyi kombinasyonu kademeli olarak bulur.

Gradyan azalma, makine öğreniminden çok daha eskidir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Gradyan azalma bölümüne bakın.

grafik

#TensorFlow

TensorFlow'da bir hesaplama spesifikasyonu. Grafikteki düğümler işlemleri temsil eder. Kenarlar yönlendirilir ve bir işlemin sonucunun (Tensor) başka bir işleme operatör olarak aktarılmasını temsil eder. Bir grafiği görselleştirmek için TensorBoard'u kullanın.

grafik yürütme

#TensorFlow

Programın önce bir grafik oluşturduğu ve ardından bu grafiğin tamamını veya bir kısmını yürüttüğü bir TensorFlow programlama ortamı. Grafik yürütme, TensorFlow 1.x'teki varsayılan yürütme modudur.

İvedi yürütme ile karşılaştırın.

açgözlü politika

#rl

Güçlendirme öğrenimi, her zaman beklenen en yüksek dönüş sağlayan işlemi seçen bir politikadır.

gerçekçilik

Çıktısı belirli bir kaynak materyale dayanan ("dayalı" olan) bir modelin özelliği. Örneğin, bir büyük dil modeline giriş ("bağlam") olarak bir fizik ders kitabının tamamını sağladığınızı varsayalım. Ardından, bu büyük dil modeline bir fizik sorusu sorarsınız. Modelin yanıtı, söz konusu ders kitabındaki bilgileri yansıtıyorsa bu model, söz konusu ders kitabına dayalı demektir.

Gerçekçi bir modelin her zaman gerçek bir model olmadığını unutmayın. Örneğin, girilen fizik ders kitabı hata içerebilir.

gerçek doğru

#fundamentals

Gerçek.

Gerçekten ne oldu?

Örneğin, üniversitenin ilk yılındaki bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Bu model için kesin referans, öğrencinin altı yıl içinde mezun olup olmadığıdır.

grup ilişkilendirme önyargısı

#fairness

Bir kişi için doğru olanın, o gruptaki herkes için de doğru olduğunu varsaymak Veri toplama için kolaylık örneklemesi kullanılıyorsa grup ilişkilendirme önyargısının etkileri daha da kötüleşebilir. Temsil edici olmayan bir örnekte, gerçeği yansıtmayan ilişkilendirmeler yapılabilir.

Ayrıca grup dışı homojenlik önyargısı ve grup içi önyargı hakkında bilgi edinin. Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne de göz atın.

H

halüsinasyon

#language

Gerçek dünya hakkında bir iddiada bulunduğunu iddia eden bir üretken yapay zeka modeli tarafından makul görünen ancak gerçekte yanlış olan çıkışların üretilmesi. Örneğin, Barack Obama'nın 1865'te öldüğünü iddia eden bir üretken yapay zeka modeli halüsinasyon görüyordur.

karma oluşturma

Makine öğrenimindeki bir mekanizmadır. Özellikle kategori sayısı çok fazla ancak veri kümesinde görünen kategori sayısı nispeten az olduğunda kategorik verileri gruplandırmak için kullanılır.

Örneğin, Dünya'da yaklaşık 73.000 ağaç türü bulunuyor. 73.000 ağaç türünün her birini 73.000 ayrı kategorik grupta temsil edebilirsiniz. Alternatif olarak, bu ağaç türlerinden yalnızca 200'ü bir veri kümesinde görünüyorsa ağaç türlerini yaklaşık 500 grupta toplamak için karma oluşturma işlemini kullanabilirsiniz.

Tek bir pakette birden fazla ağaç türü bulunabilir. Örneğin, karma oluşturma işlemi, genetik olarak farklı iki tür olan baobab ve kırmızı akçaağaç'ı aynı pakete yerleştirebilir. Bununla birlikte, karma oluşturma, büyük kategorik kümeleri seçilen sayıda pakete eşlemek için hâlâ iyi bir yöntemdir. Karma oluşturma, olası değerlerin çok fazla olduğu kategorik bir özelliği, değerleri belirli bir şekilde gruplandırarak çok daha az sayıda değere dönüştürür.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Kategorik veriler: Kelime hazinesi ve tek sıcak kodlama bölümüne bakın.

sezgisel

Bir soruna yönelik basit ve hızlıca uygulanabilen çözüm. Örneğin, "Heuristic ile% 86 doğruluk elde ettik. Derin sinir ağına geçiş yaptığımızda doğruluk oranı %98'e yükseldi."

gizli katman

#fundamentals

Sinir ağında giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasında yer alan bir katman. Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki sinir ağında ilkinde üç, ikincisinde iki nöron bulunan iki gizli katman vardır:

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman bir çıkış katmanıdır. Her özellik, her biri ikinci katmandaki farklı bir nöronu gösteren üç kenar içerir. İkinci katmandaki her nöron, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki her nöron, çıkış katmanına işaret eden bir kenar içerir.

Derin nöral ağ birden fazla gizli katman içerir. Örneğin, önceki görselde model iki gizli katman içerdiğinden derin bir sinir ağı gösterilmektedir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Sinir ağları: Düğümler ve gizli katmanlar bölümüne bakın.

hiyerarşik kümeleme

#clustering

Küme ağacı oluşturan kümelenme algoritmaları kategorisi. Hiyerarşik kümeleme, botanik sınıflandırmaları gibi hiyerarşik veriler için çok uygundur. İki tür hiyerarşik küme oluşturma algoritması vardır:

  • Toplayıcı küme oluşturma, her örneği önce kendi kümesine atar ve hiyerarşik bir ağaç oluşturmak için en yakın kümeleri iteratif olarak birleştirir.
  • Bölünme kümelenmesi, önce tüm örnekleri tek bir kümede gruplandırır, ardından kümeyi iteratif olarak hiyerarşik bir ağaca böler.

Merkez noktaya dayalı küme oluşturma ile karşılaştırın.

Daha fazla bilgi için Küme oluşturma kursundaki küme oluşturma algoritmaları bölümüne bakın.

tepe tırmanışı

Bir makine öğrenimi modelinin iyileşmesi durduğunda ("tepeye ulaştığında") modelin iteratif olarak iyileştirilmesi ("yükseldikçe") için kullanılan bir algoritma. Algoritmanın genel biçimi aşağıdaki gibidir:

  1. Başlangıç modeli oluşturun.
  2. Eğitme veya ince ayarlama yönteminizde küçük ayarlamalar yaparak yeni aday modeller oluşturun. Bu, biraz farklı bir eğitim veri kümesiyle veya farklı hiperparametrelerle çalışmayı gerektirebilir.
  3. Yeni aday modelleri değerlendirin ve aşağıdaki işlemlerden birini yapın:
    • Bir aday model, başlangıç modelinden daha iyi performans gösteriyorsa bu aday model yeni başlangıç modeli olur. Bu durumda 1, 2 ve 3. adımları tekrarlayın.
    • Hiçbir model başlangıç modelinden daha iyi performans göstermiyorsa zirveye ulaştınız demektir ve iterasyonu durdurmanız gerekir.

Hiperparametre ayarı hakkında bilgi edinmek için Derin Öğrenme Ayarlama Kılavuzu'na bakın. Özellik mühendisliğiyle ilgili bilgi edinmek için Makine Öğrenimi Hızlandırılmış Kursu'nun Veri modüllerine bakın.

menteşe kaybı

Sınıflandırma için karar sınırını her eğitim örneğinden mümkün olduğunca uzakta bulmak üzere tasarlanmış bir kayıp işlevi ailesidir. Böylece, örnekler ile sınır arasındaki marjı en üst düzeye çıkarır. KSVM'ler, menteşe kaybını (veya kareli menteşe kaybı gibi ilgili bir işlevi) kullanır. İkili sınıflandırma için menteşe kaybı işlevi aşağıdaki gibi tanımlanır:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

Burada y, -1 veya +1 olan gerçek etiket, y' ise sınıflandırıcı modelinin ham çıkışıdır:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Sonuç olarak, menteşe kaybının (y * y') ile karşılaştırmalı grafiği aşağıdaki gibi görünür:

İki birleştirilmiş çizgi segmentinden oluşan Kartezyen nokta grafiği. İlk çizgi segmenti (-3, 4) ile başlar ve (1, 0) ile biter. İkinci çizgi segmenti (1, 0) noktasında başlar ve eğimi 0 olan bir çizgiyle sonsuza kadar devam eder.

geçmiş önyargısı

#fairness

Dünyada zaten var olan ve bir veri kümesine giren bir tür önyargı. Bu önyargılar, mevcut kültürel klişeleri, demografik eşitsizlikleri ve belirli sosyal gruplara karşı önyargıları yansıtma eğilimindedir.

Örneğin, bir kredi başvurucusunun kredisini ödeyip ödemeyeceğini tahmin eden ve 1980'lerden iki farklı topluluktaki yerel bankalardan alınan geçmiş kredi ödememe verileri üzerinde eğitilmiş bir sınıflandırma modeli düşünün. A Topluluğu'ndaki geçmiş başvuru sahiplerinin kredilerini ödememe olasılığı B Topluluğu'ndaki başvuru sahiplerininkine kıyasla altı kat daha yüksekse model, geçmişte bu topluluğun daha yüksek ödememe oranlarına yol açan koşullar artık geçerli olmasa bile A Topluluğu'ndaki kredileri onaylama olasılığının daha düşük olmasına neden olacak bir geçmiş önyargısı öğrenebilir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

ayrılmış veriler

Eğitim sırasında kasıtlı olarak kullanılmayan örnekler ("saklanan"). Doğrulama veri kümesi ve test veri kümesi, ayrılmış verilere örnektir. Ayrı tutulan veriler, modelinizin eğitildiği veriler dışındaki verilere genelleme yapma yeteneğini değerlendirmenize yardımcı olur. Bekleme grubundaki kayıp, eğitim grubundaki kayıptan daha iyi bir şekilde görülmeyen veri kümesindeki kaybı tahmin eder.

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir makine öğrenimi modeli eğitilirken sistemin aşağıdakilerin ikisini de kontrol eden kısmı:

  • Kodun genel akışı.
  • Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çipte değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerdeki tenzorları işler.

gerçek kişi tarafından yapılan değerlendirme

#language
#generativeAI

Kullanıcıların bir makine öğrenimi modelinin çıktısının kalitesini değerlendirdiği bir süreçtir. Örneğin, iki dili bilen kullanıcıların bir makine öğrenimi çeviri modelinin kalitesini değerlendirmesi. Gerçek kişiler tarafından yapılan değerlendirmeler, özellikle tek bir doğru yanıtı olmayan modelleri değerlendirmek için kullanışlıdır.

Otomatik değerlendirme ve otomatik değerlendirme ile karşılaştırın.

Sürecin parçası olan insan (HITL)

#generativeAI

Aşağıdakilerden birini ifade edebilecek, gevşek bir şekilde tanımlanmış bir deyim:

  • Üretken yapay zeka çıktılarını eleştirel veya şüpheci bir şekilde görüntüleme politikası. Örneğin, bu yapay zeka terimleri sözlüğünü yazan kişiler büyük dil modellerinin neler yapabileceğine hayran olsa da bu modellerin yaptığı hatalara dikkat eder.
  • Kullanıcıların bir modelin davranışını şekillendirmesine, değerlendirmesine ve hassaslaştırmasına yardımcı olan bir strateji veya sistem. İnsanları sürece dahil etmek, yapay zekanın hem makine zekasından hem de insan zekasından yararlanmasını sağlar. Örneğin, bir yapay zekanın kod oluşturduğu ve yazılım mühendislerinin bu kodu incelediği bir sistem, döngüye insan dahil edilmiş bir sistemdir.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin (ör. Vizier) bir modeli eğitme işleminin art arda çalıştırıldığı sırada düzenlediği değişkenler.Örneğin, öğrenme hızı bir hiper parametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. 0,01'in çok yüksek olduğunu belirlerseniz bir sonraki eğitim oturumu için öğrenme hızını 0,003 olarak ayarlayabilirsiniz.

Buna karşılık parametreler, modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve önyargılardır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

hiper düzlem

Bir alanı iki alt alana ayıran sınır. Örneğin, bir çizgi iki boyutlu bir hiper düzlemdir ve bir düzlem üç boyutlu bir hiper düzlemdir. Makine öğrenimindeki hiperdüzlemler genellikle yüksek boyutlu bir alanı ayıran sınırlardır. Çekirdek Destek Vektör Makineleri, genellikle çok yüksek boyutlu bir alanda pozitif sınıfları negatif sınıflardan ayırmak için hiper düzlemler kullanır.

I

i.i.d.

Bağımsız ve aynı şekilde dağıtılmış kısaltması.

resim tanıma

#image

Bir resimdeki nesneleri, kalıpları veya kavramları sınıflandıran bir işlem. Görüntü tanıma, resim sınıflandırması olarak da bilinir.

Daha fazla bilgi için ML Practicum: Image Classification başlıklı makaleyi inceleyin.

Daha fazla bilgi için ML Practicum: Image Classification kursuna göz atın.

dengesiz veri kümesi

Sınıf dengesi bozuk veri kümesi için eş anlamlı.

örtülü önyargı

#fairness

Kişinin zihinsel modellerine ve anılarına dayalı olarak otomatik olarak ilişkilendirme veya varsayım yapma. Örtük önyargı şunları etkileyebilir:

  • Verilerin nasıl toplandığı ve sınıflandırıldığı.
  • Makine öğrenimi sistemlerinin nasıl tasarlandığı ve geliştirildiği.

Örneğin, bir mühendis, düğün fotoğraflarını tanımlayacak bir sınıflandırıcı oluştururken fotoğrafta beyaz bir elbisenin bulunmasını bir özellik olarak kullanabilir. Ancak beyaz elbiseler yalnızca belirli dönemlerde ve belirli kültürlerde yaygındı.

Doğrulama yanlılığı konusuna da göz atın.

İlişkilendirme

Değer tamamlama kısa biçimi.

adalet metriklerinin uyumsuzluğu

#fairness

Bazı adalet kavramlarının birbirine uymadığı ve aynı anda karşılanamayacağı fikri. Sonuç olarak, tüm makine öğrenimi sorunlarına uygulanabilecek, adaleti ölçmek için tek bir evrensel metrik yoktur.

Bu durum cesaret kırıcı görünse de adalet metriklerinin uyumsuzluğu, adalet çabalarının sonuç vermediği anlamına gelmez. Bunun yerine, adalet kavramının bağlamsal olarak tanımlanması gerektiğini, böylece kullanım alanlarına özgü zararların önlenmesi gerektiğini öne sürüyor.

Bu konuyla ilgili daha ayrıntılı bir tartışma için "Adil olmanın (im)mkansızlığı hakkında" başlıklı makaleyi inceleyin.

bağlam içinde öğrenme

#language
#generativeAI

Çok görevli istem ile eş anlamlıdır.

bağımsız ve aynı şekilde dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımın kullanıldığı ve çekilen her değerin daha önce çekilen değerlere bağlı olmadığı veriler. Bağımsız örnek, makine öğreniminin ideal gazı olarak kabul edilir. Yararlı bir matematiksel yapıdır ancak gerçek dünyada neredeyse hiç tam olarak bulunmaz. Örneğin, bir web sayfasının ziyaretçilerinin dağılımı kısa bir süre boyunca bağımsız olabilir. Yani dağılım bu kısa süre boyunca değişmez ve bir kişinin ziyareti genellikle başka bir kişinin ziyaretinden bağımsızdır. Ancak bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde mevsimsel farklılıklar görebilirsiniz.

Değişmezlik konusuna da bakın.

Bireysel adalet

#fairness

Benzer kişilerin benzer şekilde sınıflandırılıp sınıflandırılmadığını kontrol eden bir adalet metriği. Örneğin, Brobdingnagian Akademisi, aynı notlara ve standartlaştırılmış sınav puanlarına sahip iki öğrencinin kabul edilme olasılığının eşit olmasını sağlayarak bireysel adaleti sağlamak isteyebilir.

Bireysel adaletin tamamen "benzerlik"i (bu durumda notlar ve sınav puanları) nasıl tanımladığınıza bağlı olduğunu ve benzerlik metriğiniz önemli bilgileri (ör. bir öğrencinin müfredatının titizliği) göz ardı ederse yeni adalet sorunları ortaya çıkarma riskiyle karşı karşıya kalacağınızı unutmayın.

Bireysel adalet hakkında daha ayrıntılı bilgi için "Farkındalık

çıkarım

#fundamentals

Makine öğrenimindeki eğitilmiş bir modeli etiketlenmemiş örneklere uygulayarak tahminde bulunma işlemi.

İstatistikte çıkarım biraz farklı bir anlama sahiptir. Ayrıntılar için İstatistiksel çıkarımla ilgili Wikipedia makalesine bakın.

Tahminin, gözetimli öğrenme sistemindeki rolünü öğrenmek için Yapay Zeka'ya Giriş kursunda Gözetimli Öğrenme bölümüne bakın.

çıkarım yolu

#df

Karar ağacında, çıkarım sırasında belirli bir örnek, kökten diğer koşullara giden ve yaprak ile sona eren yolu takip eder. Örneğin, aşağıdaki karar ağacında daha kalın oklar, aşağıdaki özellik değerlerine sahip bir örnek için çıkarım yolunu gösterir:

  • x = 7
  • y = 12
  • z = -3

Aşağıdaki görselde gösterilen çıkarım yolu, yaprağa (Zeta) ulaşmadan önce üç koşuldan geçer.

Dört koşul ve beş yapraktan oluşan bir karar ağacı.
          Kök koşul (x > 0) şeklindedir. Yanıt evet olduğundan çıkarım yolu kökten sonraki koşula (y > 0) gider.
          Yanıt Evet olduğundan çıkarım yolu sonraki koşula (z > 0) gider. Yanıt &quot;Hayır&quot; olduğu için çıkarım yolu, terminal düğümüne (Zeta) gider.

Üç kalın ok, çıkarım yolunu gösterir.

Daha fazla bilgi için Karar Ağaçları kursundaki Karar ağaçları bölümüne bakın.

bilgi kazancı

#df

Karar ağaçlarında, bir düğümün entropisi ile alt düğümlerinin entropisinin ağırlıklı (örnek sayısına göre) toplamı arasındaki farktır. Bir düğümün entropisi, söz konusu düğümdeki örneklerin entropisidir.

Örneğin, aşağıdaki entropi değerlerini ele alalım:

  • Üst düğümün entropisi = 0,6
  • 16 alakalı örnek içeren bir alt düğümün entropisi = 0,2
  • 24 alakalı örnek içeren başka bir alt düğümün entropisi = 0,1

Dolayısıyla örneklerin% 40'ı bir alt düğümde, %60'ı ise diğer alt düğümdedir. Bu nedenle:

  • Alt düğümlerin ağırlıklı entropi toplamı = (0,4 * 0,2) + (0,6 * 0,1) = 0,14

Bilgi kazancı şu şekildedir:

  • bilgi kazancı = üst öğenin entropisi - alt öğelerin ağırlıklı entropi toplamı
  • bilgi kazancı = 0,6 - 0,14 = 0,46

Çoğu bölen, bilgi kazanımını en üst düzeye çıkaran koşullar oluşturmaya çalışır.

grup içi önyargı

#fairness

Kendi grubuna veya özelliklerine taraf tutma Test edenler veya puan verenler makine öğrenimi geliştiricisinin arkadaşları, ailesi veya iş arkadaşlarıysa grup içi önyargı, ürün testini veya veri kümesini geçersiz kılabilir.

Grup içi önyargı, gruba atfetme önyargısının bir türüdür. Ayrıca grup dışı homojenlik önyargısı konusuna da bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

giriş üreteci

Verilerin nöral ağa yüklendiği mekanizma.

Giriş oluşturucu, ham verileri eğitim, değerlendirme ve çıkarım için gruplar oluşturmak üzere iterasyon uygulanan tenzorlara dönüştürmekten sorumlu bir bileşen olarak düşünülebilir.

giriş katmanı

#fundamentals

Nöral ağın özellik vektörünü içeren katmanı. Yani giriş katmanı, eğitim veya tahmin için örnek sağlar. Örneğin, aşağıdaki sinir ağındaki giriş katmanı iki özellikten oluşur:

Dört katman: giriş katmanı, iki gizli katman ve çıkış katmanı.

ayar içinde koşul

#df

Karar ağacında, bir öğe grubunda bir öğenin bulunup bulunmadığını test eden koşul. Örneğin, aşağıdakiler grup içi koşuldur:

  house-style in [tudor, colonial, cape]

Çıkarımda, ev stili özelliğinin değeri tudor veya colonial veya cape ise bu koşul Evet olarak değerlendirilir. Ev stili özelliğinin değeri başka bir şeyse (örneğin, ranch) bu koşul Hayır olarak değerlendirilir.

Set içi koşullar genellikle tek sıcak kodlu özellikleri test eden koşullardan daha verimli karar ağaçlarına yol açar.

örnek

örnek kelimesinin eş anlamlısıdır.

talimat ince ayarı

#generativeAI

Üretken yapay zeka modelinin talimatları takip etme özelliğini iyileştiren bir ince ayar biçimidir. Talimat ince ayarı, bir modeli genellikle çok çeşitli görevleri kapsayan bir dizi talimat istemiyle eğitmeyi içerir. Bunun sonucunda, talimatlara göre ayarlanmış model, çeşitli görevlerde sıfır atışlı istemlere yararlı yanıtlar üretme eğilimindedir.

Aşağıdakilerle karşılaştırma ve ayırt etme:

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelinin mantığını insanlara anlaşılır terimlerle açıklama veya sunma yeteneği.

Örneğin, çoğu doğrusal regresyon modeli yüksek oranda yorumlanabilirdir. (Yalnızca her bir özellik için eğitilmiş ağırlıklara bakmanız yeterlidir.) Karar ağaçları da son derece yorumlanabilirdir. Ancak bazı modellerin yorumlanabilmesi için gelişmiş görselleştirmeler gerekir.

ML modellerini yorumlamak için Learning Interpretability Tool (LIT)'i kullanabilirsiniz.

değerlendiriciler arası anlaşma

İnsan puanlayıcıların bir görevi yaparken ne sıklıkta anlaştığının ölçümü. Değerlendiriciler aynı fikirde değilse görev talimatlarının iyileştirilmesi gerekebilir. Bazen notlandırıcılar arası anlaşma veya değerlendiriciler arası güvenilirlik olarak da adlandırılır. Ayrıca, en popüler değerlendiriciler arası anlaşma ölçümlerinden biri olan Cohen kappasına da bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Kategorik veriler: Sık karşılaşılan sorunlar bölümüne bakın.

kesişim bölü birleşim (IoU)

#image

İki kümenin kesişiminin, birleşimlerine bölümü. Makine öğrenimi görüntü algılama görevlerinde IoU, modelin tahmin edilen sınırlayıcı kutusunun kesin referans sınırlayıcı kutusuna göre doğruluğunu ölçmek için kullanılır. Bu durumda, iki kutunun IoU'su çakışma alanı ile toplam alan arasındaki orandır ve değeri 0 (tahmini sınırlayıcı kutu ile kesin referans sınırlayıcı kutusu arasında çakışma yok) ile 1 (tahmini sınırlayıcı kutu ile kesin referans sınırlayıcı kutusu tam olarak aynı koordinatlara sahip) arasında değişir.

Örneğin, aşağıdaki resimde:

  • Tahmin edilen sınırlayıcı kutu (modelin, resimdeki gece masasının bulunduğu yeri tahmin ettiği koordinatlar), mor renkle belirtilir.
  • Kesin referans sınır kutusu (resimdeki gece masasının gerçekte bulunduğu yeri sınırlayan koordinatlar), yeşil renkle belirtilir.

Van Gogh&#39;un Arles&#39;teki Vincent Yatak Odası tablosunda, yatağın yanındaki komodinin etrafında iki farklı sınır kutusu. Kesin referans sınırlayıcı kutusu (yeşil renkli) gece masasını mükemmel şekilde çevreliyor. Tahmin edilen sınır kutusu (mor renkli), gerçek sınır kutusunun% 50 aşağı ve sağ tarafına kaydırılmıştır; gece masasının sağ alt çeyreğini içine alır ancak masanın geri kalanını kaçırmıştır.

Burada, tahmin ve kesin referans için sınırlayıcı kutuların kesişimi (sol altta) 1, tahmin ve kesin referans için sınırlayıcı kutuların birleşimi (sağ altta) 7 olduğundan IoU \(\frac{1}{7}\)'tür.

Yukarıdaki resimle aynı ancak her sınırlayıcı kutu dört çeyreğe bölünmüş. Kesin referans sınırlayıcı kutusunun sağ alt çeyreği ile tahmini sınırlayıcı kutusunun sol üst çeyreği birbirini kapladığından toplam yedi çeyrek vardır. Bu örtüşen bölüm (yeşil renkle vurgulanmıştır), kesişimi temsil eder ve 1 alanı vardır. Yukarıdaki resimle aynı ancak her sınırlayıcı kutu dört çeyreğe bölünmüş. Kesin referans sınırlayıcı kutusunun sağ alt çeyreği ile tahmini sınırlayıcı kutusunun sol üst çeyreği birbirini kapladığından toplam yedi çeyrek vardır.
          Her iki sınırlayıcı kutuyla da çevrelenen iç alanın tamamı (yeşil renkle vurgulanmıştır) birleşmeyi temsil eder ve 7 alanlıdır.

IoU

Kesişim bölü birleşim kısaltması.

öğe matrisi

#recsystems

Öneri sistemlerinde, her öğe ile ilgili gizli sinyaller içeren ve matris faktörleştirme ile oluşturulan yerleştirme vektörleri matrisidir. Öğe matrisinin her satırı, tüm öğeler için tek bir gizli özelliğin değerini içerir. Örneğin, bir film öneri sistemi düşünün. Öğe matrisindeki her sütun tek bir filmi temsil eder. Gizli sinyaller türler veya tür, oyuncular, film yaşı ya da diğer faktörler arasındaki karmaşık etkileşimleri içeren, yorumlanması daha zor sinyaller olabilir.

Öğe matrisi, faktörize edilen hedef matrisle aynı sayıda sütuna sahiptir. Örneğin, 10.000 film başlığını değerlendiren bir film öneri sistemi varsa öğe matrisinde 10.000 sütun bulunur.

items

#recsystems

Öneri sisteminde, sistemin önerdiği öğeler. Örneğin, videolar bir video mağazasının önerdiği öğeler, kitaplar ise bir kitapçının önerdiği öğelerdir.

iterasyon

#fundamentals

Eğitim sırasında modelin parametrelerinin (modelin ağırlıkları ve önyargıları) tek bir güncellemesi. Grup boyutu, modelin tek bir iterasyonda kaç örnek işlediğini belirler. Örneğin, toplu boyut 20 ise model, parametreleri ayarlamadan önce 20 örneği işler.

Bir nöral ağı eğitirken tek bir iterasyon aşağıdaki iki geçişi içerir:

  1. Tek bir gruptaki kaybı değerlendirmek için ileri geçiş.
  2. Modelin parametrelerini kayıp ve öğrenme hızına göre ayarlamak için geri geçiş (geri yayılma).

J

JAX

Yüksek performanslı sayısal hesaplama için XLA (Hızlandırılmış Doğrusal Cebir) ve otomatik diferansiyel hesaplamayı bir araya getiren bir dizi hesaplama kitaplığı. JAX, birleştirilebilir dönüşümlerle hızlandırılmış sayısal kod yazmak için basit ve güçlü bir API sağlar. JAX aşağıdakiler gibi özellikler sunar:

  • grad (otomatik diferansiyel)
  • jit (tam zamanında derleme)
  • vmap (otomatik vektörleştirme veya toplu işleme)
  • pmap (paralelleştirme)

JAX, sayısal kod dönüşümlerini ifade etmek ve derlemek için kullanılan bir dildir. Python'un NumPy kitaplığına benzer ancak kapsamı çok daha geniştir. (Aslında JAX altındaki .numpy kitaplığı, işlevsel olarak eşdeğer ancak Python NumPy kitaplığının tamamen yeniden yazılmış bir sürümüdür.)

JAX, modelleri ve verileri GPU ile TPU hızlandırıcı çipleri arasında paralelliğe uygun bir forma dönüştürerek özellikle birçok makine öğrenimi görevini hızlandırmak için uygundur.

Flax, Optax, Pax ve diğer birçok kitaplık JAX altyapısı üzerine inşa edilmiştir.

K

Keras

Popüler bir Python makine öğrenimi API'si. Keras, TensorFlow da dahil olmak üzere çeşitli derin öğrenme çerçevelerinde çalışır. TensorFlow'da tf.keras olarak kullanılabilir.

Çekirdek Destek Vektör Makineleri (KSVM'ler)

Giriş veri vektörlerini daha yüksek boyutlu bir uzayla eşleyerek pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmaya çalışan bir sınıflandırma algoritması. Örneğin, giriş veri kümesinin yüz özelliğe sahip olduğu bir sınıflandırma problemini düşünün. KSVM, pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmak için bu özellikleri dahili olarak bir milyon boyutlu alanda eşleyebilir. KSVM'ler, menteşe kaybı adlı bir kayıp işlevi kullanır.

önemli noktalar

#image

Bir resimdeki belirli özelliklerin koordinatları. Örneğin, çiçek türlerini ayırt eden bir resim tanıma modelinde anahtar noktalar her bir taç yaprağın ortası, sap, erkek organ vb. olabilir.

k-katmanlı çapraz doğrulama

Bir modelin yeni verilere genelleme yapma yeteneğini tahmin eden bir algoritma. K katlamadaki k, bir veri kümesinin örneklerini ayırdığınız eşit grupların sayısını ifade eder. Yani modelinizi k kez eğitip test edersiniz. Her eğitim ve test turunda farklı bir grup test grubu olur ve kalan tüm gruplar eğitim grubu olur. k tur eğitim ve testten sonra, seçilen test metriklerinin ortalamasını ve standart sapmasını hesaplarsınız.

Örneğin, veri kümenizin 120 örnekten oluştuğunu varsayalım. Ayrıca, k değerini 4 olarak ayarlamaya karar verdiğinizi varsayalım. Bu nedenle, örnekleri karıştırdıktan sonra veri kümesini 30 örnekten oluşan dört eşit gruba ayırır ve dört eğitim ve test turu gerçekleştirirsiniz:

Dört eşit örnek grubuna ayrılmış bir veri kümesi. 1. turda ilk üç grup eğitim için, son grup ise test için kullanılır. 2. turda ilk iki grup ve son grup eğitim için, üçüncü grup ise test için kullanılır. 3. turda ilk grup ve son iki grup eğitim için, ikinci grup ise test için kullanılır.
          4. turda ilk grup test için, son üç grup ise eğitim için kullanılır.

Örneğin, ortalama karesel hata (MSE) doğrusal regresyon modeli için en anlamlı metrik olabilir. Bu nedenle, dört tur boyunca MSE'nin ortalamasını ve standart sapmasını bulursunuz.

k-ortalama

#clustering

Gözetimli öğrenmede örnekleri gruplandıran popüler bir kümeleme algoritması. K-ortalama algoritması temel olarak aşağıdakileri yapar:

  • En iyi k merkez noktasını (merkez noktaları olarak bilinir) iteratif olarak belirler.
  • Her örneği en yakın merkez noktaya atar. Aynı merkez noktaya en yakın örnekler aynı gruba aittir.

K-ortalama algoritması, her bir örnekten en yakın merkez noktasına olan mesafelerin kümülatif kare değerini en aza indirmek için merkez noktası konumlarını seçer.

Örneğin, köpek boyunun köpek genişliğine göre gösterildiği aşağıdaki grafiği inceleyin:

Birkaç düzine veri noktası içeren Kartezyen nokta grafiği.

k=3 ise k-ortalama algoritması üç ağırlık merkezi belirler. Her örnek, en yakın merkez noktasına atanır. Böylece üç grup elde edilir:

Üç ağırlık merkezinin eklenmesi dışında önceki görseldekiyle aynı Kartezyen nokta
          Önceki veri noktaları üç farklı gruba ayrılır. Her grup, belirli bir merkeze en yakın veri noktalarını temsil eder.

Bir üreticinin, köpekler için küçük, orta ve büyük kazak bedenlerinin ideal ölçülerini belirlemek istediğini varsayalım. Üç kütle merkezi, ilgili kümedeki her köpeğin ortalama yüksekliğini ve ortalama genişliğini tanımlar. Bu nedenle, üreticinin kazak bedenlerini bu üç merkez noktasına göre belirlemesi gerekir. Bir kümenin ağırlık merkezinin genellikle kümedeki bir örnek olmadığını unutmayın.

Önceki görsellerde, yalnızca iki özelliği (yükseklik ve genişlik) olan örnekler için k-ortalama gösterilmektedir. K-ortalamaların, örnekleri birçok özellikte gruplandırabileceğini unutmayın.

k-ortanca

#clustering

K-ortalama ile yakından ilişkili bir kümeleme algoritması. Bu iki yöntem arasındaki pratik fark şu şekildedir:

  • K-ortalamaları yönteminde, bir merkez adayı ile örneklerinin her biri arasındaki mesafenin karelerinin toplamı en aza indirilerek merkezler belirlenir.
  • K-ortalama yönteminde, merkez nokta adayları ile örnekleri arasındaki mesafelerin toplamı en aza indirilerek merkez noktalar belirlenir.

Mesafe tanımlarının da farklı olduğunu unutmayın:

  • k-ortalama, ağırlık merkezi ile bir örnek arasındaki Öklid uzaklığını temel alır. (İki boyutta Öklid mesafesi, hipotenüsü hesaplamak için Pisagor teoreminin kullanılması anlamına gelir.) Örneğin, (2,2) ile (5,-2) arasındaki k-ortalama mesafe şöyle olur:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-median, merkez nokta ile bir örnek arasındaki Manhattan uzaklığına dayanır. Bu mesafe, her boyuttaki mutlak deltaların toplamıdır. Örneğin, (2,2) ile (5,-2) arasındaki k-median mesafesi şöyle olur:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır olmayan ağırlıkların toplam sayısını cezalandıran bir tür normalleştirme. Örneğin, sıfır olmayan 11 ağırlığa sahip bir model, sıfır olmayan 10 ağırlığa sahip benzer bir modelden daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0 norm normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş örnek içeren bir grup için L1 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 mağlubiyeti

L1 kaybı, L2 kaybına kıyasla aykırı değerlere karşı daha az hassastır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıkları, ağırlıkların mutlak değerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L1 normalleştirmesi, alakasız veya çok az alakalı özelliklerin ağırlıklarını tam olarak 0 değerine çekmeye yardımcı olur. Ağırlığı 0 olan özellikler modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesiyle karşılaştırın.

L2 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş örnek içeren bir grup için L2 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 mağlubiyet

Kare alma işlemi nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybına kıyasla daha güçlü tepki verir. Örneğin, önceki toplu işlem için L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin 16 değerin 9'unu oluşturduğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Karesel Hata, örnek başına ortalama L2 kaybıdır. Kare kaybı, L2 kaybının başka bir adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıkları, ağırlıkların karelerinin toplamıyla orantılı olarak cezalandıran bir tür normalleştirme. L2 normalleştirmesi, aykırı ağırlıkları (yüksek pozitif veya düşük negatif değerlere sahip olanlar) 0'a yaklaştırır ancak tam olarak 0'a getirmez. 0'a çok yakın değerlere sahip özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi, doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesiyle karşılaştırın.

etiket

#fundamentals

Gözetimli makine öğrenimi'nde, örnek'in "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Örneğin, spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Yağış veri kümesinde etiket, belirli bir dönemde yağan yağmur miktarı olabilir.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınan, her biri üç özelliğe ve bir etikete sahip üç etiketli örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Ev fiyatı (etiket)
3 2 15 345.000 ABD doları
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğrenimi modelleri, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler hakkında tahminde bulunur.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

etiket kaybı

Bir özelliğin etiketin proxy'si olduğu model tasarımı hatası. Örneğin, potansiyel bir müşterinin belirli bir ürünü satın alıp almayacağını tahmin eden bir ikili sınıflandırma modelini düşünün. Modelin özelliklerinden birinin SpokeToCustomerAgent adlı bir Boole değeri olduğunu varsayalım. Ayrıca, müşteri temsilcisinin yalnızca potansiyel müşteri ürünü satın aldıktan sonra atandığını varsayalım. Eğitim sırasında model, SpokeToCustomerAgent ile etiket arasındaki ilişkiyi hızlı bir şekilde öğrenir.

lambda

#fundamentals

Düzenleme oranı ile eş anlamlıdır.

Lambda, aşırı yüklenmiş bir terimdir. Burada, terimin normalleştirme bağlamındaki tanımına odaklanıyoruz.

LaMDA (Sohbet Uygulamaları İçin Dil Modeli)

#language

Google tarafından geliştirilen, gerçekçi konuşma yanıtları oluşturabilen büyük bir diyalog veri kümesinde eğitilmiş Transformer tabanlı büyük dil modeli.

LaMDA: çığır açan konuşma teknolojimiz başlıklı makalede bu konuya genel bir bakış sunulmaktadır.

önemli noktalar

#image

Önemli noktalar ile eş anlamlıdır.

dil modeli

#language

Daha uzun bir jeton dizisinde jeton veya jeton dizisinin gerçekleşme olasılığını tahmin eden bir model.

büyük dil modeli

#language

En azından çok sayıda parametre içeren bir dil modeli. Daha basit bir ifadeyle, Gemini veya GPT gibi Transformer tabanlı dil modelleri.

gizli alan

#language

Yerleştirme alanı ile eş anlamlıdır.

katman

#fundamentals

Nöral ağ içindeki bir grup nöron. Sık kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki görselde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, tenzorları ve yapılandırma seçeneklerini giriş olarak alan ve çıkış olarak başka tenzorlar üreten Python işlevleridir.

Layers API (tf.layers)

#TensorFlow

Katmanlardan oluşan bir derin sinir ağı oluşturmak için kullanılan TensorFlow API'si. Layers API, aşağıdakiler gibi farklı katman türleri oluşturmanıza olanak tanır:

Layers API, Keras katman API'si kurallarına uyar. Yani Layers API'deki tüm işlevler, farklı bir ön ek dışında Keras layers API'deki benzerleriyle aynı ada ve imzaya sahiptir.

yaprak

#df

Karar ağacındaki herhangi bir uç nokta. Koşul'un aksine, yaprak bir test gerçekleştirmez. Bunun yerine, bir yaprak olası bir tahmindir. Yapraklar, çıkarım yolunun terminal düğümüdür.

Örneğin, aşağıdaki karar ağacı üç yaprak içerir:

Üç yaprağa giden iki koşul içeren bir karar ağacı.

Learning Interpretability Tool (LIT)

Görsel, etkileşimli bir model anlama ve veri görselleştirme aracı.

Modelleri yorumlamak veya metin, resim ve tablo verilerini görselleştirmek için açık kaynak LIT'i kullanabilirsiniz.

öğrenme hızı

#fundamentals

Eğim azalma algoritmasına her iterasyonda ağırlıkları ve önyargıları ne kadar güçlü ayarlayacağını söyleyen kayan noktalı bir sayı. Örneğin, 0,3'lük bir öğrenme hızı, ağırlıkları ve önyargıları 0,1'lik bir öğrenme hızından üç kat daha güçlü bir şekilde ayarlar.

Öğrenme hızı, önemli bir hiperparametredir. Öğrenme hızını çok düşük ayarlarsanız eğitim çok uzun sürer. Öğrenme hızını çok yüksek ayarlarsanız gradyan azalma genellikle ayrışma noktasına ulaşmakta sorun yaşar.

en küçük kareler regresyonu

L2 kaybını en aza indirerek eğitilen bir doğrusal regresyon modeli.

Levenshtein Uzaklığı

#language
#metric

Bir kelimeyi başka bir kelimeyle değiştirmek için gereken en az silme, ekleme ve değiştirme işlemlerini hesaplayan bir düzenleme mesafesi metriği. Örneğin, "kalp" ve "ok" kelimeleri arasındaki Levenshtein uzaklığı üçtür. Çünkü aşağıdaki üç düzenleme, bir kelimeyi diğerine dönüştürmek için gereken en az değişikliktir:

  1. kalp → deart ("h" yerine "d" yazın)
  2. deart → dart ("e" silinir)
  3. dart → darts ("s" ekleyin)

Üç düzenlemenin tek yolunun yukarıdaki sıra olmadığını unutmayın.

doğrusal

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilebilen ilişki.

Doğrusal ilişkilerin grafiği bir çizgidir.

Doğrusal olmayan ile karşılaştırın.

doğrusal model

#fundamentals

Tahminler yapmak için özellik başına bir ağırlık atayan model. (Doğrusal modeller de önyargı içerir.) Buna karşılık, derin modellerde özelliklerin tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolaydır ve derin modellere kıyasla daha anlaşılabilirdir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, doğrusal modellerin iki türüdür.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyon ile mantıksal regresyon arasındaki farkları öğrenin. Ayrıca, regresyonu sınıflandırma ile karşılaştırın.

LIT

Önceden Dil Yorumlanabilirlik Aracı olarak bilinen Öğrenme Yorumlanabilirlik Aracı (LIT) kısaltması.

LLM

#language
#generativeAI

Büyük dil modeli kısaltması.

LLM değerlendirmeleri (evals)

#language
#generativeAI

Büyük dil modellerinin (LLM'ler) performansını değerlendirmeye yönelik bir dizi metrik ve karşılaştırma. Genel olarak LLM değerlendirmeleri:

  • Araştırmacıların, LLM'lerin iyileştirilmesi gereken alanlarını belirlemesine yardımcı olun.
  • Farklı LLM'leri karşılaştırmak ve belirli bir görev için en iyi LLM'yi belirlemek için yararlıdır.
  • LLM'lerin güvenli ve etik bir şekilde kullanılmasına yardımcı olma

mantıksal regresyon

#fundamentals

Bir olasılığı tahmin eden bir tür regresyon modeli. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategorik olmalıdır. Mantıksal regresyon terimi genellikle ikili mantıksal regresyonu, yani iki olası değeri olan etiketler için olasılıkları hesaplayan bir modeli ifade eder. Daha az yaygın bir varyant olan çok değişkenli mantıksal regresyon, ikiden fazla olası değere sahip etiketlerin olasılıklarını hesaplar.
  • Eğitim sırasındaki kayıp işlevi Log Loss'tur. (İkiden fazla olası değere sahip etiketler için paralel olarak birden fazla Log Loss birimi yerleştirilebilir.)
  • Model, derin sinir ağı değil doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketler için olasılıkları tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olma olasılığını hesaplayan mantıksal regresyon modelini düşünün. Çıkarma sırasında modelin 0, 72 tahmin ettiğini varsayalım. Bu nedenle model şunu tahmin eder:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olma olasılığı% 28'dir.

Mantıksal regresyon modeli aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinin doğrusal bir işlevini uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini bir sigmoid işlevine girdi olarak kullanır. Bu işlev, ham tahmini 0 ile 1 arasında (dahil değil) bir değere dönüştürür.

Her regresyon modelinde olduğu gibi mantıksal regresyon modeli de bir sayıyı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modelinin parçası olur:

  • Tahmin edilen sayı sınıflandırma eşiğinden daha yüksekse ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı sınıflandırma eşiğinden az ise ikili sınıflandırma modeli negatif sınıfı tahmin eder.

mantıksal dönüşümler

Bir sınıflandırma modelinin oluşturduğu ham (normalleştirilmemiş) tahminler vektörü. Bu vektör daha sonra genellikle bir normalleştirme işlevine iletilir. Model bir çok sınıflı sınıflandırma problemini çözüyorsa mantıksal değerler genellikle softmax işlevinin girişi olur. Ardından softmax işlevi, her olası sınıf için bir değer içeren (normalleştirilmiş) olasılıklardan oluşan bir vektör oluşturur.

Günlük kaybı

#fundamentals

İkili mantıksal regresyonda kullanılan kayıp işlevi.

log olasılığı

#fundamentals

Bir olayın olasılığının logaritması.

Uzun kısa süreli bellek (LSTM)

#seq

El yazısı tanıma, makine çevirisi ve resim altyazı ekleme gibi uygulamalarda veri dizilerini işlemek için kullanılan yineleyici sinir ağında bir hücre türü. LSTM'ler, RNN'lerin uzun veri dizileri nedeniyle eğitilirken ortaya çıkan gradyan kaybolma sorununu, geçmişi RNN'deki önceki hücrelerden gelen yeni girişe ve içeriğe dayalı bir dahili bellek durumunda tutarak çözer.

LoRA

#language
#generativeAI

Düşük Sıralı Uyumluluk kısaltması.

mağlubiyet

#fundamentals

Gözetimli bir modelin eğitimi sırasında modelin tahmininin etiketinden ne kadar uzak olduğunu gösteren bir ölçümdür.

Kayıp işlevi, kaybı hesaplar.

Kayıp toplayıcı

Birden fazla modelin tahminlerini birleştirip tek bir tahminde bulunmak için bu tahminleri kullanarak bir modelin performansını artıran bir tür makine öğrenimi algoritması. Sonuç olarak, kayıp toplayıcı, tahminlerin varyansını azaltabilir ve tahminlerin doğruluğunu artırabilir.

kayıp eğrisi

#fundamentals

Eğitim iterasyonlarının sayısına bağlı olarak kayıp grafiği. Aşağıdaki grafikte tipik bir kayıp eğrisi gösterilmektedir:

İlk iterasyonlarda kayıpta hızlı bir düşüş, ardından kademeli bir düşüş ve son iterasyonlarda düz bir eğim gösteren, kayıp ve eğitim iterasyonları arasındaki Kartezyen grafik.

Kayıp eğrileri, modelinizin ne zaman yakınlaştığını veya aşırı uyum sağladığını belirlemenize yardımcı olabilir.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Genelleştirme eğrisi konusuna da göz atın.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, bir toplu örnekteki kaybı hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminler yapan modeller için kötü tahminler yapan modellere kıyasla daha düşük bir kayıp döndürür.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı kayıp işlevi vardır. Oluşturduğunuz model türü için uygun kayıp işlevini seçin. Örneğin:

kayıp yüzeyi

Kilo ve kilo kaybı grafiği. Gradyan iniş, kayıp yüzeyinin yerel minimumda olduğu ağırlıkları bulmaya çalışır.

Düşük Sıralı Uyumluluk (LoRA)

#language
#generativeAI

Modelin önceden eğitilmiş ağırlıklarını "dondurup" (artık değiştirilemeyecek şekilde) ve ardından modele küçük bir eğitilebilir ağırlık grubu ekleyen ince ayar için parametre açısından verimli bir teknik. Bu eğitilebilir ağırlıklar grubu ("güncelleme matrisleri" olarak da bilinir), temel modelden önemli ölçüde daha küçüktür ve bu nedenle eğitilmesi çok daha hızlıdır.

LoRA aşağıdaki avantajları sağlar:

  • İnce ayarlama işleminin uygulandığı alan için modelin tahminlerinin kalitesini artırır.
  • Bir modelin tüm parametrelerinin ince ayarlanmasını gerektiren tekniklere kıyasla daha hızlı ince ayar yapar.
  • Aynı temel modeli paylaşan birden fazla özel modelin eşzamanlı olarak sunulmasını sağlayarak tahmin işleminin hesaplama maliyetini azaltır.

LSTM

#seq

Uzun Kısa Süreli Bellek kısaltması.

M

makine öğrenimi

#fundamentals

Giriş verilerinden model eğiten bir program veya sistem. Eğitilmiş model, modelin eğitilmesinde kullanılan dağıtımla aynı dağıtımdan alınan yeni (daha önce hiç görülmemiş) verilerden yararlı tahminler yapabilir.

Makine öğrenimi, bu programlar veya sistemlerle ilgili çalışma alanını da ifade eder.

makine çevirisi

#generativeAI

Metni bir insan dilinden başka bir insan diline (ör. İngilizceden Japoncaya) dönüştürmek için yazılım (genellikle makine öğrenimi modeli) kullanma

çoğunluk sınıfı

#fundamentals

Sınıf dengesi bozuk bir veri kümesinde daha yaygın olan etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi verildiğinde negatif etiketler çoğunluk sınıfıdır.

Azınlık sınıfıyla karşılaştırın.

Markov karar süreci (MDP)

#rl

Markov özelliğinin geçerli olduğu varsayımı altında, durumlar arasında gezinmek için kararların (veya işlemlerin) alındığı karar verme modelini temsil eden bir grafik. Güçlendirme öğrenimi'nde, durumlar arasındaki bu geçişler sayısal bir ödül döndürür.

Markov özelliği

#rl

Durum geçişlerinin tamamen mevcut durum ve aracının işlemine dahil olan bilgilere göre belirlendiği belirli ortamların bir özelliğidir.

maskelenmiş dil modeli

#language

Bir sıradaki boşlukları doldurmak için aday jetonların olasılığını tahmin eden dil modeli. Örneğin, maskelenmiş bir dil modeli, aşağıdaki cümledeki altı çizili kısmı değiştirmek için olası kelimeleri hesaplayabilir:

Şapkadaki ____ geri geldi.

Literatürde genellikle alt çizgi yerine "MASK" dizesi kullanılır. Örneğin:

Şapkadaki "MASK" geri geldi.

Modern maskelenmiş dil modellerinin çoğu iki yönlüdür.

matplotlib

Açık kaynaklı bir Python 2D çizim kitaplığı. matplotlib, makine öğreniminin farklı yönlerini görselleştirmenize yardımcı olur.

matrisi çarpanlara ayırma

#recsystems

Matematikte, skaler çarpımı hedef matrise yaklaşık olan matrisleri bulma mekanizması.

Öneri sistemlerinde hedef matrisinde genellikle kullanıcıların öğelere verdiği puanlar bulunur. Örneğin, bir film öneri sistemi için hedef matris aşağıdaki gibi görünebilir. Pozitif tam sayılar kullanıcı puanları, 0 ise kullanıcının filmi puanlamadığını gösterir:

  Kazablanka Philadelphia Hikayesi Black Panther Wonder Woman Ucuz Roman
1. Kullanıcı 5,0 3,0 0,0 2,0 0,0
2. Kullanıcı 4.0 0,0 0,0 1,0 5,0
3. Kullanıcı 3,0 1,0 4.0 5,0 0,0

Film öneri sistemi, derecelendirilmemiş filmler için kullanıcı puanlarını tahmin etmeyi amaçlar. Örneğin, 1. kullanıcı Black Panther'ı beğenir mi?

Öneri sistemleri için bir yaklaşım, aşağıdaki iki matrisi oluşturmak üzere matris faktörleştirmeyi kullanmaktır:

  • Kullanıcı sayısı X yerleştirme boyutu sayısı şeklinde şekillendirilmiş bir kullanıcı matrisi.
  • Yerleştirme boyutlarının sayısı x öğe sayısı şeklinde biçimlendirilmiş bir öğe matrisi.

Örneğin, üç kullanıcımız ve beş öğemiz için matrisi çarpanlara ayırma yöntemini kullandığımızda aşağıdaki kullanıcı matrisi ve öğe matrisi elde edilebilir:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

Kullanıcı matrisinin ve öğe matrisinin nokta çarpımı, yalnızca orijinal kullanıcı puanlarını değil, her kullanıcının izlemediği filmlerle ilgili tahminleri de içeren bir öneri matrisi oluşturur. Örneğin, 1.kullanıcının Casablanca için verdiği 5, 0 puanlı derecelendirmeyi düşünün. Öneri matrisinde bu hücreye karşılık gelen nokta çarpımı, umarım 5,0 civarındadır ve şu şekildedir:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

Daha da önemlisi, 1. kullanıcı Black Panther'ı beğenir mi? İlk satıra ve üçüncü sütuna karşılık gelen nokta çarpımı, 4,3 olarak tahmin edilen bir puan verir:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

Matrisi çarpanlara ayırma işlemi genellikle, birlikte hedef matristen çok daha kompakt olan bir kullanıcı matrisi ve öğe matrisi oluşturur.

Ortalama Mutlak Hata (MAE)

L1 kaybı kullanıldığında örnek başına ortalama kayıp. Ortalama mutlak hatayı aşağıdaki gibi hesaplayın:

  1. Bir toplu işlem için L1 kaybını hesaplama
  2. L1 kaybını, gruptaki örneklerin sayısına bölün.

Örneğin, aşağıdaki beş örnekten oluşan grupta L1 kaybının hesaplamasını ele alalım:

Örneğin gerçek değeri Modelin tahmini değeri Kayıp (gerçek ve tahmin edilen arasındaki fark)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 mağlubiyeti

Dolayısıyla L1 kaybı 8 ve örnek sayısı 5'tir. Bu nedenle, ortalama mutlak hata:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

Ortalama mutlak hatayı ortalama karesel hata ve kök ortalama karesel hata ile karşılaştırın.

k değerinde ortalama hassasiyet (mAP@k)

#language
#generativeAI

Doğrulama veri kümesinde tüm k için ortalama hassasiyet puanlarının istatistiksel ortalaması. k değerinde ortalama hassasiyetin bir kullanım alanı, öneri sistemi tarafından oluşturulan önerilerin kalitesini değerlendirmektir.

"Ortalama ortalama" ifadesi gereksiz görünse de metriğin adı uygundur. Sonuçta bu metrik, birden fazla k değerinde ortalama kesinlik değerinin ortalamasını bulur.

Ortalama Karesel Hata (MSE)

L2 kaybı kullanıldığında örnek başına ortalama kayıp. Ortalama karesel hatayı aşağıdaki gibi hesaplayın:

  1. Bir toplu işlem için L2 kaybını hesaplama
  2. L2 kaybını gruptaki örneklerin sayısına bölün.

Örneğin, aşağıdaki beş örnekten oluşan gruptaki kaybı ele alalım:

Gerçek değer Modelin tahmini Kayıp Kare kaybı
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 mağlubiyet

Bu nedenle, ortalama karesel hata:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

Ortalama Karesel Hata, özellikle doğrusal regresyon için popüler bir eğitim optimizasyon aracıdır.

Ortalama karesel hatayı ortalama mutlak hata ve kök ortalama kare hatasıyla karşılaştırın.

TensorFlow Playground, kayıp değerlerini hesaplamak için Ortalama Kare Hata değerini kullanır.

örgü

#TensorFlow
#GoogleCloud

ML paralel programlamasında, verileri ve modeli TPU çiplerine atama ve bu değerlerin nasıl bölüneceğini veya çoğaltılacağını tanımlamayla ilişkili bir terimdir.

Örgü, aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çipleriyle eşlemek için soyut mantıksal yapı.

Her iki durumda da ağ, şekil olarak belirtilir.

meta öğrenme

#language

Bir öğrenme algoritmasını keşfeden veya iyileştiren makine öğreniminin alt kümesi. Meta öğrenme sistemi, bir modeli küçük miktarda veri veya önceki görevlerde edinilen deneyimlerden yeni bir görevi hızlı bir şekilde öğrenecek şekilde eğitmeyi de amaçlayabilir. Meta öğrenme algoritmaları genellikle aşağıdakileri gerçekleştirmeye çalışır:

  • El ile tasarlanmış özellikleri (ör. başlatıcı veya optimizatör) iyileştirme veya öğrenme
  • Daha fazla veri ve hesaplama verimliliği elde edin.
  • Genelleştirmeyi iyileştirin.

Meta öğrenme, az sayıda örnekle öğrenme ile ilgilidir.

metrik

#TensorFlow

Önemsediğiniz bir istatistik.

Hedef, bir makine öğrenimi sisteminin optimize etmeye çalıştığı bir metriktir.

Metrics API (tf.metrics)

Modelleri değerlendirmek için bir TensorFlow API'si. Örneğin, tf.metrics.accuracy, bir modelin tahminlerinin etiketlerle ne sıklıkta eşleştiğini belirler.

mini grup

#fundamentals

Bir iterasyonda işlenen grup'un rastgele seçilmiş küçük bir alt kümesi. Mini bir grubun grup boyutu genellikle 10 ila 1.000 örnek arasındadır.

Örneğin, eğitim veri kümesinin tamamının (tam grup) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her mini grubun grup boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle her iterasyon, 1.000 örnekten rastgele 20'sinde kaybı belirler ve ardından ağırlıkları ve önyargıları buna göre ayarlar.

Mini bir gruptaki kaybı hesaplamak, tam gruptaki tüm örneklerdeki kayıptan çok daha verimlidir.

küçük gruplu stokastik gradyan inişi

Mini gruplar kullanan bir gradyan azalma algoritması. Diğer bir deyişle, küçük gruplu stokastik gradyan azalma, gradyanı eğitim verilerinin küçük bir alt kümesine göre tahmin eder. Normal stokastik gradyan azalma, 1 boyutunda bir mini grup kullanır.

minimax kaybı

Oluşturulan verilerin dağılımı ile gerçek verilerin dağılımı arasındaki çapraz entropi değerine dayalı üretici zıt ağlar için kayıp işlevi.

Minimax kaybı, üretken zıt ağları açıklamak için ilk makalede kullanılır.

azınlık sınıfı

#fundamentals

Sınıf dengesi bozuk veri kümesinde daha seyrek görülen etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi verildiğinde pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfıyla kontrast oluşturur.

uzmanların karışımı

#language
#generativeAI

Belirli bir giriş jetonunu veya öreğini işlemek için yalnızca parametrelerinin bir alt kümesini (uzman olarak bilinir) kullanarak sinir ağının verimliliğini artırmaya yönelik bir şema. Giriş ağı, her giriş jetonunu veya örneği uygun uzmanlara yönlendirir.

Ayrıntılı bilgi için aşağıdaki makalelerden birini inceleyin:

ML

Makine öğrenimi kısaltması.

MMIT

#language
#image
#generativeAI

Çok modlu talimat ayarlı kısaltması.

MNIST

#image

LeCun, Cortes ve Burges tarafından derlenen, 60.000 resim içeren herkese açık bir veri kümesi. Her resimde, bir kişinin 0-9 arasındaki belirli bir rakamı manuel olarak nasıl yazdığı gösterilir. Her resim, 28x28 tam sayı dizisi olarak depolanır. Her tam sayı, 0 ile 255 (ikisi de dahil) arasında bir gri tonlama değeridir.

MNIST, makine öğrenimi için kurallı bir veri kümesidir ve genellikle yeni makine öğrenimi yaklaşımlarını test etmek için kullanılır. Ayrıntılar için El Yazısıyla Gösterilen Rakamlar İçin MNIST Veritabanı başlıklı makaleyi inceleyin.

yöntem

#language

Üst düzey bir veri kategorisi. Örneğin, sayılar, metin, resimler, video ve ses beş farklı modalitedir.

model

#fundamentals

Genel olarak, giriş verilerini işleyip çıkış döndüren tüm matematiksel yapılardır. Başka bir deyişle, model, bir sistemin tahminde bulunması için gereken parametre ve yapı grubudur. Gözetimli makine öğrenimi'nde model, giriş olarak bir örnek alır ve çıkış olarak bir tahmin çıkarır. Gözetimli makine öğrenimi modelleri birbirinden biraz farklıdır. Örneğin:

  • Doğrusal regresyon modeli, bir ağırlıklar kümesinden ve bir önyargıdan oluşur.
  • Nöral ağ modeli şunları içerir:
    • Her biri bir veya daha fazla nöron içeren bir dizi gizli katman.
    • Her bir nöronla ilişkili ağırlıklar ve önyargılar.
  • Karar ağacı modeli şunları içerir:
    • Ağacın şekli, yani koşulların ve yaprakların bağlı olduğu desen.
    • Koşullar ve yapraklar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu modeller genellikle bir giriş örneğini en uygun kümeyle eşleyebilen bir işlevdir.

model kapasitesi

Bir modelin öğrenebileceği sorunların karmaşıklığı. Bir modelin öğrenebileceği sorunların karmaşıklığı arttıkça modelin kapasitesi de artar. Bir modelin kapasitesi genellikle model parametrelerinin sayısıyla artar. Sınıflandırıcı kapasitesinin resmi tanımı için VC boyutu başlıklı makaleyi inceleyin.

model basamaklı

#generativeAI

Belirli bir çıkarım sorgusu için ideal modeli seçen bir sistem.

Çok büyükten (çok sayıda parametre) çok daha küçüğe (çok daha az parametre) kadar değişen bir model grubunu düşünün. Çok büyük modeller, tahmin sırasında küçük modellere kıyasla daha fazla bilgi işlem kaynağı tüketir. Ancak çok büyük modeller genellikle daha küçük modellere kıyasla daha karmaşık istekler çıkarabilir. Model basamaklandırması, çıkarım sorgusunun karmaşıklığını belirler ve ardından çıkarım yapmak için uygun modeli seçer. Model basamaklandırmanın temel amacı, genellikle daha küçük modeller seçerek ve yalnızca daha karmaşık sorgular için daha büyük bir model seçerek çıkarım maliyetlerini azaltmaktır.

Küçük bir modelin bir telefonda, bu modelin daha büyük bir sürümünün ise uzak bir sunucuda çalıştığını varsayalım. İyi bir model basamaklandırması, küçük modelin basit istekleri işlemesine olanak tanıyarak ve yalnızca karmaşık istekleri işlemek için uzak modeli çağırarak maliyeti ve gecikmeyi azaltır.

Ayrıca model yönlendirici konusuna bakın.

model paralelliği

#language

Bir modelin farklı bölümlerini farklı cihazlara yerleştiren bir eğitim veya çıkarım ölçeklendirme yöntemi. Model paralelliği, tek bir cihaza sığmayacak kadar büyük modelleri etkinleştirir.

Bir sistem, model paralelliğini uygulamak için genellikle aşağıdakileri yapar:

  1. Modeli daha küçük parçalara böler.
  2. Bu küçük parçaların eğitimini birden fazla işlemciye dağıtır. Her işlemci, modelin kendi bölümünü eğitir.
  3. Sonuçları birleştirerek tek bir model oluşturur.

Model paralelliği eğitimi yavaşlatır.

Ayrıca veri paralelliği konusuna da bakın.

model yönlendirici

#generativeAI

Model basamaklandırmasında tahmin için ideal modeli belirleyen algoritma. Model yönlendirici, genellikle belirli bir giriş için en iyi modeli nasıl seçeceğini kademeli olarak öğrenen bir makine öğrenimi modelidir. Ancak model yönlendirici bazen makine öğrenimi içermeyen daha basit bir algoritma olabilir.

model eğitimi

En iyi modeli belirleme süreci.

MOE

#language
#image
#generativeAI

Uzmanlardan oluşan bir grup kısaltması.

İlgiyi Artırma

Bir öğrenme adımını yalnızca mevcut adımdaki türevin yanı sıra kendisinden hemen önceki adımların türevlerine dayandıran gelişmiş bir gradyan azalma algoritması. Momentum, fizikteki momentuma benzer şekilde, zaman içindeki gradyanların üstel ağırlıklı hareketli ortalamasını hesaplamayı içerir. Momentum bazen öğrenmenin yerel minimumlara takılmasını engeller.

MT

#generativeAI

Makine çevirisi kısaltması.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinin ikiden fazla sınıf etiketi içerdiği bir sınıflandırma problemi. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Iris setosa
  • Iris virginica
  • Iris versicolor

Iris veri kümesinde eğitilen ve yeni örneklerde Iris türünü tahmin eden bir model çok sınıflı sınıflandırma gerçekleştirir.

Buna karşılık, tam olarak iki sınıfı ayırt eden sınıflandırma problemleri ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil değerini tahmin eden bir e-posta modeli ikili sınıflandırma modelidir.

Küme oluşturma sorunlarında çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

çok sınıflı mantıksal regresyon

Çok sınıflı sınıflandırma sorunlarında mantıksal regresyon kullanmak

çok başlı kendi kendine dikkat

#language

Giriş dizisindeki her konum için kendi kendine dikkat mekanizmasını birden çok kez uygulayan kendi kendine dikkat özelliğinin bir uzantısıdır.

Transformers, çok başlı öz dikkat özelliğini kullanıma sundu.

çok modlu talimat ayarlı

#language

Metnin yanı sıra görüntü, video ve ses gibi girişleri işleyebilecek talimatlara göre ayarlanmış bir modeldir.

çok modlu model

#language

Girişleri ve/veya çıkışları birden fazla modalite içeren bir model. Örneğin, hem resim hem de metin başlığını (iki mod) özellik olarak alan ve metin başlığının resme ne kadar uygun olduğunu belirten bir puan veren bir model düşünün. Bu modelin girişleri çoklu modlu, çıkışı ise tek modlu.

çoklu sınıflandırma

Çok sınıflı sınıflandırma ile eş anlamlıdır.

çoklu değişkenli regresyon

Çok sınıflı mantıksal regresyon ile eş anlamlıdır.

çoklu görev

Tek bir modelin birden fazla görev gerçekleştirmek üzere eğitildiği bir makine öğrenimi tekniğidir.

Çok görevli modeller, farklı görevlerin her biri için uygun verilerle eğitilerek oluşturulur. Bu, modelin görevlerin arasında bilgi paylaşmayı öğrenmesini sağlar ve modelin daha etkili bir şekilde öğrenmesine yardımcı olur.

Birden fazla görev için eğitilmiş bir model genellikle daha iyi genelleme özelliklerine sahiptir ve farklı veri türlerini işlemede daha güçlü olabilir.

H

NaN tuzağı

Eğitim sırasında modelinizdeki bir sayı NaN olduğunda, modelinizdeki diğer sayıların çoğu veya tümü sonunda NaN olur.

NaN, No a Number (Sayı Değil) kısaltmasıdır.

doğal dil işleme

#language
Bilgisayarlara, kullanıcının söylediği veya yazdığı ifadeleri dil kurallarını kullanarak işlemeyi öğreten alan. Modern doğal dil işleme yöntemlerinin neredeyse tamamı makine öğreniminden yararlanır.

doğal dil anlama

#language

Söylenen veya yazılan bir şeyin niyetlerini belirleyen doğal dil işleme alt kümesi. Doğal dil anlama, doğal dil işlemenin ötesine geçerek bağlam, alay ve yaklaşım gibi dilin karmaşık yönlerini dikkate alabilir.

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği şey veya etkinliktir ve negatif sınıf diğer olasılıktır. Örneğin:

  • Bir tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcısındaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile karşılaştırın.

negatif örnekleme

Aday örnekleme için eş anlamlı.

Nöral Mimarili Arama (NAS)

Sinir ağının mimarisini otomatik olarak tasarlama tekniği. NAS algoritmaları, bir yapay sinir ağını eğitmek için gereken zaman ve kaynak miktarını azaltabilir.

NAS genellikle şunları kullanır:

  • Olası mimarilerden oluşan bir arama alanı.
  • Belirli bir mimarinin belirli bir görevde ne kadar iyi performans gösterdiğinin bir ölçüsü olan uygunluk işlevi.

NAS algoritmaları genellikle küçük bir olası mimari grubuyla başlar ve algoritma hangi mimarilerin etkili olduğu hakkında daha fazla bilgi edindikçe arama alanını kademeli olarak genişletir. Uygunluk işlevi genellikle mimarinin bir eğitim veri kümesinde gösterdiği performansa dayanır ve algoritma genellikle pekiştirme öğrenimi tekniği kullanılarak eğitilir.

NAS algoritmaları, resim sınıflandırma, metin sınıflandırma ve makine çevirisi gibi çeşitli görevler için yüksek performanslı mimariler bulmada etkili olduğunu kanıtlamıştır.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin nöral ağ, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren derin bir sinir ağı gösterilmektedir.

Giriş katmanı, iki gizli katman ve çıkış katmanı olan bir sinir ağı.

Bir nöral ağdaki her nöron, sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada ilk gizli katmandaki üç nöronun her birinin ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığını görebilirsiniz.

Bilgisayarlarda uygulanan nöral ağlar, beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt edilmek için bazen yapay nöral ağlar olarak adlandırılır.

Bazı sinir ağları, farklı özellikler ile etiket arasındaki son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Evrişimli nöral ağ ve yinelemeli nöral ağ hakkında da bilgi edinin.

nöron

#fundamentals

Makine öğrenimindeki nöral ağ gizli katmanında bulunan ayrı bir birimdir. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin ilgili ağırlıklarıyla çarpımının ağırlıklı toplamını hesaplar.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine giriş olarak iletir.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden gelen girişleri kabul eder. İlk katmanın dışındaki herhangi bir gizli katmandaki nöron, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, ilk gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki görselde iki nöron ve girişleri vurgulanmaktadır.

Giriş katmanı, iki gizli katman ve çıkış katmanı olan bir sinir ağı. İki nöron vurgulanır: biri ilk gizli katmanda, diğeri ise ikinci gizli katmanda. İlk gizli katmandaki vurgulanan nöron, giriş katmanındaki iki özellikten de giriş alır. İkinci gizli katmandaki vurgulanan nöron, ilk gizli katmandaki üç nöronun her birinden giriş alır.

Nöral ağdaki bir nöron, beyinlerdeki ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışını taklit eder.

N-gram

#seq
#language

N kelimelik sıralı bir dizi. Örneğin, truly madly 2 gramdır. Sıranın önemli olması nedeniyle madly truly, truly madly ile aynı 2 gram değildir.

H Bu tür bir N-gram için adlar Örnekler
2 iki heceli veya 2 heceli gitmek, gitmek için, öğle yemeği yemek, akşam yemeği yemek
3 üçlü veya 3'lü ate too much, three blind mice, the bell tolls
4 4 gram walk in the park, dust in the wind, the boy ate lentils

Birçok doğal dil anlama modeli, kullanıcının yazacağı veya söyleyeceği bir sonraki kelimeyi tahmin etmek için N-gramlara dayanır. Örneğin, bir kullanıcının üç kör yazdığını varsayalım. Üçlülere dayalı bir NLU modeli, kullanıcının bir sonraki kelime olarak fare yazacağını tahmin eder.

N-gramları, sırasız kelime grupları olan kelime torbası ile karşılaştırın.

NLP

#language

Doğal dil işleme kısaltması.

NLU

#language

Doğal dil anlama kısaltması.

düğüm (karar ağacı)

#df

Karar ağacında koşul veya yaprak.

İki koşulu ve üç yaprağı olan bir karar ağacı.

düğüm (nöral ağ)

#fundamentals

Gizli katman'daki bir nöron.

düğüm (TensorFlow grafiği)

#TensorFlow

TensorFlow grafında bir işlem.

gürültü

Genel olarak, bir veri kümesindeki sinyali gizleyen her şey. Gürültü, verilere çeşitli şekillerde girebilir. Örneğin:

  • Gerçek kişiler etiketlemede hata yapar.
  • İnsanlar ve aletler, özellik değerlerini yanlış kaydeder veya atlar.

diğer durum

#df

İkiden fazla olası sonuç içeren bir koşul. Örneğin, aşağıdaki ikili olmayan koşul üç olası sonuç içerir:

Üç olası sonuca yol açan bir koşul (number_of_legs = ?). Bir sonuç (number_of_legs = 8), spider adlı bir yaprağa yönlendirir. İkinci bir sonuç (number_of_legs = 4), köpek adlı bir yaprağa yol açar. Üçüncü bir sonuç (number_of_legs = 2), penguen adlı bir yaprağa yönlendirir.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasındaki, yalnızca toplama ve çarpma yoluyla gösterilemeyen ilişki. Doğrusal bir ilişki çizgi olarak temsil edilebilir; doğrusal olmayan bir ilişki çizgi olarak temsil edilemez. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki model düşünün. Soldaki model doğrusal, sağdaki model ise doğrusal olmayan bir modeldir:

İki arsa. Bir nokta bir çizgi olduğundan bu doğrusal bir ilişkidir.
          Diğer grafik bir eğri olduğundan bu doğrusal olmayan bir ilişkidir.

yanıt verme önyargısı

#fairness

Seçim yanlılığı konusuna bakın.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, aşağıdaki durağan olmayan örnekleri inceleyin:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede hasat edilen belirli bir meyvenin miktarı yılın büyük bir bölümünde sıfırdır ancak kısa bir süre için büyüktür.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Değişmezlik ile karşılaştırın.

Tek doğru yanıt yok (NORA)

#language
#generativeAI

Birden fazla uygun yanıtı olan bir istem. Örneğin, aşağıdaki istemde tek bir doğru yanıt yoktur:

Bana fillerle ilgili bir fıkra anlat.

Doğru yanıtı olmayan istemleri değerlendirmek zor olabilir.

NORA

#language
#generativeAI

Tek doğru cevap yok ifadesinin kısaltması.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme işlemidir. Örneğin:

  • -1 ila +1
  • 0 ila 1
  • Z puanları (yaklaşık olarak -3 ile +3 arasında)

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri -1 ile +1 gibi standart bir aralığa normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde yaygın bir işlemdir. Özellik vektöründeki her sayısal özellik yaklaşık olarak aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler yapar).

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'nun Sayısal Verilerle Çalışma modülüne bakın. Z puanı normalleştirme konusuna da bakın.

yenilik algılama

Yeni (yeni) bir örneğin eğitim kümesiyle aynı dağılımın bir parçası olup olmadığını belirleme işlemi. Diğer bir deyişle, eğitim veri kümesinde eğitimden sonra yenilik algılama, yeni bir örneğin (tahmin sırasında veya ek eğitim sırasında) aykırı olup olmadığını belirler.

Aykırı değer algılama ile karşılaştırın.

sayısal veriler

#fundamentals

Tam sayı veya gerçek değerli sayı olarak temsil edilen özellikler. Örneğin, bir ev değerleme modeli muhtemelen bir evin büyüklüğünü (metrekare cinsinden) sayısal veriler olarak temsil eder. Bir özelliğin sayısal veri olarak gösterilmesi, özelliğin değerlerinin etiketle matematiksel bir ilişkisi olduğunu gösterir. Yani bir evin metrekare sayısı, muhtemelen evin değeriyle matematiksel bir ilişkiye sahiptir.

Tüm tam sayı verileri sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı bölgelerinde posta kodları tam sayılardır. Ancak tam sayı posta kodları modellerde sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 posta kodunun 10000 posta kodunun iki katı (veya yarısı) kadar güçlü olmamasıdır. Ayrıca, farklı posta kodları farklı emlak değerleriyle ilişkili olsa da 20000 posta kodundaki emlak değerlerinin 10000 posta kodundaki emlak değerlerinin iki katı olduğunu varsayamazsınız. Posta kodları bunun yerine kategorik veri olarak temsil edilmelidir.

Sayısal özellikler bazen sürekli özellikler olarak adlandırılır.

NumPy

Python'da verimli dizi işlemleri sağlayan açık kaynak bir matematik kitaplığıdır. pandas, NumPy üzerine kurulmuştur.

O

hedef

Algoritmanızın optimize etmeye çalıştığı metrik.

hedef işlevi

Bir modelin optimize etmeyi amaçladığı matematiksel formül veya metrik. Örneğin, doğrusal regresyon için hedef işlevi genellikle ortalama kare kaybıdır. Bu nedenle, doğrusal regresyon modeli eğitilirken eğitim, ortalama kare kaybını en aza indirmeyi amaçlar.

Bazı durumlarda amaç, hedef işlevi maksimuma çıkarmaktır. Örneğin, hedef işlevi doğruluk ise hedef, doğruluğu en üst düzeye çıkarmaktır.

Ayrıca loss özelliğine bakın.

eğik koşul

#df

Karar ağacında, birden fazla özellik içeren koşul. Örneğin, yükseklik ve genişlik her ikisi de özellikse aşağıdaki koşul eğik koşuldur:

  height > width

Ekseni hizalama koşuluyla karşılaştırın.

çevrimdışı

#fundamentals

static eş anlamlısıdır.

Çevrimdışı çıkarım

#fundamentals

Bir modelin tahmin grubu oluşturması ve ardından bu tahminleri önbelleğe alması (kaydetmesi) işlemi. Uygulamalar daha sonra modeli yeniden çalıştırmak yerine önbellekten çıkarılan tahmine erişebilir.

Örneğin, dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Sistem, her model çalıştırmasından sonra tüm yerel hava tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile karşılaştırın.

tek sıcak kodlama

#fundamentals

Kategorik verileri aşağıdakileri içeren bir vektör olarak temsil etme:

  • Bir öğe 1 olarak ayarlanır.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama, sonlu sayıda olası değere sahip dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Bir sıcak kodlama sayesinde model, beş ülkenin her birine göre farklı bağlantılar öğrenebilir.

Bir özelliği sayısal veri olarak temsil etmek, tek sıcak kodlamaya alternatiftir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçim değildir. Örneğin, aşağıdaki sayısal gösterimi ele alalım:

  • "Danimarka" için 0 değerini girin.
  • "İsveç" 1
  • "Norveç" 2
  • "Finlandiya" 3
  • "Iceland" 4 değerini alır.

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayılarla eğitim vermeye çalışır. Ancak İzlanda, Norveç'in iki katı (veya yarısı) kadar bir şeye sahip değildir. Bu nedenle model, bazı garip sonuçlara varır.

tek seferlik öğrenme

Genellikle nesne sınıflandırması için kullanılan, tek bir eğitim örneğinden etkili sınıflandırıcılar öğrenmek üzere tasarlanmış bir makine öğrenimi yaklaşımı.

Az sayıda örnekle öğrenme ve sıfır örnekle öğrenme hakkında da bilgi edinin.

tek görevli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesi gerektiğini gösteren bir örnek içeren istem. Örneğin, aşağıdaki istemde büyük bir dil modelinin bir sorguyu nasıl yanıtlaması gerektiğini gösteren bir örnek yer almaktadır.

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: avro Bir örnek vereyim.
Hindistan: Gerçek sorgu.

Tek seferlik istem ile aşağıdaki terimleri karşılaştırın:

bire karşı hepsi

#fundamentals

N sınıf içeren bir sınıflandırma problemi için N ayrı ikili sınıflandırıcıdan oluşan bir çözüm (olası her sonuç için bir ikili sınıflandırıcı). Örneğin, örnekleri hayvan, sebze veya mineral olarak sınıflandıran bir model verildiğinde, bire karşı tüm çözüm aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan ve hayvan olmayan
  • sebze ve sebze olmayan
  • mineral ve mineral olmayan

online

#fundamentals

Dinamik kelimesinin eş anlamlısıdır.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş aktardığını ve tahmin isteği gönderdiğini varsayalım. Online çıkarım kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarım ile karşılaştırın.

işlem (op)

#TensorFlow

TensorFlow'da, Tensor oluşturan, manipüle eden veya yok eden herhangi bir prosedür. Örneğin, matris çarpımı, giriş olarak iki Tensör alan ve çıkış olarak bir Tensör oluşturan bir işlemdir.

Optax

JAX için gradyan işleme ve optimizasyon kitaplığı. Optax, derin nöral ağlar gibi parametrik modelleri optimize etmek için özel şekillerde yeniden birleştirilebilen yapı taşları sağlayarak araştırmayı kolaylaştırır. Diğer hedefler şunlardır:

  • Temel bileşenlerin okunabilir, iyi test edilmiş ve verimli uygulamalarını sağlamak.
  • Düşük düzey bileşenlerin özel optimizatörlerle (veya diğer gradyan işleme bileşenleriyle) birleştirilmesini sağlayarak üretkenliği artırma
  • Herkesin katkıda bulunmasını kolaylaştırarak yeni fikirlerin benimsenmesini hızlandırma

optimizer

Gradyan inişi algoritmasının belirli bir uygulaması. Popüler optimizasyon araçları şunlardır:

  • AdaGrad, ADAptive GRADient descent (Uyarlanabilir Gradyan Azalma) ifadesinin kısaltmasıdır.
  • Adam, ADAptive with Momentum'un kısaltmasıdır.

grup dışı homojenlik önyargısı

#fairness

Tutumları, değerleri, kişilik özelliklerini ve diğer özellikleri karşılaştırırken grup dışındaki üyeleri grup içindeki üyelerden daha benzer olarak görme eğilimi. Gruptaki kullanıcılar, düzenli olarak etkileşimde bulunduğunuz kullanıcıları ifade eder. Gruptaki olmayan kullanıcılar ise düzenli olarak etkileşimde bulunmadığınız kullanıcıları ifade eder. Kullanıcılardan, kendi gruplarının dışındaki kişilerle ilgili özellikler sağlamalarını isteyerek bir veri kümesi oluşturursanız bu özellikler, katılımcıların kendi gruplarındaki kişiler için listeledikleri özelliklerden daha az ayrıntılı ve daha klişe olabilir.

Örneğin, Lilliputlular diğer Lilliputluların evlerini mimari stillerde, pencerelerde, kapılarda ve boyutlarda bulunan küçük farklılıkları belirterek ayrıntılı bir şekilde anlatabilir. Ancak aynı Lilliputlular, Brobdingnaglıların hepsinin aynı evlerde yaşadığını da söyleyebilir.

Grup dışı homojenlik önyargısı, gruba atfetme önyargısının bir türüdür.

Gruptaki önyargı konusuna da bakın.

aykırı değer algılama

Eğitim veri kümesindeki aykırı değerleri belirleme işlemi.

Yenilik algılama ile karşılaştırın.

düşünün

Diğer çoğu değerden uzak değerler. Makine öğrenimindeki aşağıdakiler aykırı değerlerdir:

  • Değerleri ortalamadan yaklaşık 3 standart sapma daha fazla olan giriş verileri.
  • Mutlak değerleri yüksek olan ağırlıklar.
  • Tahmin edilen değerler gerçek değerlerden nispeten uzak.

Örneğin, widget-price'ün belirli bir modelin özelliği olduğunu varsayalım. widget-price ortalamasının 7 avro, standart sapmasının ise 1 avro olduğunu varsayalım. Bu nedenle, 12 avro veya 2 avro değerinde bir widget-price içeren örnekler, bu fiyatların her biri ortalamadan beş standart sapma uzak olduğu için aykırı değer olarak kabul edilir.

Aykırı değerler genellikle yazım hatalarından veya diğer giriş hatalarından kaynaklanır. Diğer durumlarda, aykırı değerler hata değildir. Sonuçta, ortalamadan beş standart sapma uzaklıktaki değerler nadir olsa da imkansız değildir.

Aykırı değerler genellikle model eğitiminde sorunlara neden olur. Kırpma, aykırı değerleri yönetmenin bir yoludur.

paket dışı değerlendirme (OOB değerlendirme)

#df

Her karar ağacını, söz konusu karar ağacının eğitimi sırasında kullanılmayan örneklerle test ederek karar ormanı kalitesini değerlendirme mekanizması. Örneğin, aşağıdaki şemada sistemin her karar ağacını örneklerin yaklaşık üçte ikisinde eğittiğini ve ardından örneklerin kalan üçte birinde değerlendirdiğini görebilirsiniz.

Üç karar ağacından oluşan bir karar ormanı.
          Bir karar ağacı, örneklerin üçte ikisinde eğitilir ve ardından kalan üçte birini harici veri kümesi değerlendirmesi için kullanır.
          İkinci karar ağacı, önceki karar ağacından farklı örneklerin üçte ikisinde eğitilir ve ardından önceki karar ağacından farklı bir üçte birinde harici veri kümesi değerlendirmesi yapar.

Paket dışı değerlendirme, çapraz doğrulama mekanizmasının hesaplama açısından verimli ve muhafazakar bir yaklaşımıdır. Çapraz doğrulamada her çapraz doğrulama turu için bir model eğitilir (örneğin, 10 kat çapraz doğrulamada 10 model eğitilir). Hariç tutulan veri kümesi değerlendirmesinde tek bir model eğitilir. Toplama, eğitim sırasında her ağaçtan bazı verileri atladığı için, harici veri kümesi değerlendirmesi, çapraz doğrulamayı yaklaşık olarak belirlemek için bu verileri kullanabilir.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki görselde, giriş katmanı, iki gizli katman ve çıkış katmanı bulunan küçük bir derin sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Eğitim verileriyle o kadar benzer bir model oluşturmak ki model yeni verilerle ilgili doğru tahminler yapamaz.

Düzenleme, aşırı uyumu azaltabilir. Büyük ve çeşitli bir eğitim veri kümesinde eğitim yapmak da aşırı uyumu azaltabilir.

aşırı örnekleme

Daha dengeli bir eğitim kümesi oluşturmak için sınıf dengesi bozuk veri kümesinde azınlık sınıfının örneklerini yeniden kullanmak.

Örneğin, çoğunluk sınıfının azınlık sınıfına oranının 5.000:1 olduğu bir ikili sınıflandırma problemini düşünün. Veri kümesi bir milyon örnek içeriyorsa azınlık sınıfı yalnızca yaklaşık 200 örnek içerir. Bu, etkili bir eğitim için çok az örnek olabilir. Bu eksikliği gidermek için bu 200 örneği birden çok kez aşırı örnekleme (yeniden kullanma) yapabilirsiniz. Bu sayede, yararlı bir eğitim için yeterli sayıda örnek elde edebilirsiniz.

Fazla örnekleme yaparken aşırı uyum konusunda dikkatli olmanız gerekir.

Az örnekleme ile karşılaştırın.

P

paketlenmiş veriler

Verileri daha verimli bir şekilde depolamaya yönelik bir yaklaşım.

Sıkıştırılmış veriler, sıkıştırılmış bir biçim kullanarak veya verilere daha verimli bir şekilde erişilmesine olanak tanıyan başka bir şekilde verileri depolar. Paketlenmiş veriler, verilere erişmek için gereken bellek ve bilgi işlem miktarını en aza indirerek daha hızlı eğitim ve daha verimli model çıkarımına yol açar.

Paketlenmiş veriler genellikle veri artırma ve normalleştirme gibi diğer tekniklerle birlikte kullanılır. Bu sayede modellerin performansı daha da artırılır.

pandalar

#fundamentals

numpy üzerine inşa edilmiş sütun odaklı bir veri analizi API'si. TensorFlow da dahil olmak üzere birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekler. Ayrıntılar için pandas belgelerine bakın.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve önyargılar. Örneğin, bir doğrusal regresyon modelinde parametreler, aşağıdaki formülün önyargı (b) ve tüm ağırlıklarından (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hiperparametre, sizin (veya bir hiperparametre ayarlama hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme hızı bir hiper parametredir.

parametreleri verimli şekilde kullanma

#language
#generativeAI

Büyük bir önceden eğitilmiş dil modelini (PLM) tam ince ayarlama işleminden daha verimli bir şekilde ince ayarlama yapmak için kullanılan bir teknik grubu. Parametre verimliliği odaklı ayarlama, genellikle tam ince ayarlamaya kıyasla çok daha az sayıda parametrede ince ayar yapar ancak genellikle tam ince ayarlamayla oluşturulan büyük bir dil modeliyle aynı performansı (veya neredeyse aynı performansı) gösteren bir büyük dil modeli oluşturur.

Parametre verimliliği ayarlamayı aşağıdakilerle karşılaştırın:

Parametrelerin verimli şekilde kullanıldığı ayarlama, parametreleri verimli şekilde kullanma olarak da bilinir.

Parametre sunucusu (PS)

#TensorFlow

Dağıtılmış bir ortamda bir modelin parametrelerini izleyen bir iş.

parametre güncellemesi

Eğitim sırasında, genellikle tek bir gradyan azalma iterasyonunda bir modelin parametrelerini ayarlama işlemi.

kısmi türev

Değişkenlerden biri hariç tümünün sabit kabul edildiği türev. Örneğin, f(x, y) fonksiyonunun x'e göre kısmi türevi, f fonksiyonunun yalnızca x'e bağlı bir fonksiyon olarak kabul edilen türevidir (yani y sabit tutulur). f fonksiyonunun x değişkenine göre kısmi türevi, yalnızca x değişkeninin nasıl değiştiğine odaklanır ve denklemdeki diğer tüm değişkenleri yoksayar.

katılım önyargısı

#fairness

Yanıt vermeyenlerin taraflılığı ile eş anlamlıdır. Seçim yanlılığı konusuna bakın.

bölümlendirme stratejisi

Değişkenlerin parametre sunucuları arasında bölündüğü algoritma.

k'da geçiş (pass@k)

Büyük dil modelinin oluşturduğu kodun (ör. Python) kalitesini belirlemek için kullanılan metrik. Daha ayrıntılı olarak belirtmek gerekirse, k değerinde geçme, k adet oluşturulan kod bloğundan en az birinin tüm birim testlerini geçme olasılığını belirtir.

Büyük dil modelleri, karmaşık programlama sorunları için genellikle iyi kod oluşturmakta zorlanır. Yazılım mühendisleri, büyük dil modelinden aynı sorun için birden fazla (k) çözüm üretmesini isteyerek bu soruna uyum sağlar. Ardından yazılım mühendisleri, çözümlerin her birini birim testleriyle test eder. k değerinde geçme hesaplaması, birim testlerinin sonucuna bağlıdır:

  • Bu çözümlerden en az biri birim testini geçerse LLM, kod oluşturma zorluğunu geçer.
  • Çözümlerin hiçbiri birim testini geçemezse LLM, kod oluşturma mücadelesini başarısız olur.

k'ta geçiş için formül aşağıdaki gibidir:

$$\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}$$

Genel olarak, k değerleri ne kadar yüksek olursa k puanları da o kadar yüksek olur. Ancak k değerleri ne kadar yüksek olursa o kadar büyük dil modeli ve birim testi kaynağı gerekir.

Pax

Birden fazla TPU hızlandırıcı çip dilim veya kapsül kapsayacak kadar büyük nöral ağ modellerini eğitmek için tasarlanmış bir programlama çerçevesi.

Pax, JAX'i temel alan Flax'i temel alır.

Pax&#39;in yazılım yığınındaki konumunu gösteren şema.
          Pax, JAX&#39;in üzerine inşa edilmiştir. Pax da üç katmandan oluşur. Alt katman TensorStore ve Flax&#39;ı içerir.
          Orta katman Optax ve Flaxformer&#39;ı içerir. Üst katman, Praxis Modeling Library&#39;yi içerir. Fiddle, Pax&#39;in üzerine kurulmuştur.

perceptron

Bir veya daha fazla giriş değeri alan, girişlerin ağırlıklı toplamı üzerinde bir işlev çalıştıran ve tek bir çıkış değeri hesaplayan bir sistem (donanım veya yazılım). Makine öğrenimindeki işlevler genellikle doğrusal olmayandır (ör. ReLU, sigmoid veya tanh). Örneğin, aşağıdaki perceptron üç giriş değerini işlemek için sigmoid işlevini kullanır:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

Aşağıdaki görselde, her biri perceptrona girmeden önce bir ağırlıkla değiştirilen üç giriş alan bir perceptron gösterilmektedir:

Her biri ayrı ağırlıklarla çarpılan 3 giriş alan bir perceptron. Perceptron tek bir değer döndürür.

Algılayıcılar, nöral ağlardaki nöronlardır.

performans

Aşağıdaki anlamlara sahip olan aşırı yüklenmiş terim:

  • Yazılım mühendisliğindeki standart anlam. Yani: Bu yazılım ne kadar hızlı (veya verimli) çalışıyor?
  • Makine öğrenimindeki anlamı. Burada performans, şu soruyu yanıtlar: Bu model ne kadar doğru? Yani, modelin tahminleri ne kadar iyi?

permütasyon değişkeni önemleri

#df

Özelliğin değerlerini permütasyona tabi tuttuktan sonra bir modelin tahmin hatasındaki artışı değerlendiren bir değişken önemi türü. Permütasyon değişkeni önemi, modelden bağımsız bir metriktir.

şaşkınlık

Bir modelin görevini ne kadar iyi yerine getirdiğini gösteren bir ölçümdür. Örneğin, kullanıcının telefon klavyesinde yazdığı bir kelimenin ilk birkaç harfini okumak ve kelimeyi tamamlamak için kullanılabilecek kelimelerin listesini sunmak göreviniz olduğunu varsayalım. Bu görev için belirsizlik (P), listenizin kullanıcının yazmaya çalıştığı gerçek kelimeyi içermesi için sunmanız gereken tahmin sayısıdır.

Kafa karışıklığı, çapraz entropi ile aşağıdaki şekilde ilişkilidir:

$$P= 2^{-\text{cross entropy}}$$

ardışık düzen

Makine öğrenimi algoritmasını çevreleyen altyapı. Bir ardışık düzen, verileri toplamayı, verileri eğitim veri dosyalarına yerleştirmeyi, bir veya daha fazla model eğitmeyi ve modelleri üretime aktarmayı içerir.

ardışık düzen

#language

Bir modelin işlemeninin art arda aşamalara bölündüğü ve her aşamanın farklı bir cihazda yürütüldüğü bir model paralelliği biçimi. Bir aşama bir grubu işlerken önceki aşama bir sonraki grup üzerinde çalışabilir.

Ayrıca aşamalı eğitim konusuna da bakın.

pjit

Kodu birden fazla hızlandırıcı çipinde çalıştıracak şekilde bölen bir JAX işlevi. Kullanıcı, pjit işlevine bir işlev iletir. Bu işlev, eşdeğer semantiklere sahip ancak birden fazla cihazda (ör. GPU'lar veya TPU çekirdekleri) çalışan bir XLA hesaplamasına derlenmiş bir işlev döndürür.

pjit, kullanıcıların SPMD bölümleyicisini kullanarak hesaplamaları yeniden yazmadan bölümlendirmesini sağlar.

Mart 2023 itibarıyla pjit, jit ile birleştirildi. Daha fazla bilgi için Dağıtılmış diziler ve otomatik paralelleştirme bölümüne bakın.

PLM

#language
#generativeAI

Önceden eğitilmiş dil modeli kısaltması.

pmap

Bir giriş işlevinin kopyalarını farklı giriş değerleriyle birden fazla temel donanım cihazında (CPU'lar, GPU'lar veya TPU'lar) yürüten bir JAX işlevi. pmap, SPMD'yi kullanır.

policy

#rl

Pekiştirmeli öğrenmede, aracı durumlardan işlemlere olasılıksal eşleme yapar.

havuz oluşturma

#image

Daha önceki bir dönüşüm katmanı tarafından oluşturulan bir matrisi (veya matrisleri) daha küçük bir matrise indirgeme. Birleştirme işlemi genellikle birleştirilen alandaki maksimum veya ortalama değeri almayı içerir. Örneğin, aşağıdaki 3x3 matrise sahip olduğumuzu varsayalım:

3x3 matris [[5,3,1], [8,2,5], [9,4,3]].

Havuzlama işlemi, tıpkı evrişim işlemi gibi matrisi dilimlere ayırır ve ardından bu evrişim işlemini adım boyutunda kaydırır. Örneğin, toplama işleminin, 1x1 adımla birlikte konvolüsyon matrisini 2x2 dilime böldüğünü varsayalım. Aşağıdaki şemada gösterildiği gibi dört birleştirme işlemi gerçekleşir. Her bir toplama işleminin, ilgili dilimdeki dört değerden en yüksek değeri seçtiğini varsayalım:

Giriş matrisi, şu değerleri içeren 3x3 boyutundadır: [[5,3,1], [8,2,5], [9,4,3]].
          Giriş matrisinin sol üstteki 2x2 alt matrisi [[5,3], [8,2]] olduğundan, sol üstteki toplama işlemi 8 değerini verir (5, 3, 8 ve 2&#39;nin maksimum değeridir). Giriş matrisinin sağ üst 2x2 alt matrisi [[3,1], [2,5]] olduğundan sağ üst toplama işlemi 5 değerini verir. Giriş matrisinin sol alt 2x2 alt matrisi şu şekildedir:
          [[8,2], [9,4]], bu nedenle sol alt toplama işlemi 9 değerini verir. Giriş matrisinin sağ alt 2x2 alt matrisi şu şekildedir:
          [[2,5], [4,3]], bu nedenle sağ alt toplama işlemi 5 değerini verir. Özet olarak, toplama işlemi 2x2 matrisi verir:
          [[8,5], [9,5]].

Toplama, giriş matrisinde döndürme değişmezliğini zorunlu kılmaya yardımcı olur.

Görsel uygulamalar için toplama işlemi, daha resmi bir şekilde uzamsal toplama olarak bilinir. Zaman serisi uygulamaları genellikle birleştirme işlemini zamansal birleştirme olarak adlandırır. Toplama işlemine genellikle alt örnekleme veya az örnekleme denir.

konumsal kodlama

#language

Bir jetonun bir dizilimdeki konumu hakkındaki bilgileri jetonun yerleştirilmesine ekleme tekniği. Transformer modelleri, dizinin farklı parçaları arasındaki ilişkiyi daha iyi anlamak için konumsal kodlama kullanır.

Pozisyonsal kodlamanın yaygın bir uygulamasında sinüs fonksiyonu kullanılır. (Özellikle, sinüsoidal işlevin frekansı ve genliği, jetonun dizindeki konumuna göre belirlenir.) Bu teknik, bir Transformer modelinin, konumlarına göre sıranın farklı bölümlerine dikkat etmeyi öğrenmesini sağlar.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcısındaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile karşılaştırın.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra modelin çıktısını ayarlama. Son işlem, modelleri değiştirmeden adaletli olma kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, bir sınıflandırma eşiği ayarlayarak ikili sınıflandırıcıya son işlem uygulayabilirsiniz. Bu sınıflandırma eşiği, gerçek pozitif oranının söz konusu özelliğin tüm değerleri için aynı olduğunu kontrol ederek bazı özelliklerde fırsat eşitliğini korur.

eğitilmiş model

#language
#image
#generativeAI

Genellikle aşağıdakilerden biri veya daha fazlası gibi bazı son işlemlerden geçmiş önceden eğitilmiş bir modeli ifade eden, gevşek tanımlanmış bir terimdir:

PR AUC (PR eğrisinin altındaki alan)

Sınıflandırma eşiğinin farklı değerleri için noktaların (geri çağırma, hassasiyet) çizilmesiyle elde edilen, hassasiyet/geri çağırma eğrisinin altındaki alan.

Praxis

Pax'in temel, yüksek performanslı bir makine öğrenimi kitaplığı. Praxis genellikle "Katman kitaplığı" olarak adlandırılır.

Praxis, yalnızca katman sınıfının tanımlarını değil, aşağıdakiler de dahil olmak üzere destekleyici bileşenlerinin çoğunu da içerir:

Praxis, Model sınıfının tanımlarını sağlar.

precision

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Model pozitif sınıfı tahmin ettiğinde tahminlerin yüzde kaçı doğruydu?

Formül şu şekildedir:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

Bu örnekte:

  • Gerçek pozitif, modelin pozitif sınıfı doğru tahmin ettiği anlamına gelir.
  • Yanlış pozitif, modelin pozitif sınıfı yanlışlıkla tahmin ettiği anlamına gelir.

Örneğin, bir modelin 200 pozitif tahminde bulunduğunu varsayalım. Bu 200 olumlu tahminden:

  • 150'i gerçek pozitifti.
  • 50'si yanlış pozitifti.

Bu durumda:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

Doğruluk ve geri çağırma ile karşılaştırın.

Daha fazla bilgi için Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler başlıklı makaleyi inceleyin.

k değerinde hassasiyet (precision@k)

#language

Sıralı (sıralı) bir öğe listesini değerlendirmek için kullanılan bir metrik. k değerinde hassasiyet, söz konusu listedeki ilk k öğenin "alakalı" olan kısmını tanımlar. Yani:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

k değerinin, döndürülen listenin uzunluğundan az veya buna eşit olması gerekir. Döndürülen listenin uzunluğunun hesaplamaya dahil edilmediğini unutmayın.

Alaka düzeyi genellikle özneldir. Uzman değerlendiriciler bile hangi öğelerin alakalı olduğu konusunda genellikle aynı fikirde değildir.

Şununla karşılaştır:

hassasiyet/geri çağırma eğrisi

Farklı sınıflandırma eşiklerinde hassasiyet ve geri çağırma arasındaki ilişkiyi gösteren eğri.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modelinin tahmini, pozitif sınıf veya negatif sınıftır.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinin tahmini bir sayıdır.

Tahmin önyargısı

Tahminlerin ortalamasının, veri kümesindeki etiketlerin ortalamasından ne kadar uzak olduğunu gösteren bir değer.

Makine öğrenimi modellerindeki önyargı terimi veya etik ve adaletle ilgili önyargı ile karıştırılmamalıdır.

tahmine dayalı makine öğrenimi

Herhangi bir standart ("klasik") makine öğrenimi sistemi.

Tahmine dayalı yapay zeka terimi resmi bir tanıma sahip değildir. Bu terim, üretken yapay zekaya dayalı olmayan bir ML sistemleri kategorisini ayırt eder.

tahmini eşleşme

#fairness

Belirli bir sınıflandırıcı için hassasiyet oranlarının, ele alınan alt gruplar için eşdeğer olup olmadığını kontrol eden bir adaletlilik metriği.

Örneğin, üniversite kabulünü tahmin eden bir model, Lilliputians ve Brobdingnagians için doğruluk oranı aynıysa vatandaşlık için tahmini eşitliği karşılar.

Tahmini eşleşme bazen tahmini ücret eşleşmesi olarak da adlandırılır.

Tahmini eşitlik hakkında daha ayrıntılı bilgi için "Adil Oluş Tanımları Açıklandı" başlıklı makaleyi (3.2.1 numaralı bölüm) inceleyin.

tahmini ücret dengesi

#fairness

Tahmini eşleşme için başka bir ad.

ön işleme

#fairness
Verileri, model eğitmek için kullanılmadan önce işleme Ön işleme, İngilizce metin veri kümesinden İngilizce sözlükte bulunmayan kelimeleri kaldırmak kadar basit veya veri noktalarını hassas özelliklerle mümkün olduğunca çok ilişkili özelliği ortadan kaldıracak şekilde yeniden ifade etmek kadar karmaşık olabilir. Ön işleme, adalet kısıtlamalarını karşılamanıza yardımcı olabilir.

önceden eğitilmiş model

#language
#image
#generativeAI

Genellikle, eğitilmiş bir modeldir. Bu terim, daha önce eğitilmiş bir gömülü vektör anlamına da gelebilir.

Önceden eğitilmiş dil modeli terimi genellikle önceden eğitilmiş bir büyük dil modelini ifade eder.

ön eğitim

#language
#image
#generativeAI

Bir modelin büyük bir veri kümesinde ilk eğitimi. Bazı önceden eğitilmiş modeller hantal devler gibidir ve genellikle ek eğitimle hassaslaştırılması gerekir. Örneğin, makine öğrenimi uzmanları, Wikipedia'daki tüm İngilizce sayfalar gibi geniş bir metin veri kümesinde büyük dil modelini önceden eğitebilir. Ön eğitimden sonra elde edilen model, aşağıdaki tekniklerden herhangi biri kullanılarak daha da hassaslaştırılabilir:

önceki inanç

Verilerle ilgili eğitime başlamadan önce bu veriler hakkında ne düşündüğünüzü belirtir. Örneğin, L2 normalleştirmesi, ağırlıkların küçük ve sıfır etrafında normal dağılım göstermesi gerektiğine dair önceden var olan bir inanca dayanır.

olasılıksal regresyon modeli

Her özellik için yalnızca ağırlıkları değil, bu ağırlıkların belirsizliğini de kullanan bir regresyon modeli. Olasılıksal regresyon modeli, bir tahmin ve bu tahminin belirsizliğini oluşturur. Örneğin, olasılıksal regresyon modeli 12 standart sapma ile 325 değerinde bir tahmin verebilir. Olasılıksal regresyon modelleri hakkında daha fazla bilgi için tensorflow.org'daki bu Colab'a bakın.

olasılık yoğunluk fonksiyonu

Tam olarak belirli bir değere sahip veri örneklerinin sıklığını tanımlayan bir işlev. Bir veri kümesinin değerleri kesintisiz kayan noktalı sayılar olduğunda tam eşleşmeler nadiren gerçekleşir. Ancak, olasılık yoğunluk işlevini x değerinden y değerine entegrasyonu, x ile y arasındaki veri örneklerinin beklenen sıklığını verir.

Örneğin, ortalaması 200 ve standart sapması 30 olan normal bir dağılımı ele alalım. 211,4 ile 218,7 aralığına düşen veri örneklerinin beklenen sıklığını belirlemek için 211,4 ile 218,7 arasındaki normal dağılım için olasılık yoğunluk işlevini entegre edebilirsiniz.

istem

#language
#generativeAI

Modeli belirli bir şekilde davranmaya koşullandırmak için büyük dil modeline giriş olarak girilen tüm metinler. İstemler bir kelime öbeği kadar kısa veya istediğiniz kadar uzun olabilir (örneğin, bir romanın tamamı). İstemler, aşağıdaki tabloda gösterilenler de dahil olmak üzere birden fazla kategoriye ayrılır:

İstem kategorisi Örnek Notlar
Soru Güvercin ne kadar hızlı uçabilir?
Talimat Arbitraj hakkında komik bir şiir yazın. Büyük dil modelinden bir şey yapmasını isteyen istem.
Örnek Markdown kodunu HTML'ye çevirin. Örneğin:
Markdown: * liste öğesi
HTML: <ul> <li>liste öğesi</li> </ul>
Bu örnek istemdeki ilk cümle bir talimattır. İstemin geri kalanı örnektir.
Rol Fizik alanında doktora yapmak için makine öğrenimi eğitiminde gradyan azalma yönteminin neden kullanıldığını açıklayın. Cümlenin ilk kısmı bir talimattır; "Fizik alanında doktora" ifadesi ise rol bölümüdür.
Modelin tamamlaması için kısmi giriş Birleşik Krallık Başbakanı şu adreste yaşıyor: Tamamlama girişi istemi, aniden (bu örnekte olduğu gibi) veya alt çizgiyle bitebilir.

Üretken yapay zeka modelleri, istemlere metin, kod, resim, yerleşim, video gibi neredeyse her şeyle yanıt verebilir.

istem temelli öğrenme

#language
#generativeAI

Belirli modellerin, davranışlarını rastgele metin girişlerine (istemler) göre uyarlamalarına olanak tanıyan bir özelliktir. İstem tabanlı öğrenme paradigmasında büyük dil modeli, istemlere metin üreterek yanıt verir. Örneğin, bir kullanıcının aşağıdaki istemi girdiğini varsayalım:

Newton'un üçüncü hareket yasasını özetleyin.

İsteme dayalı öğrenme yapabilen bir model, önceki istemi yanıtlamak için özel olarak eğitilmez. Model, fizik, genel dil kuralları ve genel olarak yararlı yanıtları oluşturan konular hakkında çok fazla bilgi "biliyor". Bu bilgiler, faydalı bir yanıt (umarım) sağlamak için yeterlidir. Ek insan geri bildirimleri ("Bu yanıt çok karmaşıktı." veya "Yanıtın ne olduğunu anlamadım.") bazı istem tabanlı öğrenme sistemlerinin yanıtlarının faydasını kademeli olarak artırmasını sağlar.

istem tasarımı

#language
#generativeAI

İstem mühendisliği ile eş anlamlıdır.

istem mühendisliği

#language
#generativeAI

Büyük dil modelinden istenen yanıtları alan istemler oluşturma sanatı. İstem mühendisliği, insanlar tarafından gerçekleştirilir. İyi yapılandırılmış istemler yazmak, büyük dil modelinden yararlı yanıtlar almanın önemli bir parçasıdır. İstem mühendisliği aşağıdakiler gibi birçok faktöre bağlıdır:

  • Büyük dil modelini ön eğitmek ve muhtemelen ince ayarlamak için kullanılan veri kümesi.
  • Modelin yanıt oluşturmak için kullandığı sıcaklık ve diğer kod çözme parametreleri.

Faydalı istemler yazma hakkında daha fazla bilgi için İstem tasarımına giriş başlıklı makaleyi inceleyin.

İstem tasarımı, istem mühendisliğinin eş anlamlısıdır.

istem ayarı

#language
#generativeAI

Sistemin gerçek istemin başına eklediği bir "ön ek" öğrenen parametrelerin verimli kullanıldığı ayarlama mekanizması.

İstem ayarının bir varyantı (bazen önek ayarlama olarak adlandırılır) ön eki her katmana eklemektir. Buna karşılık, çoğu istem ayarı yalnızca giriş katmanına bir ön ek ekler.

proxy (hassas özellikler)

#fairness
Hassas bir özellik için yedek olarak kullanılan bir özellik. Örneğin, bir kişinin posta kodu, geliri, ırkı veya etnik kökeni için proxy olarak kullanılabilir.

proxy etiketleri

#fundamentals

Doğrudan bir veri kümesinde bulunmayan etiketleri yaklaşık olarak belirlemek için kullanılan veriler.

Örneğin, çalışan stres düzeyini tahmin edecek bir model eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmini özellik içeriyor ancak stres seviyesi adlı bir etiket içermiyor. Buna rağmen stres seviyesi için proxy etiketi olarak "iş yerindeki kazalar"ı seçersiniz. Sonuçta, yüksek stres altındaki çalışanlar sakin çalışanlara kıyasla daha fazla kaza geçirir. Yoksa değil mi? İşyerinde yaşanan kazaların artmasının ve azalmasının birden fazla nedeni olabilir.

İkinci bir örnek olarak, yağmur yağıyor mu? ifadesinin veri kümeniz için mantıksal bir etiket olmasını istediğinizi ancak veri kümenizin yağmur verileri içermediğini varsayalım. Fotoğraf varsa yağmur yağıyor mu? için proxy etiketi olarak şemsiye taşıyan insanların resimlerini ekleyebilirsiniz. Bu iyi bir proxy etiketi mi? Olası. Ancak bazı kültürlerdeki insanların yağmurdan korunmak için değil, güneşten korunmak için şemsiye kullanma olasılığı daha yüksek olabilir.

Proxy etiketleri genellikle kusurludur. Mümkün olduğunda proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında proxy etiketini çok dikkatli bir şekilde seçin.

saf işlev

Çıktıları yalnızca girişlerine dayanan ve yan etkisi olmayan bir işlev. Daha açık belirtmek gerekirse, saf işlevler bir dosyanın içeriği veya işlevin dışındaki bir değişkenin değeri gibi herhangi bir genel durumu kullanmaz ya da değiştirmez.

Saf işlevler, iş parçacığı güvenli kod oluşturmak için kullanılabilir. Bu, model kodunu birden fazla hızlandırıcı çipine bölme işleminde faydalıdır.

JAX'ın işlev dönüştürme yöntemleri, giriş işlevlerinin saf işlevler olmasını gerektirir.

S

Q işlevi

#rl

Güçlendirme öğrenimi'nde, durumda işlem gerçekleştirip ardından belirli bir politikayı uygulamanın beklenen döndürümünü tahmin eden işlev.

Q işlevi, durum-işlem değer işlevi olarak da bilinir.

Q-öğrenme

#rl

Güçlendirme öğrenimi'nde, aracı'nın Bellman denklemini uygulayarak Markov karar sürecinin optimum Q işlevini öğrenmesine olanak tanıyan bir algoritmadır. Markov karar süreci, bir ortamı modeller.

yüzdelik dilim

Sınıflandırma gruplandırması'ndaki her grup.

yüzdelik dilim paketleme

Bir özelliğin değerlerini, her grupta aynı (veya neredeyse aynı) sayıda örnek bulunacak şekilde gruplara dağıtma. Örneğin, aşağıdaki şekilde 44 nokta, her biri 11 nokta içeren 4 gruba ayrılmıştır. Şekildeki her paketin aynı sayıda nokta içermesi için bazı paketler farklı bir x değeri genişliğine sahiptir.

Her biri 11 noktadan oluşan 4 gruba ayrılmış 44 veri noktası.
          Her grup aynı sayıda veri noktası içerse de bazı gruplar diğer gruplara kıyasla daha geniş bir özellik değeri aralığı içerir.

kesirli sayılaştırma

Aşağıdaki yöntemlerden herhangi birinde kullanılabilen aşırı yüklenmiş terim:

  • Belirli bir özellikte yüzdelik dilim paketleme uygulanması.
  • Daha hızlı depolama, eğitim ve çıkarım için verileri sıfır ve bir olarak dönüştürme. Boolean verileri, diğer biçimlere kıyasla gürültü ve hatalara karşı daha sağlam olduğundan kesirli sayılaştırma, model doğruluğunu artırabilir. Ölçüm teknikleri arasında yuvarlama, kesme ve kümelendirme yer alır.
  • Bir modelin parametrelerini depolamak için kullanılan bit sayısını azaltma. Örneğin, bir modelin parametrelerinin 32 bitlik kayan nokta sayısı olarak depolandığını varsayalım. Ölçüm, bu parametreleri 32 bitten 4, 8 veya 16 bit'e dönüştürür. Düzenleme, aşağıdakileri azaltır:

    • İşlem, bellek, disk ve ağ kullanımı
    • Tahmin yürütme süresi
    • Güç tüketimi

    Ancak kesirli sayılaştırma bazen modelin tahminlerinin doğruluğunu azaltır.

sıra

#TensorFlow

Sıralı veri yapısı uygulayan bir TensorFlow İşlemi. Genellikle G/Ç'de kullanılır.

K

RAG

#fundamentals

Almayla artırılmış üretim kısaltması.

rastgele orman

#df

Her karar ağacının bagging gibi belirli bir rastgele gürültüyle eğitildiği karar ağaçlarından oluşan bir toplu.

Rastgele ormanlar, bir tür karar ormanı'dır.

rastgele politika

#rl

Güçlendirme öğrenimi'nde, işlem seçen rastgele bir politika.

sıra (sıralı düzen)

Sınıfları en yüksekten en düşüğe göre sınıflandıran bir makine öğrenimi problemindeki sınıfın sıralı konumu. Örneğin, bir davranış sıralama sistemi, bir köpeğin ödüllerini en yüksekten (biftek) en düşüğe (sarmaşık) göre sıralayabilir.

rank (Tensor)

#TensorFlow

Tensor boyut sayısı. Örneğin, skalerlerin 0, vektörlerin 1 ve matrislerin 2 boyutu vardır.

Sıralama (sıralı düzen) ile karıştırılmamalıdır.

sıralama

Amacının bir öğe listesini sıralamak olduğu bir tür gözetimli öğrenme.

puan veren

#fundamentals

Örnekler için etiketler sağlayan bir kullanıcı. "Notlandırıcı", derecelendiricinin başka bir adıdır.

hatırlanabilirlik

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Kesin referans pozitif sınıf olduğunda model, tahminlerin yüzde kaçında pozitif sınıfı doğru olarak tanımladı?

Formül şu şekildedir:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

Bu örnekte:

  • Gerçek pozitif, modelin pozitif sınıfı doğru tahmin ettiği anlamına gelir.
  • Yanlış negatif, modelin negatif sınıfı yanlışlıkla tahmin ettiği anlamına gelir.

Örneğin, modelinizin kesin referansı pozitif sınıf olan örneklerde 200 tahmin yaptığını varsayalım. Bu 200 tahminden:

  • 180'i gerçek pozitifti.
  • 20 tanesi yanlış negatifti.

Bu durumda:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

Daha fazla bilgi için Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler başlıklı makaleyi inceleyin.

k değerinde geri çağırma (recall@k)

#language

Sıralı (sıralı) bir öğe listesi yayınlayan sistemleri değerlendirmek için kullanılan bir metrik. k'ta geri çağırma, listelenen ilk k öğedeki alakalı öğelerin, döndürülen alakalı öğelerin toplam sayısına oranını tanımlar.

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

k değerinde hassasiyet ile kontrast.

öneri sistemi

#recsystems

Her kullanıcı için büyük bir veri kümesinden nispeten küçük bir öğe grubu seçen bir sistem. Örneğin, bir video öneri sistemi 100.000 videodan oluşan bir veri kümesinden iki video önerebilir. Bir kullanıcı için Casablanca ve The Philadelphia Story, diğer kullanıcı için ise Wonder Woman ve Black Panther seçilebilir. Video öneri sistemi, önerilerini aşağıdaki gibi faktörlere dayandırabilir:

  • Benzer kullanıcıların puan verdiği veya izlediği filmler.
  • Tür, yönetmenler, oyuncular, hedef kitle...

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise sonuç 0 olur.
  • Giriş pozitifse çıkış girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun grafiği aşağıda verilmiştir:

İki çizginin Kartezyen grafiği. İlk satırda, -infinity,0 ile 0,-0 arasında x ekseni boyunca uzanan sabit bir y değeri vardır.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1 olduğundan 0,0 ile +sonsuz,+sonsuz arasındadır.

ReLU, çok popüler bir aktivasyon işlevidir. Basit davranışına rağmen ReLU, sinir ağının özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesine olanak tanır.

yinelemeli nöral ağ

#seq

Her çalıştırmanın bir kısmının bir sonraki çalıştırmaya aktarıldığı, kasıtlı olarak birden çok kez çalıştırılan bir nöral ağ. Daha açık belirtmek gerekirse, önceki çalıştırmadan gelen gizli katmanlar, sonraki çalıştırmada aynı gizli katmanın girişinin bir kısmını sağlar. Yinelemeli sinir ağları özellikle dizileri değerlendirmek için kullanışlıdır. Böylece gizli katmanlar, nöral ağın dizinin önceki bölümlerinde yaptığı önceki çalışmalardan bilgi edinebilir.

Örneğin, aşağıdaki şekilde dört kez çalışan bir tekrarlayan nöral ağ gösterilmektedir. İlk çalıştırmadaki gizli katmanlarda öğrenilen değerlerin, ikinci çalıştırmadaki aynı gizli katmanların girişinin bir parçası haline geldiğini unutmayın. Benzer şekilde, ikinci çalıştırmada gizli katmanda öğrenilen değerler üçüncü çalıştırmada aynı gizli katmanın girişinin bir parçası olur. Bu sayede, tekrarlayan sinir ağı kademeli olarak eğitilir ve tek tek kelimelerin anlamını değil, tüm dizenin anlamını tahmin eder.

Dört giriş kelimesini işlemek için dört kez çalışan bir RNN.

referans metni

#language
#generativeAI

Uzmanın bir isteme verdiği yanıt. Örneğin, aşağıdaki istemde:

"Adınız ne?" sorusunu İngilizceden Fransızcaya çevirin.

Bir uzmanın yanıtı şöyle olabilir:

Comment vous appelez-vous?

Çeşitli metrikler (ör. ROUGE), referans metninin bir yapay zeka modelinin oluşturduğu metinle eşleşme derecesini ölçer.

regresyon modeli

#fundamentals

Resmi olmayan bir ifadeyle, sayısal tahmin oluşturan bir model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelidir:

  • Belirli bir evin değerini avro cinsinden tahmin eden bir model (ör. 423.000).
  • Belirli bir ağacın yaşam süresini yıl cinsinden tahmin eden bir model (ör.23,2).
  • Belirli bir şehirde önümüzdeki altı saat içinde yağacak yağmurun inç cinsinden miktarını (ör.0, 18) tahmin eden bir model.

Sık kullanılan iki regresyon modeli türü şunlardır:

  • Etiket değerlerini özelliklere en iyi uyan çizgiyi bulan doğrusal regresyon.
  • Mantıksal regresyon: Bir sistemin genellikle sınıf tahminiyle eşleştirdiği 0,0 ile 1,0 arasında bir olasılık oluşturur.

Sayısal tahminler veren her model regresyon modeli değildir. Bazı durumlarda, sayısal tahmin aslında sınıf adları sayısal olan bir sınıflandırma modelidir. Örneğin, sayısal bir posta kodunu tahmin eden bir model, regresyon modeli değil sınıflandırma modelidir.

normalleştirme

#fundamentals

Aşırı uyum'u azaltan herhangi bir mekanizma. Popüler normalleştirme türleri şunlardır:

Düzenleme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında normalleştirmenin göreceli önemini belirten bir sayı. Düzenleme oranını artırmak aşırı uyumu azaltır ancak modelin tahmin gücünü azaltabilir. Buna karşılık, normalleştirme oranını azaltmak veya çıkarmak aşırı uyumu artırır.

pekiştirmeli öğrenme (RL)

#rl

Bir ortam ile etkileşimde bulunurken getiriyi en üst düzeye çıkarmak amacıyla en uygun politikayı öğrenen bir algoritma ailesi. Örneğin, çoğu oyunda nihai ödül zaferdir. Pekiştirmeli öğrenme sistemleri, önceki oyun hareketlerinin kazanca veya kayba yol açan sıralarını değerlendirerek karmaşık oyunlarda uzman olabilir.

Gerçek Kullanıcı Geri Bildirimlerinden Pekiştirmeli Öğrenme (RLHF)

#generativeAI
#rl

Modelin yanıtlarının kalitesini iyileştirmek için gerçek kişilerden gelen geri bildirimleri kullanma Örneğin, bir RLHF mekanizması kullanıcılardan bir modelin yanıtının kalitesini 👍 veya 👎 emojisiyle değerlendirmelerini isteyebilir. Sistem daha sonra gelecekteki yanıtlarını bu geri bildirime göre ayarlayabilir.

ReLU

#fundamentals

Düzeltilmiş Doğrusal Birim kısaltması.

tekrar oynatma arabelleği

#rl

DQN benzeri algoritmalarda, deneyim yeniden oynatma sırasında kullanılmak üzere durum geçişlerini depolamak için aracı tarafından kullanılan bellek.

replika

Genellikle başka bir makinede bulunan eğitim veri kümesinin veya modelin kopyası. Örneğin, bir sistem veri paralelliğini uygulamak için aşağıdaki stratejiyi kullanabilir:

  1. Mevcut bir modelin kopyalarını birden fazla makineye yerleştirin.
  2. Her kopyaya eğitim veri kümesinin farklı alt kümelerini gönderin.
  3. Parametre güncellemelerini toplayın.

raporlama önyargısı

#fairness

Kullanıcıların işlemler, sonuçlar veya özellikler hakkında yazma sıklığının, gerçek hayattaki sıklıkları veya bir özelliğin bir birey sınıfının özelliği olma derecesini yansıtmaması. Raporlamadaki önyargı, makine öğrenimi sistemlerinin öğrendiği verilerin bileşimini etkileyebilir.

Örneğin, kitaplarda güldü kelimesi nefes aldı kelimesinden daha yaygındır. Bir kitap koleksiyonundaki gülme ve nefes alma kelimelerinin göreceli sıklığını tahmin eden bir makine öğrenimi modeli, gülmenin nefes almaktan daha yaygın olduğunu belirler.

temsil

Verileri faydalı özelliklerle eşleme işlemi.

yeniden sıralama

#recsystems

Puanlanan öğelerin başka bir algoritmaya (genellikle makine öğrenimi dışında) göre yeniden notlandırılabileceği öneri sisteminin son aşaması. Yeniden sıralama, puanlama aşamasında oluşturulan öğe listesini değerlendirir ve aşağıdaki gibi işlemler yapar:

  • Kullanıcının daha önce satın aldığı öğeleri kaldırma
  • Daha güncel öğelerin puanını artırma

almayla artırılmış üretim (RAG)

#fundamentals

Model eğitildikten sonra alınan bilgi kaynaklarını temel alarak büyük dil modeli (LLM) çıktısının kalitesini artırmaya yönelik bir teknik. RAG, eğitilmiş LLM'ye güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişim sağlayarak LLM yanıtlarının doğruluğunu artırır.

Almayla artırılmış üretimi kullanmanın yaygın nedenleri arasında şunlar bulunur:

  • Modelin ürettiği yanıtların gerçeklik doğruluğunu artırma.
  • Modele, eğitilmediği bilgilere erişim izni verme.
  • Modelin kullandığı bilgileri değiştirme
  • Modelin kaynaklardan alıntı yapmasını etkinleştirme.

Örneğin, bir kimya uygulamasının kullanıcı sorgularıyla ilgili özetler oluşturmak için PaLM API'yi kullandığını varsayalım. Uygulamanın arka ucu bir sorgu aldığında arka uç:

  1. Kullanıcının sorgusuyla alakalı verileri arar ("alır").
  2. İlgili kimya verilerini kullanıcının sorgusuna ekler ("artırma").
  3. LLM'ye, eklenen verilere göre bir özet oluşturmasını söyler.

return

#rl

Güçlendirme öğrenimi sırasında, belirli bir politika ve belirli bir durum verildiğinde getiri, aracı durumdan bölüm sonuna kadar politikayı uygularken almasını beklediği tüm ödüllerin toplamıdır. Temsilci, ödülü almak için gereken durum geçişlerine göre ödülleri indirimli olarak hesaplayarak beklenen ödüllerin gecikmeli yapısını hesaba katar.

Bu nedenle, indirim faktörü \(\gamma\)ise ve \(r_0, \ldots, r_{N}\), bölümün sonuna kadar kazanılan ödülleri gösteriyorsa getiri hesaplaması aşağıdaki gibidir:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

ödül

#rl

Pekiştirmeli öğrenmede, ortam tarafından tanımlanan bir durumda işlem gerçekleştirmenin sayısal sonucu.

sırt normalleştirme

L2 normalleştirmesi ile eş anlamlıdır. Kürtaj normalleştirme terimi, saf istatistik bağlamlarında daha sık kullanılırken L2 normalleştirme makine öğrenimde daha sık kullanılır.

RNN

#seq

Yinelemeli nöral ağlar kısaltması.

ROC (alıcı çalışma özelliği) eğrisi

#fundamentals

İkili sınıflandırmada farklı sınıflandırma eşikleri için gerçek pozitif oranı ve yanlış pozitif oranı grafiği.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif örnek ve solda 7 negatif örnek içeren bir sayı çizgisi.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise gerçek pozitif orandır. Eğri, ters L şeklindedir. Eğri (0,0,0) ile başlar ve doğrudan (0,1,0) değerine kadar gider. Ardından eğri (0,0; 1,0) noktasından (1,0; 1,0) noktasına gider.

Buna karşılık, aşağıdaki görselde, negatif sınıfları pozitif sınıflardan ayıramayan kötü bir modelin ham mantıksal regresyon değerleri grafik halinde gösterilmektedir:

Pozitif örneklerin ve negatif sınıfların tamamen birbirine karıştığı bir sayı çizgisi.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

Aslında (0,0) ile (1,1) arasında bir doğru olan ROC eğrisi.

Bu arada gerçek dünyada, çoğu ikili sınıflandırma modeli pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle mükemmel bir şekilde ayırmaz. Bu nedenle, tipik bir ROC eğrisi iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise gerçek pozitif orandır. ROC eğrisi, pusulayı batıdan kuzeye doğru kesen sarsıntılı bir yayın yaklaşık bir temsilidir.

ROC eğrisinde (0,0; 1,0) noktasına en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak gerçek dünyadaki diğer bazı sorunlar, ideal sınıflandırma eşiğinin seçimini etkiler. Örneğin, yanlış negatifler yanlış pozitiflerden çok daha fazla soruna yol açıyor olabilir.

AUC adlı sayısal metrik, ROC eğrisini tek bir kayan nokta değeri olarak özetler.

rol istemi

#language
#generativeAI

Üretken yapay zeka modelinin yanıtı için hedef kitleyi tanımlayan istemin isteğe bağlı bir parçasıdır. Büyük dil modelleri, rol istemi olmadan soruları soran kullanıcı için yararlı olabilecek veya olamayacak bir yanıt sağlar. Büyük dil modelleri, rol istemi ile belirli bir hedef kitle için daha uygun ve daha yararlı bir şekilde yanıt verebilir. Örneğin, aşağıdaki istemlerin rol istemi kısmı kalın olarak gösterilir:

  • Ekonomi alanında doktora yapanlar için bu makaleyi özetleyin.
  • On yaşındaki bir çocuğa gelgitlerin nasıl çalıştığını açıklayın.
  • 2008 mali krizini açıklayın. Küçük bir çocukla veya golden retriever ile konuşuyormuş gibi konuşun.

kök

#df

Karar ağacındaki başlangıç düğümü (ilk koşul). Kural olarak, diyagramlarda kök karar ağacının en üstüne yerleştirilir. Örneğin:

İki koşulu ve üç yaprağı olan bir karar ağacı. Başlangıç koşulu (x > 2), köktür.

kök dizin

#TensorFlow

Birden fazla modelin TensorFlow kontrol noktası ve etkinlik dosyalarının alt dizinlerini barındırmak için belirttiğiniz dizin.

Kök ortalama kare hatası (RMSE)

#fundamentals

Ortalama Karesel Hatanın karekökü.

dönme değişmezliği

#image

Görüntü sınıflandırma probleminde, algoritmanın görüntünün yönü değişse bile görüntüleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma bir tenis raketini yukarı, yana veya aşağı bakıyor olsa bile tanımlayabilir. Dönme değişmezliğinin her zaman istenmediğini unutmayın. Örneğin, ters çevrilmiş bir 9 rakamı 9 olarak sınıflandırılmamalıdır.

Döndürme değişmezliği ve boyut değişmezliği hakkında da bilgi edinin.

ROUGE (Tahmin Değerlendirmesi İçin Hatırlama Odaklı Yardımcı Oyuncu)

#language

Otomatik özetleme ve makine çevirisi modellerini değerlendiren bir metrik ailesi. ROUGE metrikleri, bir referans metninin bir yapay zeka modelinin oluşturulan metniyle örtüşme derecesini belirler. ROUGE ailesinin her üyesi, çakışma ölçümlerini farklı bir şekilde gerçekleştirir. Daha yüksek ROUGE puanları, referans metin ile oluşturulan metin arasında daha düşük ROUGE puanlarına kıyasla daha fazla benzerlik olduğunu gösterir.

Her ROUGE aile üyesi genellikle aşağıdaki metrikleri oluşturur:

  • Hassasiyet
  • Geri çağırma
  • F1

Ayrıntılar ve örnekler için:

ROUGE-L

#language

Referans metin ve oluşturulan metin içindeki en uzun ortak alt dizinin uzunluğuna odaklanan ROUGE ailesinin bir üyesidir. Aşağıdaki formüller, ROUGE-L için geri çağırma ve kesinliği hesaplar:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

Ardından, ROUGE-L geri çağırma ve ROUGE-L doğruluğunu tek bir metriğe toplamak için F1 kullanabilirsiniz:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

ROUGE-L, referans metin ve oluşturulan metindeki tüm yeni satırları yoksayar. Bu nedenle, en uzun ortak alt dize birden fazla cümleyi kapsayabilir. Referans metin ve oluşturulan metin birden fazla cümle içeriyorsa genellikle ROUGE-L'nin ROUGE-Lsum adlı bir varyasyonu daha iyi bir metriktir. ROUGE-Lsum, bir pasajdaki her cümle için en uzun ortak alt dizeyi belirler ve ardından bu en uzun ortak alt dizilerin ortalamasını hesaplar.

ROUGE-N

#language

ROUGE ailesindeki bir metrik grubu. Referans metin ile oluşturulan metin arasındaki belirli boyuttaki ortak N-gramları karşılaştırır. Örneğin:

  • ROUGE-1, referans metin ile oluşturulan metinde paylaşılan jetonların sayısını ölçer.
  • ROUGE-2, referans metin ile oluşturulan metinde paylaşılan bigramların (2 gram) sayısını ölçer.
  • ROUGE-3, referans metin ile oluşturulan metinde ortak üçlü grupların (üçlü gruplar) sayısını ölçer.

ROUGE-N ailesinin herhangi bir üyesi için ROUGE-N geri çağırma ve ROUGE-N hassasiyetini hesaplamak üzere aşağıdaki formülleri kullanabilirsiniz:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

Ardından, ROUGE-N geri çağırma ve ROUGE-N doğruluğunu tek bir metriğe toplamak için F1 kullanabilirsiniz:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

ROGUE-S

#language

Skip-gram eşlemesini etkinleştiren, ROUGE-N'in daha esnek bir biçimidir. Yani ROUGE-N yalnızca tam olarak eşleşen N-gramları sayarken ROUGE-S bir veya daha fazla kelimeyle ayrılmış N-gramları da sayar. Örneğin aşağıdakileri göz önünde bulundurabilirsiniz:

ROUGE-N hesaplanırken 2 gramlık Beyaz bulutlar, Beyaz bulutlar ile eşleşmez. Ancak ROUGE-S hesaplanırken Beyaz bulutlar, Beyaz bulutlar ile eşleşir.

R-kare

Bir etiketteki varyasyonun ne kadarının tek bir özellikten veya özellik grubundan kaynaklandığını gösteren bir regresyon metriği. R-kare, 0 ile 1 arasında bir değerdir ve aşağıdaki şekilde yorumlanabilir:

  • 0 olan R-kare değeri, etiketin varyasyonlarının hiçbirinin özellik grubundan kaynaklanmadığı anlamına gelir.
  • 1 olan R-kare değeri, bir etiketin tüm varyasyonunun özellik grubundan kaynaklandığı anlamına gelir.
  • 0 ile 1 arasında bir R-kare değeri, etiketin varyasyonunun belirli bir özellikten veya özellik grubundan ne kadar tahmin edilebileceğini gösterir. Örneğin, 0,10'luk bir R-kare değeri, etiketteki varyansın yüzde 10'unun özellik grubundan kaynaklandığı anlamına gelir. 0,20'lik bir R-kare değeri ise yüzde 20'sinin özellik grubundan kaynaklandığı anlamına gelir.

R kare, bir modelin tahmin ettiği değerler ile kesin referans arasındaki Pearson korelasyon katsayısının karesidir.

S

örnekleme yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

Değiştirmeyle örnekleme

#df

Aynı öğenin birden çok kez seçilebileceği bir aday öğe grubundan öğe seçme yöntemi. "Yenilemeli" ifadesi, her seçimden sonra seçilen öğenin, aday öğe havuzuna iade edildiği anlamına gelir. Ters yöntem olan yerine koyma olmadan örnekleme, bir aday öğenin yalnızca bir kez seçilebileceği anlamına gelir.

Örneğin, aşağıdaki meyve grubunu ele alalım:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Sistemin ilk öğe olarak rastgele fig seçtiğini varsayalım. Değişimli örnekleme kullanılıyorsa sistem aşağıdaki gruptan ikinci öğeyi seçer:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Evet, bu öncekiyle aynı grup. Dolayısıyla sistem fig'ü tekrar seçebilir.

Örnekleme işleminde değiştirme yapılmazsa seçilen bir örnek tekrar seçilemez. Örneğin, sistem ilk örnek olarak rastgele fig'ü seçerse fig tekrar seçilemez. Bu nedenle sistem, ikinci örneği aşağıdaki (azaltılmış) kümeden seçer:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

TensorFlow modellerini kaydetmek ve kurtarmak için önerilen biçim. SavedModel, üst düzey sistemlerin ve araçların TensorFlow modellerini oluşturmasına, kullanmasına ve dönüştürmesine olanak tanıyan, dile duyarlı olmayan, kurtarılabilir bir serileştirme biçimidir.

Ayrıntılı bilgi için TensorFlow Programcı Kılavuzu'nun Kaydetme ve Geri Yükleme bölümüne bakın.

Tasarruflu

#TensorFlow

Model kontrol noktalarını kaydetmekten sorumlu bir TensorFlow nesnesi.

skaler

0 sıralı tenör olarak temsil edilebilen tek bir sayı veya tek bir dize. Örneğin, aşağıdaki kod satırlarının her biri TensorFlow'da bir skaler oluşturur:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

ölçeklendirme

Bir etiketin ve/veya özellik değerinin aralığını değiştiren herhangi bir matematiksel dönüşüm veya teknik. Bazı ölçeklendirme biçimleri, normalleştirme gibi dönüşümler için çok faydalıdır.

Makine Öğrenimi'nde faydalı olan yaygın ölçeklendirme biçimleri şunlardır:

  • Doğrusal ölçeklendirme, genellikle orijinal değeri -1 ile +1 veya 0 ile 1 arasında bir sayı ile değiştirmek için çıkarma ve bölme işlemlerinin bir kombinasyonunu kullanır.
  • Orijinal değeri logaritma değeriyle değiştiren logaritmik ölçeklendirme.
  • Z-skor normalleştirmesi: Orijinal değeri, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştirir.

scikit-learn

Popüler bir açık kaynak makine öğrenimi platformu. scikit-learn.org adresine bakın.

puanlama

#recsystems

Öneri sisteminin, aday oluşturma aşamasında üretilen her öğe için bir değer veya sıralama sağlayan kısmı.

seçim yanlılığı

#fairness

Verilerde gözlemlenen örnekler ile gözlemlenmeyen örnekler arasında sistematik farklılıklar oluşturan bir seçim süreci nedeniyle örneklenmiş verilerden elde edilen sonuçlarda hatalar. Aşağıdaki seçim yanlılığı biçimleri vardır:

  • Kapsam yanlılığı: Veri kümesinde temsil edilen popülasyon, makine öğrenimi modelinin tahminde bulunduğu popülasyonla eşleşmez.
  • Örnekleme önyargısı: Veriler hedef gruptan rastgele toplanmaz.
  • Yanıt vermeme yanlılığı (katılım yanlılığı olarak da bilinir): Belirli gruplardaki kullanıcılar, anketlere diğer gruplardaki kullanıcılara kıyasla farklı oranlarda kaydolmaz.

Örneğin, kullanıcıların bir filmden ne kadar keyif alacağını tahmin eden bir makine öğrenimi modeli oluşturduğunuzu varsayalım. Eğitim verileri toplamak için, filmin gösterildiği bir sinema salonunun ön sırasına bir anket dağıtırsınız. Bu, ilk bakışta veri kümesi toplama için makul bir yöntem gibi görünebilir. Ancak bu veri toplama şekli, aşağıdaki seçim önyargısı biçimlerini ortaya çıkarabilir:

  • Kapsam yanlılığı: Filmi izlemeyi seçen bir popülasyondan örnek alındığında, modelinizin tahminleri, filmle ilgili bu düzeyde ilgi göstermeyen kullanıcılar için genelleştirilemeyebilir.
  • Örnekleme yanlılığı: Amaçlanan popülasyondan (filmdeki tüm kişiler) rastgele örnekleme yapmak yerine yalnızca ön sıradaki kişileri örneklediniz. Ön sırada oturan kişilerin filmle diğer sıralardakilere kıyasla daha fazla ilgilenmiş olması mümkündür.
  • Yanıt vermeme yanlılığı: Genel olarak, güçlü fikirlere sahip kişiler isteğe bağlı anketlere, fikirleri belirsiz olan kişilere kıyasla daha sık yanıt verir. Film anketi isteğe bağlı olduğundan yanıtların normal (çan şeklinde) dağılım yerine iki modlu dağılım oluşturma olasılığı daha yüksektir.

öz dikkat (öz dikkat katmanı olarak da bilinir)

#language

Bir dizi yerleştirmeyi (ör. jeton yerleştirmeleri) başka bir yerleştirme dizisine dönüştüren nöral ağ katmanı. Çıkış dizisindeki her yerleştirme, bir dikkat mekanizması aracılığıyla giriş dizisinin öğelerinden alınan bilgiler birleştirilerek oluşturulur.

Öz dikkat ifadesindeki öz, başka bir bağlam yerine kendisine dikkat eden sırayı ifade eder. Öz dikkat, dönüştürücüler için temel yapı taşlarından biridir ve "sorgu", "anahtar" ve "değer" gibi sözlük arama terminolojisini kullanır.

Öz dikkat katmanı, her kelime için bir tane olmak üzere bir giriş temsili dizisiyle başlar. Bir kelimenin giriş temsili basit bir yerleştirme olabilir. Ağ, giriş dizisindeki her kelime için kelimenin kelime dizisinin tamamındaki her öğeyle alaka düzeyini puanlar. Alaka düzeyi puanları, kelimenin nihai temsilinin diğer kelimelerin temsillerini ne kadar içerdiğini belirler.

Örneğin, aşağıdaki cümleyi ele alalım:

Hayvan çok yorgun olduğu için caddeyi geçmedi.

Aşağıdaki görselde (Transformer: A Novel Neural Network Architecture for Language Understanding adlı makaleden alınmıştır), bir kendi kendine dikkat katmanının it (o) şahıs zamiri için dikkat kalıbı gösterilmektedir. Her satırın koyuluğu, her bir kelimenin temsile ne kadar katkıda bulunduğunu gösterir:

Aşağıdaki cümle iki kez görünüyor: Hayvan çok yorgun olduğu için caddeyi geçmedi. Çizgiler, bir cümledeki &quot;o&quot; zamirinin diğer cümledeki beş jetonla (The, animal, street, it ve nokta) bağlantısını sağlar.  &quot;O&quot; zamiri ile &quot;hayvan&quot; kelimesi arasındaki çizgi en güçlüdür.

Öz dikkat katmanı, "o" ile alakalı kelimeleri vurgular. Bu örnekte dikkat katmanı, kendisinin atıfta bulunabileceği kelimeleri vurgulamayı öğrenmiştir ve en yüksek ağırlığı hayvan'a atamıştır.

n işaret dizisi için kendi kendine dikkat, dizideki her konumda bir kez olmak üzere n ayrı kez bir dizi yerleştirmeyi dönüştürür.

Dikkat ve çoklu başlık kendi kendine dikkat hakkında da bilgi edinin.

kendi kendine gözetimli öğrenme

Etiketsiz örneklerden temsili etiketler oluşturarak gözetimsiz makine öğrenimi problemini gözetimli makine öğrenimi problemine dönüştüren bir teknik ailesi.

BERT gibi bazı dönüştürücü tabanlı modeller, kendi kendine gözetimli öğrenmeyi kullanır.

Kendi kendini denetleyen eğitim, yarı gözetimli öğrenme yaklaşımıdır.

kendi kendine eğitim

Kendi kendini denetleyen öğrenmenin bir varyantı olan bu yöntem, aşağıdaki koşulların tümü geçerli olduğunda özellikle yararlıdır:

Kendi kendine eğitim, model iyileştirmeyi durdurana kadar aşağıdaki iki adımı yineleyerek çalışır:

  1. Etiketli örneklerde bir model eğitmek için gözetimli makine öğrenimini kullanın.
  2. Etiketlenmemiş örneklerde tahminler (etiketler) oluşturmak için 1. adımda oluşturulan modeli kullanın. Yüksek güvenilirlik değerine sahip örnekleri, tahmin edilen etiketle etiketlenmiş örneklere taşıyın.

2. Adım'ın her iterasyonunda, 1. Adım'ın eğitilmesi için daha fazla etiketli örnek eklendiğini unutmayın.

yarı gözetimli öğrenme

Eğitim örneklerinin bazılarının etiketli, bazılarının etiketsiz olduğu verilerle model eğitimi Yarı denetimli öğrenme için kullanılan tekniklerden biri, etiketlenmemiş örnekler için etiketleri tahmin etmek ve ardından yeni bir model oluşturmak için tahmin edilen etiketlerle eğitim yapmaktır. Etiketlerin elde edilmesi pahalıysa ancak etiketlenmemiş örnekler bolsa yarı gözetimli öğrenme yararlı olabilir.

Kendi kendine eğitim, yarı denetimli öğrenme için kullanılan tekniklerden biridir.

hassas özellik

#fairness
Yasal, ahlaki, sosyal veya kişisel nedenlerle özel olarak değerlendirilebilecek bir kullanıcı özelliği.

yaklaşım analizi

#language

Bir grubun bir hizmete, ürüne, kuruluşa veya konuya karşı genel tutumunu (pozitif veya negatif) belirlemek için istatistiksel veya makine öğrenimi algoritmalarının kullanılması. Örneğin, doğal dil anlama özelliğini kullanan bir algoritma, öğrencilerin bir üniversite kursundan ne kadar memnun kaldığını belirlemek için kursla ilgili metin geri bildirimlerinde duygu analizi yapabilir.

sıra modeli

#seq

Girişlerinin sıralı bir bağımlılığı olan bir model. Örneğin, daha önce izlenen videoların sırasına göre izlenecek bir sonraki videoyu tahmin etme.

sırayla sıraya görev

#language

Bir giriş jeton dizisini çıkış jeton dizisine dönüştüren bir görev. Örneğin, sırayla sıraya göre görevler için iki popüler tür vardır:

  • Çevirmenler:
    • Örnek giriş dizisi: "Seni seviyorum."
    • Örnek çıkış sırası: "Je t'aime."
  • Soru yanıtlama:
    • Örnek giriş sırası: "New York'ta arabama ihtiyacım var mı?"
    • Örnek çıkış sırası: "Hayır. Lütfen arabanızı evde bırakın."

porsiyon

Eğitilmiş bir modeli online çıkarım veya çevrimdışı çıkarım aracılığıyla tahmin sağlamak için kullanılabilir hale getirme işlemi.

shape (Tensör)

Bir tensörün her boyutundaki öğe sayısı. Şekil, tam sayı listesi olarak temsil edilir. Örneğin, aşağıdaki iki boyutlu tensör [3,4] şeklindedir:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, boyutların sırasını temsil etmek için satır öncelikli (C stili) biçim kullanır. Bu nedenle, TensorFlow'daki şekil [4,3] yerine [3,4] olur. Diğer bir deyişle, iki boyutlu bir TensorFlow tenzorunda şekil [satır sayısı, sütun sayısı] şeklindedir.

Statik şekil, derleme zamanında bilinen bir tensör şeklidir.

Dinamik şekiller derleme zamanında bilinmez olduğundan çalışma zamanı verilerine bağlıdır. Bu tensör, TensorFlow'da [3, ?] gibi bir yer tutucu boyutuyla temsil edilebilir.

kırık

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya modelin mantıksal bir bölümü. Genellikle bazı işlemler, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara ayırarak parçalar oluşturur. Ardından her bir parça farklı bir makineye atanır.

Bir modeli bölme işlemine model paralelliği, verileri bölme işlemine ise veri paralelliği denir.

küçülme

#df

Gradyan güçlendirme'de aşırı uyumu kontrol eden bir hiperparametre. Gradyan artırmada küçülme, gradyan inişindeki öğrenme hızına benzer. Shrinkage, 0,0 ile 1,0 arasında bir ondalık değerdir. Daha düşük bir küçülme değeri, daha yüksek bir küçülme değerinden daha fazla aşırı uyumu azaltır.

sigmoid işlevi

#fundamentals

Bir giriş değerini genellikle 0 ila 1 veya -1 ila +1 arasında olan kısıtlanmış bir aralığa "sıkıştıran" matematiksel bir işlevdir. Yani herhangi bir sayıyı (iki, bir milyon, eksi milyar vb.) bir sigmoid'e iletebilirsiniz ve çıkış yine de sınırlı aralıkta olur. Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

X değerleri -sonsuz ile +pozitif arasında, y değerleri ise neredeyse 0 ile neredeyse 1 arasında değişen iki boyutlu eğri nokta grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5&#39;tedir ve x&#39;in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Sigmoid işlevinin makine öğrenimindeki çeşitli kullanım alanları şunlardır:

benzerlik ölçümü

#clustering

Gruplandırma algoritmalarında, iki örneğin birbirine ne kadar benzediğini (ne kadar benzer olduğunu) belirlemek için kullanılan metrik.

tek program / çok veri (SPMD)

Aynı hesaplamanın farklı cihazlarda farklı giriş verilerinde paralel olarak çalıştırıldığı bir paralellik tekniği. SPMD'nin amacı, daha hızlı sonuç elde etmektir. En yaygın paralel programlama stili budur.

boyut değişmezliği

#image

Görüntü sınıflandırma probleminde, algoritmanın resmin boyutu değişse bile resimleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma 2 milyon piksel veya 200 bin piksel tüketip tüketmediğine bakılmaksızın bir kediyi tanımlayabilir. En iyi görüntü sınıflandırma algoritmalarının bile boyut değişmezliği konusunda pratik sınırlamaları olduğunu unutmayın. Örneğin, bir algoritmanın (veya kullanıcının) yalnızca 20 piksellik bir kedi resmini doğru şekilde sınıflandırması pek olası değildir.

Döndürme invaryantlığı ve dönme invaryantlığı hakkında da bilgi edinin.

eskiz

#clustering

Gözetimsiz makine öğrenimi'nde, örnekler üzerinde ön bir benzerlik analizi yapan bir algoritma kategorisidir. Çizim algoritmaları, benzer olma olasılığı yüksek noktaları tespit etmek ve ardından bunları gruplara ayırmak için yerelliğe duyarlı bir karma işlevi kullanır.

Taslak oluşturma, büyük veri kümelerinde benzerlik hesaplamaları için gereken hesaplamayı azaltır. Veri kümesindeki her bir örnek çifti için benzerliği hesaplamak yerine, yalnızca her gruptaki her nokta çifti için benzerliği hesaplarız.

atlama gramı

#language

Orijinal bağlamdaki kelimeleri atlayabilen (veya "atlayabilen") bir n-gram. Yani N kelimenin başlangıçta bitişik olmayabilir. Daha açık belirtmek gerekirse, "k atlama n-gramı", k'ya kadar kelimenin atlanmış olabileceği bir n-gramdır.

Örneğin, "the quick brown fox" (cesur kahverengi tilki) ifadesi aşağıdaki olası 2 gramları içerir:

  • "the quick"
  • "quick brown"
  • "kahverengi tilki"

"1 atlama 2 gram", aralarında en fazla 1 kelime olan bir kelime çiftidir. Bu nedenle, "the quick brown fox" ifadesi aşağıdaki 1 sıçrama 2 gramı içerir:

  • "the brown"
  • "quick fox"

Ayrıca, birden fazla kelime atlanabilir olduğundan tüm 2 gramlar aynı zamanda 1 atlamalı 2 gramdır.

Atlama gramları, bir kelimenin etrafındaki bağlamı daha iyi anlamak için yararlıdır. Örnekte, "fox" 1-skip-2-gram grubunda doğrudan "quick" ile ilişkilendirilmiştir ancak 2-gram grubunda ilişkilendirilmemiştir.

Atlama gramları, kelime yerleştirme modellerini eğitmeye yardımcı olur.

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıf için olasılıkları belirleyen bir işlev. Olasılıklar toplamı tam olarak 1,0'a eşittir. Örneğin, aşağıdaki tabloda softmax'in çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örnekleme ile karşılaştırın.

yumuşak istem ayarı

#language
#generativeAI

Kaynak yoğun ince ayar yapmadan belirli bir görev için büyük dil modelini ayarlama tekniği. Yumuşak istem ayarı, modeldeki tüm ağırlıkları yeniden eğitmek yerine, aynı hedefe ulaşmak için istemi otomatik olarak ayarlar.

Metin istemi verildiğinde yumuşak istem ayarı genellikle isme ek jeton ekleme işlemi yapar ve girişi optimize etmek için geri yayılımı kullanır.

"Sabit" istem, jeton yerleştirmeleri yerine gerçek jetonlar içerir.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrektir. Buna karşılık, yoğun bir özellik, çoğunlukla sıfır veya boş olmayan değerlere sahiptir.

Makine öğrenimindeki şaşırtıcı sayıda özellik seyrek özelliktir. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, bir ormandaki 300 olası ağaç türünden tek bir örnekte yalnızca akçaağaç bulunabilir. Video kitaplığındaki milyonlarca videodan tek bir örnekte yalnızca "Casablanca" bulunabilir.

Bir modelde, seyrek özellikleri genellikle tek sıcak kodlama ile temsil edersiniz. Tek sıcak kodlama büyükse daha fazla verimlilik için tek sıcak kodlamanın üzerine bir gömülü katman yerleştirebilirsiniz.

seyrek gösterim

#language
#fundamentals

Seyrek bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca, her örnek'in yalnızca tek bir türü tanımladığını varsayalım.

Her örnekteki ağaç türlerini temsil etmek için tek sıcaklık değerine sahip bir vektör kullanabilirsiniz. Tek sıcak vektör, tek bir 1 (bu örnekteki belirli ağaç türünü temsil etmek için) ve 35 0 (bu örnekte bulunmayan 35 ağaç türünü temsil etmek için) içerir. Dolayısıyla maple için tek sıcak temsil aşağıdaki gibi görünebilir:

0 ile 23 arasındaki konumların 0 değerini, 24. konumun 1 değerini ve 25 ile 35 arasındaki konumların 0 değerini tuttuğu bir vektör.

Alternatif olarak, seyrek temsil, belirli türün konumunu tanımlar. maple 24. sıradaysa maple için seyrek gösterim şu şekilde olur:

24

Seyrek temsilin tek sıcak temsile kıyasla çok daha kompakt olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca seyrek özellik ve seyreklik konularına da bakın.

seyreklik

Bir vektör veya matriste sıfır (veya boş) olarak ayarlanan öğelerin sayısının, söz konusu vektör veya matristeki toplam giriş sayısına bölünmesiyle elde edilen değer. Örneğin, 98 hücresinin sıfır içerdiği 100 öğeli bir matrisi düşünün. Seyrekliğin hesaplanması aşağıdaki gibidir:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

Özellik seyrekliği, bir özellik vektörünün seyrekliğini ifade eder. Model seyrekliği ise model ağırlıklarının seyrekliğini ifade eder.

mekansal toplama

#image

Birleştirme konusuna bakın.

Split

#df

Karar ağacında koşul için kullanılan başka bir ad.

ayırıcı

#df

Bir karar ağacı eğitilirken her düğümde en iyi koşulu bulmakla görevli rutin (ve algoritma).

SPMD

Tek program / birden fazla veri kısaltması.

kareli menteşe kaybı

Menteşe kaybının karesi. Kare eklem kaybı, aykırı değerleri normal eklem kaybına kıyasla daha sert şekilde cezalandırır.

kare kaybı

#fundamentals

L2 kaybı ile eş anlamlıdır.

aşamalı eğitim

#language

Bir modeli ayrı aşamalar halinde eğitme taktiği. Amaç, eğitim sürecini hızlandırmak veya daha iyi model kalitesi elde etmek olabilir.

Aşağıda, kademeli yığın yaklaşımını gösteren bir görsel verilmiştir:

  • 1. aşama 3 gizli katman, 2. aşama 6 gizli katman ve 3. aşama 12 gizli katman içerir.
  • 2. Aşama, 1. Aşama'nın 3 gizli katmanında öğrenilen ağırlıklarla eğitime başlar. 3. Aşama, 2. Aşama'nın 6 gizli katmanında öğrenilen ağırlıklarla eğitime başlar.

1. Aşama, 2. Aşama ve 3. Aşama olarak etiketlenen üç aşama.
          Her aşama farklı sayıda katman içerir: 1. aşama 3 katman, 2. aşama 6 katman ve 3. aşama 12 katman içerir.
          1. Aşama&#39;daki 3 katman, 2. Aşama&#39;nın ilk 3 katmanı olur.
          Benzer şekilde, 2. Aşama&#39;daki 6 katman 3. Aşama&#39;nın ilk 6 katmanı olur.

Ayrıca ardışık düzen konusuna da bakın.

durum

#rl

Güçlendirme öğrenimi, aracı'nın işlem seçmek için kullandığı, ortamın mevcut yapılandırmasını tanımlayan parametre değerleridir.

durum-işlem değer fonksiyonu

#rl

Q işlevi için eş anlamlı.

statik

#fundamentals

Sürekli olarak değil, bir kez yapılan bir işlem. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğrenimindeki statik ve çevrimdışı özelliklerinin yaygın kullanım alanları aşağıda verilmiştir:

  • Statik model (veya çevrimdışı model), bir kez eğitilen ve ardından bir süre kullanılan bir modeldir.
  • Statik eğitim (veya çevrimdışı eğitim), statik bir modeli eğitme sürecidir.
  • Statik çıkarım (veya çevrimdışı çıkarım), bir modelin tek seferde bir grup tahmin oluşturduğu bir işlemdir.

Dinamik ile karşılaştırın.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen bir özellik. Örneğin, 2021 ve 2023'te değerleri yaklaşık olarak aynı olan bir özellik durağandır.

Gerçek dünyada çok az sayıda özellik durağanlık gösterir. Kararlılıkla eş anlamlı özellikler (deniz seviyesi gibi) bile zaman içinde değişir.

Değişkenlik ile karşılaştırın.

adım

Bir grup için ileri ve geri geçiş.

İleriye doğru ve geriye doğru geçiş hakkında daha fazla bilgi için geri yayılma konusuna bakın.

adım boyutu

Öğrenme hızı ile eş anlamlıdır.

stokastik gradyan inişi (SGD)

#fundamentals

Grup boyutunun bir olduğu bir gradyan azalma algoritması. Diğer bir deyişle, SGD, eğitim veri kümesinden rastgele seçilen tek bir örnek üzerinde eğitilir.

stride

#image

Bir konvolusyon işleminde veya toplama işleminde, sonraki giriş dilimi serisinin her boyutundaki delta. Örneğin, aşağıdaki animasyonda bir konvolusyon işlemi sırasında (1,1) adım gösterilmektedir. Bu nedenle, sonraki giriş dilimi bir önceki giriş diliminin sağındaki konumdan başlar. İşlem sağ kenara ulaştığında bir sonraki dilim tamamen sola, ancak bir konum aşağıya yerleştirilir.

5x5 giriş matrisi ve 3x3 konvolüsyon filtresi. Adım (1,1) olduğundan, bir konvolusyon filtresi 9 kez uygulanır. İlk convolutional dilim, giriş matrisinin sol üst 3x3 alt matrisini değerlendirir. İkinci dilim, üst ortadaki 3x3 alt matrisi değerlendirir. Üçüncü konvolusyon dilimi, sağ üstteki 3x3 alt matrisi değerlendirir.  Dördüncü dilim, sol ortada bulunan 3x3 alt matrisi değerlendirir.
     Beşinci dilim, ortadaki 3x3 alt matrisi değerlendirir. Altıncı dilim, sağ ortadaki 3x3 alt matrisi değerlendirir. Yedinci dilim, sol alttaki 3x3 alt matrisi değerlendirir.  Sekizinci dilim, alt-ortadaki 3x3 alt matrisi değerlendirir. Dokuzuncu dilim, sağ alttaki 3x3 alt matrisi değerlendirir.

Önceki örnekte iki boyutlu bir adım gösterilmektedir. Giriş matrisi üç boyutluysa adım da üç boyutlu olur.

yapısal risk azaltma (SRM)

İki hedef arasında denge kuran bir algoritma:

  • En iyi tahmini modelin (ör. en düşük kayıp) oluşturulması gerekir.
  • Modeli mümkün olduğunca basit tutma ihtiyacı (ör. güçlü normalleştirme).

Örneğin, eğitim veri kümesinde kayıp+düzenlemeyi en aza indiren bir işlev, yapısal risk azaltma algoritmasıdır.

Deneysel risk minimizasyonu ile karşılaştırın.

alt örnekleme

#image

Birleştirme konusuna bakın.

alt kelime belirteci

#language

Dil modellerinde, bir kelimenin alt dizesi olan ve kelimenin tamamı da olabilecek işaret.

Örneğin, "itemize" gibi bir kelime "item" (kök kelime) ve "ize" (son ek) parçalarına ayrılabilir. Bu parçaların her biri kendi jetonuyla temsil edilir. Sık kullanılmayan kelimelerin alt kelimeler adı verilen parçalara bölünmesi, dil modellerinin kelimenin önek ve son ek gibi daha yaygın bileşenleri üzerinde çalışmasını sağlar.

Buna karşılık, "going" gibi yaygın kelimeler bölünmeyebilir ve tek bir jetonla temsil edilebilir.

özet

#TensorFlow

TensorFlow'da, belirli bir adım sırasında hesaplanan ve genellikle eğitim sırasında model metriklerini izlemek için kullanılan bir değer veya değer grubu.

gözetimli makine öğrenimi

#fundamentals

Özellikler ve ilgili etiketlerinden model eğitme. Gözetimli makine öğrenimi, bir konuyu öğrenmek için bir dizi soru ve ilgili yanıtları incelemeye benzer. Sorular ile yanıtlar arasındaki eşleştirmeyi öğrendikten sonra öğrenciler aynı konuyla ilgili yeni (daha önce görülmemiş) sorulara yanıt verebilir.

Gözetimsiz makine öğrenimiyle karşılaştırın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazlasından derlenen bir özellik. Sentetik özellikler oluşturma yöntemleri şunlardır:

  • Sürekli bir özelliği aralık kaplarına paketlere ayırma.
  • Özellik çaprazlaması oluşturma.
  • Bir özellik değerinin diğer özellik değerleriyle veya kendisiyle çarpılması (veya bölünmesi). Örneğin, a ve b giriş özellikleriyse aşağıdakiler sentetik özelliklere örnektir:
    • ab
    • a2
  • Bir özellik değerine aşkın bir fonksiyon uygulama. Örneğin, c bir giriş özelliğiyse aşağıdakiler sentetik özelliklere örnek gösterilebilir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak kabul edilmez.

T

T5

#language

Google Yapay Zeka tarafından 2020'de kullanıma sunulan metinden metne transfer öğrenme modeli. T5, Transformer mimarisine dayalı, son derece büyük bir veri kümesinde eğitilmiş bir kodlayıcı-kod çözücü modelidir. Metin oluşturma, dil çevirme ve soruları konuşma dilinde yanıtlama gibi çeşitli doğal dil işleme görevlerinde etkilidir.

T5, adını "Text-to-Text Transfer Transformer " (Metinden Metne Aktarım Dönüştürücü) ifadesindeki beş T'den alır.

T5X

#language

Büyük ölçekli doğal dil işleme (NLP) modelleri oluşturmak ve eğitmek için tasarlanmış açık kaynak bir makine öğrenimi çerçevesi. T5, T5X kod tabanında (JAX ve Flax üzerine kuruludur) uygulanır.

tablolu Q öğrenme

#rl

Güçlendirme öğrenimi'nde, her durum ve işlem kombinasyonu için Q işlevlerini depolamak üzere bir tablo kullanarak Q öğrenme uygulanır.

hedef

Etiket ile eş anlamlıdır.

hedef ağ

#rl

Derin Q öğrenme'de, ana sinir ağının Q işlevi veya politika uyguladığı ana sinir ağının kararlı bir kestirmesi olan bir sinir ağı. Ardından, ana ağı hedef ağ tarafından öngörülen Q değerleriyle eğitebilirsiniz. Bu nedenle, ana ağ kendi tahmin ettiği Q değerleriyle eğitilirken ortaya çıkan geri bildirim döngüsünü önlersiniz. Bu geri bildirimden kaçınarak eğitim kararlılığı artar.

görev

Makine öğrenimi teknikleri kullanılarak çözülebilecek bir sorundur. Örneğin:

sıcaklık

#language
#image
#generativeAI

Bir modelin çıkışının rastgelelik derecesini kontrol eden hiper parametre. Yüksek sıcaklıklar daha rastgele sonuçlara, düşük sıcaklıklar ise daha az rastgele sonuçlara yol açar.

En iyi sıcaklığı seçmek, belirli uygulamaya ve modelin çıktısının tercih edilen özelliklerine bağlıdır. Örneğin, reklam öğesi çıkışı oluşturan bir uygulama oluştururken sıcaklığı artırmanız gerekir. Buna karşılık, modelin doğruluğunu ve tutarlılığını artırmak için resimleri veya metni sınıflandıran bir model oluştururken sıcaklığı düşürmeniz muhtemeldir.

Sıcaklık genellikle softmax ile birlikte kullanılır.

zamana dayalı veriler

Farklı zamanlarda kaydedilen veriler. Örneğin, yılın her günü kaydedilen kışlık mont satışları zamana dayalı veridir.

Tensor

#TensorFlow

TensorFlow programlarındaki birincil veri yapısı. Tensörler, N boyutlu (N çok büyük olabilir) veri yapıları olup en yaygın olarak skalerler, vektörler veya matrislerdir. Bir tenzorun öğeleri tam sayı, kayan nokta veya dize değerleri içerebilir.

TensorBoard

#TensorFlow

Bir veya daha fazla TensorFlow programının yürütülmesi sırasında kaydedilen özetlerin gösterildiği kontrol paneli.

TensorFlow

#TensorFlow

Büyük ölçekli, dağıtılmış bir makine öğrenimi platformu. Bu terim, TensorFlow yığındaki ve veri akışı grafiklerinde genel hesaplamayı destekleyen temel API katmanını da ifade eder.

TensorFlow, esas olarak makine öğrenimi için kullanılsa da TensorFlow'u, veri akışı grafikleri kullanarak sayısal hesaplama gerektiren makine öğrenimi dışı görevler için de kullanabilirsiniz.

TensorFlow Playground

#TensorFlow

Farklı hiper parametrelerin model (özellikle de sinir ağı) eğitimini nasıl etkilediğini görselleştiren bir program. TensorFlow Playground'u denemek için http://playground.tensorflow.org adresine gidin.

TensorFlow Serving

#TensorFlow

Eğitilmiş modelleri üretime dağıtmak için bir platform.

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden, uygulamaya özel entegre devre (ASIC). Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.

Tensör sıralaması

#TensorFlow

rank (Tensor) konusuna bakın.

Tensör şekli

#TensorFlow

Bir Tensor çeşitli boyutlarda içerdiği öğe sayısı. Örneğin, bir [5, 10] tenörünün bir boyutu 5, diğer boyutu 10 olabilir.

Tensör boyutu

#TensorFlow

Bir Tensor içerdiği toplam skaler sayısı. Örneğin, [5, 10] tenörünün boyutu 50'dir.

TensorStore

Büyük boyutlu çok boyutlu dizileri verimli bir şekilde okumak ve yazmak için bir kitaplık.

fesih koşulu

#rl

Güçlendirme öğrenimi'nde, bir bölüm'ün ne zaman sona ereceğini belirleyen koşullar (ör. aracı belirli bir duruma ulaştığında veya belirli bir durum geçişi eşiğini aştığında). Örneğin, tik tak (eşkenar çarpı olarak da bilinir) oyununda bir bölüm, bir oyuncu art arda üç kareyi işaretlediğinde veya tüm kareler işaretlendiğinde sona erer.

test

#df

Karar ağacında koşul için kullanılan başka bir ad.

test kaybı

#fundamentals

Bir modelin test veri kümesine göre kayıp değerini temsil eden bir metrik. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının düşük eğitim kaybı veya düşük doğrulama kaybı olduğundan daha güçlü bir kalite sinyali olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasındaki büyük bir fark, bazen normalleştirme oranını artırmanız gerektiğini gösterir.

test seti

Eğitilmiş bir modeli test etmek için ayrılmış veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

Bir veri kümesindeki her örnek, önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim hem de test kümesine ait olmamalıdır.

Hem eğitim kümesi hem de doğrulama kümesi, bir modeli eğitmeyle yakından ilişkilidir. Test veri kümesi yalnızca dolaylı olarak eğitimle ilişkili olduğundan test kaybı, eğitim kaybı veya doğrulama kaybı'na kıyasla daha az önyargılı ve daha yüksek kaliteli bir metriktir.

metin aralığı

#language

Bir metin dizesinin belirli bir alt bölümüyle ilişkili dizi dizini aralığı. Örneğin, s="Be good now" Python dizesi içindeki good kelimesi 3 ile 6 arasındaki metin aralığını kaplar.

tf.Example

#TensorFlow

Makine öğrenimi modeli eğitimi veya çıkarım için giriş verilerini tanımlayan standart bir protokol arabelleği.

tf.keras

#TensorFlow

TensorFlow'a entegre edilmiş Keras uygulaması.

eşik (karar ağaçları için)

#df

Ekseni hizalanmış koşulda, özelliğin karşılaştırıldığı değerdir. Örneğin, aşağıdaki koşulda eşik değer 75'tir:

grade >= 75

zaman serisi analizi

#clustering

Zamansal verileri analiz eden makine öğrenimi ve istatistik alt alanı. Sınıflandırma, kümelendirme, tahmin ve anormallik algılama dahil olmak üzere birçok makine öğrenimi sorunu zaman serisi analizi gerektirir. Örneğin, geçmiş satış verilerine göre kışlık montların gelecekteki satışlarını aya göre tahmin etmek için zaman serisi analizini kullanabilirsiniz.

adım aralığı

#seq

Yineleyici nöral ağ içindeki bir "açılmış" hücre. Örneğin, aşağıdaki şekilde üç adım (t-1, t ve t+1 alt dizeleri ile etiketlenmiştir) gösterilmektedir:

Yinelemeli nöral ağda üç zaman adımı. İlk zaman adımının çıkışı, ikinci zaman adımının girişi olur. İkinci adım aralığının çıkışı, üçüncü adım aralığının girişi olur.

token

#language

Dil modelinde, modelin eğitildiği ve tahminlerde bulunduğu atomik birimdir. Jetonlar genellikle aşağıdakilerden biridir:

  • bir kelimedir. Örneğin, "köpekler kedileri sever" ifadesi üç kelime jetonundan oluşur: "köpekler", "sever" ve "kedileri".
  • karakterden oluşur. Örneğin, "bisiklet balık" ifadesi dokuz karakter jetonundan oluşur. (Boşluğun jetonlardan biri olarak sayıldığını unutmayın.)
  • alt kelimeler (tek bir kelime tek bir jeton veya birden fazla jeton olabilir). Alt kelime, bir kök kelime, ön ek veya sonekten oluşur. Örneğin, alt kelimeleri jeton olarak kullanan bir dil modeli, "köpekler" kelimesini iki jeton olarak (kök kelime "köpek" ve çoğul son eki "ler") görebilir. Aynı dil modeli, "uzun" kelimesini iki alt kelime olarak (kök kelime "uzun" ve son ek "er") görebilir.

Dil modellerinin dışındaki alanlarda jetonlar, diğer türde atomik birimleri temsil edebilir. Örneğin, bilgisayar görüşünde jeton bir resmin alt kümesi olabilir.

en iyi k doğruluğu

#language

Oluşturulan listelerin ilk k konumunda bir "hedef etiketinin" görünme yüzdesi. Listeler, kişiselleştirilmiş öneriler veya softmax'e göre sıralanmış öğelerin listesi olabilir.

En yüksek k doğruluğu, k doğruluğu olarak da bilinir.

Tower

Kendisi de derin bir nöral ağ olan derin nöral ağın bir bileşeni. Bazı durumlarda her kule bağımsız bir veri kaynağından veri okur ve bu kuleler, çıkışları son katmanda birleştirilene kadar bağımsız kalır. Diğer durumlarda (örneğin, birçok dönüştürücünün kodlayıcı ve kod çözücü kulesinde) kuleler birbirine çapraz bağlantılarla bağlıdır.

toksik

#language

İçeriğin kötüye kullanım amaçlı, tehdit edici veya rahatsız edici olma derecesi. Birçok makine öğrenimi modeli, toksisiteyi tespit edip ölçebilir. Bu modellerin çoğu, toksikliği kötüye kullanım amaçlı dil ve tehdit edici dil düzeyi gibi birden fazla parametreyle tanımlar.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleğe sahip programlanabilir bir doğrusal cebir hızlandırıcı. TPU cihazına birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi, yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımına sahip bir baskılı devre kartı (PCB).

TPU ana makine

#TensorFlow
#GoogleCloud

Ana makinede çalışan ve TPU çalışanlarına veri, sonuç, program, performans ve sistem sağlığı bilgileri gönderip alan merkezi koordinasyon süreci. TPU ana makinesi, TPU cihazlarının kurulumunu ve kapatılmasını da yönetir.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud'da belirli bir TPU türüne sahip bir TPU kaynağı. TPU düğümü, eş VPC ağındaki VPC ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. Bir TPU kapsülünde bulunan tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU kapsülü, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazı yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU öğesi. Örneğin, TPU düğümleri ve TPU türleri TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU kapsülünde bulunan TPU cihazlarının kesirli bir bölümüdür. Bir TPU dilimindeki tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazından oluşan yapılandırma. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8 TPU türü, 8 çekirdeğe sahip tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 ağ bağlantılı TPU v3 cihazı ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

Ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir işlemdir.

eğitim

#fundamentals

Model içeren ideal parametreleri (ağırlıklar ve önyargılar) belirleme süreci. Eğitim sırasında sistem örnek verileri okur ve parametreleri kademeli olarak ayarlar. Eğitimde her örnek birkaç kez ila milyarlarca kez kullanılır.

eğitim kaybı

#fundamentals

Belirli bir eğitim iterasyonunda modelin kayıp değerini temsil eden bir metrik. Örneğin, kayıp işlevinin ortalama kare hatası olduğunu varsayalım. 10.iterasyonun eğitim kaybı (ortalama kare hata) 2,2, 100.iterasyonun eğitim kaybı ise 1,9 olabilir.

Kayıp eğrisi, eğitim kaybını iterasyon sayısına göre gösterir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru bir eğim, modelin iyileştiğini gösterir.
  • Yukarı doğru bir eğim, modelin kötüye gittiğini gösterir.
  • Düz bir eğim, modelin yakınsamaya ulaştığını gösterir.

Örneğin, aşağıdaki biraz idealize edilmiş kayıp eğrisi şunu gösterir:

  • İlk iterasyonlar sırasında hızlı bir model iyileşmesi anlamına gelen dik bir aşağı eğim.
  • Eğitimin sonuna yakın bir zamana kadar kademeli olarak düzleşen (ancak yine de aşağı doğru) bir eğim. Bu, modelin ilk iterasyonlara kıyasla biraz daha yavaş bir hızda iyileşmeye devam ettiğini gösterir.
  • Eğimin eğitim sonuna doğru düzleşmesi, yakınsama olduğunu gösterir.

Eğitim kaybının yinelemelere göre grafiği. Bu kayıp eğrisi, dik bir aşağı eğimle başlar. Eğim, sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da genelleştirme konusuna da göz atın.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasındaki performansı ile aynı modelin yayınlama sırasındaki performansı arasındaki fark.

eğitim seti

#fundamentals

Modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye ayrılır:

İdeal olarak, veri kümesindeki her örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim veri kümesine hem de doğrulama veri kümesine ait olmamalıdır.

yörünge

#rl

Güçlendirme öğrenimi'nde, öğrenen durum geçişlerinin bir sırasını temsil eden tuple dizisi. Her tuple, durum, işlem, ödül ve belirli bir durum geçişi için sonraki duruma karşılık gelir.

transfer öğrenimi

Bilgileri bir makine öğrenimi görevinden diğerine aktarma. Örneğin, çok görevli öğrenmede tek bir model birden fazla görevi çözer. Örneğin, farklı görevler için farklı çıkış düğümlerine sahip bir derin model. Öğrenim aktarma, daha basit bir görevin çözümünden daha karmaşık bir göreve bilgi aktarmayı veya daha fazla verinin bulunduğu bir görevden daha az verinin bulunduğu bir göreve bilgi aktarmayı içerebilir.

Çoğu makine öğrenimi sistemi tek bir görevi çözer. Öğrenim aktarma, tek bir programın birden fazla görevi çözebildiği yapay zeka yolunda atılmış küçük bir adımdır.

Transformatör

#language

Google'da geliştirilen ve dönüşüm veya yinelenen sinir ağlarına ihtiyaç duymadan bir giriş dizilimini çıkış dizilimine dönüştürmek için kendi kendine dikkat mekanizmalarına dayanan bir nöral ağ mimarisi. Transformer, öz dikkat katmanlarının yığını olarak görülebilir.

Dönüştürücüler aşağıdakilerden herhangi birini içerebilir:

Kodlayıcı, bir dizi yerleştirmeyi aynı uzunlukta yeni bir diziye dönüştürür. Bir kodlayıcı, her biri iki alt katman içeren N adet aynı katman içerir. Bu iki alt katman, giriş yerleştirme dizisinin her konumuna uygulanarak dizinin her öğesini yeni bir yerleştirmeye dönüştürür. İlk kodlayıcı alt katmanı, giriş dizisindeki bilgileri toplar. İkinci kodlayıcı alt katmanı, birleştirilen bilgileri çıkış yerleştirmesine dönüştürür.

Kod çözücü, bir giriş yerleştirilmiş öğesi dizisini, muhtemelen farklı uzunlukta bir çıkış yerleştirilmiş öğesi dizisine dönüştürür. Kod çözücü, üç alt katmana sahip N tane aynı katman da içerir. Bu katmanlardan ikisi kodlayıcı alt katmanlarına benzer. Üçüncü kod çözücü alt katmanı, kodlayıcının çıkışını alır ve buradan bilgi toplamak için öz dikkat mekanizmasını uygular.

Transformer: A Novel Neural Network Architecture for Language Understanding (Dönüştürücü: Dil Anlama İçin Yeni Bir Nöral Ağ Mimarisi) adlı blog yayını, dönüştürücülere dair iyi bir giriş niteliğindedir.

çeviri değişmezliği

#image

Görüntü sınıflandırma probleminde, algoritmanın resimdeki nesnelerin konumu değişse bile resimleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma, çerçevenin ortasında veya sol ucunda olsun fark etmeksizin köpeği tanımlayabilir.

Boyut sabitliği ve dönme sabitliği hakkında da bilgi edinin.

üçlü

#seq
#language

N=3 olan bir N-gram.

Doğru negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta mesajının spam olmadığını tahmin eder ve bu e-posta mesajı gerçekten spam değildir.

gerçek pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olduğunu tahmin eder ve bu e-posta iletisi gerçekten spam olur.

gerçek pozitif oranı (TPR)

#fundamentals

Hatırlama ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisinde y eksenidir.

U

farkında olmama (hassas bir özellik hakkında)

#fairness

Hassas özelliklerin mevcut olduğu ancak eğitim verilerine dahil edilmediği bir durum. Hassas özellikler genellikle kullanıcı verilerinin diğer özellikleriyle ilişkili olduğundan, hassas bir özellik hakkında bilgi sahibi olmadan eğitilen bir model, bu özellikle ilgili farklı bir etkiye sahip olabilir veya diğer adalet kısıtlamalarını ihlal edebilir.

yetersiz uyum

#fundamentals

Eğitim verilerinin karmaşıklığını tam olarak yakalayamadığı için tahmin gücü düşük bir model oluşturma. Aşağıdakiler dahil birçok sorun, modelin yetersiz uyum sağlamasına neden olabilir:

Yetersiz örnekleme

Daha dengeli bir eğitim kümesi oluşturmak için sınıf dengesi bozuk veri kümesinde çoğunluk sınıfından örneklerin kaldırılması.

Örneğin, çoğunluk sınıfının azınlık sınıfına oranı 20:1 olan bir veri kümesi düşünün. Bu sınıf dengesizliğini gidermek için azınlık sınıfı örneklerinin tümünden ve çoğunluk sınıfı örneklerinin yalnızca onda birinden oluşan bir eğitim kümesi oluşturabilirsiniz. Bu durumda eğitim kümesi sınıf oranı 2:1 olur. Az örnekleme sayesinde bu daha dengeli eğitim veri kümesi daha iyi bir model oluşturabilir. Alternatif olarak, bu daha dengeli eğitim veri kümesi etkili bir model eğitmek için yeterli örnek içermeyebilir.

Aşırı örnekleme ile karşılaştırın.

tek yönlü

#language

Yalnızca hedef metin bölümünün öncesinde gelen metni değerlendiren bir sistemdir. Buna karşılık, iki yönlü bir sistem hem hedef metin bölümünün öncesinde hem de ardından gelen metni değerlendirir. Daha fazla bilgi için iki yönlü bağlantıya bakın.

tek yönlü dil modeli

#language

Olasılıklarını yalnızca hedef jetonlardan sonra değil, önce gelen jetonlara dayandıran bir dil modeli. İki yönlü dil modeliyle karşılaştırın.

etiketsiz örnek

#fundamentals

Özellikler içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınan, her biri üç özelliğe sahip ancak ev değeri olmayan üç etiketsiz örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğrenimi modelleri, etiketli örnekler üzerinde eğitilir ve etiketlenmemiş örnekler hakkında tahminde bulunur.

Yarı denetimli ve denetimsiz öğrenmede, eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketsiz örneği etiketli örnekle karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Genellikle etiketlenmemiş bir veri kümesinde kalıpları bulmak için bir model eğitme.

Gözetimli olmayan makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplara kümelendirmektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre gruplandırabilir. Elde edilen kümeler, diğer makine öğrenimi algoritmalarının (ör. müzik önerisi hizmeti) girişi olabilir. Yararlı etiketler az sayıda olduğunda veya hiç olmadığında kümeleme yardımcı olabilir. Örneğin, kötüye kullanım ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Denetimli makine öğrenimiyle karşılaştırın.

artış modellemesi

Pazarlamada yaygın olarak kullanılan, bir "tedavi"nin "birey" üzerindeki "nedensel etkisini" ("artımlı etki" olarak da bilinir) modelleyen bir modelleme tekniği. Aşağıda iki örnek verilmiştir:

  • Doktorlar, bir tıbbi işlemin (tedavi) ölüm oranında düşüş (nedensel etki) yaratmasını, hastanın (birey) yaşına ve tıbbi geçmişine göre tahmin etmek için artış modellemeyi kullanabilir.
  • Pazarlamacılar, bir kişi (birey) üzerindeki reklam (tedavi) nedeniyle satın alma olasılığındaki artışı (nedensel etki) tahmin etmek için artış modellemeyi kullanabilir.

Artış modellemesi, bazı etiketlerin (örneğin, ikili tedavilerdeki etiketlerin yarısı) her zaman eksik olması nedeniyle sınıflandırma veya regresyon modellerinden farklıdır. Örneğin, bir hasta tedavi alabilir veya almayabilir. Bu nedenle, hastanın iyileşip iyileşmeyeceğini yalnızca bu iki durumdan birinde gözlemleyebiliriz (iki durumda da gözlemleyemeyiz). Artış modelinin en büyük avantajı, gözlemlenmeyen durum (varsayımsal) için tahminler oluşturabilmesi ve bunları nedensel etkiyi hesaplamak için kullanabilmesidir.

ağırlıklandırma

Ölçek azaltılmış sınıfına, ölçek azaltma işlemini yaptığınız faktöre eşit bir ağırlık uygulama

kullanıcı matrisi

#recsystems

Öneri sistemlerinde, matris faktörleştirme tarafından oluşturulan ve kullanıcı tercihleriyle ilgili gizli sinyaller içeren bir gömülü vektör. Kullanıcı matrisinin her satırı, tek bir kullanıcı için çeşitli gizli sinyallerin göreceli gücü hakkında bilgi içerir. Örneğin, bir film öneri sistemi düşünün. Bu sistemde, kullanıcı matrisindeki gizli sinyaller her kullanıcının belirli türlere olan ilgisini temsil edebilir veya birden fazla faktörde karmaşık etkileşimler içeren, yorumlanması daha zor sinyaller olabilir.

Kullanıcı matrisinde her gizli özellik için bir sütun ve her kullanıcı için bir satır bulunur. Yani kullanıcı matrisi, faktörize edilen hedef matrisle aynı sayıda satıra sahiptir. Örneğin, 1.000.000 kullanıcı için bir film öneri sistemi varsa kullanıcı matrisinde 1.000.000 satır bulunur.

V

doğrulama

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama veri kümesiyle karşılaştırarak kontrol eder.

Doğrulama veri kümesi eğitim veri kümesinden farklı olduğundan doğrulama, aşırı uyum sorununa karşı koruma sağlar.

Modeli doğrulama kümesiyle test etmeyi ilk test turu, test kümesiyle test etmeyi ise ikinci test turu olarak düşünebilirsiniz.

doğrulama kaybı

#fundamentals

Belirli bir iterasyonda modelin doğrulama kümesindeki kayıp değerini temsil eden bir metrik.

Genelleştirme eğrisi konusuna da göz atın.

doğrulama kümesi

#fundamentals

Eğitilmiş bir model ile ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle, eğitilen modeli test kümesiyle değerlendirmeden önce doğrulama kümesiyle birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her örnek önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim veri kümesine hem de doğrulama veri kümesine ait olmamalıdır.

değer tamamlama

Eksik bir değeri kabul edilebilir bir ikame değerle değiştirme işlemi. Bir değer eksik olduğunda örneğin tamamını silebilir veya örneği kurtarmak için değer tamamlamayı kullanabilirsiniz.

Örneğin, her saat kaydedilmesi gereken bir temperature özelliği içeren bir veri kümesi düşünün. Ancak sıcaklık ölçümü belirli bir saat boyunca kullanılamadı. Veri kümesinin bir bölümü aşağıda verilmiştir:

Zaman damgası Sıcaklık
1680561000 10
1680564600 12
1680568200 eksik
1680571800 20
1680575400 21
1680579000 21

Bir sistem, eksik örneği silebilir veya eksik sıcaklığı, tamamlama algoritmasına bağlı olarak 12, 16, 18 veya 20 olarak doldurabilir.

gradyanın kaybolması sorunu

#seq

Bazı derin nöral ağların ilk gizli katmanlarının gradyanlarının şaşırtıcı bir şekilde düz (düşük) olma eğilimi. Gittikçe daha düşük gradyanlar, derin nöral ağdaki düğümlerdeki ağırlıklarda giderek daha küçük değişikliklere neden olur ve öğrenmenin çok az olmasına veya hiç olmamasına yol açar. Eğilmenin kaybolması sorunundan muzdarip modellerin eğitilmesi zor veya imkansız hale gelir. Uzun kısa süreli bellek hücreleri bu sorunu giderir.

Patlayan gradyan sorunu ile karşılaştırın.

değişken önemleri

#df

Her bir özelliğin modele göreli önemini gösteren bir puan grubu.

Örneğin, ev fiyatlarını tahmin eden bir karar ağacını düşünün. Bu karar ağacında üç özellik kullanıldığını varsayalım: beden, yaş ve stil. Üç özellik için değişken önem değerleri {beden=5,8, yaş=2,5, stil=4,7} olarak hesaplanırsa beden, karar ağacı için yaş veya stilden daha önemlidir.

ML uzmanlarını modellerin farklı yönleri hakkında bilgilendirebilecek farklı değişken önemi metrikleri vardır.

varyasyonel otomatik kodlayıcı (VAE)

#language

Girişlerin değiştirilmiş sürümlerini oluşturmak için girişler ile çıkışlar arasındaki tutarsızlıktan yararlanan bir tür otomatik kodlayıcı. Varyasyonel otomatik kodlayıcılar, üretken yapay zeka için yararlıdır.

VAE'ler, varyasyonal çıkarıma dayanır. Varyasyonal çıkarım, olasılık modelinin parametrelerini tahmin etmeye yönelik bir tekniktir.

vektör

Anlamı farklı matematiksel ve bilimsel alanlarda değişen, çok fazla yüklenmiş bir terim. Makine öğrenimi kapsamında bir vektörün iki özelliği vardır:

  • Veri türü: Makine öğrenimindeki vektörler genellikle kayan noktalı sayıları içerir.
  • Öğe sayısı: Bu, vektörün uzunluğu veya boyutu'dur.

Örneğin, sekiz kayan noktalı sayı içeren bir özellik vektörü düşünün. Bu özellik vektörünün uzunluğu veya boyutu sekizdir. Makine öğrenimi vektörlerinin genellikle çok sayıda boyuta sahip olduğunu unutmayın.

Birçok farklı bilgi türünü vektör olarak gösterebilirsiniz. Örneğin:

  • Dünya yüzeyindeki herhangi bir konum, bir boyutu enlem, diğeri boylam olan 2 boyutlu bir vektör olarak temsil edilebilir.
  • 500 hissenin her birinin mevcut fiyatları 500 boyutlu bir vektör olarak temsil edilebilir.
  • Sonlu sayıda sınıfa sahip bir olasılık dağılımı, vektör olarak temsil edilebilir. Örneğin, üç çıkış renginden birini (kırmızı, yeşil veya sarı) tahmin eden bir çoklu sınıflandırma sistemi, P[red]=0.3, P[green]=0.2, P[yellow]=0.5 anlamına gelen (0.3, 0.2, 0.5) vektörünü döndürebilir.

Vektörler birleştirilebilir. Bu nedenle, çeşitli farklı medyalar tek bir vektör olarak temsil edilebilir. Bazı modeller doğrudan birçok tek sıcaklık kodlamasının birleşiminde çalışır.

TPU'lar gibi özel işlemciler, vektörlerde matematiksel işlemler yapmak için optimize edilmiştir.

Vektör, sıralı 1 olan bir tensördür.

W

Wasserstein kaybı

Oluşturulan verilerin dağılımı ile gerçek veriler arasındaki yer değiştirici mesafesini temel alan, üretici zıt ağlarda yaygın olarak kullanılan kayıp işlevlerinden biridir.

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme işlemidir; çıkarım ise tahminde bulunmak için bu öğrenilen ağırlıkları kullanma işlemidir.

Ağırlıklı Alternatif En Küçük Kareler (WALS)

#recsystems

Öneri sistemlerinde matris faktörleştirme sırasında hedef işlevi en aza indirmek için kullanılan ve eksik örneklerin ağırlığının azaltılmasına olanak tanıyan bir algoritma. WALS, satır faktörizasyonunu ve sütun faktörizasyonunu düzeltmek arasında geçiş yaparak orijinal matris ile yeniden yapılanma arasındaki ağırlıklı kare hatayı en aza indirir. Bu optimizasyonların her biri en küçük kareler konveks optimizasyonuyla çözülebilir. Ayrıntılar için Öneri Sistemleri kursuna göz atın.

ağırlıklı toplam

#fundamentals

Alakalı tüm giriş değerlerinin toplamı ile ilgili ağırlıkların çarpımı. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Ağırlıklı toplam şu şekildedir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevinin giriş bağımsız değişkenidir.

geniş model

Genellikle birçok seyrek giriş özelliğine sahip olan doğrusal bir model. Bu model, doğrudan çıkış düğümüne bağlanan çok sayıda girişe sahip özel bir nöral ağ türü olduğundan "geniş" olarak adlandırılır. Geniş modellerin hata ayıklama ve incelemesi genellikle derin modellere kıyasla daha kolaydır. Geniş modeller, gizli katmanlar aracılığıyla doğrusal olmayanlıkları ifade edemese de doğrusal olmayanlıkları farklı şekillerde modellemek için özellik çaprazlama ve gruplandırma gibi dönüşümleri kullanabilir.

Derin modelle karşılaştırın.

genişlik

Bir sinir ağının belirli bir katmanındaki nöron sayısı.

kitlenin bilgeliği

#df

Büyük bir grup insanın ("kalabalık") görüşlerinin veya tahminlerinin ortalamasının genellikle şaşırtıcı derecede iyi sonuçlar verdiği fikri. Örneğin, kullanıcıların büyük bir kavanoza doldurulmuş jöle fasulyesi sayısını tahmin ettiği bir oyun düşünün. Çoğu tahmin yanlış olsa da tüm tahminlerin ortalamasının, kavanozdaki jelibon sayısının gerçek değerine şaşırtıcı derecede yakın olduğu deneysel olarak gösterilmiştir.

Ensembler, kitlenin bilgeliğinin yazılımdaki karşılığıdır. Tek tek modeller çok yanlış tahminler yapsa bile birçok modelin tahminlerinin ortalaması genellikle şaşırtıcı derecede iyi tahminler verir. Örneğin, tek bir karar ağacı kötü tahminler yapabilir ancak karar ormanı genellikle çok iyi tahminler yapar.

kelime yerleştirme

#language

Bir kelime grubundaki her kelimeyi yerleştirme vektörü içinde temsil etme; yani her kelimeyi 0,0 ile 1,0 arasında kayan nokta değerlerinin bir vektörü olarak temsil etme. Benzer anlamlara sahip kelimeler, farklı anlamlara sahip kelimelere kıyasla daha benzer temsillere sahiptir. Örneğin, havuç, kereviz ve salatalık gibi ürünlerin temsilleri birbirine oldukça benzerken uçak, güneş gözlüğü ve diş macunu gibi ürünlerin temsilleri birbirinden çok farklıdır.

X

XLA (Hızlandırılmış Doğrusal Cebir)

GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları için açık kaynak bir makine öğrenimi derleyicisi.

XLA derleyicisi, PyTorch, TensorFlow ve JAX gibi popüler makine öğrenimi çerçevelerindeki modelleri alır ve GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları dahil olmak üzere farklı donanım platformlarında yüksek performanslı yürütme için optimize eder.

Z

sıfır görevli öğrenim

Modelin, özel olarak eğitilmediği bir görev için tahmin çıkardığı bir tür makine öğrenimi eğitimi. Diğer bir deyişle, modele görevle ilgili sıfır eğitim örneği verilir ancak bu görev için tahmin yapması istenir.

sıfır görevli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesini istediğinize dair bir örnek vermeyen istem. Örneğin:

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Hindistan: Gerçek sorgu.

Büyük dil modeli aşağıdakilerden herhangi biriyle yanıt verebilir:

  • Rupi
  • INR
  • Hint rupisi
  • Rupi
  • Hint rupisi

Tüm yanıtlar doğrudur ancak belirli bir biçimi tercih edebilirsiniz.

Sıfır atışlı istem ile aşağıdaki terimleri karşılaştırın:

Z puanı normalleştirmesi

#fundamentals

Ham özellik değerini, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniği. Örneğin, ortalaması 800 ve standart sapması 100 olan bir özellik düşünün. Aşağıdaki tabloda, Z-skor normalleştirmesinin ham değeri Z-skoruyla nasıl eşleyeceği gösterilmektedir:

İşlenmemiş değer Z puanı
800 0
950 +1,5
575 -2,25

Ardından makine öğrenimi modeli, ham değerler yerine söz konusu özellik için Z puanları üzerinde eğitilir.