Makine Öğrenimi Sözlüğü

Bu sözlükte, makine öğrenimiyle ilgili genel terimler açıklanmaktadır. TensorFlow'a özel şartlardır.

A

ablasyon

Özelliğin önemini değerlendirmek için kullanılan teknik veya bileşeni bir modelden geçici olarak kaldırarak ya da bileşeni kaldırabilirsiniz. Siz de modeli bu özellik veya bileşen olmadan yeniden eğitebilir ve yeniden eğitilen model performans önemli ölçüde kötüleştiğinde, kaldırılan özellik veya bileşen muhtemelen önemlidir.

Örneğin, Yeşil Ofis projenizde sınıflandırma modeli %88 oranında hassaslık elde ediyor. test seti olarak ayarlayın. Önemi kontrol etmek için ilk özelliğin dokuz diğer ayrıntısını kullanarak modeli özellikleri. Yeniden eğitilen modelin performansı çok daha kötüyse (örneğin, %55 hassasiyet) görürseniz kaldırılan özellik muhtemelen önemliydi. Öte yandan yeniden eğitilen model de eşit derecede iyi performans gösteriyorsa bu özellik muhtemelen o kadar da önemli değildir.

Ameliyat, aşağıdakilerin öneminin belirlenmesinde de yardımcı olabilir:

  • Daha büyük bir ML sisteminin tüm alt sistemi gibi daha büyük bileşenler
  • Veri ön işleme adımı gibi süreçler veya teknikler

Her iki durumda da sistem performansının nasıl değiştiğini (veya değişmez).

A/B testi

İki (veya daha fazla) tekniğin karşılaştırıldığı istatistiksel bir yöntem: A ve B. A genellikle mevcut bir tekniktir ve B yeni bir tekniktir. A/B testi yalnızca hangi tekniğin daha iyi performans gösterdiğini belirlemez aynı zamanda bu farkın istatistiksel olarak da anlamlı olup olmadığı dikkate alınır.

A/B testi genellikle tek bir metriği iki teknikte karşılaştırır; Örneğin, bu test sırasında iki kullanıcı için model doğruluğu teknikler neler? Bununla birlikte A/B testi aynı zamanda sınırlı sayıda kullanabilirsiniz.

hızlandırıcı çipi

#GoogleCloud

Önemli cihazları yerine getirmek için tasarlanmış özel donanım bileşenleri kategorisi gerekli hesaplamaları nasıl yapacağınızı belirleyin.

Hızlandırıcı çipleri (ya da kısaca hızlandırıcılar) eğitim ve çıkarım görevlerinin hızını ve verimliliğini artırır kullanmaya başladılar. Eğitim için idealdirler ve yoğun bilgi işlem gerektiren benzer görevleri kapsar.

Hızlandırıcı çiplerine örnek olarak aşağıdakiler verilebilir:

  • Google'ın özel donanıma sahip Tensor İşleme Birimleri (TPU'lar) tercih edebilirsiniz.
  • Başlangıçta grafik işleme için tasarlanmış olsa da NVIDIA'nın GPU'ları paralel işlemeyi mümkün kılacak şekilde tasarlanmıştır. işlem hızını artırır.

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin sayısının bölümü toplam tahmin sayısına göre bölersiniz. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru, 10 tanesi de yanlış tahminde bulunan bir model tahminlerin doğruluğu şu şekilde olacaktır:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma belirli adlar sağlar. doğru tahmin kategorilerinin yanı sıra yanlış tahminlere neden olabilir. İkili sınıflandırmanın doğruluk formülü, şu şekildedir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu karşılaştırma ve değerlendirme hassas ve geri çağırma

işlem

#rl

Pekiştirmeli öğrenmede aracının durumları arasındaki geçişleri ortam. Temsilci, eylemi politikası.

aktivasyon fonksiyonu

#fundamentals

Nöral ağların öğrenmesini sağlayan bir işlev Özellikler arasındaki doğrusal olmayan (karmaşık) ilişkiler ve etiket.

Popüler etkinleştirme işlevleri şunlardır:

Aktivasyon fonksiyonlarının grafikleri hiçbir zaman tek düz çizgi değildir. Örneğin, ReLU aktivasyon işlevinin grafiği iki düz çizgi:

İki çizgili kartezyen çizim. İlk satırda sabit değer var
          x ekseni boyunca -sonsuz, 0 ile 0,-0 arasında değişen, y değerinin 0 olduğunu varsayalım.
          İkinci satır 0,0'dan başlar. Bu çizginin eğimi +1'dir, yani
          0,0 ile +sonsuz,+sonsuz arasında değişir.

Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

Alanı kapsayan x değerlerinin yer aldığı iki boyutlu, eğri grafik
          -sonsuzdan +pozitife, y değerleri ise neredeyse 0 -
          neredeyse 1. x 0 olduğunda y de 0, 5 olur. Eğrinin eğimi her zaman
          pozitif, en yüksek eğim 0,0,5'te ve kademeli olarak azalan
          x'in mutlak değeri arttıkça eğimi de görebilirsiniz.

aktif öğrenme

Bir eğitim yaklaşımıdır. algoritma, öğrendiği verilerin bir kısmını seçer. Aktif öğrenme Özellikle etiketlenmiş örnekler olduğunda değerlidir Nadiren bulunan veya elde edilmesi pahalı olan ürünler. Gizli bir şekilde çeşitlilik arz eden bir dizi etiketlenmiş örnek içerir. Etkin bir öğrenme algoritması, belirli örnekler vereceğiz.

AdaGrad

Dijital dönüşümünüzü yeniden ölçeklendiren ve her bir parametrenin gradyanlarını etkili bir şekilde bağımsız bir öğrenme hızına sahip olmalıdır. Tam açıklama için bkz. bu AdaGrad makalesini inceleyin.

temsilci

#rl

Pekiştirmeli öğrenmede bir elde edilen beklenen getiriyi en üst düzeye çıkarmak için politikanızı durumları arasında geçiş yapma ortam.

Daha genel anlamda ise aracı, kendi kendine bir planlama ve yürütme süreci Değişikliklere uyum sağlama becerisiyle bir hedefin peşinde koşan bir dizi eylem teslim etmeye odaklandığı teslimatı öğrendiniz. Örneğin, LLM tabanlı bir aracı Pekiştirmeli öğrenme politikası uygulamak yerine bir plan oluşturmak için LLM'yi kullanın.

aglomeratif kümeleme

#clustering

Hiyerarşik kümeleme konusuna bakın.

anormallik algılama

Aykırı değerleri belirleme süreci. Örneğin, ortalama belirli bir özellik için 100'ken, standart sapma 10 ise anormallik algılama, 200 değerini şüpheli olarak işaretler.

AR

Artırılmış gerçeklik için kullanılan kısaltma.

PR eğrisinin altındaki alan

PR AUC (PR Eğrisi'nin altındaki Alan) başlıklı makaleyi inceleyin.

ROC eğrisinin altındaki alan

AUC (ROC eğrisinin altındaki alan) konusuna bakın.

yapay genel zeka

Geniş bir yelpazede problem çözme becerisi gösteren, insan kaynaklı olmayan bir mekanizma ve uyum sağlayabilirsiniz. Örneğin, 2023 Yılbaşı İndirimi adında yapay zeka metinleri çevirebilir, senfoniler besteleyebilir ve henüz icat edilmemiş oyunlar.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan harici bir program veya model. Örneğin, çevirisini yapan bir program veya model, hastalıkları tespit eden radyolojik görüntülerin her ikisi de yapay zeka sergiliyor.

Makine öğrenimi, resmî olarak yapay zekanın zekâ. Ancak son yıllarda, bazı kuruluşlar Google Ads'deki yapay zeka ve makine öğrenimi terimlerini birbirinin yerine geçecek şekilde kullanıyor.

dikkat

#language

Nöral ağda kullanılan mekanizma, bunların belirli bir kelimenin veya sözcüğün önemini öğrenebilirsiniz. Dikkat sıkıştırır bir modelin bir sonraki jetonu/kelimeyi tahmin etmesi için gereken bilgi miktarıdır. Sıradan bir dikkat mekanizması, Bir girdi kümesi üzerinden ağırlıklı toplam her giriş için ağırlık, nöral ağdır.

Ayrıca kendi kendine dikkat çok başlı kendi kendine dikkat Transformatörlerin yapı taşları.

özellik

#fairness

feature ile eş anlamlıdır.

Makine öğrenimi adaletinde, özellikler genellikle bağlantılı özellikleri araştırır.

özellik örneklemesi

#df

Her bir kullanıcının karar verdiği bir karar ormanını eğitme taktiği karar ağacı olası modellerin yalnızca rastgele bir alt kümesini dikkate alır durumu öğrenirken özellikleri kullanın. Genellikle, her bir özellik için farklı bir özellik alt kümesi örneklenir düğüm. Buna karşın, bir karar ağacını eğitirken özellik örnekleme olmadan, her bir düğüm için olası tüm özellikler dikkate alınır.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

0,0 ile 1,0 arasında bir sayı olan ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflar. EUC'nin 1,0'a ne kadar yakın olması, modelin bir şeyler öğrenmeye başlar.

Örneğin, aşağıdaki resimde bir sınıflandırıcı modeli gösterilmektedir pozitif sınıfları (yeşil ovaller) negatif sınıflardan ayıran (mor dikdörtgenler) oluşturabilirsiniz. Gerçekçi olmayan bu mükemmel model, 1,0 AUC:

Bir tarafında 8 pozitif örnek bulunan bir sayı doğrusu ve
          Diğer tarafta 9 olumsuz örnek var.

Buna karşılık, aşağıdaki resimde bir sınıflandırıcıya ilişkin sonuçlar gösterilmektedir modelimiz var. Bu modelin EUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek dizisi pozitif, negatif,
          pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif
          negatif, pozitif, negatif.

Evet, önceki modelin EUC'si 0,0 değil 0,5'tir.

Çoğu model iki uç noktanın arasında bir yerdedir. Örneğin, model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı doğrusu.
          Örnek sırası negatif, negatif, negatif, negatif,
          pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif,
          pozitif olmalıdır.

AUC, kendisi için ayarladığınız tüm değerleri yoksayar sınıflandırma eşiğine uyduğundan emin olun. Bunun yerine, AUC Olası tüm sınıflandırma eşiklerini dikkate alır.

artırılmış gerçeklik

#image

Kullanıcının bakış açısının üzerine bilgisayar tarafından oluşturulmuş bir görüntüyü üste binen teknoloji temsil ederek birleşik bir görünüm elde ediyor.

otomatik kodlayıcı

#language
#image

Web sitesinden en önemli bilgileri çıkarmayı öğrenen bir sistem giriş. Otomatik kodlayıcılar, bir kodlayıcı ve kod çözücü ile gönderin. Otomatik kodlayıcılar aşağıdaki iki adımlı süreci temel alır:

  1. Kodlayıcı, girişi (tipik olarak) kayıplı bir alt boyutla eşler (orta) biçimdedir.
  2. Kod çözücü, haritalama yaparak orijinal girişin kayıplı bir sürümünü oluşturur düşük boyutlu biçimden orijinal yüksek boyutlu biçime giriş biçimini kullanın.

Otomatik kodlayıcılar, kod çözücünün kodu çözmeyi deneyerek uçtan uca eğitilir. kodlayıcının ara biçiminden orijinal girişi yeniden oluşturur olabildiğince yakından bakmalısınız. Ara biçim daha küçük olduğu için (daha düşük boyutlu) olduğunda, otomatik kodlayıcı girişteki hangi bilginin gerekli olduğunu, çıktının ise girdiyle tamamen aynı olmalıdır.

Örneğin:

  • Girdi verileri bir grafikse tam olmayan kopya biraz değiştirilmiş. Belki bire bir aynı olmayan kopya, orijinal grafikteki paraziti ortadan kaldırır veya eksik pikseller var.
  • Giriş verileri metin ise, bir otomatik kodlayıcı yeni metin orijinal metni taklit eder (ancak onunla aynı değildir).

Ayrıca değişken otomatik kodlayıcılar konusuna bakın.

otomasyon önyargısı

#fairness

Karar mercii, otomatik bir mekanizmanın önerilerine öncelik verdiğinde otomasyon olmadan alınan bilgilere kıyasla bir karar alma sistemi olan otomatik karar alma sistemi hata yaptığında

AutoML

Makine öğrenimi geliştirmek için kullanılan herhangi bir otomatik süreç modeller. AutoML, aşağıdakiler gibi görevleri otomatik olarak gerçekleştirebilir:

AutoML, veri bilimcilerin zamandan tasarruf etmesini sağlar ve Bu, makine öğrenimi ardışık düzenleri geliştirmeye ve tahmini iyileştirmeye yönelik çaba emin olun. Ayrıca karmaşık hale getirerek uzman olmayanlar için de daha erişilebilir hale getirebilirsiniz.

otomatik regresif model

#language
#image
#generativeAI

Kendi önceki özelliklerine dayalı olarak bir tahminde bulunan bir model tahminler. Örneğin, otomatik regresif dil modelleri bir sonraki jetonunu kullanın. Tamamı Transformer tabanlı büyük dil modelleri otomatik regresyonludur.

Buna karşın GAN tabanlı görüntü modelleri genellikle otomatik regresif değildir. çünkü bu işlemi yinelemeli olarak değil, tek bir ileriye adım. Ancak bazı görüntü üretme modelleri otomatik regresyona göre otomatik regresyona sahiptir. adımlar halinde bir görsel oluşturur.

yedek kayıp

Bir kayıp işlevinöral ağ modelinin ana sırasında eğitimi hızlandırmaya yardımcı olan kayıp işlevi Erken iterasyonlar (ilk iterasyonlar için) ile yapılır.

Yedek kayıp işlevleri, etkili gradyanları iter. önceki katmanlara geçiş yapabilirsiniz. Bu da eğitim sırasında tümleşme kayan gradyan problemi ile mücadele ederek bu sorunu çözebilirsiniz.

ortalama hassasiyet

Sıralı bir sonuç dizisinin performansını özetleyen metrik. Ortalama hassasiyet, precision değerleri (her biri geri çağırmanın önceki sonuca göre arttığı sıralı listede yer alır.

Ayrıca bkz. PR Eğrisi altındaki Alan.

eksene ayarlı koşul

#df

Karar ağacında, bir koşul tek bir özellik içeren. Örneğin, alan bir özellikse aşağıdaki eksene hizalı bir koşuldur:

area > 200

Eğik koşul ile kontrast oluşturun.

B

geri yayılım

#fundamentals

Projeyi uygulayan algoritma gradyan iniş nöral ağlar.

Sinir ağını eğitmek birçok iterasyon gerektirir aşağıdaki iki geçişli döngünün geri kalanı:

  1. İleriye doğru hesaplama sırasında sistem şunları toplu olarak işler: örnekler aracılığıyla tahminleri sağlar. Sistem her bir müşterinin her label değeriyle ilişkilendirin. Artımlılık ile ilişkilendirme ve etiket değeri bu örnek için kayıp olur. Sistem, toplam hacmi hesaplamak amacıyla tüm örneklerde kayıp anlamına gelir.
  2. Geriye doğru hesaplama (geri yayılım) sırasında sistem, kayıpları tüm nöronların ağırlıklarını gizli katmanlar.

Nöral ağlar genellikle çok sayıda gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri toplam kayba farklı şekillerde katkıda bulunur. Geri yayılım, ağırlıkların artırılıp azaltılmayacağını belirler belirli nöronlara uygulanır.

Öğrenme hızı, kampanyanın dönüşüm oranını kontrol eden her bir geriye doğru hesaplamanın her ağırlığı artırma veya azaltma derecesi. Yüksek bir öğrenme hızı, her ağırlığı şundan daha fazla artırır veya azaltır: düşük bir öğrenim hızına sahiptir.

Analiz açısından, geri yayılım, zincir kuralına uygun olmalıdır. hesaplamadır. Yani geri yayılım, hatanın kısmi türevi dikkate alın.

Yıllar önce, makine öğrenimi uygulayıcılarının geri yayılımı uygulamak için kod yazmaları gerekiyordu. TensorFlow gibi modern ML API'leri artık sizin için geri yayılımı uyguluyor. Bora

bagaj

#df

Bir topluluğu eğitmek için kullanılan yöntem bileşen model rastgele bir eğitim alt kümesinde eğitilir değişiklikle örneklenen örnekler. Örneğin rastgele orman, Bagaj özelliğiyle eğitilen karar ağaçları.

bagging terimi bootstrap aggregating'in kısaltmasıdır.

kelime yığını

#language

Bir kelime öbeği veya pasajdaki kelimelerin temsili elde edebiliyorlar. Örneğin, bir kelime torbası şu üç ifadeyi aynı şekilde ekleyin:

  • zıplayan köpek
  • köpeği atlayan
  • zıplayan köpek

Her kelime, seyrek vektör içindeki bir dizine eşlenir. Burada vektörün sözlükteki her kelime için bir dizini vardır. Örneğin, köpek atlayış ifadesi, sıfır olmayan bir özellik vektörüne eşlenir the, dog ve kelimelerine karşılık gelen üç dizinde değerler atlar. Sıfır olmayan değer aşağıdakilerden herhangi biri olabilir:

  • Bir kelimenin varlığını belirtmek için 1.
  • Bir kelimenin çantada kaç kez göründüğünün sayısıdır. Örneğin, bordo köpek, bordo kürklü bir köpektir kelime öbeğini kullanıyorsanız her ikisi de bordo ve köpek 2 olarak temsil edilir, diğer kelimeler ise 2 olarak temsil edilir 1 olarak temsil edilir.
  • Başka bir değer, örneğin sayı sayısının logaritması kez geçiyor.

referans değer

Başka bir öğenin ne kadar iyi performans gösterdiğini karşılaştırmak için referans noktası olarak kullanılan bir model daha karmaşık bir modeldir. Örneğin, mantıksal regresyon modeli derin bir model için iyi bir temel oluşturabilirsiniz.

Belirli bir problem için referans değer, model geliştiricilerinin olması gereken minimum performanstır. olması çok önemlidir.

grup

#fundamentals

Bir eğitimde kullanılan örnek kümesi iterasyon. Grup boyutu, aynı gruptaki örneklerin sayısını grubudur.

Bir grubun nasıl ilişkili olduğuyla ilgili açıklama için dönem bölümüne bakın bir dönem.

toplu çıkarım

#TensorFlow
#GoogleCloud

Birden çok öğede tahmin çıkarma süreci daha küçük parçalara bölünmüş etiketsiz örnek alt kümeler ("gruplar").

Toplu çıkarım, bir dizindeki paralelleştirme özelliklerinden hızlandırıcı çiplerini kullanın. Yani birden fazla hızlandırıcı farklı etiketlenmemiş grup gruplarıyla ilgili tahminlerde kullanarak saniyedeki çıkarım sayısını önemli ölçüde artırır.

toplu normalleştirme

Veri analistinin girişini veya çıkışını normalleştirme etkinleştirme işlevlerini gizli katman olarak ayarlayın. Toplu normalleştirme, şu faydaları sağlar:

grup boyutu

#fundamentals

Bir gruptaki örnek sayısı. Örneğin, grup boyutu 100 ise model, İterasyon başına 100 örnek.

Popüler toplu boyut stratejileri şunlardır:

  • Stokastik Gradyan İniş (SGD): Grup boyutu 1'dir.
  • Grup boyutunun tamamındaki örnek sayısı olduğu tam grup eğitim seti. Örneğin, eğitim seti bir milyon örnek içeriyorsa grup boyutu bir milyon örnekler. Tam grup genellikle verimsiz bir stratejidir.
  • Grup boyutunun genellikle 10 ve 1000. Mini toplu işlem genellikle en etkili stratejidir.

Bayes nöral ağı

Olasılığa dayalı bir sinirsel ağ: ağırlıklar ve çıkışlardaki belirsizliklere neden olur. Standart bir nöral ağ regresyon modeli genellikle skaler bir değer tahmin eder; Örneğin standart bir model, kurum içi fiyatı sayısı 853.000'dir. Buna karşılık bir Bayes nöral ağı, değerler; Örneğin, bir Bayes modeli,ev fiyatının 853.000 olacağını ve 67.200 standart sapma.

Bayes nöral ağları, Bayes Teorem ağırlık ve tahminlerdeki belirsizlikleri hesaplamak için kullanılır. Bayes nöral ağı, belirsizliği ölçmenin önemli olduğu durumlarda (örneğin, modeller. Bayes nöral ağları da fazla uyum'u önleyin.

Bayes optimizasyonu

Olası regresyon modeli daha pahalıya mal olacak optimizasyon tekniklerini vekil fonksiyonları optimize ederek hedef işlevleri Bayes öğrenme tekniğini kullanarak belirsizliği ölçen bir test yöntemidir. Başlangıç Bayes optimizasyonu kendisi çok pahalıdır ve genellikle optimizasyon Bunlar, bütçe oluşturma gibi az sayıda parametreye sahip hiperparametreler seçilir.

Bellman denklemi

#rl

Pekiştirmeli öğrenmede, ideal kullanıcı deneyiminin Q işlevi:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

Pekiştirmeli öğrenme algoritmaları bu Identity aracılığıyla Q-learning oluşturmak için aşağıdaki güncelleme kuralını uygulayın:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

Bellman denkleminin pekiştirmeli öğrenmenin ötesinde, dinamik programlama. Bkz. Bellman denklemi ile ilgili Wikipedia girişi.

BERT (İki Yönlü Kodlayıcı) Transformers temsilleri)

#language

Metin temsili için model mimari. Eğitimli BERT modeli, daha büyük bir modelin parçası olarak kullanılabilir. üzerine konuşacağız.

BERT aşağıdaki özelliklere sahiptir:

BERT'in varyantları şunları içerir:

  • ALBERT, Bu, A Light BERT'in kısaltmasıdır.
  • LaBSE anahtar kelimesi.

Open Sourcing BERT: Son Teknoloji Eğitim Öncesi Eğitim (Doğal Dil İçin Son Teknoloji Eğitim) başlıklı makaleyi inceleyin İşleniyor BERT'e genel bakış.

önyargı (etik/adillik)

#fairness
#fundamentals

1. Bazı şeylere, insanlara, insanlara ve diğerlerine göre daha fazla tercih edilir. Bu sapmalar veri toplama sürecini verilerin yorumlanması, sistemin tasarımı ve kullanıcıların etkileşime bunu aklınızda bulundurun. Bu tür önyargıların biçimleri şunlardır:

2. Örnekleme veya raporlama prosedürüyle ortaya çıkan sistematik hata. Bu tür önyargıların biçimleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi ile karıştırılmamalıdır ya da tahmin yanlılığı gibidir.

önyargı (matematik) veya yanlılık terimi

#fundamentals

Bir kaynağa uzaklık veya kesme noktası. Önyargı, yaygın olarak kullanılan bazı araçlar, takip etmek için:

  • h0

Örneğin, aşağıdaki formülde önyargı b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide yanlılık "y kesim noktası" anlamına gelir. Örneğin, aşağıdaki çizimde çizginin yanlılığı 2'dir.

Eğimi 0,5 ve yanlılığı (y kesim noktası) 2 olan bir çizginin grafiği.

Tüm modeller kaynak (0,0) kaynağından başlamadığı için yanlılık vardır. Örneğin, bir lunaparkın giriş ücretinin 2 avro ve Müşterinin konakladığı her saat için 0,5 avro. Bu nedenle, Arkadaş Bitkiler hizmetini en düşük maliyet 2 avro olduğundan toplam maliyet 2 eğilir.

Ön yargı, etik ve adalette ön yargıyla karıştırılmamalıdır ya da tahmin yanlılığı gibidir.

iki yönlü

#language

Metni ilk önce önce ve metnin bir hedef bölümünü takip eder. Öte yandan Yalnızca tek yönlü sistem metnin hedef bölümünden öncesi metni değerlendirir.

Örneğin, izin verilmeyen bir maskeli dil modeli alt çizgiyi temsil eden kelime veya kelimelerin olasılıklarını şu soru var:

Sizde _____ nedir?

Tek yönlü bir dil modelinin yalnızca olasılıklarını bağlam hakkında daha çok bilgi edindiniz. Öte yandan iki yönlü bir dil modeli, aynı zamanda "birlikte" ifadesinden bağlam da alabilir. ve "siz", Bu da modelin daha iyi tahminler oluşturmasına yardımcı olabilir.

iki yönlü dil modeli

#language

Bir kullanıcının belirli bir isteği yerine getirme olasılığını belirleyen bir dil modeli belirtilen konuma dayalı bir metin alıntısında belirtilen konum önceki ve sonraki metin.

Bigram

#seq
#language

N=2 olan bir N-gram.

ikili program sınıflandırması

#fundamentals

Kapsamlı bir sınıflandırma görevi birbirini dışlayan iki sınıftan birini tahmin eder:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf).
  • Kişinin tıbbi belirtileri değerlendiren bir model olup olmadığını belirli bir hastalığı (olumlu sınıf) varsa veya o hastalığı yok negatif sınıf olarak değerlendirilir.

Çok sınıflı sınıflandırma ile kontrast oluşturun.

Ayrıca mantıksal regresyon ve sınıflandırma eşiğini kullanın.

ikili koşul

#df

Karar ağacında, bir koşul genellikle evet veya hayır olmak üzere yalnızca iki olası sonuç içeren bir kampanya oluşturun. Örneğin, aşağıdaki bir ikili koşuldur:

temperature >= 100

İkili olmayan koşul ile kontrast oluşturun.

binning

gruplama ile eş anlamlıdır.

BLEU (İki Dilli Değerlendirme Alt Çalışması)

#language

Çevirinin kalitesini gösteren 0, 0 ile 1, 0 (dahil) arasında bir puan iki insan dili arasında (örneğin, İngilizce ve Rusça arasında). BLEU 1,0 puan mükemmel bir çeviri olduğunu gösterir; 0,0 olan bir BLEU puanı kötü bir çeviri olabilir.

güçlendirme

Bir dizi basit ve etkileşimli modeli yinelemeli olarak birleştiren bir makine öğrenimi tekniğidir. ("zayıf" sınıflandırıcılar olarak adlandırılır) sınıflandırıcıların ("güçlü" sınıflandırıcı) kullanarak yüksek doğruluklu bir sınıflandırıcı modelin şu anda kullandığı örneklere ağırlık ekleyerek çünkü yanlış sınıflandırmadır.

sınırlayıcı kutu

#image

Bir resimde,x (ör. resimdeki köpeği) seçin.

Koltukta oturan bir köpeğin fotoğrafı. Yeşil bir sınırlayıcı kutu
          (275, 1271) sol üst koordinatları ve sağ alt
          (2954, 2761) koordinatlarının köpeğin vücudunun çevresini çizdiği

yayınlama

Matris matematik işleminde işlenenin şeklinin genişletilmesi boyutları bu işlemle uyumlu olmalıdır. Örneğin, doğrusal cebir, bir matris toplama işleminde iki işlenenin kullanılmasını gerektirir aynı boyutlara sahip olmalıdır. Sonuç olarak, şekil matrisi ekleyemezsiniz (m, n) formülünü n uzunluğunda bir vektöre dönüştürür. Anons, şu şekilde bu işlemi etkinleştirir: n uzunluk vektörünü bir şekil matrisine (m, n) sanal olarak genişletmek aşağı doğru aynı değerleri kopyalamaktır.

Örneğin, aşağıdaki tanımlara göre, doğrusal cebir A ve B farklı boyutlara sahip olduğundan A+B:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

Ancak yayınlama, B'yi sanal olarak şu şekilde genişleterek A+B işlemini etkinleştirir:

 [[2, 2, 2],
  [2, 2, 2]]

Dolayısıyla, A+B artık geçerli bir işlemdir:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

Aşağıdaki açıklamaya bakın: NumPy'de yayın yapma konusunu inceleyebilirsiniz.

paketleme

#fundamentals

Tek bir özelliği birden fazla ikili özelliğe dönüştürme paketler veya bölmeler olarak adlandırılır. bir değer aralığına dayalıdır. Doğranmış özellik genellikle Kesintisiz bir deneyim.

Örneğin, sıcaklığı tek bir değer olarak göstermek yerine, sürekli kayan nokta özelliğiyle, sıcaklık farklarını ayrı ayrı gruplandırmalar yapabilirsiniz, örneğin:

  • <= 10 santigrat derece sıcaklık için "soğuk" olur. paket.
  • 11 - 24 santigrat derece "ılıman" olur. paket.
  • >= 25 santigrat derece "sıcak" olur paket.

Model, aynı paketteki tüm değerleri aynı şekilde işler. Örneğin, Örneğin, 13 ve 22 değerleri ılıman pakette olduğundan modeli, iki değeri aynı şekilde işler.

C

kalibrasyon katmanı

Tahmin sonrası düzenleme; genellikle hesaba katılan tahmin yanlılığı. Düzeltilen tahminler ve olasılıklar, gözlemlenen bir etiket kümesinin dağılımıyla eşleşmelidir.

aday oluşturma

#recsystems

Bir yönetici tarafından seçilen ilk öneri grubu öneri sistemini kullanarak değiştirebilirsiniz. Örneğin, 100.000 kitap sunan bir kitabevi. Aday oluşturma aşaması kullanıcı için uygun kitapların çok daha küçük bir listesidir, örneğin 500. Ama hatta 500 kitap, bir kullanıcıya önerilemeyecek kadar fazla. Sonraki, daha pahalı, bir öneri sisteminin aşamaları (puanlama ve yeniden sıralama) bu 500'ü çok daha düşük bir değere ayarlayabilirsiniz. yardımcı olur.

aday örnekleme

Tüm bu belirsizlikler için olasılığı hesaplayan eğitim süresi optimizasyonu pozitif etiketler kullanarak, softmax (yalnızca rastgele bir zaman için) negatif etiket örneğini görebilirsiniz. Mesela Arkadaş Bitkiler projesinde beagle ve dog (örnekleme) olarak belirlenen aday örnekleme, tahmini olasılıkları hesaplar ve ilgili kayıp şartları:

  • beagle
  • köpek
  • rastgele bir alt kümesi (örneğin, kedi, lollipop, çit).

Buradaki fikir, negatif sınıflar olduğu sürece olumsuz pekiştirme pozitif sınıflar her zaman olumlu sonuçlar verir pekiştirir ve bu gerçekten de deneysel olarak gözlemlenir.

Aday örnekleme, eğitim algoritmalarından daha hesaplama açısından daha verimlidir tüm negatif sınıflar için tahminleri hesaplayan, özellikle de negatif sınıfların sayısı çok fazla.

kategorik veri

#fundamentals

Belirli olası değerler grubuna sahip özellikler. Örneğin, traffic-light-state adında bir kategorik özelliği düşünün. şu üç olası değerden birine sahip olursunuz:

  • red
  • yellow
  • green

traffic-light-state öğesini kategorik bir özellik olarak temsil ederek, proje yönetiminin red, green ve yellow ürünlerinin sürücü davranışı üzerindeki farklı etkileri.

Kategorik özellikler bazen iyi özellikler kullanmanız gerekir.

Sayısal verilerle kontrast oluşturun.

nedensel dil modeli

#language

Tek yönlü dil modeli ile eş anlamlıdır.

Şu işlemler için çift yönlü dil modelini inceleyin: Dil modellemedeki farklı yönlü yaklaşımları ayırt etme ve karşılaştırma.

centroid

#clustering

Bir kümenin, k-ortalama ya da k-ortanca algoritması. Örneğin k 3 ise k-ortalama veya k-ortan algoritması 3 sentroid bulur.

merkezi temelli kümeleme

#clustering

Verileri düzenleyen bir kümeleme algoritmaları kategorisi kümelere böleriz. k-ortalama en yaygın kullanılan kümeleme algoritmasını kullandılar.

Hiyerarşik kümelemeyle kontrast kullanır.

düşünce zincirine dayalı istem

#language
#generativeAI

Bir istem mühendisliği tekniği olarak, büyük dil modeli (LLM) kullanarak ve akıl yürütmeyi öğreneceksiniz. Örneğin, şu istemi dikkate alın: aşağıdaki cümleye çok dikkat etmeniz gerekir:

0'dan 60'a giden bir arabada sürücü kaç g kuvveti yaşar? 7 saniyede mil/saat mi? Yanıtta tüm alakalı hesaplamaları gösterin.

LLM'nin yanıtı muhtemelen:

  • 0, 60 ve 7 değerlerini dikkate alarak bir fizik formülleri dizisini göster koymanız gerekir.
  • Şirketin bu formülleri neden seçtiğini ve çeşitli değişkenlerin ne anlama geldiğini açıklayın.

Düşünce zinciri istenmesi, LLM'yi tüm hesaplamaları yapmaya zorlar, Bu da daha doğru bir yanıt almanızı sağlayabilir. Bunun yanı sıra, proje istemi, kullanıcının LLM'nin adımlarını incelemesine olanak tanır. Böylece, cevabın anlamlı olup olmadığını sorun.

sohbet

#language
#generativeAI

Bir ML sistemiyle yapılan diyalogların içeriği, genelde büyük dil modelini kullanın. Bir sohbetteki önceki etkileşim (yazdığınız kelimeler ve büyük dil modelinin yanıt verme şekli) daha ayrıntılı bağlam bilgisi sunar.

chatbot, büyük dil modelinin bir uygulamasıdır.

kontrol noktası

Bir modelin parametrelerinin eğitim iterasyonu konusunda ısrarcı olabilirsiniz. Kontrol noktaları, dışa aktarma modelini etkinleştirir ağırlıklar veya eğitim oturum açmanız gerekir. Kontrol noktaları Ayrıca, geçmişteki hatalara (örneğin, işin önleme) devam etmesi için eğitimin etkinleştirilmesini sağlar.

İnce ayarlar yaptığınızda, eğitim ile ilgili yeni model, önceden eğitilmiş modelin kontrol noktası.

sınıf

#fundamentals

Etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Öte yandan regresyon modeli ise belirli bir sayıyı tahmin eder. bir kontrol noktası görevi görebilir.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıda tüm sınıflandırma modelleri yer almaktadır:

  • Bir giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca mı?).
  • Ağaç türlerini tahmin eden bir model (Maple? Meşe? Baobab?).
  • Belirli bir öğe için pozitif veya negatif sınıfı tahmin eden bir model tıbbi bir durum olup olmadığını kontrol edin.

Öte yandan regresyon modelleri, sayıları tahmin eder. tercih edebilirsiniz.

Yaygın olarak kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, 0 ile 1 arasında bir sayıdır ve bu değer, mantıksal regresyon modeli pozitif sınıfın veya negatif sınıfı kullanın. Sınıflandırma eşiğinin, kullanıcıların seçtiği bir değer olduğunu unutmayın. model eğitimi tarafından seçilen bir değer değildir.

Mantıksal regresyon modeli, 0 ile 1 arasında ham bir değer üretir. Ardından:

  • Bu ham değer sınıflandırma eşiğinden yüksekse olduğu tahmin edilir.
  • Bu ham değer sınıflandırma eşiğinden düşükse negatif sınıfın tahmin edildiğini unutmayın.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer değeri 0,9 ise model, pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yapılacak tıklama işlemlerinin yanlış pozitif ve yanlış negatifler.

sınıf dengesiz veri kümesi

#fundamentals

Toplam sayının eşit olarak sınıflandırıldığı bir sınıflandırma sorunu için Her sınıfa ait etiketler arasında önemli farklar var. Örneğin, iki etiketi bulunan bir ikili sınıflandırma veri kümesi şu şekilde bölünür:

  • 1.000.000 negatif etiket
  • 10 pozitif etiket

Negatif etiketlerin pozitif etiketlere oranı 100.000'e 1'dir. Dolayısıyla bu, sınıf dengesiz bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesinde sınıf dengesizliği değildir çünkü negatif etiketlerin pozitif etiketlere oranı 1'e nispeten yakındır:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümelerinin sınıf dengesizliği de olabilir. Örneğin, çok sınıflı sınıflandırma veri kümesi de sınıf dengesizliğidir çünkü tek bir etiket diğer ikisinden çok daha fazla örnek içerir:

  • "Yeşil" sınıfını içeren 1.000.000 etiket
  • "Mor" sınıfını içeren 200 etiket
  • "turuncu" sınıfını içeren 350 etiket

Ayrıca bkz. entropi, çoğunluk sınıfı, ve azınlık sınıfı.

kırpma

#fundamentals

Aşağıdaki yöntemlerle aykırı değerleri ele almaya yönelik bir teknik: aşağıdakilerden biri ya da her ikisi:

  • Maksimum bir değerden büyük olan feature değerlerini azaltma maksimum eşiğe kadar düşürebilirsiniz.
  • Minimum eşiğin altında kalan özellik değerlerini bu değere kadar artırmak minimum eşiktir.

Örneğin, belirli bir özellik için değerlerin% 0,5'inden azının 40-60 aralığının dışındadır. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar vererek bazen ağırlıklara neden olabilir yaygın risk türlerini ele alalım. Bazı aykırı hesaplar da doğruluk gibi metrikler vardır. Kırpma, en sık kullanılan tekniklerden biridir. olabilir.

Gradyan kırpma kuvvetleri gradyan değerleri için otomatik olarak ayarlanır.

Cloud TPU

#TensorFlow
#GoogleCloud

Makineyi hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı daha fazla bilgi edineceksiniz.

kümeleme

#clustering

İlgili örnekleri gruplandırma, özellikle de gözetimsiz öğrenim. Tüm bu gruplar örnek olarak gruplandığında, insan da isteğe bağlı olarak her bir kümeye anlam kazandırabilir.

Birçok kümeleme algoritması mevcuttur. Örneğin, k-ortalama yakınlıklarına göre algoritma kümesi örnekleri merkezi, aşağıdaki şemadaki gibi:

X ekseninin ağaç genişliği olarak etiketlendiği iki boyutlu bir grafik,
          y ekseni ise ağaç yüksekliği olarak etiketlenir. Grafikte iki
          onlarca veri noktası yer alıyor. Veri noktaları,
          yakınlıklarına göre kategorize edilir. Yani veri noktaları
          bir merkeze en yakın küme 1 olarak sınıflandırılırken, bu merkezler küme 1
          diğer merkeze en yakın olan küme 2 olarak sınıflandırılır.

Daha sonra insan araştırmacı, kümeleri inceleyebilir ve örneğin küme 1'i "cüce ağaçlar" olarak etiketle ve küme 2'yi "tam boyutlu ağaçlar" olarak görürsünüz.

Başka bir örnek olarak, bir kümeye dayalı bir kümeleme algoritması örneğin bir merkez noktaya olan mesafesi, aşağıdaki şekilde gösterilmiştir:

Eşmerkezli daireler çizilmiş, neredeyse
          ortasındaki delikler gibi. En içteki halka
          Veri noktasının yüzde 15&#39;i küme 1, ortadaki halka
          küme 2 ve en dıştaki halka ise
          küme 3.

ortak uyarlama

Nöronlar, aşağıdakileri kullanarak eğitim verilerindeki kalıpları tahmin ettiğinde Bu tür bağlantılara güvenmek yerine, neredeyse sadece başka nöronların çıktılarına ağın bir bütün olarak davranışını gösterir. Ortak adaptasyona neden olan kalıplar doğrulama verilerinde bulunmazsa birlikte uyarlama, fazla uyuma neden olur. Ayrılmaların normalleştirilmesi, birlikte uyarlamayı azaltır Çünkü ayrılma, nöronların yalnızca belirli diğer nöronlara bel bağlamamasını sağlar.

ortak çalışmaya dayalı filtreleme

#recsystems

Bir kullanıcının ilgi alanları hakkında tahminlerde bulunma Google Analytics 4'te arama yapın. Ortak çalışmaya göre filtreleme Genellikle öneri sistemlerinde kullanılır.

kavram kayması

Özellikler ve etiket arasındaki ilişkide bir kayma. Kavram kayması zamanla modelin kalitesini düşürür.

Model, eğitim sırasında özellikler ve özellikler arasındaki ilişkiyi kendi etiketlerini ekleyebilirler. Eğitim veri kümesindeki etiketler için iyi proxy'ler sunuyorsa model, gerçek dünya tahminleridir. Ancak kavram kayması nedeniyle, modelin tahminleri zamanla azalma eğilimindedir.

Örneğin, ikili sınıflandırmayı kullanabilirsiniz. belirli bir otomobil modelinin "yakıt verimliliği" olup olmadığını tahmin eden bir modeldir. Yani, özellikler şöyle olabilir:

  • araba ağırlığı
  • motor sıkıştırması
  • bulaşma türü

ise etiket şunlardan biridir:

  • yakıt verimliliği
  • yakıt verimliliği yüksek değil

Ancak, "yakıt tasarruflu araba" kavramı, saklar bir değişim söz konusu. 1994'te yakıt verimliliği etiketli bir araba modeli, etiketi yakıt verimliliği değil olacak. Konsept kayması sorunu yaşayan bir model zaman içinde daha az faydalı tahminlerde bulunma eğilimindedir.

Sürdürülebilirlik ile karşılaştırma yapın.

koşul

#df

Karar ağacında, sizi bekleyen herhangi bir düğüm bir ifadeyi değerlendirir. Örneğin, bir karar ağacı iki koşul içerir:

Şu iki koşuldan oluşan bir karar ağacı: (x > 0) ve
          (y > 0).

Koşul, bölme veya test olarak da adlandırılır.

Yaprak ile kontrast durumu.

Şuna da bakabilirsiniz:

sohbet

#language

halüsinasyon ile eş anlamlıdır.

"Kafa" terimi, teknik olarak halüsinasyondan daha doğru bir terimdir. Ancak önce halüsinasyon popüler oldu.

yapılandırma

Bir modeli eğitmek için kullanılan ilk özellik değerlerini atama süreci, şunları içerir:

Makine öğrenimi projelerinde yapılandırma, özel bir yapılandırma dosyasını kullanarak veya aşağıdaki gibi yapılandırma kitaplıklarını kullanarak:

doğrulama önyargısı

#fairness

Belirli bir çerçevede bilgileri arama, yorumlama, destekleme ve hatırlama eğilimi mevcut inançlarını veya hipotezlerini doğrulayan bir yöntem bulmaktır. Makine öğrenimi geliştiricileri, istemeden topladıkları veya etiketleyebilecekleri sağlayacak bir sonucu etkileyecek, inançlar için kullanılır. Doğrulama yanlılığı bir dolaylı ön yargı biçimidir.

Deneycinin yanlılığı bir onay yanlılığı şeklidir. model mevcut bir model olana kadar eğitime onaylanmış olur.

karışıklık matrisi

#fundamentals

Doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu sınıflandırma modelinin yaptığı karşılaştırmadır. Örneğin, bir örnek için aşağıdaki karışıklık matrisini ikili sınıflandırma modeli:

Tümör (tahmini) Tümör olmayan (tahmin edilen)
Tümör (kesin referans) 18 (TP) 1 (yanlış negatif)
Tümör Olmayan (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisi aşağıdakileri gösterir:

  • Asıl doğrunun Tumor olduğu 19 tahminden bu model 18'i doğru şekilde sınıflandırmış ve 1'i yanlış sınıflandırmıştır.
  • Kesin doğruluğun Tümör Olmayan olduğu 458 tahmin arasından model, 452 doğru sınıflandırıldı ve 6 yanlış sınıflandırıldı.

Çok sınıflı sınıflandırma için karışıklık matrisi hata örüntülerini belirlemenize yardımcı olabilir. Örneğin, 3 sınıflı bir karmaşıklık matrisini Üç farklı iris türünü kategorize eden çok sınıflı sınıflandırma modeli (Virginica, Versicolor ve Setosa). Asıl doğru, Virginica olduğunda, karışıklık matrisi, modelin hatalı olarak karar verme ihtimalinin çok daha Versicolor'u Setosa'dan tahmin et:

  Setosa (tahmini) Versicolor (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Bir başka örnek daha vermek gerekirse, karışıklık matrisi, bir modelin yanlış şekilde 4 yerine 9'u tahmin edebilmektedir. veya yanlışlıkla 7 yerine 1'i tahmin edebiliriz.

Karışıklık matrisleri aşağıdaki hesaplamaya yetecek kadar bilgi içerir: hassaslık gibi çeşitli performans metrikleri ve geri çağırma.

seçim bölgesi ayrıştırma

#language

Bir cümleyi daha küçük dil bilgisi yapılarına ("bileşenler") bölme. Makine öğrenimi sisteminin daha sonra doğal dil anlama modelini kullanır ve bileşenleri, orijinal cümleye göre daha kolay ayrıştırabilir. Örneğin, şu cümleyi düşünün:

Arkadaşım iki kedi sahiplendi.

Bir seçim bölgesi ayrıştırıcısı bu cümleyi aşağıdaki bölümlere bölebilir şu iki bileşenden oluşur:

  • Arkadaşım bir isim kelime öbeğidir.
  • iki kedi sahiplenme fiil ifadesidir.

Bu bileşenler, daha küçük alt bölümlere ayrılabilir. Örneğin, fiil ifadesi

iki kedi sahiplendi

şu alt bölümlere ayrılabilir:

  • kabullenilmiş bir fiildir.
  • iki kedi başka bir isim kelime öbeğidir.

bağlama dayalı dil yerleştirme

#language
#generativeAI

"Anlama"ya yakın bir yerleştirme kelimeler şekilde ifade etmesine yardımcı olur. Bağlama dayalı dil yerleştirilmiş öğeler karmaşık söz dizimini, anlamları ve bağlamı anlayabilir.

Örneğin, İngilizce inek kelimesini yerleştirebilirsiniz. Daha eski yerleştirilmiş öğeler word2vec gibi bir ifade İngilizceyi temsil edebilir yerleştirme alanındaki mesafe gibi kelimeler ewe (dişi koyun) ile boğa arasındaki mesafe, ewe (dişi koyun) ile koç (erkek koyun) veya dişi'den erkek'e. Bağlama dayalı dil Böylece, İngilizce konuşan kullanıcıların bazen daha fazla bilgi sahibi resmi olarak inek veya boğa anlamına gelen inek kelimesini kullanmayın.

bağlam penceresi

#language
#generativeAI

Bir modelin belirli bir sürede işleyebileceği jeton sayısı istem. Bağlam penceresi ne kadar büyükse o kadar fazla bilgi tutarlı ve tutarlı yanıtlar vermek için kullanabileceği komut istemine ekleyin.

kesintisiz özellik

#fundamentals

Sonsuz olası aralık içeren bir kayan nokta özelliği (ör. sıcaklık veya ağırlık)

Ayrı özellik ile kontrast oluşturun.

uygun örnekleme

Hızlı çalıştırma amacıyla bilimsel olarak toplanmamış bir veri kümesi kullanma denemeler yapabilirsiniz. Daha sonra, bilimsel olarak toplanmış bir kampanyaya geçmek, veri kümesiyle eşleştirilir.

yakınsaklık

#fundamentals

loss değerleri çok az değiştiğinde veya her yinelemede hiç yok. Örneğin, kayıp eğrisi, yaklaşık 700 yinelemede yakınsaklığı işaret eder:

Kartezyen şema. X ekseni kayıptır. Y ekseni, eğitim sayısıdır
          iterasyonlar ile 
yürütüldüğü anlamına gelir. Kayıp, ilk birkaç iterasyonda çok yüksek olsa da
          keskin bir şekilde düşer. Yaklaşık 100 yinelemeden sonra kayıp
          kademeli olarak devam ediyor. Yaklaşık 700 yinelemeden sonra
          sabit kalmıyor.

Ek eğitim olmadığında model tümleşir modeli geliştirebilirsiniz.

Derin öğrenmede, kayıp değerleri bazen sabit kalır veya pek çok yinelemede sona ulaşılmadan önce neredeyse bu kadar. Uzun bir süre boyunca kaybolduğunda geçici olarak yanlış bir yakınsaklık hissi yaşayabilirsiniz.

Ayrıca bkz. erken durma.

dışbükey işlevi

Fonksiyon grafiğinin üzerindeki bölgenin dışbükey kümesi. Prototip dışbükey fonksiyonu U harfine benzer. Örneğin, tümü dışbükey fonksiyonlardır:

Her birinin tek bir minimum noktası olan U şekilli eğriler.

Öte yandan, aşağıdaki işlev dışbükey değildir. Etiketin grafiğin üzerindeki bölge dışbükey küme değil:

İki farklı yerel minimum noktaya sahip W şekilli bir eğri.

Tamamen dışbükey fonksiyonun tam olarak bir yerel minimum noktası vardır. aynı zamanda küresel minimum noktadır. Klasik U şekilli işlevler fonksiyonel fonksiyonlar vardır. Ancak bazı dışbükey fonksiyonlar (örneğin, düz çizgiler) U şeklinde değildir.

dışbükey optimizasyonu

Matematiksel teknikleri kullanma süreci, gradyan iniş dışbükey fonksiyonun minimum değeri. Makine öğreniminde yapılan birçok araştırma, çeşitli formüllerle iç içe geçmiş optimizasyon problemleri olarak ele aldık ve bu problemleri çözmede yolları aranır.

Ayrıntılı bilgi için Boyd ve Vandenberghe, Dışbükey Optimizasyon.

dışbükey kümesi

Uzaydaki herhangi iki nokta arasına çizilen bir çizgiye göre, Öklid uzayının bir alt kümesi alt kümesi de tamamen alt kümenin içinde kalır. Örneğin aşağıdaki iki ayar şekiller dışbükey kümelerdir:

Dikdörtgen çizimi. Diğer bir oval çizim.

Öte yandan, aşağıdaki iki şekil dışbükey kümeler değildir:

Bir dilimi eksik pasta grafiğin resmi.
          Son derece düzensiz bir çokgenin başka bir çizimi.

konvolüsyon

#image

Matematikte, günlük konuşmada iki işlevin bir karışımıdır. Makinede konvolüsyonla konvolüsyonel filter ve giriş matrisi ağırlıkları eğitmek için kullanır.

Konvolüsyon terimi yaygın kullanılan bir yöntemdir. evrimsel işlemden konvolüsyonel katman olarak tanımlanabilir.

Evrişim olmasaydı makine öğrenimi algoritmasının büyük bir tensör'de her hücre için ayrı bir ağırlık ekleyin. Örneğin, 2K x 2K görüntüler üzerinde eğitilen bir makine öğrenimi algoritmasının, ayrı ağırlıklar bulur. Evrimler sayesinde makine öğrenimi, algoritmanın yalnızca aynı gruptaki her hücrenin konvolüsyonel filtre ile büyük ölçüde küçültülür. modeli eğitmek için gereken bellek miktarına sahiptir. Konvolüsyonel filtre uygulanır, ancak her bir hücre çoğaltılır ve böylece, tıklayın.

konvolüsyon filtresi

#image

Oyunculardan biri konvolüsyonel işlem. (Diğer aktör bir giriş matrisinin dilimidir.) Konvolüsyonel filtre, giriş matrisiyle aynı sıralama, ancak daha küçük bir şekildir. Örneğin, 28x28 boyutunda bir giriş matrisi verildiğinde filtre, herhangi bir 2D matris olabilir. daha küçük olmalıdır.

Fotoğraf manipülasyonunda, kıvrımlı bir filtredeki tüm hücreler sabit bir birler ve sıfırlar düzenine ayarlanır. Makine öğreniminde kıvrımlı filtreler genellikle rastgele sayılarla başlar, daha sonra ağının ideal değerleri eğitmesine olanak tanır.

konvolüsyonel katman

#image

Bir derin sinir ağı katmanıdır. Burada, konvolüsyonel filtre bir giriş boyunca iletir. matristir. Örneğin, şu 3x3'ü ele alalım: konvolüsyonel filtre:

Şu değerlere sahip 3x3 boyutunda bir matris: [[0,1,0], [1,0,1], [0,1,0]]

Aşağıdaki animasyonda 9 öğeden oluşan kıvrımlı bir katman gösterilmektedir 5x5 giriş matrisini içeren konvolüsyonel işlemler. Her bir kıvrımlı işlem, giriş matrisinin farklı bir 3x3 dilimde çalışır. Ortaya çıkan 3x3 matrisi (sağda), 9 ayrı maddenin konvolüsyonel işlemler:

İki matrisin gösterildiği animasyon. İlk matris, 5x5
          matris: [[128,97,53,201,198], [35,22,25,200,195],
          [37.24.28.197.182], [33.28.92.195.179], [31.40.100.192.177]].
          İkinci matris, 3x3 matristir:
          [[181.303.618], [115.338.605], [169.351.560]].
          İkinci matris, konvolüsyonel fonksiyon
          [[0, 1, 0], [1, 0, 1], [0, 1, 0]] filtresini kullanarak
          5x5 matrisinin farklı 3x3 alt kümelerini içerir.

konvolüsyonel nöral ağ

#image

En az bir katmanın bir öğe olduğu sinirsel ağ konvolüsyonel katman. Tipik konvolüsyon nöral ağ, aşağıdaki katmanların bir kombinasyonundan oluşur:

Konvolüsyonel nöral ağlar bazı alanlarda büyük başarı sağlamıştır. ön plana çıkarırız.

konvolüsyonel işlem

#image

Aşağıdaki iki adımlı matematik işlemi:

  1. Çarpımdaki konvolüsyon filtresi ve bir dilim giriş matrisi. (Giriş matrisi dilimi aynı sıralamaya sahiptir ve boyutunu kıvrımlı filtre olarak ayarlayın.)
  2. Sonuçta elde edilen ürün matrisindeki tüm değerlerin toplamı.

Örneğin, aşağıdaki 5x5 giriş matrisini ele alalım:

5x5 matrisi: [[128,97,53,201,198], [35,22,25,200,195],
          [37.24.28.197.182], [33.28.92.195.179], [31.40.100.192.177]].

Şimdi aşağıdaki 2x2 konvolüsyonlu filtreyi düşünün:

2x2 matrisi: [[1, 0], [0, 1]]

Her kıvrımlı işlem, 2x2 boyutunda tek bir parça giriş matrisi. Örneğin, başlangıç sayfasındaki 2x2 dilimini kullandığımızı tıklayın. Bu nedenle, evrişim işlemi bu dilim aşağıdaki gibi görünür:

Sol üste konvolüsyonel filtre [[1, 0], [0, 1]] uygulanıyor
          [[128,97], [35,22]] olmak üzere giriş matrisinin 2x2 bölümü.
          Konvolüsyonel filtre 128 ve 22&#39;yi olduğu gibi bırakır, ancak sıfırlar
          birlikte çalıştım. Sonuç olarak, konvolüsyon işlemi
          değeri 150 (128+22) olacaktır.

Konvolüsyonsal katman şunları içerir: her biri farklı bir dilime göre hareket eden konvolüsyonel işlem dizisi vardır.

maliyet

kayıp ile eş anlamlıdır.

ortak eğitim

Yarı gözetimli öğrenme yaklaşımı özellikle aşağıdaki koşulların tümü doğru olduğunda yararlıdır:

Ortak eğitim, bağımsız sinyalleri daha güçlü bir sinyale dönüştürür. Örneğin, şu özelliklere sahip bir sınıflandırma modeli oluşturabilirsiniz: İkinci el araçları İyi veya Kötü olarak sınıflandırır. Bir set tahmin özellikleri yıl, yıl, yıl, saat ve gün gibi arabanın markası ve modeli; bir grup tahmine dayalı özellik, arabanın bakım geçmişi, araba kullanma geçmişi,

Ortak eğitimle ilgili önemli makale, Etiketli ve Etiketsiz Verileri Ortak Eğitim: Blum ve Mitchell.

karşıt görüşlere dayalı adalet

#fairness

Sınıflandırıcının bir kişi ve başka bir kişi için aynı sonucu verdiğinde arasında, bir veya daha fazla içeriğe göre hariç, ilkiyle aynıdır hassas özellikler için geçerlidir. Sınıflandırıcının karşı olgusal adalet, olası sorunları ortaya çıkarmanın ön yargıdır.

Görüntüleyin "When Worlds Collide: Integrating Generate Counterffect Adaletteki Varsayımlar" adalet.

kapsam önyargısı

#fairness

Seçim yanlılığı bölümünü inceleyin.

kaza çiçek

#language

Belirsiz bir anlamı olan cümle veya ifade. Çarpışma çiçekleri, doğal temada önemli bir sorun dil anlama konusuna bakın. Örneğin, Kırmızı Bant Dikey Kenarda başlığı, Çünkü NLU modeli, başlığı olduğu gibi yorumlayabilir veya bir anlam ifade eder.

eleştirmen

#rl

Deep Q-Network ile eş anlamlı.

çapraz entropi

Günlük Kaybı genel hatlarıyla çok sınıflı sınıflandırma problemleri. Çapraz entropi iki olasılık dağılımı arasındaki farkı ölçer. Şu kaynakları da inceleyin şaşkınlık.

çapraz doğrulama

Bir modelin modeli bir veya daha fazla örtüşmeyen veri alt kümesiyle karşılaştırarak test ederek yeni veriler eğitim grubundan alıkonulmuştu.

kümülatif dağılım işlevi (CDF)

Bir hedef değeri. Örneğin, sürekli değerlerin normal bir dağılımını ele alalım. CDF'ler, örneklerin yaklaşık %50'sinin en az %50 oranında olması gerektiğini belirtir. ve örneklerin yaklaşık% 84'ünün bu değerden düşük veya bu değere eşit olması gerektiğini bir standart sapmaya göre hesaplayabilirsiniz.

D

veri analizi

Örnekleri, ölçümleri ve yöntemleri değerlendirerek veriler hakkında ve görselleştirmeyi kullanırsınız. Veri analizi, veri kümesinin uygulanması, ilk model oluşturulmadan önce yapılır. Denemelerle ilgili denemelerde ve hatalarda hata ayıklamada da sisteme bakacağız.

veri genişletme

#image

Hedef dönüşüm aralığını ve sayısını yapay olarak artırma eğitim örnekleri mevcut dönüşüm kapsamındaki örnekler kullanarak başka örnekler oluşturun. Örneğin, resimlerin features gösterir ancak veri kümeniz şunları yapmaz: modelin yararlı ilişkilendirmeleri öğrenmesi için yeterli sayıda resim örneği içermelidir. İdeal olarak, veri kümenize etiketlenen görüntüler modelinizin doğru şekilde eğitilmesini sağlar. Bu mümkün değilse veri genişletme farklı varyantlarını üretmek için her bir resmi döndürebilir, uzatabilir ve yansıtabilir büyük olasılıkla, mükemmel sonuç vermeye yetecek kadar etiketli veri bahsedeceğim.

DataFrame

#fundamentals

Temsil için popüler bir pandalar veri türü veri kümelerini kapsar.

DataFrame, tabloya veya elektronik tabloya benzer. Her bir sütun DataFrame'in bir adı (başlık) vardır ve her satır benzersiz bir sayıdır.

Bir DataFrame'deki her sütun 2D dizi gibi yapılandırılır. Tek fark, her sütuna kendi veri türü atanabilir.

Ayrıca bakın: pandas.DataFrame referansı sayfasını ziyaret edin.

veri paralelliği

Eğitim veya çıkarımı ölçeklendirmenin bir yolu bir modelin tamamını kopyalayan daha sonra giriş verilerinin bir alt kümesini her cihaza iletir. Veri paralelliği, çok büyük boyutlu ortamlarda eğitim ve çıkarım toplu boyutlar; Ancak veri paralelliği, model tüm cihazlara sığacak kadar küçük olmalıdır.

Veri paralelliği genellikle eğitimi ve çıkarımı hızlandırır.

Ayrıca model paralellik konusuna da bakın.

veri kümesi veya veri kümesi

#fundamentals

Genellikle (ancak özel olarak değil) tek bir yerde düzenlenmiş ham veri koleksiyonu şu biçimlerdedir:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

Veri Kümesi API'sı (tf.data)

#TensorFlow

Veri okuma ve veri okuma için üst düzey bir TensorFlow API gerekli bir forma dönüştürmeyi öğreteceğim. tf.data.Dataset nesnesi, bir öğe dizisini temsil eder. Burada Her öğe bir veya daha fazla Tensör içerir. tf.data.Iterator nesnesi, Dataset öğelerine erişim sağlar.

Veri Kümesi API'si ile ilgili ayrıntılar için şuraya bakın: tf.data: TensorFlow giriş ardışık düzenleri oluşturma makalesini inceleyin.

karar sınırı

Bunlar arasındaki ayırıcı sınıfları model olarak ikili sınıf veya çok sınıflı sınıflandırma sorunları. Örneğin, aşağıdaki resimde bir ikili sınıflandırma problemini karar sınırı turuncu sınıf ile mavi sınıf:

Bir sınıf ile diğeri arasında iyi tanımlanmış bir sınır.

karar ormanı

#df

Birden fazla karar ağacından oluşturulmuş bir model. Karar ormanı, her bir kullanıcının tahmin verilerini birleştirerek üzerine konuşacağız. Popüler karar ormanları türleri arasında şunlar yer alır: rastgele ormanlar ve gradyan zengin ağaçlar.

karar eşiği

Sınıflandırma eşiği ile eş anlamlıdır.

karar ağacı

#df

Gözetimli öğrenme modeli koşullar ve ayrılmalar hiyerarşik olarak düzenlenir. Örneğin, aşağıda bir karar ağacı gösterilmektedir:

Düzenlenmiş dört koşuldan oluşan bir karar ağacı
          Bu da beş yaprakla sonuçlanıyor.

kod çözücü

#language

Genel olarak, işlenmiş, yoğun veya veya dış temsile dönüştürme sürecidir.

Kod çözücüler, genelde daha büyük bir modelin bileşenidir ve genelde bir kodlayıcı ile eşlenmiştir.

Diziden sıralı görevlerde, kod çözücü bir sonraki aşamayı tahmin etmek için kodlayıcı tarafından oluşturulan dahili durumla başlar tıklayın.

İçinde kod çözücünün tanımı için Dönüştürücü bölümüne bakın. Transformer mimarisiyle ilgili epeyce yaklaşacaksınız.

derin model

#fundamentals

Birden fazla sinirsel ağ gizli katman.

Derin model, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast oluşturun.

derin sinir ağı : derin nöral ağ

Derin model ile eş anlamlıdır.

Derin Q-Ağ (DQN)

#rl

Q-learning'de derin bir nöral ağ Q işlevlerini tahmin eden bir araçtır.

Eleştirmen, Derin Q-Network ile eş anlamlıdır.

demografik benzerlik

#fairness

Bir adillik metriği, model sınıflandırmasının sonuçları verilen hassas özellik değerine sahip olduğundan emin olun.

Örneğin, hem Lilliputians hem de Brobdingnagians kullanıcıları bir Glubbdubdrib Üniversitesi'ne göre demografik benzerlik, kabul edilen Lilliputyalıların oranı, Brobdingnagiyalıların yüzdesiyle aynıdır. bir grubun ortalama olarak daha nitelikli veya nitelikli daha fazla bilgi sağlar.

Denk olasılıklar ve fırsat eşitliği sağlayarak sınıflandırma sonuçları, hassas özelliklere bağlı olarak ancak belirli kategoriler için sınıflandırma sonuçlarına kesin referans etiketlerinin hassas özelliklere bağlı olması gerekir. Görüntüleyin "Saldırı ayrımcılıktan bahsediyor." Bu incelemenin amacı, ve demografik benzerlik için optimizasyon yapmanın dengesini keşfedeceğiz.

parazit giderme

#language

Kendi kendine gözetimli öğrenmeye yaygın bir yaklaşım burada:

  1. Gürültü, veri kümesine yapay olarak eklenir.
  2. Model gürültüyü kaldırmaya çalışır.

Parazit giderme, etiketsiz örneklerden öğrenmeyi sağlar. Orijinal veri kümesi hedef label ve gürültülü verileri giriş olarak kullanır.

Bazı maskeli dil modelleri parazit giderme kullanır şu şekilde:

  1. Bazılarını maskeleyerek etiketsiz cümlelere yapay olarak gürültü eklenir. jetonlar.
  2. Model, orijinal jetonları tahmin etmeye çalışır.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tümünün sıfır olmayan bir özellik. Genellikle, kayan nokta değerlerinden oluşan bir tensor. Örneğin, 10 öğeli Tensor, değerlerinin 9'u sıfır olmadığından yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile kontrast oluşturun.

yoğun katman

Tamamen bağlı katman ile eş anlamlı.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağ derinliği 6'dır.

Giriş katmanının en iyi uygulamaları paylaşacağız.

derinlikli ayrılabilir konvolüsyonel nöral ağ (sepCNN)

#image

Konvolüsyonel nöral ağ Google Yapay Zeka'dan Başlangıç, Ancak Başlangıç modüllerinin yerini derinlemesine ayrılmış olacak şekilde ayarlayabilirsiniz. evrişim. Xception olarak da bilinir.

Derinlemesine ayrılabilir konvolüsyon (ayrıca ayrılabilir konvolüsyon olarak da kısaltılır) standart bir 3D evrimi iki ayrı konvolüsyon işlemine katar Bunlar sayısal açıdan daha verimli: ilk olarak, derinlikli evrim, derinliğinde 1 (n ↘ n silindi 1) ve ikinci olarak nokta tabanlı evrişim, 1 uzunluk ve genişlikte (1 CPC 1 silindi n ).

Daha fazla bilgi için Xception: Depthniz Separable ile Derin Öğrenme ve Derin Öğrenme Konvolüsyonlar.

türetilmiş etiket

proxy etiketi ile eş anlamlı.

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımına sahip aşırı yüklenmiş bir terim:

  1. TensorFlow oturumu çalıştırabilen bir donanım kategorisidir. CPU'lar, GPU'lar ve TPU'lar.
  2. Bir makine öğrenimi modelini hızlandırıcı çiplerinde eğitirken (GPU'lar veya TPU'lar): Sistemin bunu gerçekten manipüle eden kısmı tensörler ve yerleştirmeler. Cihaz hızlandırıcı çiplerle çalışır. Buna karşılık barındırıcı genelde CPU üzerinde çalışır.

diferansiyel gizlilik

Makine öğreniminde, hassas verileri korumak için kullanılan bir anonimleştirme yaklaşımı (örneğin, bireyin kişisel bilgileri) bir modelin eğitim grubunun açığa çıkmasını engeller. Bu yaklaşım sayesinde modelin belirli bir model hakkında çok fazla bilgi edinmediği veya belirleyebilirsiniz. Bu, model sırasında örnekleme ve gürültü ekleme yoluyla gerçekleştirilir ve verilerin açığa çıkma riskini azaltacak şekilde, hassas eğitim verileri bulunur.

Diferansiyel gizlilik, makine öğrenimi dışında da kullanılır. Örneğin, Veri bilimciler bazen bireysel verileri korumak için diferansiyel gizlilik .

boyut azaltma

Belirli bir özelliği temsil etmek için kullanılan boyutların sayısını azaltma bir özellik vektöründe, genellikle bir yerleştirme vektörüne dönüştürme.

boyutlar

Aşağıdaki tanımlardan herhangi birine sahip aşırı yüklenmiş terim:

  • Bir Tensor'daki koordinat düzeylerinin sayısı. Örneğin:

    • Skalerin boyutu sıfırdır; örneğin, ["Hello"].
    • Vektörün bir boyutu vardır. örneğin, [3, 5, 7, 11].
    • Bir matrisin iki boyutu vardır: örneğin, [[2, 4, 18], [5, 7, 14]].

    Tek boyutlu bir vektörde belirli bir hücreyi benzersiz bir şekilde belirtebilirsiniz tek koordinatla, bir değeri benzersiz bir şekilde belirtmek için iki koordinat belirli bir hücreyi iki boyutlu matriste

  • Bir özellik vektörindeki girişlerin sayısı.

  • Yerleştirme katmanındaki öğe sayısı.

doğrudan istem

#language
#generativeAI

Sıfır çekim istemi ile eş anlamlıdır.

ayrık özellik

#fundamentals

Sınırlı bir olası değer grubuna sahip bir özellik. Örneğin, değeri yalnızca hayvan, sebze veya mineral olabilecek bir özellik, ayrık (veya kategorik) özellik olabilir.

Sürekli özellik ile kontrast.

ayrımcılık modeli

Bir veya daha fazla etiketten etiketleri tahmin eden bir model daha fazla özellik bulabilirsiniz. Daha resmi ifade etmek gerekirse, ayrımcı modeller ve özelliklerine göre bir çıktının koşullu olasılığı weights; yani:

p(output | features, weights)

Örneğin, bir e-postanın farklı özellikler üzerinden spam olup olmadığını tahmin eden bir model ve ağırlıklar ayrımlı bir modeldir.

Sınıflandırma dahil olmak üzere gözetimli öğrenme modellerinin büyük çoğunluğu ve regresyon modelleri, ayrımcı modellerdir.

Üretken model ile kontrast oluşturun.

ayrımcı

Örneklerin gerçek mi yoksa sahte mi olduğunu belirleyen bir sistem.

Alternatif olarak, ürkütücü bir üretkenliğe sahip alt sistem bir ağda yer alıp almayacağını üretken tarafından oluşturulan örnekler gerçek veya sahtedir.

farklı etki

#fairness

Farklı popülasyonları etkileyen insanlar hakkında kararlar alma orantısız şekilde görebilirsiniz. Bu genellikle, bir proje yöneticisinin Burada algoritmaya dayalı bir karar alma sürecinin zararı veya faydası daha fazla olduğunu görebiliriz.

Örneğin, bir Lilliputian’ın minyatür ev kredisi için uygunluğun sınıflandırılma olasılığı daha yüksektir "uygun değil" olarak işaretle kullanıcının posta adresinde belirli bir posta kodu. Büyük Endian lilliputyenlerinin yakın bir zamanda posta kodu yerine Little-Endian Lilliputanlar’dan daha fazla bu algoritmanın farklı etkileri olabilir.

Farklı muamele ile Alt grup özellikleri bir araya geldiğinde ortaya çıkan algoritmaya dayalı karar alma sürecine açık girdilerdir.

farklı değerlendirme

#fairness

Özneleri çarpanlarına ayırın hassas özellikler algoritmik bir karar alma sürecine entegre edilir ve böylece farklı muameleye maruz kalıyoruz.

Örneğin, bir görevi tamamlamak için Lilliputians'ın minyatür ev kredisine uygunluk açısından sağladıkları verilerdir. Algoritma Lilliputian'ın, Big-Endian veya Little-Endian olarak ilişkilendirilmesi, bu boyutta farklı muameleye tabi tutulmasıdır.

Farklı etkiye odaklanarak algoritmik kararların alt gruplar üzerindeki toplumsal etkisindeki bu alt grupların modele girdi sağlayıp sağlamadıklarından bağımsız olarak.

damıtma

#generativeAI

Bir modelin ( Öğretmen) emülasyon yapan daha küçük bir modele (öğrenci olarak bilinir) orijinal modelin tahminlerini olabildiğince güvenilir olduğundan emin olmaktır. Damıtma küçük modelin büyük modele kıyasla iki temel avantaj modeli (öğretmen):

  • Daha hızlı çıkarım süresi
  • Azaltılmış bellek ve enerji kullanımı

Ancak, öğrencinin tahminleri genellikle öğretmenin tahminleri.

Damıtma, öğrenci modelini en aza indirecek çıkışlar arasındaki farka dayalı olarak kayıp işlevi modellerin tahminlerini görebilirsiniz.

Damıtmayı aşağıdaki terimlerle karşılaştırma ve ayırt etme:

distribution

Belirli bir veri için farklı değerlerin sıklığı ve aralığı feature veya label sağlayın. Dağılım, belirli bir değerin ne kadar olası olduğunu yakalar.

Aşağıdaki resimde, iki farklı dağılımın histogramları gösterilmektedir:

  • Solda, güç yasasında insanların sayısı ile zenginliğin dağılımı hiç pişman olmayacaksınız.
  • Sağda, yüksekliğin normal dağılımı ile kişi sayısının karşılaştırması sahip olduğunuzu fark edebilirsiniz.

İki histogram. Bir histogramda, kuvvet yasası dağılımını gösteren
          eksenindeki zenginliği ve bu zenginliğe sahip insan sayısı,
          y eksenini seçin. Çoğu insanın serveti çok düşüktür ve az sayıda insanın
          bulmamız gerekir. Diğer histogram normal dağılımı gösterir
          x ekseninde yükseklik ve bu yüksekliğe sahip insan sayısı ile
          y ekseninde. Çoğu kişi ortalamaya yakın bir yerde kümelenir.

Her özelliğin ve etiketin dağılımını anlamak, her bir özelliğin ve etiketin değerleri normalleştirmek ve aykırı değerleri tespit etmek için kullanılır.

Dağıtım dışı kelime öbeği, çok nadirdir. Örneğin, Satürn gezegeninin bir resminde kedi resimlerinden oluşan bir veri kümesi için dağıtımın dışında olduğu düşünülebilir.

bölünmüş kümeleme

#clustering

Hiyerarşik kümeleme konusuna bakın.

downsampling

#image

Aşağıdakilerden herhangi biri anlamına gelebilecek aşırı yüklenmiş terim:

  • Bir özellikteki bilgi miktarını azaltmak üzere kullanarak bir modeli daha verimli eğitebilir. Örneğin, Resim tanıma modelini eğitmeden önce, yüksek çözünürlüklü daha düşük çözünürlüklü resimlere dönüştürebilirsiniz.
  • Aşırı temsil edilenlerin orantısız olarak düşük bir yüzdesiyle ilgili eğitim sınıf ve bu sayede yeterince temsil edilmeyen sınıflarda model eğitiminin iyileştirilmesine yardımcı olabilir. Örneğin, sınıf dengesizliği veri kümesi kullanıyorsanız modeller, veri kümesiyle ilgili birçok şey ana sınıfa sahip olmakla birlikte azınlık sınıfı. Örnekleme azaltma işlemi, çoğunluk ve azınlık sınıflarına verilen eğitimin miktarını dengelemek.

DQN

#rl

Deep Q-Network'ün kısaltmasıdır.

ayrılma normalleştirmesi

Eğitimde yararlı olabilecek bir düzenleme biçimi nöral ağlar. Ayrılma normalleştirmesi bir ağdaki sabit sayıdan rastgele yapılan bir seçimi kaldırır katmanını kullanmanız gerekir. Ayrılan birim sayısı arttıkça daha güçlü yardımcı olur. Bu, ağı emülasyon (emülasyon) konusunda eğitmeye benzer. daha küçük ağların katlanarak büyük bir topluluğu. Tüm ayrıntılar için şuraya bakın: Ayrılma: Nöral Ağların Trafiğini Önlemenin Basit Bir Yolu Fazla uyumlu.

dinamik

#fundamentals

Sık yapılan veya sürekli yapılan bir şey. Dinamik ve online terimleri, makine öğreniminin eş anlamlılarıdır. Aşağıda, dinamik ve online öğelerinin makinede yaygın kullanımları verilmiştir öğreniyor:

  • Dinamik model (veya online model) bir modeldir yeniden eğitilen bir grup olabilir.
  • Dinamik eğitim (veya online eğitim) bir eğitim sürecidir elde edebiliyorlar.
  • Dinamik çıkarım (veya online çıkarım), belirli bir talep üzerine tahmin oluşturmaktır.

dinamik model

#fundamentals

Sık sık (hatta sürekli olan) bir model yeniden eğitildi. Dinamik model "yaşam boyu öğrenen"dir verileri değişen verilere sürekli uyum sağlar. Dinamik model, online model.

Statik model ile kontrast oluşturun.

E

hemen yürütme

#TensorFlow

İşlemlerin içinde bulunduğu TensorFlow programlama ortamı hemen çalışır. Buna karşın, grafik yürütme, açıkça oluşturulana kadar çalıştırılmaz yardımcı olur. Eşik yürütme zorunlu arayüze sahip olduğundan çoğu programlama dilindeki kod gibi. İstekli yürütme programları, grafik yürütme programlarına kıyasla hata ayıklaması genellikle çok daha kolaydır.

erken durdurma

#fundamentals

Sonlandırma içeren bir düzenleme yöntemi Eğitim kaybı tamamlanmadan önce eğitim azalmaktadır. Erken durdurma sırasında, modeli eğitmeyi bilinçli olarak durdurursunuz doğrulama veri kümesindeki kayıp increase; yani genelleme performansı kötüleşir.

toprak taşıyıcının mesafesi (EMD)

İki dağıtımın göreceli benzerliğinin ölçüsü. Dünya hareketinin mesafesi ne kadar düşük olursa, dağılımlar da o kadar benzerdir.

mesafeyi düzenle

#language

İki metin dizesinin birbirine ne kadar benzer olduğunun ölçümü. Makine öğreniminde mesafe düzenleme özelliği yararlıdır çünkü bilinen iki dizeyi karşılaştırmanın etkili bir yoludur. dizeleri bulmak için kullanabilirsiniz.

Düzenleme mesafesinin birkaç tanımı vardır. Her biri farklı bir dize kullanır anlamına gelir. Örneğin, Levenshtein mesafesi en az sayıda silme, ekleme ve değiştirme işlemini dikkate alır.

Örneğin, "kalp" kelimeleri arasındaki Levenshtein mesafesi ve "dart" 3'tür, çünkü aşağıdaki 3 düzenleme bir kelimeyi dönüştürmek için yapılacak en az değişikliktir diğerine:

  1. kalp → deart ("h" yerine "d")
  2. deart → dart ("e"yi silin)
  3. dart → dart ("s" girin)

Einsum gösterimi

İki tensörün nasıl olacağını açıklamak için etkili bir gösterim toplamıdır. Tensörler, bir tensörün elemanlarının çarpılmasıyla birleştirilir toplamından elde edilir ve çarpım toplanarak hesaplanır. Einsum notasyonu, her bir tensörün eksenlerini tanımlamak için semboller kullanır ve aynı semboller, ortaya çıkan yeni tensörün şeklini belirtecek şekilde yeniden düzenlenir.

NumPy, yaygın bir Einsum uygulaması sağlar.

yerleştirme katmanı

#language
#fundamentals

Gizli katman yüksek boyutlu kategorik özelliği daha alt boyutlu bir yerleştirme vektörünü yavaş yavaş öğrenir. yerleştirme katmanı, bir sinir ağının çok daha fazla kategorik özellikle ilgili eğitimden daha verimli bir şekilde

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Diyelim ki ağaç türü, modelinizin bir özelliktir. Dolayısıyla modelinizin giriş katmanında 73.000 adet tek sıcak vektör bulunuyor öğe uzunluğunda olmalıdır. Örneğin, baobab şuna benzer bir şekilde temsil edilir:

73.000 öğeli bir dizi. İlk 6.232 öğe,değeri
     0 Sonraki öğede 1 değeri bulunur. Nihai 66.767 öğe
     sıfır değerini alır.

73.000 öğelik bir dizi çok uzundur. Yerleştirme katmanı eklemezseniz sahip olduğu için eğitim çok zaman alacak. 72.999 tane sıfır ile çarpılır. Belki gömme katmanını seçmiş olursunuz. emin olun. Bunun sonucunda, yerleştirme katmanı, her ağaç türü için yeni bir yerleştirme vektörü olacak.

Belirli durumlarda, karma oluşturma makul bir alternatiftir. ekleme katmanıdır.

yerleştirme alanı

#language

Daha yüksek boyuttan gelen d boyutlu vektör uzayı yardımcı olduğu anlamına gelir. İdeal olarak, yerleştirme alanı anlamlı matematiksel sonuçlar veren yapıyı; örneğin, yerleştirme, yerleştirme ve çıkarma kelime analojisi görevlerini çözebilir.

Nokta ürünü öğeler, benzerliklerinin bir ölçüsüdür.

yerleştirme vektörü

#language

Genel olarak, herhangi bir noktadan alınan kayan nokta sayıları dizisi gizli katman ekleyebilirsiniz. Yerleştirme vektörü genellikle bir yerleştirme katmanı içerir. Örneğin, bir yerleştirme katmanının her biri için bir yerleştirme vektörü oluşturdu. Belki aşağıdaki dizi, bir baobab ağacının yerleştirme vektörüdür:

Her biri kayan nokta sayısına sahip olan 12 öğeden oluşan dizi
          0,0 ile 1,0 arasında değişir.

Yerleştirme vektörü, rastgele sayılardan oluşan bir küme değildir. Yerleştirme katmanı Bu değerleri, tıpkı bir reklamveren gibi eğitim aracılığıyla belirler. nöral ağ, eğitim sırasında başka ağırlıkları da öğrenir. Her bir öğe dizisi, bir ağaç türünün bazı özelliklerine göre yapılan bir derecelendirmedir. Hangi öğesi, hangi ağaç türünü özellikleri nelerdir? Bu çok zor bu insanlar tarafından belirleniyor.

Yerleştirme vektörünün matematiksel açıdan dikkat çekici tarafı, öğeler benzer kayan nokta sayı kümelerine sahiptir. Örneğin, ağaç türlerindeki yüzen nokta sayılarına farklı ağaç türleri olabilir. Kızılağaç ve sekoyalar ilgili ağaç türleridir. daha benzer kayan noktalı sayılara sahip olurlar. kızılağaçlar ve hindistan cevizi palmiyeleri. Yerleştirme vektörindeki sayılar, modeli yeniden eğitseniz bile modeli her yeniden eğittiğinizde görürsünüz.

ampirik kümülatif dağılım işlevi (eCDF veya EDF) kaldırın

Kümülatif dağılım işlevi Gerçek bir veri kümesinden alınan deneysel ölçümlere dayanır. The value of x ekseni üzerindeki herhangi bir nokta fonksiyonu, veri kümesi için belirtilen değerden küçük veya ona eşit olmalıdır.

deneysel risk minimuma alma (ERM)

Eğitim kümesinde kaybı en aza indiren fonksiyonu seçme. Kontrast yapısal risk minimuma indirgeyin.

kodlayıcı

#language

Genel olarak ham, seyrek veya harici veri dönüşümü yapan tüm makine öğrenimi sistemleri daha işlenmiş, yoğun veya daha içsel bir temsile dönüştürebilir.

Kodlayıcılar çoğu zaman büyük bir modelin bileşenidir. bir kod çözücü ile eşlenmiştir. Bazı Transformatörler kodlayıcıları kod çözücülerle eşlemeye devam ederken, diğer Transformatörler yalnızca kodlayıcıyı kullanır. veya yalnızca kod çözücüyü kullanabilirsiniz.

Bazı sistemler, kodlayıcının çıkışını bir sınıflandırmaya giriş olarak kullanır veya regresyon ağıdır.

Diziden sıralı görevlerde, kodlayıcı bir giriş dizisi alır ve dahili bir durum (bir vektör) döndürür. Ardından, kod çözücü, bir sonraki diziyi tahmin etmek için bu dahili durumu kullanır.

Kodlayıcının tanımı için Transformer'a bakın. Transformer mimarisiyle ilgili epeyce yaklaşacaksınız.

topluluk

Tahminleri kendilerine ait olan ve bağımsız olarak eğitilmiş modeller ortalaması alınır veya toplanır. Çoğu durumda bir takımla daha iyi sonuç alırsınız. tahmine dayalıdır. Örneğin, rastgele orman, çeşitli evlerden oluşturulan karar ağaçları gibi. Tüm karar ormanları bir bütündür.

entropi

#df

İçinde bilgi teorisi, bir olasılığın ne kadar öngörülemediğinin olduğunu da bilir. Alternatif olarak entropi de bir şeyin her bir örnekde bulunan bilgileri içerir. Bir dağıtım rastgele bir değişkenin tüm değerleri şu olduğunda mümkün olan en yüksek entropi ihtimali vardır.

İki olası değere ("0") sahip bir kümenin entropisi ve "1" (örneğin, ikili program sınıflandırma sorunundaki etiketler) aşağıdaki formüle sahiptir:

H = -p log p - q log q = -p log p - (1-p) * log (1-p) 'nı inceleyin.

Bu örnekte:

  • H entropidir.
  • p, "1"in kesiridir örnekler.
  • q, "0"ın kesiridir örnekler. Unutmayın, q = (1 - p)
  • log genellikle log2'dir. Bu durumda entropi biraz zorlaşır.

Örneğin, aşağıdakilerin geçerli olduğunu varsayalım:

  • "1" değerini içeren 100 örnek
  • 300 örnek "0" değerini içeriyor

Dolayısıyla entropi değeri şu şekildedir:

  • y = 0,25
  • q = 0,75
  • H = (-0,25)log2(0,25) - (0,75)log2(0,75) = Örnek başına 0,81 bit

Mükemmel dengeye sahip bir grup (örneğin, 200 "0" ve 200 "1") entropisi örnek başına 1,0 bit olur. Setler arttıkça dengesiz ise entropisi 0, 0'a doğru hareket eder.

Karar ağaçlarında entropi, formülleri bilgi edinmeye yardımcı olacak koşulları ayırıcı seçin büyümesi sırasında ihtiyaç duyacağınız her şeyi gözlemledik.

Entropiyi şununla karşılaştır:

Entropi genellikle Shannon entropisi olarak adlandırılır.

ortam

#rl

Pekiştirmeli öğrenmede, aracıyı içeren dünya ve temsilcinin dünyanın durumunu gözlemlemesini sağlar. Örneğin, Bu, satranç gibi bir oyun veya fiziksel bir dünya. bir labirent gibidir. Temsilci ortama bir işlem uyguladığında, ortam, durumlar arasında geçiş yapar.

bölüm

#rl

Pekiştirmeli öğrenmede, öğrenme yönteminin tekrarlanan aracı kullanarak ortam öğrenin.

sıfır zaman

#fundamentals

Tüm eğitim setini kapsayan tam bir eğitim geçişi Böylece her bir örnek bir kez işlenmiştir.

Bir dönem, N/toplu boyutu temsil eder eğitim iterasyonları; burada N, sayısını göreceksiniz.

Örneğin, aşağıdakilerin geçerli olduğunu varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem 20 yineleme gerektirir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

epsilon greedy politikası

#rl

Pekiştirmeli öğrenmede, aşağıdakilerden birini izleyen bir politika: rastgele politika ve epsilon olasılığı veya girdi politikamızı kullanın. Örneğin, epsilon 0.9 ise politika% 90 oranında rastgele bir politika ve %10'luk bir orana sahip olacaktır.

Algoritma, art arda gelen bölümlerde epsilon değerini sırayla azaltır rastgele bir politika izlemekten açgözlü bir politikaya geçmemizi sağlıyor. Ölçüt temsilci ilk olarak ortamı rastgele keşfeder ve sonra da rastgele keşiflerin sonuçlarından açışlı bir şekilde istismar edilir.

fırsat eşitliği

#fairness

Bir modelin uygun nitelikte olup olmadığını değerlendiren adillik metriği bir projenin tüm değerleri için, istenen sonuca eşit derecede hassas özellik. Başka bir deyişle, talep edilen sonuç olumlu sınıftır, hedef, gerçek pozitif oranı tüm gruplar için aynıdır.

Fırsat eşitliği, olanların eşit olmasıyla Bu da hem gerçek pozitif oranların hem de yanlış pozitif oranları tüm gruplar için aynıdır.

Glubbdubdrib Üniversitesi'nin hem Lilliputyalılar hem de Brobdingnagiyenleri kabul ettiğini varsayalım bir matematik programına dönüştürülebilir. Lilliputians Ortaöğretim okulları sağlam bir müfredat var ve öğrencilerin büyük çoğunluğu üniversite programına katılmaya hak kazanmıştır. Brobdingnagians ortaokullar ve sonuç olarak bu kursa sahip olan öğrencilerin çok daha azı gerekir. Tercih edilen etiket için fırsat eşitliği sağlanıyorsa "kabul edildi" uyruk açısından (Lilliputian veya Brobdingnagian) alakalıysa kabul edilme olasılığı ne olursa olsun, uygun niteliklere sahip öğrencilerin Lilliput ya da Brobdingnagian oldu.

Örneğin, 100 Lilliputian ve 100 Brobdingnagians takımının Glubbdubdrib Üniversitesi'ne ve kabul edilmeye ilişkin kararlar aşağıdaki gibi alınır:

Tablo 1. Lilliputian başvuruları (%90'ı uygun)

  Uygun Uygun Değil
Kabul edildi 45 3
Reddedildi 45 7
Toplam 90 10
Kabul edilen uygun öğrencilerin oranı: 45/90 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 7/10 =%70
Kabul edilen Lilliputya öğrencilerinin toplam yüzdesi: (45+3)/100 = %48

 

Tablo 2. Brobdingnagian'a başvuranlar (%10'u uygun):

  Uygun Uygun Değil
Kabul edildi 5 9
Reddedildi 5 81
Toplam 10 90
Kabul edilen uygun öğrencilerin oranı: 5/10 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 81/90 =%90
Kabul edilen Brobdingnagian öğrencilerinin toplam yüzdesi: (5+9)/100 = %14

Yukarıdaki örnekler, projenin kabul edilmesinde fırsat eşitliğinin nitelikli öğrencilerden oluştuğundan, hem nitelikli Lilliputanlar hem de Brobdingnagi'ler kabul edilme şansı% 50'dir.

Fırsat eşitliği sağlandığında şu iki adalet metriği memnun kalmazsınız:

  • demografik denklik: Lilliputanlar ve Brobdingnagialılar üniversiteye farklı oranlarda kabul edilir; Lilliputians öğrencilerinin% 48'i kabul edilirken bu öğrencilerin yalnızca% 14'ü Brobdingnagian öğrencileri kabul edildi.
  • eşitleştirilmiş oranlar: Uygun Lilliputian ve Brobdingnagian öğrencilerinin kabul edilme şansı da aynı, nitelendirmek zorunda olmayan Lilliputanlar ve Brobdingnagians'ın reddedilme olasılığı aynı, memnun kaldım. Nitelikli olmayan Lilliputanlar% 70 reddedilme oranına sahiptir nitelikli olmayan Brobdingnagi'lerin reddedilme oranı% 90'dır.

Bkz. " Fırsatı kaçırmayın: iki rolü de üstlenilebilir. Şunlara da bakabilirsiniz: "Saldırı ayrımcılıktan bahsediyor." Bu incelemenin amacı, ve fırsat eşitliği için optimizasyon yaparken üzerine düşünün.

eşit oranlar

#fairness

Bir modelin sonuçları eşit şekilde tahmin edip etmediğini değerlendirmek için kullanılan bir adalet metriği hassas bir özelliğin tüm değerleri için olumlu sınıfa ve negatif sınıf (sadece bir sınıfı veya diğeri değil) . Başka bir deyişle, hem gerçek pozitif oran ve yanlış negatif oranı tüm gruplar.

Oranların eşit olması ile fırsat eşitliği ve bu çerçevenin tek bir sınıfın hata oranları (pozitif veya negatif) için de geçerlidir.

Örneğin, Glubbdubdrib Üniversitesi'nin hem Lilliputyalıları hem de titiz bir matematik programına Lilliputians ikincil Okullar matematik derslerinden oluşan sağlam bir müfredat sunar ve öğrencileriniz üniversite programı için uygun niteliklere sahiptir. Brobdingnagians ikincil Okullar hiçbir matematik dersi sunmuyor ve bunun sonucunda nitelikli olmasını sağlar. Hiçbir riskin karşılanmaması için Lilliputyalı veya Brobdingnagian olabilir. programa kabul edilme olasılıkları da o kadar yüksektir. Uygun olmayanların reddedilme olasılıkları da eşittir.

Glubbdubdrib'e 100 Lilliput ve 100 Brobdingnagian'ın başvurduğunu varsayalım Üniversiteye ve kabul edilmeyle ilgili kararlar aşağıdaki şekilde verilir:

Tablo 3. Lilliputian başvuruları (%90'ı uygun)

  Uygun Uygun Değil
Kabul edildi 45 2
Reddedildi 45 8
Toplam 90 10
Kabul edilen uygun öğrencilerin oranı: 45/90 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 8/10 =%80
Kabul edilen Lilliputya öğrencilerinin toplam yüzdesi: (45+2)/100 = %47

 

Tablo 4. Brobdingnagian'a başvuranlar (%10'u uygun):

  Uygun Uygun Değil
Kabul edildi 5 18
Reddedildi 5 72
Toplam 10 90
Kabul edilen uygun öğrencilerin oranı: 5/10 =%50
Uygun olmayıp reddedilen öğrencilerin yüzdesi: 72/90 =%80
Kabul edilen Brobdingnagian öğrencilerinin toplam yüzdesi: (5+18)/100 = %23

Uygun Lilliput ve Brobdingnagian eşit olduğundan, şanslar eşittir her iki öğrencinin de kabul edilme şansı% 50 ve yeterli niteliklere sahip olmayan Lilliputanlar ve Brobdingnagian'ın reddedilme olasılığı% 80.

Denk oranlar resmi olarak " Gözetimli Öğrenimde Fırsat" ifadesini aşağıda bulabilirsiniz: "şarkıcı ►, eşitleştirilmiş ihtimalleri karşılar. Ŷ ve A bağımsızysa korunan A özelliğine ve Y sonucuna Y"ye bağlı."

Tahmin Aracı

#TensorFlow

Kullanımdan kaldırılan bir TensorFlow API. Bunun yerine tf.keras'ı kullanın en iyi uygulamaları görelim.

değerlendirmeler

#language
#generativeAI

Esas olarak LLM değerlendirmeleri için kısaltma olarak kullanılır. evals, daha geniş kapsamda değerlendirme.

değerlendirme

#language
#generativeAI

Bir modelin kalitesini ölçme veya farklı modelleri karşılaştırma süreci zannediyor.

Gözetimli makine öğrenimini değerlendirmek için bu modeli genellikle bir doğrulama kümesi ile karşılaştırarak değerlendirirsiniz. ve bir test kümesi bulunmalıdır. LLM'yi değerlendirme genellikle daha kapsamlı kalite ve güvenlik değerlendirmeleri gerektirir.

örnek

#fundamentals

Bir özellik satırının değerleri ve muhtemelen etiket ekleyin. Örnekler: gözetimli öğrenme genel kategoriler:

  • Etiketli bir örnek, bir veya daha fazla özellikten oluşur. ve bir etiket ekleyin. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş bir örnek şunlardan oluşur: daha fazla özellik var ancak etiketsiz. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, etki düzeyini belirlemek için bir modeli eğittiğinizi hava koşullarının nasıl etkilendiğini göz önünde bulundurun. Aşağıda üç etiketli örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda üç etiketsiz örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Bir veri kümesi satırı genellikle örneğin ham kaynağıdır. Yani bir örnek, genelde yeniden boyutlandırır. Ayrıca, bir örnekteki özellikler şunları da içerebilir: sentetik özellikler; örneğin, özellikler çakışıyor.

deneyimi tekrar oynatma

#rl

Pekiştirmeli öğrenmede, bir DQN tekniği ile eğitim verilerindeki zamansal korelasyonları azaltma. Temsilci durum geçişlerini bir tekrar oynatma arabelleğinde saklar ve daha eğitim verileri oluşturmak için tekrar oynatma arabelleğinden örnek geçişleri yapar.

deneycinin yanlılığı

#fairness

Onay yanlılığı bölümünü inceleyin.

patlayan gradyan problemi

#seq

Renk kısmının gradyan derin nöral ağlar (özellikle yinelenen nöral ağlar) olmak üzere çok dik (yüksek). Dik gradyanlar genellikle çok büyük güncellemelere neden olur Bu değerdeki her bir düğümün ağırlıklarına derin sinir ağını ele alalım.

Patlayan gradyan sorunundan muzdarip olan modeller zorlaşıyor eğitimim imkansızdır. Gradyan kırpma olabileceğini unutmayın.

Kaybolan gradyan problemi ile karşılaştırın.

C

F1

"Toplayıcı" ikili sınıflandırma metriğinin hem hassasiyete hem de geri çağırmaya dayanır. Formülü şu şekildedir:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

Örneğin, aşağıdaki gibi:

  • hassasiyet = 0,6
  • geri çağırma = 0,4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

Hassasiyet ve geri çağırma birbirine oldukça benzerse (önceki örnekte olduğu gibi) F1 ortalamasına yakındır. Hassasiyet ve geri çağırma farklı olduğunda F1 daha düşük değere daha yakındır. Örneğin:

  • hassasiyet = 0,9
  • geri çağırma = 0,1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

adalet kısıtlaması

#fairness
Bir veya daha fazla tanım sağlamak için algoritmaya kısıtlama uygulama memnun olduğunu anlayabilirsiniz. Adalet kısıtlarına örnek olarak aşağıdakiler verilebilir:

adalet metriği

#fairness

"Adaletin" matematiksel tanımı bir şablondur. Yaygın olarak kullanılan adalet metriklerinden bazıları şunlardır:

Birçok adalet metriği birbirini dışlar. bkz. Adalet metriklerinin uyumsuzluğu.

yanlış negatif (FN)

#fundamentals

Modelin rastgele bir şekilde negatif sınıf olarak değiştirin. Örneğin, model Belirli bir e-posta iletisinin spam olmadığını tahmin ederse (negatif sınıf) ancak bu e-posta iletisi aslında spam'dir.

yanlış negatif oranı

Modelin hata sonucu ortaya çıktığı gerçek pozitif örneklerin oranı negatif sınıfı tahmin etmiştir. Aşağıdaki formül yanlış değerini hesaplar negatif oran:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

yanlış pozitif (FP)

#fundamentals

Modelin rastgele bir şekilde olumlu bir sınıfa sahip olmanız gerekir. Örneğin, model, belirli bir e-posta iletisinin spam (olumlu sınıf) olduğunu, ancak E-posta iletisi aslında spam değildir.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla ihlal ettiği gerçek negatif örneklerin oranı pozitif sınıfı ile ilgili tahminidir. Aşağıdaki formül yanlış değerini hesaplar pozitif oran:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisindeki x eksenidir.

özellik

#fundamentals

Makine öğrenimi modeli için bir giriş değişkeni Örnek bir veya daha fazla özellikten oluşur. Örneğin, Yeşil Ofis projenizde modelini kullanmayı deneyin. Aşağıdaki tabloda her biri üç özellik ve bir etiket:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

label ile kontrast oluşturun.

özellik çapraz

#fundamentals

"Çapraz geçiş" ile oluşmuş bir sentetik özellik kategorik veya gruplandırılmış özellikler.

Örneğin, bir "ruh hali tahmini"ni düşünün. temsil eden bir sıcaklığa ihtiyacınız var:

  • freezing
  • chilly
  • temperate
  • warm

Ve aşağıdaki üç kovadan birindeki rüzgar hızını gösterir:

  • still
  • light
  • windy

Özellik kesişimleri olmadan, doğrusal model her bir şemanın önce yedi farklı grup bulunuyor. Bu nedenle model, örneğin freezing, örneğin, windy.

Alternatif olarak, sıcaklık özelliklerini kullanarak rüzgar hızı. Bu sentetik özellik için mümkün olan 12 değerleri:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Çapraz özellikler sayesinde model, ruh hali farklılıklarını öğrenebilir freezing-windy gün ile freezing-still gün arasında.

Her biri çok fazla ayrıntı içeren iki özellikten sentetik bir özellik oluşturuyorsanız her bir özellik grubuna dahil edilir, ortaya çıkan özellik çapraz kombinasyonudur. Örneğin, bir özellikte 1.000 paket varsa diğer özellikte 2.000 paket vardır. Elde edilen özellik çaprazı 2.000.000 paket.

Daha resmi olarak, bir çarpı Kartezyen ürün.

Özellik çaprazları çoğunlukla doğrusal modellerde ve nadiren kullanılır nöral ağlardaki yapay zeka sistemidir.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreçtir:

  1. Hangi özelliklerin faydalı olabileceğini belirleme bir model eğiteceğiz.
  2. Veri kümesindeki ham verileri verilerin verimli sürümlerine dönüştürmek özellikler.

Örneğin, temperature kategorisinin sizin için yararlı bir araç özelliğini kullanabilirsiniz. Daha sonra, gruplandırma ile denemeler yapabilirsiniz. modelin farklı temperature aralıklarından öğrenebileceğini optimize edin.

Özellik mühendisliği bazen özellik çıkarma veya özellikleştirme.

özellik çıkarma

Aşağıdaki tanımlardan birine sahip aşırı yüklenmiş terim:

özelliklerin önemi

#df

Değişken önem dereceleri ile eş anlamlı.

özellik grubu

#fundamentals

Makine öğreniminizin özellikleri grubu model eğitilir. Örneğin, posta kodu, mülk boyutu ve mülk durumu Konut fiyatlarını tahmin eden bir model için basit bir özellik kümesi oluşturmak.

özellik spesifikasyonu

#TensorFlow

Özellikler verilerini ayıklamak için gereken bilgileri açıklar tf.Example protokol arabelleğinden alınır. Çünkü Örnek protokol arabelleği yalnızca bir veri kapsayıcısıdır, şu:

  • Ayıklanacak veriler (yani özelliklerin anahtarları)
  • Veri türü (örneğin, kayan noktalı veya int)
  • Uzunluk (sabit veya değişken)

özellik vektörü

#fundamentals

Şunları içeren feature değerleri dizisi örnek için daha fazla bilgi edinin. Özellik vektörü eğitim sırasında ve çıkarım sırasında görüntülenebilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şu olabilir.

[0.92, 0.56]

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri
          0,92 ve 0,56 değerini içeren diğeri.

Her örnek, özellik vektörü için farklı değerler sağlar, dolayısıyla özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özellikleri kullanılabilir. Örneğin, beş olası değerle temsil edilebilir tek kullanımlık kodlama. Bu durumda, özellik vektörü dört sıfır ve üçüncü konumda tek bir 1, 0 olarak kabul edilir:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • beş olası değere sahip ikili bir kategorik özellik tek kullanımlık kodlama; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • üç olası değerin temsil edildiği başka bir ikili kategorik özellik tek kullanımlık kodlama ile; örneğin: [0.0, 0.0, 1.0]
  • kayan nokta özelliği örneğin: 8.3.

Bu durumda, her bir örneğin özellik vektörü dokuz değere göre. Yukarıdaki listede yer alan örnek değerlere özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

özellik kazanma

Bir giriş kaynağından özellikleri ayıklama işlemi ve bu özellikleri farklı bir dilde birleştirmeyi özellik vektörü olarak ayarlayın.

Bazı makine öğrenimi uzmanları, özellik mühendisliği veya özellik çıkarma.

birleşik öğrenim

Eğityen, dağıtılmış bir makine öğrenimi yaklaşımı merkezi olmayan sistemi kullanarak makine öğrenimi modellerini akıllı telefonlar gibi cihazlarda bulunan örnekler. Birleşik öğrenimde, cihazların bir alt kümesi geçerli modeli indirir merkezi koordinasyon sunucusundan alınır. Cihazlar, depolanan örnekleri kullanır. modelde iyileştirmeler yapmak için modelde. Cihazlar, daha sonra koordinasyonun sağlanmasına yönelik model iyileştirmeleri (eğitim örnekleri değil) daha iyi bir sonuç elde etmek için diğer güncellemelerle toplanır küresel modeldir. Toplama işleminden sonra model, cihazlar tarafından hesaplanan güncellenir. artık gerekli değildir ve silinebilir.

Eğitim örnekleri hiçbir zaman yüklenmediğinden, birleşik öğrenimde odaklı veri toplama ve minimum veri toplama için gizlilik ilkelerine değineceğiz.

Birleşik öğrenim hakkında daha fazla bilgi için bu eğitime bakın.

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin sonucu etkiler. verileri eğitir. Örneğin, Yeşil Ofis’in kullanıcıların izlediği filmleri etkiler ve bu da ve sonraki film öneri modellerini etkilemektedir.

feed-ileri nöral ağ (FFN)

Döngüsel veya yinelemeli bağlantıları olmayan nöral ağ. Örneğin, geleneksel derin nöral ağların beslenen nöral ağlardır. Yinelenen nöral ile kontrast ağları oluşturun.

birkaç çekimle öğrenme

Genellikle nesne sınıflandırması için kullanılan makine öğrenimi yaklaşımı az sayıda kullanıcıdan etkili sınıflandırıcılar eğitmek için tasarlanmıştır. örneklerine göz atalım.

Ayrıca bkz. tek seferlik öğrenme ve sıfır çekimle öğrenme.

birkaç atışlık istem

#language
#generativeAI

Birden fazla ("birkaç") örnek içeren istem Bu da büyük dil modelinin cevap vermelidir. Örneğin, aşağıdaki uzun istemde iki veya daha fazla büyük dil modelini gösteren örnekler.

Tek bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: EUR Bir örnek.
Birleşik Krallık: GBP Başka bir örnek.
Hindistan: Asıl sorgu.

Birkaç denemede bulunulması genellikle sıfır çekim istemi ve tek seferlik istem. Bununla birlikte, birkaç atışlık istem daha uzun bir istem gerektirir.

Birkaç denemede yer alan istemler, birkaç hızlı öğrenme yöntemidir. isteme dayalı öğrenime uygulanır.

Keman

#language

Python öncelikli bir yapılandırma kitaplığı işlevlerin ve sınıfların değerlerini daha belirgin hale getirir. Pax ve diğer makine öğrenimi kod tabanları söz konusu olduğunda, bu işlevler sınıflar modelleri ve eğitimi temsil eder hiperparametreler.

Kemal makine öğrenimi kod tabanlarının tipik olarak şu şekilde bölündüğünü varsayar:

  • Katmanları ve optimize edicileri tanımlayan kitaplık kodu.
  • Veri kümesi "yapıştırıcı" kodu içeren bu kod, kitaplıkları çağırarak her şeyi birbirine bağlar.

Fiddle, birleştirici kodun çağrı yapısını değerlendirilmemiş ve bir biçimdir.

ince ayar

#language
#image
#generativeAI

İkinci bir, göreve özgü eğitim sınavından önceden eğitilmiş bir modelden yararlanarak kullanım alanına özgüdür. Örneğin, bazı eğitim kurumları için tam eğitim büyük dil modellerini aşağıdaki gibi görebilirsiniz:

  1. Ön eğitim: Büyük bir dil modelini kapsamlı bir genel veri kümesiyle eğitin. İngilizcedeki tüm Vikipedi sayfaları gibi.
  2. İnce ayar: Önceden eğitilmiş modeli belirli bir görevi gerçekleştirecek şekilde eğitin. örneğin tıbbi sorgulara yanıt verebilir. Hassas ayarlamalar genellikle belirli bir göreve odaklanan yüzlerce ya da binlerce örnek olabilir.

Başka bir örnek olarak, büyük bir görüntü modeli için tam eğitim sırası şöyle olur:

  1. Eğitim öncesi: Büyük bir resim modelini kapsamlı bir genel resim üzerinde eğitin Wikimedia Commons'taki tüm görüntüler gibi.
  2. İnce ayar: Önceden eğitilmiş modeli belirli bir görevi gerçekleştirecek şekilde eğitin. Örneğin orkaların resimlerini üretmek.

İnce ayar, aşağıdaki stratejilerin herhangi bir kombinasyonunu gerektirebilir:

  • Önceden eğitilmiş mevcut modelin tümünü değiştirme parametrelerini kullanın. Bu işlem bazen tam ince ayar olarak da adlandırılır.
  • Önceden eğitilmiş modelin mevcut parametrelerinden yalnızca bazılarını değiştirme (genellikle çıkış katmanına en yakın katmanlar), mevcut parametreleri değiştirmeden (genellikle giriş katmanına en yakın olan) girin. Görüntüleyin parametre açısından verimli ayarlama.
  • Daha fazla katman (genellikle şuna en yakın mevcut katmanların üzerine) çıkış katmanıdır.

İnce ayar, bir öğrenmeyi aktarma biçimidir. Bu nedenle, ince ayar için farklı bir kayıp fonksiyonu veya farklı bir model kullanılabilir modeli eğitmek için kullanılan modellerden farklıdır. Örneğin herkesin regresyon modeli oluşturmak için önceden eğitilmiş büyük bir görüntü modeline bir giriş görüntüsündeki kuş sayısını döndürür.

İnce ayarları aşağıdaki terimlerle karşılaştırın:

Keten

#language

Yüksek performanslı bir açık kaynak kitaplığı: JAX üzerine inşa edilen derin öğrenme. Flax, çeşitli işlevleri ve eğitim nöral ağları için de geçerlidir yöntemleri olarak kullanabilir.

Keten Şeklinde

#language

Açık kaynak bir Transformer kitaplık, temel olarak doğal dil işleme için tasarlanmış Flax'ta geliştirilmiştir geliştirmeyi öğreneceksiniz.

kapıyı unut

#seq

Uzun Kısa Süreli Belleğin bölümü hücre boyunca bilgi akışını düzenleyen hücre. Hangi bilgilerin silineceğine karar vererek kapıları unutun. hücre durumundan değiştirebilirsiniz.

tam softmax

softmax ile eş anlamlıdır.

Aday örneklemeyle kontrast.

tamamen bağlı katman

Her bir düğümün içinde bulunduğu gizli katman sonraki gizli katmandaki her düğüme bağlanır.

Tamamen bağlı katman yoğun katman olarak da bilinir.

işlev dönüşümü

Bir işlevi girdi olarak alan ve dönüştürülmüş bir işlev döndüren fonksiyon çıkış olarak kullanabilirsiniz. JAX, işlev dönüşümlerini kullanır.

Y

Çekişmeli üretken ağlar (GAN)

Üretken saldırganın kısaltması ağ.

genelleme

#fundamentals

Bir modelin yeni, gelişmiş, normal verilere uygulanır. Genelleme yapabilen bir model için ise tam tersi geçerlidir fazla uyumlu bir model.

Gemini

#language
#image
#generativeAI

Google'ın en gelişmiş yapay zeka sisteminin yer aldığı ekosistemdir. Bu ekosistemin öğeleri şunlardır:

Gemini modelleri

#language
#image
#generativeAI

Google'ın Transformer tabanlı son teknoloji ürünü çok modlu modelleri destekler. Gemini modelleri özellikle aracılarla entegre olacak şekilde tasarlanmıştır.

Kullanıcılar, Gemini modelleriyle çeşitli şekillerde etkileşim kurabilirler. Örneğin: ve SDK'lar aracılığıyla iletişim kurabilir.

genelleme eğrisi

#fundamentals

Hem eğitim kaybı hem de doğrulama kaybı: iterasyonlar.

Genelleme eğrisi, olası durumları fazla uyum. Örneğin, genelleme eğrisi fazla uyum sağlıyor çünkü doğrulama kaybı eğitim kaybından önemli ölçüde daha yüksektir.

Y ekseninin kayıp ve x ekseni olarak etiketlendiği Kartezyen grafiği
          iterasyonlar olarak etiketlenir. İki tane grafik gösteriliyor. Grafiklerden biri
          diğeri ise doğrulama kaybını gösterir.
          İki olay benzer şekilde başlıyor ama eğitim kaybı nihayetinde
          değeri doğrulama kaybından çok daha düşüktür.

genelleştirilmiş doğrusal model

En az kareler regresyonunun bir genelleştirilmesi Bunlar, Google’da Gauss gürültü, diğer diğer gürültü türlerine dayalı model türleri Poisson gürültüsü veya kategorik gürültü. Genelleştirilmiş doğrusal modellere örnek olarak şunlar verilebilir:

Genelleştirilmiş bir doğrusal modelin parametreleri dışbükey optimizasyon.

Genelleştirilmiş doğrusal modeller aşağıdaki özellikleri gösterir:

  • Optimum en küçük kareler regresyon modelinin ortalama tahmini eğitim verilerindeki ortalama etikete eşittir.
  • Optimum mantıksal regresyon tarafından tahmin edilen ortalama olasılık model, eğitim verilerindeki ortalama etikete eşittir.

Genelleştirilmiş bir doğrusal modelin gücü, özellikleriyle sınırlıdır. Beğenmeyi kaldır genelleştirilmiş bir doğrusal model "yeni özellikler öğrenemez".

ürkütücü üretken ağ (GAN)

Oluşturucu tarafından yeni veriler oluşturmak için kullanılan bir ayırıcı bu kişinin oluşturulan verilerin geçerli olup olmadığını kontrol edin.

üretken yapay zeka

#language
#image
#generativeAI

Resmi tanımı olmayan, yeni gelişen ve dönüştürücü bir alan. Bununla birlikte çoğu uzman, üretken yapay zeka modellerinin aşağıdakilerin tümüne sahip bir içerik oluşturma ("oluşturma"):

  • karmaşık
  • tutarlı
  • orijinal

Örneğin, üretken yapay zeka modeli ile makale veya resim kullanabilirsiniz.

LSTMs gibi bazı eski teknolojiler ve RNN'ler gibi özgün ve tutarlı içeriğe sahip olmasını sağlar. Bazı uzmanlar bu eski teknolojilerin üretken yapay zeka, gerçek üretken yapay zekanın daha karmaşık ve eski teknolojilerden çok daha fazla verim sağlayabilir.

Tahmine dayalı makine öğrenimi ile kontrast oluşturun.

üretken model

Pratikte aşağıdakilerden birini yapan bir model:

  • Eğitim veri kümesinden yeni örnekler oluşturur. Örneğin, üretken bir model eğitimden sonra şiir oluşturabilir. bir veri kümesi üzerinde çalışıyoruz. Bir etkinliğin oluşturma kısmı üretken rakipler ağı bu kategoride yer alır.
  • Yeni bir örneğin ya da kullanıcı arabirimini oluşturan aynı mekanizmadan belirlemektir. Örneğin, Ürün İş Listesi’yle ilgili İngilizce cümlelerden oluşan bir veri kümesi kullanıyorsanız üretken bir model yeni girişin geçerli bir İngilizce cümle olma olasılığını belirler.

Üretken bir model, örneklerin dağılımını teorik olarak ayırt edebilir özellikler hakkında daha fazla bilgi edindiniz. Yani:

p(examples)

Gözetimsiz öğrenme modelleri üretkendir.

Ayrımcı modelleri kullanın.

oluşturma aracı

Üretken zahmetli bir reklamveren içindeki alt sistem ağ kullanarak yeni örnekler oluşturabilirsiniz.

Ayrımcılık modeli ile kontrast oluşturun.

cin saflığı

#df

Entropi'ye benzer bir metrik. Ayırıcılar oluşturmak için gi saflığı veya entropiden elde edilen değerleri kullanma sınıflandırma için koşulları karar ağaçları oluşturun. Bilgi kazancı entropiden türetilir. Türetilen metrik için evrensel olarak kabul edilmiş bir eşdeğer terim yoktur cin saflığından dolayı; Ancak bu adsız metrik, kampanya yönetimi kadar yardımcı olabilir.

Gini kirliliği, gini endeksi veya kısaca gini olarak da adlandırılır.

altın veri kümesi

Kesin referansları yakalayan, manuel olarak seçilmiş bir veri kümesi. Ekipler bir modelin kalitesini değerlendirmek için bir veya daha fazla altın veri kümesi kullanabilir.

Bazı altın veri kümeleri, gerçek doğrunun farklı alt alanlarını yakalar. Örneğin, görüntü sınıflandırma için altın bir veri kümesi, aydınlatma koşullarını yakalayabilir ve resim çözünürlüğü.

GPT (Önceden Eğitilmiş Üretici Dönüştürücü)

#language

Transformer tabanlı bir aile grubu tarafından geliştirilen büyük dil modellerini OpenAI.

GPT varyantları, aşağıdakiler de dahil olmak üzere birden fazla moda uygulanabilir:

  • resim üretme (örneğin, ImageGPT)
  • metinden görsele dönüştürme (örneğin, DALL-E) içerebilir.

gradyan

Şuna göre kısmi türevlerin vektörü: dahil edilir. Makine öğreniminde gradyan model fonksiyonunun kısmi türevlerinin vektörü. Gradyan noktaları sağa doğru ilerleyin.

gradyan birikimi

Geri yayılım tekniğinde, parametreler her ay bir yerine yalnızca dönem başına bir kez iterasyon ile yapılır. Her bir mini grup işlendikten sonra, gradyan toplamı, çalışan toplam gradyanları günceller. Ardından, sonrasında dönemin son mini toplu işini işlerse, sistem nihayet güncelleme yapar. renk geçişi değişikliklerinin toplamına göre değiştirin.

Gradyan birikmesi, toplu boyutun eğitim için kullanılabilir bellek miktarına kıyasla çok daha büyük. Bellek sorun teşkil ettiğinde, doğal eğilim grup boyutunu azaltmaktır. Bununla birlikte, normal geri yayılımda grup boyutunu azaltmak daha fazla parametre güncellemelerinin sayısı. Gradyan birikmesi, modelin verimli bir şekilde eğitilmeye devam ediyor.

gradyan zenginleştirilmiş (karar) ağaçlar (GBT)

#df

Aşağıdakilerin tamamlandığı bir karar ormanı türü:

gradyan artırma

#df

Zayıf modellerin yinelemeli şekilde eğitildiği bir eğitim algoritması ve güçlü bir modelin kalitesini artırır (kayıpları azaltır). Örneğin, doğrusal veya küçük bir karar ağacı modeli olabilir. Güçlü model, önceden eğitilen tüm zayıf modellerin toplamı olur.

En basit gradyan artırma biçiminde, her iterasyonda güçlü modelin kayıp gradyanını tahmin etmek üzere eğitilir. Ardından, güçlü modelin çıkışı, tahmin edilen gradyan çıkarılarak güncellenir gradyan azalmaya benzer.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

Bu örnekte:

  • $F_{0}$, başlangıçtaki güçlü modeldir.
  • Bir sonraki güçlü model $F_{i+1}$.
  • $F_{i}$ şu anki güçlü modeldir.
  • $\xi$, daraltma adı verilen 0,0 ile 1,0 arasında bir değerdir, Bu, öğrenme hızı izin verilir.
  • $f_{i}$, kayıp gradyanını tahmin etmek için eğitilen zayıf modeldir $F_{i}$.

Gradyan artırmanın modern versiyonları, ikinci türevi de içerir (Hessian) ortaya çıktı.

Karar ağaçları bir teknolojinin yönetiminde zayıf model olarak yaygın basit bir geçiş şeması oluşturabilirsiniz. Görüntüleyin gradyan artırılmış (karar) ağaçları.

gradyan kırpma

#seq

risklerin etkilerini azaltmak amacıyla yaygın olarak kullanılan yapay olarak patlayan gradyan problemi kullanırken gradyanların maksimum değerini sınırlandırma (kaydırma) gradyan iniş: bir modeli eğitmek için.

gradyan iniş

#fundamentals

Kaybı en aza indirmek için kullanılan matematiksel teknik. Gradyan iniş yinelemeli olarak ayarlanır ağırlıklar ve ön yargılar, kaybı en aza indirmek için en iyi kombinasyonu bulmak üzere kademeli olarak kullanılır.

Gradyan iniş, makine öğreniminden çok daha eskidir.

grafik

#TensorFlow

TensorFlow'da bir hesaplama spesifikasyonu. Grafikteki düğümler işlemleri temsil eder. Kenarlar yönlendiriliyor ve sonucun iletilmesini temsil ediyor bir işlemin (Tensor) işleneni başka bir işleme taşır. Tekliflerinizi otomatikleştirmek ve optimize etmek için Bir grafiği görselleştirmek için TensorBoard.

grafik yürütme

#TensorFlow

Programın ilk olarak oluşturduğu TensorFlow programlama ortamı bir grafik, ardından bu grafiğin tamamını veya bir kısmını yürütür. Grafik yürütme, TensorFlow 1.x'teki varsayılan yürütme modudur.

Hızlı yürütme ile karşıtlık.

açgözlü politika

#rl

Pekiştirmeli öğrenmede, politika her zaman beklenen en yüksek dönüşü sağlayan işlem.

gerçek doğru

#fundamentals

Gerçeklik.

Meydana gelen şey.

Örneğin, ikili sınıflandırmayı kullanabilirsiniz. bir öğrencinin üniversitenin ilk yılında olup olmadığını tahmin eden bir model mezun olur. Bu modele ilişkin gerçek doğru, bitirememesine neden olabilir.

grup ilişkilendirme önyargısı

#fairness

Bir birey için doğru olanın herkes için de geçerli olduğunu varsayarsak seçim yapabilirsiniz. Grup ilişkilendirme yanlılığının etkileri daha da artabilir kullanışlı örnekleme veri toplama amacıyla kullanılır. Doğru temsil etmeyen bir örnekte, ilişkilendirmeler gerçeği yansıtmayacak şekilde geliştirilebilir.

Ayrıca grup dışı homojenlik yanlılığı bölümüne de bakın ve grup içi ön yargı.

H

halüsinasyon

#language

Bir kullanıcı tarafından, makul görünen ancak olgusal açıdan yanlış çıktıların üretilmesi üretken yapay zeka modeli ortaya çıkarmasını sağlamaya yardımcı olur. Örneğin, Barack Obama'nın 1865'te öldüğünü iddia eden bir üretken yapay zeka modeli halüsinasyona giriyor.

karma oluşturma

Makine öğreniminde paketleme mekanizması kategorik veriler (özellikle ancak kategorilerin sayısı çok fazla olsa da nispeten küçüktür.

Örneğin, Dünya yaklaşık 73.000 ağaç türüne ev sahipliği yapar. Yapabilecekleriniz 73.000 ayrı kategorik 73.000 ağaç türünün her birini temsil eder paket. Alternatif olarak, bu ağaç türlerinden yalnızca 200 tanesi veri kümesinde karma oluşturma işlemini kullanarak ağaç türlerini belki 500 kova olabilir.

Bir kovada birden fazla ağaç türü olabilir. Örneğin, karma oluşturma baobab ve kırmızı akçaağaç (genetik olarak farklı ikisi) aynı kovaya gönderir. Karma oluşturma işlemi her şeyden bağımsız olarak, Büyük kategorik kümeleri, seçilen sayıda paketle eşleme. Karma oluşturma işlemi büyük sayıda olası değere sahip kategorik özellik daha küçük sayıda değer için bir değer yazarak yöntemidir.

bulgusal

Bir sorun için basit ve hızlı bir şekilde uygulanan çözüm. Örneğin, "Bulsal bir yöntemle, %86 doğruluk oranına ulaştık. Yeni bir doğruluk oranı %98'e yükseldi."

gizli katman

#fundamentals

Bir sinir ağında bulunan katman giriş katmanı (özellikler) ve çıkış katmanı (tahmin). Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ iki gizli katman içerir: ilki üç nöron, ikincisi ise iki nöronludur:

Dört katmanlı. İlk katman, iki katman içeren bir giriş katmanıdır
          özellikleri. İkinci katman, aynı sayfada yer alan üç
          sinir hücreleri. Üçüncü katman, iki katmanın bulunduğu gizli bir katmandır.
          sinir hücreleri. Dördüncü katman bir çıktı katmanıdır. Her bir özellik
          her biri farklı bir nörona işaret eden üç kenar içerir
          yer alır. İkinci katmandaki nöronların her biri
          iki kenar içerir ve her biri farklı bir nörona işaret eder
          üçüncü katmanda yer alır. Üçüncü katmandaki nöronların her biri
          her biri çıktı katmanını işaret edecek şekilde bir kenara yerleştirilmelidir.

Derin nöral ağda birden fazla gizli katman. Örneğin, önceki çizimde derin sinirsel ağda iki katman bulunur.

hiyerarşik kümeleme

#clustering

Ağaç oluşturan bir kümeleme algoritmaları kategorisi kümesidir. Hiyerarşik kümeleme, hiyerarşik veriler için çok uygundur. RACI matrisine geldi. İki tür hiyerarşik kümeleme algoritmaları:

  • Toplayıcı kümeleme öncelikle her örneği kendi kümesine atar. ve bir hiyerarşik oluşturmak için en yakın kümeleri yinelemeli olarak birleştirir. ağacı.
  • Bölünmüş kümeleme önce tüm örnekleri bir küme halinde gruplandırır, ardından kümeyi yinelemeli olarak hiyerarşik bir ağaca böler.

Merkez temelli kümeleme ile kontrast oluşturun.

menteşe kaybı

Şu yönetici için bir kayıp işlevi ailesi en iyi sonuçları bulmak için tasarlanmış sınıflandırmayı mümkün olduğunca uzak karar sınırı her bir eğitim örneğinden Böylece örnekler ve sınırlar arasındaki fark en üst düzeye çıkarılır. KSVM'ler menteşe kaybı (veya menteşe kaybı karesine karşılık gelir). İkili sistem sınıflandırmasında menteşe kaybı işlevi şu şekilde tanımlanır:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

Burada y doğru etikettir (-1 veya +1); y' ise ham çıktıdır şu sınıflandırmayı ele alacağız:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Sonuç olarak, menteşe kaybı ve (y * y') grafiği aşağıdaki gibi görünür:

Birleştirilmiş iki çizgi segmentinden oluşan Kartezyen grafik. İlk
          çizgi segmenti (-3, 4) ile başlar ve (1, 0) ile sona erer. İkinci satır
          segment (1, 0) ile başlar ve süresiz olarak bir eğimle devam eder
          / 0.

tarihsel önyargı

#fairness

Dünyada zaten mevcut olan ve bir veri kümesi haline geldi. Bu yanlılıkların, mevcut tecrübeleri kültürel klişeler, demografik eşitsizlikler ve belirli bir kuruma karşı sosyal gruplar.

Örneğin, şu özelliklere sahip bir sınıflandırma modeli oluşturabilirsiniz: kredi başvurusu sahibinin kredisini tedavüle sokup etmeyeceğini tahmin eder. 1980'lere ait geçmiş kredi varsayılanı verileri üzerine eğitim verdim ve bir araya geldi. A Topluluğu'ndaki eski başvuru sahipleri, B Topluluğunun başvuru sahiplerine kıyasla daha fazla kredilerini öz geçmişler. tarihsel bir önyargı algılayabilir ve bu da modelin olası satış Bu durum, söz konusu projenin gerçekleşmesine neden olan geçmiş koşullar bu topluluğun daha yüksek olan varsayılan oranları artık alakalı değildi.

muhafaza verileri

Eğitim sırasında kasıtlı olarak kullanılmayan ("basılı") örnekler. Doğrulama veri kümesi ve test veri kümesi, muhafaza verisi örnekleridir. Verileri muhafaza etme modelinizin verileri olabilir. Devre dışı bırakma setindeki kayıp, (Görülmemiş bir veri kümesindeki kayba kıyasla) eğitim seti var.

düzenleyen

#TensorFlow
#GoogleCloud

Bir makine öğrenimi modelini hızlandırıcı çiplerinde eğitirken (GPU'lar veya TPU'lar), sistemin bir parçasıdır. şunları kontrol eder:

  • Kodun genel akışı.
  • Giriş ardışık düzenini ayıklama ve dönüştürme.

Ana makine genellikle bir hızlandırıcı çipinde değil, CPU'da çalışır. "the" device cihazındaki tensörleri manipüle eder. hızlandırıcı çipleri.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin bir model eğitirken ayarlamalara yardımcı olur. Örneğin, öğrenme hızı bir hiperparametredir. Yapabilecekleriniz öğrenme hızını bir eğitim oturumundan önce 0,01 olarak ayarlayın. Şu durumda: çok yüksek olduğunu tespit edebiliyorsanız, öğrenme davranışını buna göre ayarlayabilirsiniz. oranını 0,003’e yükseltebilirsiniz.

Buna karşılık parametreler, ağırlıklar ve ön yargılar öğrenir.

hiper düzlem

Bir boşluğu iki alt uzaya ayıran sınır. Örneğin, bir çizgi bir hiper düzlem üç boyutlu bir hiper düzlemdir. Daha genel olarak makine öğreniminde hiper düzlem, bir yapay zekayı birbirinden ayıran sınırdır yüksek boyutlu uzay. Çekirdek Destek Vektör Makineleri kullanımı pozitif sınıfları negatif sınıflardan ayırmak için hiper düzlemler oluşturarak yüksek boyutlu uzay.

I

i.i.d.

Bağımsız ve aynı olarak dağıtılmış anlamına gelen kısaltma.

resim tanıma

#image

Bir görüntüdeki nesneleri, desenleri veya kavramları sınıflandıran işlem. Görüntü tanıma, görüntü sınıflandırması olarak da bilinir.

Daha fazla bilgi için bkz. ML Pratiği: Görüntü Sınıflandırma.

dengesiz veri kümesi

Sınıf dengesiz veri kümesi ile eş anlamlıdır.

örtülü önyargı

#fairness

Kişinin zihnine göre otomatik olarak bir ilişkilendirme veya varsayımda bulunma modeller. Dolaylı önyargı aşağıdakileri etkileyebilir:

  • Verilerin toplanma ve sınıflandırılması.
  • Makine öğrenimi sistemlerinin nasıl tasarlanıp geliştirildiği.

Örneğin, düğün fotoğraflarını tanımlamak için bir sınıflandırıcı oluştururken, bir mühendisin fotoğraftaki beyaz elbise içermesini özellik olarak kullanıyor olabilir. Ancak beyaz elbiseler geleneksel olarak yalnızca belirli dönemlerde bazı kültürlerde var.

Ayrıca onay yanlılığı konusuna bakın.

tahmin

Kısa değer tahmini biçimi.

adalet metriklerinin uyumsuzluğu

#fairness

Bazı adalet kavramlarının karşılıklı olarak uyumsuz olduğu emin olunamaz. Sonuç olarak, adaletin ölçülmesi için evrensel metrik pratiğe dökebilirsiniz.

Bu cesaret kırıcı gibi görünse de adalet metriklerinin anlamına gelmez. Bunun yerine makine öğrenimi problemi için adaletin bağlamsal olarak tanımlanması gerektiğini kullanım alanlarına özgü zararları önleme amacı vardır.

Bkz. " (im)imkansızlık" konusunu inceleyebilirsiniz.

bağlam içi öğrenme

#language
#generativeAI

Birkaç çekim istemi ile eş anlamlıdır.

bağımsız ve özdeş şekilde dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımdan alınan veriler ve her değerin önceden çizilen değerlere bağlı değildir. Kimliği ideal gazdır makinenin yararlı bir matematiksel yapıdır; ancak neredeyse hiçbir zaman görebilirsiniz. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı kimliği olabilir kısa bir süre içinde yani dağıtım kısa bir süre içinde değişir ve bir kişinin ziyareti genellikle ne olduğunu öğreneceğiz. Ancak bu zaman aralığını genişletirseniz Web sayfasının ziyaretçilerinde mevsimsel farklılıklar görülebilir.

Ayrıca bkz. durağansızlık.

bireysel adalet

#fairness

Benzer kişilerin sınıflandırılıp sınıflandırılmadığını kontrol eden bir adalet metriği benzer. Örneğin, Brobdingnagian Academy programı iki öğrencinin aynı sınıfa sahip olmasını sağlayarak bireylerin ve standartlaştırılmış test puanlarının kabul edilme olasılığı eşittir.

Bireysel adaletin tamamen "benzerliği" tanımlama şeklinize dayandığını unutmayın (bu durumda notlar ve test puanları) olur. Böyle bir durumda, benzerlik metriğiniz önemli noktaları gözden kaçırırsa yeni adalet problemleri (ör. öğrencinin müfredatının katılığı)

Bkz. "Adalet Farkındalık".

çıkarım

#fundamentals

Makine öğreniminde, yeni bir araçla tahminde bulunma süreci etiketsiz örneklere eğitilmiş bir model uygulama.

Çıkarım, istatistiklerde biraz farklı bir anlama sahiptir. Bkz. İstatistiksel çıkarımla ilgili Wikipedia makalesi'nde bulabilirsiniz.

çıkarım yolu

#df

Bir karar ağacında, çıkarım sırasında, belirli bir örneğin diğer koşullara kök ve yaprak. Örneğin, aşağıdaki karar ağacında, kalın oklar aşağıdaki gibi bir örneğin çıkarım yolunu gösterir özellik değerleri:

  • x = 7
  • y = 12
  • z = -3

Aşağıdaki çizimde yer alan çıkarım yolu, gereken koşulları (Zeta) gösterir.

Dört koşul ve beş yapraktan oluşan bir karar ağacı.
          Kök koşulu (x > 0) şeklindedir. Cevap Evet olduğu için
          çıkarım yolu, kökten bir sonraki koşula (y > 0) gider.
          Cevap Evet olduğundan, çıkarım yolu
          sonraki koşul (z > 0). Cevap Hayır olduğu için çıkarım yolu
          yaprak olan terminal düğümüne (Zeta) gider.

Üç kalın ok, çıkarım yolunu gösterir.

bilgi kazancı

#df

Karar ormanlarında, bir düğümün entropisi ve ağırlıklı (örnek sayısına göre) alt düğümlerinin entropi toplamıdır. Düğümün entropisi, görebilirsiniz.

Örneğin, aşağıdaki entropi değerlerini dikkate alın:

  • üst düğümün entropisi = 0,6
  • 16 alakalı örnekle birlikte bir alt düğümün entropisi = 0,2
  • 24 alakalı örnekle başka bir alt düğümün entropisi = 0,1

Yani örneklerin% 40'ı bir alt düğümde, %60'ı ise tıklayın. Bu nedenle:

  • alt düğümlerin ağırlıklı entropi toplamı = (0,4 * 0,2) + (0,6 * 0,1) = 0,14

Yani bilgi kazancı şu şekildedir:

  • bilgi kazancı = üst düğümün entropisi - alt düğümlerin ağırlıklı entropi toplamı
  • bilgi kazancı = 0,6 - 0,14 = 0,46

Çoğu ayırıcı koşullar oluşturmayı amaçlar. yaygın veri türlerini konuşacağız.

grup içi önyargı

#fairness

Kişinin kendi grubuna veya kendi özelliklerine karşı tarafsızlık yapma. Test kullanıcıları veya değerlendiriciler, makine öğrenimi geliştiricisinin arkadaşlarından oluşuyorsa veya iş arkadaşları gibi olumsuzluklar varsa grup içi önyargılar, ürün testlerini geçersiz kılabilir veya veri kümesi olabilir.

Grup içi önyargı grup ilişkilendirme yanlılığı hakkında daha fazla bilgi edinin. Ayrıca grup dışı homojenlik ön yargısı konusuna da bakın.

giriş oluşturucu

Verilerin yüklenmesi için kullanılan mekanizma sinirsel ağ.

Giriş oluşturucu, işlemden sorumlu bir bileşen olarak düşünülebilir ham verileri, tekrar tekrar tensörlere dönüştürür ve bu tensörler için gruplar eğitim, değerlendirme ve çıkarım.

giriş katmanı

#fundamentals

İşlemin gerçekleştirilmesine olanak tanıyan nöral ağın katmanı özellik vektörünü barındırır. Yani giriş katmanı eğitim için örnekler sağlar veya çıkarım. Örneğin, aşağıdaki örnekteki giriş katmanı nöral ağ iki özellikten oluşur:

Dört katman: bir giriş katmanı, iki gizli katman ve bir çıkış katmanı.

setteki koşul

#df

Karar ağacında, bir koşul bir öğenin mevcut olup olmadığını test eden bir test yöntemidir. Örneğin, aşağıda ayarlanan bir koşul verilmiştir:

  house-style in [tudor, colonial, cape]

Çıkarım sırasında, ev stili özelliğin değeri tudor veya colonial ya da cape ise bu koşul Evet olarak değerlendirilir. Eğer ev stili özelliğinin değeri başka bir şeydir (örneğin, ranch), bu koşul, Hayır olarak değerlendirilir.

Belirli koşullar altında genellikle tek kullanımlık kodlanmış özellikleri test eden koşulları tanımlayın.

örnek

example ile eş anlamlıdır.

talimat ayarlama

#generativeAI

Kullanıcılarınızın deneyimini iyileştiren bir ince ayar üretken yapay zeka modelinin takip edebilme bakın. Talimat ayarlama, bir modeli bir seri üzerinde eğitmeyi içerir genellikle geniş bir kapsamı kapsayan çeşitli görevler vardır. Ortaya çıkan talimat ayarlamalı model ise sıfır çekimlik istemlere faydalı yanıtlar oluşturma çeşitli görevlerde çalışabilir.

Karşılaştıracak olanları kıyaslama ve karşılaştırma:

yorumlanabilirlik

#fundamentals

Makine öğrenimi modelinin mantığını açıklayabilme veya daha kolay anlaşılır hale getirir.

Örneğin çoğu doğrusal regresyon modeli, çok önemlidir. (Her biri için eğitilen ağırlıklara bakmanız yeterlidir. feature.) Karar ormanları da çok kolay yorumlanabilir. Ancak bazı modeller yorumlanabilir hale gelmesi için karmaşık görselleştirmeye ihtiyaç vardır.

URL parametrelerinin Google tarafından nasıl ele alınmasını istediğinizi belirtmek için Öğrenme Yorumlanabilirlik Aracı (LIT) makine öğrenimi modellerini yorumlamak için kullanır.

derecelendirmeler arası sözleşme

Derecelendirme yapan kişilerin bir görevi yerine getirirken ne sıklıkla hemfikir olduğunun ölçümü. Derecelendirme yapan kişiler aynı fikirde değilse görev talimatlarının iyileştirilmesi gerekebilir. Bazen not oluşturucu sözleşmesi olarak da adlandırılır. derecelendirmeler arası güvenirliği hakkında daha fazla bilgi edinin. Şu kaynakları da inceleyin Cohen'in kappa, Bu ölçüm, değerlendiriciler arası en popüler ölçümlerden biridir.

tümleşik kesişim (IoU)

#image

İki kümenin birleşimine bölünen kesişimi. Makine öğreniminde algılama görevleri için IoU (IoU), modelin ekran üzerindeki şununla ilgili olarak tahmini sınırlayıcı kutu: kesin referans sınırlayıcı kutusu. Bu durumda, iki kutu, örtüşen alan ile toplam alan arasındaki orandır. değeri 0 arasında değişir (tahmini sınırlayıcı kutu ile kesin referansın çakışması yoktur) sınırlayıcı kutu) 1'e (tahmini sınırlayıcı kutu ve kesin sınırlayıcı kutucuğu) koordinatlarla değiştirin).

Örneğin, aşağıdaki resimde:

  • Tahmin edilen sınırlayıcı kutu (modelin bulunduğu yeri sınırlayan koordinatlar resmin bulunduğu gece masasının bulunduğu yer) mor renkte gösterilmiştir.
  • Kesin referans sınırlayıcı kutu (gecenin nerede gerçekleştiğini belirleyen koordinatlar resmin bulunduğu yer) yeşil dış çizgiyle gösterilir.

Van Gogh&#39;un, Arles&#39;teki Vincent&#39;ın Yatak Odası&#39;nı resmeden, iki farklı
          sınırlayıcı kutucuklar vardı. Kesin referans
          sınırlayıcı kutu (yeşil) gece masasını mükemmel bir şekilde çevreler. İlgili içeriği oluşturmak için kullanılan
          tahmin edilen sınırlayıcı kutunun (mor renkli) aşağı ve sağa% 50 oranında aşağı doğru uzaklığı
          kesin referans noktası: sayfanın sağ alt çeyreğini
          ancak masanın geri kalanını kaçırıyor.

Burada, tahmin ve kesin referans için sınırlayıcı kutuların kesişimi (solda) 1, tahmin ve sınırlayıcı kutuların birleşimi kesin referans (sağda) 7, dolayısıyla IoU \(\frac{1}{7}\).

Yukarıdakiyle aynı resim, ancak her sınırlayıcı kutu dörde bölünmüş
          kareler. Sağ alt kısımda olmak üzere toplamda
          kesin referans sınırlayıcı kutusunun ve sol üst tarafın
          tahmin edilen sınırlayıcı kutunun çeyreği birbiriyle çakışıyor. Bu
          çakışan bölüm (yeşil renkle vurgulanmıştır) ilgili
          kesişim ve 1 alanına sahip. Yukarıdakiyle aynı resim, ancak her sınırlayıcı kutu dörde bölünmüş
          kareler. Sağ alt kısımda olmak üzere toplamda
          kesin referans sınırlayıcı kutusunun ve sol üst tarafın
          tahmin edilen sınırlayıcı kutunun çeyreği birbiriyle çakışıyor.
          Her iki sınırlayıcı kutuyla çevrili iç mekanın tamamı
          (yeşil renkte vurgulanmış) birliği temsil eder ve
          alanı 7 olarak belirleriz.

IoU

intersection over union (birleşmeye kıyasla) kısaltmasıdır.

öğe matrisi

#recsystems

Öneri sistemlerinde tarafından oluşturulan yerleştirme vektörleri matrisi matris çarpanlarına ayırma Gizli sinyalleri barındıran bir öğe kullanın. Öğe matrisinin her satırı, tek bir gizli özelliğini kullanabilirsiniz. Örneğin, bir film öneri sistemi düşünün. Her sütun değeri tek bir filmi temsil eder. Gizli sinyaller türleri temsil edebilir veya yorumlanması daha zor olabilir. türler, yıldızlar ve çok sayıda farklı kişinin arasında karmaşık etkileşimleri veya diğer faktörler gibi faktörler dikkate alınır.

Öğe matrisinde hedef ile aynı sayıda sütun var çarpanlara ayrılan bir matristir. Örneğin, Yeşil Ofis’te 10.000 filmin tamamını değerlendiren bir öneri sistemi öğe matrisinde 10.000 sütun olur.

items

#recsystems

Öneri sisteminde, bir sistem önerir. Örneğin videolar, bir video mağazasının önerilen öğelerdir. Kitaplar ise bir kitapçının önerdiği öğelerdir.

iterasyon

#fundamentals

Bir modelin parametrelerinde yapılan tek bir güncelleme (modelin ağırlıklar ve ön yargılar: eğitim. Toplu boyutu, modelin tek bir iterasyonda kaç örnek işlediğini. Örneğin, grup boyutu 20 ise model, denemeden önce 20 örneği ve parametreleri ayarlamak için kullanılır.

Bir nöral ağı eğitirken tek bir iterasyon şu iki geçişi içerir:

  1. Tek bir partideki kaybı değerlendirmek için ileriye dönük geçiş.
  2. kayıp ve öğrenme hızına dayalı olarak modelin parametrelerini ayarlar.

J

JAX

Bir araya getiren bir dizi bilişim kitaplığı XLA (Hızlandırılmış Doğrusal Cebir) ve otomatik farklılaştırma yüksek performanslı sayısal işlemler için kullanılmaktadır. JAX, basit ve güçlü bir Oluşturulabilir dönüşümlerle hızlandırılmış sayısal kod yazma API'si. JAX aşağıdaki gibi özellikler sunar:

  • grad (otomatik farklılaştırma)
  • jit (tam zamanında derleme)
  • vmap (otomatik vektör veya toplu hale getirme)
  • pmap (paralelleştirme)

JAX, sayısal öğelerin dönüşümlerini ifade etmek ve oluşturmak için kullanılan bir dildir Python'un NumPy koduna benzer, ancak kapsamı çok daha geniştir kitaplığını tanıtır. (Aslında, JAX altındaki .numpy kitaplığı işlevsel olarak eşdeğerdir, Python NumPy kitaplığının tamamen yeniden yazılmış bir versiyonudur.)

JAX özellikle birçok makine öğrenimi görevini hızlandırmaya uygundur modelleri ve verileri paralelliğe uygun bir forma dönüştürerek daha fazla GPU ve TPU hızlandırıcı çipinde kullanılabilir.

Flax, Optax, Pax ve daha birçok araç kitaplıklarının JAX altyapısı üzerine inşa edildiğini gösterir.

K

Keras

Popüler bir Python makine öğrenimi API'si. Keras şu tarihte çalışır: TensorFlow da dahil olmak üzere çeşitli derin öğrenme çerçeveleri şu şekilde kullanılabilir: tf.keras olarak değiştirin.

Çekirdek Destek Vektör Makineleri (KSVM'ler)

Bir sonraki aşamaya geçişle arasındaki marjı olumlu ve Giriş veri vektörlerini eşleyerek negatif sınıflar daha yüksek boyutlu bir alana yönlendirebilirsiniz. Örneğin, Yeşil Ofis’in giriş veri kümesinin yüzlerce özellik içeriyor. Kâr marjını en üst düzeye çıkarmak için negatif ve pozitif sınıfları olduğunda KSVM bu özellikleri dahili olarak bir milyon boyutlu uzay. KSVM'ler, menteşe kaybı.

önemli noktalar

#image

Bir resimdeki belirli özelliklerin koordinatları. Örneğin, görüntü tanıma modelini kilit noktaları her bir taç yaprağın, sapın ve sapın vb.

k katlar arası doğrulama

Modelin kapasitesini tahmin etmek için kullanılan yeni verilere genelleştirin. K katlanmış olan k, veri kümesi örneklerini böldüğünüz eşit grup sayısı; yani sürece eğitmen ve modelinizi bin kez test edin. Her eğitim ve test turunda farklı bir grup test kümesidir, geriye kalan tüm gruplar ise eğitim grubu ayarlandı. Yapılan k eğitim ve test turundan sonra, ortalama ve seçilen test metriklerinin standart sapması.

Örneğin, veri kümenizin 120 örnekten oluştuğunu varsayalım. Ayrıca, k'yi 4 olarak ayarladınız. Bu nedenle, örnekleri karıştırdıktan sonra veri kümesini 30 örnekli dört eşit gruba bölüp dört eşit eğitim ve test aşamaları:

Dört eşit örnek grubuna ayrılmış bir veri kümesi. 1. Turda,
          ilk üç grup eğitim için, son grup ise eğitim için kullanılacak.
          ve test için kullanılır. 2. Turda ilk iki grup ve son grup,
          grubu eğitim için, üçüncü grup ise eğitim için kullanılıyor.
          teşvik etmek anlamına gelir. 3. Turda ilk grup ve son iki grup
          eğitim için, ikinci grup ise test için kullanılır.
          4. Turda ilk grup test amaçlı, son grup ise test amaçlıdır.
          eğitim için üç grup kullanılır.

Örneğin, Ortalama Kare Hatası (MSE) doğrusal regresyon modeli için en anlamlı metriktir. Dolayısıyla, dört turda MSE'nin ortalama ve standart sapmasını bulabilir.

k-ortalama

#clustering

Örnekleri gruplandıran popüler bir kümeleme algoritması gözetimsiz öğrenmede çalışıyor. K-ortalama algoritması temelde şunları yapar:

  • En iyi k merkez noktasını yinelemeli olarak belirler (bilinen merkezi olarak belirtilir).
  • Her örneği en yakın merkeze atar. Bu örnekler en yakındaki aynı gruba ait olduğundan emin olun.

K-ortalama algoritması, kümülatif konumu en aza indirmek için merkez konumlarını seçer her örnekte en yakın merkez noktasına olan mesafenin karesini gösterir.

Örneğin, köpek yüksekliğinin köpek genişliğine göre grafiğini inceleyelim:

Birkaç düzine veri noktası içeren Kartezyen arsa.

k=3 ise k-ortalama algoritması üç merkezi belirler. Her bir örnek en yakın merkeze atanır ve sonuç üç grup oluşturur:

Önceki çizimdekiyle aynı Kartezyen olay örgüsü,
          eklenmişti.
          Önceki veri noktaları üç ayrı gruba ayrılmıştır:
          her bir grup, belirli bir noktaya en yakın veri noktalarını temsil eder
          centroid&#39;e dokunun.

Bir üreticinin küçük ve bakımı kolay ürünler için ideal bedenleri orta ve büyük beden köpekler için süveterler. Üç merkezi değer ortalamayı tanımlar yüksekliği ve ortalama genişliği gösterilir. Bu nedenle, üretici o üç merkezi temel almalısınız. Lütfen kümenin merkezi genellikle kümeye örnek değildir.

Yukarıdaki çizimlerde k-ortalaması yalnızca iki özelliğe (yükseklik ve genişlik) sahip. K-ortalamanın örnekleri gruplandırabileceğini unutmayın birçok özellikte sunuluyor.

k-ortanca değeri

#clustering

k-ortalama ile yakından ilişkili bir kümeleme algoritması. İlgili içeriği oluşturmak için kullanılan ikisi arasındaki pratik fark şudur:

  • K-ortalamada, merkezler toplam dönüşüm değeri merkez adayı ile her bir aday arasındaki mesafenin kareleri inceleyeceğiz.
  • K-ortanca değerde, centroidler toplam her bir merkez adayı ile bunun örnekleri arasındaki mesafeyi açıklamaktadır.

Mesafe tanımlarının da farklı olduğunu unutmayın:

  • k-ortalamanın Öklid uzaklığı örneğini ele alalım. (İki boyutta, Öklid mesafeyi hesaplamak için Pisagor teoremini kullanmak anlamına gelir hipotenüstür.) Örneğin, k-değeri, (2,2) arasındaki mesafeyi ve (5,-2) değeri şöyle olur:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-ortanca değeri, Manhattan mesafesine dayanır örnek olarak özetleyebiliriz. Bu mesafe, mutlak deltaları artırabilirsiniz. Örneğin, k-medyan değeri (2,2) ve (5,-2) arasındaki mesafe şöyle olur:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 normalleştirmesi

#fundamentals

Bir tür düzenleme sıfır olmayan ağırlıkların toplam sayısına ceza verir bahsediyor. Örneğin, 11 tane sıfır olmayan ağırlığa sahip bir model 10 tane sıfır olmayan ağırlığa sahip benzer bir modelden daha fazla cezalandırılacaktır.

L0 normalleştirmesi bazen L0-norm normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Mutlak değeri hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L1 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Mutlak delta değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, aykırı değerlere karşı daha az hassastır. L2 kaybından daha yüksek.

Ortalama Mutlak Hata, Örnek başına L1 kaybı.

L1 normalleştirmesi

#fundamentals

Ceza gerektiren bir düzenleme türü mutlak değerinin toplamıyla orantılı olarak ağırlıklar ağırlıklar. L1 normalleştirmesi, alakasız öğelerin ağırlıklarını artırmaya yardımcı olur alakalı özellikleri tam olarak 0'a indirebilirsiniz. Şu özelliklere sahip bir özellik: 0 ağırlık modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesi ile kontrast.

L2 kaybı

#fundamentals

Kareyi hesaplayan bir kayıp işlevi gerçek label değerleri ile modelin tahmin ettiği değerlerdir. Örneğin, burada beşlik bir toplu için L2 kaybının hesaplanması örnekler:

Örneğin gerçek değeri Modelin tahmini değeri Delta karesi
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kare oluşturma nedeniyle L2 kaybı, etkisini artırır. aykırı değerler. Yani L2 kaybı, kötü tahminlere kıyasla L1 kaybı. Örneğin, L1 kaybı önceki grup için 16 yerine 8 olur. Tek bir 16'nın 9'unu oluşturuyor.

Regresyon modelleri genellikle L2 kaybını kullanır işlevi olarak kullanır.

Ortalama Kare Hatası, Örnek başına L2 kaybı. Kare karesi, L2 kaybının diğer adıdır.

L2 normalleştirmesi

#fundamentals

Ceza gerektiren bir düzenleme türü Ağırlıkların karelerinin toplamıyla orantılı olarak ağırlıklar L2 normalleştirmesi, aykırı ağırlıkların (ayrıca pozitif veya düşük negatif değerlere sahiptir) 0'a yaklaşır ancak tam olarak 0 değildir. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini fazla etkilemez.

L2 normalleştirmesi şuralarda genellemeyi her zaman iyileştirir: doğrusal modeller.

L1 normalleştirmesi ile kontrast.

etiket

#fundamentals

Gözetimli makine öğreniminde "yanıt" veya "sonuç" kısmı örnek kısmıdır.

Her etiketli örnek bir veya daha fazla örnek özellikler ve etiket. Örneğin, büyük olasılıkla "spam" veya "spam" etiketi veya "spam değil." Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarıdır.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket ekleyin. Örneğin, aşağıdaki tabloda üç adet her biri üç özelliğe sahip bir ev değerleme modelinden etiketli örnekler ve bir etiket:

Yatak odası sayısı Banyo sayısı Ev yaşı Kurum fiyatı (etiket)
3 2 15 345.000 $
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğreniminde etiketli örnekler üzerinde eğitilir ve bu örnekler üzerinde etiketsiz örnekler.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

etiket sızıntısı

Bir özelliğin etiket ekleyin. Örneğin, Tahmin yürüten ikili sınıflandırma modeli Potansiyel bir müşterinin belirli bir ürünü satın alıp almayacağı Modelin özelliklerinden birinin SpokeToCustomerAgent Ayrıca bir müşteri aracısının yalnızca potansiyel müşteri, ürünü satın aldıktan sonra atanır belirler. Model, eğitim sırasında ilişkilendirmeyi hızlıca öğrenir SpokeToCustomerAgent ile etiket arasında.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlı.

Lambda aşırı yüklü bir terimdir. Burada, kavramı normalleştirme içerisinde

LaMDA (Diyalog Uygulamaları İçin Dil Modeli)

#language

Transformer tabanlı bir Google tarafından geliştirilen büyük dil modeli gerçekçi diyalog yanıtları oluşturabilen geniş bir diyalog veri kümesidir.

LaMDA: Çığır açan görüşmemiz teknolojisi genel bir bakış sağlar.

önemli noktalar

#image

keypoints ile eş anlamlı.

dil modeli

#language

Bir jetonun olasılığını tahmin eden bir model veya daha uzun bir kod dizisinde gerçekleşen token dizisidir.

büyük dil modeli

#language

En azından, çok yüksek bir dil modeli parametreden Daha resmi olmayan bir şekilde Dönüştürücü tabanlı dil modeli, Gemini veya GPT.

gizli alan

#language

Yerleştirme alanı ile eş anlamlı.

katman

#fundamentals

Gereçlerde bir nöron sinirsel ağ. Sık kullanılan üç katman türü aşağıdaki gibidir:

Örneğin, aşağıdaki görselde bir nöral ağ ve bir giriş katmanı, iki gizli katman ve bir çıkış katmanı:

Bir giriş katmanı, iki gizli katman ve bir gizli katman içeren nöral ağ
          çıkış katmanıdır. Giriş katmanı iki özellikten oluşur. İlk
          gizli katman, üç nöron ve ikinci gizli katmandan oluşur.
          iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, aynı zamanda Giriş olarak Tensors ve yapılandırma seçenekleri başka tensörler üretebilirsiniz.

Katmanlar API'sı (tf.layers)

#TensorFlow

Derin nöral ağ oluşturmak için bir TensorFlow API bir katman olarak kullanır. Katmanlar API'si, gerçek zamanlı olarak katman türleri, örneğin:

Katmanlar API'si, Keras katmanlarıyla ilgili API kurallarına uyar. Yani farklı bir ön ek dışında Katmanlar API'sindeki tüm işlevler ile Keras’taki muadilleriyle aynı ada ve imzaya sahiptir katmanları API'sı.

yaprak

#df

Karar ağacındaki herhangi bir uç nokta. Bir condition durumunda bir yaprak, testi gerçekleştirmez. Yaprak daha çok olası bir tahmindir. Yaprak aynı zamanda terminal Bir çıkarım yolunun düğümünü.

Örneğin, aşağıdaki karar ağacı üç yaprak içerir:

İki koşul içeren ve üç yapraktan oluşan bir karar ağacı.

Öğrenme Yorumlanabilirlik Aracı (LIT)

Görsel, etkileşimli bir model anlama ve veri görselleştirme aracı.

Açık kaynak LIT kullanarak şunları yapabilirsiniz: modelleri yorumlamak için kullanabilir veya metin, resim ve tablo biçiminde veriler.

öğrenme hızı

#fundamentals

Gradyan inişini bildiren bir kayan nokta sayısı her bir cihazdaki ağırlık ve sapmayı iterasyon. Örneğin, 0,3 olan bir öğrenme hızı ağırlıkları ve ağırlıkları öğrenme hızından üç kat daha güçlü bir şekilde ayarlama 0,1.

Öğrenme hızı önemli bir hiperparametredir. Mevcut öğrenme hızı çok düşüktür, eğitim de çok uzun sürecektir. Eğer öğrenme hızını çok yüksek ayarlarsanız gradyan iniş genellikle sorun yaşanır yakınlaşma elde ediyor.

en küçük kareler regresyonu

En aza indirgeyerek eğitilen bir doğrusal regresyon modeli L2 Kayıp.

doğrusal

#fundamentals

Yalnızca temsil edilebilen iki veya daha fazla değişken arasındaki ilişki toplama ve çarpma işlemleri.

Doğrusal bir ilişkinin grafiği bir çizgidir.

Doğrusal olmayan ile kontrast.

doğrusal model

#fundamentals

Her biri için bir ağırlık atayan bir model tahmin yapmak için özelliği kullanın. (Doğrusal modeller bir önyargı da içerir.) Öte yandan derin modellerdeki tahminler ile özelliklerin ilişkisi genellikle doğrusal olmayan bir değerdir.

Doğrusal modellerin eğitilmesi genellikle daha kolay olduğu için yorumlanabilir. Ancak, derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon iki tür doğrusal modeldir.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de doğru olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyonu mantıksal regresyon ile karşılaştırın. Ayrıca, sınıflandırma ile regresyonu karşılaştırın.

LIT

için kısaltma Öğrenme Yorumlanabilirlik Aracı (LIT), önceden Dil Yorumlanabilirliği Aracı olarak biliniyordu.

LLM

#language
#generativeAI

Büyük dil modeli'nin kısaltmasıdır.

LLM değerlendirmeleri (değerlendirmeler)

#language
#generativeAI

Performansı değerlendirmeye yönelik bir dizi metrik ve karşılaştırma ölçütü büyük dil modelleri (LLM) olarak değiştirin. Özetle LLM değerlendirmeleri:

  • Araştırmacıların, LLM'lerin iyileştirilmesi gereken alanları belirlemesine yardımcı olun.
  • Farklı LLM'lerin karşılaştırılmasında ve belirli bir konu için en iyi LLM'nin ele alacağız.
  • LLM'lerin güvenli ve etik kullanımını sağlamaya yardımcı olun.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir regresyon modeli türü. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategoriktir. Lojistik terimi regresyon genellikle ikili mantıksal regresyon anlamına gelir. . Daha az yaygın olan bir değişken olan çoklu terimli mantıksal regresyon, olasılıklarını ifade eder.
  • Eğitim sırasındaki kayıp işlevi Günlük Kaybı'dır. (Etiketler için birden fazla Günlük Kaybı birimi paralel olarak yerleştirilebilir değer ikiden fazla olabilir.)
  • Model, derin bir sinir ağına değil, doğrusal bir mimariye sahip. Ancak bu tanımın geri kalanı, Olasılıkları tahmin eden derin modeller kullanın.

Örneğin, dönüşüm değerini hesaplayan bir mantıksal regresyon giriş e-postasının spam veya spam olmaması olasılığı. Çıkarım sırasında modelin 0, 72 değerini tahmin ettiğini varsayalım. Dolayısıyla, modelin tahmini değeri:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama ihtimali% 28'dir.

Mantıksal regresyon modeli, aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, doğrusal fonksiyon uygulayarak ham bir tahmin (y') üretir seçenekleri vardır.
  2. Model, bu ham tahmini bir kampanyaya girdi olarak kullanır sigmoid işlevi, değeri 0 ile 1 arasında bir değere ayarlayabilirsiniz.

Tüm regresyon modelleri gibi mantıksal bir regresyon modeli de bir sayıyı tahmin eder. Ancak, bu sayı genellikle ikili sistem sınıflandırmasında modelimiz şu şekildedir:

  • Tahmin edilen sayı, büyük sınıflandırma eşiğinin ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Logits

Sınıflandırmanın ham (normalleştirilmemiş) tahminlerinin vektörü modeli oluşturulur ve bu normalde daha sonra bir normalleştirme işlevine geçirilir. Model, çok sınıflı bir sınıflandırmayı çözüyorsa logitler genelde projenin geneline softmax işlevini kullanın. Ardından softmax işlevi, (normalleştirilmiş) vektörünü oluşturur bir değere sahip olacak şekilde yeniden yazın.

Günlük Kaybı

#fundamentals

İkili programda kullanılan kayıp işlevi mantıksal regresyon.

günlük-olasılıklar

#fundamentals

Bir olayın olasılıklarının logaritması.

Uzun Kısa Süreli Bellek (LSTM)

#seq

Şuradaki hücre türü: yinelenen nöral ağ; el yazısı tanıma, makine gibi uygulamalardaki veri dizileri çeviri ve resim yazıları. LSTM'ler kayan gradyan problemi uzun veri dizileri nedeniyle RNN'leri eğitmek, böylece yeni giriş ve önceki hücrelerdeki bağlama göre dahili bellek durumu bir soru geliyor.

LoRA

#language
#generativeAI

Düşük Dereceli Uyarlanabilirlik'in kısaltmasıdır.

mağlubiyet

#fundamentals

Bir kişinin eğitimi gözetimli model ve bu model, modelin tahmini bu modelin etiketinden alınır.

Kayıp işlevi kaybı hesaplar.

kayıp toplayıcı

Bir tür makine öğrenimi algoritması Bir modelin performansını artırır birden fazla modelin tahminlerini birleştirerek bu tahminleri kullanarak tek bir tahminde bulunmanızı sağlar. Sonuç olarak, bir kayıp toplayıcı, tahminlerin varyansını azaltabilir tahminlerin doğruluğunu artırır.

kayıp eğrisi

#fundamentals

Eğitim sayısının fonksiyonu olarak kayıp grafiği iterasyonlar. Aşağıdaki grafikte tipik bir kayıp eğri:

Kayıp ve eğitim yinelemelerinin karşılaştırıldığı Kartezyen grafiği
          ilk iterasyonlarda kayıpta hızlı bir düşüş yaşandığını ve ardından kademeli olarak
          ve son yinelemeler sırasında düz bir eğim çizmesi gerekir.

Kayıp eğrileri modelinizin ne zaman yakınlaştırma veya uyarlama özelliklerini kullanın.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Ayrıca bkz. genelleme eğrisi.

kayıp fonksiyonu

#fundamentals

Eğitim veya test sırasında, hesaplama yapan matematiksel fonksiyon toplu örnek kaybı. Kayıp fonksiyonu daha düşük bir kayıp döndürür için iyi tahminlerde bulunan modellerin performansını kötü tahminler yapabilirsiniz.

Eğitimin amacı genellikle kayıp fonksiyonunun belirtir.

Birçok farklı kayıp fonksiyonu türü vardır. Uygun kaybı seçin işlevini kullanın. Örneğin:

kayıp yüzeyi

Ağırlık ve kayıp karşılaştırması grafiği. Gradyan inişi hedefleri kayıp yüzeyinin yerel minimumda olduğu ağırlıkları bulmak için kullanır.

Düşük Seviyede Uyarlanabilirlik (LoRA)

#language
#generativeAI

Bir projeyi yürütmek için parametre açısından verimli ayarlama ince müzikler, büyük dil modelinin parametrelerini kullanabilirsiniz. LoRA aşağıdaki avantajları sağlar:

  • Modelin tüm özellikleri üzerinde ince ayar yapılmasını gerektiren tekniklere kıyasla daha hızlı ince ayarlar parametreleridir.
  • Çıkarımın işlem maliyetini modelimiz olabilir.

LoRA ile ayarlanmış bir model, tahminlerinin kalitesini korur veya iyileştirir.

LoRA, bir modelin birden fazla özel versiyonunu kullanabilmenizi sağlar.

LSTM

#seq

Uzun Kısa Vadeli Hafıza'nın kısaltmasıdır.

A

makine öğrenimi

#fundamentals

Bir programlamayı eğiten bir program veya sistem modeli olarak tanımlar. Eğitilen model, Google Haritalar'dan alınan yeni (hiç görülmemiş) verilerden elde edilen modeli eğitmek için kullanılanla aynı dağılıma sahiptir.

Makine öğrenimi, aynı zamanda bu program veya sistemlerle anlamaya çalışırsınız.

çoğunluk sınıfı

#fundamentals

Bir projede daha yaygın olan etiket sınıf-dengesiz veri kümesi ile ilgili daha fazla bilgi edinin. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, negatif etiketler çoğunluğa hitap eder.

Azınlık sınıfı ile kontrast.

Markov karar süreci (MDP)

#rl

Karar verme modelini temsil eden bir grafik (veya işlemler) yapıldığından eylemlerin Markov mülkü muhafazaları. İçinde pekiştirmeli öğrenme, bu geçişler değerleri, sayısal bir ödül döndürür.

Markov mülkü

#rl

Devletin bağlı olduğu belirli ortamların tüm bu geçişlerin, dolaylı yollardaki örtülü bilgi mevcut durum ve temsilcinin işlemi.

maskeli dil modeli

#language

Yaşanma olasılığını tahmin eden bir dil modeli bir dizideki boşlukları doldurmak için aday jetonlar. Örneğin, maskelenmiş dil modeli, aday kelimelerin olasılıklarını hesaplayabilir kullanabilirsiniz:

Şapkadaki ____ geri geldi.

Literatürde genellikle "MASK" dizesi kullanılmaktadır tercih edebilirsiniz. Örneğin:

"MASK" geri döndük.

Modern maskeli dil modellerinin çoğu iki yönlüdür.

matplotlib

Açık kaynak Python 2D çizim kitaplığı. matplotlib, projenizin farklı yönlerine ve makine öğreniminin farklı yönlerine değineceğiz.

matris çarpanlarına ayırma

#recsystems

Matematikte, nokta çarpımı yaklaşık bir değere sahip matrisleri bulmak için kullanılan hedef matristir.

Öneri sistemlerinde hedef matris genellikle elindeki öğeler için derecelendirmeler. Örneğin, hedef bir film öneri sisteminin matrisi Burada pozitif tam sayılar, kullanıcı değerlendirmeleri ve 0'dır kullanıcının filme oy vermemiş olduğu anlamına gelir:

  Kazablanka Philadelphia'nın Hikayesi Black Panther Wonder Woman Ucuz Kurgu
1. Kullanıcı 5,0 3,0 0,0 2,0 0,0
2. Kullanıcı 4.0 0,0 0,0 1.0 5,0
3. Kullanıcı 3,0 1.0 4.0 5,0 0,0

Film öneri sistemi, şu filmlerin kullanıcı puanlarını tahmin etmeyi amaçlar: derecelendirilmemiş filmler. Örneğin, 1. Kullanıcı Kara Panter'i beğenir mi?

Öneri sistemleri için yaklaşımlardan biri, çarpanlara ayırma işlemi yapmanız gerekir:

  • Kullanıcı sayısı X şeklinde ifade edilen bir kullanıcı matrisi sayısını artırır.
  • Yerleştirme sayısı şeklinde ifade edilen bir öğe matrisi boyut X öğe sayısı.

Örneğin, üç kullanıcımızda ve beş öğemizde matrisi çarpanlara ayırma şu kullanıcı matrisini ve öğe matrisini elde edebilir:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

Kullanıcı matrisinin ve öğe matrisinin nokta çarpımı bir öneri verir Yalnızca orijinal kullanıcı puanlarını değil, aynı zamanda tahminleri de içeren matris daha önce izlememiş olan kullanıcılara gösterilir. Örneğin, 1.Kullanıcı'nın Kazablanka olan 5, 0 olan puanına bakalım. Nokta öneri matrisinde o hücreye karşılık gelen ürün ve şu:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

Daha da önemlisi, 1. Kullanıcı Kara Panter'i beğenecek mi? Nokta çarpımını alma ilk satıra karşılık gelen bir sütuna karşılık gelir ve üçüncü sütun 4,3 puan:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

Matrisi çarpanlara ayırma, genelde şu özelliklere sahip bir kullanıcı matrisi ve öğe matrisi ortaya çıkarır: hedef matristen çok daha kompakttır.

Ortalama Mutlak Hata (MAE)

1 kaybı şu durumda olduğunda örnek başına ortalama kayıp: kullanılır. Ortalama Mutlak Hatayı aşağıdaki şekilde hesaplayın:

  1. Bir grup için L1 kaybını hesaplayın.
  2. L1 kaybını, gruptaki örnek sayısına bölün.

Örneğin, şu beş örnek grup verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Kayıp (gerçek ile tahmin edilen arasındaki fark)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

Dolayısıyla, L1 kaybı 8 ve örnek sayısı 5'tir. Bu nedenle, Ortalama Mutlak Hata şöyle olur:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

Ortalama Kare Hata ve Kök Ortalama Kare Hatası.

Ortalama Kare Hatası (MSE)

L2 kaybı şu durumda olduğunda örnek başına ortalama kayıp: kullanılır. Ortalama Kareli Hatayı aşağıdaki gibi hesaplayın:

  1. Bir grup için L2 kaybını hesaplayın.
  2. L2 kaybını, gruptaki örnek sayısına bölün.

Örneğin, aşağıdaki beş örnek grubundaki kaybı göz önünde bulundurun:

Gerçek değer Model tahmini Kayıp Kaybın kareli
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 kaybı

Bu nedenle, Ortalama Kareli Hata şöyle olur:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

Ortalama Kareli Hata, yaygın olarak kullanılan bir eğitim optimize edicidir, özellikle doğrusal regresyon için.

Kontrast Ortalama Kareli Hatası Ortalama Mutlak Hata ve Kök Ortalama Kare Hatası.

TensorFlow Playground Ortalama Kare Hatası kullanıyor hesaplama yöntemidir.

örgü

#TensorFlow
#GoogleCloud

ML paralel programlamada, verilerin atanmasıyla ilişkili bir terim ve modeli oluşturarak ve bu değerlerin nasıl parçalanacağını ya da çoğaltılacağını tanımlayabilirsiniz.

Ağ, aşırı yüklenen bir terimdir. Aşağıdakilerden herhangi biri anlamına gelebilir:

  • TPU çiplerinin fiziksel düzeni.
  • TPU'ya veri ve model eşlemek için soyut mantıksal bir yapı çipler.

Her iki durumda da bir örgü, şekil olarak belirtilir.

meta-öğrenim

#language

Bir öğrenme algoritmasını keşfeden veya iyileştiren makine öğrenimi alt kümesi. Bir meta öğrenme sistemi, yeni bir bilgiyi hızla öğrenecek bir model eğitmeyi de ya da önceki görevlerde edinilen deneyime dayalı olarak yapılan bir görevdir. Meta öğrenme algoritmaları genellikle aşağıdakileri sağlamaya çalışır:

  • El tarafından geliştirilen özellikleri (ör. başlatıcı veya unutmayın.
  • Veri ve işlem açısından daha verimlidir.
  • Genelleştirmeyi geliştirin.

Meta öğrenme, birkaç atışlık öğrenmeyle ilgilidir.

metrik

#TensorFlow

Sizin için önemli bir istatistik.

Hedef, bir makine öğrenimi sisteminin optimize etmeye çalışır.

Metrics API'si (tf.metrics)

Modelleri değerlendirmek için bir TensorFlow API. Örneğin, tf.metrics.accuracy bir modelin tahminlerinin ne sıklıkta etiketlerle eşleştiğini belirler.

mini toplu e-ticaret

#fundamentals

Bir grubun tek bir grupta işlenen küçük, rastgele seçilmiş bir alt kümesi iterasyon. Mini bir grubun toplu boyutu genellikle 10 ila 1.000 örnek görebilirsiniz.

Örneğin, tüm eğitim veri kümesinin (tüm grup) 1.000 örnekten oluşur. Ayrıca, Floodlight etiketindeki toplu paket boyutunu 20'ye çıkarın. Dolayısıyla her iterasyon 1.000 örneğin rastgele 20'si üzerindeki kaybı belirler ve ağırlıkları ve önyargıları buna göre ayarlar.

Mini toplu işlemlerde oluşacak kaybı hesaplamak, kayıp anlamına gelir.

mini toplu stokastik gradyan iniş

gradyan iniş algoritması mini gruplar. Başka bir deyişle, küçük hacimli toplu stokastik gradyan inişi, renk geçişini reklamın küçük bir alt kümesine eğitim verileri. Normal olasılıksal gradyan iniş, 1 adet mini grup.

minimum kayıp

Şunun için kayıp fonksiyonu: üretken zararlı ağları kullanıyorsanız dağılım arasındaki çapraz entropi'ye göre oluşturulan veri ve gerçek verilerin bir araya gelmesiyle oluşur.

Minimax kaybı, ilk belge Üretken yapay zeka ağları.

azınlık sınıfı

#fundamentals

Bir sınıf-dengesiz veri kümesi ile ilgili daha fazla bilgi edinin. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi kullanıldığında, pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfı ile kontrast oluşturun.

uzmanlardan oluşan karma

#language
#generativeAI

Nöral ağ verimliliğini artırarak işleme almak için parametrelerinin yalnızca bir alt kümesini (uzman olarak bilinir) belirli bir giriş jetonu veya örnek. CEVAP Doğrulama ağı, her bir giriş jetonunu veya örneği uygun uzmanlara yönlendirir.

Ayrıntılar için aşağıdaki makalelerden birine bakın:

ML

Makine öğrenimi kısaltmasıdır.

MMIT

#language
#image
#generativeAI

için kısaltma çok modlu talimatları inceleyin.

MNIST

#image

LeCun, Cortes ve Burges tarafından derlenen, herkese açık bir veri kümesi bir insanın belirli bir resmi manuel olarak nasıl yazdığını gösteren her resim 0–9 arasında bir rakam. Her görüntü, 28x28 boyutunda bir tam sayı dizisi olarak depolanır ve burada, her tam sayı, 0 ile 255 arasında (0 ve 255 dahil) gri tonlamalı bir değerdir.

MNIST, makine öğrenimi için standart bir veri kümesidir ve genellikle yeni yaklaşımlarını anlatacağım. Ayrıntılar için bkz. MNIST El Yazısı Rakamlar Veritabanı.

modalite

#language

Üst düzey bir veri kategorisi. Örneğin sayılar, metin, resimler, video ve ses ise beş farklı modalitedir.

model

#fundamentals

Genel olarak, girdi verilerini ve getirileri işleyen herhangi bir matematiksel çıktı. Farklı ifade etmek gerekirse model, parametreler ve yapıdan oluşan bir kümedir tahminlerde bulunmaları için kritik önem taşır. Gözetimli makine öğreniminde Bir model giriş olarak bir örnek alır ve bir modelin tahmin olarak gönderin. Gözetimli makine öğreniminde bazı farklılıklar olur. Örneğin:

  • Doğrusal regresyon modeli, bir dizi ağırlıktan oluşur bir taraf oluşturur.
  • Nöral ağ modeli aşağıdakilerden oluşur:
    • Her biri bir veya daha fazla katman içeren bir gizli katman grubu daha fazla nöron içerir.
    • Her bir nöronla ilişkili ağırlıklar ve yanlılık.
  • Karar ağacı modeli aşağıdakilerden oluşur:
    • Ağacın şekli yani koşulların belirli bir zamanda ve yapraklar birbirine bağlanır.
    • Koşullar ve yapraklar.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalarını oluşturabilirsiniz.

Gözetimsiz makine öğrenimi de model oluşturur. Bu fonksiyon genellikle bir giriş örneğini en uygun kümeyi seçin.

model kapasitesi

Bir modelin öğrenebileceği sorunların karmaşıklığı. Proje ne kadar karmaşıksa öğrenebileceği sorunlar varsa modelin kapasitesi de o kadar yüksek olur. Bir modelin kapasitesi genellikle model parametrelerinin sayısıyla birlikte artar. Örneğin, sınıflandırıcı kapasitesinin resmi tanımı, bkz. VC boyutu.

model basamaklı

#generativeAI

Belirli bir çıkarım için ideal modeli seçen bir sistem emin olun.

Çok büyüklerden çok sayıda (ör. çok sayıda) parametreler) çok daha küçüktür (çok daha az parametre). Çok büyük modeller daha fazla bilgi işlem kaynağı tüketir. çıkarım süresini artırır. Ancak çok büyük modeller genellikle daha küçük modellere kıyasla daha karmaşık istekler sonucuna varabilir. Model basamaklama, çıkarım sorgusunun karmaşıklığını belirler ve ardından, çıkarımı yapmak için uygun modeli seçer. Model basamaklamanın ana motivasyonu, çıkarım maliyetlerini genellikle daha küçük modelleri seçer ve karmaşık sorgular.

Küçük bir modelin bir telefonda ve bu modelin daha büyük bir sürümünün çalıştığını hayal edin uzak bir sunucuda çalışır. İyi model basamaklandırması, maliyeti ve gecikmeyi daha küçük modelin basit istekleri işleyebilmesini sağlar ve yalnızca uzak model kullanarak nasıl yürütüleceğini planlayabileceksiniz.

Ayrıca model yönlendirici bölümüne de bakın.

model paralelliği

#language

Belli bir terimin farklı parçalarını koyarak çıkarımları ya da eğitimi ölçeklendirme yöntemi model farklı cihazlarda. Model paralelliği tek bir cihaza sığmayacak kadar büyük modelleri etkinleştirir.

Bir sistem, model paralelliğini uygulamak için genellikle aşağıdakileri yapar:

  1. Modeli daha küçük parçalara ayırır (bölür).
  2. Bu küçük parçaların eğitimini birden fazla işlemciye dağıtır. Her işlemci, modelin kendi bölümünü eğitir.
  3. Tek bir model oluşturmak için sonuçları birleştirir.

Model paralelliği, eğitimi yavaşlatır.

Ayrıca veri paralelliği konusunu inceleyin.

model yönlendirici

#generativeAI

Bir dönüşüm için ideal modeli belirleyen algoritma, model basamaklı çıkarımı. Model yönlendiricinin kendisi ise genelde belirli bir giriş için en iyi modeli nasıl seçeceğinizi kademeli olarak öğrenir. Bununla birlikte, bir model yönlendiricisi bazen daha basit, bir algoritma örneğidir.

model eğitimi

En iyi modeli belirleme süreci.

İlgiyi Artırma

Bir öğrenme adımının bağlı olduğu gelişmiş bir gradyan azalma algoritması yalnızca geçerli adımdaki türevde değil, türevlerde de sayısını gösterir. Momentum, bir işin gerçekleştirilmesi için Zaman içinde gradyanların üstel ağırlıklı hareketli ortalaması, benzer momentuma aktarıyoruz. Momentum bazen öğrenmeyi zorlaştırır yerel minimumda takılıp kaldı.

MOE

#language
#image
#generativeAI

Uzmanların karışımı anlamına gelen kısaltma.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, bir sınıflandırma sorunu Veri kümesinin ikiden fazla etiket sınıfı içerdiği. Örneğin, Iris veri kümesindeki etiketler aşağıdakilerden biri olmalıdır üç sınıf bulunuyor:

  • Süsen setosa
  • İris virginica
  • Süsen yeşil

Yeni örneklerde Iris türünü tahmin eden, Iris veri kümesinde eğitilmiş bir model çok sınıflı sınıflandırmadır.

Öte yandan, tam olarak iki kaliteyi birbirinden ayıran sınıflandırma problemleri sınıfları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil tahmini yapan bir e-posta modeli bir ikili sınıflandırma modelidir.

Kümeleme problemlerinde çok sınıflı sınıflandırma, birden fazla iki küme bulunuyor.

çok sınıflı mantıksal regresyon

mantıksal regresyon çok sınıflı sınıflandırma problemleri için geçerlidir.

birden fazla kafa ile kendi kendine dikkat

#language

Kendi kendine dikkat özelliğinin uzantısı şu şekildedir: kendi kendine dikkat mekanizmasını, giriş dizisindeki her konum için birden çok kez kullanabilirsiniz.

Transformers, birden çok kafalı öz dikkat becerisini tanıttı.

çok modlu model

#language

Birden fazla giriş ve/veya çıkış içeren model modalite. Örneğin, hem büyük hem de küçük özellik olarak bir resim ve bir metin başlığı (iki mod) ve metin başlığının resim için ne kadar uygun olduğunu gösteren bir puan verir. Dolayısıyla bu modelin girişleri çok modlu, çıktıları ise tek modludur.

çok modlu eğitime göre ayarlanmış

#language

Girişi işleyebilen instruction-tuned modeli görsel, video ve ses gibi öğeler de dahil.

çok terimli sınıflandırma

Çok sınıflı sınıflandırma ile eş anlamlı.

çok terimli regresyon

Eş anlamlısı: çok sınıflı mantıksal regresyon.

çoklu görev

Tek bir modelin birden çok görev gerçekleştirmek üzere eğitilmiş olması gerekir.

Çoklu görev modelleri, ortak çalışan kullanıcılar için uygun veriler üzerine eğitimle her birini kontrol edebilirsiniz. Bu, modelin paylaşmayı öğrenmesine olanak tanır. Bu da modelin daha etkili öğrenmesine yardımcı olur.

Birden fazla görev için eğitilen bir modelin genelleştirme becerisi genellikle iyileşir ve farklı veri türlerini ele alma konusunda daha güçlü olabilir.

N

NaN tuzağı

Modelinizdeki bir numara NaN olduğunda bu da modelinizdeki birçok veya diğer sayının zamanla NaN'ye dönüşür.

NaN, Not a Number'ın kısaltmasıdır.

doğal dil anlama

#language

Kullanıcının yazdıklarına veya söylediklerine göre niyetini belirleme. Örneğin bir arama motoru, şunları yapmak için doğal dil anlama özelliğini kullanır: kullanıcının yazdıklarına veya söylediklerine bağlı olarak kullanıcının ne aradığını belirler.

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Pozitif sınıf modelin test ettiği şey veya olayı, negatif sınıfın ise başka bir olasılık var. Örneğin:

  • Tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf, "spam değil" olabilir.

Pozitif sınıf ile kontrast oluşturun.

negatif örnekleme

Aday örnekleme ile eş anlamlıdır.

Nöral Mimari Araması (NAS)

Bir makinenin mimarisini otomatik olarak tasarlamaya sinirsel ağ. NAS algoritmaları gereken zaman ve kaynak miktarıdır.

NAS genellikle şunları kullanır:

  • Olası mimariler kümesi olan bir arama alanı.
  • Belirli bir etkinliğin ne kadar iyi performans gösterdiğini mimarinin belirli bir görevi nasıl gerçekleştirdiğini gösterir.

NAS algoritmaları genellikle küçük bir olası mimariler kümesiyle başlar ve algoritma ne hakkında daha fazla bilgi edindikçe arama alanını kademeli olarak etkili olduğundan emin olun. Fitness işlevi genellikle ve algoritmanın altını çizmek istiyorum. genellikle bir ekip üyesiyle pekiştirmeli öğrenme tekniğidir.

NAS algoritmalarının yüksek performanslı yüksek performanslı cihazları bulmada etkili olduğu kanıtlanmıştır. çeşitli görevler için tasarlanmıştır. sınıflandırma, metin sınıflandırma ve çevirisini inceleyeceğiz.

nöral ağ

#fundamentals

En az bir içeren model gizli katman. Derin sinir ağı, bir tür nöral ağdır gizli katman bulunur. Örneğin, aşağıdaki diyagramda iki gizli katman içeren derin bir sinir ağını gösteriyor.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır.

Bir nöral ağdaki her nöron, bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, yukarıdaki diyagramda bulunan üç nöronun her iki nörona da ayrı ayrı bağlanır. Bu iki nöronun katmandır.

Bilgisayarlarda uygulanan nöral ağlar bazen yapay nöral ağların beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardır.

Bazı nöral ağlar, son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir. farklı özellikler ve etiket arasında.

Ayrıca bkz. evrimsel nöral ağ ve yinelenen nöral ağ.

nöron

#fundamentals

Makine öğreniminde, gizli katman içindeki ayrı bir birim bir nöral ağ örneğidir. Her nöron aşağıdakileri gerçekleştirir: iki adımlı işlem:

  1. Girdi değerlerinin ağırlıklı toplamını çarpar karşılık gelen ağırlıklara göre değerlendirmelisiniz.
  2. Ağırlıklı toplamı etkinleştirme işlevini yerine getirin.

İlk gizli katmandaki bir nöron, özellik değerlerinden gelen girişleri kabul eder giriş katmanında. Bunun ötesinde herhangi bir gizli katmanda bulunan bir nöron ilki, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, sinir hücrelerinden korur.

Aşağıdaki resimde iki nöron ve bunların giriş değerleridir.

Bir giriş katmanı, iki gizli katman ve bir
          çıkış katmanıdır. İlkinde biri olmak üzere iki nöron vurgulanıyor
          bir diğeri de ikinci gizli katmanda bulunuyor. Vurgulanan
          ilk gizli katmandaki nöron her iki özellikten de girdi alır
          kullanabilirsiniz. İkinci gizli katmanda vurgulanan nöron
          ilk gizli sıradaki üç nöronun her birinden girdi alır
          katmanıdır.

Sinir ağındaki bir nöron, beyindeki nöronların davranışını taklit eder ve sinir sistemlerinin diğer kısımlarından biridir.

N-gram

#seq
#language

N kelimelik sıralı bir dizi. Örneğin, gerçekten çılgın ifadesi 2 gramlık bir kelimedir. Çünkü bir çünkü gerçekten çok çılgınca 2 gramlıktan farklıdır.

N Bu N-gram türü için adlar Örnekler
2 bigram veya 2 gram gidip gitme, öğle yemeği içme, akşam yemeği yeme
3 trigram veya 3 gram çok fazla yeme, üç görme engelli fare ve zil zıplama
4 4 gram parkta yürüyün, rüzgârda toz kıstırın, çocuk mercimek yediyse

Birçok doğal dil anlama modeller, kullanıcının yazacağı bir sonraki kelimeyi tahmin etmek için N-gramlardan yararlanır veya deyin. Örneğin, bir kullanıcının üç kör yazdığını varsayalım. Trigramlara dayalı bir NLU modeli, büyük olasılıkla kullanıcı mikro yazar.

N-gramları kelime kesitleri ile kontrast: sırasız kelime gruplarıdır.

NLU

#language

Doğal dil kısaltması öğrenebilirsiniz.

düğüm (karar ağacı)

#df

Karar ağacında, condition veya yaprak.

İki koşul ve üç yapraklı bir karar ağacı.

düğüm (nöral ağ)

#fundamentals

Gizli katman içindeki bir nöron.

düğüm (TensorFlow grafiği)

#TensorFlow

TensorFlow grafiğindeki işlem.

gürültü

Genel anlamda, veri kümesinde sinyali engelleyen her şey. Gürültü verilere çeşitli şekillerde eklenebilir. Örneğin:

  • Derecelendirme yapan gerçek kişiler, etiketleme sırasında hata yapabilir.
  • İnsanlar ve araçlar, özellik değerlerini yanlış kaydeder veya atlar.

ikili olmayan koşul

#df

İkiden fazla olası sonuç içeren koşul. Örneğin, aşağıdaki ikili olmayan koşulda üç olası sonuçlar:

Olası üç sonucu sağlayan bir koşul (number_of_legs = ?)
          yardımcı olur. Bir sonuç (number_of_legs = 8) bir yaprak sağlar
          adı verilen örümcek. İkinci bir sonuç (number_of_legs = 4) ise
          Yaprak adı verilen köpek çiçeği. Üçüncü bir sonuç (number_of_legs = 2) ise
          penguen adlı yaprak.

doğrusal olmayan

#fundamentals

Yalnızca temsil edilemeyen iki veya daha fazla değişken arasındaki ilişki toplama ve çarpma işlemleri. Doğrusal ilişki bir çizgi olarak gösterilebilir; doğrusal olmayan bir ilişki bir çizgi olarak gösterilir. Örneğin, her biri birbiriyle alakalı iki model düşünün tek bir etikete uygulayabilirsiniz. Soldaki model doğrusal ve sağdaki model doğrusal olmayan ise:

İki konu. Bir grafikse çizgi şeklindedir. Bu da doğrusal bir ilişkidir.
          Diğer grafik eğri olduğundan bu doğrusal olmayan bir ilişkidir.

yanıt vermeme yanlılığı

#fairness

Seçim yanlılığı bölümünü inceleyin.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, aşağıdaki durağanlık örneklerine göz atın:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede toplanan belirli bir meyvenin miktarı büyük bölümünde sıfır ancak kısa bir süre için büyüktür.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Sabitlik ile kontrast.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek aralığını dönüştürme süreci şunun gibi:

  • -1'den +1'e
  • 0 - 1
  • Z puanları (yaklaşık -3'ten +3'e)

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400. Özellik mühendisliği kapsamında, gerçek değerleri standart bir aralığa kadar normalleştirebilirsiniz: +1 olarak ayarlayın.

Normalleştirme, dünya çapında özellik mühendisliği. Modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretilmesi) için kullanılabilir. özellik vektörü hemen hemen aynı aralığa sahip.

yenilik algılama

Yeni bir örneğin, aynı kaynaktan gelip gelmediğini belirleme süreci eğitim grubu olarak dağıtabilirsiniz. Başka bir deyişle, Yenilik algılama, yeni bir yeni (çıkarım sırasında veya ek eğitim sırasında) aykırı değerleridir.

Aykı değer algılama ile kontrast.

sayısal veriler

#fundamentals

Tam sayı veya reel değerli sayılarla temsil edilen özellikler. Örneğin, ev değerleme modeli büyük olasılıkla binanın (fitkare veya metrekare cinsinden) sayısal veri olarak sunar. Temsil eden sayısal veriler olarak bir özellik, özelliğin değerlerinin, matematiksel bir ilişki olması gerekir. Yani bir evin metrekare sayısı için muhtemelen evin değeriyle matematiksel ilişki kurmaktır.

Tüm tamsayı veriler sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı bölgelerindeki posta kodları tam sayıdır; ancak, posta tam sayı kodların modellerde sayısal veri olarak temsil edilmemesi gerekir. Çünkü 20000 adresinin posta kodu, şu posta kodundan iki kat (veya yarısı) daha güçlü değil: 10.000. Dahası, farklı posta kodları farklı posta kodlarıyla ilişkili olsa da emlak değerlerinin, posta kodundaki emlak değerlerinin 20.000, 10000 posta kodundaki emlak değerlerinin iki katıdır. Posta kodları, kategorik veri olarak temsil edilmelidir. .

Sayısal özellikler bazen sürekli özelliklerle donatılmıştır.

NumPy

açık kaynak matematik kitaplığı Python'da verimli dizi işlemleri sağlar. pandas NumPy ile geliştirildi.

O

hedef

Algoritmanızın optimize etmeye çalıştığı bir metrik.

hedef fonksiyon

Bir modelin optimize etmeyi hedeflediği matematiksel formül veya metrik. Örneğin, doğrusal regresyon genellikle Ortalama Kare Kaybı. Bu nedenle, yeni bir doğrusal regresyon modeli olduğundan, eğitimde Ortalama Kare Kaybı en aza indirmeyi hedefler.

Bazı durumlarda amaç, hedef işlevini en üst düzeye çıkarmaktır. Örneğin, hedef işlevi doğruluk ise, kullanabilirsiniz.

Ayrıca bkz. kayıp.

eğik koşul

#df

Karar ağacında, birden fazla koşulu içeren koşul özelliği bulabilirsiniz. Örneğin, yükseklik ve genişlik özelliklerin ikisi de o zaman aşağıdaki şey eğik bir koşuldur:

  height > width

Eksene ayarlı koşul ile kontrast oluşturun.

çevrimdışı

#fundamentals

Statik ile eş anlamlıdır.

çevrimdışı çıkarım

#fundamentals

Toplu tahmin oluşturan bir model süreci sonra da bu tahminleri önbelleğe alır (kaydeder). Böylece uygulamalar, tahminde bulunmasını sağlar.

Örneğin, yerel hava durumu tahminleri oluşturan bir modeli ele alalım. (tahminler) ekleyebilirsiniz. Sistem, çalıştırılan her modelin tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları tahminleri alır kaldıracaktır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile kontrast oluşturun.

tek kullanımlık kodlama

#fundamentals

Kategorik verileri bir vektör olarak gösterme:

  • Bir öğe 1 olarak ayarlanmış.
  • Diğer tüm öğeler 0'a ayarlanır.

Tek kullanımlık kodlama, genellikle, SAFe olarak bilinen dizeleri veya tanımlayıcıları sonlu bir olası değer grubuna sahiptir. Örneğin, Scandinavia için beş olası değer vardır:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek seferlik kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek seferlik kodlama sayesinde, bir model farklı bağlantıları öğrenebilir kullanıcı başına ortalama gelirdir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek seferlik kodlamaya alternatiftir. Ne yazık ki, İskandinav ülkeleri sayısal olarak iyi bir seçim değil. Örneğin, şu sayısal temsili düşünün:

  • "Danimarka" 0'dır
  • "İsveç" 1'dir
  • "Norveç" 2'dir
  • "Finlandiya" 3'tür
  • "İzlanda" 4'tür

Sayısal kodlama ile, bir model ham sayıları yorumlarken vardır ve bu sayılara göre alıştırma yapmaya çalışır. Ancak İzlanda, 2022'den bu yana ortalamanın iki katı (veya yarısı kadar) bu durumda model bazı tuhaf sonuçlara ulaşabilirdi.

tek seferlik öğrenme

Genellikle nesne sınıflandırması için kullanılan makine öğrenimi yaklaşımı etkili sınıflandırıcılar öğrenecek şekilde tasarlanmıştır.

Ayrıca birkaç anlık görüntüyle sıfır çekimle öğrenme.

tek seferlik istem

#language
#generativeAI

Bir örnek içeren istem büyük dil modelinin yanıt vermesi gerekir. Örneğin, aşağıdaki istem, büyük bir dil modelinin nasıl uygulandığını gösteren bir sorguyu yanıtlayacaktır.

Tek bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: EUR Bir örnek.
Hindistan: Asıl sorgu.

Tek seferlik isteme özelliğini aşağıdaki terimlerle karşılaştırın:

bir veya tümü

#fundamentals

N sınıfla ilgili bir sınıflandırma sorunu verildiğinde, N ayrı çözeltiden oluşan çözüm ikili sınıflandırıcılar: Her biri için bir ikili sınıflandırıcı her olası sonucu belirlemenize yardımcı olur. Örneğin, Yeşil Ofis’teki Arkadaş Bitkiler projesinin ya da mineral olarak ortaya çıkarsa, hepsi yerine tek bir çözelti, şu üç ayrı ikili sınıflandırıcıdan gelmektedir:

  • hayvan mı hayvan mı değil mi
  • sebze mi, sebze olmayan mı
  • mineral mi, mineral değil mi

online

#fundamentals

Dinamik ile eş anlamlı.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma Örneğin, bir uygulamanın bir modele giriş ilettiğini ve bir tahmindir. Online çıkarım kullanan bir sistem, isteği (ve tahmini uygulamaya döndürmesi) gerekir.

Çevrimdışı çıkarım ile kontrast oluşturun.

işlem (op)

#TensorFlow

TensorFlow'da, veri feed'inizi oluşturan Bir Tensor'u manipüle eden veya yok eden. Örneğin, Örneğin, matris çarpım, bir sonuca ulaşmak için iki tensör ve çıkış olarak bir Tensor oluşturur.

Optax

JAX için bir gradyan işleme ve optimizasyon kitaplığı. Optax, gerçekleşebilecek yapı taşları sağlayarak gibi parametrik modelleri optimize etmek için özel derin nöral ağlar. Diğer hedefler şunlardır:

  • Test edilmiş, etkili ve okunabilir, test edilmiş ve etkili temel bileşenler.
  • Düşük seviyeli malzemelerin bir arada kullanılmasını sağlayarak verimliliği artırma özel optimize edicilere (veya diğer gradyan işleme bileşenlerine) dönüştürmenize olanak tanır.
  • Herkesin işini kolaylaştırarak yeni fikirlerin benimsenmesini hızlandırma katkıda bulunmanız gerekiyor.

optimize edici

Özel bir gradyan azalma uygulaması algoritmasında yer alır. Popüler optimize ediciler şunlardır:

  • AdaGrad, ADAptive GRADient iniş anlamına gelir.
  • Adı, Momentum ile ADAptive'i (ADAptive) kısaltmasıdır.

grup dışı homojenlik yanlılığı

#fairness

Grup dışı üyelerin grup içindeki üyelere kıyasla daha benzer olduğunu görme eğilimi kişisel nitelikleri gibi özellikleri ve davranışları, değerleri, özellikler. Grup içi, düzenli olarak etkileşimde bulunduğunuz kişileri ifade eder. out-group, düzenli olarak iletişim kurmadığınız kişileri ifade eder. Şu durumda: kullanıcıların şu özellikleri sağlamalarını isteyerek bir veri kümesi oluşturun: bu özellikler daha az incelikli ve klişeleşmiş olabilir. daha fazla değer katabilir.

Örneğin, Lilliputcular, diğer Lilliputyalıların evlerini anlatabilirler. ayrıntılı bir şekilde ele alarak, mimari tarzlar, pencereler ve yapılardaki kapılar ve boyutlar. Ancak aynı Lilliputcular, bu Brobdingnagi'ler aynı evde yaşar.

Grup dışı homojenlik yanlılığı bir tür grup ilişkilendirme yanlılığı hakkında daha fazla bilgi edinin.

Ayrıca bkz. grup içi önyargı.

aykırı değer algılama

Belirli bir zaman diliminde aykırı değerleri eğitim seti.

Yenilik algılama ile kontrast.

düşünün

Değerler, diğer çoğu değerden uzaktadır. Makine öğreniminde, aykırı değerler şunlardır:

  • Değerleri yaklaşık 3 standart sapmadan fazla olan giriş verileri yardımcı olur.
  • Yüksek mutlak değerlere sahip ağırlıklar.
  • Tahmini değerler, gerçek değerlerden nispeten uzaktadır.

Örneğin, widget-price değerinin belirli bir modelin özelliği olduğunu varsayalım. Ortalama widget-price değerinin standart sapmayla 7 avro olduğunu varsayın anlamına gelir. 12 avro veya 2 avro widget-price içeren örnekler bu nedenle aykırı olarak kabul edilir çünkü bu fiyatların her biri ortalamadan beş standart sapma.

Aykırı değerler genellikle yazım hatalarından veya diğer giriş hatalarından kaynaklanır. Başka durumlarda, aykırı değerler de hata değildir. sonuçta, beş standart sapma dışında değer veriyor nadiren de olsa imkansızdır.

Aykırı değerler model eğitiminde genellikle sorunlara yol açar. Kırpma aykırı değerleri yönetmenin bir yoludur.

paket dışı değerlendirmesi (OOB değerlendirmesi)

#df

Bir ürünün kalitesini değerlendiren bir mekanizma karar ormanını karar ağacını örnekler kullanılmayan eğitimi almanız gerekir. Örneğin, sistemin her karar ağacını eğittiğine dikkat edin. örneklerin yaklaşık üçte ikisi hakkında konuşuyor ve daha sonra, kalan örneğidir.

Üç karar ağacından oluşan bir karar ormanı.
          Bir karar ağacı, örneklerin üçte ikisinde eğitilir
          geriye kalan üçte birini OOB değerlendirmesi için kullanır.
          İkinci bir karar ağacı, farklı üçte ikilik düzeyinde eğitilir
          önce verilen karar ağacına göre örnekler verir ve ardından
          OOB değerlendirmesi için kullanılan
          karar ağacı var.

Dışarıdan yapılan değerlendirme, bilgi işlem açısından verimlidir ve muhafazakar bir yöntemdir. çapraz doğrulama mekanizmasının yaklaşık değerini gösterir. Çapraz doğrulamada, her çapraz doğrulama aşaması için bir model eğitilir (örneğin, 10 model 10 kat çapraz doğrulamayla eğitilir). OOB değerlendirmesiyle tek bir model eğitilir. Çünkü bagaj eğitim sırasında her ağaçtan bazı verileri alıkoyar, OOB değerlendirmesi bu verileri tahmin etmek için kullanır.

çıkış katmanı

#fundamentals

"Son" katmanını oluşturur. Çıkış katmanı tahmini içerir.

Aşağıdaki resimde giriş içeren küçük bir derin nöral ağ gösterilmektedir katmanı, iki gizli katman ve bir çıkış katmanı içerir:

Bir giriş katmanı, iki gizli katman ve bir gizli katman içeren nöral ağ
          çıkış katmanıdır. Giriş katmanı iki özellikten oluşur. İlk
          gizli katman, üç nöron ve ikinci gizli katmandan oluşur.
          iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Yeni modelle eşleşen bir model eğitim verilerini modelin başarısız olmasına neden olacak şekilde yeni veriler hakkında doğru tahminlerde bulunmanızı sağlar.

Normalleştirme, fazla uyumu azaltabilir. Geniş ve çeşitlilik barındıran bir eğitim setiyle eğitim, aşırı uyumu azaltabilir.

oversampling

Azınlık sınıfı ile ilgili örnekleri yeniden kullanma bir sınıf dengesiz veri kümesinde Daha dengeli bir eğitim seti oluşturun.

Örneğin, ikili sınıflandırmayı kullanabilirsiniz. büyük sınıfın büyüklükteki sınıfa oranının azınlık sınıfı 5.000:1'dir. Veri kümesinde milyon örnek varsa veri kümesi, azınlık sınıfına ilişkin yaklaşık 200 örnek içerir. çok az örnek verilebilir. Bu eksikliğin üstesinden gelmek için, Bu 200 örneğin birkaç kez fazla örneklenmesi (yeniden kullanılabilir) örnek olarak verilebilir.

Aşağıdaki durumlarda aşırı ayarlama konusunda dikkatli olmalısınız: olabilir.

Yetersiz örnekleme ile kontrast.

P

paketlenmiş veri

Verileri daha verimli depolamaya yönelik bir yaklaşım.

Paketlenmiş veriler, verileri sıkıştırılmış bir biçim kullanarak veya olanak sağlayan başka bir yöntem kullanmayı tercih edebilir. Paketlenmiş veriler, paketin içindeki verileri kullanmak için gereken bellek ve Bu da eğitimin daha hızlı gerçekleşmesini ve daha verimli model çıkarımını sağlar.

Paketlenmiş veriler genellikle veri genişletme ve düzenlemenin performansını daha da iyileştirecek modellere göre tanımlar.

pandalar

#fundamentals

numpy temel alınarak oluşturulmuş, sütun odaklı bir veri analizi API'si. Birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekleyin. Bkz. pandas dokümanları inceleyebilirsiniz.

parametre

#fundamentals

Bir modelin dönüşüm sırasında öğrendiği ağırlıklar ve ön yargılar eğitim. Örneğin, doğrusal regresyon modeli kullanıyorsanız parametreler ağırlıklandırma (b) ve tüm ağırlıklar (w1, w2, vb.) formülünü kullanabilirsiniz:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık hyperparameter, siz (veya bir hiperparametre ayarlama hizmeti) tedarik eder. Örneğin, öğrenme hızı bir hiperparametredir.

parametre verimli ayarlama

#language
#generativeAI

Büyük ve küçük bir reklamda ince ayar yapmak önceden eğitilmiş dil modeli (PLM) tam ince ayar'lardan daha verimlidir. Parametre açısından verimli ayarı genellikle tam ayara kıyasla çok daha az parametreye ince ayar yapar ancak genellikle modelin yüksek performans gösteren büyük dil modeli aynı zamanda (ya da neredeyse aynı) tam sürümden ve ince ayar.

Parametre verimli ayarı aşağıdakilerle kıyaslayın ve karşılaştırın:

Parametre verimli ayarlama, parametre açısından verimli ince ayar olarak da bilinir.

Parametre Sunucusu (PS)

#TensorFlow

Modelin parametrelerini dağıtılmış ayardır.

parametre güncellemesi

Dönüşüm sırasında bir modelin parametrelerini ayarlama işlemi genelde tek bir yineleme içinde gradyan azalma.

kısmi türev

Değişkenlerden biri hariç tümünün sabit kabul edildiği bir türev. Örneğin, f(x, y) işlevinin x'e göre kısmi türevi Yalnızca x'in bir fonksiyonu olarak kabul edilen f'nin türevi (yani y'yi koruyarak) sabit). f'nin x'e göre kısmi türevi yalnızca şuna odaklanır: x'in nasıl değiştiğini gösterir ve denklemdeki diğer tüm değişkenleri göz ardı eder.

katılım önyargısı

#fairness

Yanıt vermeme yanlılığının eş anlamlısı. Seçim yanlılığı bölümünü inceleyin.

bölümlendirme stratejisi

Değişkenlerin bölündüğü algoritma parametre sunucuları.

Pax

Büyük ölçekli eğitim vermek için tasarlanmış bir programlama çerçevesi nöral ağ çok büyük modelleri daha fazla TPU kaplayan hızlandırıcı çipi dilimleri veya kapsüller oluşturun.

Pax, JAX tabanlı olan Flax'te geliştirilmiştir.

Pax&#39;in yazılım yığınındaki konumunu gösteren şema.
          Pax, JAX temel alınarak oluşturulmuştur. Pax üç öğeden oluşur
          katman olarak görünür. Alt katman TensorStore ve Flax&#39;i içerir.
          Orta katman Optax ve Flaxformer içerir. Üst
          katman, Praks Modelleme Kitaplığı içeriyor. Fiddle oluşturuldu
          ve Pax&#39;in başına geçti.

algılayıcı

Bir veya daha fazla giriş değeri alan bir sistem (donanım ya da yazılım), girişlerin ağırlıklı toplamı üzerinde bir işlev çalıştırır ve tek bir çıkış değeridir. Makine öğreniminde fonksiyon genellikle doğrusal değildir: ReLU, sigmoid veya tan. Örneğin, aşağıdaki algılayıcı, verileri işleme almak için sigmoid işlevine üç giriş değeri vardır:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

Aşağıdaki çizimde, algılayıcı üç giriş alır. Bunların her biri değeri, algılayıcıya girmeden önce bir ağırlık tarafından değiştirilir:

3 giriş alan ve her biri ayrı birer girişle çarpılan bir algılayıcı
          ağırlıklar. Algılayıcı, tek bir değer üretir.

Algılar, gezegendeki nöronlardır nöral ağlar.

performans

Şu anlamları taşıyan aşırı yüklenmiş terim:

  • Yazılım mühendisliğindeki standart anlam. Yani: Ne kadar hızlı (veya verimli bir şekilde) çalışıyor mu?
  • Makine öğreniminin anlamı. Bu bağlamda performans, şu soruların cevabını verir: "Bu model ne kadar doğrudur? Yani, Modelin tahminleri ne kadar iyi?

permütasyon değişkeninin önemleri

#df

Değerlendirmenizi yapan bir değişken önem türü bir modelin tahmin hatasındaki artışı sonra özelliğinin değerleri. Permütasyon değişkeninin önemi modelden bağımsızdır metriğine karşılık gelir.

şaşkınlık

Bir modelin görevini ne kadar iyi yerine getirdiğini gösteren bir ölçüm. Örneğin, görevinizin bir kelimenin ilk birkaç harfini okumak olduğunu varsayalım Bir kullanıcı telefonun klavyesinde yazı yazıyor ve kullanıcılara olası için kullanılır. Karışıklık, P, bu görevde yaklaşık olarak şu sayıya karşılık gelir: satırların gerçek anahtar kelimeleri içermesi için sunmanız gereken tahminlerin kullanıcının yazmaya çalıştığı kelime.

Karışıklık aşağıdaki şekilde çapraz entropi ile ilgilidir:

$$P= 2^{-\text{cross entropy}}$$

ardışık düzen

Makine öğrenimi algoritmasını çevreleyen altyapı. Ardışık düzen verileri toplamayı, verileri eğitim veri dosyalarına yerleştirmeyi, bir veya daha fazla modeli eğitmek ve modelleri üretime aktarmaktır.

ardışık düzen

#language

Bir modelin paralellik (model paralelliği) işleme ardışık aşamalara bölünür ve her aşama yürütülür açın. Bir aşama bir grubu işlerken önceki grup nasıl çalışabileceğine bakalım.

Ayrıca aşamalı eğitimlere de göz atın.

Pjit

Kodu birden fazla uygulamada çalıştıracak şekilde bölen bir JAX işlevi hızlandırıcı çiplerini kullanın. Kullanıcı pjit'e bir işlev iletir. Bu sonuç, eşdeğer anlamlara sahip ancak derlenmiş bir işlev döndürür birden fazla cihazda çalışan bir XLA hesaplamasına (ör. GPU'lar veya TPU çekirdekleri).

pjit, kullanıcıların SPMD bölümleyicisi kullanır.

Mart 2023 itibarıyla pjit, jit ile birleştirildi. Referans Dağıtılmış diziler ve otomatik paralel yapma inceleyebilirsiniz.

PLM

#language
#generativeAI

Önceden eğitilmiş dil modeli'nin kısaltmasıdır.

pmap

Giriş işlevinin kopyalarını yürüten bir JAX işlevi birden fazla temel donanım cihazında Farklı giriş değerlerine sahip CPU, GPU veya TPU'lar. pmap, SPMD'yi kullanır.

policy

#rl

Pekiştirmeli öğrenmede bir aracının olasılık eşlemesi durumlardan eylemlere kadar çeşitli özellikler sunar.

havuza alma

#image

Önceki projelerde oluşturulan matrisleri (ya da matrisleri) konvolüsyonel katmanı daha küçük bir matrise oluşturun. Havuzlama, genellikle en yüksek veya ortalama değerden bir grup insanda görülür. Örneğin, aşağıdaki 3x3 matrisi bulunur:

3x3 matrisi [[5,3,1], [8,2,5], [9,4,3]].

Havuzlama işlemi, tıpkı konvolüsyonlu işlemde olduğu gibi, dilimlere ayırır ve ardından bu kıvrımlı işlemi adımlar. Örneğin, havuz oluşturma işleminin konvolüsyon matrisi, 1x1 adımlı 2x2 dilimlere böler. Aşağıdaki şemada gösterildiği gibi dört havuz oluşturma işlemi gerçekleşir. Her bir havuz oluşturma işleminin toplam dört değer var:

[[5,3,1], [8,2,5], [9,4,3]] değerleriyle giriş matrisi 3x3&#39;tür.
          Giriş matrisinin sol üstteki 2x2 alt matrisi [[5,3], [8,2]] şeklindedir.
          sol üstteki havuz işlemi, 8 değerini (yani
          5, 3, 8 ve 2) kaldırın. Girişin sağ üstteki 2x2 alt matrisi
          matris [[3,1], [2,5]] olduğundan sağ üstteki havuz işlemi
          5. Giriş matrisinin sol alttaki 2x2 alt matrisi
          [[8,2], [9,4]] olduğundan sol alttaki havuz işlemi
          9. Giriş matrisinin sağ alttaki 2x2 alt matrisi
          [[2,5], [4,3]] olduğundan sağ alttaki havuz işlemi
          5.c Özetle, havuz oluşturma işlemi 2x2 matrisi
          [[8,5], [9,5]],

Havuz, çevirisel değişkenlik olarak gönderin.

Görsel uygulamalar için havuz oluşturma, daha resmi olarak uzamsal havuz olarak bilinir. Zaman serisi uygulamaları genellikle havuza geçici havuz denir. Daha resmî olmayan bir şekilde, havuzlama genellikle alt örnekleme veya aşağı örnekleme olarak adlandırılır.

konumsal kodlama

#language

Bir jetonun bir dizideki konumu hakkında bilgi ekleyerek jetonun yerleştirilmesi. Dönüştürücü modelleri, konum verilerini kullanır. bileşenleri arasındaki ilişkiyi daha iyi anlamak için kodlama tıklayın.

Konumsal kodlamanın yaygın bir uygulaması, sinüsoidal fonksiyonları kullanır. (Sinüzoidal fonksiyonun frekansı ve genliği jetonun sıradaki konumuna göre belirlenir.) Bu teknik Transformer modelinin farklı kısımlara katılmayı öğrenmesini sağlar. uygun bir sıralama elde edebilir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcıdaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile kontrast oluşturun.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra model çıktısını düzenleme. Son işleme, herhangi bir değer olmadan adalet kısıtlamalarını uygulamak için modellerin kendisinde değişiklik yapıyor.

Örneğin, bir ikili program sınıflandırıcıya işleme sonrası bir sınıflandırma eşiği belirleyerek fırsat eşitliğinin korunması Belirli bir özellik için gerçek pozitif oranı kontrol ederek bu özelliğin tüm değerleri için aynıdır.

PR AUC (PR eğrisinin altındaki alan)

İnterpolasyon altındaki alan Grafik yöntemiyle elde edilen hassas-geri çağırma eğrisi (geri çağırma, kesinlik) noktanın farklı değerleri için sınıflandırma eşiğini kullanın. Bu videoda hesaplandığında, PR AUC, 2005'teki modelin ortalama hassasiyetini.

Praxis

Pax'in temel ve yüksek performanslı makine öğrenimi kitaplığı. Praksis genelde “Katman kitaplığı” adlı bir uzantı var.

Plaksis yalnızca Katman sınıfının tanımlarını değil, aynı zamanda çoğu aşağıdakileri de içeren destekleyici bileşenlerine de sahiptir:

Plaksis, Model sınıfının tanımlarını sağlar.

precision

Sınıflandırma modelleri için şu soruya yanıt veren bir metrik: şu soru var:

Model pozitif sınıfı tahmin ettiğinde tahminlerin yüzde kaçı doğruydu?

Formülü şu şekildedir:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

Bu örnekte:

  • doğru pozitif, modelin pozitif sınıfı doğru şekilde tahmin ettiği anlamına gelir.
  • yanlış pozitif, modelin pozitif sınıfı yanlışlıkla tahmin ettiği anlamına gelir.

Örneğin, bir modelin 200 olumlu tahminde bulunduğunu varsayalım. Bu 200 olumlu tahminden:

  • 150 doğru pozitifti.
  • 50 yanlış pozitif sonuç verdi.

Bu durumda:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

Doğruluk ve geri çağırma ile kontrast oluşturun.

hassasiyet-geri çağırma eğrisi

Farklı noktalarda hassas eğrisi ile geri çağırma eğrisi sınıflandırma eşikleri.

tahmin

#fundamentals

Bir modelin çıkışı. Örneğin:

  • İkili sınıflandırma modeli tahmini, pozitif sınıfını belirler.
  • Çok sınıflı sınıflandırma modeli için tahmin tek sınıftır.
  • Doğrusal regresyon modelinde tahmin, bir sayıdır.

tahmin yanlılığı

Bir anahtar kelimenin ortalamasıyla arasında ne kadar tahminler, etiketlerin ortalamasını temel alır ekler.

Makine öğrenimi modellerindeki önyargı terimi ile karıştırılmamalıdır etik ve adaletteki önyargıları göz önünde bulundurun.

tahmine dayalı makine öğrenimi

Herhangi bir standart ("klasik") makine öğrenimi sistemi.

Tahmine dayalı makine öğrenimi teriminin resmi bir tanımı yoktur. Terim, daha ziyade bir makine öğrenimi sistemi kategorisini temel çözümlere üretken yapay zeka.

tahmini denklik

#fairness

Adillik metriği, belirli bir sınıflandırıcının hassas oranları üzerinde değerlendirilen alt gruplar için eşdeğerdir.

Örneğin, üniversiteye kabul edileceğini öngören bir model Hassasiyet oranı aynıysa uyruk için tahmine dayalı denklik bir parçasıydı.

Tahmini parite zaman zaman tahmini hız paritesi olarak da adlandırılır.

Bkz. "Adillik Tanımları Açıklamalar" (bölüm 3.2.1) başlıklı bölüme göz atın.

tahmini oran paritesi

#fairness

Tahmine dayalı denklik'in diğer bir adıdır.

ön işleme

#fairness
Verileri, model eğitmek için kullanılmadan önce işleme. Ön işleme, örneğin, İngilizce bir metin topluluğundan İngilizce sözlükte geçen bir kelime ya da şeyi yeniden ifade etmek kadar veri noktalarını, ilişkili olan çok sayıda özelliği ortadan kaldıracak şekilde hassas özelliklerle ilişkilendirdiğinizden emin olun. Ön işleme, adillik kısıtlamalarının yerine getirilmesine yardımcı olabilir.

önceden eğitilmiş model

#language
#image
#generativeAI

Modeller veya model bileşenleri (örneğin, yerleştirme vektörü) ekleyin. Bazen, önceden eğitilmiş yerleştirme vektörlerini sinirsel ağ. Bazı durumlarda ise modeliniz yerleştirme vektörleri yerleştirme yöntemidir.

Önceden eğitilmiş dil modeli terimi, yeni ve büyük dil modeli ön eğitim.

ön eğitim

#language
#image
#generativeAI

Bir modelin büyük bir veri kümesi üzerinde ilk eğitimi. Önceden eğitilmiş bazı modeller sakar devlerdir ve genellikle ek eğitimle rafine olmaları gerekir. Örneğin, makine öğrenimi uzmanları bir geniş metin veri kümesinde büyük dil modeli İngilizce sayfalar için de geçerli. Ön eğitimin ardından elde edilen model, aşağıdaki yöntemlerden herhangi biri kullanılarak daha da hassaslaştırılabilir. teknikler:

önceki inanç

Eğitime başlamadan önce veriler hakkında ne düşünüyorsunuz? Örneğin L2 normalleştirmesi, ağırlıkların küçük ve normal olması gerektiğine dair inanç yaklaşık olarak dağıtılıyor.

olasılıksal regresyon modeli

Yalnızca Her bir özellik için ağırlık ve aynı zamanda belirsizlikleri giderir. Olasılıksal regresyon modeli o tahminin belirsizliğini ortaya koyar. Örneğin, olasılıksal regresyon modeli, 2025'e kadar rastgele bir sorguyla 325 12’lik standart sapma. Olasılıksal regresyon hakkında daha fazla bilgi için daha fazla bilgi için Colab tensorflow.org.

olasılık yoğunluk fonksiyonu

Veri örneklerinin sıklığını tanımlayan bir işlevde tam olarak bir değeri girin. Veri kümesinin değerleri sürekli kayan nokta olduğunda tam eşlemeler nadiren olur. Ancak bir olasılığı entegre etmek x değeri ile y değeri arasındaki yoğunluk işlevi, beklenen sıklık değerini verir x ile y tarihleri arasında veri örnekleri.

Örneğin, ortalaması 200 ve ortalaması 200 olan normal bir dağılımın 30’luk standart sapma. Veri örneklerinin beklenen sıklığını belirlemek için 211,4 - 218,7 aralığında olduğunda, olasılığı yoğunluk fonksiyonu.

istem

#language
#generativeAI

Büyük dil modeline giriş olarak girilen metinler davranış şekli koşulmasını sağlar. İstemler en az bir kelime öbeği veya rastgele uzun (örneğin, bir romandaki tüm metin). İstem sayısı aşağıdaki tabloda gösterilenler dahil olmak üzere birden çok kategoriye ayrılabilir:

İstem kategorisi Örnek Notlar
Soru Güvercin ne kadar hızlı uçabilir?
Talimat Arbitraj hakkında komik bir şiir yazın. Büyük dil modelinden bir işlem yapmasını isteyen bir istem.
Örnek Markdown kodunu HTML'ye çevirin. Örnek:
Markdown: * liste öğesi
HTML: <ul> <li>liste öğesi</li> &lt;/ul&gt;
Bu örnek istemdeki ilk cümle bir talimattır. İstemin geri kalanı örnek olarak verilmiştir.
Rol Derecelendirme inişinin makine öğrenimi eğitiminde neden kullanıldığını açıklama Fizik doktorası yaptım. Cümlenin ilk bölümü bir talimattır. ifade "Fizik doktorası" rol kısmıdır.
Modelin tamamlanması için kısmi giriş Birleşik Krallık Başbakanı'nın yaşadığı yer Kısmi giriş istemi aniden sonlanabilir (bu örnekte olduğu gibi) veya alt çizgiyle biter.

Üretken yapay zeka modelleri, istemlere metin, resim veya Kod, resimler, yerleştirmeler, videolar, neredeyse her şey.

isteme dayalı öğrenim

#language
#generativeAI

Belirli modellerin uyum sağlamalarını sağlayan özellik rastgele metin girişlerine (istemler) göre davranışları. Tipik bir istem tabanlı öğrenme paradigmasında büyük dil modeli, isteklere metin oluşturuyoruz. Örneğin, bir kullanıcının aşağıdaki istemi girdiğini varsayalım:

Newton'un üçüncü hareket yasasını özetleme.

İsteme dayalı öğrenme yeteneğine sahip bir model, sorunu yanıtlamak için özel olarak eğitilmemiş karar verebilir. Aksine, model fizik hakkında birçok bilgi genel dil kuralları ve genel olarak neyin geçerli faydalı cevaplar. Bu bilgi (umarız) yararlı bir olasılık sağlamak için ver. İnsan kaynaklı ek geri bildirim ("Bu yanıt çok karmaşıktı" veya "Tepki nedir?"") istem temelli bazı öğrenim sistemlerinin, daha faydalı olmasını sağlayabilir.

istem tasarımı

#language
#generativeAI

İstem mühendisliği ile eş anlamlıdır.

istem mühendisliği

#language
#generativeAI

İstenen yanıtları veren istemler oluşturma sanatı büyük dil modeli kullanarak. İstem yapan insanlar mühendisliği. İyi yapılandırılmış istemler yazmak, büyük dil modelinden faydalı yanıtlar almaktır. İstem mühendisliği birçok faktörü vardır. Örneğin:

Görüntüleyin İstem tasarımına giriş daha fazla bilgi edinebilirsiniz.

İstem tasarımı, istem mühendisliği ile eş anlamlıdır.

istem ayarı

#language
#generativeAI

Parametre açısından verimli ayarlama mekanizması "önek" öğrenen eklemesi gereken gerçek istem.

İstem ayarlamanın bir varyasyonu da (bazen önek ayarı olarak da adlandırılır) her katmanın başına öneki ekleyin. Öte yandan, çoğu istem ayarı yalnızca giriş katmanına bir önek ekler.

proxy etiketleri

#fundamentals

Veri kümesinde doğrudan mevcut olmayan etiketleri tahmin etmek için kullanılan veriler.

Örneğin, çalışanı tahmin etmek için bir model eğitmeniz gerektiğini varsayalım stres seviyesi. Veri kümenizde çok sayıda tahmin özelliği olsa da stres seviyesi adlı bir etiket içermiyor. Tecrübesiz, "iş yeri kazaları"nı seçiyorsunuz proxy etiketi olarak kullanabilirsiniz. stres seviyesi. Sonuçta yüksek stres altındaki çalışanlar genelde sakin çalışanlardan çok kazalar. Yoksa yapıyorlar mı? İş yeri kazaları olabilir birkaç nedenden dolayı yükselip düşer.

İkinci bir örnek olarak, yağmur yağıyor mu? sorusunun Boole etiketi olmasını istediğinizi varsayalım. ancak veri kümeniz yağmur verileri içermiyor. Eğer fotoğraflar varsa, insanların yer aldığı yağmur yağıyor mu? Bu değişiklik iyi bir proxy etiketi olabilir mi? Muhtemelen ama bazı kültürlerdeki insanlar yağmurdan korunmak için şemsiye taşıma ihtimali daha yüksektir.

Proxy etiketleri genellikle kusursuz değildir. Mümkün olduğunda proxy etiketlerini kullanabilirsiniz. Bununla birlikte, gerçek bir etiket olmadığında tehlikeli olmayan proxy etiketi adayını seçerek etiketi çok dikkatli bir şekilde etiketleyin.

proxy (hassas özellikler)

#fairness
Bir özelliğin göstergesi olarak kullanılan hassas özellik özelliği hakkında daha fazla bilgi edinin. Örneğin, kişinin posta kodu, gelirinin göstergesi olarak kullanılabilir. ırk veya etnik köken.

yalın fonksiyon

Çıkışları yalnızca girişlere dayanan ve tarafı olmayan fonksiyon hoşuma gidiyor. Özellikle, tam işlev herhangi bir genel durumu kullanmaz veya değiştirmez. Örneğin dosya içeriği veya işlevin dışındaki değişkenin değeri gibi.

Sadece işlevler kullanılabilir iş parçacığı açısından güvenli kod oluşturmak için model kodunu birden fazla parçada parçalarken hızlandırıcı çiplerini kullanın.

JAX'ın işlev dönüştürme yöntemleri için giriş fonksiyonlarının yalın fonksiyonlar olduğunu belirtelim.

SORU

Q İşlevi

#rl

Pekiştirmeli öğrenmede, tamamlanmasından beklenen dönüşü işlem durum ve ardından belirli bir politikayı takip etmeniz gerekir.

Q işlevi, durum-işlem değeri işlevi olarak da bilinir.

Q-öğrenim

#rl

Pekiştirmeli öğrenmede, bir aracıya izin verir bir mekanizmanın ideal Q işlevini Markov karar sürecini Bellman denklemi. Markov karar süreci modelleri Bir ortam.

yüzdelik dilim

Kıdemli paketleme kapsamındaki her paket.

yüzdelik dilim grubu

Bir özelliğin değerlerini paketlere dağıtarak her bir paketinde aynı (veya neredeyse aynı) sayıda örnek bulunur. Örneğin, Aşağıdaki şekilde 44 puan, her biri 4 bölüme ayrılır. 11 puan içeriyor. Şekildeki her bir grubun aynı sayıda nokta varsa bazı paketler farklı x değerleri genişliğini kaplar.

44 veri noktası, her biri 11 noktalı 4 gruba ayrılmıştır.
          Her paket aynı sayıda veri noktası içerse de
          bazı paketler, diğerlerine kıyasla daha geniş bir özellik değeri aralığı içeriyor
          paket.

nicelleştirme

Aşağıdaki şekillerde kullanılabilecek aşırı yüklenmiş terim:

  • Kıdemli paketlemeyi uygulama belirli bir özellik üzerinden.
  • Daha hızlı depolama, eğitim ve kontrol için verileri sıfırlara ve birlere dönüştürme çıkarım yapabilirsiniz. Boole verileri gürültü ve hatalara karşı başka biçimler de kullansa da niceleme, modelin doğruluğunu iyileştirebilir. Nicelendirme teknikleri arasında yuvarlama, kesme ve binning değerleridir.
  • Bir modelin veri deposunu depolamak için kullanılan bit sayısını parametrelerini kullanın. Örneğin, bir modelin parametrelerinin 32 bitlik kayan nokta sayıları olarak depolanır. Nicelendirme, bu bilgileri 32 bitten 4, 8 veya 16 bite kadar farklı parametreler sunar. Nicelendirme, takip etmek için:

    • İşlem, bellek, disk ve ağ kullanımı
    • Bir tahminde sonuç elde etme zamanı
    • Güç tüketimi

    Ancak nicelemeler bazen bir modelin doğruluğunu azaltır tahminler.

sıra

#TensorFlow

Sıra verilerini uygulayan bir TensorFlow İşlemi inceleyeceğiz. Genellikle G/Ç'de kullanılır.

K

RAG

#fundamentals

için kısaltma almayla artırılmış oluşturma.

rastgele orman

#df

Google Dokümanlar'da karar ağaçlarından oluşan bir topluluk Her karar ağacının belirli bir rastgele gürültüyle eğitildiği (ör. bagaj).

Rastgele ormanlar, bir tür karar ormanıdır.

rastgele politika

#rl

Pekiştirmeli öğrenmede geçerli bir politika işlem yapın.

sıralama

Bir tür gözetimli öğrenme bir öğe listesini sıraya sokmaktır.

sıralama (sıralılık)

Makine öğrenimi problemindeki bir sınıfın sıradaki konumu. Sınıflandırmayı en yüksekten en düşüğe doğru sıralar. Örneğin, bir davranış sıralamasında bir köpeğin ödüllerini en yüksekten (biftek) kadar (solmuş karalahana).

rütbe (Tensor)

#TensorFlow

Bir Tensor'daki boyut sayısı. Örneğin, bir skaler sıralaması 0, bir vektörün sıralaması 1 ve matrisin sıralaması 2'dir.

Sıralama (ordinasyon) ile karıştırılmamalıdır.

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan bir insan. "Not oluşturucu" değerlendiricinin diğer bir adıdır.

hatırlanabilirlik

Sınıflandırma modelleri için şu soruya yanıt veren bir metrik: şu soru var:

Kesin referans pozitif bir sınıfta, tahminlerin yüzde kaçı pozitif sınıf olarak doğru tanımlaması gerekir mi?

Formülü şu şekildedir:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

Bu örnekte:

  • doğru pozitif, modelin pozitif sınıfı doğru şekilde tahmin ettiği anlamına gelir.
  • yanlış negatif, modelin yanlış negatif sınıf.

Örneğin, modelinizin hangi sinyallere (ör. her bir kullanıcı) ait veriler için temel doğru, pozitif sınıftı. Bu 200 tahminden:

  • 180 sayı doğru pozitifti.
  • 20 tanesi yanlış negatifti.

Bu durumda:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

öneri sistemi

#recsystems

Her kullanıcı için nispeten küçük bir istenen kümeyi seçen bir sistem öğeleri. Örneğin, video öneri sistemi iki video önerebilir video kitaplığını inceleyerek Casablanca'yı ve Bir kullanıcı için The Philadelphia Story, Wonder Woman ve Diğeri için Kara Panter. Video öneri sistemi, aşağıdaki faktörleri temel alır:

  • Benzer kullanıcıların oyladığı veya izlediği filmler.
  • Tür, yönetmenler, aktörler, hedef demografi...

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşit olur.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun bir hikayesi şöyle:

İki çizgili kartezyen çizim. İlk satırda sabit değer var
          x ekseni boyunca -sonsuz, 0 ile 0,-0 arasında değişen, y değerinin 0 olduğunu varsayalım.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin eğimi +1&#39;dir, yani
          0,0 ile +sonsuz,+sonsuz arasında değişir.

ReLU çok popüler bir aktivasyon fonksiyonudur. Bu basit davranışa rağmen, ReLU, nöral ağların doğrusal olmayan konuları öğrenmesini sağlamaya devam ediyor özellikler ile etiket arasındaki ilişkiler.

yinelenen nöral ağ

#seq

Kasıtlı olarak birden fazla çalışan sinirsel ağ her bir bölümün bir sonraki çalıştırmaya aktarıldığı zaman. Özellikle, önceki çalıştırmadaki gizli katmanlar, aynı gizli katmana girmektir. Yinelenen nöral ağlar dizilerin değerlendirilmesinde özellikle yararlıdır. Çünkü gizli katmanlar önceki kısımlarında sinir ağının önceki çalıştırmalarından anlamına gelir.

Örneğin, aşağıdaki şekilde gösterilen, tekrarlayan bir nöral ağ dört kez çalışır. Gizli katmanlarda öğrenilen değerlerin, ilk çalıştırma, aynı gizli katmanlardaki girişin bir parçası emin olmanız gerekir. Benzer şekilde, ikinci çalıştırma, aynı gizli katmana ait girişin bir parçası üçüncü koşu. Bu şekilde, yinelenen nöral ağ yavaş yavaş eğitilir Yalnızca anlam yerine dizinin tamamının anlamını tahmin eder elde edilir.

Dört kez girilen bir kelimeyi işlemek için dört kez çalışan bir RNN.

regresyon modeli

#fundamentals

Gayri resmî olarak, sayısal tahmin oluşturan bir modeldir. (Buna karşın, Sınıflandırma modeli, sınıf oluşturur prediction.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • 423.000 avro gibi belirli bir evin değerini tahmin eden bir model.
  • Belirli bir ağacın yaşam süresini (ör.23, 2 yıl) tahmin eden bir model.
  • Belirli bir şehirde düşecek yağmur miktarını tahmin eden bir model (ör.0, 18 inç) görüntüler.

Yaygın iki regresyon modeli türü şunlardır:

  • Doğrusal regresyon, en iyi sonucu veren çizgiyi bulur etiket değerlerini özelliklere uygun hale getirir.
  • Mantıksal regresyon, bir sistemin genellikle daha sonra bir sınıfla eşlendiği 0,0 ile 1,0 arasında olasılık bir tahmindir.

Sayısal tahmin üreten her model regresyon modeli değildir. Bazı durumlarda sayısal tahmin yalnızca bir sınıflandırma modelidir sınıf adları vardır. Örneğin, bir tahminde bulunan sayısal posta kodu bir sınıflandırma modelidir, regresyon modeli değildir.

normalleştirme

#fundamentals

Fazla uyumu azaltan mekanizmalar. Popüler normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Her bir görevin göreceli önemini düzenleme. Hedeflerinizi yükseltme normalleştirme oranı fazla uyum'u azaltır ancak modelin tahmin gücünü azaltır. Aynı şekilde, normalleştirme oranı fazla uyumu artırır.

pekiştirmeli öğrenme (RL)

#rl

Optimum politikayı öğrenen algoritma ailesi. müşteriyle etkileşimde bulunduğunuzda getiriyi en üst düzeye çıkarmaktır. ortam Örneğin, çoğu oyunun nihai ödülü zaferdir. Pekiştirmeli öğrenme sistemleri, karmaşık oyunları oynamada uzmanlaşabilir önceki oyun hamlelerinin sıralarını değerlendirerek sonuçta da kayıplara yol açan galibiyetler ve sekanslar oldu.

İnsan Geri Bildiriminden (RLHF) Pekiştirmeli Öğrenme

#generativeAI
#rl

Modellere verilen yanıtların kalitesini artırmak için gerçek kişilerden oluşan değerlendirme ekiplerinin geri bildirimlerinden yararlanma Örneğin RLHF mekanizması, kullanıcılardan bir modelin kalitesini değerlendirmelerini 👍 veya 👎 emojisiyle yanıt verin. Sistem daha sonra verdiği yanıtları ayarlayabilir karar verebilir.

ReLU

#fundamentals

Doğrulanmış Doğrusal Birim'in kısaltması.

tekrar oynatma arabelleği

#rl

DQN benzeri algoritmalarda, aracı tarafından kullanılan bellek durum geçişlerini saklayarak deneyim tekrarı.

replika

Eğitim grubunun veya modelinin bir kopyası başka bir makinede çalışır. Örneğin, bir sistem aşağıdaki veri paralelliğini uygulama stratejisi:

  1. Mevcut bir modelin replikalarını birden fazla makineye yerleştirin.
  2. Eğitim kümesinin farklı alt kümelerini her replikaya gönderin.
  3. Parametre güncellemelerini toplayın.

raporlama yanlılığı

#fairness

İnsanların eylemler hakkında yazma sıklığının, gerçek dünyalarını yansıtmayan özellikleri bir özelliğin özellikte olduğu frekansı bir grup insanla ilişkilidir. Raporlama yanlılığı kompozisyonu etkileyebilir temel veri kümesine eklenir.

Örneğin, kitaplarda gülmek kelimesi nefes alır. Görevlerin göreli sıklığını tahmin eden bir makine öğrenimi bir kitap koleksiyonundan gülmek ve nefes almak muhtemelen Gülmek nefes almaktan daha yaygın.

temsil

Verileri faydalı özelliklerle eşleme işlemi.

yeniden sıralama

#recsystems

Öneri sisteminin son aşaması Bu süre zarfında, puanlanan öğeler başka ölçütlere göre yeniden bir algoritmadır. Yeniden sıralama, öğelerin listesini değerlendirir puanlama aşamasında elde edilir ve aşağıdaki gibi işlemler yapılır:

  • Kullanıcının zaten satın aldığı öğelerden kurtulmak.
  • Daha yeni öğelerin puanını artırmak.

almayla artırılmış oluşturma (RAG)

#fundamentals

Kaliteyi artırmak için kullanılan bir teknik, büyük dil modeli (LLM) çıkışı modeli eğitildikten sonra edinilen bilgi kaynaklarını temel alarak. RAG, eğitimli LLM’ye (büyük dil modeli) güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişme.

Almayla zenginleştirilmiş nesilleri kullanma konusunda yaygın motivasyonlar şunlardır:

  • Bir modelin oluşturulan yanıtlarının olgusal doğruluğunu artırma.
  • Modelin, eğitilmediği bilgilere erişmesine izin verme.
  • Modelin kullandığı bilgileri değiştirme.
  • Modelin kaynaklardan alıntı yapabilme özelliği etkinleştiriliyor.

Örneğin, bir kimya uygulamasının PaLM'yi kullandığını varsayalım. API'yi kullanarak özet oluşturma alakalı olabilir. Uygulamanın arka ucu bir sorgu aldığında arka uç şunları yapar:

  1. Kullanıcının sorgusuyla alakalı verileri ("alır") arar.
  2. Alakalı kimya verilerini kullanıcının sorgusuna ekler ("artırma").
  3. LLM'ye, eklenen verilere dayalı bir özet oluşturmasını söyler.

return

#rl

Pekiştirmeli öğrenmede, belirli bir politika ve durum göz önüne alındığında, getiri, aracının verdiği tüm ödüllerin toplamıdır politikaya uygun hareket ederek bölümün sonuna belirtin. Temsilci Ödüllere indirim yaparak beklenen ödüllerin gecikmeli oluşunu hesaba katar uygun olması gerekir.

Dolayısıyla, indirim faktörü \(\gamma\)ve \(r_0, \ldots, r_{N}\)ise ve ardından bölümün sonuna kadar ödüllerin ödenmesi, ardından gelirin şu şekildedir:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

ödül

#rl

Pekiştirmeli öğrenmede, bir hesaplamanın sayısal sonucu olarak Tanımlandığı şekilde, bir durumdaki işlem ortam.

sırt normalleştirmesi

L2 normalleştirmesi ile eş anlamlıdır. Terim ridge normalleştirme, saf istatistiklerde daha sık kullanılır bağlamlar, L2 normalleştirme ise daha sık kullanılır bir ekiple çalışıyorum.

RNN

#seq

Yinelenen nöral ağların kısaltmasıdır.

ROC (alıcı çalışma özelliği) Eğrisi

#fundamentals

Karşılaştırmanın gerçek pozitif oranı Farklı kullanıcılar için yanlış pozitif oranı İkili programdaki sınıflandırma eşikleri en iyi uygulamaları görelim.

Bir ROC eğrisinin şekli, bir ikili sınıflandırma modelinin negatif sınıfları birbirinden ayırın. Diyelim ki ve tüm negatif anahtar kelimeleri birbirinden mükemmel şekilde ayıracağını sınıfların toplam sayısı:

Sağ tarafında 8 pozitif örnek içeren bir sayı doğrusu ve
          Solda 7 negatif örnek var.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni Yanlış Pozitif Oranı ve y ekseni ise Yanlış Pozitif Oranı&#39;dır
          Gerçek Pozitif Oran. Eğrinin ters çevrilmiş bir L şekli var. Eğri
          (0.0,0.0) ile başlar ve doğrudan (0.0,1.0)&#39;a kadar gider. Sonra eğri
          değeri (0,0,1,0)&#39;dan (1.0,1,0) değerine kadar değişir.

Buna karşılık, aşağıdaki çizimde ham mantıksal regresyon negatif sınıfları olumlu sınıfların yanı sıra

Pozitif örnekleri ve negatif sınıfları içeren bir sayı doğrusu
          bir aradaydı.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

Aslında (0,0,0,0) değerinden düz bir çizgi olan bir ROC eğrisi
          - (1.0,1.0).

Gerçek dünyada ise çoğu ikili sınıflandırma modeli, bir dereceye kadar pozitif ve negatif sınıfları var, ancak genellikle mükemmel değil. Dolayısıyla, tipik bir ROC eğrisi, iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni Yanlış Pozitif Oranı ve y ekseni ise Yanlış Pozitif Oranı&#39;dır
          Gerçek Pozitif Oran. ROC eğrisi, titrek bir yaya yaklaşır
          Kuzey&#39;e doğru pusula noktalarını katetmek
zorunda kaldınız.

ROC eğrisinde (0,0,1,0) değerine en yakın nokta, teorik olarak eşiğine ulaşabilirsiniz. Ancak gerçek dünyayı etkileyen diğer birkaç sorun, İdeal sınıflandırma eşiğinin seçimini etkiler. Örneğin, ya da yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olabilir.

AUC adlı sayısal bir metrik, ROC eğrisini tek bir kayan nokta değerindedir.

rol isteme

#language
#generativeAI

Hedef kitleyi tanımlayan isteğe bağlı bir istem bölümü üretken yapay zeka modelinin yanıtı için Rol olmayan büyük dil modeli, faydalı olabilecek ya da olmayabilecek bir yanıt sağlıyorsa önemli bir adımdır. Rol istemi, büyük bir dil ile daha uygun ve yararlı bir şekilde yanıt verebilir belirli bir hedef kitlede Örneğin, istemleri kalın harflerle gösterilmiştir:

  • Ekonomi alanında doktora yapmak için bu makaleyi özetleyin.
  • On yaşında bir çocuk için akıntıların nasıl gerçekleştiğini açıklama.
  • 2008 ekonomik krizini açıkla. Küçük bir çocukla konuşur gibi konuşun, tercih eder.

kök

#df

Başlangıç düğüm (ilk condition) bir karar ağacında gösterilir. Genellikle diyagramlar kökü karar ağacının en üstüne yerleştirir. Örneğin:

İki koşul ve üç yapraklı bir karar ağacı. İlgili içeriği oluşturmak için kullanılan
          başlangıç koşulu (x > 2) köktür.

kök dizin

#TensorFlow

TensorFlow'un barındırma alt dizinlerini belirttiğiniz dizin kontrol noktası ve etkinlik dosyaları oluşturabilirsiniz.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Kare Hatanın karekökü.

dönme değişkeni

#image

Görüntü sınıflandırma problemlerinde, algoritmanın Yönü değişse bile görselleri sınıflandırır. Örneğin, bir tenis raketinin yukarıda olup olmadığını anlamak için eğilebilir. Dönme değişkenliğinin her zaman istenen bir durum olmadığını unutmayın; örneğin, baş aşağı duran 9, 9 olarak sınıflandırılmamalıdır.

Ayrıca bkz. çevirisel değişkenlik ve boyut tutarsızlığını kullanın.

R-kare

Bir dönüşümdeki ne kadar değişim olduğunu gösteren regresyon metriği label tek bir özellikten veya özellik grubundan kaynaklanıyor. R-kare, 0 ile 1 arasında bir değerdir ve aşağıdaki şekilde yorumlanabilir:

  • R karenin 0 olması, etiketteki değişimlerin hiçbirinin özellik grubu.
  • R karenin 1 olması, etiketteki tüm değişimin özellik grubu.
  • 0 ile 1 arasındaki bir R kare değeri, etiketin varyasyon, belirli bir özellik ya da özellik kümesinden tahmin edilebilir. Örneğin, 0,10'luk bir R kare, varyansın yüzde 10'unun özellik kümesinden kaynaklandığı için 0,20 değerindeki R kare değeri, Yüzde 20 özellik grubu ve bu vb. faktörlerden kaynaklanır.

R-kare, Pearson korelasyonu katsayı bir modelin tahmin ettiği değerler ile kesin referans arasındaki farkları ifade eder.

S

örnekleme yanlılığı

#fairness

Seçim yanlılığı bölümünü inceleyin.

değiştirme ile örnekleme

#df

Bir adayın sürükleyici bir öğe arasından seçim yapmak için öğe birden çok kez seçilebilir. "Değişim amaçlı" ifadesi anlamı her seçimden sonra seçilen öğe havuza döndürülür. bir liste oluşturabilirsiniz. Değişim yapılmadan örnekleme olan ters yöntem aday öğe yalnızca bir kez seçilebilir.

Örneğin, şu meyve kümesini ele alalım:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Sistemin ilk öğe olarak fig öğesini rastgele seçtiğini varsayalım. Değiştirme ile örnekleme kullanılıyorsa sistem, kullanılacak şu kümeden ikinci öğe:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Evet, bu daha önce olduğu gibidir. Bu nedenle, sistem tekrar fig seçin.

Değişim yapılmadan örnekleme kullanılıyorsa bir örnek seçildikten sonra seçim yapabilirsiniz. Örneğin, sistem rastgele bir şekilde fig ilk örnek, ardından fig tekrar seçilemez. Bu nedenle, aşağıdaki (azaltılmış) kümeden ikinci örneği seçer:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

TensorFlow modellerini kaydetmek ve kurtarmak için önerilen biçim. SavedModel Bu, dilden bağımsız, kurtarılabilir bir serileştirme biçimidir. TensorFlow üretmek, kullanmak ve dönüştürmek için üst düzey sistemler ve araçlar modeller.

Kaydetme ve Geri Yükleme bölümünü inceleyin. inceleyebilirsiniz.

Tasarruflu

#TensorFlow

TensorFlow nesnesi model kontrol noktalarının kaydedilmesinden sorumludur.

skaler

Bir değer olarak temsil edilebilen tek bir sayı veya tek bir dize 0 sıralama tensörü. Örneğin, kod satırının her biri TensorFlow'da bir skaler oluşturur:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

ölçeklendirme

Bir etiketin aralığını kaydıran herhangi bir matematiksel dönüşüm veya teknik ve/veya özellik değeri belirlemelisiniz. Bazı ölçeklendirme türleri, dönüşümler için çok kullanışlıdır normalleştirme gibi.

Makine öğreniminde yararlı olan yaygın ölçeklendirme biçimleri şunlardır:

  • doğrusal ölçeklendirme, genellikle çıkarma ve orijinal değeri -1 ile +1 arasında bir sayıyla değiştirmek için bölme veya 0 ile 1 arasında olmalıdır.
  • logaritmik ölçeklendirme, orijinal değeri kendi gerekir.
  • Z-puanı normalleştirmesi sayısını temsil eden kayan nokta değerine sahip orijinal değer ortalama sapmalarını gösterir.

scikit-learn

Popüler bir açık kaynak makine öğrenimi platformu. Görüntüleyin scikit-learn.org.

puanlama

#recsystems

Öneri sisteminin, tarafından üretilen her öğeye bir değer veya sıralama sağlar. aday oluşturma aşaması.

seçim yanlılığı

#fairness

Bir seçim süreci nedeniyle örneklenmiş verilerden alınan sonuçlardaki hatalar verilerde gözlemlenen örnekler arasında sistematik farklılıklar oluşturan ve gözlemlenmeyenler. Aşağıdaki seçim yanlılığı biçimleri mevcuttur:

  • kapsam yanlılığı: Veri kümesinde temsil edilen popülasyon, popülasyonunu eşleştirmeye yardımcı olur. müzakere tekniği de eklediniz.
  • örnekleme yanlılığı: Veriler, hedef gruptan rastgele toplanmaz.
  • yanıt verme yanlılığı (katılım yanlılığı olarak da adlandırılır): Belirli gruplar, belli gruplardaki kullanıcılardan farklı oranlarda anketlerin kapsamı dışında kalmayı seçer. diğer gruplar.

Örneğin, bir makine öğrenimi modeli oluşturduğunuzu varsayalım. keyif almasıdır. Eğitim verilerini toplamak için sinemanın ön sırasındaki herkese anket dağıtıp film gösteriliyor. Bunun makul bir yolu olduğu söylenebilir. veri kümesi toplamak için; Ancak bu veri toplama biçimi, aşağıdaki seçim yanlılığı biçimlerini tanıtırız:

  • kapsam yanlılığı: Kapsama göre modelinizin tahminleri insanlar için genelleme yapmayabilir yeni bir reklam grubu oluşturmaya karar verdi.
  • örnekleme yanlılığı: olası satışlardan rastgele örnekleme yerine hedeflenen nüfus (filmdeki tüm kişiler) için örnek olarak yalnızca kişilerle tanışmak isterim. Oturan insanlar pek çok izleyicilerinin filmle daha çok ilgilendiğini görüyoruz. diğer satırlar.
  • yanıt vermeme yanlılığı: Genel olarak, güçlü görüşlere sahip insanlar isteğe bağlı anketlere hafif düzeyde yanıt verenlere göre daha sık düşüncelere dalın. Film anketi isteğe bağlı olduğundan yanıtlar ekip üyelerinden iki modlu dağılım yaklaşık 70-30 oranında çarpıyor.

kendi kendine dikkat (kendi kendine dikkat katmanı olarak da adlandırılır)

#language

Bir diziyi dönüştüren bir nöral ağ katmanı yerleştirmeler (ör. jeton yerleştirmeleri) ekleme sırasına koyabilirsiniz. Çıkış sırasına yapılan her bir yerleştirme işlemi giriş dizisi öğelerinden elde edilen bilgilerin entegre edilmesiyle oluşturulur dikkat mekanizması aracılığıyla desteklediğinizi gösterin.

Kendi kendine dikkat çekmenin kendi kısmı, bire bir görüşmelere bir bağlam sunar. Kendine dikkat etmek, Dönüştürücüler için yapı taşları ve sözlük araması kullanır "query", "key" ve "value" gibi terimleri kullanabilirsiniz.

Kişisel dikkat katmanı bir dizi giriş gösterimiyle başlar. tıklayın. Bir kelimenin giriş gösterimi basit olabilir bir öğedir. Bir giriş dizisindeki her kelime için ağ kelimenin tüm dizideki her öğeyle alaka düzeyini kelimeler. Alaka düzeyi puanları, kelimenin nihai temsilinin ne kadar olduğunu belirler başka kelimelerin temsillerini içerir.

Örneğin, şu cümleyi ele alalım:

Hayvan çok yorgun olduğu için karşıdan karşıya geçmedi.

Aşağıdaki çizim ( Transformer: Dil için Yeni Bir Nöral Ağ Mimarisi Anlama) it zamiri için öz dikkat katmanının dikkat modelini gösterir, her satırın koyu renk tonunu gösterir ve her kelimenin temsil eder:

Şu cümle iki kez geçiyor: Hayvan
          sokağa çıkmayı bırakmıştım. Hitap tercihini satırlarla birleştiriyor
          beş belirteçlere bir cümle (hayvan, sokak, o ve
          nokta) ekleyin.  Hitap şekli arasındaki çizgi
          ve hayvan kelimesi en güçlüsüdür.

Kendine dikkat katmanı, "kendine dikkat" katmanı ile alakalı kelimeleri vurgular. Burada dikkat katmanının, bir sonraki sayfada kendisine en yüksek ağırlığı hayvana atamak anlamına gelir.

Kendi kendine dikkat, n jeton dizisi için bir diziyi dönüştürür n ayrı kez, dizideki her konumda bir kez.

Ayrıca dikkate ve çok başlı dikkat.

gözetimli öğrenim

Bir dönüşümü işlemeye yönelik teknikler gözetimli olmayan makine öğrenimi sorunu gözetimli makine öğrenimi problemine şuradan vekil etiketler oluşturarak etiketsiz örnekler.

BERT gibi bazı Transformer tabanlı modeller, gözetimli öğrenim.

Kişisel gözetimli eğitim, yarı gözetimli öğrenme yaklaşımını benimsemekle yetinmeyin.

kendi kendine eğitim

Kendi kendine gözetimli öğrenmenin bir varyantı. özellikle aşağıdaki koşulların tümü doğru olduğunda yararlıdır:

Kendi kendine eğitim, model güncellenene kadar aşağıdaki iki adımın tekrarlanmasıyla çalışır. iyileşmeyi durdurur:

  1. Gözetimli makine öğrenimini kullanarak bir modeli eğittik.
  2. 1. adımda oluşturulan modeli kullanarak etiketlenmemiş örnekleri, yüksek güven düzeyine sahip olanları etiketli örnekleri tahmin edilen etiketle değiştirin.

2. Adım'ın her yinelemesinde, 1. Adım için üzerine düşünün.

yarı gözetimli öğrenim

Bazı eğitim örneklerinde etiketlerin bulunduğu ancak bir modeli eğitmek bazıları değildir. Yarı gözetimli öğrenmenin bir tekniği de etiketlenmemiş örnekleri tanımlamaya ve sonra yeni bir etiket oluşturmak için türetilmiş etiketlere göre modeli. Yarı gözetimli öğrenme, etiketlerin alınması pahalı olduğunda yararlı olabilir ancak bol bol etiketsiz örnek vardır.

Kendi kendine eğitim, yarı gözetimli eğitime yönelik ele alacağız.

hassas özellik

#fairness
Hukuki nedenlerle özel olarak değerlendirilebilecek insani özellikler etik, toplumsal veya kişisel sebepler.

yaklaşım analizi

#language

Bir grubun performansını belirlemek için istatistiksel veya makine öğrenimi karşı olumlu ya da olumsuz genel olarak ya da konuya odaklanıyor. Örneğin, doğal dil anlama, bir algoritmanın metin tabanlı geri bildirim üzerinde yaklaşım analizi gerçekleştirebileceğini öğrencilerin eğitim düzeylerini belirlemek için üniversite dersinden beğenme veya beğenmeme ihtimalini ifade eder.

sıra modeli

#seq

Girdileri sıralı bağımlılığı olan bir model. Örneğin, Arkadaş Bitkiler projesi bağlamında önceden izlenen bir dizi videodan izlenen bir sonraki video.

sıralı görev

#language

Jetonlardan oluşan bir giriş dizisini çıkışa dönüştüren görev jeton dizisi. Örneğin, popüler olan iki yaygın diziden bire görevleri şunlardır:

  • Çevirmenler:
    • Örnek giriş sırası: "Seni seviyorum."
    • Örnek çıkış sırası: "Je t'aime."
  • Soru yanıtlama:
    • Örnek giriş sırası: "Arabamın New York'ta olması gerekiyor mu?"
    • Örnek çıkış sırası: "Hayır. Lütfen arabanızı evde tutun."

porsiyon

Eğitilmiş bir modeli son kullanıcı tarihine kadar tahminde bulunmak için online çıkarım veya çevrimdışı çıkarım.

şekil (Tensör)

Bir öğenin her boyutundaki tensördür. Şekil, tam sayılardan oluşan bir liste olarak gösterilir. Örneğin, aşağıdaki iki boyutlu tensör [3,4] şeklinde bir biçime sahiptir:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, Sahne'nin sırasını temsil etmek için satır-major (C stili) biçimini kullanır Bu nedenle, TensorFlow'daki şekil yerine [3,4] [4,3]. Başka bir deyişle, iki boyutlu bir TensorFlow Tensor'da, [satır sayısı, sütun sayısı].

Statik şekil, derleme sırasında bilinen bir tensör şeklidir.

Dinamik şekil, derleme sırasında bilinmiyor ve bu nedenle çalışma zamanı verilerine bağlıdır. Bu tensör yer tutucu boyutu ([3, ?] gibi).

kırık

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya model olarak ayarlayın. Genellikle, bazı işlemlerde, examples veya parametreleri (genellikle) aynı boyutta parçalar. Daha sonra her kırık farklı bir makineye atanır.

Bir modeli parçalamaya model paralellik adı verilir; Buna veri paralelliği adı verilir.

küçülme

#df

Şurada bulunan bir hyperparameter: kontrol eden gradyan artırma fazla uyum. Gradyan güçlendirmede küçülme Google Analytics 4'teki öğrenme oranına gradyan azalma. Daralma ondalık sayıdır 0,0 ile 1,0 arasında bir değere ayarlayın. Düşük büzülme değeri, fazla uyum sağlamayı azaltır daha yüksek bir küçülme değerinden daha yüksek olabilir.

sigmoid işlevi

#fundamentals

Sıkıştıran" matematiksel işlev sınırlı bir aralığa giriş değerini girin, genellikle 0 ile 1 arasında veya -1 ile +1 arasında değişir. Yani, herhangi bir sayıyı (iki, bir milyon, sigmoid'e ekleyebilirsiniz. Çıktı, yine bu sınırların içinde kalır. sınırlı aralıktır. Sigmoid aktivasyon fonksiyonunun grafiği aşağıdaki gibi görünür:

Alanı kapsayan x değerlerinin yer aldığı iki boyutlu, eğri grafik
          -sonsuzdan +pozitife, y değerleri ise neredeyse 0 -
          neredeyse 1. x 0 olduğunda y de 0, 5 olur. Eğrinin eğimi her zaman
          pozitif, en yüksek eğim 0,0,5&#39;te ve kademeli olarak azalan
          x&#39;in mutlak değeri arttıkça eğimi de görebilirsiniz.

Sigmoid işlevinin makine öğreniminde çeşitli kullanım alanları vardır. Örneğin:

benzerlik ölçüsü

#clustering

Kümeleme algoritmalarında, bir öğeyi ne kadar benzediğini (ne kadar benzer olduğunu) gösterir.

tek program / çoklu veri (SPMD)

Aynı hesaplamanın farklı girdiler üzerinde yapıldığı bir paralellik tekniği paralel hale getirir. SPMD'nin amacı sonuç elde etmektir daha hızlı ilerler. Paralel programlamada en sık kullanılan stildir.

boyut değişkeni

#image

Görüntü sınıflandırma problemlerinde, algoritmanın ve resmin boyutu değişse bile görselleri sınıflandırır. Örneğin, yine de algoritmanın da 2M piksel mi yoksa 200K piksel mi kullandığına bakalım. Unutmayın, en iyiler bile Resim sınıflandırma algoritmalarının hâlâ boyut değişkeninde pratik sınırlamaları bulunmaktadır. Örneğin, bir algoritmanın (veya insanın) bir analizi doğru şekilde sınıflandırması olası değildir. 20 piksel alan bir kedi resmi.

Ayrıca bkz. çevirisel değişkenlik ve dönüşümlü değişkenlik.

çizim

#clustering

Gözetimsiz makine öğreniminde Ön benzerlik analizi yapan algoritma kategorisi bazı örnekler vereceğim. Çizim algoritmaları yerelliğe duyarlı karma işlevi noktaları belirlemek için bildiklerinizi bir grupta toplayın gruplandırmayı seviyorum.

Çizim, benzerlik hesaplamaları için gereken hesaplamayı azaltır büyük veri kümelerinde çalışır. Her biri için benzerliği hesaplamak yerine her bir örnek çifti arasında geçiş yapıyorsa yalnızca her biri için benzerliği hesaplarız her pakette bir nokta vardır.

gram atlama

#language

Orijinal kelimedeki kelimeleri atlayan (veya "atlanabilen") bir n-gram bağlam, yani N kelime başlangıçta bitişik olmayabilir. Daha fazla daha doğrusu "k-skip-n-gram" en fazla k kelimenin sahip olabileceği bir n-gramdır atlandı.

Örneğin, "süper tilki" aşağıdaki olası 2 gramlık bir değere sahiptir:

  • "hızlı"
  • "hızlı kahverengi"
  • "kahverengi tilki"

"1-at-2-gram" arasında en fazla bir kelime bulunan bir kelime çiftidir. Öyleyse "sıcak kahverengi tilki" aşağıdaki 1 atlama 2 gram'a sahiptir:

  • "kahverengi"
  • "hızlı tilki"

Ayrıca, tüm 2 gram ağırlığı ayrıca 1-2 gramdır çünkü daha az birden fazla kelime atlanabilir.

Atlama gramları, kelimenin çevresindeki bağlamı daha iyi anlamaya yardımcı olur. Örneğimizdeki "fox" "quick" ile doğrudan ilişkilendirildi 1-2 gramlık olarak atlanabilir, ancak 2 gramlık grupta değil.

Atlama gramları antrenmana yardımcı olur kelime yerleştirme modelleridir.

softmax

#fundamentals

Her bir olası sınıf için olasılıkları belirleyen fonksiyon çok sınıflı sınıflandırma modelini kullanın. Olasılıklar toplanır tam olarak 1,0 yapıyorum. Örneğin, aşağıdaki tabloda softmax'ın nasıl dağıttığı gösterilmektedir çeşitli olasılıklar:

Resim: Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örneklemeyle kontrast.

yumuşak istem ayarı

#language
#generativeAI

Büyük dil modelini ayarlamak için kullanılan bir teknik ya da yoğun kaynak ihtiyacı olmadan ince ayarlar. Tüm bu bilgileri yeniden eğitmek yerine Modeldeki ağırlıklar, yumuşak istem ayarı Bir istem aynı hedefe ulaşmak için otomatik olarak ayarlanır.

Metin biçiminde istem, yumuşak istem ayarı genellikle isteme ek jeton yerleştirmeleri ekler ve geri yayılımı vardır.

“Zor” istemi, jeton yerleştirmeler yerine gerçek jetonlar içeriyor.

seyrek özellik

#language
#fundamentals

Değerleri ağırlıklı olarak sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve milyon 0 değeri içeren bir özellik, çok azdır. Buna karşılık yoğun bir özellik, çoğunlukla sıfır veya boş değildir.

Makine öğreniminde şaşırtıcı sayıda özellik çok azdır. Kategorik özellikler genellikle az sayıdadır. Örneğin, bir ormandaki olası 300 ağaç türünden tek bir örnek sadece bir akçaağaç tanımlanabilir. Ya da olası videolar arasında yer alır. Tek bir örnekle, yalnızca "Kazablanka".

Bir modelde genelde seyrek özellikleri, tek kullanımlık kodlama. Tek seferlik kodlama çok büyükse, sayfanın üst kısmına bir yerleştirme katmanı yerleştirebilirsiniz: tek kullanımlık kodlama ile verimliliği artırır.

seyrek temsil

#language
#fundamentals

Sıfır olmayan öğelerin yalnızca konumlarını seyrek bir özellikte depolama.

Örneğin, species adlı bir kategorik özelliğin türleri hakkında bilgi edindiniz. Dahası, her bir example yalnızca tek bir türü tanımlar.

Her örnekte ağaç türlerini göstermek için tek seferlik bir vektör kullanabilirsiniz. Tek sıcak bir vektör, tek bir 1 ( ağaç türünü temsil etmesi için) ve 35 0 ( (bu örnekte 35 ağaç türü değildir). Bu yüzden bire bir temsil maple aşağıdaki gibi görünebilir:

0 ila 23. konumların 0. konuma sahip olduğu bir vektör
          24, 1 değerini, 25 ile 35 arasındaki konumlarda 0 değerini alır.

Buna karşılık, seyrek gösterim, görevin türü olabilir. maple 24. konumdaysa seyrek temsil maple şöyle bir ifade eder:

24

Seyrek temsilin, tek sıcak görüntüye göre çok daha kompakt olduğuna dikkat edin temsil eder.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca bkz. seyrek özellik ve serbestlik.

seyreklik

Bir vektör veya matriste sıfıra (veya boşa) ayarlanan öğe sayısının bölümü o vektör veya matristeki girişlerin toplam sayısına göre. Örneğin, 98 hücrenin sıfır içerdiği 100 öğeli bir matris olsun. Hesaplama sparsity şu şekildedir:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

Özellik azlığı, bir özellik vektörünün çokluğunu ifade eder; model seyrekliği, model ağırlıklarının azlığını ifade eder.

mekansal havuz

#image

Havuz bölümünü inceleyin.

Split

#df

Karar ağacında, karar merciinin condition [durum] özelliğini gönderin.

ayırıcı

#df

Bir karar ağacını eğitirken rutin (ve algoritma) için en iyi sonuçları condition özelliğini her düğümde gösterir.

SPMD

Tek program / çoklu veri kısaltması.

kare menteşe kaybı

Menteşe kaybının karesi. Kare içinde menteşe kaybı ceza aldı menteşe kaybına kıyasla daha ağır olabilir.

kaybın kareli

#fundamentals

L2 kaybı ile eş anlamlıdır.

aşamalı eğitim

#language

Bir modeli farklı aşamalar halinde eğitme taktiği. Hedef, ya eğitim sürecini hızlandırmak ya da daha iyi model kalitesi elde etmek olabilir.

Progresif yığınlama yaklaşımının bir resmi aşağıda gösterilmektedir:

  • 1. aşama 3 gizli katman, 2. aşama 6 gizli katman ve 3. aşama 12 gizli katman içeriyor.
  • 2. aşama, 3 gizli katmanda öğrenilen ağırlıklarla eğitime başlar aşamadır. 3. Aşama 6. adımda alınan ağırlıklarla eğitime başlar gizli katmanları var mı?

Aşama 1, Aşama 2 ve Aşama 3 olarak adlandırılmış üç aşama.
          Her aşama farklı sayıda katman içeriyor: 1. Aşama şunları içerir:
          3 katman, 2. aşama 6 katman, 3. aşama ise 12 katman içeriyor.
          1. aşamadaki 3 katman, 2. aşamanın ilk 3 katmanı olur.
          Benzer şekilde 2. aşamadaki 6 katman, önceki aşamadaki ilk 6 katman
          3. Aşama:

Ardışık düzen konusunu da inceleyin.

durum

#rl

Pekiştirmeli öğrenmede, mevcut dönüşüm işlemini açıklayan aracının kullandığı ortam yapılandırmasını bir işlem seçin.

durum-işlem değeri işlevi

#rl

Q işlevi ile eş anlamlıdır.

statik

#fundamentals

Bir iş sürekli değil, bir kere yapılır. Statik ve çevrimdışı terimleri eş anlamlıdır. Aşağıda, makinede statik ve çevrimdışı öğelerinin yaygın kullanımları belirtilmiştir öğreniyor:

  • statik model (veya çevrimdışı model), bir kez eğitilmiş bir modeldir bir süredir kullanılıyor.
  • statik eğitim (veya çevrimdışı eğitim), bir kullanıcının fiziksel statik model.
  • statik çıkarım (veya çevrimdışı çıkarım) bir modelin aynı anda tahmin grubu oluşturduğu süreç.

dinamik ile kontrast oluşturun.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

sabitlik

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen özellik. Örneğin, 2021'de hemen hemen aynı görünen ve 2023'te hareketsizlik sergileniyor.

Gerçek dünyada çok az özellik sabittir. Eşit özellikler Zaman içinde istikrar (deniz seviyesi gibi) değişimi ile eş anlamlıdır.

Sürdürülebilirlik ile kontrast.

adım

Bir toplu grubun ileriye ve geriye doğru geçişi.

Daha fazla bilgi için geri yayılım bölümüne bakın ve geriye doğru hesaplamayı kapsar.

adım boyutu

Öğrenme hızı ile eş anlamlı.

olasılıksal gradyan iniş (SGD)

#fundamentals

Bir gradyan azalma algoritması toplu iş boyutu birdir. Başka bir deyişle SGD aynı orantıya sahip olacak şekilde rastgele oluşturulan bir eğitim kümesinden.

stride

#image

Konvolüsyonlu işlemde veya havuzda, çemberin her bir boyutundaki delta bir sonraki giriş dilimi dizisidir. Örneğin, aşağıdaki animasyonda konvolüsyon işlemi sırasında (1,1) adım gösteriyor. Dolayısıyla, sonraki giriş dilimi, önceki girişin sağında bir konumla başlar dilim. İşlem sağ kenara ulaştığında, bir sonraki dilimin tamamı sola ancak bir konum aşağıda görebilirsiniz.

Bir giriş 5x5 matrisi ve bir 3x3 kıvrımlı filtre. Çünkü
     kıvrımlı filtre 9 kez uygulanır. İlk
     kıvrımlı dilim, girişin sol üstteki 3x3 alt matrisini değerlendirir
     matristir. İkinci dilim, üst ortadaki 3x3&#39;ü değerlendirir.
     alt matristir. Üçüncü konvolüsyonel dilim, sağ üstteki 3x3&#39;ü değerlendirir
     alt matristir.  Dördüncü dilim, sol ortadaki 3x3 alt matrisini değerlendirir.
     Beşinci dilim, ortadaki 3x3 alt matrisini değerlendirir. Altıncı dilim
     sağ ortadaki 3x3 alt matrisini değerlendirir. Yedinci dilim
     tıklayın.  Sekizinci dilim
     3x3 alt matristir. Dokuzuncu dilim, sağ alttaki 3x3&#39;ü değerlendirir.
     alt matristir.

Yukarıdaki örnekte iki boyutlu bir adım gösterilmektedir. Giriş matris üç boyutluysa, adım da üç boyutlu olur.

yapısal risk minimumu (SRM)

İki hedefi dengeleyen bir algoritma:

  • En tahmine dayalı modeli oluşturma ihtiyacı (ör. en düşük kayıp).
  • Modeli mümkün olduğunca basit tutma ihtiyacı (örneğin, güçlü bir normalleştirme).

Örneğin, eğitim kümesi, yapısal bir risk azaltma algoritmasıdır.

ampirik risk minimumlaştırma ile kontrast.

alt örnekleme

#image

Havuz bölümünü inceleyin.

alt kelime jetonu

#language

Dil modellerinde kullanılan jeton alt dizesi oluşturabilirsiniz. Bu, kelimenin tamamı olabilir.

Örneğin, "itemize" gibi bir kelime, "öğe" parçalarına ayrılabilir. (kök kelime) ve "ize" gibi (sonek) (her biri kendi kendisiyle temsil edilir) jeton. Yaygın olmayan kelimeleri alt kelime adı verilen bu tür parçalara ayırmak, yaygın olarak kullanılan parçalar üzerinde çalışmak için farklı olabilir.

Bunun aksine, "gitmek" gibi yaygın kelimeler bölünmemiş olabilir tek bir jetonla temsil edilir.

özet

#TensorFlow

TensorFlow'da, belirli bir zaman diliminde hesaplanan bir değer veya step adımıdır.

gözetimli makine öğrenimi

#fundamentals

Bir modeli özelliklerden ve İlgili etiketlerin Gözetimli makine öğrenimi bir konuyu öğrenmek için bir dizi soruyu ve bunların cevaplar. Sorular ve paydaşlar arasındaki eşlemede uzmanlaştıktan sonra yanıtlarsa öğrenci, yeni (daha önce hiç görülmemiş) yanıtlara sorular sorarsınız.

Şununla karşılaştır: gözetimsiz makine öğrenimi kullanır.

sentetik özellik

#fundamentals

Bir özellik, giriş özellikleri arasında mevcut değildir ancak bir veya birkaçından bir araya getirilmiştir. Sentetik özellik oluşturma yöntemleri şunları içerir:

  • Sürekli bir özelliği aralık bölmelerine gruplandırma.
  • Özellik çaprazı oluşturma.
  • Bir özelliğin değerini başka özellik değerleriyle çarpma (veya bölme) veya tek başına görmelerini sağlar. Örneğin, a ve b giriş özellikleriyse Aşağıda yapay özelliklere ilişkin örnekler verilmiştir:
    • ab
    • 2
  • Bir özellik değerine transandantal fonksiyon uygulama. Örneğin, c bir giriş özelliğiyse, aşağıda sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak değerlendirilmez.

S

T5

#language

Metinden metne öğrenmeyi aktarma modeli sunan 2020'de Google Yapay Zeka. T5, temel alınmıştır. Son derece büyük bir ölçekte eğitilmiş dönüştürücü mimarisi veri kümesiyle eşleştirilir. Pek çok doğal dil işleme görevinde etkilidir. metin oluşturma, dilleri çevirme ve soruları cevaplama gibi çeşitli kaynaklar konuşmaya başlayabilirsiniz.

T5, adını "Metin-Metin Aktarım Dönüştürücüsü"ndeki beş T'den alır.

T5X

#language

Google'ın geliştirdiği açık kaynaklı makine öğrenimi çerçevesi büyük ölçekli doğal dil işleme geliştirip eğitmek (NLP) modellerinin yanı sıra T5, T5X kod tabanında (yani JAX ve Flax tabanlı olarak oluşturulur).

tablo biçiminde Q-öğrenme

#rl

Pekiştirmeli öğrenmede, Tablo kullanarak verileri depolayarak Q-öğrenme Her kombinasyonu için Q işlevleri durum ve işlem ekleyin.

hedef

label için eş anlamlı.

hedef ağ

#rl

Derin Q-learning'de, kararlı bir nöral ağ ilk nöral ağın olduğu ana sinir ağına Q işlevi veya bir politika uygular. Ardından, ana ağı hedefin tahmin ettiği Q değerleriyle eğitebilirsiniz. ağ. Bu sebeple ana geri bildirim döngüsünde gerçekleşen geri bildirim ağı, kendi başına tahmin edilen Q değerlerine göre eğitilir. Bu geri bildirimden kaçındığınızda ve eğitim kararlılığı artar.

görev

Aşağıdakiler gibi makine öğrenimi teknikleri kullanılarak çözülebilecek bir problem:

sıcaklık

#language
#image
#generativeAI

Rastgelelik derecesini kontrol eden bir hiperparametre bir model çıktısı. Daha yüksek sıcaklıklar daha rastgele çıkış sağlar. daha düşük sıcaklıklar ise daha az rastgele çıkışla sonuçlanır.

En iyi sıcaklığı seçmek ilgili uygulamaya ve model çıkışının tercih edilen özelliklerini belirler. Örneğin, yüksek sıcaklıklar elde etmek istediğiniz reklam öğesi çıktısı üretir. Buna karşılık, sıcaklığı muhtemelen düşürecek kullanarak görselleri veya metinleri sınıflandıran bir model oluştururken ve tutarlı olmasını sağlar.

Sıcaklık genellikle softmax ile kullanılır.

zamansal veri

Farklı zaman noktalarında kaydedilen veriler. Örneğin, kışlık mont indirimleri yılın her günü için kaydedilen veriler zamansal veri olacaktır.

Tensör

#TensorFlow

TensorFlow programlarındaki birincil veri yapısı. Tensörler N boyutludur veri yapıları, en yaygın olarak skalerler, vektörler, veya matrisler. Tensor öğeleri; tam sayı, kayan nokta, ya da dize değerleri kullanın.

TensorBoard

#TensorFlow

Bir veya daha fazla işlem yürütülürken kaydedilen özetleri gösteren kontrol paneli TensorFlow programını kullanabilirsiniz.

TensorFlow

#TensorFlow

Büyük ölçekli, dağıtılmış bir makine öğrenimi platformu. Terim aynı zamanda TensorFlow yığınındaki genel hesaplamayı destekleyen temel API katmanı veri akışı grafikleridir.

TensorFlow temel olarak makine öğrenimi için kullanılsa da, ve veri akışı grafikleri olabilir.

TensorFlow Oyun Alanı

#TensorFlow

Çevik yaklaşımın ne kadar farklı hyperparameters etkileme modeli (öncelikle nöral ağ) eğitimidir. Git http://playground.tensorflow.org TensorFlow Playground ile bunu yapabilirsiniz.

TensorFlow Sunma

#TensorFlow

Eğitilmiş modelleri üretimde dağıtan bir platform.

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Kullanılan uygulamaya özel entegre devre (ASIC), performansı hakkında daha fazla bilgi edinin. Bu ASIC'ler, TPU cihazda birden fazla TPU çipi bulunmalıdır.

Tensor sıralaması

#TensorFlow

Sıralama (Tensor) bölümüne bakın.

Tensör şekli

#TensorFlow

Bir Tensor'un çeşitli boyutlarda içerdiği öğe sayısı. Örneğin, bir [5, 10] Tensörü'nün şekli bir boyutta 5 ve 10'dur içinde yer alır.

Tensor boyutu

#TensorFlow

Bir Tensor'un içerdiği toplam skaler sayısı. Örneğin, [5, 10] Tensor boyutu 50'dir.

TensorStore

Etkili okuma ve okuma için bir kitaplık çok boyutlu diziler yazma.

sonlandırma koşulu

#rl

Pekiştirmeli öğrenmede, bir bölümün ne zaman sona ereceğini (örneğin, temsilcinin veya belirli bir durum geçiş eşiği sayısını aşar. Örneğin, tic-tac-toe (ayrıca çarşaflar ve çarşaflar olarak bilinir) bir bölüm, oyuncu art arda üç boşluk kullanarak veya tüm boşlukların işaretlenmesini sağlayabilirsiniz.

test

#df

Karar ağacında, karar merciinin condition [durum] özelliğini gönderin.

test kaybı

#fundamentals

Modelin kaybını temsil eden metrik test kümesini kullanın. Bir model oluştururken genellikle test kaybını en aza indirmeye çalışır. Çünkü test kaybının düşük olması, düşük eğitim kaybına göre daha yüksek kaliteli sinyal veya Düşük doğrulama kaybı.

Bazen test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir boşluk olması artırmanız gerektiğini, düzenleme oranı.

test kümesi

Test için ayrılmış veri kümesinin bir alt kümesi eğitilmiş bir model.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç gruba ayırırsınız: ayrı alt kümeler oluşturabilirsiniz:

Bir veri kümesindeki her örnek, önceki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de test kümesidir.

Eğitim kümesi ve doğrulama kümesi, modelin eğitilmesiyle yakından ilişkilidir. Test kümesi yalnızca eğitimle dolaylı olarak ilişkilendirildiğinden, test kaybı, eğitim kaybı veya doğrulama kaybı.

metin aralığı

#language

Bir metin dizesinin belirli bir alt bölümüyle ilişkilendirilmiş dizi dizini aralığı. Örneğin, Python dizesindeki s="Be good now" dizesinde good kelimesi metin, 3'ten 6'ya kadar değişir.

tf.Example

#TensorFlow

Standart protokol arabelleği makine öğrenimi modeli eğitimi veya çıkarımı için giriş verilerini açıklamak üzere kullanılır.

tf.keras

#TensorFlow

Google Analytics 4'e entegre edilmiş bir Keras TensorFlow.

eşik (karar ağaçları için)

#df

Eksene hizalı koşulda, öğenin özellik ile karşılaştırılıyor. Örneğin 75 eşik değeri:

grade >= 75

zaman serisi analizi

#clustering

Makine öğreniminin ve istatistik biliminin, zamansal veriler. Birçok makine öğrenimi türü problemler için sınıflandırma, kümeleme, öngörü ve anormallik algılamayı temel alır. Örneğin, her projede Kışlık montların gelecekteki satışlarını aya göre tahmin etmek için zaman serisi analizi temel alınmıştır.

zaman adımı

#seq

Bir "yayını açıldı" bir hücrenin yinelenen nöral ağ özellikleri hakkında daha fazla bilgi edinin. Örneğin, aşağıdaki şekilde üç zaman adımı gösterilmektedir ( t-1, t ve t+1 alt simgelerini içerir):

Yinelenen bir nöral ağda üç zaman adımı. Çıktı
          ilk zaman adımı, ikinci zaman adımına girdi haline gelir. Çıkış
          biçimi üçüncü zaman adımına girdi haline gelir.

token

#language

Dil modelinde, modelin kullandığı atom birimi ve tahminlerde bulunmayı da kapsıyor. Jeton genellikle takip etmek için:

  • bir kelime (örneğin, "kedi gibi köpekler" ifadesi) üç kelimeden oluşur jetonlar: "köpekler", "beğeni" ve "kediler".
  • bir karakter (örneğin, "bisiklet balık" ifadesi) dokuzdan oluşur kullanılabilir. (Boş alanın, jetonlardan biri olarak sayıldığını unutmayın.)
  • alt kelimeler (bu kelimelerde tek bir kelime, tek bir simge veya birden çok simge olabilir). Alt kelime bir kök kelime, bir ön ek veya bir son ekten oluşur. Örneğin, alt kelimeleri jeton olarak kullanan bir dil modeli, "köpekler" kelimesini görüntüleyebilir ("köpek" kök kelimesi ve çoğul soneki "s") şeklinde iki simge şeklinde biçimlendirilmiştir. Aynı dil modeli, "uzun" tek kelimesini görebilir ( kök kelime "uzun" ve "er" sonekini kullanın.

Dil modelleri dışındaki alanlarda jetonlar, farklı türlerdeki atom birimlerini kullanabilirsiniz. Örneğin bilgisayar vizyonunda bir jeton, bir resim.

Tower

Derin sinir ağının derin bir sinir ağı oluşturmaya başladı. Bazı durumlarda, her kule bir cihazdan sağlar ve bu kuleler, ilgili kuleler analiz edilene kadar çıktısı son bir katmanda birleştirilir. Başka durumlarda (örneğin, Google Analytics 4'ün kodlayıcı ve kod çözücü kulesi birçok Dönüştürücü), kulelerde çapraz bağlantılar vardır bir iletişim kurmaktır.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi'nin kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Çip üzerinde yüksek bant genişliği belleğe sahip programlanabilir bir doğrusal cebir hızlandırıcı optimize edilmiş bir uygulama paketidir. TPU cihazlara birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi bulunan bir baskı devre kartı (PCB) yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımı.

TPU ana sistemi

#TensorFlow
#GoogleCloud

Bir ana makine üzerinde çalışan merkezi koordinasyon süreci verileri, sonuçları, programları, performans bilgilerini ve sistem sağlığı bilgilerini alır TPU çalışanlarına. TPU ana sistemi, kurulumu da yönetir ve TPU cihazların kapatılması.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud'da belirli bir TPU türü. TPU düğümü, VPC Ağı eş VPC ağı. TPU düğümleri Cloud TPU API.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google'daki TPU cihazlarının belirli bir yapılandırması veri merkezimize geliyor. TPU Kapsülü'ndeki tüm cihazlar birbirine bağlıdır hızlı bir şekilde çalışır. TPU Kapsül, en büyük Belirli bir TPU sürümü için TPU cihazlar.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU varlığı. Örneğin, Örneğin, TPU düğümleri ve TPU türleri şunlardır: TPU kaynakları.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU cihazlarının küçük bir kısmıdır: TPU Kapsülü. TPU dilimindeki tüm cihazlar bağlı bir ağ üzerinden birbirine bağlayabilir.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir ayara sahip bir veya daha fazla TPU cihazın yapılandırması TPU donanım sürümü. Oluştururken TPU türü seçersiniz Google Cloud'da bir TPU düğümü. Örneğin, v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 var ağa bağlı TPU v3 cihazları ve toplam 2.048 çekirdek. TPU türleri bir kaynaktır Cloud TPU API.

TPU çalışanı

#TensorFlow
#GoogleCloud

Bir ana makinede çalışan ve makine öğrenimi programlarını yürüten bir süreç TPU cihazlarda.

eğitim

#fundamentals

İdeal parametreleri (ağırlıklar ve ön yargılar) bir model oluşturmasını sağlar. Eğitim sırasında bir sistem example olarak ayarlar ve parametreleri kademeli olarak ayarlar. Eğitimde her biri örneğin birkaç kez veya milyarlarca kez yer alabilir.

eğitim kaybı

#fundamentals

Dönüşüm sırasında modelin kaybını temsil eden bir metrik eğitim iterasyonu konusunda ısrarcı olabilirsiniz. Örneğin, kayıp fonksiyonunun Ortalama Kare Hatası'dır. Belki de eğitim kaybı (Ortalama Kareli Hata) 10.iterasyon için 2, 2'dir ve ekibinizin 100.yineleme 1,9'dur.

Kayıp eğrisi, eğitim kaybı ile eğitim kaybı sayısının karşılaştırmasını gösterir. iterasyonlar ile yürütüldüğü anlamına gelir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin gelişmeye devam ettiğini gösterir.
  • Yukarı doğru eğim, modelin kötüleştiğini gösterir.
  • Düz bir eğim, modelin tümleştirme.

Örneğin, aşağıda açıklanan idealleştirilmiş kayıp eğrisi gösterir:

  • Başlangıçtaki iterasyonlar sırasında aşağı doğru dik bir eğim vardır. Bu da hızlı model iyileştirme.
  • Sonuna doğru olana kadar kademeli olarak düzleştiren (ancak aşağı doğru) eğim Bu da belirli bir düzeyde model iyileştirmenin devamlılığını sırasında yavaş bir tempoda ilerler.
  • Eğitimin sonuna doğru yakınlaşmaya işaret eden düz bir eğim.

Eğitim kaybının ve iterasyonların karşılaştırması. Bu kayıp eğrisi
     aşağı doğru eğimli bir yapıya sahiptir. Eğim, bitişine kadar kademeli olarak düzleşir
     eğim sıfıra dönüşür.

Eğitim kaybı önemli olsa da, genelleme:

eğitim ve sunma arası sapma

#fundamentals

Bir modelin dönüşüm işlemi sırasındaki eğitim ve bu modelin performans sırasında sunum.

eğitim seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üçe ayrılır ayrı alt kümeler oluşturabilirsiniz:

İdeal olarak, veri kümesindeki her bir örneğin alt kümelere atanır. Örneğin, tek bir örnek, eğitim kümesi ve doğrulama kümesidir.

gidişat

#rl

Pekiştirmeli öğrenmede, temsil eden tupleler aracının durum geçişleri dizisi, Burada her unsur durum, işlem, ödül ve sonraki durum ile birlikte gösterilir.

öğrenim aktarma

Bir makine öğrenimi görevinden diğerine bilgi aktarma. Örneğin, çoklu görevli öğrenmede tek bir model birden çok görevi, Mesela bir derin model üzerine konuşacağız. Öğrenme aktarımı, bilgi aktarımını da içerebilir. basit bir görevin çözümünden daha karmaşık bir sürecin daha fazla veri bulunan bir görevden, bilginin veri vardır.

Çoğu makine öğrenimi sistemi tek bir görevi çözer. Öğrenmeyi aktarma tek bir programın çözebileceği yapay zekaya birden çok görev.

Transformatör

#language

Google'da geliştirilen nöral ağ mimarisi, kendi kendine dikkat mekanizmalarını kullanarak bir çıktı dizisine yerleştirilen girişler dizisi evrimlere bağlı olmadan veya yinelenen nöral ağlar. Transformatör, dikkat katmanlarından oluşan bir yığın olarak görünür.

Bir Dönüştürücü, aşağıdakilerden herhangi birini içerebilir:

Kodlayıcı, bir yerleştirme dizisini yeni bir yerleştirme dizisine dönüştürür. aynı uzunlukta. Kodlayıcıda her biri iki tane olmak üzere özdeş N katman bulunur olduğunu unutmayın. Bu iki alt katman, girişin her bir konumuna uygulanır. dizinin her bir öğesini yeni bir öğe olacak şekilde değiştirerek bir öğedir. İlk kodlayıcı alt katmanı, giriş sırası. İkinci kodlayıcı alt katmanı, toplanan verileri bir çıkış yerleştirmeye dönüştürüyor.

Kod çözücü, giriş yerleştirme dizisini bir diziye dönüştürür. çıkışlar eklemeniz gerekir. Kod çözücü ayrıca İkisi birbirine benzer olan üç alt katmana sahip özdeş N katman kodlayıcı alt katmanlarını oluşturur. Üçüncü kod çözücü alt katmanı, ve kendi kendine dikkat mekanizmasını bilgi toplamaya çalışıyor.

Transformer: A Novel Nural Network Architecture for Language (Dönüştürücü: Dil için Yeni Bir Nöral Ağ Mimarisi) Anlama Transformers hakkında iyi bir giriş sağlar.

çevrimsel değişken

#image

Görüntü sınıflandırma problemlerinde, algoritmanın Böylece, görüntü içindeki nesnelerin konumu değişse bile görüntüleri sınıflandırabilirler. Örneğin, algoritma bir köpeğin evde olup olmadığını ortasında ya da sol ucunda gösterilir.

Ayrıca boyut tutarsızlığı ve dönüşümlü değişkenlik.

trigram

#seq
#language

N=3 olan bir N-gram.

doğru negatif (TN)

#fundamentals

Modelin doğru negatif sınıf. Örneğin, model, belirli bir e-posta iletisi spam değil ve bu e-posta iletisi gerçekten spam değil olarak kaydedin.

doğru pozitif (TP)

#fundamentals

Modelin doğru olumlu bir sınıfa göz atın. Örneğin, model, spam olduğunu ve gerçekten de spam olduğunu düşünelim.

gerçek pozitif oranı (TPR)

#fundamentals

Recall'ın eş anlamlısı. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisindeki y eksenidir.

U

farkındalık (hassas bir özellikle)

#fairness

Hassas özelliklerin eğitim verilerine dahil edilmez. Çünkü hassas özellikler genellikle kullanıcıya ait verilerin diğer özellikleriyle ilişkilidir; hassas bir özellikle ilgili bilgi sahibi olmadıklarından farklı etki söz konusuysa, veya diğer adillik kısıtlamalarını ihlal etmemelidir.

yetersiz

#fundamentals

Tahmin yeteneği zayıf bir model oluşturmak, çünkü modelin eğitim verilerinin karmaşıklığını tam olarak anlayamadı. Birçok sorun aşağıdakiler dahil olmak üzere yetersiz uyuma neden olabilir:

yetersiz örnekleme

Örnekler ana sınıf sınıf dengesiz veri kümesini Daha dengeli bir eğitim seti oluşturun.

Örneğin, çoğunluk sınıfından %30'a oranının azınlık sınıfı 20:1'dir. Bu sınıfın üstesinden gelmek için bir eğitim kümesiyse azınlık grubunun tamamını içeren bir eğitim kümesi sınıf örneklerinden yalnızca onda biri gibi, sınıf ortamından başka bir sınıfa eğitim kümesi için 2:1'lik bir sınıf oranı oluşturmak. Düşük örnekleme sayesinde, bu daha fazla dengeli eğitim seti daha iyi bir model oluşturabilir. Alternatif olarak bu ve daha dengeli bir eğitim seti, bir bitkiyi eğitmek için etkili modeldir.

oversampling ile kontrast oluşturun.

tek yönlü

#language

Yalnızca metnin hedef bölümünden önce gelen metni değerlendiren bir sistem. Buna karşılık çift yönlü bir sistem hem Metnin bir hedef bölümünden öncesi ve sonraki metin. Daha fazla ayrıntı için çift yönlü konusuna bakın.

tek yönlü dil modeli

#language

Olasılıklarını yalnızca şuna dayandıran bir dil modeli: jetonların hedef jetonlardan önce, sonra görünmesidir. İki yönlü dil modeli ile kontrast oluşturun.

etiketsiz örnek

#fundamentals

Özellikler'i içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir evden etiketlenmemiş üç örnek gösterilmektedir değerleme modelini kullanır.

Yatak odası sayısı Banyo sayısı Ev yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde etiketli örnekler üzerinde eğitilir ve bu örnekler üzerinde etiketsiz örnekler.

Yarı gözetimli olarak ve gözetimsiz öğrenme, etiketlenmemiş örnekler eğitim sırasında kullanılır.

Etiketsiz örneği etiketli örnek ile karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki kalıpları bulmak için modeli eğitmek, genellikle etiketsiz veri kümesi ile aynı değere sahip.

Gözetimsiz makine öğreniminin en yaygın kullanımı, cluster verileri örnek olarak gruplara ayırabilirler. Örneğin, denetlenmeyen bir makine, Öğrenme algoritması, şarkıları çeşitli özelliklere göre gruplandırabilir en iyisidir. Ortaya çıkan kümeler başka bir makineye giriş olabilir (ör. müzik öneri hizmetine) yenilerini öğreniyor. Kümeleme, işe yarar etiketler olmadığında veya olmadığında yardımcı olabilir. Örneğin, kötüye kullanım karşıtı ve sahtekarlık gibi alanlarda kümeler, veriler insanlar tarafından daha iyi anlaşılabiliyor.

Gözetimli makine öğrenimi ile kontrast oluşturun.

artış modelleme

Pazarlamada yaygın olarak kullanılan ve potansiyel müşteri sayısını modelleyen "nedensel etki" ("artımlı etki") olarak da bilinir, "değerlendirme" ayrı ayrı değerlendirebilirsiniz. Aşağıda iki örnek verilmiştir:

  • Doktorlar ölüm oranındaki düşüşü tahmin etmek için artış modellemesi kullanabilir duruma bağlı olarak, tıbbi bir prosedürün (terapinin) hastanın (birey) yaşı ve tıbbi geçmişi.
  • Pazarlamacılar, dönüşümlerdeki artışı tahmin etmek için bir reklam nedeniyle satın alma olasılığı (nedensel etki) (değerlendirme) elde eder.

Artış modelleme sınıflandırmadan farklıysa veya regresyon (örneğin, yarısı sayısı) artış modellemede her zaman eksiktir. Örneğin, bir hasta tedavi görüyor veya almayabilir; Bu nedenle, yalnızca hastanın iyileşip iyileşmeyeceğini yalnızca birinde iyileşmez (iki durumda da iyileşmez). Artış modelinin temel avantajı, modelin tahmin oluşturabilmesidir bunu gözlemlemeyen durumu (karşı bildirim) kullanarak ortaya çıkarmanıza yardımcı olabilir.

yukarı ağırlıklandırma

downsampled sınıfına eşit değer uygulama faktörünü düşürür.

kullanıcı matrisi

#recsystems

Öneri sistemlerinde tarafından oluşturulan yerleştirme vektörü matris çarpanlarına ayırma gizli sinyalleri elinde bulunduruyor. Kullanıcı matrisinin her satırı, akrabası Gizli sinyallerin gücüne ilişkin son derece önemlidir. Örneğin, bir film öneri sistemi düşünün. Bu sistemde, kullanıcı matrisindeki gizli sinyaller her kullanıcının ilgi alanlarını temsil edebilir veya belirli türlerde içerik ya da kültürün yer aldığı çeşitli faktörlerdeki karmaşık etkileşimleri içerir.

Kullanıcı matrisinde, her gizli özellik için bir sütun ve her kullanıcı için bir satır bulunur. Yani kullanıcı matrisi, hedef ile aynı sayıda satıra sahiptir çarpanlara ayrılan bir matristir. Örneğin, Yeşil Ofis’te 1.000.000 kullanıcı için bir öneri sistemi, kullanıcı matrisinde 1.000.000 satır olur.

V

validation

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama setini kullanın.

Doğrulama kümesi eğitim grubundan farklı olduğu için Doğrulama, fazla uyum'dan korunmaya yardımcı olur.

Modeli, Virtual Verde için önerilen doğrulama kümesine göre test etme ve modeli mevcut risklere göre değerlendirme test seti olarak belirleyin.

doğrulama kaybı

#fundamentals

Açık bir modelin kaybını temsil eden bir metrik doğrulama kümesini eğitimin iterasyonu.

Ayrıca bkz. genelleme eğrisi.

doğrulama grubu

#fundamentals

İlk performansı gerçekleştiren veri kümesinin alt kümesi eğitilmiş bir modele göre değerlendirme. Genellikle bu riskleri doğrulama kümesine karşı eğitilen modelin modeli test kümesine göre değerlendirmeden önce birkaç kez kontrol edin.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üçe bölersiniz: ayrı alt kümeler oluşturabilirsiniz:

İdeal olarak, veri kümesindeki her bir örneğin alt kümelere atanır. Örneğin, tek bir örnek, eğitim kümesi ve doğrulama kümesidir.

değer tahmini

Eksik bir değeri kabul edilebilir bir alternatifle değiştirme işlemi. Bir değer eksik olduğunda örneğin tamamını silebilir ya da örneği kurtarmak için değer tahminini kullanabilirsiniz.

Örneğin, şöyle bir temperature özelliği içeren veri kümesi kaydedilmesi gerekir. Ancak sıcaklık ölçümü şu anda müsait değil. Veri kümesinin bir bölümünü aşağıda görebilirsiniz:

Zaman damgası Sıcaklık
1680561000 10
1680564600 12
1680568200 eksik
1680571800 20
1680575400 21
1680579000 21

Bir sistem eksik örneği silebilir veya eksik örneği hesaplamak için, hesaplama algoritmasına bağlı olarak sıcaklığı 12, 16, 18 veya 20 olarak ayarlayabilirsiniz.

kaybolan gradyan problemi

#seq

Erken gizli katmanların gradyanlarına ilişkin eğilim bazı derin sinir ağlarının şaşırtıcı şekilde düz (düşük). Giderek daha düşük gradyanlar, derin bir sinir ağındaki düğümlerin ağırlıklarında daha küçük değişikliklere öğrenmesi ya da öğrenmesi mümkündür. Kaybolan gradyan sorunu yaşayan modeller eğitim zor ya da imkansız hale gelebilir. Uzun Kısa Vadeli Bellek hücreleri bu sorunu ele alır.

Patlayan gradyan problemi ile karşılaştırın.

değişken önemler

#df

Her bir metriğin göreceli önemini gösteren puan kümesi özelliğini modele eklediğinizden emin olun.

Örneğin, bir karar ağacını ev fiyatlarını tahmin eder. Bu karar ağacında üç özellikleri: boyut, yaş ve stil. Değişken önem kümesi üç özellik için şu şekilde hesaplanır: {size=5.8, age=2.5, style=4.7} ise beden yaş veya stilden çok karar ağacı var.

Farklı değişken önem metrikleri mevcuttur. Bu metrikler, Modellerin farklı yönleri hakkında makine öğrenimi uzmanları.

varyasyon otomatik kodlayıcı (VAE)

#language

Tutarsızlıktan yararlanan bir otomatik kodlayıcı türü oluşturmak için giriş ve çıkışlar arasında geçiş yapın. Varyasyonsal otomatik kodlayıcılar, üretken yapay zeka için kullanışlıdır.

VAE'ler varyasyon çıkarımına dayanır: dönüşüm oranını tahmin etmek için parametreleridir.

vektör

Anlamı farklı matematiksel ifadelere göre değişen çok fazla yüklenmiş bir terim bir hayli zaman harcıyor. Makine öğreniminde bir vektörün iki özelliği vardır:

  • Veri türü: Makine öğrenimindeki vektörlerde genellikle kayan nokta sayıları bulunur.
  • Öğe sayısı: Vektörün uzunluğu veya boyutudur.

Örneğin, sekiz boyut içeren bir özellik vektörü kayan noktalı sayılardır. Bu özellik vektörünün uzunluğu veya boyutu sekizdir. Makine öğrenimi vektörlerinin genellikle çok sayıda boyutu olduğunu unutmayın.

Birçok farklı bilgi türünü vektör olarak temsil edebilirsiniz. Örneğin:

  • Dünya yüzeyindeki herhangi bir konum 2 boyutlu bir vektörü görürsünüz. Burada bir boyut enlem, diğeri ise boylamdır.
  • 500 hisse senedinin her birinin mevcut fiyatı 500 boyutlu vektördür.
  • Sınırlı sayıda sınıf üzerindeki olasılık dağılımı temsil edilebilir kullanır. Örneğin, çok sınıflı sınıflandırma sistemini üç çıkış renginden (kırmızı, yeşil veya sarı) birinin projeyle ilgili sonuçları (0.3, 0.2, 0.5) vektörü P[red]=0.3, P[green]=0.2, P[yellow]=0.5 anlamına gelir.

Vektörler birleştirilebilir. Bu nedenle, farklı medya türlerine tek bir vektör olarak temsil edilir. Bazı modeller doğrudan birden fazla tek kullanımlık kodlamanın birleştirilmesi.

TPU'lar gibi özel işlemciler iyi performans gösterecek şekilde optimize edilmiştir. ve vektörler üzerindeki matematik işlemleri.

Vektör, sıralama 1'e ait bir tensor'dur.

W

Wasserstein kaybı

Proje yönetiminde yaygın olarak kullanılan kayıp fonksiyonlarından üretken zararlı ağları kullanıyorsanız toprak taşının mesafesine oluşturulan verilerin ve gerçek verilerin dağılımı.

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme sürecidir. çıkarım, öğrenilen ağırlıkları kullanarak tahminlerde bulunmanızı sağlar.

Ağırlıklı Alternatif En Küçük Kareler (WALS)

#recsystems

sırasında hedef işlevini en aza indiren bir algoritma matris çarpanlarına ayırma öneri sistemlerini kullanarak eksik örneklerin ağırlığının azaltılmasına yardımcı olur. WALS, iş gücüne ve yeniden yapılandırma arasındaki karesel hatanın satır çarpanlarına ayırma ile sütun çarpanlarına ayırma oranlarında değişiklikler yapacaksınız. Bu optimizasyonların her biri en az kareyle çözülebilir dışbükey optimizasyon. Ayrıntılar için Öneri Sistemleri kursu.

ağırlıklı toplam

#fundamentals

Alakalı tüm girdi değerlerinin toplamının karşılık gelen değerleriyle çarpılması ağırlıklar. Örneğin, ilgili girişlerin şunlardan oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Bu nedenle ağırlıklı toplam şu şekildedir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevini yerine getirin.

geniş model

Genellikle birçok farklı işlevi olan doğrusal bir model seyrek giriş özellikleri. Buna "geniş" diyoruz. şu tarihten beri: özel bir nöral ağ türü olan benzer bir ağ, doğrudan çıkış düğümüne bağlanan çok sayıda giriş vardır. Geniş modeller derin modellere kıyasla hata ayıklaması ve denetlenmesi genellikle daha kolaydır. Geniş modeller gizli katmanlar aracılığıyla doğrusal olmayanları ifade edemez, dönüşümler, Google Analytics 4'teki özellikler arasında geçiş gruplandırma özelliğini kullanın.

Derin model ile kontrast oluşturun.

genişlik

Belirli bir katman içindeki nöron sayısı nöral ağın temel özelliklerini kullanır.

kalabalığın bilgeliği

#df

Büyük bir grubun fikirlerinin veya tahminlerinin ortalamasını alma fikri insanlar ("kalabalık") genellikle şaşırtıcı derecede iyi sonuçlar verir. Örneğin, kullanıcıların oyununuzun sayısını tahmin ettiği bir oyun bir kavanoza paketlenmiş jelibonlar var. Çoğu bireysel yanlış olacağını bildiğinizden, tüm tahminlerin ortalaması şaşırtıcı derecede gerçek sayıya yakın olduğu, deneysel olarak bir jöle var.

Ensembles, kalabalığın bilgeliğinin bir yazılım benzetimidir. Tek tek modeller çok yanlış tahminlerde bulunsa bile birçok modelin tahminlerinin ortalamasını almak, çoğu zaman iyi tahminler. Örneğin, bir kullanıcı karar ağacı kötü tahminler yapabilir karar ormanı genellikle çok iyi tahminlerde bulunur.

kelime yerleştirme

#language

Bir kelime grubu içindeki her kelimeyi temsil eden yerleştirme vektörü; her kelimeyi 0,0 ile 1,0 arasında kayan nokta değerlerinin vektörü. Benzer görselleri olan kelimeler anlamları, farklı anlamlara gelen kelimelere göre daha fazla benzer temsile sahiptir. Örneğin, havuç, kereviz ve salatalık nispeten daha yüksek olacaktır. Bunlar, tüm mevcut modellerden çok farklı uçak, güneş gözlüğü ve diş macunu.

X

XLA (Hızlandırılmış Doğrusal Cebir)

GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcılar için açık kaynak bir makine öğrenimi derleyici.

XLA derleyicisi, aşağıdakiler gibi popüler makine öğrenimi çerçevelerinden model alır: PyTorch, TensorFlow ve JAX'ın yanı sıra farklı donanım platformlarında yüksek performanslı yürütme için tasarlandı. GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları.

Z

sıfır atışla öğrenme

Bir tür makine öğrenimi eğitimi; model görev için bir tahmin çıkarım yapar önceden eğitilmemiş olması gerekir. Başka bir deyişle model, göreve özgü eğitim örnekleri verilmiyor ancak bu görev için çıkarım yapabilirsiniz.

sıfır atış isteme

#language
#generativeAI

Nasıl istediğinize dair örnek sunmayan bir istem büyük dil modeline göre yanıt verin. Örneğin:

Tek bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Hindistan: Asıl sorgu.

Büyük dil modeli, aşağıdakilerden herhangi biriyle yanıt verebilir:

  • Rupi
  • INR
  • Hint rupisi
  • Rupi
  • Hint rupisi

Tüm yanıtlar doğru olsa da tercih ettiğiniz bir format olabilir.

Sıfır çekim istemini aşağıdaki terimlerle karşılaştırın:

Z puanı normalleştirmesi

#fundamentals

Ham bir verilerin yerini alan ölçeklendirme tekniği feature değeri özelliğin ortalamasından standart sapmalarının sayısı. Örneğin, ortalaması 800 olan ve standart değeri sapma 100'dür. Aşağıdaki tabloda Z puanı normalleştirmesinin ham değeri Z puanıyla eşleştirir:

İşlenmemiş değer Z-puanı
800 0
950 +1,5
575 -2,25

Makine öğrenimi modeli daha sonra Z puanlarıyla eğitilir bu özellik için veri analizi yapabilirsiniz.