مسرد مصطلحات التعلم الآلي: أساسيات تعلّم الآلة

تحتوي هذه الصفحة على مصطلحات مسرد مصطلحات أساسيات تعلُّم الآلة. بالنسبة لجميع مصطلحات مسرد المصطلحات، انقر هنا.

A

الدقة

#fundamentals

عدد توقّعات التصنيف الصحيحة مقسومًا على إجمالي عدد التنبؤات. والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، قد ينتج عن نموذج قدم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة التوقعات سيكون لها دقة:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء معيّنة للفئات المختلفة من التوقعات الصحيحة عبارات بحث مقترحة غير صحيحة إذًا، معادلة الدقة للتصنيف الثنائي هي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

تحديد أوجه الاختلاف والتشابه بين الدقة الدقة استدعاء

دالّة التفعيل

#fundamentals

يشير هذا المصطلح إلى دالة تتيح للشبكات العصبونية تعلُّم. العلاقات nonlinear (المعقدة) بين العناصر والتسمية.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط أبدًا خطوطًا مفردة مستقيمة. على سبيل المثال، يتألف مخطط دالة تفعيل ReLU من خطين مستقيمين:

مخطط الديكارتي مكون من سطرين. السطر الأول له عدد ثابت
          قيمة y تساوي 0، وتتحرك على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. انحدار هذا الخط بمقدار +1، وبالتالي
          فهي تتراوح من 0,0 إلى +اللانهائية،+اللانهائية.

يبدو مخطط دالة التفعيل السيني على النحو التالي:

مخطط منحن ثنائي الأبعاد بقيم x تمتد عبر المجال
          من اللانهائية إلى +الموجب، بينما تمتد قيم ص في النطاق من 0 تقريبًا إلى
          تقريبًا 1. عندما تساوي x 0، تكون y تساوي 0.5. وعادة ما يكون انحدار المنحنى
          موجب، وأعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًا
          الانحدار مع زيادة القيمة المطلقة لـ x.

الذكاء الاصطناعي

#fundamentals

برنامج غير بشري أو نموذج يمكنه حلّ المهام المعقّدة. على سبيل المثال، يمكن استخدام برنامج أو نموذج يترجم نصًا أو برنامجًا أو نموذجًا تحدد الأمراض من خلال الصور الإشعاعية من خلال الذكاء الاصطناعي.

ومن الناحية الرسمية، يمثّل تعلُّم الآلة أحد المجالات الفرعية للتعلُّم الآلي منه. إلا أن بعض المنظمات بدأت في السنوات الأخيرة في استخدام المصطلحين الذكاء الاصطناعي والتعلم الآلي بالتبادل.

المساحة تحت منحنى ROC

#fundamentals

رقم بين 0.0 و1.0 يمثل ونموذج التصنيف الثنائي القدرة على فصل الصفوف الإيجابية عن فئات سلبية: فكلما اقتربت قيمة AUC من 1.0، زادت قدرة النموذج على فصل الصفوف من بعضها البعض.

على سبيل المثال، يُظهر الرسم التوضيحي التالي نموذجًا لأحد المصنِّفات. يفصل الفئات الإيجابية (الأشكال البيضاوية الخضراء) عن الفئات السالبة (مستطيلات أرجوانية) تمامًا. يحتوي هذا النموذج غير الواقعي على قيمة AUC بقيمة 1.0:

سطر أرقام يحتوي على 8 أمثلة موجبة على جانب واحد
          9 أمثلة سلبية من ناحية أخرى.

وبالعكس، يعرض الرسم التوضيحي التالي نتائج أحد المصنِّفات. النموذج الذي أنشأ نتائج عشوائية. تبلغ قيمة AUC لهذا النموذج 0.5:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          ويكون تسلسل الأمثلة إيجابيًا وسلبيًا
          إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي
          سلبي، إيجابي، سلبي.

نعم، تساوي قيمة AUC في النموذج السابق 0.5 وليس 0.0.

تقع معظم النماذج في مكان ما بين الطرفين. على سبيل المثال، النموذج التالي يفصل بين الإيجابيات والسلبيات إلى حد ما، وبالتالي تتراوح قيمة AUC بين 0.5 و1.0:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          فإن تسلسل الأمثلة هو سالب، سلبي، سالب، سلبي،
          إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي،
          إيجابية.

تتجاهل AUC أي قيمة قمت بتعيينها الحد الأدنى للتصنيف. بدلاً من ذلك، يتم استخدام في الاعتبار جميع حدود التصنيف الممكنة.

B

الانتشار العكسي

#fundamentals

يشير هذا المصطلح إلى الخوارزمية التي تنفّذ خوارزمية انحدار التدرج في الشبكات العصبونية.

يتضمّن تدريب الشبكة العصبية العديد من التكرارات. من دورة الاجتياز التالية:

  1. خلال البداية والنهاية المبكرة، يعالج النظام مجموعة من أمثلة للحصول على عبارات بحث مقترحة يقارن النظام كل التنبؤ لكل قيمة label. الفرق بين التوقع وقيمة التصنيف هي loss لهذا المثال. ويجمع النظام الخسائر لجميع الأمثلة لاحتساب العدد الإجمالي الخسارة في الدفعة الحالية.
  2. أثناء البداية والنهاية المتأخرة (الرجوع في مرحلة النشر)، يحدّ النظام من الخسارة بنسبة تعديل الأوزان لجميع الخلايا العصبية في جميع الطبقات المخفية

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات الخفية. كل خلية من تلك الخلايا العصبية تساهم في الخسارة الكلية بطرق مختلفة. عملية الانتشار العكسي تحدّد ما إذا كان سيتم زيادة القيم التقديرية أو تقليلها تطبيقها على خلايا عصبية معينة.

معدّل التعلّم هو مضاعِف يتحكّم في الدرجة التي تزيد بها كل تمريرة خلفية أو تقل عن كل وزن. سيزيد معدل التعلم الكبير أو ينخفض كل وزن بما يزيد عن بمعدل تعلم صغير.

في مصطلحات حساب التفاضل والتكامل، تؤدي عملية انعكاسية البيانات تنفيذًا لقاعدة السلسلة. من حساب التفاضل والتكامل. أي أن الانتشار العكسي يحسب المشتق الجزئي للخطأ مع فيما يتعلق بكل معلمة.

منذ سنوات، اضطر ممارسو تعلُّم الآلة إلى كتابة رموز برمجية لتنفيذ عملية انتشار العكس. تستخدم واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل TensorFlow، عملية الانتشار العكسي لك. أخيرًا!

مُجمَّع

#fundamentals

مجموعة الأمثلة المستخدَمة في دورة تدريبية واحدة التكرار. ويحدد حجم المجموعة عدد الأمثلة في .

يمكنك الاطّلاع على الحقبة للحصول على شرح حول علاقة الدفعة. حقبة.

حجم الدفعة

#fundamentals

عدد الأمثلة في مجموعة. فعلى سبيل المثال، إذا كان حجم الدفعة 100، فسيعالج النموذج 100 مثال لكل تكرار.

في ما يلي استراتيجيات شائعة لحجم الدُفعة:

  • الهبوط المتدرج العشوائي (SGD)، حيث يكون حجم الدفعة 1.
  • الدُفعة الكاملة التي يكون حجم الدُفعة فيها هو عدد الأمثلة مجموعة تدريب. على سبيل المثال، إذا كانت مجموعة التطبيق يحتوي على مليون مثال، فإن حجم الدفعة سيكون مليون الأمثلة. عادةً ما تكون الدفعة الكاملة استراتيجية غير فعالة.
  • دفعة صغيرة يكون فيها حجم الدُفعة عادةً بين 10 و1000. عادةً ما تكون الدفعة الصغيرة هي الاستراتيجية الأكثر فعالية.

التحيز (الأخلاقيات/الإنصاف)

#fairness
#fundamentals

1. والنقد النمطي، أو التحيز أو المحسوبية تجاه بعض الأشياء، أو الأشخاص، أو مجموعات أكثر من غيرها. يمكن أن تؤثر هذه التحيزات على الجمع تفسير البيانات وتصميم النظام وكيفية تفاعل المستخدمين باستخدام نظام. تشمل أشكال هذا النوع من التحيز ما يلي:

2. يشير ذلك المصطلح إلى خطأ نظامي ناتج عن استخدام طريقة لجمع العيّنات أو الإبلاغ عن المحتوى. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو تحيز التنبؤ.

تحيز (رياضيات) أو مصطلح تحيز

#fundamentals

اعتراض أو إزاحة من المصدر. يُعد التحيز معلمة في نماذج التعلم الآلي، والتي يرمز إليها بأي من التالي:

  • ب
  • w0

على سبيل المثال، الانحياز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني التحيز فقط "تقاطع ص". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

رسم خط مستقيم ميله 0.5 وانحراف (تقاطع ص) 2.

يوجد التحيز لأن بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال: لنفترض أن تكلفة دخول مدينة الملاهي 2 يورو 0.5 يورو لكل ساعة يقيم فيها العميل. وبالتالي، يؤدي تعيين نموذج التكلفة الإجمالية لها تحيز 2 لأن أقل تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاق والإنصاف أو تحيز التنبؤ.

التصنيف الثنائي

#fundamentals

يشير هذا المصطلح إلى نوع من مهام التصنيف التي يتنبأ بإحدى الفئتين المتنفيتين:

على سبيل المثال، يؤدي كل نموذج من نماذج تعلُّم الآلة التصنيف الثنائي:

  • يشير هذا المصطلح إلى نموذج يحدِّد ما إذا كانت الرسائل الإلكترونية محتوى غير مرغوب فيه (الفئة الإيجابية) أو محتوى غير مرغوب فيه (الفئة السلبية).
  • يشير هذا المصطلح إلى نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص قد يعاني من مرض معين (الفئة الإيجابية) أو لا يحتوي على ذلك المرض (الفئة السالبة).

تباين مع التصنيف متعدد الفئات.

راجِع أيضًا الانحدار اللوجستي و الحد الأدنى للتصنيف.

تجميع البيانات

#fundamentals

تحويل ميزة واحدة إلى ميزات ثنائية متعددة تسمى الحزم أو السلال، وتعتمد عادةً على نطاق القيمة. عادةً ما تكون الميزة المقطّعة للميزة المستمرة.

فعلى سبيل المثال، بدلاً من تمثيل درجة الحرارة النقطة العائمة المستمرة، يمكنك قطع نطاقات من درجات الحرارة في مجموعات منفصلة، مثل:

  • <= 10 درجات مئوية قد يكون "بارد" دُلو.
  • 11 - 24 درجة مئوية ستكون "معتدلة" دُلو.
  • >= 25 درجة مئوية قد يكون "دافئ" دُلو.

سيتعامل النموذج مع كل قيمة في مجموعة البيانات نفسها تماثلاً. بالنسبة على سبيل المثال، القيمتان 13 و22 كلاهما في مجموعة البيانات المعتدلة، وبالتالي فإن يتعامل مع القيمتين بشكل متماثل.

C

بيانات فئوية

#fundamentals

الميزات التي تحتوي على مجموعة محددة من القيم المحتملة. على سبيل المثال: بالنظر إلى خاصية فئوية تُسمى traffic-light-state، والتي يمكنها فقط تحتوي على إحدى القيم الثلاث التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كخاصية فئوية، يمكن لأي نموذج معرفة تأثيرات مختلفة في red وgreen وyellow على سلوك السائق.

تسمى أحيانًا السمات الفئوية الميزات المنفصلة.

التباين مع البيانات الرقمية.

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف. على سبيل المثال:

  • في نموذج تصنيف ثنائي يكتشف محتوى غير مرغوب فيه، فقد يكون الفئتان محتوى غير مرغوب فيه وليس محتوى غير مرغوب فيه.
  • في نموذج التصنيف المتعدّد الفئات التي تحدد سلالات الكلاب، قد تكون هذه الفئات بودل وبيغل وباك وهكذا

يتوقّع نموذج التصنيف فئة معيّنة. في المقابل، يتنبأ نموذج الانحدار برقم بدلاً من فئة.

نموذج التصنيف

#fundamentals

نموذج يكون توقّعه فئة فعلى سبيل المثال، فيما يلي جميع نماذج التصنيف:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بلغة الجملة المُدخَلة (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • نموذج للتنبؤ بأنواع الأشجار (القيقب؟ البلوط؟ باوباب؟).
  • يشير هذا المصطلح إلى نموذج يتنبأ بالفئة الموجبة أو السالبة لفئة معيَّنة. حالة طبية.

في المقابل، تتنبأ نماذج الانحدار بالأعداد بدلاً من الفصول الدراسية.

هناك نوعان شائعان من نماذج التصنيف هما:

حد التصنيف

#fundamentals

في تصنيف ثنائي، رقم بين 0 و1 يحوِّل الناتج الأولي نموذج الانحدار اللوجستي في توقع إما الفئة الموجبة أو الفئة السالبة. لاحظ أن الحد الأدنى للتصنيف هو قيمة يختارها الشخص، وليست قيمة يتم اختيارها بواسطة تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من حد التصنيف، التنبؤ بالفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من حد التصنيف، عندئذ التنبؤ بالفئة السالبة.

لنفترض على سبيل المثال أن الحد الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية تساوي 0.9، فسيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية 0.7، فسيتنبأ النموذج بالفئة السالبة.

يؤثر اختيار حد التصنيف بشدة في عدد النتائج الموجبة الخاطئة أرقام سالبة خاطئة:

مجموعة بيانات غير متوازنة الفئات

#fundamentals

يشير ذلك المصطلح إلى مجموعة بيانات لمشكلة تصنيف يظهر فيها العدد الإجمالي من التصنيفات لكل فئة يختلف بشكل كبير. على سبيل المثال، بالنظر إلى مجموعة بيانات للتصنيف الثنائي، يكون التصنيفان على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السالبة والموجبة هي 100000 إلى 1، ومن ثم هي مجموعة بيانات غير متوازنة في الفئات.

وفي المقابل، ليست مجموعة البيانات التالية غير متوازنة في الفئات بسبب نسبة التصنيفات السالبة إلى التصنيفات الموجبة قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

يمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة في الفئات. على سبيل المثال، ما يلي تكون مجموعة بيانات التصنيف متعدد الفئات غير متوازنة أيضًا لأن تسمية واحدة يتضمن أمثلة أكثر بكثير من المثالين الآخرين:

  • 1,000,000 تصنيف بالفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا بالفئة "برتقالي"

راجِع أيضًا الإنتروبيا وفئة الأغلبية وفئة الأقل.

اقتصاص

#fundamentals

أحد الأساليب للتعامل مع القيم الاستثنائية من خلال إجراء أحد الأمرين التاليين أو كليهما:

  • تقليل قيم الميزة التي تزيد عن الحدّ الأقصى إلى هذا الحد الأقصى.
  • زيادة قيم الميزات التي تقل عن الحد الأدنى حتى ذلك الحد الأدنى.

على سبيل المثال، لنفترض أن أقل من% 0.5 من قيم ميزة معيّنة تقع. خارج النطاق 40-60. في هذه الحالة، يمكنك إجراء ما يلي:

  • يُرجى اقتصاص جميع القيم التي تزيد عن 60 (الحدّ الأقصى) لتكون 60 بالضبط.
  • يُرجى اقتصاص جميع القيم التي تقلّ عن 40 (الحدّ الأدنى) لتكون 40 بالضبط.

قد تتسبّب القيم الاستثنائية في إتلاف النماذج، وقد تتسبّب أحيانًا أوزان. إلى تجاوز الفائض أثناء التدريب. يمكن أن تفسد بعض القيم الاستثنائية بشكل كبير مقاييس مثل الدقة. يعتبر الاقتصاص أسلوبًا شائعًا للحدّ الضرر.

قوى الاقتصاص المتدرج قيم التدرج ضمن نطاق محدد أثناء التدريب.

مصفوفة التشويش

#fundamentals

جدول NxN يلخص عدد التنبؤات الصحيحة وغير الصحيحة الذي قدّمه نموذج التصنيف. على سبيل المثال، ضع في الاعتبار مصفوفة التشويش التالية نموذج التصنيف الثنائي:

الورم (المتوقَّع) غير ورم (المتوقَّعة)
الورم (الحقيقة الأرضية) 18 سنة (TP) 1 (FN)
غير الورم (الحقيقة الواقعية) 6 (FP) 452 (TN)

توضح مصفوفة التشويش السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الواقعية فيها، الأورام، صنف النموذج 18 بشكل صحيح وصنف 1 بشكل غير صحيح.
  • من بين 458 تنبؤًا كانت هناك حقيقة أساسية كانت غير ورم، يستخدم النموذج صنفت بشكل صحيح 452 وتصنيف 6 بشكل غير صحيح.

مصفوفة التشويش للتصنيف متعدد الفئات والمشكلة في تحديد أنماط الأخطاء. على سبيل المثال، بالنظر إلى مصفوفة التشويش التالية للفئة الثالثة نموذج تصنيف متعدد الفئات يصنف ثلاثة أنواع مختلفة من القزحية (فيرجينيكا وVersicolor وSetosa). عندما كانت الحقيقة الواقعية هي فيرجينيكا، أن مصفوفة التشويش تظهر أنه من المرجح أن يحدث أخطاء التنبؤ بVersicolor من Setosa:

  سيتوسا (المتوقَّعة) Versicolor (المتوقع) فيرجينيكا (المتوقَّعة)
سيتوسا (الحقيقة الواقعية) 88 12 0
Versicolor (الحقيقة الواقعية) 6 141 7
فيرجينيكا (الحقيقة) 2 27 109

وكمثال آخر، يمكن أن تكشف مصفوفة التشويش أن نموذجًا تم تدريبه فإن التعرف على الأرقام المكتوبة بخط اليد يميل إلى التنبؤ عن طريق الخطأ بـ 9 بدلاً من 4، أو توقع 1 عن 7 عن طريق الخطأ.

تحتوي مصفوفات الارتباك على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة وتذكُّرها.

خاصية مستمرة

#fundamentals

ميزة نقطة عائمة تضم نطاقًا غير محدود من القيم القيم، مثل درجة الحرارة أو الوزن.

تباين مع الميزة المنفصلة.

التقارب

#fundamentals

حالة يتم الوصول إليها عندما تتغير قيم الخسارة قليلاً جدًا أو على الإطلاق مع كل تكرار. على سبيل المثال، ما يلي يشير منحنى الخسارة إلى التقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور س هو الخسارة. المحور ص هو عدد التطبيق
          التكرارات. تكون الخسارة كبيرة جدًا خلال التكرارات القليلة الأولى، لكن
          ينخفض بشكل كبير. بعد حوالي 100 تكرار، لا تزال الخسارة
          تنازليًا ولكن تدريجيًا أكثر. بعد حوالي 700 تكرار،
          تظل الخسارة ثابتة.

ويتقارب النموذج مع عدم اكتمال التدريب الإضافي تحسين النموذج.

في التعليم المتعمق، تظل قيم الخسارة ثابتة أو تقريبًا للعديد من التكرارات قبل أن يتراجع أخيرًا. خلال فترة طويلة قيم الخسارة الثابتة، فقد تحصل مؤقتًا على إحساس خاطئ بالتقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

D

DataFrame

#fundamentals

نوع بيانات شائع pandas لتمثيل مجموعات البيانات في الذاكرة.

DataFrame مماثل لجدول أو جدول بيانات. كل عمود من DataFrame له اسم (رأس)، ويتم تحديد كل صف بواسطة رقم فريد.

تتم هيكلة كل عمود في DataFrame كصفيف ثنائي الأبعاد، باستثناء يمكن تعيين نوع البيانات الخاص لكل عمود.

راجع أيضًا مرجع pandas.DataFrame .

مجموعة بيانات أو مجموعة بيانات

#fundamentals

يشير هذا المصطلح إلى مجموعة من البيانات الأولية التي يتم تنظيمها عادةً (وليس بشكل حصري) في مجموعة واحدة. بأي من التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من عنصر طبقة مخفية.

ويسمى النموذج العميق أيضًا الشبكة العصبونية العميقة.

التباين مع النموذج العريض.

خاصية كثيفة

#fundamentals

ميزة تكون فيها معظم القيم أو جميعها غير صفرية، عادةً Tensor لقيم النقطة العائمة على سبيل المثال، ما يلي Tensor ذات 10 عناصر كثيفة لأن 9 من قيمها غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع الميزة المتفرقة.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

فعلى سبيل المثال، يمكن إنشاء شبكة عصبية مكونة من خمس طبقات مخفية وطبقة إخراج واحدة. يبلغ عمقها 6.

لاحِظ أنّ طبقة الإدخال لا وعمق التأثير.

خاصية منفصلة

#fundamentals

يشير ذلك المصطلح إلى ميزة تتضمّن مجموعة محدودة من القيم المحتمَلة. على سبيل المثال: الميزة التي قد تكون قيمها قد تكون فقط حيوان أو خضار أو معدن هي منفصلة (أو فئوية).

التباين مع الميزة المستمرة.

ديناميكي

#fundamentals

حدث شيء ما بشكل متكرر أو مستمر. المصطلحان ديناميكي وعلى الإنترنت مرادفان لمصطلح "تعلُّم الآلة". فيما يلي الاستخدامات الشائعة ديناميكية وعبر الإنترنت في الجهاز التعلم:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية لإنشاء التنبؤات عند الطلب.

نموذج ديناميكي

#fundamentals

نموذج يتم استخدامه بشكل متكرّر (ربما بشكل مستمر) إعادة تدريبه. النموذج الديناميكي هو "متعلم مدى الحياة" الذي/التي تتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم على الإنترنت.

التباين مع النموذج الثابت.

E

إيقاف مبكر

#fundamentals

طريقة للتنظيم تشمل إنهاء تدريب قبل انتهاء مدة التدريب متناقصة. عند التوقف المبكر، تتعمد التوقف عن تدريب النموذج عندما تبدأ الخسارة في مجموعة بيانات التحقق increase; أي عندما ويتفاقم أداء التخصيص.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على التصنيف الفئوي عالية الأبعاد وتتعلم تدريجيًا متجه تضمين البعد. إنّ تمكّن طبقة التضمين الشبكة العصبية من التدريب بشكل أكبر فعالية من التطبيق فقط على خاصية الفئوية عالية الأبعاد.

على سبيل المثال، يدعم تطبيق Earth حاليًا حوالي 73000 نوع من الأشجار. فرض أنواع الأشجار هي ميزة في نموذجك، لذا فإن تشمل طبقة الإدخال متّجهًا واحدًا سريع يبلغ حجمه 73,000 العناصر الطويلة. على سبيل المثال، قد يتم تمثيل السمة baobab على النحو التالي:

مصفوفة مكونة من 73,000 عنصر. يحتوي أول 6232 عنصرًا على القيمة
     0. يحمل العنصر التالي القيمة 1. يحمل آخر 66,767 عنصرًا
     بالقيمة صفر.

الصفيفة المكونة من 73000 عنصر طويلة جدًا. في حال عدم إضافة طبقة تضمين النموذج، وسيستغرق التدريب وقتًا طويلاً للغاية بسبب ضرب 72999 صفرًا. ربما تختار طبقة التضمين لتضمين من 12 بُعدًا. وبالتالي، تتعلم طبقة التضمين تدريجيًا متجه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً. إلى طبقة تضمين.

حقبة

#fundamentals

شهادة تدريب كاملة تشمل مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة.

تمثل الحقبة N/حجم الدفعة. التكرارات التدريبية، حيث N هو وإجمالي عدد الأمثلة.

على سبيل المثال، لنفترض أن ما يلي:

  • تتكون مجموعة البيانات من 1000 مثال.
  • حجم الدفعة هو 50 مثالاً.

وبالتالي، تتطلب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما تصنيف. أمثلة في التعلّم المُوجّه: الفئات العامة:

  • يتألف المثال المصنَّف من ميزة واحدة أو أكثر. وتصنيف. يتم استخدام الأمثلة المصنفة أثناء التدريب.
  • يتألف المثال غير المصنَّف من واحد أو المزيد من الميزات ولكن ليس هناك تسمية. يتم استخدام الأمثلة غير المصنفة أثناء الاستنتاج.

فعلى سبيل المثال، افترض أنك تتدرب على نموذج لتحديد تأثير أحوال الطقس على درجات اختبار الطالب. فيما يلي ثلاثة أمثلة مصنفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. أي أن المثال يتكون عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. علاوة على ذلك، يمكن أن تتضمن الميزات الواردة في أحد الأمثلة أيضًا الميزات الاصطناعية، مثل تجاوزات الميزات.

F

سالب خاطئ (FN)

#fundamentals

يشير هذا المصطلح إلى مثال يتنبأ فيه النموذج عن طريق الخطأ الفئة السالبة. على سبيل المثال، يعبِّر النموذج يتنبأ بأن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، لكن هذه الرسالة الإلكترونية في الواقع هي رسالة غير مرغوب فيها.

موجب خاطئ (FP)

#fundamentals

يشير هذا المصطلح إلى مثال يتنبأ فيه النموذج عن طريق الخطأ فئة إيجابية. على سبيل المثال، يتنبأ النموذج أن رسالة معينة تمثل رسالة غير مرغوب فيها (الفئة الإيجابية)، لكن من أن تكون رسالة غير مرغوب فيها في الواقع.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير هذا المصطلح إلى نسبة الأمثلة السلبية الفعلية التي تم رصدها عن طريق الخطأ. تتنبأ الفئة الموجبة. تحسب المعادلة التالية القيمة false معدل الموجب:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدّل الموجب الخاطئ هو المحور "س" في منحنى RoC.

ميزة

#fundamentals

يشير ذلك المصطلح إلى متغيّر إدخال في نموذج تعلُّم الآلة. مثال يتكون من ميزة واحدة أو أكثر. على سبيل المثال، افترض أنك تدرّب نموذجي لتحديد تأثير ظروف الطقس على درجات اختبار الطالب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلٌ منها على ثلاث ميزات وتسمية واحدة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

تباين مع label.

تقاطع الخصائص

#fundamentals

ميزة اصطناعية تم تكوينها من خلال عبارة "دمج" ميزات فئوية أو مجمّعة.

على سبيل المثال، ننصحك باستخدام أداة "توقّعات الحالة المزاجية" نموذج يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى المجموعات الثلاث التالية:

  • still
  • light
  • windy

بدون تقاطعات الخصائص، يتدرّب النموذج الخطي بشكل مستقل على كل قبل سبع مجموعات مختلفة. إذًا، يتدرب النموذج، على سبيل المثال، freezing بشكل مستقل عن التدريب، على سبيل المثال، windy

وبدلاً من ذلك، يمكنك إنشاء خاصية تقاطع درجة الحرارة سرعة الرياح. تضم هذه الميزة الاصطناعية ما يلي: 12 ممكنة القيم التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل التقاطعات المتقاطعة، يمكن أن يتعلّم النموذج فروقًا مزاجية. بين يوم واحد (freezing-windy) ويوم واحد (freezing-still)

إذا أنشأت ميزة اصطناعية من ميزتَين يتضمّن كلّ منهما الكثير من مجموعات مختلفة، فإن تقاطع الميزة الناتج سيحتوي على عدد كبير من المجموعات المحتملة. على سبيل المثال، إذا كانت إحدى الميزات تحتوي على 1000 مجموعة بيانات يحتوي العنصر الآخر على 2000 مجموعة بيانات، فإن تقاطع الميزة الناتج به 2,000,000 دلاء.

رسميًا، الصليب هو المنتج الديكارتي:

تُستخدم روابط الميزات في الغالب مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تطبيق أحد النماذج.
  2. إن تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من هذه الميزات.

على سبيل المثال، قد تجد أن temperature قد يكون مفيدًا الجديدة. بعد ذلك، يمكنك تجربة استخدام ميزة تجميع البيانات. لتحسين المعلومات التي يمكن أن يتعلّمها النموذج من نطاقات temperature المختلفة.

يُطلق على هندسة الميزات أحيانًا استخراج الميزات تحديد السمات:

مجموعة الخصائص

#fundamentals

مجموعة ميزات تعلُّم الآلة يتدرب model على. على سبيل المثال، قد يتضمن الرمز البريدي وحجم الموقع وحالة الموقع إنشاء مجموعة خصائص بسيطة لنموذج يتنبأ بأسعار المساكن.

خط متجه الخصائص

#fundamentals

يشير هذا المصطلح إلى مصفوفة قيم feature التي تتكوّن من مثال. يتم إدخال متجه الميزة أثناء التدريب وأثناء الاستنتاج. فعلى سبيل المثال، الخط المتجه الخاص بنموذج مكون من سمتين منفصلتين قد يكون:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عقدتين، تحتوي إحداهما على القيمة
          0.92 والآخر يحتوي على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الخصائص، وبالتالي فإن يمكن أن يكون متجه الميزة للمثال التالي شيئًا مثل:

[0.73, 0.49]

هندسة الميزات التي تحدد كيفية تمثيل الميزات في خط المتجه الخاص. فعلى سبيل المثال، خاصية فئوية ثنائية يمكن تمثيل خمس قيم محتملة ترميز واحد فعال: في هذه الحالة، جزء يتكون خط متجه الخصائص لمثال معين من أربعة أصفار 1.0 واحد في الموضع الثالث على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

ومثال آخر على ذلك، لنفترض أن نموذجك يتكون من ثلاث ميزات:

  • خاصية فئوية ثنائية تحتوي على خمس قيم محتملة ممثلة باستخدام ترميز واحد فعال؛ على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • خاصية فئوية ثنائية أخرى ممثلة بـ ثلاث قيم محتملة بترميز واحد فعال؛ على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة؛ على سبيل المثال: 8.3.

في هذه الحالة، سيتم تمثيل متجه الميزة لكل مثال على تسع قيم. بناءً على أمثلة القيم في القائمة السابقة، سيكون الخط المتجه للميزة:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

حلقة الملاحظات

#fundamentals

في التعلم الآلي، وهو موقف تؤثر فيه توقعات النموذج بيانات التطبيق لنفس النموذج أو نموذج آخر. على سبيل المثال، النموذج الذي اقتراحات الأفلام سوف تؤثر على الأفلام التي يشاهدها الناس، والتي ستجعل للتأثير في نماذج توصية الأفلام اللاحقة.

G

تعميم

#fundamentals

يستطيع النموذج تقديم تنبؤات صحيحة عن البيانات غير المرئية سابقًا. النموذج الذي يمكن التعميم هو عكس ذلك نموذج فرط التخصيص.

منحنى التعميم

#fundamentals

مخطط لكل من خسارة التدريب فقدان التحقق كدالة لعدد التكرارات:

يمكن أن يساعدك منحنى التعميم في اكتشاف الفرط في التخصيص. على سبيل المثال، ما يلي يشير منحنى التعميم إلى فرط التخصيص لأن فقدان التحقق من الصحة تصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني الديكارتي يُسمّى فيه المحور ص الخسارة والمحور س
          يسمى التكرارات. يظهر اثنين من المخططات. تظهر إحدى المخططات
          والخسارة في التدريب، بينما يعرض الآخر خسارة التحقق من الصحة.
          يبدأ المخططان بشكل مشابه، لكن خسارة التدريب في النهاية
          تنخفض كثيرًا إلى أقل بكثير من فقدان التحقق.

انحدار تدرّجي

#fundamentals

أسلوب رياضي لتقليل الخسارة. ضبط انحدار التدرج بالتكرار التحسيني القيم المرجحة والانحيازات، وإيجاد أفضل تركيبة تدريجيًا لتقليل الخسارة.

أما انحدار التدرج، فيقدم أقدم بكثير من التعلم الآلي.

معلومات فعلية

#fundamentals

الواقع.

الشيء الذي حدث بالفعل.

على سبيل المثال، يمكنك وضع تصنيف ثنائي يتنبأ بما إذا كان الطالب في السنة الأولى في الجامعة في غضون ست سنوات. إن الحقيقة الأساسية لهذا النموذج هي ما إذا كان أن الطالب قد تخرج بالفعل في غضون ست سنوات.

H

طبقة مخفية

#fundamentals

يشير ذلك المصطلح إلى طبقة في الشبكة العصبونية بين طبقة الإدخال (الميزات) و طبقة الناتج (التنبؤ). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتين مخفيتين، الأولى بها ثلاث خلايا عصبية والثانية تحتوي على خليتين عصبيتين:

أربع طبقات. الطبقة الأولى هي طبقة إدخال تحتوي على اثنين
          الجديدة. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاث
          الخلايا العصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على اثنين
          الخلايا العصبية. الطبقة الرابعة هي طبقة الإخراج. كل ميزة
          تحتوي على ثلاث حواف تشير كل منها إلى خلية عصبية مختلفة
          في الطبقة الثانية. كل خلية من الخلايا العصبية في الطبقة الثانية
          يحتوي على حافتين، تشير كل منهما إلى خلية عصبية مختلفة
          في الطبقة الثالثة. كل خلية من الخلايا العصبية في الطبقة الثالثة تحتوي على
          حافة واحدة، تشير كل منها إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من مصدر طبقة مخفية. فعلى سبيل المثال، الرسم التوضيحي السابق عبارة عن صورة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

معلَمة فائقة

#fundamentals

تشير المتغيرات التي تنفذها أنت أو خدمة ضبط المعلمة الفائقة على التكيف خلال الفترات المتتالية لتطبيق أحد النماذج. على سبيل المثال: معدّل التعلّم هو معلَمة فائقة. يمكنك اضبط معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا كنت تحديد أن القيمة 0.01 مرتفعة جدًا، فيمكنك تحديد القيم إلى 0.003 في الدورة التدريبية التالية.

في المقابل، المَعلمات هي المعلَمات المختلفة القيم المرجحة والانحياز الذي يمثّله النموذج يتعلم أثناء التدريب.

I

موزّعة بشكل مستقل ومتماثل (أي)

#fundamentals

يشير ذلك المصطلح إلى البيانات المأخوذة من توزيع لا تتغيّر، والتي تكون فيها كل قيمة. مرسومة لا تعتمد على القيم التي تم رسمها مسبقًا. معرّف هو الغاز المثالي من الجهاز التعلم — بناء رياضي مفيد ولكن نادرًا ما يتم العثور عليه في العالم الحقيقي. على سبيل المثال، توزيع الزوار على إحدى صفحات الويب موزّعة بشكل مستقل خلال فترة زمنية قصيرة؛ أي أن التوزيع لا التي تتغير خلال تلك الفترة الموجزة وتكون زيارة شخص ما بشكل مستقل عن زيارة شخص آخر. ومع ذلك، إذا قمت بتوسيع هذه النافذة الزمنية، قد تظهر اختلافات موسمية في زوار صفحة الويب.

راجِع أيضًا المقالة عدم ثبات الأداء.

استنتاج

#fundamentals

في التعلم الآلي، تتم عملية إجراء التنبؤات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

للاستنتاج معنى مختلف بعض الشيء في الإحصاءات. يمكنك الاطّلاع على مقالة من ويكيبيديا حول الاستنتاج الإحصائي للاطّلاع على التفاصيل

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تحتوي على متّجه الميزة. أي أن طبقة الإدخال يقدم أمثلة للتدريب أو الاستنتاج على سبيل المثال، طبقة الإدخال في ما يلي تتكون الشبكة العصبية من ميزتين:

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج.

القابلية للتفسير

#fundamentals

القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة في مصطلحات مفهومة للإنسان.

على سبيل المثال، تعتمد معظم نماذج الانحدار الخطي على قابل للتفسير. (ما عليك سوى إلقاء نظرة على الأوزان المدربة لكل feature.) غابات اتخاذ القرار أيضًا قابلة للتفسير بدرجة عالية. في المقابل، تحتوي بعض النماذج تتطلب تصورًا متطورًا لتصبح قابلة للتفسير.

يمكنك استخدام صفحة أداة "ترجمة وشرح" (LIT) لتفسير نماذج تعلُّم الآلة.

تكرار

#fundamentals

يشير هذا المصطلح إلى تعديل واحد لمَعلمات النموذج، وهو ما يخص النموذج. القيم المرجحة والتحيزات: أثناء تدريب. ويحدِّد حجم الدفعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال: إذا كان حجم الدفعة 20، فإن النموذج يعالج 20 مثالاً قبل تعديل المعاملات.

عند تدريب شبكة عصبية، يجب تكرار تكرار واحد تتضمن البطاقات التالية:

  1. تمريرة للأمام لتقييم الخسارة في دفعة واحدة.
  2. ممر للخلف (انتشار للخلف) لضبط معاملات النموذج بناءً على الخسارة ومعدّل التعلم.

L

تسوية الترتيب0

#fundamentals

نوع من التنظيم يؤدي إلى فرض عقوبة على إجمالي عدد الأوزان غير الصفرية في نموذج. فعلى سبيل المثال، لنفترض أن نموذجًا يحتوي على 11 وزنًا غير صفري أكثر من نموذج مشابه يحتوي على 10 أوزان غير صفرية.

يُطلق أحيانًا على تسوية المستوى 0 اسم تسوية المعيار L0.

الخسارة الأولى

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة الفرق بين قيم التصنيف الفعلية القيم التي يتنبأ بها النموذج. على سبيل المثال، إليك احتساب الخسارة في L1 بمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة للدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

الخسارة L1 أقل حساسية للقيم الخارجية من L2 الخسارة.

متوسط الخطأ المطلق هو متوسط خسارة L1 لكل مثال.

تسوية المستوى1

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بالتناسب مع مجموع القيمة المطلقة الأوزان. تساعد تسوية الأرباح من المستوى 1 في زيادة احتمالات البيانات غير الملائمة أو ميزات يكاد تكون ذات صلة بالقيمة 0. ميزة ذات تتم إزالة الترجيح 0 من النموذج فعليًا.

تباين مع L2 تسوية.

الخسارة 2

#fundamentals

دالة الخسارة التي تحسب المربع الفرق بين قيم التصنيف الفعلية القيم التي يتنبأ بها النموذج. على سبيل المثال، إليك احتساب الخسارة من L2 بمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

تؤدي خسارة المستوى 2 إلى تضخيم تأثير القيم الشاذّة بمعنى آخر، تتجاوب خسارة المستوى 2 بدرجة أكبر مع التوقعات السيئة خسارة الجولة الأولى على سبيل المثال، خسارة L1 للدفعة السابقة سيكون 8 بدلاً من 16. لاحظ أن إحدى والطرفية تشكل 9 من 16.

تستخدم نماذج الانحدار عادةً الخسارة L2 مثل دالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة في المستوى 2.

تسوية 2

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بما يتناسب مع مجموع المربعات للقيم الترجيحية. يساعد تسوية المستوى 2 في تحقيق ترجيحات خارجية (وهي ذات القيم السالبة المرتفعة أو ذات القيم السالبة المنخفضة) أقرب إلى 0 لكن ليست تمامًا إلى 0. تظل الميزات ذات القيم القريبة جدًا من 0 في النموذج ولكنها لا تؤثر كثيرًا في تنبؤ النموذج.

تؤدي تسوية المستوى 2 دائمًا إلى تحسين التعميم في النماذج الخطية.

تباين مع L1 تسوية.

التصنيف

#fundamentals

في نظام تعلُّم الآلة المُوجّه، "الإجابة" أو "النتيجة" من مثال.

يتكون كل مثال مصنَّف من مثال واحد أو أكثر الميزات وتصنيف. على سبيل المثال، في مجلد الرسائل غير المرغوب فيها تصنيف "غير مرغوب فيه" على الأرجح "غير مرغوب فيه" أو "ليست رسائل غير مرغوب فيها". في مجموعة بيانات هطول الأمطار، قد تكون التسمية هي مقدار الأمطار التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على ميزة واحدة أو أكثر بالإضافة إلى تصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنفة من نموذج تقييم منزل، لكل منها ثلاث ميزات وتصنيف واحد:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392000 دولار

في نظام تعلُّم الآلة الخاضع للإشراف، نماذج التدريب على الأمثلة المصنفة وعمل التنبؤات على أمثلة غير مصنَّفة:

مثال على التباين المصنَّف مع أمثلة غير مصنَّفة.

لمدا

#fundamentals

مرادف معدّل التنظيم.

مصطلح "لامدا" هو عبارة عن حمل زائد. سنركز هنا على المصطلح ضمن الانتظام.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في الشبكة العصبونية. ثلاثة أنواع شائعة من الطبقات هي على النحو التالي:

على سبيل المثال، يوضح الرسم التوضيحي التالي شبكة عصبية ذات طبقة إدخال واحدة وطبقتين مخفيتين وطبقة إخراج واحدة:

شبكة عصبية تحتوي على طبقة إدخال واحدة وطبقتين مخفيتين وطبقة واحدة
          طبقة الإخراج. تتألف طبقة الإدخال من ميزتين. الأول
          الطبقة المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية
          تتكون من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

في TensorFlow، الطبقات هي أيضًا دوال بايثون تستخدم أجهزة الاستشعار وخيارات الضبط كإدخال ننتج عوامل تنس أخرى كمخرجات.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يوضّح انحدار التدرج لـ مدى قوة ضبط الأوزان والتحيزات في كل التكرار. فعلى سبيل المثال، إذا كان معدل التعلم 0.3، بضبط الأوزان والتحيزات أكثر بثلاث مرات من معدل التعلم من 0.1.

معدّل التعلّم هو مَعلمة زائدة رئيسية. في حال ضبط كان معدل التعلم منخفضًا جدًا، سيستغرق التدريب وقتًا طويلاً. في حال حذف في أنك قمت بتعيين معدل التعلم مرتفعًا للغاية، وغالبًا ما تواجه خوارزمية انحدار التدرج مشكلة الوصول إلى التقارب.

خطي

#fundamentals

علاقة بين متغيرين أو أكثر يمكن تمثيله فقط من خلال الجمع والضرب.

مخطط العلاقة الخطية هو خط.

تباين مع القيم nonlinear.

نموذج خطي

#fundamentals

نموذج يعيّن وزنًا واحدًا لكل الميزة التي تتيح لك التنبؤات. (تتضمن النماذج الخطية أيضًا انحيازًا). في المقابل، علاقة الميزات بالتوقّعات في النماذج المفصّلة تكون بشكل عام nonlinear.

عادةً ما يكون تدريب النماذج الخطية أسهل وأكثر يمكن تفسيره من النماذج الأوّلية ومع ذلك، يمكن أن تتعلم النماذج العميقة علاقات معقدة بين الميزات.

الانحدار الخطي الانحدار اللوجستي هما نوعان من النماذج الخطية.

انحدار خطّي

#fundamentals

يشير ذلك المصطلح إلى نوع من نماذج تعلُّم الآلة ينطبق فيه ما يلي:

  • النموذج هو نموذج خطي.
  • التنبؤ هو قيمة نقطة عائمة. (هذه هي صفحة جزء الانحدار من الانحدار الخطي).

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار باستخدام التصنيف.

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار الذي يتوقّع الاحتمالية. تتمتع نماذج الانحدار اللوجستي بالخصائص التالية:

  • يكون التصنيف فئويًا. يشير مصطلح "لوجستي" إلى يشير الانحدار عادةً إلى الانحدار اللوجستي الثنائي، وهو إلى نموذج يحتسب احتمالات التصنيفات ذات القيمتين المحتملتين. أحد الصيغ الأقل شيوعًا وهو الانحدار اللوجستي المتعدد الحدود احتمالات التصنيفات ذات أكثر من قيمتين محتملتين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات متعددة لفقدان السجلات بالتوازي مع التصنيفات بأكثر من قيمتين محتملتين).
  • يشتمل النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق باقي هذا التعريف أيضًا على النماذج المفصّلة التي تتنبأ بالاحتمالات للتسميات الفئوية.

على سبيل المثال، ضع في الاعتبار نموذج الانحدار اللوجستي الذي يحتسب احتمالية أن يكون عنوان البريد الإلكتروني الذي تم إدخاله إما غير مرغوب فيه أو ليس بريدًا غير مرغوب فيه. أثناء الاستنتاج، افترض أن النموذج يتنبأ بـ 0.72. وبالتالي، يقدر النموذج:

  • فرصة 72٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • فرصة 28٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية التالية المكونة من خطوتين:

  1. ينشئ النموذج توقّعًا أوّليًا (y') من خلال تطبيق دالة خطية. الخاصة بميزات الإدخال.
  2. ويستخدم النموذج التنبؤ الأولي كمدخل الدالة السينية، التي تحوِّل البيانات الأولية التنبؤ إلى قيمة بين 0 و1، مع استبعاد ذلك.

كما هو الحال في أي نموذج انحدار، يتنبأ أي نموذج انحدار لوجستي برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من التصنيف الثنائي النموذج على النحو التالي:

  • إذا كان الرقم المتوقّع أكبر من الحد الأدنى للتصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة الموجبة.
  • إذا كان الرقم المتوقّع أقل من حد التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة السالبة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدمة في النظام الثنائي الانحدار اللوجستي.

لوغاريتم الاحتمالات

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الخسارة

#fundamentals

أثناء تدريب النموذج المُوجّه، وهو مقياس لمدى التنبؤ بالنموذج من التصنيف الخاص به.

تحتسب دالة الخسارة الخسارة.

منحنى الخسارة

#fundamentals

رسم بياني الخسارة كدالة لعدد التدريب التكرارات: ويوضح المخطط التالي الخسارة النموذجية منحنى:

رسم بياني الديكارتي للخسارة مقابل التكرارات التدريبية، يُظهر
          الانخفاض السريع في الخسارة في التكرارات الأولية، تليه
          ثم انحدار مستوٍ أثناء التكرارات النهائية.

ويمكن أن تساعدك منحنيات الخسارة في تحديد متى التوافق أو الفرط في التخصيص.

يمكن لمنحنيات الخسارة رسم جميع أنواع الخسارة التالية:

اطّلِع أيضًا على منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، دالة رياضية تحسب فقدان مجموعة من الأمثلة. دالة الخسارة ترجع خسارة أقل للنماذج التي ينتج عنها تنبؤات جيدة مقارنةً بالنماذج التي التوقعات السيئة.

وعادةً ما يكون الهدف من التطبيق هو تقليل فقدان دالة الخسارة. وإرجاعه.

هناك العديد من الأنواع المختلفة لدوال الخسارة. اختيار النقطة الخسارة المناسبة المناسبة لنوع النموذج الذي تقوم بإنشائه. على سبيل المثال:

M

تعلُم الآلة

#fundamentals

يشير هذا المصطلح إلى برنامج أو نظام يدرّب model من بيانات الإدخال. يمكن للنموذج المدرَّب وعمل تنبؤات مفيدة من بيانات جديدة (لم يسبق لها مثيل) مستمدة من نفس التوزيع مثل ذلك المستخدم لتطبيق النموذج.

كما يشير التعلم الآلي إلى مجال الدراسة المعني باستخدام هذه البرامج أو الأنظمة.

حصة الأغلبية

#fundamentals

التسمية الأكثر شيوعًا في مجموعة بيانات غير متوازنة في الفئة. على سبيل المثال: أي مجموعة بيانات تحتوي على تسميات سلبية 99% وتسميات موجبة بنسبة 1%، والتسميات السالبة هي فئة الأغلبية.

التباين مع فئة الأقل.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في واحدة التكرار. وعادةً ما يكون حجم الدفعة الدفعة الصغيرة من 10 إلى 1000 مثال.

على سبيل المثال، لنفترض أنّ مجموعة التدريب بأكملها (الدُفعة الكاملة) يتكون من 1000 مثال. لنفترض أيضًا أنك قمت بتعيين حجم الدفعة لكل دفعة صغيرة إلى 20 لذلك، يحدد التكرار الخسارة في 20 عشوائيًا من 1000 مثال ثم من خلال تعديل القيم المرجحة والانحيازات وفقًا لذلك.

ويكون حساب الخسارة على دفعة صغيرة أكثر فعالية بكثير من فقدان جميع الأمثلة الموجودة في الدفعة الكاملة.

فئة الأقليات

#fundamentals

التسمية الأقل شيوعًا في مجموعة بيانات غير متوازنة في الفئة. على سبيل المثال: أي مجموعة بيانات تحتوي على تسميات سلبية 99% وتسميات موجبة بنسبة 1%، التسميات الإيجابية هي فئة الأقل.

التباين مع فئة الغالبية.

نموذج

#fundamentals

بشكل عام، أي تركيبة رياضية تعالج البيانات المدخلة وترجع الإخراج. وبصياغته بشكل مختلف، فإن النموذج عبارة عن مجموعة المعاملات والبنية اللازمة للنظام لإجراء التنبؤات. في نظام تعلُّم الآلة الخاضع للإشراف، يأخذ النموذج مثال كمدخل ويستنتج التوقّع كإخراج. ومن خلال التعلّم الآلي المُوجّه نماذج مختلفة إلى حد ما. على سبيل المثال:

يمكن حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

تعلُّم الآلة غير الخاضع للإشراف أيضًا نماذج، وعادةً ما تكون دالة يمكنها تعيين مثال إدخال المجموعة الأكثر ملاءمةً.

تصنيف متعدّد الفئات

#fundamentals

في التعلّم الخاضع للإشراف، تظهر مشكلة تصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتين من التصنيفات. على سبيل المثال، يجب أن تكون التسميات في مجموعة بيانات Iris واحدة مما يلي ثلاث فئات:

  • إيريس سيتوسا
  • إيريس فيرجينيكا
  • زهرة السوسن الملون

يشير ذلك المصطلح إلى نموذج مدرَّب على مجموعة بيانات Iris يتنبأ بنوع السوسن باستخدام أمثلة جديدة. بتصنيف متعدد الفئات.

وفي المقابل، تندرج مشكلات التصنيف التي تميز بين وصفين الفئات هي نماذج تصنيف ثنائية. على سبيل المثال، نموذج بريد إلكتروني يتوقّع إما الرسائل غير المرغوب فيها أو الرسائل غير المرغوب فيها هو نموذج تصنيف ثنائي.

في مشكلات التجميع العنقودي، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

N

فئة سلبية

#fundamentals

في التصنيف الثنائي، تكون إحدى الفئات بمصطلح إيجابي والآخر سلبي. الفئة الموجبة هي الشيء أو الحدث الذي يختبر له النموذج الفئة السالبة احتمال آخر. على سبيل المثال:

  • الفئة السالبة في الاختبار الطبي قد تكون "ليست ورمًا".
  • الفئة السالبة في أحد مصنِّفات البريد الإلكتروني قد تكون "ليست رسائل غير مرغوب فيها".

التباين مع الفئة الموجبة.

شبكة عصبية

#fundamentals

طراز يحتوي على واحد على الأقل طبقة مخفية. الشبكة العصبية العميقة هي نوع من الشبكات العصبية. تحتوي على أكثر من طبقة مخفية. على سبيل المثال، يُظهر الرسم التخطيطي التالي شبكة عصبية عميقة تحتوي على طبقتين مخفيتين.

يشير هذا المصطلح إلى شبكة عصبية تحتوي على طبقة إدخال وطبقتَين مخفيتَين
          طبقة الإخراج.

تتصل كل خلية عصبية في الشبكة العصبية بجميع النقاط في الطبقة التالية. على سبيل المثال، في المخطط السابق، لاحظ أن كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية، تتصل بشكل منفصل بكلتا الخليتين العصبيتين في الطبقة الثانية المخفية.

تسمى الشبكات العصبية المنفذة على أجهزة الكمبيوتر أحيانًا الشبكات العصبية الاصطناعية للتمييز بينها الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

قد تحاكي بعض الشبكات العصبية العلاقات غير الخطية المعقدة للغاية بين الميزات المختلفة والتسمية.

راجِع أيضًا الشبكة العصبونية الالتفافية و الشبكة العصبونية المتكررة.

عصبون

#fundamentals

يشير هذا المصطلح إلى وحدة مميّزة داخل طبقة مخفية في مجال تعلُّم الآلة. للشبكة العصبية. تنفذ كل خلية عصبية ما يلي إجراء من خطوتين:

  1. حساب المجموع المرجح لقيم الإدخال مضروبة حسب أوزانها المقابلة.
  2. يجتاز المجموع المرجح كمدخل إلى تفعيل الحساب:

تقبل الخلية العصبية في الطبقة المخفية الأولى المدخلات من قيم الخصائص في طبقة الإدخال. خلية عصبية في أي طبقة مخفية وراء الأولى تقبل المدخلات من الخلايا العصبية في الطبقة المخفية السابقة. فعلى سبيل المثال، تقبل الخلية العصبية في الطبقة المخفية الثانية المدخلات من الخلايا العصبية في الطبقة الأولى المخفية.

يسلط الرسم التوضيحي التالي الضوء على خليتين عصبيتين المدخلات.

يشير هذا المصطلح إلى شبكة عصبية تحتوي على طبقة إدخال وطبقتَين مخفيتَين
          طبقة الإخراج. خليتان عصبيتان بارزتان: واحدة في الأولى
          طبقة مخفية وواحد في الطبقة الثانية المخفية. يتم تمييز
          الخلية العصبية في الطبقة المخفية الأولى تتلقى مدخلات من كلتا الميزتين
          في طبقة الإدخال. الخلية العصبية المميزة في الطبقة الثانية المخفية
          تتلقى مدخلات من كل خلية من الخلايا العصبية الثلاث في أول خلايا مخفية
          الطبقة الخارجية.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ. وأجزاء أخرى من الجهاز العصبي.

العقدة (الشبكة العصبونية)

#fundamentals

خلية عصبية في طبقة مخفية.

nonlinear

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلهما وحدهما. من خلال الجمع والضرب. علاقة خطية يمكن تمثيله كخط؛ لا يمكن أن تكون العلاقة nonlinear يتم تمثيلها كخط. على سبيل المثال، ضع في اعتبارك نموذجين يرتبط كل منهما ميزة واحدة بتسمية واحدة. النموذج الموجود على اليسار خطي والنموذج الظاهر على اليمين غير خطي:

اثنين من المخططات. المخطط الواحد هو خط، إذن هذه علاقة خطية.
          أما المخطط الآخر فهو منحنى، لذا فهذه علاقة غير خطية.

عدم الحركة

#fundamentals

ميزة تتغير قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت. على سبيل المثال، إليك الأمثلة التالية عن عدم الحركة:

  • يختلف عدد ملابس السباحة التي يتم بيعها في متجر معيّن مع اختلاف الموسم.
  • كمية الفاكهة التي يتم حصادها في منطقة معينة صفر في معظم السنة لكنها كبيرة لفترة قصيرة.
  • بسبب التغيّر المناخي، يتغيّر المتوسط السنوي لدرجات الحرارة.

التباين مع الثبات.

تسوية

#fundamentals

بشكل عام، عملية تحويل النطاق الفعلي للمتغير القيم في نطاق معياري من القيم، مثل:

  • من -1 إلى 1+
  • 0 إلى 1
  • التوزيع الطبيعي

على سبيل المثال، لنفترض أن النطاق الفعلي للقيم لميزة معينة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل كـ -1 إلى 1+.

التسوية مهمة شائعة في هندسة الميزات. يتم عادةً تدريب النماذج بشكل أسرع (وإعداد تنبؤات أفضل) عند كل خاصية عددية في متّجه الميزة له النطاق نفسه تقريبًا.

بيانات عددية

#fundamentals

الميزات التي يتم تمثيلها كأعداد صحيحة أو أرقام حقيقية. على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنزل حجم لمنزل (بالقدم المربع أو المتر المربّع) كبيانات رقمية. التمثيل ميزة كبيانات رقمية تشير إلى أن قيم العنصر لها لها علاقة رياضية بالتصنيف. أي أن عدد الأمتار المربعة في أي منزل ربما له بعض العلاقة الرياضية بقيمة المنزل.

يجب عدم تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال: تكون الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة؛ ومع ذلك، يتم عرض عدد صحيح يجب عدم تمثيل الرموز كبيانات عددية في النماذج. هذا لأن الرمز البريدي لـ 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. علاوةً على ذلك، على الرغم من ارتباط الرموز البريدية المختلفة ب القيم العقارية، فلا يمكننا أن نفترض أن قيم العقارات في الرمز البريدي عام 20000 ضعف قيمة العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية في شكل بيانات فئوية. بدلاً من ذلك.

تسمى أحيانًا الخصائص العددية الميزات المستمرة.

O

بلا إنترنت

#fundamentals

مرادف لـ static.

الاستنتاج بلا إنترنت

#fundamentals

يشير هذا المصطلح إلى عملية إنشاء مجموعة من التوقّعات. ثم التخزين المؤقت (حفظ) تلك التوقعات. يمكن للتطبيقات بعد ذلك الوصول إلى من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في اعتبارك نموذجًا ينشئ توقّعات الطقس المحلي (التنبؤات) مرة كل أربع ساعات. وبعد تشغيل كل نموذج، يحدد النظام يخزن جميع توقعات الطقس المحلية مؤقتًا. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُسمّى الاستنتاج بلا إنترنت أيضًا الاستنتاج الثابت.

التباين مع الاستنتاج على الإنترنت.

ترميز أحادي

#fundamentals

لتمثيل البيانات الفئوية كمتّجه:

  • تمّ ضبط عنصر واحد على 1.
  • ويتم تعيين جميع العناصر الأخرى على 0.

ويشيع استخدام الترميز الأحادي لتمثيل السلاسل أو المعرّفات التي مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أن خاصية فئوية معينة تسمى تتضمن Scandinavia خمس قيم محتملة:

  • "الدانمرك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي لكل قيمة من القيم الخمس على النحو التالي:

بلد المتجه
"الدانمرك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل الترميز أحادي الاتجاه، يمكن لأي نموذج أن يتعلم اتصالات مختلفة بناءً على كل دولة من البلدان الخمسة.

يعتبر تمثيل ميزة على أنّها بيانات رقمية بديل لترميز واحد فعال. ولسوء الحظ، فإن تمثيل البلدان الاسكندنافية عدديًا ليست خيارًا جيدًا. على سبيل المثال: ضع في اعتبارك التمثيل الرقمي التالي:

  • "الدانمرك" تساوي 0
  • "السويد" تساوي 1
  • "النرويج" 2
  • "فنلندا" 3
  • "آيسلندا" هو 4

فمع الترميز الرقمي، قد يفسر النموذج الأرقام الأولية رياضيًا وستحاول التدرّب على هذه الأرقام. لكن أيسلندا ليست في الواقع ضعف (أو نصف مقدار) شيء مثل النرويج، لذلك سيتوصل النموذج إلى بعض الاستنتاجات الغريبة.

واحد مقابل الكل

#fundamentals

بناءً على مشكلة تصنيف في فئات N، يتكون من N منفصلة المصنِّفات الثنائية: مصنِّف ثنائي واحد لكل نتيجة محتملة. فعلى سبيل المثال، إذا كان هناك نموذج يصنف الأمثلة كحيوانات أو خضروات أو معادن، فإن حل واحد مقابل الكل سيوفر باتباع ثلاثة مصنِّفات ثنائية منفصلة:

  • حيوان مقابل غير حيوان
  • خضار مقابل غير نباتي
  • معدني مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف لهذه الكلمة ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال: لنفترض أن هناك تطبيقًا يمرر مدخلات إلى نموذج وإصدار طلب التنبؤ. لنفترض أن هناك نظامًا يستخدم الاستنتاج عبر الإنترنت يستجيب للطلب من خلال تنفيذ النموذج (وإرجاع التنبؤ إلى التطبيق).

تباين مع الاستنتاج بلا إنترنت.

طبقة الإخراج

#fundamentals

"النهاية" طبقة الشبكة العصبونية. تحتوي طبقة الإخراج على التنبؤ.

يُظهر الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة فيها مدخل طبقة، وطبقتين مخفيتين، وطبقة إخراج:

شبكة عصبية تحتوي على طبقة إدخال واحدة وطبقتين مخفيتين وطبقة واحدة
          طبقة الإخراج. تتألف طبقة الإدخال من ميزتين. الأول
          الطبقة المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية
          تتكون من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب لدرجة أن النموذج لا ينجح في وعمل تنبؤات صحيحة بشأن البيانات الجديدة.

يمكن أن يؤدي التسوية إلى التقليل من فرط التخصيص. يمكن أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوعة أيضًا إلى تقليل فرط التخصيص.

P

باندا

#fundamentals

هي واجهة برمجة تطبيقات لتحليل البيانات مركِّزة على الأعمدة وتم إنشاؤها استنادًا إلى numpy. فإن العديد من أطر التعلم الآلي بما في ذلك TensorFlow، ودعم هياكل بيانات الباندا كمدخلات. يمكنك الاطّلاع على وثائق الباندا لمزيد من التفاصيل.

مَعلمة

#fundamentals

القيم المرجحة والانحيازات التي يتعلّمها النموذج أثناء تدريب: على سبيل المثال، في إحدى الانحدار الخطي، فإن المعلَمات تتكون من التحيز (b) وجميع القيم التقديرية (w1 وw2، وهكذا) في المعادلة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المعلَمة الفائقة هي القيم التي أنت (أو خدمة تحويل معلَمة فائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة.

فئة موجبة

#fundamentals

الفئة التي تختبرها.

على سبيل المثال، الفئة الموجبة في نموذج السرطان قد تكون "ورم". الفئة الموجبة في أحد تصنيفات البريد الإلكتروني قد تكون "رسالة غير مرغوب فيها".

التباين مع الفئة السالبة.

مرحلة ما بعد المعالجة

#fairness
#fundamentals

ضبط ناتج أحد النماذج بعد تشغيل النموذج. يمكن استخدام المعالجة اللاحقة لفرض قيود الإنصاف دون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على مصنِّف ثنائي. بوضع حد للتصنيف بحيث الحفاظ على تكافؤ الفرص لبعض السمات من خلال التحقّق من أنّ معدّل الموجب الصحيح هي نفسها لجميع قيم تلك السمة.

التوقّع

#fundamentals

مخرج النموذج. على سبيل المثال:

  • التنبؤ بنموذج التصنيف الثنائي هو إما نتيجة إيجابية الفئة أو الفئة السالبة.
  • التنبؤ بنموذج التصنيف متعدد الفئات هو فئة واحدة.
  • التنبؤ بنموذج الانحدار الخطي هو رقم.

تصنيفات الخادم الوكيل

#fundamentals

يشير ذلك المصطلح إلى البيانات المستخدَمة التقريبي للتصنيفات غير المتوفّرة مباشرةً في مجموعة بيانات.

فعلى سبيل المثال، نفترض أنه يجب عليك تدريب أحد النماذج للتنبؤ بموظف مستوى الإجهاد. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية ولكنها لا يحتوي على تصنيف باسم مستوى الإجهاد. اختَر "حوادث محل العمل" ببراعة كتصنيف وكيل لـ مستوى الإجهاد. بعد كل شيء، ينتقل الموظفون الذين يواجهون ضغوطًا كبيرة إلى والحوادث مقارنة بالموظفين الهادئين. أم هذا صحيح؟ ربما حوادث محل العمل إلى الارتفاع والانخفاض في الواقع لأسباب متعددة.

وعلى سبيل المثال، لنفترض أنّك تريد أن تكون هل تمطر تصنيفًا منطقيًا؟ لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات المطر. في حال حذف صور متوفرة، ويمكنك إنشاء صور لأشخاص استخدام مظلات كتصنيف خادم وكيل لمعرفة هل تمطر؟ هل هذا تسمية وكيل جيدة؟ ربما، ولكن قد يكون الناس في بعض الثقافات أكثر عرضة لحمل مظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. عندما يكون ذلك ممكنًا، اختر التسميات الفعلية على تصنيفات الخادم الوكيل. ومع ذلك، عند عدم وجود تصنيف فعلي، اختر الوكيل بعناية شديد، حيث يتم اختيار المرشح الأقل سوءًا لتصنيف الخادم الوكيل.

R

RAG

#fundamentals

اختصار لـ الجيل المستند إلى استرجاعه:

المصنِّف

#fundamentals

شخص يقدّم تصنيفات لتقديم أمثلة "تعليقات توضيحية" هو اسم آخر للمصنِّف.

الوحدة الخطية المصحَّحة (ReLU)

#fundamentals

دالة تفعيل لها السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان الإدخال موجبًا، فإن المخرجات يساوي المُدخل.

على سبيل المثال:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المدخل هو +3، يكون الناتج 3.0.

فيما يلي مخطط ReLU:

مخطط الديكارتي مكون من سطرين. السطر الأول له عدد ثابت
          قيمة y تساوي 0، وتتحرك على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. انحدار هذا الخط بمقدار +1، وبالتالي
          فهي تتراوح من 0,0 إلى +اللانهائية،+اللانهائية.

ReLU هي دالة تفعيل شائعة جدًا. وعلى الرغم من سلوكه البسيط، لا تزال ReLU تتيح للشبكة العصبية التعلُّم nonlinear العلاقات بين الميزات والتصنيف.

نموذج الانحدار

#fundamentals

يشير ذلك المصطلح إلى نموذج ينتج عنه توقّع رقمي بطريقة غير رسمية. (في المقابل، ينشئ نموذج تصنيف فئة prediction.) على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بقيمة منزل معيّن، مثل 423,000 يورو.
  • يشير ذلك المصطلح إلى نموذج يتنبأ بمتوسط العمر المتوقّع لشجرة معيّنة، مثل 23.2 عامًا.
  • نموذج يتنبأ بكمية الأمطار التي ستتساقط في مدينة معينة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار هما:

ليس كل نموذج ينتج عنه تنبؤات عددية نموذجًا انحدارًا. في بعض الحالات، التنبؤ الرقمي هو في الحقيقة مجرد نموذج تصنيف هو أسماء فئات رقمية. فعلى سبيل المثال، فإن النموذج الذي يتنبأ الرمز البريدي الرقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلل من الإفراط في التوافق. تشمل الأنواع الشائعة من التسوية ما يلي:

يمكن أيضًا تعريف التسوية على أنها عقوبة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدد الأهمية النسبية الانتظام خلال التدريب. إنّ رفع يحدّ معدّل التسوية من الفرط في التخصيص ولكنه قد لتقليل القوة التنبؤية للنموذج. وعلى العكس من ذلك، فإن تقليل أو حذف يزيد معدل التسوية من فرط التخصيص.

ReLU

#fundamentals

اختصار الوحدة الخطية المستقيمة.

الجيل المعزَّز بالاسترجاع (RAG)

#fundamentals

أسلوب لتحسين جودة ناتج النموذج اللغوي الكبير (LLM) من خلال تأسيسها على مصادر المعرفة التي تم استردادها بعد تدريب النموذج. تعمل تقنية RAG على تحسين دقة ردود "النموذج اللغوي الكبير" (LLM) من خلال تزويد "النموذج اللغوي الكبير" (LLM) المدرَّب بـ الوصول إلى المعلومات المستردة من قواعد المعرفة أو المستندات الموثوق بها.

تشمل الدوافع الشائعة لاستخدام الإنشاء المحسّن للاسترجاع ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها نموذج
  • منح النموذج إمكانية الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاقتباس من المصادر.

لنفترض مثلاً أن أحد تطبيقات الكيمياء يستخدم جدول البيانات PaLM واجهة برمجة التطبيقات لإنشاء الملخّصات المتعلقة بطلبات بحث المستخدم. عندما تتلقى الواجهة الخلفية للتطبيق طلبًا، فإن الخلفية:

  1. يبحث عن بيانات ("استرداد") ذات الصلة بطلب بحث المستخدم.
  2. تُلحق ("الزيادة") البيانات الكيميائية ذات الصلة بطلب بحث المستخدم.
  3. توجّه هذه السياسة إلى النموذج اللغوي الكبير لإنشاء ملخّص استنادًا إلى البيانات المُرفَقة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني للمعدل الموجب الصحيح مقابل معدّل الموجب الخاطئ لمختلف الأنواع حدود للتصنيف في النظام الثنائي الفئات.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي لفصل الفئات الإيجابية عن الفئات السالبة. لنفترض، على سبيل المثال، أن نموذج التصنيف الثنائي يفصل بشكل مثالي جميع العناصر السالبة الفئات من جميع الفئات الإيجابية:

سطر أرقام به 8 أمثلة موجبة على الجانب الأيمن
          7 أمثلة سلبية على اليمين.

يبدو منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور x هو المعدل الموجب الخاطئ والمحور y
          هو المعدل الإيجابي الصحيح. للمنحنى شكل حرف L مقلوب. المنحنى
          يبدأ من (0.0,0.0) ويصل مباشرة إلى (0.0,1.0). ثم المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

وفي المقابل، يوضح الرسم التوضيحي التالي الانحدار اللوجستي الأولي القيم لنموذج مخيف لا يمكنه فصل الفئات السالبة عن إيجابية على الإطلاق:

سطر أرقام يحتوي على أمثلة موجبة وفئات سالبة
          ممزوجة تمامًا.

ويبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال، وهو في الواقع خط مستقيم من (0.0،0.0)
          إلى (1.0,1.0).

وفي الوقت نفسه، بالعودة إلى العالم الحقيقي، تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حد ما، ولكن عادة لا تكون مثالية. وبالتالي، يقع منحنى خاصية تشغيل جهاز الاستقبال النموذجي في مكان ما بين الطرفين:

منحنى خاصية تشغيل جهاز الاستقبال. المحور x هو المعدل الموجب الخاطئ والمحور y
          هو المعدل الإيجابي الصحيح. يقترب منحنى خاصية تشغيل جهاز الاستقبال من قوس مهتز
          اجتياز نقاط البوصلة من الغرب إلى الشمال.

النقطة في منحنى ROC الأقرب إلى (0.0,1.0) تحدد نظريًا الحد المثالي للتصنيف. ومع ذلك، هناك العديد من المشكلات الأخرى في العالم الحقيقي التأثير في اختيار الحد المثالي للتصنيف. على سبيل المثال: فربما تكون النتائج السالبة الخاطئة تسبب ألمًا أكثر بكثير من النتائج الموجبة الخاطئة.

يلخص مقياس عددي يسمى AUC منحنى خاصية تشغيل جهاز الاستقبال في قيمة نقطة عائمة واحدة.

جذر متوسط الخطأ التربيعي (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

S

الدالّة الإسية

#fundamentals

دالة رياضية "تستوعب" قيمة المدخلات في نطاق محدود، عادةً ما تكون 0 إلى 1 أو -1 إلى 1+. أي أنه يمكنك تمرير أي رقم (اثنين، مليون، سالب، أي شيء) إلى الدالة السينية وسيظل الناتج في نطاق محدود. يبدو مخطط دالة التفعيل السيني على النحو التالي:

مخطط منحن ثنائي الأبعاد بقيم x تمتد عبر المجال
          من اللانهائية إلى +الموجب، بينما تمتد قيم ص في النطاق من 0 تقريبًا إلى
          تقريبًا 1. عندما تساوي x 0، تكون y تساوي 0.5. وعادة ما يكون انحدار المنحنى
          موجب، وأعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًا
          الانحدار مع زيادة القيمة المطلقة لـ x.

للدالة السينية عدة استخدامات في التعلم الآلي، منها:

softmax

#fundamentals

يشير هذا المصطلح إلى دالة تحدد الاحتمالات لكل فئة محتملة في إحدى نموذج التصنيف المتعدّد الفئات. يتم جمع الاحتمالات إلى 1.0 بالضبط. على سبيل المثال، يعرض الجدول التالي كيفية توزيع softmax. الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ 13.
حصان 02.

يُطلَق على جهاز Softmax أيضًا اسم full softmax.

التباين مع عينات المرشّحين.

خاصية متناثرة

#language
#fundamentals

ميزة تكون قيمها في الغالب صفر أو فارغة. على سبيل المثال، العنصر الذي يحتوي على قيمة 1 مفردة ومليون 0 هو متناثر. في المقابل، الميزة المكثفة لها قيم ليست صفرًا أو فارغة في الغالب.

في تقنية تعلُّم الآلة، هناك عدد مذهل من الميزات يكمن في الخصائص المتفرقة. عادةً ما تكون الخصائص الفئوية ميزات متفرقة. فعلى سبيل المثال، من بين 300 نوع من أنواع الأشجار في إحدى الغابة، هناك مثال واحد شجرة القيقب فقط. أو من بين الملايين الفيديوهات المحتملة في مكتبة الفيديوهات، قد يوضّح مثال واحد و"الدار البيضاء" فقط.

وفي أي نموذج، يتم تمثيل الخصائص المتفرقة باستخدام ترميز واحد فعال: فإذا كان الترميز الأحادي كبيرًا، يمكنك وضع طبقة تضمين أعلى ترميز واحد فعال لزيادة الكفاءة.

تمثيل متناثر

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في عنصر متفرق.

على سبيل المثال، لنفترض أن هناك خاصية فئوية تسمى species تحدد الـ 36 أنواع الأشجار في غابة معينة. وافترض أيضًا أن كل example يحدد هذا النوع نوعًا واحدًا فقط.

يمكنك استخدام متجه واحد فعال لتمثيل أنواع الأشجار في كل مثال. قد يحتوي الخط المتجه الوحيد على 1 مفرد (ليمثل نوع الأشجار المعيّن في هذا المثال) و35 0 (لتمثيل 35 نوعًا من الأشجار ليس في هذا المثال). لذا، فإن التمثيل الوحيد من maple قد يبدو كما يلي:

متجه تحتوي فيه المواضع من 0 إلى 23 على القيمة 0،
          يحمل الرقم 24 القيمة 1، بينما تشتمل المواضع من 25 إلى 35 على القيمة 0.

وبدلاً من ذلك، يحدد التمثيل المتنافر موضع لأنواع معينة. إذا كان maple في الموضع 24، يكون التمثيل المتناثر من maple سيكون ببساطة:

24

لاحظ أن التمثيل المتناثر أكثر إيجازًا بكثير من واحد فعال التمثيل المناسب.

متجه متناثر

#fundamentals

متجه تكون قيمه في الغالب أصفار. راجع أيضًا قلة الميزتَين والتناسب.

الخسارة التربيعية

#fundamentals

مرادف لـ L2 الخسارة.

ثابتة

#fundamentals

حدث شيء ما مرة واحدة بدلاً من الاستمرار. العبارتان ثابتة وبلا إنترنت هي مرادفات لهذه العبارة. فيما يلي الاستخدامات الشائعة للمحتوى الثابت وبلا اتصال بالإنترنت في الجهاز. التعلم:

  • النموذج الثابت (أو النموذج المتوفّر بلا اتصال بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا اتصال بالإنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو يشير ذلك المصطلح إلى عملية يُنشئ فيها النموذج مجموعة من التوقّعات في كل مرة.

تباين الألوان مع ديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

استقرارية

#fundamentals

ميزة لا تتغيّر قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت على سبيل المثال، الميزة التي تبدو قيمها متشابهة في عام 2021 يعرض العام 2023 ثابتًا.

في العالم الحقيقي، يظهر عدد قليل جدًا من الميزات الثابتة. الميزات بالتساوي يتغير مع الاستقرار (مثل مستوى سطح البحر) بمرور الوقت.

التباين مع عدم ثبات البيانات.

انحدار التدرج العشوائي (SGD)

#fundamentals

خوارزمية انحدار التدرج حجم الدفعة يساوي واحدًا. بعبارة أخرى، تتدرب سنغافوره على مثال واحد يتم اختياره بشكل موحد في عشوائيًا من مجموعة تدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من خلال الميزات التصنيفات المقابلة. تعلُّم الآلة المراقَب مماثل إلى تعلم موضوع من خلال دراسة مجموعة من الأسئلة الإجابات المقابلة. بعد إتقان التخطيط بين الأسئلة إجابات، يستطيع الطالب بعد ذلك تقديم إجابات لأسئلة جديدة (لم يتم عرضها من قبل) أسئلة حول نفس الموضوع.

المقارنة بـ تعلُّم الآلة غير المُوجّه:

ميزة اصطناعية

#fundamentals

هناك ميزة غير موجودة ضمن ميزات الإدخال، ولكنها بعد تجميعها من واحد أو أكثر منها. طرق إنشاء ميزات اصطناعية ما يلي:

  • وضع حزمة كميزة مستمرة في سلال النطاقات
  • إنشاء تقاطع بين الميزات.
  • ضرب (أو قسمة) قيمة ميزة في قيم أخرى للميزة أو بمفرده. على سبيل المثال، إذا كان a وb هما من سمات الإدخال، فعندئذٍ وفي ما يلي أمثلة على الميزات الاصطناعية:
    • ab
    • أ2
  • تطبيق دالة عليا على قيمة سمة. على سبيل المثال، إذا كانت c هي ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • ج(ج)
    • ln(c)

الميزات التي يتم إنشاؤها من خلال تسوية أو تحجيم وحدها لا تُعتبر ميزات اصطناعية.

T

عدد الاختبار

#fundamentals

مقياس يمثّل خسارة النموذج مقابل مجموعة الاختبار. عند إنشاء نموذج، يمكنك عادة تقليل فقدان الاختبار. هذا لأن انخفاض خسارة الاختبار إشارة جودة أقوى من معدّل فقدان التدريب أو انخفاض فقدان التحقق.

وجود فجوة كبيرة بين خسارة الاختبار وفقدان التدريب أو خسارة التحقق في بعض الأحيان أنك بحاجة إلى زيادة معدّل تنظيم المحتوى:

التدريب

#fundamentals

عملية تحديد المعلَمات المثالية (القيم المرجحة التحيزات) تتكون من نموذج. أثناء التدريب، يقرأ النظام أمثلة ويتم تعديل المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل خسارة للنموذج خلال تكرار تدريبي معين. فعلى سبيل المثال، لنفترض أن دالة الخسارة هو الخطأ التربيعي المتوسّط. وربما يكون خسارة التدريب (متوسط الخطأ المربع) للتكرار العاشر هو 2.2، وفقدان التدريب التكرار 100 هو 1.9.

يشير منحنى الخسارة إلى خسارة التدريب مقابل عدد التكرارات. يوفر منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير الانحدار لأسفل إلى أن النموذج يتحسن.
  • يشير الانحدار لأعلى إلى أنّ النموذج يزداد سوءًا.
  • يشير الانحدار المستقيم إلى أن النموذج قد وصل التقارب:

على سبيل المثال، منحنى الخسارة المثالي التالي إلى حدٍ ما :

  • وانحدار حاد إلى الأسفل أثناء التكرارات الأولية، الأمر الذي يعني التحسين السريع للنموذج.
  • انحدار تدريجي (ولكن لا يزال لأسفل) حتى اقتراب النهاية من التدريب، وهو ما يعني استمرار تحسين النموذج إلى حدٍ ما بوتيرة أبطأ بعد ذلك أثناء التكرارات الأولية.
  • منحدر مستوٍ نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. ويبدأ منحنى الخسارة هذا
     مع انحدار حاد إلى الأسفل. يستقر الانحدار تدريجيًا حتى
     يصبح الميل صفرًا.

وعلى الرغم من أهمية فقدان التدريب، انظر أيضًا التعميم:

انحراف عرض التدريب

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء عرض الإعلانات:

مجموعة تدريب

#fundamentals

المجموعة الفرعية من مجموعة البيانات المُستخدَمة لتدريب نموذج.

عادةً، يتم تقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

ومن الناحية المثالية، ينبغي أن ينتمي كل مثال في مجموعة البيانات إلى واحد من المجموعات الفرعية السابقة. على سبيل المثال، ينبغي ألا ينتمي مثال واحد إلى كل من مجموعة التطبيق ومجموعة التحقق من الصحة.

سالب صحيح (TN)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح فئة سلبية: على سبيل المثال، يستنتج النموذج أن رسالة إلكترونية معينة ليست رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية عبارة عن ليست رسائل غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح فئة إيجابية. على سبيل المثال، يستنتج النموذج أن رسالة بريد إلكتروني معينة هي رسالة غير مرغوب فيها، وتُعتبر هذه الرسالة الإلكترونية رسالة غير مرغوب فيها حقًا.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف الاستدعاء. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

المعدّل الموجب الصحيح هو المحور الصادي في منحنى RoC.

U

فرط التعميم

#fundamentals

إنتاج نموذج بقدرة ضعيفة على التنبؤ لأن النموذج لم يلتقط تعقيد بيانات التدريب بشكل كامل. العديد من المشاكل إلى فرط التعميم، بما في ذلك:

مثال غير مصنَّف

#fundamentals

مثال يحتوي على ميزات بدون تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنَّفة من منزل. نموذج تقييم، لكل منها ثلاث ميزات ولكن بدون قيمة للشركة نفسها:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في نظام تعلُّم الآلة الخاضع للإشراف، نماذج التدريب على الأمثلة المصنفة وعمل التنبؤات على أمثلة غير مصنَّفة:

يخضع للإشراف شبه خاضع للإشراف غير الخاضع للإشراف استخدام الأمثلة غير المصنفة أثناء التدريب.

قارِن المثال غير المصنَّف مع مثال مصنَّف.

التعلم الآلي غير المُوجّه

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، عادةً ما تكون مجموعة البيانات غير المصنفة.

الاستخدام الأكثر شيوعًا للتعلم الآلي غير المُوجّه هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن للجهاز غير الخاضع للإشراف بإمكان خوارزمية التعلم تجميع الأغاني استنادًا إلى خصائص مختلفة الموسيقى. يمكن أن تصبح المجموعات العنقودية الناتجة مدخلاً لأجهزة أخرى خوارزميات التعلّم (على سبيل المثال، خدمة اقتراح الموسيقى). يمكن أن يكون التجميع العنقودي مفيدًا عندما تكون التصنيفات المفيدة قليلة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعدك المجموعات البشر على فهم البيانات بشكل أفضل.

التباين مع تعلُّم الآلة الخاضع للإشراف.

V

التحقّق من الصحة

#fundamentals

التقييم الأولي لجودة أحد النماذج. يتم التحقق من جودة تنبؤات أي نموذج مقابل التحقّق من مجموعة التحقّق:

ولأن مجموعة التحقق من الصحة تختلف عن مجموعة التدريب، ويساعد التحقق من الصحة في الحماية من الإفراط في التوافق.

قد تفكر في تقييم النموذج مقابل مجموعة التحقق من الصحة الجولة الأولى من الاختبار وتقييم النموذج مقابل مجموعة الاختبار كجولة ثانية من الاختبار.

فقدان التحقّق

#fundamentals

مقياس يمثّل خسارة للنموذج في مجموعة التحقق خلال عملية التكرار للتدريب.

اطّلِع أيضًا على منحنى التعميم.

مجموعة التحقق من الصحة

#fundamentals

المجموعة الفرعية من مجموعة البيانات التي تُجري عمليات التقييم وفقًا لنموذج مدرَّب. عادةً، تقوم بتقييم النموذج المدرَّب مقابل مجموعة التحقق العديدة مرات قبل تقييم النموذج مقابل مجموعة الاختبار.

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

ومن الناحية المثالية، ينبغي أن ينتمي كل مثال في مجموعة البيانات إلى واحد من المجموعات الفرعية السابقة. على سبيل المثال، ينبغي ألا ينتمي مثال واحد إلى كل من مجموعة التطبيق ومجموعة التحقق من الصحة.

واط

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها نموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج. الاستنتاج هو عملية استخدام قيم الترجيح التي تم تعلمها وعمل التنبؤات.

المجموع المرجح

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في المقابلة لها الأوزان. على سبيل المثال، لنفترض أن المدخلات ذات الصلة تتكون مما يلي:

القيمة التي تم إدخالها وزن الإدخال
2 1.3-
-1 0.6
3 0.4

وبالتالي، يكون المجموع المرجح:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال دالة التفعيل.

Z

تسوية الدرجة المعيارية

#fundamentals

أسلوب تحجيم يحل محل النموذج الأولي قيمة feature مع قيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن القيمة المتوسطة لهذه الميزة. على سبيل المثال، ضع في الاعتبار ميزة يكون متوسطها 800 ومعيارًا لها والانحراف هو 100. ويوضح الجدول التالي كيفية تسوية الدرجة المعيارية يقوم بتعيين القيمة الأولية إلى الدرجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

يتدرب نموذج التعلم الآلي بعد ذلك على درجات Z لهذه الميزة بدلاً من القيم الأولية.