مسرد مصطلحات التعلم الآلي: أساسيات تعلّم الآلة

تحتوي هذه الصفحة على مصطلحات مسرد مصطلحات تعلُّم الآلة في مجال تعلُّم الآلة. للاطّلاع على جميع مصطلحات مسرد المصطلحات، انقر هنا.

جيم

الدقة

#fundamentals

يشير ذلك المصطلح إلى عدد التوقّعات للتصنيف الصحيحة مقسومًا على إجمالي عدد التوقّعات. والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، أي نموذج يقدم 40 توقعًا صحيحًا و10 تنبؤات غير صحيحة سيكون له دقة على:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفر التصنيف الثنائي أسماء محددة للفئات المختلفة من التوقعات الصحيحة والتوقعات غير الصحيحة. إذًا، معادلة دقة التصنيف الثنائي تكون على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

المكان:

تحديد أوجه الاختلاف والتشابه بين الدقة بالدقة والتذكّر

دالّة التفعيل

#fundamentals

يشير ذلك المصطلح إلى دالة تتيح للشبكات العصبية تعلُّم العلاقات غير الخطية (المعقدة) بين السمات والتصنيف.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط أبدًا خطوطًا مستقيمة مفردة. على سبيل المثال، يتكون مخطط دالة تنشيط ReLU من خطين مستقيمين:

مخطط الديكارتي من سطرين. للسطر الأول قيمة ص ثابتة تساوي 0، ويمتد على المحور x من -لانهاية,0 إلى 0,-0.
          ويبدأ السطر الثاني من 0,0. هذا الخط له انحدار +1، ولذلك
          يتراوح من 0,0 إلى +لانهاية،+لانهاية.

يظهر مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحنٍ ثنائي الأبعاد يحتوي على قيم x تمتد من النطاق - من لانهائي إلى + إيجابي، بينما تمتد قيم y إلى النطاق من 0 إلى 1 تقريبًا. عندما تكون x تساوي 0، تكون y تساوي 0.5. يكون انحدار المنحنى
 موجبًا دائمًا، مع ازدياد أعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًّا مع زيادة القيمة المطلقة لـ x.

الذكاء الاصطناعي

#fundamentals

هو برنامج أو model غير بشري يمكنه حلّ المهام المعقّدة. على سبيل المثال، برنامج أو نموذج يترجم نصًا أو برنامجًا أو نموذجًا لتحديد الأمراض من الصور الإشعاعية يعرض كلاً من الذكاء الاصطناعي.

يُعدّ التعلّم الآلي رسميًا مجالاً فرعيًا للذكاء الاصطناعي. مع ذلك، بدأت بعض المؤسسات في استخدام عبارتَي الذكاء الاصطناعي وتعلُّم الآلة بالتبادل بينهما في السنوات الأخيرة.

AUC (المساحة تحت منحنى خاصية تشغيل جهاز الاستقبال)

#fundamentals

رقم بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية. كلما اقتربت AUC من 1.0، زادت قدرة النموذج على فصل الفئات عن بعضها البعض.

على سبيل المثال، يوضح الرسم التوضيحي التالي نموذج مصنِّف يفصل بين الفئات الإيجابية (الأشكال البيضاوية الخضراء) والفئات السالبة (المستطيلات الأرجوانية) تمامًا. يحتوي هذا النموذج المثالي غير الواقعي على 1.0 AUC:

سطر أرقام يضم 8 أمثلة إيجابية على جانب واحد و9 أمثلة سلبية على الجانب الآخر.

وفي المقابل، يوضح الرسم التوضيحي التالي نتائج نموذج المصنِّف الذي أنشأ نتائج عشوائية. وهذا النموذج حاصل على شوائب AUC بقيمة 0.5:

سطر أرقام يضم 6 أمثلة إيجابية و6 أمثلة سلبية.
          تسلسل الأمثلة هو إيجابي، سالب،
          إيجابي، سالب، إيجابي، سالب، إيجابي، سالب، إيجابي،
          إيجابي، سالب.

نعم، يحتوي النموذج السابق على قيمة AUC لـ 0.5، وليس 0.0.

توجد معظم النماذج في مكان ما بين الطرفين. على سبيل المثال، يفصل النموذج التالي الإيجابيات عن السلبيات إلى حدٍ ما، وبالتالي يحتوي على AUC في مكان ما بين 0.5 و1.0:

سطر أرقام يضم 6 أمثلة إيجابية و6 أمثلة سلبية.
          تسلسل الأمثلة هو سالب، سالب، سالب، سالب، إيجابي، سالب، إيجابي، إيجابي، سلبي، إيجابي، إيجابي، إيجابي.

تتجاهل AUC أي قيمة تضبطها لحد التصنيف. وبدلاً من ذلك، تراعي AUC جميع حدود التصنيف المحتملة.

B

الانتشار العكسي

#fundamentals

الخوارزمية التي تنفِّذ انحدار التدرج في الشبكات العصبونية.

يتضمن تدريب الشبكة العصبية العديد من التكرارات للدورة ذات الممرين التالية:

  1. أثناء البداية والنهاية المبكرة، يعالج النظام مجموعة من الأمثلة لعرض عبارات البحث المقترحة. يقارن النظام كل توقع بكل قيمة في label. الفرق بين التوقع وقيمة التسمية هو loss لهذا المثال. يجمع النظام الخسائر لجميع الأمثلة لحساب الخسارة الإجمالية للدفعة الحالية.
  2. خلال الانتشار العكسي (الانتشار العكسي)، يقلل النظام من فقدان كل الخلايا العصبية في كل الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبونية على العديد من الخلايا العصبية عبر العديد من الطبقات الخفية. وتساهم كل واحدة من هذه الخلايا العصبية في الخسارة الكلية بطرق مختلفة. يحدد الانتشار العكسي ما إذا كان يجب زيادة أو خفض الأوزان المطبقة على خلايا عصبية معينة.

معدّل التعلّم هو مُضاعِف يتحكّم في درجة زيادة أو خفض كل وزن مع كل تمريرة خلفية. سيؤدي معدل التعلم الكبير إلى زيادة أو خفض كل وزن أكثر من معدل التعلم الصغير.

من حيث التفاضل والتكامل، ينفِّذ الانتشار العكسي قاعدة السلسلة من حساب التفاضل والتكامل. وهذا يعني أنّ عملية الانتشار العكسي تحتسب المشتق الجزئي للخطأ مع مراعاة كل مَعلمة.

منذ سنوات، كان على ممارسي تعلُّم الآلة كتابة تعليمات برمجية لتنفيذ الانتشار العكسي. تستخدم واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل TensorFlow، ميزة "الانتشار العكسي" نيابةً عنك. أخيرًا!

مُجمَّع

#fundamentals

مجموعة الأمثلة المستخدمة في تكرار تدريب واحد. يحدّد حجم الدفعة عدد الأمثلة في الدفعة.

يمكنك الاطّلاع على الحقبة للحصول على شرح حول كيفية ارتباط الدُفعة بالحقبة.

حجم الدفعة

#fundamentals

عدد الأمثلة في مجموعة على سبيل المثال، إذا كان حجم الدفعة 100، فإن النموذج يعالج 100 مثال لكل تكرار.

في ما يلي استراتيجيات شائعة لحجم المجموعة:

  • الانحدار العشوائي للتدرج (SGD)، حيث يكون حجم الدفعة 1.
  • المجموعة الكاملة، التي يكون فيها حجم المجموعة هو عدد الأمثلة في مجموعة التدريب بالكامل. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، فسيكون حجم الدفعة مليون مثال. عادةً ما تكون الدفعة الكاملة استراتيجية غير فعّالة.
  • دفعة صغيرة يتراوح حجم الدفعة فيها عادةً بين 10 و1,000 مرة. عادةً ما تكون الدفعة الصغيرة هي الإستراتيجية الأكثر فعالية.

التحيز (الأخلاق/الإنصاف)

#fairness
#fundamentals

1- الصور النمطية أو التحيز أو المحسوبية تجاه بعض الأشياء أو الأشخاص أو المجموعات على الآخرين. يمكن أن تؤثر هذه التحيزات على جمع وتفسير البيانات، وتصميم النظام، وكيفية تفاعل المستخدمين مع النظام. تشمل أشكال هذا النوع من التحيز ما يلي:

2. يشير ذلك المصطلح إلى خطأ تنظيمي ناتج عن أحد إجراءات أخذ العينات أو الإبلاغ. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بينه وبين مصطلح التحيز في نماذج تعلُّم الآلة أو انحياز التوقّعات.

تحيز (رياضيات) أو مصطلح تحيز

#fundamentals

تمثّل هذه السمة تقاطع أو إزاحة من مصدر. التحيز هو مَعلمة في نماذج التعلم الآلي، والذي يرمز إليه بأي مما يلي:

  • b
  • 0

على سبيل المثال، الانحياز هو حرف b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط بسيط ثنائي الأبعاد، يعني التحيز "تقاطع ص". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

يشير ذلك المصطلح إلى رسم خط مستقيم مع انحدار مقداره 0.5 وانحياز (تقاطع ص) بقيمة 2.

يتوفّر الانحياز لأنّه لا تبدأ بعض النماذج من المصدر (0,0). على سبيل المثال، لنفترض أن تكلفة دخول مدينة الملاهي هي 2 يورو ومبلغ 0.5 يورو إضافي عن كل ساعة يقيم فيها العميل. وبالتالي، فإن النموذج الذي يحدد التكلفة الإجمالية له تحيز بمقدار 2 لأن أقل تكلفة هي 2 يورو.

لا يجب الخلط بين التحيز والتحيز في الأخلاقيات والإنصاف أو تحيز التنبؤ.

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف يتنبأ بإحدى الفئتين الحصريتين المتبادلتين:

على سبيل المثال، يُنفِّذ نموذجا التعلم الآلي التاليان تصنيفًا ثنائيًا لكل منهما:

  • نموذج يحدِّد ما إذا كانت الرسائل الإلكترونية هي رسائل غير مرغوب فيها (الفئة الموجبة) أو ليست رسائل غير مرغوب فيها (الفئة السالبة).
  • يشير ذلك المصطلح إلى نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص يعاني من مرض معيّن (الفئة الموجبة) أو غير مصاب بهذا المرض (الفئة السالبة).

تباين مع التصنيف متعدد الفئات.

يمكنك أيضًا الاطّلاع على الانحدار اللوجستي والحدّ الأدنى للتصنيف.

تجميع البيانات

#fundamentals

تحويل ميزة واحدة إلى عدة ميزات ثنائية تُسمّى الحزم أو سلال، استنادًا إلى نطاق القيمة عادةً. عادةً ما تكون ميزة التقطيع ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة واحدة للنقطة العائمة المستمرة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • ستكون درجة الحرارة "الباردة" أقل من 10 درجات مئوية.
  • يجب أن تكون درجة الحرارة "المعتدلة" هي 11 - 24 درجة مئوية.
  • >= 25 درجة مئوية سيكون الدلو "دافئ".

سيتعامل النموذج مع كل قيمة في المجموعة نفسها على نحو متماثل. على سبيل المثال، تمّ إدراج القيمتَين 13 و22 في مجموعة البيانات المعتدلة، وبالتالي يعامل النموذج القيمتَين بشكل متماثل.

C

بيانات فئوية

#fundamentals

الميزات التي لها مجموعة معيّنة من القيم المحتملة. على سبيل المثال، ضع في اعتبارك ميزة فئوية تُسمى traffic-light-state، والتي يمكن أن تتضمن واحدة فقط من القيم الثلاث التالية المحتملة:

  • red
  • yellow
  • green

ومن خلال تمثيل traffic-light-state كميزة فئوية، يمكن للنموذج معرفة التأثيرات المختلفة لـ red وgreen وyellow في سلوك السائق.

تسمى الميزات الفئوية أحيانًا ميزات منفصلة.

قارِنها مع البيانات الرقمية.

صنف

#fundamentals

الفئة التي يمكن أن ينتمي إليها التصنيف. مثال:

  • في نموذج التصنيف الثنائي الذي يرصد المحتوى غير المرغوب فيه، قد تكون الفئتان محتوى غير مرغوب فيه وليس محتوى غير مرغوب فيه.
  • في نموذج التصنيف متعدد الفئات الذي يحدد سلالات الكلاب، قد تكون الفئات كلاب بودل وبيغل وكلاب وما إلى ذلك.

يتنبأ نموذج التصنيف بالفئة. في المقابل، يتوقّع نموذج الانحدار رقمًا وليس فئة.

نموذج التصنيف

#fundamentals

model يكون توقّعه model. على سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • نموذج للتنبؤ بلغة جملة الإدخال (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • يشير ذلك المصطلح إلى نموذج يتنبأ بأنواع الأشجار (القيقب؟ Oak? باوباب؟).
  • يشير ذلك المصطلح إلى نموذج يتنبأ بالفئة الموجبة أو السالبة لحالة طبية معيّنة.

على النقيض، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف:

الحد الأدنى للتصنيف

#fundamentals

في التصنيف الثنائي، هو رقم يتراوح بين 0 و1 يحوّل المخرجات الأولية لنموذج الانحدار اللوجستي إلى توقّع للفئة الموجبة أو الفئة السالبة. يُرجى العلم بأنّ عتبة التصنيف هي قيمة يختارها الإنسان، وليست قيمة يختارها تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من حد التصنيف، يتم التنبؤ بالفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من حد التصنيف، يتم التنبؤ بالفئة السالبة.

لنفترض، على سبيل المثال، أن عتبة التصنيف هي 0.8. إذا كانت القيمة الأولية 0.9، فسيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية 0.7، فسيتنبأ النموذج بالفئة السالبة.

ويؤثر اختيار الحدّ الأدنى للتصنيف بشكل كبير في عدد النتائج الموجبة الخاطئة والحالات السالبة الخاطئة.

مجموعة بيانات غير متوازنة الفئة

#fundamentals

مجموعة بيانات لمشكلة تصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، ضع في الاعتبار مجموعة بيانات التصنيف الثنائي التي يتم تقسيم تسميتها على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السالبة إلى الموجبة هي 100000 إلى 1، لذا فإن هذه مجموعة بيانات غير متوازنة الفئة.

في المقابل، ليست مجموعة البيانات التالية غير متوازنة الفئات لأن نسبة التصنيفات السالبة إلى التصنيفات الإيجابية تقترب نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

يمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة الفئات. على سبيل المثال، تعد مجموعة بيانات التصنيف متعدد الفئات التالية غير متوازنة الفئة أيضًا لأن إحدى التصنيفات تحتوي على أمثلة أكثر بكثير من الاثنتين الأخريين:

  • 1,000,000 تصنيف بفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا بالفئة "برتقالي"

ويمكنك أيضًا الاطّلاع على القصور وفئة الأغلبية وفئة الأقلية.

اقتصاص

#fundamentals

يشير ذلك المصطلح إلى أسلوب للتعامل مع القيم الشاذّة من خلال تنفيذ أحد الإجراءَين التاليَين أو كليهما:

  • تخفيض قيم الميزة التي تزيد عن الحدّ الأقصى المسموح به لهذا الحدّ
  • زيادة قيم الميزات التي تقلّ عن الحدّ الأدنى وصولاً إلى الحدّ الأدنى

على سبيل المثال، افترض أن أقل من 0.5٪ من قيم ميزة معينة تقع خارج النطاق 40-60. وفي هذه الحالة، يمكنك إجراء ما يلي:

  • قم باقتصاص جميع القيم التي تزيد عن 60 (الحد الأقصى) لتكون 60 بالضبط.
  • قم باقتصاص جميع القيم التي تقل عن 40 (الحد الأدنى) لتكون 40 بالضبط.

يمكن أن تتسبب القيم الاستثنائية في إتلاف النماذج، ما قد يتسبب أحيانًا في فائض الأوزان أثناء التدريب. ويمكن أن تؤدي بعض القيم الاستثنائية أيضًا إلى إفساد المقاييس مثل الدقة بشكل كبير. يُعد الاقتصاص أسلوب شائع للحد من الضرر.

يفرض الاقتصاص المتدرج قيم التدرج ضمن نطاق محدد أثناء التطبيق.

مصفوفة التشويش

#fundamentals

جدول NxN يلخّص عدد التوقعات الصحيحة وغير الصحيحة التي صدر عنها نموذج تصنيف على سبيل المثال، ضع في الاعتبار مصفوفة الالتباس التالية لنموذج التصنيف الثنائي:

ورم (متوقّع) غير ورم (متوقع)
ورم (حقيقة واقعية) 18 (TP) 1 (FN)
غير الورم (حقيقة واقعية) 6 (FP) 452 (تينيسي)

توضِّح مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الأساسية فيها هي Tumor، صنّف النموذج بشكل صحيح 18 وصنَّف 1 بشكل غير صحيح.
  • من بين 458 تنبؤًا كانت الحقيقة الفعلية فيها غير ورم، وصنف النموذج بشكل صحيح 452 وصنف 6 بشكل غير صحيح.

يمكن أن تساعدك مصفوفة التشويش لمشكلة التصنيف متعدد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، بالنظر إلى مصفوفة التشويش التالية لنموذج تصنيف متعدد الفئات مكون من 3 فئات يصنف ثلاثة أنواع مختلفة من قزحية الألوان (فيرجينيكا وفرسيلون وسيتوزا). عندما كانت الحقيقة الأساسية هي فيرجيكا، تُظهر مصفوفة الارتباك أن النموذج كان أكثر احتمالاً أن يتوقع عن طريق الخطأ Versicolor بدلاً من سيتوسا:

  سيتوسا (متوقع) ألوان متعددة (متوقع) فيرجينيا (متوقّعة)
سيتوزا (حقيقة واقعية) 88 12 0
ألوان متعددة (حقيقة واقعية) 6 141 7
فيرجينيا (حقيقة واقعية) 2 27 109

كمثال آخر، يمكن أن تكشف مصفوفة الالتباس أن النموذج الذي تم تدريبه على التعرف على الأرقام المكتوبة بخط اليد يميل إلى التنبؤ عن طريق الخطأ برقم 9 بدلاً من 4، أو التنبؤ عن طريق الخطأ بـ 1 بدلاً من 7.

تحتوي مصفوفة من التشويش على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والاستدعاء.

خاصية مستمرة

#fundamentals

ميزة نقطة عائمة تضم نطاقًا غير محدود من القيم المحتمَلة، مثل درجة الحرارة أو الوزن.

قارِنها مع الميزة المنفصلة.

التقارب

#fundamentals

حالة يتم الوصول إليها عندما تتغير قيم الخسارة بشكل ضئيل جدًا أو لا تتغير على الإطلاق مع كل تكرار. على سبيل المثال، يشير منحنى الخسارة التالي إلى التقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور س هو الخسارة. والمحور Y هو عدد التكرارات للتدريب. تكون نسبة الخسارة مرتفعة جدًا خلال التكرارات القليلة الأولى، ولكنّها
          تنخفض بشكل كبير. بعد حوالي 100 تكرار، تظل الخسارة
          تنازليًا ولكنها أكثر تدريجًا. بعد حوالي 700 تكرار، تظل الخسارة ثابتة.

يتقارب النموذج عندما لا يحسّن التدريب الإضافي النموذج.

في التعلُّم المعمّق، تظل القيم المفقودة أحيانًا ثابتة أو تقريبًا بالنسبة إلى العديد من التكرارات قبل الهبوط في النهاية. خلال فترة طويلة من قيم الخسارة الثابتة، قد تحصل مؤقتًا على إحساس خاطئ بالتقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

D

DataFrame

#fundamentals

يشير ذلك المصطلح إلى نوع شائع من بيانات pandas لتمثيل مجموعات البيانات في الذاكرة.

يُعد إطار البيانات مماثلاً للجدول أو جدول البيانات. لكل عمود في DataFrame اسم (عنوان)، ويتم تحديد كل صف برقم فريد.

تتم هيكلة كل عمود في DataFrame كصفيف ثنائي الأبعاد، باستثناء أنه يمكن تعيين نوع بيانات خاص لكل عمود.

يمكنك الاطّلاع أيضًا على الصفحة المرجعية pandas.DataFrame الرسمية.

مجموعة بيانات أو مجموعة بيانات

#fundamentals

مجموعة من البيانات الأولية، عادةً (وليست حصريًا) منظّمة بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من طبقة مخفية.

يُعرف النموذج العميق أيضًا باسم الشبكة العصبية العميقة.

تباين مع النموذج العريض.

خاصية كثيفة

#fundamentals

ميزة تكون فيها معظم أو كل القيم غير صفرية، وهي عادةً Tensor لقيم النقاط العائمة. على سبيل المثال، يكون Tensor التالي المكون من 10 عناصر كثيفًا لأن 9 من قيمه غير صفرية:

8 3 7 5 2 4 0 4 9 6

قارِنها مع ميزة متفرقة.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

على سبيل المثال، الشبكة العصبية تضم خمس طبقات مخفية وطبقة إخراج واحدة يبلغ عمقها 6 طبقات.

لاحظ أن طبقة الإدخال لا تؤثر في العمق.

خاصية المنفصلة

#fundamentals

ميزة تتضمّن مجموعة محدودة من القيم المحتمَلة. على سبيل المثال، تُعد الميزة التي قد تكون قيمها حيوان أو نبات أو معدن فقط، وهي ميزة منفصلة (أو فئوية).

يتباين مع الميزة المستمرة.

ديناميكي

#fundamentals

شيء ما يتم بشكل متكرر أو مستمر. المصطلحان ديناميكي وعلى الإنترنت مرادفان في تقنية تعلُّم الآلة. في ما يلي الاستخدامات الشائعة للديناميكي وعلى الإنترنت في تعلُّم الآلة:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرّر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية إنشاء عبارات بحث مقترحة عند الطلب.

نموذج ديناميكي

#fundamentals

model الذي تتم إعادة تدريبه بشكل متكرر (ربما حتى بشكل مستمر). النموذج الديناميكي هو "المتعلم مدى الحياة" الذي يتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

تباين مع النموذج الثابت.

E

إيقاف مبكر

#fundamentals

يشير ذلك المصطلح إلى طريقة لتنظيم البيانات تتضمّن إنهاء التدريب قبل انخفاض معدّل فقدان التدريب. عند الإيقاف المبكر، تتوقف عن تدريب النموذج عندما يبدأ معدل فقدان مجموعة بيانات التحقق في الزيادة، أي عندما يتفاقم أداء التعميم.

طبقة التضمين

#language
#fundamentals

هي طبقة مخفية خاصة تدرَّب على ميزة فئوية عالية الأبعاد تتعلّم تدريجيًا متجه تضمين بُعد أقل. وتعمل طبقة التضمين على تمكين الشبكة العصبية من التدرّب بكفاءة أكبر من التدريب على ميزة التصنيف ذات الأبعاد العالية فقط.

على سبيل المثال، يدعم Earth حاليًا حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي ميزة في النموذج، لذا فإن طبقة إدخال نموذجك تتضمن متجهًا واحدًا ساخنًا يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل baobab على النحو التالي:

مصفوفة مكونة من 73000 عنصر. ويحتوي أول 6,232 عنصرًا على القيمة 0. يحتوي العنصر التالي على القيمة 1. وتحتوي العناصر الـ 66,767 النهائية على القيمة صفر.

الصفيف الذي يضم 73000 عنصر طويل جدًا. إذا لم تقم بإضافة طبقة تضمين إلى النموذج، فسيستغرق التدريب وقتًا طويلاً بسبب ضرب 72999 صفراً. ربما تختار طبقة التضمين لتكون من 12 بُعدًا. وبالتالي، ستتعلم طبقة التضمين تدريجيًا متّجه تضمين جديدًا لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً لطبقة التضمين.

حقبة

#fundamentals

عبارة عن تصريح تدريب كامل على مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة.

تمثل الفترة N/حجم الدفعة للتدريب على التكرارات، حيث يمثل N إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض ما يلي:

  • تتكون مجموعة البيانات من 1000 مثال.
  • يبلغ حجم الدفعة 50 مثالاً.

لذلك، تتطلب حقبة واحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما label. تنقسم الأمثلة في التعلّم المُوجّه إلى فئتَين عامتَين:

  • يتكون المثال المُصنف من ميزة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المصنفة أثناء التدريب.
  • يتكون المثال غير المصنف من ميزة واحدة أو أكثر ولكن بدون تصنيف. يتم استخدام أمثلة غير مصنفة أثناء الاستنتاج.

على سبيل المثال، لنفترض أنك تقوم بتدريب نموذج لتحديد تأثير ظروف الطقس على درجات اختبار الطلاب. فيما يلي ثلاثة أمثلة مصنَّفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنَّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. بمعنى آخر، يتكون المثال عادة من مجموعة فرعية من الأعمدة في مجموعة البيانات. إضافةً إلى ذلك، يمكن أن تتضمّن الميزات في المثال أيضًا ميزات اصطناعية، مثل نقاط متصلة.

F

سالب خاطئ (FN)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة السالبة. على سبيل المثال، يتوقع النموذج أن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكن هذه الرسالة الإلكترونية تعد رسالة غير مرغوب فيها.

موجب خاطئ (FP)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة الإيجابية. على سبيل المثال، يتنبأ النموذج بأنّ إحدى رسائل البريد الإلكتروني هي رسالة غير مرغوب فيها (الفئة الإيجابية)، ولكنّ هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها.

معدل الموجب الخاطئ (FPR)

#fundamentals

يشير ذلك المصطلح إلى نسبة الأمثلة السلبية الفعلية التي توقّع فيها النموذج عن طريق الخطأ الفئة الموجبة. تحسب المعادلة التالية المعدل الإيجابي الخاطئ:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

المعدل الموجبة الخاطئة هو المحور x في منحنى خاصية تشغيل جهاز الاستقبال.

عنصر

#fundamentals

يشير ذلك المصطلح إلى متغيّر إدخال لأحد نماذج تعلُّم الآلة. يتكون المثال من ميزة واحدة أو أكثر. على سبيل المثال، لنفترض أنك تقوم بتدريب نموذج لتحديد تأثير أحوال الطقس على درجات اختبار الطلاب. يوضح الجدول التالي ثلاثة أمثلة، يحتوي كل منها على ثلاث ميزات وتسمية واحدة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

تباين مع label.

تقاطع الخصائص

#fundamentals

ميزة اصطناعية تم إنشاؤها من خلال ميزات فئوية أو مجمّعة.

على سبيل المثال، ضع في الاعتبار نموذج "التنبؤ بالمزاج" الذي يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثل سرعة الرياح في إحدى المجموعات الثلاث التالية:

  • still
  • light
  • windy

وبدون وجود تقاطعات الخصائص، يتدرب النموذج الخطي بشكل مستقل على كل مجموعة من المجموعات السبع المختلفة السابقة. إذًا، يتدرب النموذج مثلاً على freezing بشكل مستقل عن التدريب على windy مثلاً.

بدلا من ذلك، يمكنك إنشاء ميزة متقاطعة لدرجة الحرارة وسرعة الرياح. قد تحتوي هذه الميزة الاصطناعية على 12 قيمة محتملة التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل ميزة التقاطعات، يمكن لهذا النموذج التعرّف على الاختلافات في الحالات المزاجية بين يوم واحد (freezing-windy) ويوم واحد (freezing-still).

إذا أنشأت ميزة اصطناعية من ميزتَين يحتوي كل منهما على العديد من مجموعات البيانات المختلفة، سيتضمّن تقاطع الميزات الناتج عددًا كبيرًا من التركيبات الممكنة. على سبيل المثال، إذا كانت إحدى الميزات تضم 1,000 مجموعة، وكانت الميزة الأخرى تضم 2,000 حزمة، يكون للميزة المتقاطعة الناتجة 2,000,000 مجموعة.

من الناحية الرسمية، الصليب هو منتج الديكارتي.

تُستخدم تقاطعات الخصائص في الغالب مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب نموذج.
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من تلك الميزات.

على سبيل المثال، قد ترى أنّ علامة temperature قد تكون ميزة مفيدة. بعد ذلك، يمكنك تجربة التجميع لتحسين ما يمكن أن يتعلّمه النموذج من نطاقات temperature المختلفة.

يُطلَق على هندسة الميزات أحيانًا اسم استخراج الميزات أو التميّز.

مجموعة الخصائص

#fundamentals

مجموعة الميزات التي يتم تدريب نموذج تعلُّم الآلة الخاص بك عليها. على سبيل المثال، قد يشمل الرمز البريدي وحجم العقار وحالة العقار مجموعة ميزات بسيطة لنموذج يتنبأ بأسعار المساكن.

متّجه الخصائص

#fundamentals

مصفوفة قيم feature التي تشتمل على مثال. يتم إدخال متجه الميزة أثناء التدريب وأثناء الاستنتاج. على سبيل المثال، قد يكون الخط المتجه الخصائص لنموذج ذي خاصيتين منفصلتين كما يلي:

[0.92, 0.56]

أربع طبقات: طبقة إدخال، وطبقتان مخفيتان، وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عقدتَين، إحداهما تشتمل على القيمة 0.92 والأخرى تشتمل على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الميزة، لذا يمكن أن يكون متجه الميزة للمثال التالي شيئًا مثل:

[0.73, 0.49]

تحدد هندسة الميزات كيفية تمثيل الميزات في الخط المتجه للميزات. على سبيل المثال، يمكن تمثيل ميزة فئوية ثنائية ذات خمس قيم محتملة باستخدام ترميز واحد فعال. في هذه الحالة، سيتكوّن جزء من متجه الميزة لمثال معين من أربعة أصفار و1.0 واحد في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

وكمثال آخر، لنفترض أن النموذج الخاص بك يتكون من ثلاث ميزات:

  • ميزة فئوية ثنائية تتضمّن خمس قيم محتملة ممثلة بترميز واحد فعال، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • ميزة فئوية ثنائية أخرى تشتمل على ثلاث قيم محتملة ممثلة بترميز واحد فعال؛ على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة، مثل: 8.3.

في هذه الحالة، سيتم تمثيل الخط المتجه للميزة لكل مثال بـ تسع قيم. بالنظر إلى أمثلة القيم في القائمة السابقة، سيكون خط متجه الميزة على النحو التالي:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

حلقة الملاحظات

#fundamentals

يشير ذلك المصطلح إلى حالة في تعلُّم الآلة تؤثر فيها توقّعات النموذج على بيانات التدريب الخاصة بالنموذج نفسه أو نموذج آخر. على سبيل المثال، سيؤثر النموذج الذي يقترح الأفلام على الأفلام التي يشاهدها الأشخاص، مما سيؤثر بعد ذلك على نماذج اقتراحات الأفلام اللاحقة.

G

تعميم

#fundamentals

يشير ذلك المصطلح إلى قدرة النموذج على تقديم توقّعات صحيحة حول البيانات الجديدة التي لم يسبق لك الاطّلاع عليها. النموذج الذي يمكن التعميم هو عكس نموذج فرط التخصيص.

منحنى التعميم

#fundamentals

يوضِّح الرسم البياني كلاً من فقدان التدريب وفقدان التحقّق كدالة لعدد التكرارات.

يمكن أن يساعدك منحنى التعميم في اكتشاف احتمال فرط التخصيص. على سبيل المثال، يشير منحنى التعميم التالي إلى فرط التخصيص لأن خسارة التحقق من الصحة يصبح في النهاية أعلى بكثير من خسارة التدريب.

رسم بياني الديكارتي يُظهر فيه المحور ص الخسارة ويُسمّى المحور س
          بالتكرارات. يظهر مخططان. يعرض أحد الرسمَين فقدان التدريب، بينما يشير الآخر إلى خسارة في عملية التحقق.
          يبدأ المخططان بشكل مشابه، ولكن في نهاية المطاف تنخفض خسارة التدريب أقل بكثير من مقدار خسارة التحقق من الصحة.

انحدار التدرج

#fundamentals

أسلوب رياضي لتقليل الخسارة. تعمل خوارزمية انحدار التدرج على تعديل الوزن والانحياز تدريجيًا، وتحديد أفضل تركيبة للحدّ من الخسارة.

خورازمية انحدار التدرج هي أقدم بكثير من التعلم الآلي.

معلومات فعلية

#fundamentals

الواقع:

الشيء الذي حدث بالفعل.

على سبيل المثال، ضع في اعتبارك نموذج التصنيف الثنائي الذي يتنبأ بما إذا كان الطالب في سنته الأولى من الجامعة سوف يتخرج خلال ست سنوات. الحقيقة الأساسية لهذا النموذج هي ما إذا كان هذا الطالب قد تخرج بالفعل في غضون ست سنوات أم لا.

H

طبقة مخفية

#fundamentals

يشير ذلك المصطلح إلى طبقة في شبكة عصبية بين طبقة الإدخال (السمات) وطبقة الإخراج (التوقّع). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتين مخفية، الأولى بثلاث خلايا عصبية والثانية بخليتين عصبيتين:

أربع طبقات. الطبقة الأولى هي طبقة إدخال تحتوي على سمتين. والطبقة الثانية هي طبقة مخفية تحتوي على ثلاث خلايا عصبية. والطبقة الثالثة هي طبقة مخفية تحتوي على خليتين عصبيتين. الطبقة الرابعة هي طبقة إخراج. تحتوي كل خاصية على ثلاث حواف، تشير كل منها إلى خلية عصبية مختلفة في الطبقة الثانية. وتحتوي كل خلية من الخلايا العصبية في الطبقة الثانية على حافتين، تشير كل منهما إلى خلية عصبية مختلفة في الطبقة الثالثة. وتحتوي كل خلية من الخلايا العصبية في الطبقة الثالثة على حافة واحدة تشير كل منها إلى الطبقة الناتجة.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية. على سبيل المثال، الرسم التوضيحي السابق عبارة عن شبكة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

معلَمة فائقة

#fundamentals

يتم تعديل المتغيّرات التي تضبطها أنت أو خدمة ضبط المعلَمة الفائقة أثناء عمليات التشغيل المتتالية لتدريب أحد النماذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة. يمكنك ضبط معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا حددت أن 0.01 مرتفع جدًا، فيمكنك ربما ضبط معدل التعلم على 0.003 لجلسة التدريب التالية.

في المقابل، المَعلمات هي القيم التقديرية والانحياز المختلفة التي يتعلّمها النموذج أثناء التدريب.

I

موزّعة بشكل مستقل ومتشابه (id)

#fundamentals

البيانات المأخوذة من توزيع لا يتغير، حيث لا تعتمد كل قيمة مرسومة على القيم التي تم رسمها مسبقًا. ويعني ذلك أنّها الغاز المثالي للتعلّم الآلي، ما يجعله من العناصر الرياضية المفيدة، ولكن لا يمكن العثور عليه مطلقًا في العالم الحقيقي. على سبيل المثال، قد يكون توزيع زوار صفحة الويب عبارة عن فترة زمنية قصيرة، أي أنّ التوزيع لا يتغير خلال هذه الفترة الوجيزة، وتكون زيارة شخص واحد مستقلة بشكل عام عن زيارة شخص آخر. ومع ذلك، إذا وسّعت هذه الفترة الزمنية، قد تظهر الاختلافات الموسمية في زوّار صفحة الويب.

يمكنك أيضًا مراجعة المقالة حول عدم الأهلية.

استنتاج

#fundamentals

في تعلُّم الآلة، يشير هذا المصطلح إلى عملية طرح التوقّعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

للاستنتاج معنى مختلف إلى حد ما في الإحصاء. راجِع مقالة ويكيبيديا عن الاستنتاج الإحصائي لمزيد من التفاصيل.

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تحتوي على متجه الميزة. وهذا يعني أن طبقة الإدخال توفر أمثلة للتدريب أو الاستنتاج. على سبيل المثال، تتكون طبقة الإدخال في الشبكة العصبية التالية من خاصيتين:

أربع طبقات: طبقة إدخال، وطبقتان مخفيتان، وطبقة إخراج.

إمكانية التفسير

#fundamentals

يشير ذلك المصطلح إلى القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة بعبارات مفهومة للجميع.

على سبيل المثال، معظم نماذج الانحدار الخطي قابلة للتفسير بشكل كبير. (ما عليك سوى إلقاء نظرة على الأوزان المدربة لكل ميزة). كما يمكن تفسير غابات القرار بدرجة عالية. ومع ذلك، تتطلب بعض النماذج تصورًا معقدًا لتصبح قابلة للتفسير.

يمكنك استخدام أداة "الترجمة الفورية" لتفسير نماذج تعلُّم الآلة.

تكرار

#fundamentals

هو تعديل واحد لمَعلمات النموذج، وهي القِيم والانحيازات للنموذج، أثناء التدريب. يحدد حجم المجموعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال، إذا كان حجم الدفعة هو 20، فإن النموذج يعالج 20 مثالاً قبل تعديل المعاملات.

عند تدريب شبكة عصبية، يتضمن التكرار الواحد الممرتين التاليتين:

  1. بطاقة للأمام لتقييم الخسارة في دفعة واحدة.
  2. مسار خلفي (نشر عكسي) لضبط معلَمات النموذج بناءً على الخسارة ومعدّل التعلّم.

L

تسوية 0

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يفرض عقوبة على العدد الإجمالي للقيم للوزن غير الصفري في نموذج. على سبيل المثال، قد يتم معاقبة أي نموذج يتضمن 11 ترجيحًا غير صفري أكثر من نموذج مماثل يتضمن 10 أوزان غير صفرية.

يُطلق على تسوية المستوى 0 أحيانًا اسم ضبط معيار L0.

الخسارة 1

#fundamentals

دالة خسارة تحتسب القيمة المطلقة للفرق بين قيم label الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، في ما يلي حساب الخسارة في المستوى 1 لخسارة مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتنبأ بها للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = الخسارة 1

إنّ الخسارة الأولى أقل حساسية للقيم الشاذّة من الخسارة الثانية.

متوسط الخطأ المطلق هو متوسط الخسارة L1 لكل مثال.

تسوية1

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يفرض عقوبة على الترجيح بما يتناسب مع مجموع القيمة المطلقة للأوزان. يساعد تنظيم المستوى 1 في توجيه الميزات غير الملائمة أو التي بالكاد صلة إلى 0 بالضبط. تتم إزالة ميزة بوزن 0 من النموذج بشكل فعّال.

تباين مع L2 التسوية.

الخسارة 2

#fundamentals

دالة خسارة تحتسب مربع الفرق بين قيم label الفعلية والقيم التي يتنبأ بها النموذج. على سبيل المثال، في ما يلي حساب الخسارة من المستوى 2 لخسارة مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتنبأ بها للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = الخسارة 2

بسبب التربيع، تزيد الخسارة L2 من تأثير القيم الشاذّة. وهذا يعني أنّ الخسارة من المستوى 2 أكبر من التفاعل مع التوقّعات السيئة أكثر من الخسارة من المستوى 1. على سبيل المثال، ستكون الخسارة 1 للدفعة السابقة 8 بدلاً من 16. لاحظ أن قيمة استثنائية واحدة تمثل 9 من 16.

تستخدم نماذج الانحدار عادةً الخسارة من المستوى2 كدالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة 2.

تسوية2

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يهدف إلى فرض عقوبات على الترجيح بما يتناسب مع مجموع المربّعات للأوزان. يساعد ضبط المستوى 2 في تقريب الأوزان الخارجية (التي لديها قيم سلبية عالية أو منخفضة) إلى 0 ولكن ليس تمامًا. وتظل الميزات ذات القيم القريبة جدًا من 0 في النموذج ولكنها لا تؤثر على تنبؤ النموذج كثيرًا.

تؤدي تسوية المستوى 2 دائمًا إلى تحسين التعميم في النماذج الخطية.

قارِن بينها وبين تسوية L1.

label

#fundamentals

في تعلُّم الآلة المراقَب، جزء "الإجابة" أو "النتيجة" في مثال.

ويتكون كل مثال مصنَّف من واحد أو أكثر من الميزات وتصنيف. على سبيل المثال، في مجموعة بيانات الكشف عن المحتوى غير المرغوب فيه، من المحتمل أن يكون التصنيف إما "محتوى غير مرغوب فيه" أو "ليس محتوى غير مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد يكون التسمية عبارة عن كمية الأمطار التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على ميزة واحدة أو أكثر وتصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنفة من نموذج تقييم منزل، لكل منها ثلاث ميزات وتسمية واحدة:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392000 دولار أمريكي

في تعلُّم الآلة المراقَب، تتدرب النماذج على الأمثلة المُصنَّفة وتقدِّم توقّعات على الأمثلة غير المصنَّفة.

قارن المثال المصنف مع الأمثلة غير المصنفة.

لمدا

#fundamentals

مرادف معدّل الانتظام.

لامدا مصطلح مثقل بحمل زائد. ونركّز هنا على تعريف المصطلح في إطار التنظيم.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية. ثلاثة أنواع شائعة من الطبقات هي كما يلي:

على سبيل المثال، يوضح الرسم التوضيحي التالي شبكة عصبية تضم طبقة إدخال واحدة وطبقتين مخفيتين وطبقة إخراج واحدة:

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتكون طبقة الإدخال من سمتين. والطبقة الأولى المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية تتكون من خليتين عصبيتين. تتكون طبقة الإخراج من عقدة واحدة.

في TensorFlow، تمثل الطبقات أيضًا دوال بايثون تأخذ Tensors وخيارات التهيئة كمدخلات وتنشئ متوترات أخرى كمخرجات.

معدّل التعلّم

#fundamentals

يشير ذلك المصطلح إلى رقم نقطة عائمة يوضّح خوارزمية انحدار التدرج بمدى قوة تعديل معاملات الترجيح والانحيازات في كل تكرار. على سبيل المثال، يؤدي معدل التعلم 0.3 إلى تعديل الأوزان والتحيزات بثلاث مرات بشكل أقوى من معدل التعلم 0.1.

معدّل التعلّم هو معلَمة فائقة رئيسية. إذا قمت بتعيين معدل التعلم منخفضًا جدًا، فسيستغرق التدريب وقتًا طويلاً. إذا تم ضبط معدل التعلم إلى حد كبير، غالبًا ما تواجه خوارزمية انحدار التدرج مشكلة في الوصول إلى التقارب.

خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيرَين أو أكثر يمكن تمثيلهما فقط من خلال الجمع والضرب.

مخطط العلاقة الخطية عبارة عن خط.

قارِنها مع غير الخطّي.

نموذج خطي

#fundamentals

model يعيّن model واحد لكل model لتقديم model. (تتضمّن النماذج الخطية أيضًا التحيز.) في المقابل، إنّ العلاقة بين الميزات والتوقّعات في النماذج الشاملة بشكل عام غير خطية.

عادةً ما يكون تدريب النماذج الخطية أسهل وقابلة للتفسير من النماذج العميقة. مع ذلك، يمكن للنماذج العميقة أن تتعلّم علاقات معقدة بين الميزات.

الانحدار الخطي والانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطّي

#fundamentals

يشير ذلك المصطلح إلى نوع من نماذج تعلُّم الآلة يكون فيه كلا الشرطَين التاليَين صحيحًا:

  • النموذج هو نموذج خطي.
  • التوقع هو قيمة النقطة العائمة. (هذا هو جزء الانحدار في الانحدار الخطي.)

تحديد أوجه الاختلاف بين الانحدار الخطي والانحدار اللوجستي قارِن أيضًا الانحدار مع التصنيف.

الانحدار اللوجستي

#fundamentals

يشير ذلك المصطلح إلى نوع من نموذج الانحدار الذي يتنبأ باحتمالية معيّنة. تتمتع نماذج الانحدار اللوجستي بالخصائص التالية:

  • التصنيف فئوي. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب الاحتمالات للتصنيفات ذات القيمتين المحتملتين. أحد الصيغ الأقل شيوعًا، وهو الانحدار اللوجستي متعدد الحدود، يحسب الاحتمالات للتصنيفات ذات أكثر من قيمتين محتملتين.
  • دالة الخسارة أثناء التدريب هي تسجيل فقدان البيانات. (يمكن وضع وحدات فقدان السجل المتعددة بشكل متوازٍ للتسميات التي تحتوي على أكثر من قيمتين محتملتين).
  • يحتوي النموذج على بنية خطية، وليس شبكة عصبية عميقة. مع ذلك، ينطبق باقي هذا التعريف أيضًا على النماذج العميقة التي تتنبأ بالاحتمالات للتصنيفات الفئوية.

على سبيل المثال، ضع في اعتبارك نموذج انحدار لوجستي يحسب احتمالية أن يكون البريد الإلكتروني الذي تم إدخاله غير مرغوب فيه أو ليس غير مرغوب فيه. أثناء الاستنتاج، لنفترض أن النموذج يتنبأ بـ 0.72. لذلك، فإن النموذج يقدر:

  • احتمال 72٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • احتمال بنسبة 28٪ ألا تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية التالية المكونة من خطوتين:

  1. يُنشئ النموذج تنبؤًا أوليًا (y) عن طريق تطبيق دالة خطية لميزات الإدخال.
  2. ويستخدم النموذج هذا التوقّع الأولي كإدخال في دالة سينية، والتي تحوِّل التوقّع الأولي إلى قيمة بين 0 و1 بشكل حصري.

يتنبأ نموذج الانحدار اللوجستي برقم، تمامًا مثل أي نموذج انحدار. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج التصنيف الثنائي على النحو التالي:

  • إذا كان العدد المتوقَّع أكبر من حدّ التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة الموجبة.
  • إذا كان العدد المتنبأ به أقل من حد التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة السالبة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدَمة في الانحدار اللوجستي الثنائي.

لوغاريتم احتمال

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث.

خسارة

#fundamentals

أثناء تدريب نموذج خاضع للإشراف، يتم قياس مدى بُعد التوقّع للنموذج عن علامته.

تحسب دالة الخسارة مقدار الخسارة.

منحنى الخسارة

#fundamentals

مخطط loss كدالة لعدد تكرارات التدريب. يُظهر المخطط التالي منحنى خسارة نموذجي:

رسم بياني الديكارتي للخسارة مقابل التكرارات للتدريب، يوضح انخفاضًا سريعًا في الخسارة في التكرارات الأولية، يليها انخفاض تدريجي،
 ومن ثم انحدارًا مستويًا في التكرارات النهائية.

يمكن أن تساعدك منحنيات الخسارة في تحديد الوقت الذي يتغير فيه النموذج أو فرط التخصيص.

ويمكن أن توضح منحنيات الخسارة جميع أنواع الخسارة التالية:

راجِع أيضًا منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، هي دالة رياضية تحسب الخسارة في مجموعة من الأمثلة. تعرض دالة الخسارة خسارة أقل للنماذج التي تقدم تنبؤات جيدة مقارنةً بالنماذج التي تقدّم تنبؤات سيئة.

عادة ما يكون الهدف من التدريب هو تقليل الخسارة التي تنتجها دالة الخسارة.

هناك العديد من الأنواع المختلفة لدوال الخسارة. اختر دالة الخسارة المناسبة لنوع النموذج الذي تقوم بإنشائه. مثال:

ن

تعلُم الآلة

#fundamentals

يشير ذلك المصطلح إلى برنامج أو نظام يدرّب نموذجًا من البيانات التي يتم إدخالها. يمكن للنموذج المدرَّب أن يقدم تنبؤات مفيدة من خلال بيانات جديدة (لم يتم رؤيتها من قبل) مأخوذة من التوزيع ذاته المستخدم في تدريب النموذج.

يشير التعلم الآلي أيضًا إلى مجال الدراسة المختص بهذه البرامج أو الأنظمة.

حصة الأغلبية

#fundamentals

التسمية الأكثر شيوعًا في مجموعة البيانات غير المتوازنة. على سبيل المثال، إذا كانت هناك مجموعة بيانات تحتوي على تسميات سالبة بنسبة 99٪ وتسميات إيجابية بنسبة 1٪، تكون التسميات السلبية هي الفئة الأغلبية.

تباين مع فئة الأقلية.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في تكرار واحد. يتراوح عادةً حجم الدفعة في الدفعة الصغيرة بين 10 أمثلة و1,000 مثال.

على سبيل المثال، لنفترض أن مجموعة التدريب بأكملها (الدُفعة الكاملة) تتكون من 1000 مثال. لنفترض أيضًا أنك ضبطت حجم كل دفعة صغيرة لكل دفعة صغيرة على 20. لذلك، يحدد كل تكرار عدم وجود 20 مثالًا من بين 1,000 مثال ثم يضبط القيم المرجحة والتحيزات وفقًا لذلك.

يكون حساب الخسارة في دفعة صغيرة أكثر فاعلية بكثير من الخسارة في جميع الأمثلة في المجموعة الكاملة.

فئة الأقلية

#fundamentals

التسمية الأقل شيوعًا في مجموعة البيانات غير المتوازنة. على سبيل المثال، إذا كانت هناك مجموعة بيانات تحتوي على تسميات سالبة بنسبة 99٪ وتسميات إيجابية بنسبة 1٪، فإن التسميات الإيجابية هي فئة الأقلية.

قارِنها مع فئة الأغلبية.

model

#fundamentals

بشكل عام، أي بناء رياضي يعمل على معالجة بيانات الإدخال وعرض الناتج. تتم صياغة النموذج بشكل مختلف، فهو مجموعة من المعلمات والبنية اللازمة للنظام لإجراء التنبؤات. في تعلُّم الآلة المراقَب، يأخذ النموذج مثالاً كمدخلات ويستنتج توقعًا كمخرجات. ضمن التعلم الآلي الخاضع للإشراف، تختلف النماذج إلى حد ما. مثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

تُنشئ التعلُّم الآلي غير الخاضع للإشراف أيضًا نماذج، وعادةً ما تكون دالة يمكنها ربط مثال مُدخل بالمجموعة الأكثر ملاءمةً.

التصنيف المتعدّد الفئات

#fundamentals

في التعلم المُوجّه، يشير ذلك المصطلح إلى مشكلة تصنيف تتضمّن مجموعة البيانات فيها أكثر من فئتين من التصنيفات. على سبيل المثال، يجب أن تكون التسميات الموجودة في مجموعة بيانات Iris واحدة من الفئات الثلاث التالية:

  • إيريس سيتوسا
  • زهور السوسن العذراء
  • قزحية ملونة

هناك نموذج مدرَّب على مجموعة بيانات Iris والذي يتنبأ بنوع زهور Iris ضمن الأمثلة الجديدة، وهو إجراء التصنيف متعدد الفئات.

وفي المقابل، فإن مشكلات التصنيف التي تميز فئتين بالضبط هي نماذج التصنيف الثنائي. على سبيل المثال، نموذج البريد الإلكتروني الذي يتوقع رسائل غير مرغوب فيها أو ليس رسائل غير مرغوب فيها هو نموذج تصنيف ثنائي.

في مشكلات التجميع العنقودي، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

N

فئة سالبة

#fundamentals

في التصنيف الثنائي، تسمى إحدى الفئات إيجابي والأخرى سلبية. الفئة الموجبة هي الشيء أو الحدث الذي يختبر النموذج من أجله والفئة السالبة هي الاحتمال الآخر. مثال:

  • قد تكون الفئة السالبة في الفحص الطبي "ليست ورمًا".
  • الفئة السلبية في مصنف البريد الإلكتروني قد تكون "ليست رسائل غير مرغوب فيها".

التباين مع الفئة الإيجابية.

شبكة عصبية

#fundamentals

model يحتوي على model واحدة على الأقل. الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية. على سبيل المثال، يوضح الرسم التخطيطي التالي شبكة عصبية عميقة تحتوي على طبقتين مخفيتين.

يشير ذلك المصطلح إلى شبكة عصبية تضم طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج.

وتتصل كل خلية عصبية في الشبكة العصبية بجميع النقاط في الطبقة التالية. على سبيل المثال، في المخطط السابق، لاحظ أن كل خلية من الخلايا العصبية الثلاث في الطبقة المخفية الأولى تتصل بشكل منفصل بكلتا الخليتين العصبيتين في الطبقة المخفية الثانية.

تُعرف الشبكات العصبية المنفَّذة على أجهزة الكمبيوتر أحيانًا باسم الشبكات العصبية الاصطناعية لتمييزها عن الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

يمكن لبعض الشبكات العصبية محاكاة العلاقات غير الخطية المعقدة للغاية بين الخصائص المختلفة والتصنيف.

راجِع أيضًا الشبكة العصبية الالتفافية والشبكة العصبية المتكررة.

عصبون

#fundamentals

في تقنية تعلُّم الآلة، يشير هذا المصطلح إلى وحدة مميزة داخل طبقة مخفية من شبكة عصبية. تنفذ كل خلية عصبية الإجراء المكون من خطوتين:

  1. لحساب المجموع المرجح لقيم الإدخال مضروبة في الترجيحات المقابلة لها.
  2. لتمرير المجموع المرجح كإدخال في دالة تفعيل.

تقبل الخلية العصبية في الطبقة المخفية الأولى المدخلات من قيم الخصائص في طبقة الإدخال. الخلية العصبية في أي طبقة مخفية أخرى تقبل المدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، تقبل الخلية العصبية في الطبقة المخفية الثانية مدخلات من الخلايا العصبية في الطبقة المخفية الأولى.

يُبرز الرسم التوضيحي التالي خليتين عصبيتين وإدخالاتهما.

يشير ذلك المصطلح إلى شبكة عصبية تضم طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج. يتم تمييز خليتين من الخلايا العصبية: إحداهما في الطبقة المخفية الأولى والأخرى في الطبقة المخفية الأخرى. وتتلقى الخلية العصبية المميزة في أول طبقة مخفية مدخلات من كلتا الميزتين في طبقة الإدخال. الخلية العصبية المظللة في الطبقة المخفية الثانية تتلقى مدخلات من كل خلية من الخلايا الثلاث في الطبقة المخفية الأولى.

تحاكي خلايا عصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وأجزاء أخرى من الأجهزة العصبية.

العقدة (الشبكة العصبية)

#fundamentals

خلية عصبية في طبقة مخفية.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيرَين أو أكثر لا يمكن تمثيلهما فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، ضع في اعتبارك نموذجين يربط كل منهما ميزة واحدة بتسمية واحدة. النموذج الموجود على اليسار خطي والنموذج على اليمين غير خطي:

مخططين. أحد المخططات عبارة عن خط، لذا فهذه علاقة خطية.
          أما المخطط الآخر فهو منحنى، ولذلك فهذه علاقة غير خطية.

عدم الاستقرار

#fundamentals

يشير ذلك المصطلح إلى عنصر تتغيّر قيمه على مستوى سمة واحدة أو أكثر، وعادةً ما تكون المدة الزمنية. على سبيل المثال، يمكن النظر في الأمثلة التالية على عدم الاستقرار:

  • يختلف عدد ملابس السباحة التي يتم بيعها في متجر معيّن باختلاف الموسم.
  • كمية فاكهة معينة تم حصادها في منطقة معينة تساوي صفرًا في معظم فترات العام ولكنها كبيرة لفترة وجيزة.
  • بسبب التغيّر المناخي، يتغير متوسط درجات الحرارة السنوية.

تتعارض مع الثبات.

تسوية

#fundamentals

بشكل عام، عملية تحويل النطاق الفعلي للمتغير إلى نطاق قياسي من القيم، مثل:

  • -1 إلى 1+
  • 0 إلى 1
  • التوزيع الطبيعي

على سبيل المثال، لنفترض أن النطاق الفعلي للقيم لميزة معينة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل 1-1 إلى +1.

التسوية هي مهمة شائعة في هندسة الميزات. يتم تدريب النماذج عادةً بشكل أسرع (وتنشئ توقّعات أفضل) عندما يكون لكل ميزة عددية في خط متجه الميزات النطاق نفسه تقريبًا.

بيانات رقمية

#fundamentals

الميزات التي يتم تمثيلها كأعداد صحيحة أو أرقام ذات قيمة حقيقية. على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنزل حجم المنزل (بالقدم المربع أو بالمتر المربع) كبيانات رقمية. يشير تمثيل ميزة كبيانات رقمية إلى أن قيم الميزة لها علاقة رياضية بالتسمية. أي أن عدد الأمتار المربعة في المنزل ربما ترتب له علاقة رياضية بقيمة المنزل.

لا يجب تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال، تكون الرموز البريدية في بعض أجزاء العالم أعدادًا صحيحة، ومع ذلك لا يجب تمثيل الرموز البريدية للأعداد الصحيحة كبيانات رقمية في النماذج. ويرجع ذلك إلى أنّ الرمز البريدي 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. إضافةً إلى ذلك، على الرغم من أنّ الرموز البريدية المختلفة ترتبط بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20000 تساوي ضعف قيم العقارات حسب الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات فئوية بدلاً من ذلك.

يُطلق على الميزات العددية أحيانًا اسم الميزات المستمرة.

O

بلا إنترنت

#fundamentals

مرادف لكلمة static.

الاستنتاج بلا اتّصال بالإنترنت

#fundamentals

يشير ذلك المصطلح إلى عملية إنشاء مجموعة من التوقّعات، ثم تخزينها مؤقتًا (حفظها). ويمكن للتطبيقات بعد ذلك الوصول إلى التوقّع المستنتج من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في اعتبارك نموذجًا يُنشئ توقّعات عن الطقس المحلي (التوقّعات) مرة كل أربع ساعات. بعد تشغيل كل نموذج، يخزن النظام مؤقتًا جميع توقعات الطقس المحلية. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت

ويُسمى الاستنتاج بلا اتصال بالإنترنت أيضًا الاستنتاج الثابت.

يتعارض مع الاستنتاج على الإنترنت

ترميز واحد فعال

#fundamentals

تمثيل البيانات الفئوية كمتّجه:

  • تم ضبط عنصر واحد على 1.
  • يتم تعيين جميع العناصر الأخرى على 0.

يُستخدم الترميز الأحادي بشكل شائع لتمثيل السلاسل أو المعرّفات التي تحتوي على مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أن ميزة فئوية معينة تُسمى Scandinavia تتضمن خمس قيم محتملة:

  • "الدانمرك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي كل قيمة من القيم الخمس على النحو التالي:

بلد المتجه
"الدانمرك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

فبفضل الترميز الأحادي، يستطيع النموذج أن يتعلم علاقات مختلفة بناءً على كل دولة من البلدان الخمسة.

إنّ تمثيل الميزة على أنّها بيانات رقمية هو بديل للترميز الأحادي. لسوء الحظ، فإن تمثيل البلدان الاسكندنافية عدديًا ليس خيارًا جيدًا. على سبيل المثال، ضع في اعتبارك التمثيل الرقمي التالي:

  • "الدانمرك" 0
  • "السويد" هو 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • ذكرى "آيسلندا" هي 4

باستخدام الترميز الرقمي، يمكن لأي نموذج تفسير الأرقام الأولية رياضيًا ومحاولة التدرّب على هذه الأرقام. ومع ذلك، فإن أيسلندا ليست في الواقع ضعف (أو نصف هذا العدد) من شيء ما مثل النرويج، لذلك فإن النموذج سيتوصل إلى بعض الاستنتاجات الغريبة.

واحد مقابل-الكل

#fundamentals

ننظر إلى مشكلة تصنيف بالفئات N، وهو حل يتكون من مصنِّفات ثنائية منفصلة من حيث التصنيف، ومصنِّفًا ثنائيًا واحد لكل نتيجة ممكنة. على سبيل المثال، إذا كان هناك نموذج يصنف الأمثلة على أنها حيوان أو خضروات أو معدن، سيوفر الحل "واحد مقابل الكل" المصنِّفات الثنائية الثلاثة المنفصلة التالية:

  • حيوان مقابل ليس حيوانًا
  • خضار مقابل غير نباتي
  • معدني مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف ديناميكية.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، افترض أن التطبيق يمرر الإدخال إلى نموذج ويصدر طلبًا لتوقع. يستجيب النظام الذي يستخدم الاستنتاج عبر الإنترنت للطلب من خلال تشغيل النموذج (وإرجاع التنبؤ إلى التطبيق).

تتعارض مع الاستنتاج بلا إنترنت:

طبقة المخرجات

#fundamentals

الطبقة "النهائية" للشبكة العصبية. تحتوي طبقة الإخراج على التنبؤ.

يُظهر الرسم التوضيحي التالي شبكة عصبية صغيرة عميقة مع طبقة إدخال وطبقتَين مخفيّة وطبقة إخراج:

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتكون طبقة الإدخال من سمتين. والطبقة الأولى المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية تتكون من خليتين عصبيتين. تتكون طبقة الإخراج من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء model يتطابق مع model بدرجة كبيرة بحيث يتعذّر على النموذج تقديم توقّعات صحيحة بشأن البيانات الجديدة

يمكن أن يقلل التسوية من فرط التخصيص. يمكن أيضًا أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوّعة إلى تقليل فرط التخصيص.

P

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات المستندة إلى الأعمدة تم إنشاؤها باستخدام numpy. تدعم العديد من أطر عمل التعلم الآلي، بما في ذلك TensorFlow، هياكل بيانات الباندا كمدخلات. راجع وثائق pandas للحصول على التفاصيل.

مَعلمة

#fundamentals

المؤشرات والانحيازات التي يتعلّمها النموذج خلال التدريب على سبيل المثال، في نموذج الانحدار الخطي، تتألف المعلَمات من الانحياز (b) وجميع القيم التقديرية (w1، وw2، وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المعلَمة الفائقة هي القيم التي توفِّرها أنت (أو خدمة تحويل المَعلمة الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة.

الفئة الموجبة

#fundamentals

الصف الذي تختبره.

على سبيل المثال، قد تكون الفئة الموجبة في نموذج السرطان هي "ورم". الفئة الإيجابية في مصنف البريد الإلكتروني هي "محتوى غير مرغوب فيه".

تباين مع الفئة السالبة.

مرحلة ما بعد المعالجة

#fairness
#fundamentals

ضبط مخرجات نموذج بعد تشغيل النموذج. يمكن استخدام مرحلة ما بعد المعالجة لفرض قيود الإنصاف بدون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على المصنِّف الثنائي من خلال ضبط حدّ تصنيف ليتم الحفاظ على مساواة الفرص في بعض السمات من خلال التحقّق من أنّ المعدّل الموجبة الصحيح هو نفسه لجميع قيم تلك السمة.

التوقّع

#fundamentals

ناتج النموذج. مثال:

  • يكون التنبؤ بنموذج التصنيف الثنائي إما الفئة الموجبة أو الفئة السالبة.
  • يكون التنبؤ بنموذج التصنيف متعدد الفئات فئة واحدة.
  • يكون التنبؤ بنموذج الانحدار الخطي رقمًا.

تصنيفات الخادم الوكيل

#fundamentals

إنّ البيانات المستخدمة لتقريب التصنيفات لا تتوفر مباشرةً في مجموعة بيانات.

على سبيل المثال، افترض أنه يجب عليك تدريب نموذج للتنبؤ بمستوى إجهاد الموظف. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية ولكنها لا تحتوي على تصنيف يسمى مستوى الإجهاد. بدون شجاعة، يمكنك اختيار "حوادث مكان العمل" كتسمية وكيل لمستوى الإجهاد. بعد كل شيء، يتعرض الموظفون الذين يتعرضون لضغط شديد إلى حوادث أكثر من الموظفين الهادئين. أم أنها؟ ربما ترتفع حوادث محل العمل وتتراجع لأسباب متعددة.

كمثال ثانٍ، لنفترض أنك تريد أن يكون هل تمطر؟ تصنيفًا منطقيًا لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات أمطار. في حال توفّر الصور، يمكنك إنشاء صور لأشخاص يحملون مظلات كتصنيف للخادم الوكيل هل تمطر؟ هل هذه تسمية وكيل جيدة؟ ربما، لكن الناس في بعض الثقافات قد يكونون أكثر عرضة لحمل المظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. إذا أمكن، اختر تسميات فعلية بدلاً من تسميات الوكيل. مع ذلك، في حال غياب التصنيف الفعلي، اختَر تصنيف الخادم الوكيل بعناية شديد، مع اختيار تصنيف الخادم الوكيل الأقل فظًا.

R

دالة RAG

#fundamentals

اختصار لعبارة إنشاء البيانات المعززة باسترداد البيانات.

مصنِّف

#fundamentals

مستخدم يقدّم تصنيفات لتقديم أمثلة "Annotator" هي اسم آخر للمصنِّف.

وحدة خطية مصحّحة (ReLU)

#fundamentals

دالة تفعيل لها السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان المُدخل موجبة، يكون المُخرج مساويًا للمُدخل.

مثال:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المُدخل +3، يكون المُخرج 3.0.

في ما يلي مخطط ReLU:

مخطط الديكارتي من سطرين. للسطر الأول قيمة ص ثابتة تساوي 0، ويمتد على المحور x من -لانهاية,0 إلى 0,-0.
          ويبدأ السطر الثاني من 0,0. هذا الخط له انحدار +1، ولذلك
          يتراوح من 0,0 إلى +لانهاية،+لانهاية.

تُعد ReLU دالة تنشيط شائعة للغاية. وعلى الرغم من سلوك ReLU البسيط، لا يزال بإمكان الشبكة العصبية التعرّف على العلاقات غير الخطية بين الميزات والتصنيف.

نموذج الانحدار

#fundamentals

بشكل غير رسمي، نموذج يقوم بإنشاء تنبؤ عددي. (على النقيض، يُنشئ نموذج التصنيف تنبؤًا بالفئة العمرية). على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • نموذج يتنبأ بقيمة منزل معين، مثل 423000 يورو.
  • نموذج يتنبأ بمتوسط العمر المتوقع لشجرة معينة، مثل 23.2 سنة.
  • نموذج يتنبأ بكمية الأمطار التي ستتساقط في مدينة معينة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار:

ليس كل نموذج ينتج تنبؤات رقمية هو نموذج انحدار. في بعض الحالات، يكون التنبؤ الرقمي مجرد نموذج تصنيف يحدث لوجود أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبأ برمز بريدي رقمي هو نموذج تصنيف وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلِّل من فرط التخصيص تشمل الأنواع الشائعة للتسوية ما يلي:

كما يمكن تعريف التسوية على أنها عقوبة على مدى تعقيد النموذج.

معدل التسوية

#fundamentals

رقم يحدد الأهمية النسبية للانتظام أثناء التدريب. ويؤدي رفع معدّل التنظيم إلى تقليل فرط التخصيص، ولكنه قد يقلل من القدرة التنبؤية للنموذج. وعلى العكس من ذلك، فإن تقليل معدل التسوية أو حذفه يزيد من فرط التخصيص.

ReLU

#fundamentals

اختصار الوحدة الخطية التي تم محوها

تكنولوجيا الجيل المعزز باسترداد البيانات (RAG)

#fundamentals

يشير ذلك المصطلح إلى أسلوب لتحسين جودة نتائج النموذج اللغوي الكبير (LLM) من خلال الاستعانة بمصادر المعرفة المستفادة بعد تدريب النموذج. وتساهم تقنية RAG في تحسين دقة الردود اللغوية الكبيرة من خلال توفير إمكانية الوصول إلى المعلومات المستخرَجة من قواعد معرفية أو مستندات موثوق بها للنموذج اللغوي الكبير.

تشمل الدوافع الشائعة لاستخدام الإنشاء المعزز باسترداد البيانات ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها النموذج
  • منح النموذج إمكانية الوصول إلى المعرفة التي لم يتم تدريبها.
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاستشهاد بالمصادر.

على سبيل المثال، لنفترض أنّ أحد تطبيقات الكيمياء يستخدم PaLM API لإنشاء ملخّصات ذات صلة بطلبات بحث المستخدمين. عندما تتلقى الواجهة الخلفية للتطبيق طلب بحث، تكون الخلفية:

  1. للبحث عن ("استرداد") البيانات ذات الصلة بطلب بحث المستخدم.
  2. ترفق ("الزيادة") البيانات الكيميائية ذات الصلة بطلب بحث المستخدم.
  3. توجه النموذج اللغوي الكبير لإنشاء ملخص استنادًا إلى البيانات الملحقة.

منحنى ROC (خاصية تشغيل المستقبِل)

#fundamentals

رسم بياني للمعدّل الموجبة الصحيح مقابل معدّل الحالات الموجبة الخاطئة لحدود التصنيف المختلفة في التصنيف الثنائي.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. لنفترض على سبيل المثال أن نموذج التصنيف الثنائي يفصل تمامًا جميع الفئات السالبة عن جميع الفئات الإيجابية:

سطر أرقام يضم 8 أمثلة موجبة على الجانب الأيمن و7 أمثلة سالبة على اليسار.

يظهر منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو المعدل الإيجابي الخاطئ والمحور
          الصادي هو معدل موجب صائب. يحتوي المنحنى على شكل L مقلوب. يبدأ المنحنى عند (0.0,0.0) ثم ينتقل مباشرة إلى (0.0,1.0). ثم ينتقل المنحنى من (0.0,1.0) إلى (1.0,1.0).

في المقابل، يرسم الرسم التوضيحي التالي قيم الانحدار اللوجستي الأولية لأي نموذج سيئ لا يمكنه الفصل بين الفئات السالبة والفئات الإيجابية على الإطلاق:

سطر أرقام يتضمن أمثلة إيجابية وفئات سلبية
          مختلط تمامًا.

يبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

في الوقت نفسه، في العالم الحقيقي، تعمل معظم نماذج التصنيف الثنائي على الفصل بين الفئات الإيجابية والسلبية إلى حدٍ ما، ولكن ليس بشكل مثالي عادةً. لذلك، يقع منحنى ROC النموذجي في مكان ما بين الطرفين:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو المعدل الإيجابي الخاطئ والمحور
          الصادي هو معدل موجب صائب. يقترب منحنى خاصية تشغيل جهاز الاستقبال من قوس مهتز يتقاطع مع نقاط البوصلة من الغرب إلى الشمال.

تحدد النقطة على منحنى خاصية تشغيل جهاز الاستقبال الأقرب إلى (0.0,1.0) نظريًا عتبة التصنيف المثالية. ومع ذلك، تؤثر العديد من مشكلات العالم الواقعي على اختيار حد التصنيف المثالي. على سبيل المثال، ربما تسبب النتائج السالبة الخاطئة ألمًا أكبر بكثير من النتائج الموجبة الخاطئة.

يلخص مقياس عددي يسمى AUC منحنى خاصية تشغيل جهاز الاستقبال في قيمة نقطة عائمة واحدة.

جذر الخطأ التربيعي المتوسّط (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

S

الدالّة الإسية

#fundamentals

دالة رياضية "تقوم بضغط" قيمة الإدخال في نطاق مقيّد، عادةً 0 إلى 1 أو -1 إلى +1. وهذا يعني أنه يمكنك تمرير أي رقم (اثنان، مليون، مليار سالب، أيًا كان) إلى الدالة السينية، وسيظل الناتج في النطاق المقيد. يظهر مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحنٍ ثنائي الأبعاد يحتوي على قيم x تمتد من النطاق - من لانهائي إلى + إيجابي، بينما تمتد قيم y إلى النطاق من 0 إلى 1 تقريبًا. عندما تكون x تساوي 0، تكون y تساوي 0.5. يكون انحدار المنحنى
 موجبًا دائمًا، مع ازدياد أعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًّا مع زيادة القيمة المطلقة لـ x.

هناك عدة استخدامات للدالة السينية في التعلم الآلي، بما في ذلك:

softmax

#fundamentals

دالة تحدِّد الاحتمالات لكل فئة محتملة في نموذج تصنيف متعدد الفئات. تضيف الاحتمالات ما يصل إلى 1.0 بالضبط. على سبيل المثال، يوضح الجدول التالي كيفية توزيع softmax للاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ .13
حصان .02

يُطلق على Softmax أيضًا اسم full softmax.

التباين مع عيّنات المرشحين:

خاصية متفرقة

#language
#fundamentals

ميزة تكون قيمها في الغالب صفرية أو فارغة. على سبيل المثال، تكون الميزة التي تحتوي على قيمة 1 واحدة ومليون 0 متفرقة. في المقابل، تحتوي الميزة الكثيفة على قيم ليست صفرًا أو فارغة في الأساس.

في التعلم الآلي، هناك عدد مذهل من الميزات عبارة عن ميزات متفرقة. عادةً ما تكون السمات الفئوية متفرقة. على سبيل المثال، من بين 300 نوع محتمل من الأشجار في الغابة، هناك مثال واحد قد يحدد شجرة قيقب فقط. أو من بين الملايين من مقاطع الفيديو المحتملة في مكتبة الفيديو، قد يحدد مثال واحد "Casablanca" فقط.

في النموذج، أنت تمثّل عادةً ميزات متفرقة باستخدام ترميز واحد فعال. إذا كان الترميز الأحادي كبيرًا، يمكنك وضع طبقة تضمين أعلى الترميز الأحادي لتحسين الكفاءة.

تمثيل متفرق

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في ميزة متفرقة.

على سبيل المثال، لنفترض أنّ ميزة فئوية تُعرف باسم species تحدد 36 نوعًا من الأشجار في غابة معيّنة. افترض أيضًا أن كل مثال يحدد نوعًا واحدًا فقط.

يمكنك استخدام متجه ساخن لتمثيل أنواع الأشجار في كل مثال. سيحتوي الخط المتجه أحادي اللون على حرف 1 واحد (لتمثيل أنواع الأشجار المحدّدة في هذا المثال) و35 ثانية 0 (لتمثيل 35 نوعًا من الأشجار وليس في هذا المثال). لذلك، قد يبدو التمثيل الحار لـ maple كما يلي:

خط متّجه يحمل فيه المواضع من 0 إلى 23 القيمة 0، ويحمل الموضع 24 القيمة 1، ويحمل الموضع من 25 إلى 35 القيمة 0.

بدلاً من ذلك، سيحدد التمثيل المتفرق ببساطة موضع أنواع معينة. إذا كان maple في الموضع 24، سيكون تمثيل maple المتفرق ببساطة:

24

لاحظ أن التمثيل المتفرق أكثر إحكامًا بكثير من التمثيل الساخن.

متّجه متفرق

#fundamentals

يشير ذلك المصطلح إلى متجه تكون قيمه في الغالب أصفار. راجِع أيضًا الميزة المتناثرة والتنوّع.

الخسارة التربيعية

#fundamentals

مرادف لمصطلح L2 shopping.

ثابتة

#fundamentals

شيء ما تم إجراؤه مرة واحدة وليس بشكل مستمر. المصطلحان ثابت وبلا إنترنت مرادفان. في ما يلي الاستخدامات الشائعة للوضعَين الثابت وبلا إنترنت في تعلُّم الآلة:

  • نموذج ثابت (أو نموذج بلا إنترنت) هو نموذج يتم تدريبه مرة واحدة ثم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا اتصال بالإنترنت) هو عملية ينشئ من خلالها النموذج مجموعة من التوقّعات في كل مرة.

قارِنها باستخدام ديناميكي.

استنتاج ثابت

#fundamentals

مرادف الاستنتاج بلا إنترنت

استقرارية

#fundamentals

يشير ذلك المصطلح إلى ميزة لا تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون وقتًا. على سبيل المثال، إحدى الميزات التي تبدو قيمها متشابهة تقريبًا في 2021 و2023 تعرض الاتساق.

في العالم الحقيقي، عدد قليل جدًا من الميزات تُظهر الثبات. كما أن الميزات التي تتشابه مع الاستقرار (مثل مستوى سطح البحر) تتغير بمرور الوقت.

يتناقض مع عدم التوقُّف بعد ذلك.

خورازمية انحدار التدرج العشوائي (SGD)

#fundamentals

خوارزمية انحدار التدرج يكون فيها حجم الدفعة واحدًا. بعبارة أخرى، يتدرب SGD على مثال واحد يتم اختياره بشكل عشوائي من مجموعة تدريب.

تعلُّم الآلة المراقَب

#fundamentals

يمكنك تدريب model من model وmodel المقابلة. يشبه التعلم الآلي المراقَب تعلم موضوعٍ ما من خلال دراسة مجموعة من الأسئلة وإجاباتها المقابلة. بعد إتقان الربط بين الأسئلة والإجابات، يمكن للطالب بعد ذلك تقديم إجابات للأسئلة الجديدة (لم تتم رؤيتها من قبل) حول نفس الموضوع.

المقارنة مع تعلّم الآلة غير الخاضع للإشراف

ميزة اصطناعية

#fundamentals

ميزة غير موجودة بين ميزات الإدخال، ولكن مجمّعة من واحدة أو أكثر منها. وتشمل طرق إنشاء الميزات الاصطناعية ما يلي:

  • تجميع ميزة مستمرة في سلال النطاقات.
  • إنشاء عنصر مشترك للميزات.
  • ضرب (أو قسمة) قيمة واحدة في قيمة(قيم) ميزة أخرى أو في نفسها. على سبيل المثال، إذا كان a وb هما ميزتا الإدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • ab
    • أ2
  • تطبيق دالة متتالية على قيمة ميزة على سبيل المثال، إذا كان c ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • sin(c)
    • ln(c)

لا تُعتبر الميزات التي يتم إنشاؤها من خلال تسوية أو تحجيم وحده ميزات اصطناعية.

T

اختبار فقدان البيانات

#fundamentals

مقياس يمثّل خسارة النموذج مقابل مجموعة الاختبار. عند إنشاء model، فإنك تحاول عادةً تقليل فقدان الاختبار. ويرجع ذلك إلى أنّ خسارة الاختبار المنخفض تكون إشارة أقوى من انخفاض التدريب أو انخفاض فقدان التحقّق.

في بعض الأحيان، تشير الاختلافات الكبيرة بين فقدان الاختبار وفقدان التدريب أو فقدان عملية التحقق إلى أنّك بحاجة إلى زيادة معدّل الحفاظ على الصحة.

التدريب

#fundamentals

يشير ذلك المصطلح إلى عملية تحديد المَعلمات المثالية (القِيم والانحيازات) التي تتألّف من نموذج. أثناء التدريب، يقرأ النظام الأمثلة ويعدّل المَعلمات تدريجيًا. يستخدم التدريب كل مثال في أي مكان من عدة مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل خسارة النموذج أثناء تكرار تدريبي خاص. على سبيل المثال، لنفترض أن دالة الخسارة هي Mean Squared error. ربما تكون خسارة التدريب (متوسط الخطأ التربيعي) للتكرار العاشر هي 2.2، وخسارة التدريب للتكرار المائة 1.9.

يوضِّح منحنى الخسارة خسارة التدريب مقابل عدد التكرارات. يقدم منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير الانحدار لأسفل إلى أن النموذج يتحسن.
  • يشير الانحدار لأعلى إلى أن النموذج يزداد سوءًا.
  • يشير الانحدار المستوي إلى أنّ النموذج قد وصل إلى التقارب.

على سبيل المثال، يوضح منحنى الخسارة المثالي إلى حد ما:

  • يشير هذا المصطلح إلى انحدار شديد الانحدار أثناء التكرارات الأولية، ما يشير إلى تحسين سريع للنموذج.
  • الانحدار التدريجي (ولكنه لا يزال للأسفل) حتى قُرب نهاية التدريب، ما يعني مواصلة تحسين النموذج بوتيرة أبطأ نوعًا ما ثم أثناء التكرارات الأولية.
  • انحدار مستوٍ نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. ويبدأ منحنى الخسارة هذا بمنحدر حاد إلى أسفل. يستقر الميل تدريجيًا إلى أن يصبح الميل صفرًا.

على الرغم من أهمية خسارة التدريب، يمكنك الاطّلاع أيضًا على التعميم.

انحراف عرض التدريب

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء العرض.

مجموعة تدريب

#fundamentals

هي مجموعة فرعية من مجموعة البيانات المستخدَمة لتدريب نموذج.

عادةً، يتم تقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

سالب صحيح (TN)

#fundamentals

مثال الذي يتوقّع فيه النموذج بشكل صحيح الفئة السالبة. على سبيل المثال، يستنتج النموذج أنّ رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها في الواقع.

موجب صائب (TP)

#fundamentals

مثال حيث يتوقّع النموذج بشكل صحيح الفئة الإيجابية. على سبيل المثال، يستنتج النموذج أن رسالة بريد إلكتروني معينة عبارة عن رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية هي في الواقع رسالة غير مرغوب فيها.

معدل الموجب الصحيح (TPR)

#fundamentals

مرادف لكلمة recall. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

المعدل الموجبة الصائب هو المحور الصادي في منحنى خاصية تشغيل جهاز الاستقبال.

U

فرط التعميم

#fundamentals

إنشاء model ذي قدرة توقّعية ضعيفة لأنّ النموذج لم يعبّر بشكل كامل عن مدى تعقيد بيانات التدريب. يمكن أن تتسبب العديد من المشكلات في فرط التعميم، بما في ذلك:

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات ولكن بدون تصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنفة من نموذج تقييم المنزل، ولكل منها ثلاث ميزات ولكن بدون قيمة منزل:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المراقَب، تتدرب النماذج على الأمثلة المُصنَّفة وتقدِّم توقّعات على الأمثلة غير المصنَّفة.

في التعلّم شبه الخاضع للإشراف وغير الخاضع للإشراف، يتم استخدام أمثلة غير مصنَّفة أثناء التدريب.

قارِن بين المثال غير المصنّف والمثال المُصنَّف.

تعلُّم الآلة غير الخاضع للإشراف

#clustering
#fundamentals

تدريب model للعثور على أنماط في مجموعة بيانات، عادة مجموعة بيانات غير مصنفة.

إنّ الاستخدام الأكثر شيوعًا للتعلّم الآلي غير المُوجّه هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن لخوارزمية التعلم الآلي غير المُوجّهة تجميع الأغاني بناءً على خصائص مختلفة للموسيقى. ويمكن أن تصبح المجموعات العنقودية الناتجة مدخلات لخوارزميات التعلم الآلي الأخرى (على سبيل المثال، لخدمة اقتراح الموسيقى). يمكن أن يساعد التجميع العنقودي عندما تكون التسميات المفيدة نادرة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن للمجموعات أن تساعد المستخدمين على فهم البيانات بشكل أفضل.

على عكس التعلُّم الآلي الخاضع للإشراف

V

التحقّق من الصحة

#fundamentals

تمثّل هذه السمة التقييم الأولي لجودة النموذج. يتحقّق التحقق من جودة توقّعات النموذج وفقًا لمجموعة التحقّق.

نظرًا لاختلاف مجموعة التحقق عن مجموعة التدريب، يساعد التحقق من الصحة في الحماية من فرط التخصيص.

قد تفكر في تقييم النموذج مقابل مجموعة التحقق التي تم تعيينها على أنها الجولة الأولى من الاختبار وتقييم النموذج في مقابل مجموعة الاختبار باعتبارها الجولة الثانية من الاختبار.

فقدان التحقّق من الصحة

#fundamentals

مقياس يمثّل خسارة النموذج في مجموعة التحقّق أثناء تكرار للتدريب

راجِع أيضًا منحنى التعميم.

مجموعة التحقق

#fundamentals

المجموعة الفرعية من مجموعة البيانات التي تُجري تقييمًا أوليًا مقابل نموذج مدرَّب. عادةً ما يتم تقييم النموذج المدرَّب مقابل مجموعة التحقق عدة مرات قبل تقييم النموذج مقارنةً بمجموعة الاختبار.

عادةً، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث المميزة التالية:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

واط

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها النموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، الاستنتاج هو عملية استخدام تلك الأوزان المستفادة لإجراء تنبؤات.

المجموع المرجح

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبة بالتقديرات المقابلة لها. على سبيل المثال، لنفترض أنّ المدخلات ذات الصلة تتألف مما يلي:

قيمة الإدخال وزن الإدخال
2 -1.3
-1 0.6
3 0.4

وبالتالي يكون المجموع المرجح:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال لدالة تفعيل.

Z

تسوية الدرجة المعيارية

#fundamentals

يشير ذلك المصطلح إلى أسلوب scaling يستبدل قيمة feature الأولية بقيمة نقطة عائمة تمثِّل عدد الانحرافات المعيارية عن متوسّط هذه الميزة. على سبيل المثال، ضع في الاعتبار ميزة يبلغ متوسطها 800 وانحرافها المعياري 100. يوضح الجدول التالي كيف يمكن لتسوية الدرجة Z تعيين القيمة الأولية إلى الدرجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

ثم يتدرب نموذج التعلم الآلي على درجات Z لهذه الميزة بدلاً من القيم الأولية.