مسرد مصطلحات التعلم الآلي: أساسيات تعلّم الآلة

تحتوي هذه الصفحة على مصطلحات مسرد أساسيات الذكاء الاصطناعي. للاطّلاع على جميع مصطلحات المسرد، انقر على هذا الرابط.

A

الدقة

#fundamentals

عدد التوقّعات الصحيحة للتصنيف مقسومًا على إجمالي عدد التوقّعات والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، إذا كان النموذج قدّم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة، ستكون دقته على النحو التالي:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء محدّدة لفئات مختلفة من التوقّعات الصحيحة و التوقّعات غير الصحيحة. وبالتالي، فإنّ صيغة الدقة للتصنيف الثنائي هي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

قارِن بين الدقة و الدقّة و اكتمال التوقعات الإيجابية.

اطّلِع على التصنيف: الدقة ومعدل الاسترجاع والدقة والمقاييس المتعلّقة في الدورة التدريبية المكثّفة لتعلُّم الآلة لمزيد من المعلومات.

دالة التفعيل

#fundamentals

دالة تتيح للشبكات العصبية تعلُّمالعلاقات غير الخطية (المعقدة) بين السمات والتصنيف.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون الرسوم البيانية لدوالّ التنشيط خطوطًا مستقيمة فردية أبدًا. على سبيل المثال، يتألّف الرسم البياني لدالة تنشيط ReLU من سطرين مستقيمين:

رسم بياني كارتيزيتي لخطَّين يحتوي السطر الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني عند 0,0. يمتلك هذا الخط ميلًا موجبًا +1، لذا
          يمتد من 0,0 إلى +∞,+∞.

يظهر الرسم البياني لدالة التنشيط السينية على النحو التالي:

رسم بياني منحني ثنائي الأبعاد بقيم x تتراوح بين ما يلي:
          ما لا نهاية إلى موجب، بينما تتراوح قيم y بين 0 تقريبًا
          و1 تقريبًا. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

اطّلِع على الشبكات العصبية: وظائف activation في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

الذكاء الاصطناعي

#fundamentals

برنامج أو نموذج غير بشري يمكنه حلّ مهام معقّدة على سبيل المثال، يعتمد كلّ من البرنامج أو النموذج الذي يترجم النصوص أو البرنامج أو النموذج الذي يحدد الأمراض من الصور الشعاعية على الذكاء الاصطناعي.

من الناحية الرسمية، تعلُّم الآلة هو حقل فرعي من الذكاء الاصطناعي. ومع ذلك، في السنوات الأخيرة، بدأت بعض المؤسسات في استخدام مصطلحَي الذكاء الاصطناعي وتعلُّم الآلة بالتبادل.

المساحة تحت منحنى ROC

#fundamentals

رقم يتراوح بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. وكلما اقترب مقياس AUC من 1.0، كانت قدرة النموذج على فصل الفئات عن بعضها أفضل.

على سبيل المثال، تعرض الصورة التوضيحية التالية نموذجًا للتصنيف يفصل بين الفئات الموجبة (المربّعات الخضراء) والفئات السالبة (المربّعات البنفسجية) بشكلٍ مثالي. يحقّق هذا النموذج المثالي غير الواقعي قيمة AUC تبلغ 1.0:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على أحد الجانبين
          9 أمثلة سلبية على الجانب الآخر

في المقابل، تعرض الصورة التوضيحية التالية نتائج نموذج يندرج ضمن فئة المصنّفات ويُنشئ نتائج عشوائية. يحقّق هذا النموذج قيمة AUC تبلغ 0.5:

خطّ أعداد يتضمّن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو إيجابي، سلبي،
          إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي
          سلبي، إيجابي، سلبي.

نعم، يمتلك النموذج السابق قيمة AUC تبلغ 0.5، وليس 0.0.

تقع معظم النماذج بين هذين الحدّين. على سبيل المثال، يفصل النموذج التالي القيم الإيجابية عن القيم السلبية إلى حدّ ما، وبالتالي يكون له مقياس AUC بين 0.5 و1.0:

خطّ أعداد يتضمّن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو سلبي، سلبي، سلبي، سلبي،
          إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي،
          إيجابي.

يتجاهل مقياس AUC أي قيمة تحدّدها ل عتبة التصنيف. بدلاً من ذلك، تأخذ AUC جميع عتبات التصنيف الممكنة في الاعتبار.

اطّلِع على التصنيف: مخطّط ROC و AUC في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

B

الانتشار العكسي

#fundamentals

الخوارزمية التي تنفِّذ انحدار التدرج في الشبكات العصبية

يتضمن تدريب شبكة عصبية العديد من iterations لدورة المرورَين التالية:

  1. أثناء الخطوة إلى الأمام، يعالج النظام مجموعة من الأمثلة لتقديم توقّعات. يقارن النظام كلّ توقّع بكل قيمة تصنيف. الفرق بين التوقّع وقيمة التصنيف هو الخسارة لهذا المثال. يجمع النظام خسائر جميع النماذج لاحتساب إجمالي خسائر المجموعة الحالية.
  2. أثناء الخطوة الخلفية (الانتشار العكسي)، يحدّ النظام من الخسارة من خلال تعديل أوزان جميع الخلايا العصبية في جميع الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات المخفية. تساهم كل خلية عصبية من هذه الخلايا في إجمالي الخسارة بطرق مختلفة. تحدِّد تقنية الانتشار العكسي ما إذا كان يجب زيادة أو خفض الأوزان المطبَّقة على خلايا عصبية معيّنة.

معدّل التعلّم هو مُضاعِف يتحكّم في الدرجة التي تزيد بها كلّ خطوة للخلف أو تقلّل كلّ وزن. سيؤدي معدّل التعلّم الكبير إلى زيادة أو خفض كلّ وزن أكثر من معدّل التعلّم الصغير.

في مصطلحات التحليلات الرياضية، تُنفِّذ تقنية الانتشار العكسي قاعدة السلسلة. من التحليلات الرياضية. وهذا يعني أنّ طريقة الانتشار العكسي تحسب الناقصة الجزئية للخطأ بالاستناد إلى كل مَعلمة.

قبل سنوات، كان على خبراء الذكاء الاصطناعي كتابة رمز برمجي لتنفيذ تقنية الانتشار العكسي. تُنفِّذ الآن واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل Keras، تقنية الانتشار العكسي نيابةً عنك. أخيرًا!

اطّلِع على الشبكات العصبية في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

دفعة

#fundamentals

مجموعة الأمثلة المستخدَمة في جولة تدريب واحدة يحدِّد حجم الحزمة عدد الأمثلة في الحزمة.

اطّلِع على الفاصل الزمني للحصول على شرح عن كيفية ارتباط الحزمة بالفاصل الزمني.

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

حجم الدفعة

#fundamentals

عدد عيّنات في مجموعة. على سبيل المثال، إذا كان حجم المجموعة 100، يعالج النموذج 100 مثال في كل جولة.

في ما يلي استراتيجيات حجم الحِزم الشائعة:

  • النزول المتدرج العشوائي (SGD)، حيث يكون حجم المجموعة 1.
  • مجموعة كاملة، حيث يكون حجم المجموعة هو عدد النماذج في مجموعة التدريب بأكملها. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، سيكون حجم المجموعة المجمّعة مليون مثال. وعادةً ما تكون الحِزم الكاملة استراتيجية غير فعّالة.
  • الحِزم الصغيرة التي يتراوح حجم الحزمة فيها عادةً بين 10 و1,000 وعادةً ما تكون استراتيجية "الحِزم الصغيرة" هي الأكثر فعالية.

اطّلِع على ما يلي للحصول على مزيد من المعلومات:

الانحياز (الأخلاق/الإنصاف)

#fairness
#fundamentals

1. الصور النمطية أو التحيز أو التفضيل لبعض الأشياء أو الأشخاص أو المجموعات على حساب آخرين ويمكن أن تؤثّر هذه الانحيازات في جمع البيانات وتفسيرها وتصميم النظام وكيفية تفاعل المستخدمين معه. تشمل أشكال هذا النوع من التحيز ما يلي:

2. خطأ منهجي ناتج عن إجراء أخذ عينات أو إعداد تقارير تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بين هذا المصطلح ومصطلح الانحياز في نماذج تعلُّم الآلة أو الانحياز في التنبؤ.

اطّلِع على الإنصاف: أنواع الانحياز في دورة التعرّف الآلي التدريبية المختصرة للحصول على مزيد من المعلومات.

الانحياز (الرياضيات) أو مصطلح الانحياز

#fundamentals

نقطة تقاطع أو إزاحة من نقطة أصل الانحياز هو مَعلمة في نماذج تعلُّم الآلة، ويُرمز إليه بأيّ مما يلي:

  • ب
  • w0

على سبيل المثال، التحيز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني الانحياز "نقطة التقاطع مع محور y". على سبيل المثال، قيمة تحيز الخط في الرسم التوضيحي التالي هي 2.

رسم خط مستقيم بميل 0.5 وانحراف (نقطة تقاطع y)‏ 2

ويحدث الانحياز لأنّ بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال، لنفترض أنّ تذكرة الدخول إلى مدينة ملاهي تبلغ تكلفتها 2 يورو، ويجب دفع 0.5 يورو إضافي مقابل كل ساعة يقضيها العميل في المدينة. وبالتالي، فإنّ النموذج الذي يحدّد التكلفة الإجمالية يتضمّن تحيزًا بمقدار 2 لأنّ أدنى تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاق والعدالة أو التحيز في التوقّعات.

اطّلِع على الانحدار الخطي في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف التي تصعِّب التنبؤ بإحدى الفئتَين المتنافيتَين:

على سبيل المثال، ينفِّذ كلّ من نموذجَي تعلُّم الآلة التاليَين عملية تصنيف ثنائي:

  • نموذج يحدِّد ما إذا كانت رسائل البريد الإلكتروني غير مرغوب فيها (الفئة الموجبة) أو مرغوب فيها (الفئة السالبة).
  • نموذج يُقيّم الأعراض الطبية لتحديد ما إذا كان الشخص يعاني من مرض معيّن (الفئة الإيجابية) أو لا يعاني من ذلك المرض (الفئة السلبية).

يختلف هذا التصنيف عن التصنيف المتعدّد الفئات.

راجِع أيضًا الانحدار اللوجستي و حد التصنيف.

اطّلِع على التصنيف في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

تحويل القيم

#fundamentals

تحويل سمة واحدة إلى سمات ثنائية متعددة تُعرف باسم الحزم أو الحاويات، استنادًا عادةً إلى نطاق قيم وعادةً ما تكون الميزة المقتطعة هي ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة واحدة متواصلة بنقطة عائمة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • وتكون درجة الحرارة <= 10 درجات مئوية هي "القيمة الدنيا".
  • وتكون درجة الحرارة من 11 إلى 24 درجة مئوية ضمن الفئة "معتدلة".
  • وتكون درجة الحرارة >= 25 درجة مئوية في المجموعة "الدافئة".

سيتعامل النموذج مع كل قيمة في الحزمة نفسها بشكلٍ مماثل. على سبيل المثال، القيمتَان 13 و22 هما في حزمة المناطق المعتدلة، لذا يتعامل النموذج مع القيمتَين بشكلٍ متطابق.

اطّلِع على البيانات الرقمية: التجميع في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

C

البيانات الفئوية

#fundamentals

السمات التي تحتوي على مجموعة محدّدة من القيم المحتملة على سبيل المثال، لنفترض أنّ هناك سمة تصنيفية باسم traffic-light-state، والتي يمكن أن تأخذ فقط إحدى القيم الثلاث المحتملة التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كخاصيّة تصنيفية، يمكن للنموذج التعرّف على أثرred وgreen وyellow المختلف على سلوك السائق.

تُعرف السمات الفئوية أحيانًا باسم السمات المنفصلة.

يُرجى الاطّلاع على البيانات الرقمية.

اطّلِع على العمل مع data التصنيفية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف على سبيل المثال:

  • في نموذج التصنيف الثنائي الذي يرصد الرسائل غير المرغوب فيها، قد تكون الفئتان رسالة غير مرغوب فيها ورسالة مرغوب فيها.
  • في نموذج التصنيف المتعدّد الفئات الذي يحدِّد سلالات الكلاب، قد تكون الفئات هي بودل وبيجل وبوغ وغيرها.

يتنبّأ نموذج التصنيف بفئة. في المقابل، يتنبّأ نموذج الانحدار بعدد بدلاً من فئة.

اطّلِع على التصنيف في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

نموذج التصنيف

#fundamentals

نموذج يتنبّأ بفئة على سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • نموذج يتنبّأ بلغة الجملة التي يتم إدخالها (هل هي فرنسية؟ هل تريد استخدام اللغة الإسبانية؟ الإيطالية؟).
  • نموذج يتنبّأ بأنواع الأشجار (قيقب؟ البلوط؟ Baobab?).
  • نموذج يتنبّأ بالفئة الإيجابية أو السلبية لحالة طبية معيّنة

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف:

عتبة التصنيف

#fundamentals

في التصنيف الثنائي، هو رقم بين 0 و1 يحوّل الناتج الأوّلي لنموذج الانحدار اللوجستي إلى توقّع الفئة الإيجابية أو الفئة السلبية. يُرجى العلم أنّ حدّ التصنيف هو قيمة يختارها المستخدم، وليست قيمة يختارها تدريب النموذج.

يعرض نموذج الانحدار اللوجستي قيمة أساسية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأوّلية أكبر من حدّ التصنيف، يتم توقّع الفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من الحدّ الأدنى للتصنيف، يتم عندئذٍ التوقّع بفئة القيمة السالبة.

على سبيل المثال، لنفترض أنّ الحدّ الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية تساوي 0.9، سيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية هي 0.7، سيتوقّع النموذج الفئة السلبية.

يؤثر اختيار حدّ التصنيف بشكلٍ كبير في عدد النتائج الموجبة الخاطئة و النتائج السالبة الخاطئة.

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

مجموعة بيانات غير متوازنة الفئات

#fundamentals

مجموعة بيانات لمشكلة تصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، لنفترض أنّ مجموعة بيانات التصنيف الثنائي مقسمة على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السلبية إلى الإيجابية هي 100,000 إلى 1، لذا فإنّ هذه مجموعة بيانات غير متوازنة الفئات.

في المقابل، لا تتضمّن مجموعة البيانات التالية توازنًا بين الفئات لأنّ نسبة التصنيفات السلبية إلى التصنيفات الإيجابية قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا موجبًا

يمكن أن تكون مجموعات البيانات متعددة الفئات غير متوازنة أيضًا. على سبيل المثال، فإنّ مجموعة بيانات التصنيف المتعدّد الفئات التالية هي أيضًا غير متوازنة من حيث الفئات لأنّ التسمية واحدة تحتوي على أمثلة أكثر بكثير من التسميتَين الأخرتَين:

  • 1,000,000 تصنيف من الفئة "أخضر"
  • 200 تصنيف من الفئة "أرجواني"
  • 350 تصنيفًا من الفئة "برتقالي"

اطّلِع أيضًا على الخلل وفئة الأغلبية وفئة الأقلية.

الاقتصاص

#fundamentals

تقنية للتعامل مع القيم الشاذة من خلال تنفيذ أحد الإجراءَين التاليَين أو كليهما:

  • تقليل قيم السمة التي تزيد عن الحد الأقصى للحد الأقصى
  • زيادة قيم السمات التي تقل عن الحد الأدنى إلى أن تصل إلى هذا الحد الأدنى

على سبيل المثال، لنفترض أنّ أقل من% 0.5 من قيم سمة معيّنة تقع خارج النطاق 40-60. في هذه الحالة، يمكنك إجراء ما يلي:

  • اقتطع كل القيم التي تزيد عن 60 (الحد الأقصى) لتصبح 60 بالضبط.
  • اقتصاص جميع القيم التي تقل عن 40 (الحد الأدنى) لتكون 40 بالضبط

يمكن أن تؤدي القيم الشاذة إلى إتلاف النماذج، ما يؤدي أحيانًا إلى تجاوز الأوزان أثناء التدريب. يمكن أن تؤدي بعض القيم الشاذة أيضًا إلى خفض الدقة بشكل كبير. يُعدّ الاقتصاص أسلوبًا شائعًا للحدّ من الضرر.

تفرض عملية اقتصاص التدرّج قيم التدرّج ضمن نطاق محدّد أثناء التدريب.

اطّلِع على البيانات الرقمية: التسوية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

مصفوفة نجاح التوقّعات

#fundamentals

جدول NxN يلخّص عدد التوقّعات الصحيحة وغير الصحيحة التي أجراها نموذج التصنيف على سبيل المثال، فكِّر في مصفوفة الارتباك التالية لنموذج التصنيف الثنائي:

الورم (متوقّع) غير ورم (متوقّع)
الورم (المعلومات الفعلية) 18 (TP) 1 (FN)
غير ورم (معلومات حقيقية) 6 (FP) 452 (تونس)

تعرض مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الأساسية فيها "ورم"،صنّف النموذج 18 تنبؤًا بشكل صحيح وصنّف تنبؤًا واحدًا بشكل خاطئ.
  • من بين 458 توقّعًا كانت الحقيقة الأساسية فيها "غير ورم"، صنّف النموذج 452 بشكل صحيح و6 بشكل غير صحيح.

يمكن أن تساعدك مصفوفة الالتباس لمشكلة التصنيف المتعدّد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، نأخذ مصفوفة الالتباس التالية لنموذج تصنيف مؤلف من 3 فئات متعدّدة الفئات يصنّف ثلاثة أنواع مختلفة من زهور القزحية (Virginica وVersicolor وSetosa). عندما كانت الحقيقة الأساسية هي Virginica، تعرِض مصفوفة الارتباك أنّه من المرجّح بكثير أن يتنبأ النموذج بخطأ بـ Versicolor بدلاً من Setosa:

  Setosa (متوقّعة) Versicolor (متوقّعة) فرجينيا (متوقّعة)
Setosa (الحقيقة الأساسية) 88 12 0
Versicolor (الحقيقة الأساسية) 6 141 7
Virginica (الحقيقة الأساسية) 2 27 109

في مثال آخر، يمكن أن تكشف مصفوفة الارتباك أنّ نموذجًا تم تدريبه للتعرّف على الأرقام المكتوبة بخط اليد يميل إلى توقّع 9 بدلاً من 4، أو توقّع 1 بدلاً من 7 عن طريق الخطأ.

تحتوي مصفوفات الالتباس على معلومات كافية لاحتساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والاسترجاع.

خاصية مستمرة

#fundamentals

ميزة بنقطة عائمة لها نطاق لا نهائي من القيم المحتمَلة، مثل درجة الحرارة أو الوزن

يُرجى الاطّلاع على الخاصية المحدّدة القيم.

التقارب

#fundamentals

الحالة التي يتمّ الوصول إليها عندما تتغيّر قيم الخسارة قليلاً جدًا أو لا تتغيّر على الإطلاق مع كل تكرار على سبيل المثال، يشير منحنى الخسارة التالي إلى التقارب عند حوالي 700 تكرار:

رسم بياني كارتيزيتي المحور X غير متوفّر. محور Y هو عدد تكرارات
          التدريب. يكون الخسارة مرتفعًا جدًا خلال عمليات التكرار القليلة الأولى، ولكن
          ينخفض بشكل حاد. بعد إجراء 100 تكرار تقريبًا، يستمر قياس الخسارة في الانخفاض، ولكن بشكل تدريجي أكثر. بعد حوالي 700 تكرار،
          يظلّ فقدان الأداء ثابتًا.

يتقارب النموذج عندما لا يؤدي التدريب الإضافي إلى تحسينه.

في التعلم العميق، تظلّ قيم الخسارة أحيانًا ثابتة أو تقريبًا ثابتة لعدّة تكرارات قبل أن تنخفض أخيرًا. خلال فترة طويلة من القيم المتغيّرة باستمرار، قد تشعر مؤقتًا بأنّ القيمة تقارب القيمة الحقيقية.

راجِع أيضًا الإيقاف المبكر.

اطّلِع على منحنيات تقاربت النماذج وخسارتها في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

D

DataFrame

#fundamentals

نوع بيانات شائع في pandas لتمثيل مجموعات البيانات في الذاكرة.

إطار البيانات هو مشابه لجدول أو جدول بيانات. يحتوي كل عمود من إطار البيانات على اسم (عنوان)، ويتم تحديد كل صف باستخدام رقم فريد.

يتم تنظيم كل عمود في إطار البيانات مثل صفيف ثنائي الأبعاد، باستثناء أنّه يمكن تخصيص نوع البيانات لكل عمود.

يمكنك أيضًا الاطّلاع على صفحة مرجع pandas.DataFrame الرسمية.

مجموعة البيانات

#fundamentals

مجموعة من البيانات الأولية، يتم تنظيمها عادةً (وليس حصريًا) بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من طبقة مخفية واحدة

يُعرف النموذج العميق أيضًا باسم الشبكة العصبية العميقة.

يُرجى المقارنة مع النموذج الواسع النطاق.

خاصية كثيفة

#fundamentals

سمة تكون فيها معظم القيم أو جميعها غير صفرية، وتكون عادةً Tensor من القيم الكسورية. على سبيل المثال، يلي مكثّف لأنّ 9 من قيمه غير صفرية:

8 3 7 5 2 4 0 4 9 6

يختلف عن الميزة المتناثرة.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبونية:

على سبيل المثال، تكون عمق الشبكة العصبية التي تتضمّن خمس طبقات مخفية وطبقة إخراج واحدة هو 6.

يُرجى العلم أنّ طبقة الإدخال لا تؤثر في العمق.

خاصية محدّدة القيم

#fundamentals

سمة تتضمّن مجموعة محدودة من القيم المحتملة على سبيل المثال، السمة التي يمكن أن تكون قيمها حيوان أو نبات أو معدن فقط هي سمة منفصلة (أو تصنيفية).

يختلف ذلك عن الميزة المستمرة.

ديناميكي

#fundamentals

إجراء يتم بشكل متكرر أو مستمر إنّ المصطلحين ديناميكي وعلى الإنترنت هما مترادفَان في مجال تعلُّم الآلة. في ما يلي الاستخدامات الشائعة للإعلانات الديناميكية والإعلانات على الإنترنت في التعلم الآلي:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج يتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرّر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية توليد توقعات عند الطلب.

نموذج متغيّر

#fundamentals

نموذج تتم إعادة تدريبه بشكل متكرر (أو ربما بشكل مستمر). النموذج الديناميكي هو "مدرِّب طوال الحياة" يتكيّف باستمرار مع البيانات المتغيّرة. يُعرف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

يختلف ذلك عن النموذج الثابت.

E

الإيقاف المبكر

#fundamentals

طريقة للتسويف تتضمن إنهاء التدريب قبل انتهاء انخفاض خسارة التدريب. في عملية الإيقاف المبكر، تتوقف عن تدريب النموذج عمدًا عندما يبدأ خسارة مجموعة بيانات التحقّق في الزيادة، أي عندما ينخفض أداء التعميم.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على سمة فئوية عالية الأبعاد بهدف تعلم مصفوفة إدراج ذات أبعاد أقل تدريجيًا تسمح طبقة التضمين للشبكة العصبية بالتدريب بفعالية أكبر بكثير مقارنةً بالتدريب على الميزة الفئوية العالية الأبعاد فقط.

على سبيل المثال، تتضمّن خدمة Earth حاليًا حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي سمة في النموذج، لذا تتضمّن طبقة الإدخال في النموذج متجهًا أحادي القيمة يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل baobab على النحو التالي:

مصفوفة من 73,000 عنصر تحتوي العناصر الـ 6,232 الأولى على القيمة
     0. يحمل العنصر التالي القيمة 1. تحتوي العناصر النهائية التي يبلغ عددها 66,767 عنصرًا على
     القيمة صفر.

إنّ مصفوفة تتضمّن 73,000 عنصر طويلة جدًا. في حال عدم إضافة طبقة تضمين إلى النموذج، ستستغرق عملية التدريب وقتًا طويلاً جدًا بسبب مضاعفة 72,999 صفرًا. ربما اخترت أن تتألّف طبقة التضمين من 12 سمة. نتيجةً لذلك، ستتعرّف طبقة التضمين تدريجيًا على متجه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، يشكّل التجزئة بديلاً معقولاً لطبقة التضمين.

اطّلِع على عمليات التضمين في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

حقبة

#fundamentals

تمريرة تدريبية كاملة على مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة.

يمثّل الطور N/حجم الحزمة تكرار التدريب، حيث يكون N هو إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض ما يلي:

  • تتألف مجموعة البيانات من 1,000 مثال.
  • حجم الدُفعة هو 50 مثالاً.

لذلك، يتطلّب جيل واحد 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات والتصنيف المحتمل تندرج الأمثلة في التعلم المُوجّه ضمن فئتين عامتَين:

  • يتألّف المثال المصنّف من سمة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المُصنَّفة أثناء عملية التدريب.
  • يتألف المثال غير المصنّف من ميزة واحدة أو أكثر بدون تصنيف. يتم استخدام الأمثلة غير المصنّفة أثناء الاستنتاج.

على سبيل المثال، لنفترض أنّك تدرِّب نموذجًا لتحديد تأثير أحوال الطقس في نتائج اختبارات الطلاب. في ما يلي ثلاثة أمثلة مصنّفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأوّلي للمثال. وهذا يعني أنّ المثال يتألّف عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. بالإضافة إلى ذلك، يمكن أن تتضمّن الميزات في المثال أيضًا ميزات اصطناعية، مثل تقاطعات الميزات.

اطّلِع على التعلم المُراقَب في دورة "مقدّمة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

F

نتيجة سالبة خاطئة (FN)

#fundamentals

مثال يتنبأ فيه النموذج عن طريق الخطأ بال الفئة السلبية. على سبيل المثال، يتنبّأ النموذج بأنّ رسالة بريد إلكتروني معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكنّ رسالة البريد الإلكتروني هذه هي في الواقع رسالة غير مرغوب فيها.

موجب خاطئ

#fundamentals

مثال يتنبأ فيه النموذج عن طريق الخطأ بال الفئة الموجبة. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها (الفئة الموجبة)، ولكن هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها في الواقع.

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير ذلك المصطلح إلى نسبة الأمثلة السالبة الفعلية التي توقّع النموذج خطأً أنّها تنتمي إلى الفئة الموجبة. تحتسب الصيغة التالية معدّل النتيجة الإيجابية الزائفة:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

يمثّل معدل الموجب الخاطئ محور x في منحنى خاصية تشغيل جهاز الاستقبال.

اطّلِع على التصنيف: مخطّط ROC و AUC في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

ميزة

#fundamentals

متغيّر إدخال لنموذج تعلُّم الآلة يتكون المثال من سمة واحدة أو أكثر. على سبيل المثال، لنفترض أنّك تدرِّب نموذجًا لتحديد تأثير الظروف الجوية في درجات اختبارات الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلّ منها على ثلاث ميزات وتصنيف واحد:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع التصنيف

اطّلِع على التعلُّم الخاضع للإشراف في دورة "مقدّمة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

مضروب مجموعات الخصائص

#fundamentals

خاصية مصطنعة تم إنشاؤها من خلال "تداخل" الميزات الفئوية أو الميزات المقسّمة

على سبيل المثال، نأخذ نموذج "توقّع المزاج" الذي يمثّل درجة الحرارة في إحدى الفئات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى الفئات الثلاث التالية:

  • still
  • light
  • windy

بدون تقاطعات السمات، يتم تدريب النموذج الخطي بشكل مستقل على كل من المجموعات السبع المختلفة السابقة. وبالتالي، يتم تدريب النموذج على سبيل المثال على freezing بغض النظر عن التدريب على سبيل المثال على windy.

بدلاً من ذلك، يمكنك إنشاء تقاطع ميزات بين درجة الحرارة و سرعة الرياح. ستتضمّن هذه الميزة الاصطناعية القيم التالية الاثنتي عشرة المحتملة:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل عمليات تقاطع العناصر، يمكن للنموذج التعرّف على الاختلافات في المزاج بين يوم freezing-windy ويوم freezing-still.

إذا أنشأت ميزة اصطناعية من ميزتَين تتضمّن كلّ منهما الكثير من الحزم المختلفة، سيتضمّن تقاطع الميزة الناتج عددًا كبيرًا من التركيبات المحتملة. على سبيل المثال، إذا كانت إحدى السمات تحتوي على 1,000 حزمة وكانت السمة الأخرى تحتوي على 2,000 حزمة، سيتضمّن تقاطع السمات الناتج 2,000,000 حزمة.

من الناحية الرسمية، يمثّل التقاطع منتجًا ديكارتيًا.

تُستخدَم عمليات تقاطع الميزات في الغالب مع النماذج الخطية ونادراً ما تُستخدَم مع الشبكات العصبية.

اطّلِع على البيانات الفئوية: تقاطعات العلامات في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمّن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب نموذج
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعّالة من هذه الميزات

على سبيل المثال، قد تحدّد أنّ temperature قد تكون ميزة مفيدة. بعد ذلك، يمكنك تجربة التجميع لتحسين المعلومات التي يمكن للنموذج تعلّمها من نطاقات temperature مختلفة.

يُطلق على هندسة الميزات أحيانًا اسم استخراج الميزات أو إنشاء الميزات.

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

مجموعة الخصائص

#fundamentals

مجموعة الميزات التي يتم تدريب نموذج تعلُّم الآلة عليها على سبيل المثال، قد يشكّل الرمز البريدي وحجم العقار وحالة العقار مجموعة ميزات بسيطة لنموذج يتنبّأ بأسعار المساكن.

متّجه الميزة

#fundamentals

مصفوفة قيم feature التي تتضمّن مثالاً يتم إدخال متجه السمات أثناء التدريب والنمذجة. على سبيل المثال، قد يكون خطّ الخصائص لطراز يتضمّن سمتَين منفصلتَين هو:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتَان مخفيتان وطبقة إخراج واحدة
          تحتوي طبقة الإدخال على عقدتَين، إحداهما تحتوي على القيمة
          0.92 والأخرى تحتوي على القيمة 0.56.

يقدّم كل مثال قيمًا مختلفة لسمة "مصفوفة السمات"، لذا يمكن أن يكون مصفوفة السمات للمثال التالي على النحو التالي:

[0.73, 0.49]

تحدِّد هندسة الميزات كيفية تمثيل الميزات في متجه الميزات. على سبيل المثال، قد يتم تمثيل سمة فئوية ثنائية ولها خمس قيم محتملة باستخدام ترميز بقيمة واحدة. في هذه الحالة، سيتألف جزء من متجه السمات لمثال معيّن من أربعة أصفار و واحدة 1.0 في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

في مثال آخر، لنفترض أنّ النموذج يتألّف من ثلاث ميزات:

  • سمة فئوية ثنائية لها خمس قيم محتملة يتم تمثيلها باستخدام ترميز أحادي الدالة، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • سمة فئوية ثنائية أخرى لها ثلاث قيم محتملة يتم تمثيلها بترميز أحادي القيمة، على سبيل المثال: [0.0, 0.0, 1.0]
  • سمة بنقطة عائمة، على سبيل المثال: 8.3

في هذه الحالة، سيتم تمثيل متجه السمات لكل مثال بواسطة تسع قيم. استنادًا إلى أمثلة القيم في القائمة السابقة، سيكون متجه السمات على النحو التالي:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

حلقة الملاحظات

#fundamentals

في تعلُّم الآلة، هو الموقف الذي تؤثّر فيه توقّعات النموذج في بيانات التدريب للنموذج نفسه أو نموذج آخر. على سبيل المثال، سيؤثّر النموذج الذي يقترح الأفلام في الأفلام التي يطّلع عليها المستخدمون، ما سيؤثّر بدوره في نماذج اقتراح الأفلام اللاحقة.

اطّلِع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: أسئلة يجب طرحها في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

G

التعميم

#fundamentals

قدرة النموذج على تقديم توقّعات صحيحة بشأن بيانات جديدة لم يسبق رؤيتها النموذج الذي يمكنه التعميم هو عكس النموذج الذي يتوافق بشكل مفرط.

اطّلِع على التعميم في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

منحنى التعميم

#fundamentals

رسم بياني لكل من الخسارة في مرحلة التدريب و الخسارة في مرحلة التحقّق كوظيفتين لعدد المرات

يمكن أن يساعدك منحنى التعميم في رصد الملاءمة الزائدة المحتمَلة. على سبيل المثال، يشير منحنى التجميع التالي إلى زيادة الملاءمة لأنّ خسائر التحقّق تصبح في نهاية المطاف أعلى بكثير من خسائر التدريب.

رسم بياني إحداثي تم تصنيف المحور ص فيه على أنّه الخسارة وتم تصنيف المحور س
          على أنّه عدد التكرارات تظهر خطّتان بيانيتان. يعرض أحد الرسمَين 
          خسارة التدريب ويعرض الآخر خسارة التحقّق.
          تبدأ المخطّطتان بشكلٍ مشابه، ولكنّ خسارة التدريب تنخفض في نهاية المطاف
          إلى ما هو أقل بكثير من خسارة التحقّق.

اطّلِع على التعميم في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

انحدار التدرج

#fundamentals

أسلوب رياضي لتقليل الخسارة تعمل طريقة انحدار التدرج على تعديل المَعلمات والانحيازات بشكلٍ متكرّر، وتجد تدريجيًا أفضل مجموعة لتقليل الخسارة.

إنّ انحدار التدرج أقدم بكثير من تعلُّم الآلة.

اطّلِع على التكرار الخطي: التدرّج المُنحَط في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

معلومات فعلية

#fundamentals

الواقع

الحدث الذي حدث فعلاً

على سبيل المثال، نأخذ نموذج تصنيف ثنائي يتنبّأ بما إذا كان طالب في السنة الأولى من الجامعة سيتخرّج خلال ست سنوات. الحقيقة الأساسية لهذا النموذج هي ما إذا كان هذا الطالب قد تخرّج فعلاً خلال ست سنوات أم لا.

H

طبقة مخفية

#fundamentals

طبقة في الشبكة العصبية بين الطبقة المُدخلة (الميزات) و الطبقة المُخرَجة (التوقّعات). تتألف كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتَين مخفيتَين، تضمّن الأولى ثلاث خلايا عصبية والثانية خليتَين عصبيتين:

أربع طبقات الطبقة الأولى هي طبقة إدخال تحتوي على سمتَين. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاثة
          خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على اثنين
          من الخلايا العصبية. الطبقة الرابعة هي طبقة ناتجة. يحتوي كلّ سمة
          على ثلاث حواف، يشير كلّ منها إلى خلية عصبية مختلفة
          في الطبقة الثانية. يحتوي كل خلية عصبية في الطبقة الثانية
          على حافتَين، تشير كل منهما إلى خلية عصبية مختلفة
          في الطبقة الثالثة. يحتوي كل خلية عصبية في الطبقة الثالثة على
          حافة واحدة تشير إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية واحدة. على سبيل المثال، الصورة التوضيحية السابقة هي شبكة عصبية عميقة لأنّ النموذج يحتوي على طبقتَين مخفيتَين.

اطّلِع على الشبكات العصبية: العقد والطبقات العميقة في الدورة التدريبية المكثّفة لتعلُّم الآلة للحصول على مزيد من المعلومات.

المعلَمة الفائقة

#fundamentals

المتغيّرات التي تعدّلها أنت أو خدمة ضبط المَعلمات الفائقة أثناء عمليات التدريب المتعاقبة لنموذج معيّن على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة فائقة. يمكنك ضبط معدّل التعلّم على 0.01 قبل جلسة تدريب واحدة. إذا تبيّن لك أنّ القيمة 0.01 مرتفعة جدًا، يمكنك ضبط معدّل التعلم على 0.003 في جلسة التدريب التالية.

في المقابل، المَعلمات هي المَعلمات والميل المختلفة التي يتكاملها النموذج أثناء التدريب.

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

I

موزّعة بشكل مستقل ومتشابه

#fundamentals

البيانات المستمَدة من توزيع لا يتغيّر، وحيث لا تعتمد كل قيمة يتم استخراجها على القيم التي تم استخراجها سابقًا إنّ التوزيع التلقائي المتماثل هو الغاز المثالي في التعلم الآلي، وهو بنية رياضية مفيدة، ولكن لا يمكن العثور عليه تقريبًا بالضبط في العالم الحقيقي. على سبيل المثال، قد يكون توزيع الزوّار إلى صفحة ويب مشترَكًا خلال فترة زمنية قصيرة، أي أنّ التوزيع لا يتغيّر خلال تلك الفترة القصيرة، وتكون زيارة شخص معيّن مستقلة بشكل عام عن زيارة شخص آخر. ومع ذلك، في حال توسيع هذه الفترة الزمنية، قد تظهر اختلافات موسمية في عدد زوّار صفحة الويب.

راجِع أيضًا عدم الاستقرار.

الاستنتاج

#fundamentals

في تعلُّم الآلة، هي عملية إجراء توقّعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنّفة.

يختلف معنى الاستنتاج إلى حدّ ما في الإحصاءات. راجِع مقالة Wikipedia حول الاستنتاج الإحصائي للاطّلاع على التفاصيل.

اطّلِع على التعلُّم الخاضع للإشراف في دورة "مقدّمة عن تعلُّم الآلة" للتعرّف على دور الاستنتاج في نظام تعلُّم خاضع للإشراف.

الطبقة الأولى

#fundamentals

الطبقة في الشبكة العصبية التي تُحتوي على المتجه المميّز وهذا يعني أنّ طبقة الإدخال توفّر أمثلة للتدريب أو الإدراك. على سبيل المثال، تتألف طبقة الإدخال في الشبكة العصبية التالية من سمتَين:

أربع طبقات: طبقة إدخال وطبقتَان مخفيتان وطبقة إخراج

القابلية للتفسير

#fundamentals

القدرة على شرح أو عرض استنتاجات نموذج تعلُّم الآلة بعبارة مفهومة للمستخدم

على سبيل المثال، يمكن فهم معظم نماذج الانحدار الخطي بشكلٍ جيد. (ما عليك سوى الاطّلاع على القيم المحسَّنة لكل سمة). يمكن أيضًا تفسير غابات القرارات بشكل كبير. ومع ذلك، تتطلّب بعض النماذج استخدام عروض مرئية متقدّمة لكي يمكن تفسيرها.

يمكنك استخدام أداة تفسير التعلّم (LIT) لتفسير نماذج الذكاء الاصطناعي.

تكرار

#fundamentals

تحديث واحد لمَعلمات النموذج، أي الأوزان والانحيازات للنموذج، أثناء التدريب يحدِّد حجم الحزمة عدد الأمثلة التي يعالجها النموذج في دورة واحدة. على سبيل المثال، إذا كان حجم المجموعة 20، يعالج النموذج 20 مثالاً قبل تعديل المَعلمات.

عند تدريب شبكة عصبية، تتضمن الخطوة الواحدة المرّتَين التاليتَين:

  1. تمريرة إلى الأمام لتقييم الخسارة في دفعة واحدة
  2. عملية التقديم إلى الخلف (الانتشار العكسي) لتعديل مَعلمات النموذج استنادًا إلى الخسارة ومعدّل التعلّم

L

تسوية L0

#fundamentals

نوع من التسوية الذي يفرض عقوبة على إجمالي عدد المعلَمات غير الصفرية في النموذج. على سبيل المثال، سيُطبَّق نموذج يحتوي على 11 وزنًا غير صفري عقاب أكبر من نموذج مشابه يحتوي على 10 أوزان غير صفرية.

يُعرف أسلوب تسوية L0 أحيانًا باسم تسوية L0-norm.

خسارة L1

#fundamentals

دالة خسارة تعمل على احتساب القيمة المطلقة للفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، في ما يلي حسابخسارة L1 لمجموعة تتألف من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إنّ خسارة L1 أقل حساسية تجاه القيم الشاذة مقارنةً بخسارة L2.

متوسط الخطأ المطلق هو متوسط خسائر L1 لكل مثال.

تسوية L1

#fundamentals

نوع من التسوية التي تفرض عقوبة على المرجحات بما يتناسب مع مجموع القيمة المطلقة للمرجحات. يساعد نموذج L1 في ضبط أوزان السمات غير ذات الصلة أو السمات ذات الصلة بالكاد على 0 بالضبط. تتم إزالة سمة التي تبلغ قيمة وزنها 0 من النموذج.

يختلف ذلك عن التسوية 2.

خسارة L2

#fundamentals

دالة خسارة تعمل على احتساب مربع الفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، في ما يلي حساب خسارة L2 لمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربّع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

بسبب التربيع، يضخّم فقدان L2 تأثير القيم الشاذة. وهذا يعني أنّ خسارة L2 تستجيب بشكلٍ أقوى للتوقّعات السيئة مقارنةً بخسارة L1. على سبيل المثال، سيكون فقدان L1 للمجموعة السابقة هو 8 بدلاً من 16. يُرجى العلم أنّ قيمة واحدة شاذة تمثّل 9 من القيم الـ 16.

تستخدِم نماذج الانحدار عادةً خسارة L2 كدالة الخسارة.

متوسط الخطأ التربيعي هو متوسط خسائر L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة L2.

تسوية L2

#fundamentals

نوع من التسوية التي تفرض عقوبة على القيَم وفقًا لمجموع المربّعات للقيَم. يساعد التعديل L2 في تقليل أوزان القيم الشاذة (تلك التي لها قيم موجبة عالية أو قيم سالبة منخفضة) إلى ما يقرب من 0 ولكن ليس تمامًا إلى 0. تبقى السمات التي لها قيم قريبة جدًا من 0 في النموذج، ولكنّها لا تؤثّر كثيرًا في توقّعات النموذج.

تعمل إعادة التطبيع L2 دائمًا على تحسين التعميم في النماذج الخطية.

يُرجى الاطّلاع على تسوية 1.

التصنيف

#fundamentals

في تعلُّم الآلة المراقَب، هو جزء "الإجابة" أو "النتيجة" من مثال.

يتألّف كل مثال مصنّف من سمة واحدة أو أكثر وتصنيف. على سبيل المثال، في مجموعة بيانات تهدف إلى رصد المحتوى غير المرغوب فيه، من المرجّح أن يكون التصنيف إما "محتوى غير مرغوب فيه" أو "محتوى مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد يكون التصنيف هو كمية الأمطار التي سقطت خلال فترة معيّنة.

مثال مصنّف

#fundamentals

مثال يحتوي على عنصر واحد أو أكثر و تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنّفة من نموذج تقييم المنازل، يتضمّن كلّ منها ثلاث سمات وتصنيفًا واحدًا:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (تصنيف)
3 2 15 345,000 دولار أمريكي
2 1 72 179,000 دولار أمريكي
4 2 34 392,000 دولار أمريكي

في تعلُّم الآلة المُراقَب، يتم تدريب النماذج على أمثلة مصنّفة وإجراء توقّعات بشأن أمثلة غير مصنّفة.

قارِن بين المثال المصنّف والأمثلة غير المصنّفة.

lambda

#fundamentals

مرادف معدل التسوية.

"لامدا" هو مصطلح يحمل أكثر من معنى. سنركّز هنا على تعريف المصطلح ضمن التسوية.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية في ما يلي ثلاثة أنواع شائعة من الطبقات:

على سبيل المثال، يعرض الرسم التوضيحي التالي شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة
          خرج واحدة تتألّف طبقة الإدخال من سمتَين. تتكون الطبقة العميقة
          الأولى من ثلاثة خلايا عصبية، وتتكون الطبقة العميقة
          الثانية من خليتين عصبيتين. تتكوّن طبقة الإخراج من عقدة واحدة.

في TensorFlow، الطبقات هي أيضًا دوال Python تأخذ Tensors وخيارات الضبط كمدخلات و تُنشئ عناصر Tensor أخرى كمخرجات.

معدّل التعلّم

#fundamentals

عدد عشري يُخبر خوارزمية التناقص التدرّجي بمدى قوة تعديل الأوزان والانحيازات في كل تكرار. على سبيل المثال، سيؤدي معدّل التعلّم الذي يبلغ ‎0.3 إلى تعديل الأوزان والانحيازات بفاعلية أكبر ثلاث مرات من معدّل التعلّم الذي يبلغ ‎0.1.

معدّل التعلّم هو مَعلمة فائقة رئيسية. إذا ضبطت معدّل التعلّم على قيمة منخفضة جدًا، سيستغرق التدريب وقتًا طويلاً جدًا. إذا ضبطت معدّل التعلّم على قيمة مرتفعة جدًا، غالبًا ما تواجه طريقة التدرّج التنازلي صعوبة في الوصول إلى التقارب.

خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر يمكن تمثيلها فقط من خلال الإضافة والضرب.

يُمثّل الرسم البياني لعلاقة خطية خطًا.

يختلف ذلك عن المحتوى غير الخطي.

النموذج الخطي

#fundamentals

نموذج يحدّد قيمة تقديرية واحدة لكل سمة لإجراء توقّعات (تضمّن النماذج الخطية أيضًا انحيازًا). في المقابل، تكون علاقة السمات بالتنبؤات في النماذج العميقة غير خطية بشكل عام.

عادةً ما يكون من الأسهل تدريب النماذج الخطية وفهمها أكثر من النماذج العميقة. ومع ذلك، يمكن لتصاميم نماذج الذكاء الاصطناعي العميقة التعرّف على العلاقات المعقدة بين الميزات.

الانحدار الخطي و الانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطي

#fundamentals

نوع من نماذج تعلُّم الآلة التي ينطبق عليها كلا الشرطَين التاليَين:

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار بالتصنيف.

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار التي تتوقّع احتمالية. تتسم نماذج الانحدار اللوجستي بالسمات التالية:

  • التصنيف فئوي. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب احتمالات التصنيفات التي لها قيمتَان محتملتَان. هناك نوع أقل شيوعًا من الانحدار اللوجستي، وهو الانحدار اللوجستي المتعدّد الحدود، الذي يحسب احتمالات التصنيفات التي تحتوي على أكثر من قيمتَين محتملتَين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات "فقدان السجلّ" متعدّدة بشكل موازٍ للتصنيفات التي تتعلّق بأكثر من قيمتَين محتملتَين).
  • يحتوي النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق الجزء المتبقّي من هذا التعريف أيضًا على النماذج العميقة التي تتوقّع احتمالات للتصنيفات الفئوية.

على سبيل المثال، نأخذ نموذج انحدار لوجستي يحسب احتمال أن تكون الرسالة الإلكترونية التي تم إدخالها إما غير مرغوب فيها أو غير ذلك. أثناء الاستنتاج، لنفترض أنّ النموذج توقّع 0.72. وبالتالي، يقدّر ال نموذج ما يلي:

  • احتمالية بنسبة% 72 أن تكون الرسالة الإلكترونية غير مرغوب فيها
  • احتمالية بنسبة% 28 أنّ الرسالة الإلكترونية ليست غير مرغوب فيها

يستخدم نموذج الانحدار اللوجستي البنية المكونة من خطوتَين التاليتَين:

  1. يُنشئ النموذج تنبؤًا أوليًا (y') من خلال تطبيق دالة خطية على ميزات الإدخال.
  2. يستخدم النموذج هذا التوقّع الأوّلي كمدخل لمحاولة دالة سينوية، التي تحوّل التوقّع الأولي إلى قيمة بين 0 و1، باستثناء.

مثل أيّ نموذج انحدار، يتنبّأ نموذج الانحدار اللوجستي بعدد معيّن. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج تصانيف ثنائية على النحو التالي:

  • إذا كان العدد المتوقّع أكبر من حدّ التصنيف، يتوقّع نموذج التصنيف الثنائي الفئة الموجبة.
  • إذا كان العدد المتوقّع أقل من الحدّ الأدنى للتصنيف، يتوقّع نموذج التصنيف الثنائي الفئة السالبة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدَمة في الانحدار اللوجستي ثنائي المتغير

لوغاريتم فرص الأفضلية

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

خسارة

#fundamentals

خلال تدريب نموذج خاضع للإشراف، يتم قياس مدى اقترارب توقّعات النموذج من تصنيفه.

تحسب دالة الخسارة الخسارة.

منحنى الخسارة

#fundamentals

رسم بياني لـ الخسارة كدالّة على عدد دورات التدريب يعرض الرسم البياني التالي منحنى typical loss:

رسم بياني كارتيزيتي للفقد مقابل تكرارات التدريب، يعرض هبوطًا سريعًا في الفقد للتكرارات الأولية، متبوعًا بالهبوط التدريجي، ثم منحدرًا مستويًا خلال التكرارات النهائية

يمكن أن تساعدك منحنيات الخسارة في تحديد الحالات التي يكون فيها النموذج متوافقًا أو متوافقًا بشكل مفرط.

يمكن أن ترسم منحنيات الخسارة جميع أنواع الخسارة التالية:

راجِع أيضًا منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، يتم استخدام دالة mathematica لحساب الخسارة في مجموعة من الأمثلة. تُعرِض دالة الخسارة خسائر أقل للنماذج التي تُقدّم توقّعات جيدة مقارنةً بالنماذج التي تقدّم توقّعات سيئة.

عادةً ما يكون هدف التدريب هو تقليل الخسارة التي تعرِضها دالة الخسارة.

هناك العديد من الأنواع المختلفة لدوالّ الخسارة. اختَر دالة الفقد المناسبة لنوع النموذج الذي تُنشئه. على سبيل المثال:

M

تعلُم الآلة

#fundamentals

برنامج أو نظام يدرِّب نموذجًا من البيانات التي يتم إدخالها يمكن للنموذج المدرَّب إجراء توقّعات مفيدة من بيانات جديدة (لم يسبق رؤيتها) يتم استخراجها من التوزيع نفسه المستخدَم لتدريب النموذج.

يشير تعلُّم الآلة أيضًا إلى مجال الدراسة المعنيّ بهذه البرامج أو الأنظمة.

فئة الأغلبية

#fundamentals

التصنيف الأكثر شيوعًا في مجموعة بيانات غير متوازنة الفئات. على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على 99% من التصنيفات السلبية و1% من التصنيفات الإيجابية، فإنّ التصنيفات السلبية هي فئة الأغلبية.

يُرجى المقارنة مع الفئة الأقلية.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في إحدى المرات. عادةً ما يتراوح حجم الحزمة للحزمة الصغيرة بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أنّ مجموعة التدريب بالكامل (الحزمة الكاملة) تتألف من 1,000 مثال. لنفترض أيضًا أنّك ضبطت حجم الحزمة لكل حزمة صغيرة على 20. لذلك، تحدِّد كل خطوة من الخطوات فقدانًا في 20 مثالًا عشوائيًا من 1,000 مثال، ثم تعدِّل الأوزان والانحيازات وفقًا لذلك.

من الأفضل بكثير احتساب الخسارة في مجموعة صغيرة بدلاً من الخسارة في جميع الأمثلة في المجموعة الكاملة.

فئة الأقليات

#fundamentals

التصنيف الأقل شيوعًا في مجموعة بيانات غير متوازنة من حيث الفئات. على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على ‎99% من التصنيفات السلبية و‎1% من التصنيفات الموجبة، فإنّ التصنيفات الموجبة هي فئة الأقلية.

المقارنة مع الفئة الأكثر عددًا

نموذج

#fundamentals

بشكل عام، أيّ بنية رياضية تعالج بيانات الإدخال وتُعرِض النتيجة. بعبارة أخرى، النموذج هو مجموعة المَعلمات والبنية التي يحتاجها النظام لوضع التوقّعات. في تعلُّم الآلة المراقَب، يأخذ النموذج مثالاً كمدخل ويستنتج توقّعًا كمنتج. ضمن تعلُّم الآلة المراقَب، تختلف النماذج إلى حدّ ما. على سبيل المثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

يُنشئ التعلُّم الآلي غير المُوجّه أيضًا نماذج، وهي عادةً دالة يمكنها ربط مثال إدخال بأحد المجموعات الأكثر ملاءمةً.

التصنيف المتعدّد الفئات

#fundamentals

في التعلّم المُوجّه، مشكلة تصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتَين من التصنيفات على سبيل المثال، يجب أن تكون التصنيفات في مجموعة بيانات Iris واحدة من الأنواع التالية الثلاثة:

  • Iris setosa
  • Iris virginica
  • Iris versicolor

إنّ النموذج الذي تم تدريبه على مجموعة بيانات Iris والذي يتوقّع نوع Iris استنادًا إلى أمثلة جديدة يُجري تصنيفًا متعدد الفئات.

في المقابل، مشكلات التصنيف التي تفرّق بين فئتَين بالضبط هي نماذج التصنيف الثنائي. على سبيل المثال، نموذج الرسائل الإلكترونية الذي يتنبّأ بأنّ الرسالة غير مرغوب فيها أو مرغوب فيها هو نموذج تصنيف ثنائي.

في مشاكل التجميع، يشير التصنيف المتعدّد الفئات إلى أكثر من جماعتَين.

لا

فئة سلبية

#fundamentals

في التصنيف الثنائي، يُطلق على أحد التصنيفَين اسم موجب والآخر اسم سالب. الفئة الإيجابية هي الشيء أو الحدث الذي يختبره النموذج، والفئة السلبية هي الاحتمالية الأخرى. على سبيل المثال:

  • قد تكون الفئة السلبية في اختبار طبي هي "ليس ورمًا".
  • قد تكون الفئة السلبية في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير رسالة غير مرغوب فيها".

يختلف عن الفئة الموجبة.

شبكة عصبية

#fundamentals

نموذج يحتوي على طبقة مخفية واحدة على الأقل الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية واحدة. على سبيل المثال، يوضّح المخطّط البياني التالي شبكة عصبية عميقة تحتوي على طبقتَين مخفيتَين.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج

يتصل كل عصبون في الشبكة العصبية بجميع العقد في الطبقة التالية. على سبيل المثال، في المخطّط البياني السابق، لاحظ أنّ كل خلية عصبية من الخلايا العصبية الثلاث في الطبقة المخفية الأولى تتصل بشكل منفصل بكلا الخليتين العصبيتين في الطبقة المخفية الثانية.

تُعرف الشبكات العصبية التي يتم تنفيذها على أجهزة الكمبيوتر أحيانًا باسم الشبكات العصبية الاصطناعية لتمييزها عن الشبكات العصبية المتوفّرة في الأدمغة والأنظمة العصبية الأخرى.

يمكن لبعض الشبكات العصبية تقليد العلاقات غير الخطية المعقدة للغاية بين الميزات المختلفة والعلامة.

راجِع أيضًا الشبكة العصبية التفافّية و الشبكة العصبية المتكرّرة.

عصبون

#fundamentals

في تعلُّم الآلة، هي وحدة متميزة ضمن الطبقة المخفية الشبكة العصبية. ينفِّذ كل عصبون الإجراء التالي المكوّن من مرحلتين:

  1. لحساب المجموع المرجح لقيم الإدخال مضروبًا بأوزانها المقابلة.
  2. تمرير المجموع المرجح كمدخل إلى دالة التفعيل

يقبل العصبون في الطبقة المخفية الأولى مدخلات من قيم السمات في الطبقة المُدخلة. يقبل الخلية العصبية في أي طبقة مخفية بعد الأولى مدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، يقبل خلية عصبية في الطبقة المخفية الثانية مدخلات من الخلايا العصبية في الطبقة المخفية الأولى.

تُبرز الصورة التوضيحية التالية خليتَين عصبيتَين ومقدّماتَيهما.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج تم تمييز خليتَين عصبيتَين: إحداهما في
          الطبقة المخفية الأولى والأخرى في الطبقة المخفية الثانية. يتلقّى العصبون المميّز
          في الطبقة المخفية الأولى مدخلات من كلتا السمتَين
          في طبقة الإدخال. يتلقّى الخلية العصبية المميّزة في الطبقة المخفية الثانية
          مدخلات من كل خلية عصبية من الخلايا العصبية الثلاث في
          الطبقة المخفية الأولى.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وغيرها من أجزاء الأنظمة العصبية.

العقدة (الشبكة العصبية)

#fundamentals

خلية عصبية في طبقة مخفية

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولكن لا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، نأخذ نموذجَين يرتبط كل منهما بميزة واحدة بعلامة واحدة. النموذج على اليسار خطي والنموذج على اليمين غير خطي:

رسمان بيانيان المخطّط البياني هو خط، لذا هذه علاقة خطية.
          الرسم البياني الآخر هو منحنى، لذا هذه علاقة غير خطية.

عدم الثبات

#fundamentals

سمة تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، راجِع الأمثلة التالية على عدم الاستقرار:

  • يختلف عدد المايوهات المُباعة في متجر معيّن حسب الموسم.
  • تكون كمية فاكهة معيّنة يتم حصادها في منطقة معيّنة صفرًا لمعظم أيام السنة، ولكن تكون كبيرة لفترة قصيرة.
  • بسبب تغيُّر المناخ، تتغيّر درجات الحرارة السنوية المتوسطة.

يُرجى الاطّلاع على الثبات.

تسوية

#fundamentals

بشكل عام، هي عملية تحويل النطاق الفعلي للمتغيّر من القيم إلى نطاق عادي من القيم، مثل:

  • من -1 إلى +1
  • من 0 إلى 1
  • الدرجات المعيارية (تتراوح تقريبًا بين -3 و+3)

على سبيل المثال، لنفترض أنّ النطاق الفعلي لقيم سمة معيّنة هو 800 إلى 2,400. كجزء من هندسة الميزات، يمكنك تسويت القيم الفعلية إلى نطاق عادي، مثل -1 إلى +1.

إنّ التسويف هو مهمة شائعة في هندسة الميزات. يتم عادةً تدريب النماذج بشكل أسرع (وتقديم توقعات أفضل) عندما يكون لكل سمة رقمية في متجه السمات النطاق نفسه تقريبًا.

اطّلِع على وحدة العمل مع البيانات الرقمية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من التفاصيل. راجِع أيضًا مقالة تسويف درجة "ي" المعيارية.

البيانات الرقمية

#fundamentals

السمات التي يتم تمثيلها كأرقام صحيحة أو أرقام ذات قيمة حقيقية على سبيل المثال، من المرجّح أن يمثّل نموذج تقييم المنزل حجمه (بالقدم المربّع أو متر مربّع) كبيانات رقمية. يشير تمثيل العنصر كبيانات رقمية إلى أنّ قيم العنصر لها علاقة رياضية بالعلامة. وهذا يعني أنّ عدد الأمتار المربعة في المنزل يرتبط على الأرجح بعلاقة رياضية مع قيمة المنزل.

لا يجب تمثيل كل البيانات الصحيحة كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة، ولكن يجب عدم تمثيل الرموز البريدية الصحيحة كبيانات رقمية في النماذج. ويعود السبب في ذلك إلى أنّ الرمز البريدي 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. بالإضافة إلى ذلك، على الرغم من أنّ الرموز البريدية المختلفة ترتبط بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20000 تساوي ضعف قيم العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات تصنيفية بدلاً من ذلك.

تُعرف السمات الرقمية أحيانًا باسم السمات المستمرة.

O

بلا إنترنت

#fundamentals

مرادف لـ ثابت.

الاستنتاج بلا إنترنت

#fundamentals

عملية إنشاء النموذج لمجموعة من التوقّعات ثم تخزين (حفظ) هذه التوقّعات ويمكن للتطبيقات بعد ذلك الوصول إلى التوقّعات المستنتَجة من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، نأخذ نموذجًا يُنشئ توقّعات الطقس المحلية (التوقّعات) مرة كل أربع ساعات. بعد تنفيذ كل نموذج، يُخزِّن النظام جميع توقّعات الطقس المحلية في ذاكرة التخزين المؤقت. تسترجع تطبيقات الطقس التوقّعات من ذاكرة التخزين المؤقت.

يُعرف الاستنتاج بلا إنترنت أيضًا باسم الاستنتاج الثابت.

يختلف ذلك عن الاستنتاج على الإنترنت.

ترميز أحادي

#fundamentals

تمثيل البيانات الفئوية كخطّ متّجه فيه:

  • يتم ضبط عنصر واحد على 1.
  • يتم ضبط جميع العناصر الأخرى على 0.

يُستخدَم ترميز One-hot بشكل شائع لتمثيل السلاسل أو المعرّفات التي تتضمّن مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أنّ ميزة فئوية معيّنة باسم Scandinavia لها خمس قيم محتملة:

  • "الدنمارك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثّل الترميز الأحادي كل قيمة من القيم الخمس على النحو التالي:

بلد المتّجه
"الدنمارك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل ترميز One-hot، يمكن للنموذج تعلُّم عمليات الربط المختلفة استنادًا إلى كل بلد من البلدان الخمسة.

يُعدّ تمثيل سمة على أنّها بيانات رقمية بديلاً للترميز الواحد الفاعل. لا يُعدّ تمثيل البلدان Scandanavian رقميًا خيارًا جيدًا. على سبيل المثال، نأخذ التمثيل الرقمي التالي:

  • "الدنمارك" هي 0
  • "السويد" هي 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • "آيسلندا" هي 4

باستخدام الترميز الرقمي، سيفسر النموذج الأرقام الأولية رياضيًا وسيحاول التدريب على هذه الأرقام. ومع ذلك، فإنّ آيسلندا ليست في الواقع ضعف (أو نصف) شيء مثل النرويج، لذا سيتوصّل النموذج إلى بعض الاستنتاجات الغريبة.

واحد مقابل الكل

#fundamentals

في حال توفّر مشكلة تصنيف تتضمّن N فئة، يتمثل ال الحلّ في N مصنّف ثنائي منفصل، أي مصنّف ثنائي لكل نتيجة محتملة. على سبيل المثال، في حال توفّر نموذج يصنف الأمثلة كحيوان أو نبات أو معدن، سيقدّم حلّ "واحد مقابل الكل" الثلاثة المصنّفات الثنائية المنفصلة التالية:

  • حيوان مقابل غير حيوان
  • الخضار مقابل غير الخضار
  • معدن مقابل غير معدن

على الإنترنت

#fundamentals

مرادف لـ ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، لنفترض أنّ تطبيقًا يُرسل إدخالًا إلى نموذج ويُصدر طلبًا للحصول على توقّع. يستجيب النظام الذي يستخدم الاستنتاج على الإنترنت للطلب من خلال تشغيل النموذج (وإرجاع التوقّع إلى التطبيق).

يختلف ذلك عن الاستنتاج بلا إنترنت.

الطبقة النهائية

#fundamentals

الطبقة "النهائية" للشبكة العصبية تحتوي طبقة الإخراج على التوقّع.

يعرض الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة
          خرج واحدة تتألّف طبقة الإدخال من سمتَين. تتكون الطبقة العميقة
          الأولى من ثلاثة خلايا عصبية، وتتكون الطبقة العميقة
          الثانية من خليتين عصبيتين. تتكوّن طبقة الإخراج من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب بشكلٍ وثيق لدرجة أنّ النموذج لا يتمكن من تقديم تنبؤات صحيحة بشأن البيانات الجديدة

يمكن أن تقلل التسوية من التكيّف المفرط. يمكن أن يؤدي التدريب على مجموعة تدريبية كبيرة ومتنوعة أيضًا إلى تقليل مشكلة التكيّف المفرط.

P

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات المستندة إلى الأعمدة، تم إنشاؤها استنادًا إلى numpy. تتيح العديد من إطارات عمل تعلُّم الآلة، بما في ذلك TensorFlow، استخدام بنى بيانات pandas كمدخلات. اطّلِع على مستندات pandas للحصول على التفاصيل.

مَعلمة

#fundamentals

المَعلمات والانحيازات التي يتعلمها النموذج أثناء التدريب على سبيل المثال، في نموذج الانحدار الخطي، تتألف المَعلمات من الانحراف (b) وجميع الأوزان (w1 وw2، وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المَعلمات الفائقة هي القيم التي يقدّمها أنت (أو خدمة ضبط المَعلمات الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة.

فئة موجبة

#fundamentals

الفئة التي تختبرها.

على سبيل المثال، قد تكون الفئة الموجبة في نموذج السرطان هي "ورم". قد تكون الفئة الموجبة في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير مرغوب فيها".

يختلف ذلك عن الفئة السلبية.

المعالجة اللاحقة

#fairness
#fundamentals

تعديل ناتج نموذج بعد تشغيله يمكن استخدام مرحلة ما بعد المعالجة لفرض قيود المساواة بدون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على مصنّف ثنائي من خلال ضبط حدّ تصنيف بحيث يتم الحفاظ على تكافؤ الفرص لبعض السمات من خلال التحقّق من أنّ معدّل الموجب الحقيقي هو نفسه لجميع قيم تلك السمة.

التوقّع

#fundamentals

ناتج النموذج على سبيل المثال:

  • التنبؤ بنموذج التصنيف الثنائي هو إما فئة الشدَّة الإيجابية أو فئة الشدَّة السلبية.
  • التنبؤ الذي يقدّمه نموذج التصنيف المتعدّد الفئات هو فئة واحدة.
  • التنبؤ الذي يقدّمه نموذج الانحدار الخطي هو رقم.

التصنيفات التقريبية

#fundamentals

البيانات المستخدَمة لتقريب التصنيفات غير متوفّرة مباشرةً في مجموعة بيانات.

على سبيل المثال، لنفترض أنّه عليك تدريب نموذج للتنبؤ بمستوى الإجهاد لدى الموظفين. تحتوي مجموعة البيانات على الكثير من الميزات التوقّعية، ولكنها لا تحتوي على تصنيف باسم مستوى الإجهاد. لا داعي للقلق، يمكنك اختيار "حوادث مكان العمل" كسمة تمثيلية لقياس مستوى الإجهاد. بعد كل شيء، يتعرّض الموظفون الذين يعانون من ضغوط شديدة لمزيد من الحوادث مقارنةً بالموظفين الهادئين. أم أنّه ليس كذلك؟ قد تزيد حوادث مكان العمل وينخفض عددها لأسباب متعدّدة.

في المثال الثاني، لنفترض أنّك تريد أن يكون هل تهطل الأمطار؟ تصنيفًا منطقيًا لمجموعة بياناتك، ولكنّ مجموعة البيانات لا تحتوي على بيانات عن هطول الأمطار. إذا كانت هناك صور متاحة، يمكنك استخدام صور أشخاص يحملون مظلات كتصنيف بديل لعبارة هل تهطل الأمطار؟ هل هذا تصنيف تقريبي جيد؟ من المحتمل، ولكن قد يكون من المرجّح أن يحمل الناس في بعض الثقافات مظلات لحماية أنفسهم من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الخوادم الوكيلة غير كاملة. اختَر التصنيفات الفعلية بدلاً من تصنيفات الوكيل كلما أمكن. ومع ذلك، في حال عدم توفّر تصنيف فعلي، يجب اختيار التصنيف البديل بعناية شديدة، مع اختيار التصنيف البديل الأقل سوءًا.

R

RAG

#fundamentals

اختصار لعبارة إنشاء مُحسَّن لاسترداد المعلومات.

مُصنِّف

#fundamentals

هو شخص يقدّم تصنيفات للأمثلة. "المُعلِق" هو اسم آخر للمُقيّم.

وحدة خطية مصحَّحة (ReLU)

#fundamentals

دالة تفعيل ذات السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان المدخل موجبًا، يكون الناتج مساويًا للمدخل.

على سبيل المثال:

  • إذا كان المدخل -3، يكون الناتج 0.
  • إذا كان الإدخال 3+، يكون الناتج 3.0.

في ما يلي رسم بياني لـ ReLU:

رسم بياني كارتيزيتي لخطَّين يحتوي السطر الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني عند 0,0. يمتلك هذا الخط ميلًا موجبًا +1، لذا
          يمتد من 0,0 إلى +∞,+∞.

وتعدّ ReLU دالة تنشيط رائجة جدًا. على الرغم من سلوكه البسيط، يظلّ نموذج ReLU يتيح للشبكة العصبية تعلُّم العلاقات غير الخطية بين السمات والتصنيف.

نموذج الانحدار

#fundamentals

بشكل غير رسمي، نموذج يُنشئ توقّعات رقمية (على عكس ذلك، يُنشئ نموذج التصنيف تنبؤًا للفئة.) على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • نموذج يتنبأ بقيمة منزل معيّن باليورو، مثل 423,000.
  • نموذج يتنبّأ بمتوسط العمر المتوقع لشجرة معيّنة بالسنة، مثل 23.2
  • نموذج يتنبّأ بكمية الأمطار التي ستتساقط في مدينة معيّنة خلال الساعات الستة المقبلة، مثل 0.18.

النوعان الشائعان من نماذج الانحدار هما:

  • الانحدار الخطي، الذي يعثر على الخط الذي يلائم قيم التصنيفات بشكلٍ أفضل مع العناصر
  • الانحدار اللوجستي، الذي ينشئ احتمالية تتراوح بين 0.0 و1.0، والتي يربطها النظام عادةً بتنبؤ للفئة.

ليس كل نموذج يعرض توقّعات رقمية هو نموذج انحدار. في بعض الحالات، يكون التوقّع الرقمي مجرد نموذج تصنيف يتضمّن أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبّأ برمز بريدي رقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلّل من الملاءمة الزائدة تشمل الأنواع الشائعة من التسويف ما يلي:

يمكن أيضًا تعريف التّنظيم على أنّه العقوبة المفروضة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدِّد الأهمية النسبية لمحاولة التسوية أثناء التدريب. يؤدي رفع معدل التنظيم إلى تقليل التفاصيل الزائدة، ولكن قد يؤدي إلى تقليل قدرة النموذج على التنبؤ. في المقابل، يؤدي تقليل أو حذف معدّل التنظيم إلى زيادة التكيّف المفرط.

ReLU

#fundamentals

اختصار وحدة خطية مصحَّحة.

إنشاء البيانات المعزّزة بالاسترجاع (RAG)

#fundamentals

أسلوب لتحسين جودة ناتج النموذج اللغوي الكبير (LLM) من خلال ربطه بمصادر المعرفة التي تم استرجاعها بعد تدريب النموذج تحسِّن ميزة "الردّ المخصّص حسب الغرض" دقة ردود النماذج اللغوية الكبيرة من خلال منح النموذج اللغوي الكبير المدّرب إمكانية الوصول إلى المعلومات التي يتم استرجاعها من قواعد بيانات أو مستندات موثوقة.

تشمل الدوافع الشائعة لاستخدام ميزة "إنشاء المحتوى بالاستناد إلى محتوى سبق أن شاهدته" ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها النموذج
  • منح النموذج إذن الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج
  • تفعيل النموذج للإشارة إلى المصادر

على سبيل المثال، لنفترض أنّ تطبيقًا للكيمياء يستخدم PaLM API لإنشاء ملخّصات مرتبطة بطلبات بحث المستخدمين. عندما تتلقّى الخلفية في التطبيق طلب بحث، تُجري الخلفية ما يلي:

  1. البحث عن ("استرداد") البيانات ذات الصلة بطلب بحث المستخدم
  2. إلحاق بيانات الكيمياء ذات الصلة ("تعزيز") بطلب بحث المستخدم
  3. يوجّه هذا الإجراء نموذج اللغة الضخم (LLM) لإنشاء ملخّص استنادًا إلى البيانات المُلحَقة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني لمعدل الموجب الصحيح مقابل معدل الموجب الخاطئ لحدود التصنيف المختلفة في التصنيف الثنائي

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. لنفترض مثلاً أنّ نموذج التصنيف الثنائي يفصل تمامًا بين جميع فئات السلبية وجميع فئات الإيجابية:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على الجانب الأيمن
          7 أمثلة سلبية على الجانب الأيسر

يظهر منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى ROC المحور x هو &quot;معدل الموجب الخاطئ&quot; والمحور y هو
          &quot;النسبة الموجبة الصائبة&quot;. يكون المنحنى على شكل حرف L مقلوب. يبدأ المنحنى
          عند (0.0,0.0) ويرتفع مباشرةً إلى (0.0,1.0). بعد ذلك، ينتقل المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

في المقابل، يعرض الرسم التوضيحي التالي قيم الانحدار اللوجستي التلقائية لنموذج سيئ لا يمكنه فصل الفئات السلبية عن الفئات الإيجابية على الإطلاق:

خطّ أعداد يتضمّن أمثلة إيجابية وفئات سلبية
          مختلطة تمامًا

يظهر منحنى ROC لهذا النموذج على النحو التالي:

منحنى ROC، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

في الوقت نفسه، في العالم الواقعي، تفصل معظم نماذج التصنيف الثنائي بين الفئات الإيجابية والسلبية إلى حدّ ما، ولكن ليس بشكلٍ كامل عادةً. وبالتالي، يقع منحنى ROC النموذجي في مكان ما بين الحدّين الأدنى والأعلى:

منحنى ROC المحور x هو &quot;معدل الموجب الخاطئ&quot; والمحور y هو
          &quot;النسبة الموجبة الصائبة&quot;. يشبه منحنى ROC قوسًا متذبذبًا
          يقطع نقاط البوصلة من الغرب إلى الشمال.

تحدِّد النقطة على منحنى ROC الأقرب إلى (0.0,1.0) نظريًا عتبة التصنيف المثالية. ومع ذلك، تؤثر عدة مشاكل أخرى في العالم الواقعي في اختيار الحدّ الأمثل للتصنيف. على سبيل المثال، قد تتسبب النتائج السلبية الخاطئة في مشاكل أكثر بكثير من النتائج الموجبة الخاطئة.

يلخِّص مقياس عددي يُسمى AUC منحنى ROC في قيمة واحدة بفاصل عشري.

جذر الخطأ التربيعي المتوسّط (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط

S

الدالّة الإسية

#fundamentals

دالة رياضية "تضغط" قيمة الإدخال في نطاق محدود، عادةً من 0 إلى 1 أو -1 إلى +1. وهذا يعني أنّه يمكنك تمرير أي رقم (اثنان أو مليون أو مليار سلبي أو أيّ رقم آخر) إلى دالة sigmoid وسيظلّ الناتج ضمن النطاق المحدود. يظهر الرسم البياني لدالة التنشيط السينية على النحو التالي:

رسم بياني منحني ثنائي الأبعاد بقيم x تتراوح بين ما يلي:
          ما لا نهاية إلى موجب، بينما تتراوح قيم y بين 0 تقريبًا
          و1 تقريبًا. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

لدالة السينية العديد من الاستخدامات في تعلُّم الآلة، بما في ذلك:

softmax

#fundamentals

دالة تحدّد احتمالات كل فئة محتملة في نموذج تصنيف متعدد الفئات. تُضاف الاحتمالات معًا لتشكل 1.0 بالضبط. على سبيل المثال، يعرض الجدول التالي كيفية توزيع دالة softmax على الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب 0.85
هرّ ‎.13
حصان 0.02

تُعرف دالة Softmax أيضًا باسم دالة Softmax الكاملة.

يختلف ذلك عن تحليل العينات المحتمَلة.

خاصية متناثرة

#language
#fundamentals

سمة تكون قيمها غالبًا صفرًا أو فارغة على سبيل المثال، تكون الميزة التي تحتوي على قيمة 1 واحدة ومليون قيمة 0 متباعدة. في المقابل، تحتوي الميزة الكثيفة على قيم تكون في الغالب غير صفرية أو فارغة.

في مجال تعلُّم الآلة، هناك عدد كبير من الميزات المتفرقة. وتكون الميزات الفئوية عادةً ميزات متناثرة. على سبيل المثال، من بين 300 نوع من الأشجار المحتملة في الغابة، قد يحدِّد مثال واحد شجرة قيقب فقط. أو من بين ملايين الفيديوهات المحتمَلة في مكتبة فيديوهات، قد يحدِّد مثال واحد فقط "الدار البيضاء".

في النموذج، يتم عادةً تمثيل الميزات المتفرقة باستخدام التشفير الثنائي. إذا كان التشفير الواحد النشط كبيرًا، يمكنك وضع طبقة إدراج فوق التشفير الواحد النشط لتحقيق كفاءة أكبر.

تمثيل متناثر

#language
#fundamentals

تخزين المواضع للعناصر غير الصفرية فقط في سمة متفرّقة

على سبيل المثال، لنفترض أنّ سمة تصنيفية باسم species تحدّد 36 نوعًا من الأشجار في غابة معيّنة. لنفترض أيضًا أنّ كل مثال يحدّد نوعًا واحدًا فقط.

يمكنك استخدام متجه أحادي القيمة لتمثيل أنواع الأشجار في كل مثال. سيحتوي المتجه أحادي القيمة على 1 واحد (لتمثيل أنواع الأشجار المحدّدة في هذا المثال) و35 0 (لتمثيل أنواع الأشجار الـ 35 غير المُدرَجة في هذا المثال). وبالتالي، قد يبدو التمثيل الثنائي المميّز لـ maple على النحو التالي:

متجه يكون فيه الموضع 0 إلى 23 يحمل القيمة 0، والموضع
          24 يحمل القيمة 1، والموضع 25 إلى 35 يحمل القيمة 0

بدلاً من ذلك، سيحدِّد التمثيل المتفرق ببساطة موضع الأنواع المحدّدة. إذا كان maple في الموضع 24، سيكون التمثيل المتناثر maple على النحو التالي:

24

يُرجى ملاحظة أنّ التمثيل المتفرق أكثر كثافة من التمثيل المميّز بقيمة واحدة.

متّجه متناثر

#fundamentals

متجه تكون قيمه صفرًا في الغالب راجِع أيضًا سمة المتخلّلة والتخلّل.

الخسارة التربيعية

#fundamentals

مرادف لخسارة L2.

ثابت

#fundamentals

إجراء يتم تنفيذه مرة واحدة بدلاً من تنفيذه باستمرار العبارة ثابت مرادفة للعبارة بلا إنترنت. في ما يلي الاستخدامات الشائعة للبيانات الثابتة وغير المتصلة بالإنترنت في تعلُّم الآلة:

  • النموذج الثابت (أو النموذج بلا إنترنت) هو نموذج تم تدريبه مرة واحدة ثم استخدامه لبعض الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو عملية ينشئ فيها النموذج مجموعة من التوقّعات في المرة الواحدة.

يختلف عن الإعلانات الديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

الثبات

#fundamentals

سمة لا تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، تُظهر الميزة التي تبدو قيمها متماثلة تقريبًا في عامَي 2021 و 2023 ثباتًا.

في العالم الواقعي، تظهر سمات قليلة جدًا ثباتًا. حتى الميزات التي تشير إلى الاستقرار (مثل مستوى سطح البحر) تتغيّر بمرور الوقت.

يُرجى الاطّلاع على عدم الاستقرار.

النزول المتدرّج العشوائي

#fundamentals

خوارزمية التدرّج الهابط التي يكون فيها حجم الحزمة واحدًا بعبارة أخرى، يتم تدريب دالة SGD على مثال واحد يتم اختياره بشكل موحّد وبطريقة عشوائية من مجموعة تدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من السمات وتصنيفاتها المقابلة يشبه تعلُّم الآلة الخاضع للإشراف تعليم موضوع معيّن من خلال دراسة مجموعة من الأسئلة والاطلاع على إجاباتها المقابلة. بعد أن يتقن الطالب عملية الربط بين الأسئلة والكلمات الإجابية، يمكنه بعد ذلك تقديم إجابات عن أسئلة جديدة (لم يسبق له الاطّلاع عليها) حول الموضوع نفسه.

قارِن ذلك مع تعلُّم الآلة غير المراقَب.

خاصية مصطنعة

#fundamentals

عنصر غير متوفّر بين عناصر الإدخال، ولكن تمّ تجميعه من عنصر واحد أو أكثر منها. تشمل طرق إنشاء ميزات اصطناعية ما يلي:

  • تجميع سمة مستمرة في مجموعات نطاقات
  • إنشاء تداخل ميزات
  • ضرب (أو قسمة) قيمة سمة واحدة في قيم سمات أخرى أو في نفسها على سبيل المثال، إذا كانت a وb سمتَي إدخال، إليك أمثلة على السمات الاصطناعية:
    • ab
    • a2
  • تطبيق دالة لامتناهية على قيمة سمة على سبيل المثال، إذا كان c سمة إدخال، في ما يلي أمثلة على السمات التركيبية:
    • sin(c)
    • ln(c)

لا تُعتبر الميزات التي تم إنشاؤها من خلال التسوية أو التكبير/التصغير وحدها ميزات اصطناعية.

T

خسارة الاختبار

#fundamentals

مقياس يمثّل الخسارة للنموذج مقارنةً بمجموعة الاختبار عند إنشاء نموذج، تحاول عادةً تقليل الخسارة في الاختبار. ويعود السبب في ذلك إلى أنّ انخفاض خسارة الاختبار يمثّل إشارة جودة أقوى من انخفاض خسارة التدريب أو انخفاض خسارة التحقّق.

في بعض الأحيان، يشير الاختلاف الكبير بين خسارة الاختبار وخسارة التدريب أو خسارة التحقّق إلى أنّه عليك زيادة معدّل التنظيم.

التدريب

#fundamentals

عملية تحديد المَعلمات المثالية (الأوزان والتأثيرات المسبقة) التي تتألف منها النموذج أثناء التدريب، يقرأ النظام عيّنات ويضبط المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل الخسارة للنموذج أثناء دورة تدريب معيّنة على سبيل المثال، لنفترض أنّ دالة الخسارة هي متوسط الخطأ التربيعي. قد يكون فقدان التدريب (متوسط الخطأ التربيعي) للتكرار 10 هو 2.2، وفقدان التدريب للتكرار 100 هو 1.9.

يوضِّح منحنى الخسارة خسارة التدريب مقارنةً بعدد المرات المتكرّرة. يوفّر منحنى الخسارة التلميحَين التاليَين عن التدريب:

  • يشير الانحدار إلى الأسفل إلى أنّ النموذج يتحسّن.
  • يشير الانحدار التصاعدي إلى أنّ أداء النموذج يزداد سوءًا.
  • يشير المنحدر المستوي إلى أنّ النموذج وصل إلى مرحلة التقارب.

على سبيل المثال، يوضّح منحنى الخسارة التالي الذي يُعدّ مثاليًا إلى حدٍ ما ما يلي:

  • منحدر حادّ للأسفل أثناء النُسخ الأولية، ما يشير إلى تحسين النموذج بسرعة.
  • منحدر مسطّح تدريجيًا (ولكن لا يزال ينخفض) حتى قرب نهاية العملية التدريب، ما يشير إلى استمرار تحسين النموذج بوتيرة أبطأ إلى حد ما مقارنةً بالتكرارات الأولية
  • منحدر مستوٍ باتجاه نهاية التدريب، ما يشير إلى التقارب

رسم بياني لخسارة التدريب في مقابل التكرارات يبدأ منحنى الخسارة هذا
    بانحدار حاد للأسفل. يصبح الميل تدريجيًا مسطّحًا إلى أن يصبح الميل
    صفرًا.

على الرغم من أنّ فقدان البيانات أثناء التدريب مهم، يمكنك أيضًا الاطّلاع على التعميم.

الانحراف في عرض البيانات التدريبية

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء التقديم

مجموعة التدريب

#fundamentals

مجموعة فرعية من مجموعة البيانات المستخدَمة لتدريب نموذج.

يتم تقسيم الأمثلة في مجموعة البيانات عادةً إلى المجموعات الفرعية التالية المميّزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

سالب صحيح (TN)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة السلبية. على سبيل المثال، يستنتج النموذج أنّ رسالة بريد إلكتروني معيّنة ليست رسالة غير مرغوب فيها، وأنّ رسالة البريد الإلكتروني هذه هي ليست رسالة غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة الموجبة. على سبيل المثال، يستنتج النموذج أنّه هناك رسالة إلكترونية معيّنة غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية غير مرغوب فيها حقًا.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف لـ الرجوع. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

يمثّل معدل الموجب الصحيح محور y في منحنى خاصية تشغيل جهاز الاستقبال.

U

فرط التعميم

#fundamentals

إنشاء نموذج يتمتع بقدرة ضعيفة على التوقّع لأنّه لم يرصد بشكل كامل تعقيد بيانات التدريب يمكن أن تؤدي العديد من المشاكل إلى حدوث "نقص في التطابق"، بما في ذلك:

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات ولكن ليس به تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مُصنَّفة من نموذج تقييم المنزل، ولكلّ منها ثلاث ميزات ولكن بدون قيمة المنزل:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المُراقَب، يتم تدريب النماذج على أمثلة مصنّفة وإجراء توقّعات بشأن أمثلة غير مصنّفة.

في التعلم شبه المُراقَب والتعلم غير المُراقَب، يتم استخدام أمثلة غير مصنّفة أثناء التدريب.

قارِن بين المثال غير المصنّف والمثال المصنّف.

تعلُّم الآلة غير الخاضع للإشراف

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، عادةً ما تكون مجموعة بيانات غير مصنّفة

إنّ الاستخدام الأكثر شيوعًا لتقنية تعلُّم الآلة غير الخاضع للإشراف هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن أن تجمع خوارزمية التعلم الآلي غير الخاضعة للإشراف الأغاني استنادًا إلى خصائص مختلفة للموسيقى. يمكن أن تصبح المجموعات الناتجة مدخلات لخوارزميات تعلُّم الآلة الأخرى (مثل خدمة اقتراح الموسيقى). يمكن أن يساعد التجميع العنقودي في حال ندرت التصنيفات المفيدة أو عدم توفّرها. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات في فهم البيانات بشكل أفضل.

يختلف هذا النوع عن تعلُّم الآلة المراقَب.

V

الإثبات

#fundamentals

التقييم الأولي لجودة النموذج تتحقّق عملية التحقّق من جودة توقّعات النموذج مقارنةً ب مجموعة التحقّق.

بما أنّ مجموعة التحقّق تختلف عن مجموعة التدريب، تساعد عملية التحقّق في تجنُّب الملاءمة الزائدة.

يمكنك اعتبار تقييم النموذج مقارنةً بمجموعة التحقّق هو المحاولة الأولى للاختبار، وتقييم النموذج مقارنةً ب مجموعة الاختبار هي المحاولة الثانية للاختبار.

فقدان القيمة الصالحة

#fundamentals

مقياس يمثّل الخسارة للنموذج على مجموعة التحقّق خلال تكرار معيّن من التدريب

راجِع أيضًا منحنى التعميم.

مجموعة التحقّق

#fundamentals

مجموعة فرعية من مجموعة البيانات التي تُجري تقييمًا أولى باستخدام نموذج تم تدريبه. عادةً ما يتم تقييم النموذج المدّرب على مجموعة التحقّق عدة مرات قبل تقييم النموذج على مجموعة الاختبار.

عادةً ما تقسم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية التالية المميّزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

واط

الوزن

#fundamentals

قيمة يضربها النموذج بقيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، ويُعدّ الاستنتاج عملية استخدام هذه الأوزان المستندة إلى التعلّم بهدف التوقّعات.

مجموع مركّز

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في الأوزان المقابلة لها على سبيل المثال، لنفترض أنّ الإدخالات ذات الصلة تتألف مما يلي:

قيمة الإدخال وزن الإدخال
2 -1.3
-1 0.6
3 0.4

وبالتالي، فإنّ المجموع المرجح هو:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال في دالة التفعيل.

Z

تسوية الدرجة المعيارية

#fundamentals

أسلوب تصغير يستبدل قيمة السمة الأوّلية بقيمة عشرية تمثل عدد الانحرافات المعيارية عن متوسّط تلك السمة. على سبيل المثال، لنفترض أنّ قيمة السمة المتوسطة هي 800 وأنّ الانحراف المعياري هو 100. يوضّح الجدول التالي كيفية ربط القيمة الأولية بنتيجة الاختبار المعياري z-score باستخدام ميزة تسويّة نتيجة الاختبار المعياري:

قيمة أساسية الدرجة المعيارية
800 0
950 ‫+1.5
575 -2.25

بعد ذلك، يتم تدريب نموذج تعلُّم الآلة على نتائج اختبار Z لهذه الميزة بدلاً من القيم الأوّلية.