مسرد مصطلحات تعلُم الآلة

يحدِّد مسرد المصطلحات هذا مصطلحات تعلُّم الآلة.

A

الاستئصال

تقنية لتقييم أهمية ميزة أو مكوّن من خلال إزالته مؤقتًا من نموذج. بعد ذلك، تتم إعادة تدريب النموذج بدون هذه الميزة أو المكوّن، وإذا كان أداء النموذج الذي تمت إعادة تدريبه أسوأ بكثير، من المرجّح أن تكون الميزة أو المكوّن المُزالان مهمَّين.

على سبيل المثال، لنفترض أنّك تدرّبت على نموذج تصنيف باستخدام 10 ميزات وحقّقت دقة بنسبة% 88 في مجموعة الاختبار. للتحقّق من أهمية الميزة الأولى، يمكنك إعادة تدريب النموذج باستخدام الميزات التسع الأخرى فقط. إذا كان أداء النموذج الذي تمت إعادة تدريبه أسوأ بكثير (على سبيل المثال، دقة تبلغ% 55)، من المحتمل أن تكون الميزة التي تمّت إزالتها مهمة. في المقابل، إذا كان النموذج الذي تمت إعادة تدريبه يحقّق أداءً جيدًا بالقدر نفسه، من المرجّح أنّ هذه الميزة لم تكن مهمّة جدًا.

يمكن أن تساعد إزالة الأنسجة أيضًا في تحديد أهمية ما يلي:

  • المكونات الأكبر حجمًا، مثل نظام فرعي كامل لنظام تعلُّم آلي أكبر
  • العمليات أو الأساليب، مثل خطوة المعالجة المسبقة للبيانات

في كلتا الحالتَين، ستلاحظ كيف يتغيّر أداء النظام (أو لا يتغيّر) بعد إزالة المكوّن.

اختبار A/B

طريقة إحصائية لمقارنة طريقتَين (أو أكثر) هما أ وب عادةً ما يكون أ أسلوبًا حاليًا، ويكون ب أسلوبًا جديدًا. لا يحدّد اختبار A/B فقط التقنية التي تحقّق أداءً أفضل، ولكنه يحدّد أيضًا ما إذا كان الفرق ذو دلالة إحصائية.

يقارن اختبار A/B عادةً مقياسًا واحدًا باستخدام طريقتَين. على سبيل المثال، كيف تختلف دقة النموذج باستخدام طريقتَين؟ ومع ذلك، يمكن أن تقارن اختبارات أ/ب أيضًا أي عدد محدود من المقاييس.

شريحة مسرع

#GoogleCloud

فئة من مكوّنات الأجهزة المخصّصة المصمّمة لإجراء العمليات الحسابية العميقة اللازمة لخوارزميات التعلّم العميق

يمكن أن تؤدي شرائح المعالِجات (أو المعالِجات ببساطة) إلى زيادة سرعة وكفاءة مهام التدريب والاستنتاج بشكلٍ كبير مقارنةً بوحدة المعالجة المركزية (CPU) المخصّصة للأغراض العامة. وهي مثالية لتدريب الشبكات العصبية والمهام المشابهة التي تتطلّب معالجة مكثفة.

تشمل أمثلة شرائح المعالِج ما يلي:

  • وحدات معالجة الموتّرات من Google‏ (TPUs) مع أجهزة مخصّصة للتعليم العميق
  • وحدات معالجة الرسومات من NVIDIA التي تم تصميمها في البداية لمعالجة الرسومات، ولكنها مصمّمة أيضًا لتفعيل المعالجة المتزامنة التي يمكن أن تزيد بشكلٍ كبير من سرعة المعالجة

الدقة

#fundamentals

عدد التوقّعات الصحيحة للتصنيف مقسومًا على إجمالي عدد التوقّعات والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، إذا كان النموذج قدّم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة، ستكون دقته على النحو التالي:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء محدّدة لفئات مختلفة من التوقّعات الصحيحة و التوقّعات غير الصحيحة. وبالتالي، فإنّ صيغة الدقة للتصنيف الثنائي هي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

قارِن بين الدقة و الدقّة و اكتمال التوقعات الإيجابية.

اطّلِع على التصنيف: الدقة ومعدل الاسترجاع والدقة والمقاييس المتعلّقة في الدورة التدريبية المكثّفة لتعلُّم الآلة لمزيد من المعلومات.

إجراء

#rl

في التعلُّم التعزيزي، هي الآلية التي ينتقل بها العامل بين حالات البيئة. يختار موظّف الدّعم الإجراء باستخدام سياسة.

دالة التفعيل

#fundamentals

دالة تتيح للشبكات العصبية تعلُّمالعلاقات غير الخطية (المعقدة) بين السمات والتصنيف.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون الرسوم البيانية لدوالّ التنشيط خطوطًا مستقيمة فردية أبدًا. على سبيل المثال، يتألّف الرسم البياني لدالة تنشيط ReLU من سطرين مستقيمين:

رسم بياني كارتيزيتي لخطَّين يحتوي السطر الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني عند 0,0. يمتلك هذا الخط ميلًا موجبًا +1، لذا
          يمتد من 0,0 إلى +∞,+∞.

يظهر الرسم البياني لدالة التنشيط السينية على النحو التالي:

رسم بياني منحني ثنائي الأبعاد بقيم x تتراوح بين ما يلي:
          ما لا نهاية إلى موجب، بينما تتراوح قيم y بين 0 تقريبًا
          و1 تقريبًا. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

اطّلِع على الشبكات العصبية: وظائف activation في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

التعلّم النشط

منهج التدريب الذي تختار فيه العبارة الخوارزمية بعض البيانات التي تتعلم منها. يكون التعلّم النشط قيّمًا بشكل خاص عندما تكون الأمثلة المصنّفة نادرة أو باهظة الثمن. بدلاً من البحث بشكل أعمى عن مجموعة متنوعة من الأمثلة المُصنَّفة، تبحث خوارزمية التعلّم النشط بشكل انتقائي عن النطاق المحدّد من الأمثلة التي تحتاجها للتعلم.

AdaGrad

خوارزمية متقدّمة للتدرّج التنازلي تعمل على إعادة تقييم التدرّجات لكل مَعلمة، ما يمنح كل مَعلمة معدل تعلُّم مستقلاً. للحصول على شرح كامل، يُرجى الاطّلاع على هذه المقالة حول AdaGrad.

وكيل

#rl

في التعلُّم التعزيزي، العنصر الذي يستخدم سياسة لزيادة العائد المتوقّع من الانتقال بين حالات البيئة.

بشكل عام، الوكيل هو برنامج يخطّط وينفّذ بشكل مستقل سلسلة من الإجراءات لتحقيق هدف معيّن، مع القدرة على التكيّف مع التغيُّرات في بيئته. على سبيل المثال، قد يستخدم موظّف دعم مستند إلى LLM أسلوبًا للتعلم الآلي الضخم من أجل إنشاء خطة، بدلاً من تطبيق سياسة تعلُّم متعزّز.

التجميع من الأسفل إلى الأعلى

#clustering

اطّلِع على التجميع الهرمي.

رصد القيم الشاذة

عملية تحديد القيم الشاذة على سبيل المثال، إذا كان متوسّط السمة معيّنة هو 100 مع انحراف معيّن يبلغ 10، يجب أن يُبلغ أسلوب رصد القيم الشاذة عن قيمة 200 باعتبارها قيمة مريبة.

الأرجنتين

اختصار الواقع المعزّز.

المساحة تحت منحنى PR

اطّلِع على مساحة تحت منحنى العلاقات العامة (PR AUC).

المساحة تحت منحنى ROC

اطّلِع على AUC (المساحة تحت منحنى ROC).

الذكاء الاصطناعي العام

آلية غير بشرية تُظهر مجموعة واسعة من مهارات حلّ المشاكل والإبداع والتكيّف على سبيل المثال، يمكن لبرنامج يُظهر ذكاءً اصطناعيًا عامًا ترجمة النصوص وتأليف سمفونيات والتميُّز في الألعاب التي لم يتم اختراعها بعد.

الذكاء الاصطناعي

#fundamentals

برنامج أو نموذج غير بشري يمكنه حلّ مهام معقّدة على سبيل المثال، يعتمد كلّ من البرنامج أو النموذج الذي يترجم النصوص أو البرنامج أو النموذج الذي يحدد الأمراض من الصور الشعاعية على الذكاء الاصطناعي.

من الناحية الرسمية، تعلُّم الآلة هو حقل فرعي من الذكاء الاصطناعي. ومع ذلك، في السنوات الأخيرة، بدأت بعض المؤسسات في استخدام مصطلحَي الذكاء الاصطناعي وتعلُّم الآلة بالتبادل.

تنبيه

#language

آلية تُستخدَم في الشبكة العصبية تشير إلى أهمية كلمة معيّنة أو جزء من كلمة. تعمل ميزة "التركيز" على ضغط مقدار المعلومات التي يحتاجها النموذج لتوقّع الرمز/الكلمة التالية. قد يتألّف آلية الانتباه النموذجية من مجموع مرجح لمجموعة من المدخلات، حيث يتم احتساب المرجح لكل مدخل من خلال جزء آخر من الشبكة العصبية.

يمكنك أيضًا الرجوع إلى التركيز الذاتي و التركيز الذاتي المتعدّد الرؤوس، وهما تشكلان الوحدات الأساسية لشبكات Transformer.

اطّلِع على النماذج اللغوية الكبيرة: ما هو المقصود بالعبارة "نموذج لغوي كبير"؟ في الدورة التدريبية المكثّفة لتعلُّم الآلة لمعرفة المزيد من المعلومات عن الانتباه الذاتي.

سمة

#fairness

مرادف لـ feature.

في ما يتعلّق بإنصاف تعلُّم الآلة، غالبًا ما تشير السمات إلى السمات المتعلّقة بالأفراد.

جمع عيّنات من السمات

#df

منهج لتدريب غابة قرارات لا تأخذ كل شجرة قرارات فيها سوى مجموعة فرعية عشوائية من الميزات المحتمَلة في الاعتبار عند تعلُّم الشرط. بشكل عام، يتم أخذ عيّنة من مجموعة فرعية مختلفة من الميزات لكل عقدة. في المقابل، عند تدريب شجرة قرارات بدون أخذ عيّنات من السمات، يتمّ أخذ كلّ الميزات المحتمَلة في الاعتبار لكلّ عقدة.

المساحة تحت منحنى ROC

#fundamentals

رقم يتراوح بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. وكلما اقترب مقياس AUC من 1.0، كانت قدرة النموذج على فصل الفئات عن بعضها أفضل.

على سبيل المثال، تعرض الصورة التوضيحية التالية نموذجًا للتصنيف يفصل بين الفئات الموجبة (المربّعات الخضراء) والفئات السالبة (المربّعات البنفسجية) بشكلٍ مثالي. يحقّق هذا النموذج المثالي غير الواقعي قيمة AUC تبلغ 1.0:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على أحد الجانبين
          9 أمثلة سلبية على الجانب الآخر

في المقابل، تعرض الصورة التوضيحية التالية نتائج نموذج يندرج ضمن فئة المصنّفات ويُنشئ نتائج عشوائية. يحقّق هذا النموذج قيمة AUC تبلغ 0.5:

خطّ أعداد يتضمّن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو إيجابي، سلبي،
          إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي
          سلبي، إيجابي، سلبي.

نعم، يمتلك النموذج السابق قيمة AUC تبلغ 0.5، وليس 0.0.

تقع معظم النماذج بين هذين الحدّين. على سبيل المثال، يفصل النموذج التالي القيم الإيجابية عن القيم السلبية إلى حدّ ما، وبالتالي يكون له مقياس AUC بين 0.5 و1.0:

خطّ أعداد يتضمّن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو سلبي، سلبي، سلبي، سلبي،
          إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي،
          إيجابي.

يتجاهل مقياس AUC أي قيمة تحدّدها ل عتبة التصنيف. بدلاً من ذلك، تأخذ AUC جميع عتبات التصنيف الممكنة في الاعتبار.

اطّلِع على التصنيف: مخطّط ROC و AUC في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الواقع المعزّز

#image

تقنية تُظهر صورة يتم إنشاؤها على جهاز كمبيوتر على ما يراه المستخدم من العالم الواقعي، ما يوفر عرضًا مركبًا.

برنامج ترميز تلقائي

#language
#image

نظام يتعلّم استخراج أهم المعلومات من المدخلات أدوات الترميز التلقائي هي عبارة عن مزيج من أداة ترميز و أداة فك ترميز. تعتمد برامج الترميز التلقائي على العملية المكونة من خطوتَين التاليتَين:

  1. يُعرِض برنامج الترميز الإدخال بتنسيق (متوسط) ذي أبعاد أقلّ (عادةً) مع فقدان للبيانات.
  2. ينشئ برنامج الترميز العكسي نسخة ذات فقدان للبيانات من الإدخال الأصلي من خلال ربط التنسيق ذي الأبعاد الأقل بتنسيق الإدخال الأصلي ذي الأبعاد الأعلى.

يتم تدريب برامج الترميز التلقائية من البداية إلى النهاية من خلال محاولة وحدة فك التشفير إعادة إنشاء الإدخال الأصلي من التنسيق الوسيط لوحدة الترميز بأكبر قدر ممكن من الدقة. وبما أنّ التنسيق الوسيط أصغر (أبعاده أقل) من التنسيق الأصلي، يتم إجبار الترميز التلقائي على معرفة المعلومات الأساسية في الإدخال، ولن يكون الإخراج متطابقًا تمامًا مع الإدخال.

على سبيل المثال:

  • إذا كانت بيانات الإدخال عبارة عن رسم، ستكون النسخة غير الدقيقة مشابهة للرسم الأصلي، ولكن تم تعديلها إلى حد ما. من المحتمل أنّ النسخة غير الدقيقة تزيل التشويش من الرسم الأصلي أو تملأ بعض وحدات البكسل المفقودة.
  • إذا كانت بيانات الإدخال نصًا، سينشئ الترميز الآلي نصًا جديدًا يشبه النص الأصلي (ولكن ليس مطابقًا له).

راجِع أيضًا الترميز الذاتي المتغيّر.

التقييم التلقائي

#language
#generativeAI

استخدام البرامج لتقييم جودة نتائج النموذج

عندما تكون نتائج النموذج واضحة نسبيًا، يمكن لنص برمجي أو برنامج مقارنة نتائج النموذج باستجابة مثالية. يُطلَق على هذا النوع من التقييم التلقائي أحيانًا اسم التقييم الآلي. غالبًا ما تكون المقاييس، مثل ROUGE أو BLEU، مفيدة للتقييم الآلي.

عندما تكون نتيجة النموذج معقّدة أو لا تتضمّن إجابة صحيحة واحدة، يُجري برنامج تعلُّم آلي منفصل يُعرف باسم المقيّم التلقائي أحيانًا التقييم التلقائي.

يختلف ذلك عن التقييم البشري.

الانحياز للاقتراحات الآلية

#fairness

عندما يفضّل صانع القرار البشري الاقتراحات التي يقدّمها نظام اتّخاذ قرارات آلي على المعلومات التي يتمّ إنشاؤها بدون اتّباع إجراءات آلية، حتى في حال ارتكاب نظام اتّخاذ القرارات الآلي للأخطاء

اطّلِع على الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

AutoML

أي عملية آلية لإنشاء نماذج تعلُّم الآلة يمكن أن تُنفِّذ ميزة "التعلم الآلي التلقائي" مهام تلقائيًا، مثل ما يلي:

إنّ ميزة "تعلُّم الآلة الآلي" مفيدة لعلماء البيانات لأنّها يمكن أن توفر لهم الوقت والمحاولة في تطوير مسارات تعلُّم الآلة وتحسين دقة التنبؤ. وهي مفيدة أيضًا لغير الخبراء، إذ تسهّل عليهم تنفيذ المهام المعقدة المتعلّقة بتكنولوجيا تعلُّم الآلة.

اطّلِع على تعلُّم الآلة المبرمَج (AutoML) في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

تقييم التقييم التلقائي

#language
#generativeAI
آلية مختلطة لتقييم جودة ناتج نموذج الذكاء الاصطناعي التوليدي، والتي تجمع بين التقييم البشري والتقييم الآلي أداة التقييم الآلي هي نموذج تعلُّم آلة تم تدريبه على بيانات تم إنشاؤها من خلال التقييم البشري. من الناحية المثالية، يتعلم نظام "التصنيف الآلي" محاكاة أسلوب المقيّم البشري.

تتوفّر أدوات كتابة محتوى آلية مُعدّة مسبقًا، ولكن يتم تعديل أفضل أدوات الكتابة الآلية خصيصًا للمهمة التي تقيّمها.

النموذج التدرّجي التلقائي

#language
#image
#generativeAI

نموذج يستنتج توقّعًا استنادًا إلى توقّعاته السابقة على سبيل المثال، تتوقّع نماذج اللغة التسلسلية التلقائية العنصر التالي استنادًا إلى العناصر التي تم توقّعها سابقًا. جميع النماذج اللغوية الكبيرة المستندة إلى نموذج Transformer هي نماذج ذاتية الرجوع.

في المقابل، لا تكون نماذج الصور المستندة إلى GAN عادةً متراجِعة تلقائيًا، لأنّها تُنشئ صورة في خطوة واحدة إلى الأمام وليس بشكلٍ متكرّر في الخطوات. ومع ذلك، تكون بعض نماذج إنشاء الصور متراجِعة تلقائيًا لأنّها تُنشئ صورة على مراحل.

الخسارة الثانوية

دالة خسارة: تُستخدَم مع دالة خسارة نموذج الشبكة العصبية الرئيسية، وتساعد في تسريع التدريب أثناء المرات الأولى التي يتم فيها ضبط الأوزان عشوائيًا.

تدفع وظائف الخسارة المساعِدة المتدرجات الفعالة إلى الطبقات السابقة. ويسهّل ذلك التقارب أثناء التدريب من خلال مكافحة مشكلة تلاشي التدرّج.

متوسّط الدقة عند k

#language

مقياس لتلخيص أداء نموذج على طلب واحد يؤدي إلى توليد نتائج مصنّفة، مثل قائمة مرقّمة باقتراحات الكتب متوسّط الدقة عند k هو متوسّط قيم الدقة عند k لكل نتيجة ملائمة. وبالتالي، تكون صيغة متوسط الدقة عند k هي:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

حيث:

  • \(n\) هو عدد العناصر ذات الصلة في القائمة.

يُرجى الاطّلاع على الاسترجاع عند k.

شرط مُحاذاة المحور

#df

في شجرة قرارات، شرط لا يتضمن سوى ميزة واحدة. على سبيل المثال، إذا كان area سمة، يكون الشرط التالي متوافقًا مع المحور:

area > 200

يختلف عن الحالة المائلة.

B

الانتشار العكسي

#fundamentals

الخوارزمية التي تنفِّذ انحدار التدرج في الشبكات العصبية

يتضمن تدريب شبكة عصبية العديد من iterations لدورة المرورَين التالية:

  1. أثناء الخطوة إلى الأمام، يعالج النظام مجموعة من الأمثلة لتقديم توقّعات. يقارن النظام كلّ توقّع بكل قيمة تصنيف. الفرق بين التوقّع وقيمة التصنيف هو الخسارة لهذا المثال. يجمع النظام خسائر جميع النماذج لاحتساب إجمالي خسائر المجموعة الحالية.
  2. أثناء الخطوة الخلفية (الانتشار العكسي)، يحدّ النظام من الخسارة من خلال تعديل أوزان جميع الخلايا العصبية في جميع الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات المخفية. تساهم كل خلية عصبية من هذه الخلايا في إجمالي الخسارة بطرق مختلفة. تحدِّد تقنية الانتشار العكسي ما إذا كان يجب زيادة أو خفض الأوزان المطبَّقة على خلايا عصبية معيّنة.

معدّل التعلّم هو مُضاعِف يتحكّم في الدرجة التي تزيد بها كلّ خطوة للخلف أو تقلّل كلّ وزن. سيؤدي معدّل التعلّم الكبير إلى زيادة أو خفض كلّ وزن أكثر من معدّل التعلّم الصغير.

في مصطلحات التحليلات الرياضية، تُنفِّذ تقنية الانتشار العكسي قاعدة السلسلة. من التحليلات الرياضية. وهذا يعني أنّ طريقة الانتشار العكسي تحسب الناقصة الجزئية للخطأ بالاستناد إلى كل مَعلمة.

قبل سنوات، كان على خبراء الذكاء الاصطناعي كتابة رمز برمجي لتنفيذ تقنية الانتشار العكسي. تُنفِّذ الآن واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل Keras، تقنية الانتشار العكسي نيابةً عنك. أخيرًا!

اطّلِع على الشبكات العصبية في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الحزمة

#df

طريقة لتدريب مجموعة مُجمّعة يتم فيها تدريب كل نموذج مكوّن على مجموعة فرعية عشوائية من مثالب التدريب التي تم جمع عيّنات منها مع الاستبدال. على سبيل المثال، الغابة العشوائية هي مجموعة من أشجار القرارات التي تم تدريبها باستخدام أسلوب "التجميع".

مصطلح التجميع هو اختصار لجمع البيانات من النموذج الأساسي.

اطّلِع على الغابات العشوائية في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

مجموعة الكلمات

#language

تمثيل للكلمات في عبارة أو فقرة، بغض النظر عن الترتيب على سبيل المثال، تمثّل مجموعة الكلمات العبارات الثلاث التالية بشكلٍ متطابق:

  • الكلب يقفز
  • كلب يقفز
  • كلب يقفز

يتم ربط كل كلمة بفهرس في متجه متناثر، حيث يحتوي المتجه على فهرس لكل كلمة في القاموس. على سبيل المثال، تتم ترجمة العبارة the dog jumps إلى متجه ميزات يحتوي على قيم مختلفة عن الصفر في الفواصل الثلاثة التي تقابل الكلمات the وdog وjumps. يمكن أن تكون القيمة غير الصفرية أيًّا ممّا يلي:

  • 1 للإشارة إلى وجود كلمة
  • احتساب عدد مرّات ظهور كلمة معيّنة في الحقيبة على سبيل المثال، إذا كانت العبارة هي الكلب البني هو كلب ذو فراء بني، سيتم تمثيل كل من بني وكلب بالعدد 2، بينما سيتم تمثيل الكلمات الأخرى بالعدد 1.
  • أي قيمة أخرى، مثل اللوغاريتم لعدد المرات التي تظهر فيها كلمة في الحقيبة

خط الأساس

نموذج يُستخدَم كنقطة مرجعية لمقارنة مستوى أداء نموذج آخر (عادةً ما يكون أكثر تعقيدًا). على سبيل المثال، قد يُعدّ نموذج الانحدار اللوجستي أساسًا جيدًا للنموذج العميق.

بالنسبة إلى مشكلة معيّنة، يساعد خط الأساس مطوّري النماذج في قياس الحد الأدنى من الأداء المتوقّع الذي يجب أن يحقّقه النموذج الجديد ليكون مفيداً.

دفعة

#fundamentals

مجموعة الأمثلة المستخدَمة في جولة تدريب واحدة يحدِّد حجم الحزمة عدد الأمثلة في الحزمة.

اطّلِع على الفاصل الزمني للحصول على شرح عن كيفية ارتباط الحزمة بالفاصل الزمني.

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الاستنتاج المجمّع

#TensorFlow
#GoogleCloud

عملية استنتاج التوقّعات من عدة أمثلة غير مصنّفة مُقسّمة إلى مجموعات فرعية أصغر ("مجموعات").

يمكن أن تستفيد الاستنتاجات المجمّعة من ميزات التوازي في شرائح المعالِجات المُسرِّعة. وهذا يعني أنّه يمكن لمُسرِّعات متعدّدة استنتاج توقّعات في الوقت نفسه على دفعات مختلفة من المثالين غير المصنّفة، ما يؤدي إلى زيادة عدد الاستنتاجات بشكل كبير في الثانية.

اطّلِع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: الاستنتاج الثابت مقارنةً بالاستنتاج الديناميكي في الدورة التدريبية المكثّفة لتعلُّم الآلة للحصول على مزيد من المعلومات.

التسويّة المجمّعة

تسويف الإدخال أو الإخراج في وظائف التفعيل في الطبقة المخفية يمكن أن يوفّر أسلوب "التسوية المجمّعة" المزايا التالية:

حجم الدفعة

#fundamentals

عدد عيّنات في مجموعة. على سبيل المثال، إذا كان حجم المجموعة 100، يعالج النموذج 100 مثال في كل جولة.

في ما يلي استراتيجيات حجم الحِزم الشائعة:

  • النزول المتدرج العشوائي (SGD)، حيث يكون حجم المجموعة 1.
  • مجموعة كاملة، حيث يكون حجم المجموعة هو عدد النماذج في مجموعة التدريب بأكملها. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، سيكون حجم المجموعة المجمّعة مليون مثال. وعادةً ما تكون الحِزم الكاملة استراتيجية غير فعّالة.
  • الحِزم الصغيرة التي يتراوح حجم الحزمة فيها عادةً بين 10 و1,000 وعادةً ما تكون استراتيجية "الحِزم الصغيرة" هي الأكثر فعالية.

اطّلِع على ما يلي للحصول على مزيد من المعلومات:

الشبكة العصبية البايزيانية

شبكة عصبية احتمالية تراعيعدم اليقين في الأوزان والنواتج عادةً ما يتنبّأ نموذج الانحدار للشبكة العصبية العادية بقيمة عددية. على سبيل المثال، يتنبّأ نموذج عادي بسعر منزلٍ هو 853,000. في المقابل، تتوقّع الشبكة العصبية المستندة إلى نظرية بايز توزيعًا للقيم. على سبيل المثال، يتوقّع نموذج بايز سعر منزل يبلغ 853,000 مع انحراف معيّاري يبلغ 67,200.

تعتمد الشبكة العصبية البايزيانية على نظرية بايز لحساب حالات عدم اليقين في الأوزان والتوقّعات. يمكن أن تكون الشبكة العصبية البيزيانية مفيدة عندما يكون من المهم قياس عدم اليقين، مثل في نماذج تتعلّق بالأدوية. يمكن أن تساعد الشبكات العصبية البايزيانية أيضًا في منع الملاءمة الزائدة.

التحسين باستخدام نظرية بايزي

أسلوب نموذج الانحدار الإحصائي لتحسين الدوالّ الموضوعية المكلّفة من حيث الحساب من خلال تحسين بديل يقيس عدم اليقين باستخدام أسلوب تعلُّم بيزياني بما أنّه إنّ تحسين الأداء بالاستناد إلى نظرية بايزي باهظ التكلفة بحد ذاته، يتم استخدامه عادةً لتحسين المهام التي يصعب تقييمها والتي تتضمّن عددًا صغيرًا من المَعلمات، مثل اختيار المَعلمات الفائقة.

معادلة بيلمان

#rl

في التعلّم التعزيزي، تستوفي دالة Q المثلى الهوية التالية:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

تطبّق خوارزميات التعلم التعزيزي هذه المعادلة لإنشاء التعلم باستخدام نموذج Q من خلال قاعدة التعديل التالية:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

بالإضافة إلى التعلّم المعزّز، يمكن استخدام معادلة Bellman في البرمجة الديناميكية. اطّلِع على مدخل Wikipedia لمعادلة Bellman.

BERT (تمثيلات الترميز الثنائية الاتجاه من المحولات)

#language

بنية نموذج لتمثيل النصوص يمكن أن يعمل نموذج BERT مدرَّب كجزء من نموذج أكبر لتصنيف النصوص أو مهام تعلُّم الآلة الأخرى.

تتسم BERT بالسمات التالية:

تشمل الصيغ المختلفة لنموذج BERT ما يلي:

اطّلِع على الإصدار المفتوح المصدر من BERT: أحدث تقنيات التدريب المُسبَق لمعالجة اللغة الطبيعية للحصول على نظرة عامة على BERT.

الانحياز (الأخلاق/الإنصاف)

#fairness
#fundamentals

1. الصور النمطية أو التحيز أو التفضيل لبعض الأشياء أو الأشخاص أو المجموعات على حساب آخرين ويمكن أن تؤثّر هذه الانحيازات في جمع البيانات وتفسيرها وتصميم النظام وكيفية تفاعل المستخدمين معه. تشمل أشكال هذا النوع من التحيز ما يلي:

2. خطأ منهجي ناتج عن إجراء أخذ عينات أو إعداد تقارير تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بين هذا المصطلح ومصطلح الانحياز في نماذج تعلُّم الآلة أو الانحياز في التنبؤ.

اطّلِع على الإنصاف: أنواع الانحياز في دورة التعرّف الآلي التدريبية المختصرة للحصول على مزيد من المعلومات.

الانحياز (الرياضيات) أو مصطلح الانحياز

#fundamentals

نقطة تقاطع أو إزاحة من نقطة أصل الانحياز هو مَعلمة في نماذج تعلُّم الآلة، ويُرمز إليه بأيّ مما يلي:

  • ب
  • w0

على سبيل المثال، التحيز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني الانحياز "نقطة التقاطع مع محور y". على سبيل المثال، قيمة تحيز الخط في الرسم التوضيحي التالي هي 2.

رسم خط مستقيم بميل 0.5 وانحراف (نقطة تقاطع y)‏ 2

ويحدث الانحياز لأنّ بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال، لنفترض أنّ تذكرة الدخول إلى مدينة ملاهي تبلغ تكلفتها 2 يورو، ويجب دفع 0.5 يورو إضافي مقابل كل ساعة يقضيها العميل في المدينة. وبالتالي، فإنّ النموذج الذي يحدّد التكلفة الإجمالية يتضمّن تحيزًا بمقدار 2 لأنّ أدنى تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاق والعدالة أو التحيز في التوقّعات.

اطّلِع على الانحدار الخطي في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

ثنائي الاتجاه

#language

مصطلح يُستخدَم لوصف نظام يُقيّم النص الذي يسبق ويتّبع قسمًا مستهدفًا من النص. في المقابل، يقيّم نظام الاتجاه الواحد فقط النص الذي يسبق قسمًا مستهدفًا من النص.

على سبيل المثال، نأخذ نموذج لغة مموّه الذي يجب أن يحدّد احتمالات الكلمة أو الكلمات التي تمّت الإشارة إليها بالخطّ تحتي في السؤال التالي:

ما هو _____ معك؟

يجب أن يستند نموذج اللغة أحادي الاتجاه إلى الاحتمالات فقط على السياق الذي تقدّمه الكلمات "What" و"is" و "the". في المقابل، يمكن أن يحصل نموذج اللغة الثنائي الاتجاه أيضًا على سياق من "مع" و "أنت"، ما قد يساعد النموذج في إنشاء توقّعات أفضل.

نموذج لغوي ثنائي الاتجاه

#language

نموذج لغوي يحدّد احتمالية ظهور علامة معيّنة في موضع معيّن في مقتطف من النص استنادًا إلى النص السابق والتالي

الثنائيات

#seq
#language

نَمط تحليلي حيث يكون N=2

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف التي تصعِّب التنبؤ بإحدى الفئتَين المتنافيتَين:

على سبيل المثال، ينفِّذ كلّ من نموذجَي تعلُّم الآلة التاليَين عملية تصنيف ثنائي:

  • نموذج يحدِّد ما إذا كانت رسائل البريد الإلكتروني غير مرغوب فيها (الفئة الموجبة) أو مرغوب فيها (الفئة السالبة).
  • نموذج يُقيّم الأعراض الطبية لتحديد ما إذا كان الشخص يعاني من مرض معيّن (الفئة الإيجابية) أو لا يعاني من ذلك المرض (الفئة السلبية).

يختلف هذا التصنيف عن التصنيف المتعدّد الفئات.

راجِع أيضًا الانحدار اللوجستي و حد التصنيف.

اطّلِع على التصنيف في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

شرط ثنائي

#df

في شجرة القرار، شرط يكون له نتيجتان محتملتان فقط، عادةً نعم أو لا. على سبيل المثال، في ما يلي شرط ثنائي:

temperature >= 100

يختلف هذا الشرط عن الشرط غير الثنائي.

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

تحويل القيم

مرادف لتجميع القيم.

BLEU (Bilingual Evaluation Understudy)

#language

مقياس يتراوح بين 0.0 و1.0 لتقييم الترجمات الآلية، على سبيل المثال، من الإسبانية إلى اليابانية

لاحتساب النتيجة، يقارن مقياس BLEU عادةً ترجمة نموذج تعلُّم الآلة (النص الذي تم إنشاؤه) بترجمة خبير بشري (النص المرجعي). تُحدِّد درجة تطابق النصوص القصيرة في النص الذي تم إنشاؤه والنص المرجعي نتيجة BLEU.

المقالة الأصلية حول هذا المقياس هي BLEU: a Method for Automatic Evaluation of Machine Translation.

يمكنك أيضًا الاطّلاع على BLEURT.

BLEURT (Bilingual Evaluation Understudy from Transformers)

#language

مقياس لتقييم الترجمات الآلية من لغة إلى أخرى، خاصةً من الإنجليزية وإليها

بالنسبة إلى الترجمات من الإنجليزية وإليها، يتوافق مقياس BLEURT بشكلٍ أقرب مع تقييمات المستخدمين مقارنةً بمقياس BLEU. على عكس BLEU، يُركّز مقياس BLEURT على التشابهات الدلالية (المعنى) ويمكنه استيعاب إعادة الصياغة.

يعتمد BLEURT على نموذج لغوي كبير تم تدريبه مسبقًا (BERT على وجه التحديد) ثم يتم تحسينه استنادًا إلى نصوص من مترجمين بشريين.

المقالة الأصلية حول هذا المقياس هي BLEURT: Learning Robust Metrics for Text Generation.

تعزيز

أسلوب تعلُّم آلي يجمع بشكلٍ متكرّر مجموعة من المصنّفات البسيطة وغير الدقيقة جدًا (يُشار إليها باسم المصنّفات "الضعيفة") في مصنّف بدقة عالية (مصنّف "قوي") من خلال زيادة الوزن للأمثلة التي يصنّفها النموذج حاليًا بشكل خاطئ.

اطّلِع على أشجار القرارات المحسّنة بالتعزيز التدرّجي؟ في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

مربّع الحدود

#image

في الصورة، الإحداثيتان (x وy) لمستطيل حول منطقة تشكل ملفًا شخصيًا، مثل الكلب في الصورة أدناه

صورة كلب يجلس على أريكة مربّع حدود أخضر
          بالإحداثيات (275، 1271) في أعلى يمين مربّع الحدود و (2954، 2761) في أسفل يمينه يحيط بجسم الكلب

البث

توسيع شكل عامل في عملية رياضية للمصفوفات إلى سمات متوافقة مع تلك العملية على سبيل المثال، يتطلّب الجبر الخطي أن يكون للم Operandَين في عملية إضافة المصفوفة سمات متطابقة. ونتيجةً لذلك، لا يمكنك إضافة مصفوفة الشكل (m, n) إلى متجه طوله n. تتيح عملية البث هذه العملية من خلال توسيع متجه الطول n تقريبًا إلى مصفوفة الشكل (m, n) من خلال تكرار القيم نفسها في كل عمود.

على سبيل المثال، وفقًا للتعريفات التالية، يحظر الجبر الخطي جمع A+B لأنّ A وB لهما أبعاد مختلفة:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

ومع ذلك، يتيح البث تنفيذ العملية "أ+ب" من خلال توسيع "ب" بشكل افتراضي إلى:

 [[2, 2, 2],
  [2, 2, 2]]

وبالتالي، أصبحت A+B عملية صالحة الآن:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

اطّلِع على الوصف التالي لميزة البث في NumPy للحصول على مزيد من التفاصيل.

تحويل القيم

#fundamentals

تحويل سمة واحدة إلى سمات ثنائية متعددة تُعرف باسم الحزم أو الحاويات، استنادًا عادةً إلى نطاق قيم وعادةً ما تكون الميزة المقتطعة هي ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة واحدة متواصلة بنقطة عائمة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • وتكون درجة الحرارة <= 10 درجات مئوية هي "القيمة الدنيا".
  • وتكون درجة الحرارة من 11 إلى 24 درجة مئوية ضمن الفئة "معتدلة".
  • وتكون درجة الحرارة >= 25 درجة مئوية في المجموعة "الدافئة".

سيتعامل النموذج مع كل قيمة في الحزمة نفسها بشكلٍ مماثل. على سبيل المثال، القيمتَان 13 و22 هما في حزمة المناطق المعتدلة، لذا يتعامل النموذج مع القيمتَين بشكلٍ متطابق.

اطّلِع على البيانات الرقمية: التجميع في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

C

طبقة المعايرة

تعديل بعد التوقّع، عادةً لأخذ الانحراف في التوقّعات في الاعتبار يجب أن تتطابق التوقّعات المعدَّلة والاقتِبالات مع توزيع مجموعة من التصنيفات المرصودة.

إنشاء نموذج محتمل

#recsystems

المجموعة الأولية من الاقتراحات التي يختارها نظام الاقتراحات على سبيل المثال، لنفترض أنّ هناك مكتبة تبيع 100,000 عنوان. تنشئ مرحلة إنشاء الاقتراحات قائمة أصغر بكثير من الكتب المناسبة لمستخدم معيّن، على سبيل المثال 500 كتاب. ولكن حتى 500 كتاب هو عدد كبير جدًا لاقتراحه على المستخدم. إنّ المراحل اللاحقة والأكثر تكلفة في نظام الاقتراحات (مثل التقييم و إعادة الترتيب) تقلّل من هذه الـ 500 إلى مجموعة اقتراحات أصغر حجمًا وأكثر فائدةً.

اطّلِع على نظرة عامة على عملية إنشاء المرشحين في دورة "أنظمة الاقتراحات" للحصول على مزيد من المعلومات.

تحليل العينات المُحتملة

تحسين وقت التدريب الذي يحسب احتمالية لجميع تصنيفات الإيجابية، باستخدام مثلاً softmax، ولكن فقط لنموذج haphazard من التصنيفات السلبية على سبيل المثال، عند تقديم مثال مصنّف على أنّه كلب صيد وكلب، تعمل ميزة "تحليل عيّنات المرشحين" على احتساب الاحتمالات المتوقّعة وشروط الخسارة المقابلة لكلّ من:

  • كلب صيد ألماني
  • dog
  • مجموعة فرعية عشوائية من الفئات السلبية المتبقية (على سبيل المثال، قطة، مصاصة حلوى، سور)

والفكرة هي أنّه يمكن ل الفئات السلبية التعلّم من التعزيز السلبي الأقل تكرارًا ما دامت الفئات الإيجابية تحصل دائمًا على تعزيز إيجابي مناسب، وقد تمّ رصد ذلك من خلال التجربة.

إنّ أخذ عيّنات من المرشّحين أكثر كفاءةً من حيث الحوسبة من خوارزميات التدريب التي تحسب التوقّعات لجميع الفئات السالبة، لا سيما عندما يكون عدد الفئات السالبة كبيرًا جدًا.

البيانات الفئوية

#fundamentals

السمات التي تحتوي على مجموعة محدّدة من القيم المحتملة على سبيل المثال، لنفترض أنّ هناك سمة تصنيفية باسم traffic-light-state، والتي يمكن أن تأخذ فقط إحدى القيم الثلاث المحتملة التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كخاصيّة تصنيفية، يمكن للنموذج التعرّف على أثرred وgreen وyellow المختلف على سلوك السائق.

تُعرف السمات الفئوية أحيانًا باسم السمات المنفصلة.

يُرجى الاطّلاع على البيانات الرقمية.

اطّلِع على العمل مع data التصنيفية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

نموذج لغوي سببي

#language

مرادف لـ النموذج اللغوي أحادي الاتجاه.

اطّلِع على نموذج اللغة الثنائي الاتجاه لمقارنة النهجَين الاتجاهيَين المختلفَين في وضع نماذج اللغة.

مركز

#clustering

يشير ذلك المصطلح إلى مركز مجموعة يتم تحديده من خلال خوارزمية k-means أو k-median. على سبيل المثال، إذا كانت قيمة k هي 3، تجد الخوارزمية التصنيفية أو خوارزمية تحليل المجموعات 3 نقاط مركزية.

اطّلِع على خوارزميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

التجميع العنقودي المستنِد إلى النقاط المركزية

#clustering

فئة من خوارزميات التجميع العنقودي التي تنظِّم البيانات في مجموعات غير هرمية. والخوارزمية التصنيفية هي خوارزمية التجميع العنقودي المستندة إلى النقاط المركزية الأكثر استخدامًا.

يختلف ذلك عن خوارزميات التجميع الهرمي.

اطّلِع على خوارزميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

توجيه سلسلة الأفكار

#language
#generativeAI

تقنية هندسة الطلبات التي تشجع النموذج اللغوي الكبير (LLM) على شرح الاستدلال الذي يستند إليه، خطوة بخطوة على سبيل المثال، فكِّر في الطلب التالي، مع التركيز بشكل خاص على الجملة الثانية:

كم عدد قوى g التي سيواجهها السائق في سيارة تنطلق من 0 إلى 60 ميل في الساعة في 7 ثوانٍ؟ في الإجابة، يجب عرض جميع العمليات الحسابية ذات الصلة.

من المرجّح أن يكون ردّ النموذج اللغوي الكبير على النحو التالي:

  • أظهِر تسلسلاً من صِيَغ الفيزياء، مع إدخال القيم 0 و60 و7 في الأماكن المناسبة.
  • اشرح سبب اختيار هذه الصِيَغ وما تعنيه المتغيّرات المختلفة.

تجبر طلبات سلسلة التفكير نموذج اللغة المحوسبة الكبير على إجراء جميع العمليات الحسابية، ما قد يؤدي إلى تقديم إجابة أكثر صحة. بالإضافة إلى ذلك، تتيح طلبات سلسلة التفكير للمستخدم فحص خطوات الذكاء الاصطناعي اللغوي (LLM) لتحديد ما إذا كانت الإجابة منطقية أم لا.

محادثة

#language
#generativeAI

محتوى حوار متبادل مع نظام تعلُّم آلي، عادةً ما يكون نموذجًا لغويًا كبيرًا يصبح التفاعل السابق في محادثة (ما كتبته وطريقة استجابة النموذج اللغوي الكبير) هو السياق للأجزاء اللاحقة من المحادثة.

روبوت الدردشة هو تطبيق لنموذج لغوي كبير.

نقطة تفتيش

البيانات التي تسجِّل حالة مَعلمات النموذج سواءً أثناء التدريب أو بعد اكتماله على سبيل المثال، أثناء التدريب، يمكنك إجراء ما يلي:

  1. إيقاف التدريب، ربما عن قصد أو نتيجةً لعدة أخطاء
  2. سجِّل النقطة المرجعية.
  3. بعد ذلك، أعِد تحميل نقطة التحكّم، ربما على جهاز مختلف.
  4. أعِد تشغيل التدريب.

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف على سبيل المثال:

  • في نموذج التصنيف الثنائي الذي يرصد الرسائل غير المرغوب فيها، قد تكون الفئتان رسالة غير مرغوب فيها ورسالة مرغوب فيها.
  • في نموذج التصنيف المتعدّد الفئات الذي يحدِّد سلالات الكلاب، قد تكون الفئات هي بودل وبيجل وبوغ وغيرها.

يتنبّأ نموذج التصنيف بفئة. في المقابل، يتنبّأ نموذج الانحدار بعدد بدلاً من فئة.

اطّلِع على التصنيف في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

نموذج التصنيف

#fundamentals

نموذج يتنبّأ بفئة على سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • نموذج يتنبّأ بلغة الجملة التي يتم إدخالها (هل هي فرنسية؟ هل تريد استخدام اللغة الإسبانية؟ الإيطالية؟).
  • نموذج يتنبّأ بأنواع الأشجار (قيقب؟ البلوط؟ Baobab?).
  • نموذج يتنبّأ بالفئة الإيجابية أو السلبية لحالة طبية معيّنة

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف:

عتبة التصنيف

#fundamentals

في التصنيف الثنائي، هو رقم بين 0 و1 يحوّل الناتج الأوّلي لنموذج الانحدار اللوجستي إلى توقّع الفئة الإيجابية أو الفئة السلبية. يُرجى العلم أنّ حدّ التصنيف هو قيمة يختارها المستخدم، وليست قيمة يختارها تدريب النموذج.

يعرض نموذج الانحدار اللوجستي قيمة أساسية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأوّلية أكبر من حدّ التصنيف، يتم توقّع الفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من الحدّ الأدنى للتصنيف، يتم عندئذٍ التوقّع بفئة القيمة السالبة.

على سبيل المثال، لنفترض أنّ الحدّ الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية تساوي 0.9، سيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية هي 0.7، سيتوقّع النموذج الفئة السلبية.

يؤثر اختيار حدّ التصنيف بشكلٍ كبير في عدد النتائج الموجبة الخاطئة و النتائج السالبة الخاطئة.

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

مجموعة بيانات غير متوازنة الفئات

#fundamentals

مجموعة بيانات لمشكلة تصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، لنفترض أنّ مجموعة بيانات التصنيف الثنائي مقسمة على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السلبية إلى الإيجابية هي 100,000 إلى 1، لذا فإنّ هذه مجموعة بيانات غير متوازنة الفئات.

في المقابل، لا تتضمّن مجموعة البيانات التالية توازنًا بين الفئات لأنّ نسبة التصنيفات السلبية إلى التصنيفات الإيجابية قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا موجبًا

يمكن أن تكون مجموعات البيانات متعددة الفئات غير متوازنة أيضًا. على سبيل المثال، فإنّ مجموعة بيانات التصنيف المتعدّد الفئات التالية هي أيضًا غير متوازنة من حيث الفئات لأنّ التسمية واحدة تحتوي على أمثلة أكثر بكثير من التسميتَين الأخرتَين:

  • 1,000,000 تصنيف من الفئة "أخضر"
  • 200 تصنيف من الفئة "أرجواني"
  • 350 تصنيفًا من الفئة "برتقالي"

اطّلِع أيضًا على الخلل وفئة الأغلبية وفئة الأقلية.

الاقتصاص

#fundamentals

تقنية للتعامل مع القيم الشاذة من خلال تنفيذ أحد الإجراءَين التاليَين أو كليهما:

  • تقليل قيم السمة التي تزيد عن الحد الأقصى للحد الأقصى
  • زيادة قيم السمات التي تقل عن الحد الأدنى إلى أن تصل إلى هذا الحد الأدنى

على سبيل المثال، لنفترض أنّ أقل من% 0.5 من قيم سمة معيّنة تقع خارج النطاق 40-60. في هذه الحالة، يمكنك إجراء ما يلي:

  • اقتطع كل القيم التي تزيد عن 60 (الحد الأقصى) لتصبح 60 بالضبط.
  • اقتصاص جميع القيم التي تقل عن 40 (الحد الأدنى) لتكون 40 بالضبط

يمكن أن تؤدي القيم الشاذة إلى إتلاف النماذج، ما يؤدي أحيانًا إلى تجاوز الأوزان أثناء التدريب. يمكن أن تؤدي بعض القيم الشاذة أيضًا إلى خفض الدقة بشكل كبير. يُعدّ الاقتصاص أسلوبًا شائعًا للحدّ من الضرر.

تفرض عملية اقتصاص التدرّج قيم التدرّج ضمن نطاق محدّد أثناء التدريب.

اطّلِع على البيانات الرقمية: التسوية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

Cloud TPU

#TensorFlow
#GoogleCloud

مسرِّع أجهزة مخصّص مصمّم لتسريع مهام تعلُّم الآلة على Google Cloud

التجميع

#clustering

تجميع الأمثلة ذات الصلة، خاصةً أثناء التعلُّم غير الخاضع للإشراف بعد تجميع كل الأمثلة، يمكن لأحد الأشخاص اختياريًا تقديم معنى لكل مجموعة.

تتوفّر العديد من خوارزميات التجميع. على سبيل المثال، تجمع خوارزمية الوسط الحسابي الأمثلة معًا استنادًا إلى قربها من نقطة مركزية، كما هو موضّح في المخطّط البياني التالي:

رسم بياني ثنائي الأبعاد تم تصنيف محور السينات فيه على أنّه عرض الشجرة،
          وتم تصنيف محور الصادات على أنّه ارتفاع الشجرة. يحتوي الرسم البياني على نقطتَين
          مركزيتَين وعدة عشرات من نقاط البيانات. يتم
          تصنيف نقاط البيانات استنادًا إلى قربها من بعضها. وهذا يعني أنّ نقاط البيانات
          الأقرب إلى نقطة مركزية واحدة تُصنَّف على أنّها المجموعة 1، بينما نقاط البيانات
          الأقرب إلى النقطة المركزية الأخرى تُصنَّف على أنّها المجموعة 2.

يمكن بعد ذلك لأحد الباحثين مراجعة المجموعات، على سبيل المثال، وتصنيف المجموعة 1 على أنّها "أشجار قزمة" والمجموعة 2 على أنّها "أشجار بالحجم الكامل".

في مثال آخر، نأخذ خوارزمية تجميع عنقودي تستند إلى المسافة بين نموذج معيّن ونقطة مركزية، كما هو موضّح أدناه:

يتم ترتيب عشرات نقاط البيانات في دوائر متحدة المركز، تشبه
          تقريبًا الثقوب حول مركز لوحة رمي السهام. يتم تصنيف الحلقة الداخلية
          لنقاط البيانات على أنّها المجموعة 1، ويتم تصنيف الحلقة الوسطى
          على أنّها المجموعة 2، ويتم تصنيف الحلقة الخارجية
          على أنّها المجموعة 3.

اطّلِع على دورة التجميع لمزيد من المعلومات.

التكيف المشترَك

عندما تتوقّع الخلايا العصبية أنماطًا في بيانات التدريب من خلال الاعتماد حصريًا تقريبًا على نواتج خلايا عصبية أخرى محدّدة بدلاً من الاعتماد على سلوك الشبكة ككل. عندما لا تكون الأنماط التي تؤدي إلى التكيّف المشترَك متوفّرة في بيانات التحقّق، يؤدّي التكيّف المشترَك إلى التكيّف المفرط. تقلّل التسوية باستخدام تقنية "الإيقاف المؤقت" من التكيّف المشترَك، لأنّ تقنية "الإيقاف المؤقت" تضمن عدم اعتماد الخلايا العصبية على خلايا عصبية أخرى محدّدة فقط.

الفلترة حسب الاهتمامات الجماعية

#recsystems

إجراء توقّعات حول اهتمامات مستخدم واحد استنادًا إلى اهتمامات العديد من المستخدمين الآخرين غالبًا ما يتم استخدام التصفية التعاونية في أنظمة التوصية.

اطّلِع على التصفية التعاونية في دورة "أنظمة الاقتراحات" للحصول على مزيد من المعلومات.

تغيُّر المفهوم

تغيير في العلاقة بين الميزات والعلامة وبمرور الوقت، يؤدّي تغيُّر المفاهيم إلى تقليل جودة النموذج.

أثناء التدريب، يتعرّف النموذج على العلاقة بين السمات وتصنيفاتها في مجموعة التدريب. إذا كانت التصنيفات في مجموعة التدريب представлява بدائل جيدة للعالم الواقعي، يجب أن يقدّم النموذج توقّعات جيدة للعالم الواقعي. ومع ذلك، بسبب تغيُّر المفاهيم، تميل توقّعات النموذج إلى التدهور بمرور الوقت.

على سبيل المثال، لنفترض أنّ لدينا نموذج تصنيف ثنائي يتنبّأ ما إذا كان طراز سيارة معيّن "موفّرًا للوقود" أم لا. وهذا يعني أنّ الميزات يمكن أن تكون:

  • وزن السيارة
  • ضغط المحرِّك
  • نوع الإرسال

بينما يكون التصنيف إما:

  • كفاءة في استهلاك الوقود
  • لا تستهلك الوقود بكفاءة

ومع ذلك، يتغيّر باستمرار مفهوم "السيارة ذات الكفاءة العالية في استهلاك الوقود". إذا كان طراز سيارة مصنّفًا على أنّه موفّر للوقود في عام 1994، من المؤكد تقريبًا أنّه سيتم تصنيفه على أنّه غير موفّر للوقود في عام 2024. إنّ النموذج الذي يعاني من تغيُّر المفهوم يميل إلى تقديم توقّعات أقل فائدة بمرور الوقت.

قارِن بين هذه الحالة وحالة عدم الاستقرار.

الشرط

#df

في شجرة القرار، أي عقدة تُقيّم تعبيرًا. على سبيل المثال، يحتوي الجزء التالي من شجيرة اتّخاذ القرار على شرطَين:

شجرة قرارات تتألّف من شرطَين: (x > 0) و
          (y > 0).

يُعرف الشرط أيضًا باسم القسمة أو الاختبار.

حالة التباين مع الورقة

انظر أيضًا:

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

التزييف

#language

مرادف لـ الهلوسة.

من المحتمل أنّ التزييف هو مصطلح أكثر دقة من الناحية الفنية من الهلوسة. ومع ذلك، أصبحت الأوهام شائعة أولاً.

الإعدادات

عملية منح قيم السمات الأولية المستخدَمة لتدريب نموذج، بما في ذلك:

في مشاريع تعلُّم الآلة، يمكن إجراء الضبط من خلال ملف إعدادات خاص أو باستخدام مكتبات الإعدادات، مثل ما يلي:

الانحياز التأكيدي

#fairness

الميل إلى البحث عن المعلومات وتفسيرها وتفضيلها وتذكُّرها بطريقة تؤكد صحة المعتقدات أو الفرضيات الموجودة مسبقًا قد يجمع مطوّرو تعلُّم الآلة بيانات أو يصنّفونها بغير قصد بطرق تؤثّر في نتيجة تدعم اعتقاداتهم الحالية. الانحياز التأكيدي هو شكل من أشكال التحيز الضمني.

تحيز الباحث هو شكل من أشكال التحيز التأكيدي الذي يواصل فيه الباحث تدريب النماذج إلى أن يتم تأكيد فرضية سابقة.

مصفوفة نجاح التوقّعات

#fundamentals

جدول NxN يلخّص عدد التوقّعات الصحيحة وغير الصحيحة التي أجراها نموذج التصنيف على سبيل المثال، فكِّر في مصفوفة الارتباك التالية لنموذج التصنيف الثنائي:

الورم (متوقّع) غير ورم (متوقّع)
الورم (المعلومات الفعلية) 18 (TP) 1 (FN)
غير ورم (معلومات حقيقية) 6 (FP) 452 (تونس)

تعرض مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الأساسية فيها "ورم"،صنّف النموذج 18 تنبؤًا بشكل صحيح وصنّف تنبؤًا واحدًا بشكل خاطئ.
  • من بين 458 توقّعًا كانت الحقيقة الأساسية فيها "غير ورم"، صنّف النموذج 452 بشكل صحيح و6 بشكل غير صحيح.

يمكن أن تساعدك مصفوفة الالتباس لمشكلة التصنيف المتعدّد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، نأخذ مصفوفة الالتباس التالية لنموذج تصنيف مؤلف من 3 فئات متعدّدة الفئات يصنّف ثلاثة أنواع مختلفة من زهور القزحية (Virginica وVersicolor وSetosa). عندما كانت الحقيقة الأساسية هي Virginica، تعرِض مصفوفة الارتباك أنّه من المرجّح بكثير أن يتنبأ النموذج بخطأ بـ Versicolor بدلاً من Setosa:

  Setosa (متوقّعة) Versicolor (متوقّعة) فرجينيا (متوقّعة)
Setosa (الحقيقة الأساسية) 88 12 0
Versicolor (الحقيقة الأساسية) 6 141 7
Virginica (الحقيقة الأساسية) 2 27 109

في مثال آخر، يمكن أن تكشف مصفوفة الارتباك أنّ نموذجًا تم تدريبه للتعرّف على الأرقام المكتوبة بخط اليد يميل إلى توقّع 9 بدلاً من 4، أو توقّع 1 بدلاً من 7 عن طريق الخطأ.

تحتوي مصفوفات الالتباس على معلومات كافية لاحتساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والاسترجاع.

تحليل الدوائر الانتخابية

#language

تقسيم الجملة إلى بنى نحوية أصغر ("عناصر") يمكن أن يعالج جزء لاحق من نظام تعلُّم الآلة، مثل نموذج فهم اللغة الطبيعية، العناصر بسهولة أكبر من الجملة الأصلية. على سبيل المثال، نأخذ الجملة التالية:

تبنّى صديقي قطتين.

يمكن لأداة تحليل البنية تقسيم هذه الجملة إلى المكوّنين التاليين:

  • صديقي عبارة اسمية.
  • تبنّى قطتَين عبارة فعل.

ويمكن تقسيم هذه المكوّنات إلى مكوّنات أصغر. على سبيل المثال، عبارة الفعل

تبني قطتين

يمكن تقسيمها إلى ما يلي:

  • تمّت الموافقة هو فعل.
  • هِرَّانِ هي عبارة اسمية أخرى.

تضمين اللغة في سياقها

#language
#generativeAI

إدراج يقترب من "فهم" الكلمات والعبارات بطرق يمكن للناطقين الأصليين استخدامها يمكن أن تفهم نماذج "إدراج اللغة" المقترنة بالسياق البنية النحوية والدلالية والسياق المعقد.

على سبيل المثال، نأخذ في الاعتبار إدراجات الكلمة الإنجليزية cow. يمكن أن تمثّل عمليات التضمين القديمة مثل word2vec الكلمات الإنجليزية بحيث تكون المسافة في مساحة التضمين من بقرة إلى ثور مشابهة للمسافة من نعجة (أنثى الأغنام) إلى كبش (ذكر الأغنام) أو من أنثى إلى ذكر. يمكن أن تأخذ عمليات تضمين اللغة في السياق خطوة إضافية من خلال التعرّف على أنّ المتحدثين باللغة الإنجليزية يستخدمون أحيانًا كلمة cow بشكل عفوي للإشارة إلى البقرة أو الثور.

قدرة الاستيعاب

#language
#generativeAI

عدد الرموز التي يمكن للنموذج معالجتها في طلب معيّن وكلما زادت قدرة الاستيعاب، زادت المعلومات التي يمكن للنموذج استخدامها لتقديم ردود متسقة ومترابطة على الطلب.

خاصية مستمرة

#fundamentals

ميزة بنقطة عائمة لها نطاق لا نهائي من القيم المحتمَلة، مثل درجة الحرارة أو الوزن

يُرجى الاطّلاع على الخاصية المحدّدة القيم.

عينة عشوائية

استخدام مجموعة بيانات لم يتم جمعها بشكل علمي لإجراء تجربتَين سريعتَين وفي وقت لاحق، من الضروري التبديل إلى مجموعة بيانات جمعتها بطريقة علمية.

التقارب

#fundamentals

الحالة التي يتمّ الوصول إليها عندما تتغيّر قيم الخسارة قليلاً جدًا أو لا تتغيّر على الإطلاق مع كل تكرار على سبيل المثال، يشير منحنى الخسارة التالي إلى التقارب عند حوالي 700 تكرار:

رسم بياني كارتيزيتي المحور X غير متوفّر. محور Y هو عدد تكرارات
          التدريب. يكون الخسارة مرتفعًا جدًا خلال عمليات التكرار القليلة الأولى، ولكن
          ينخفض بشكل حاد. بعد إجراء 100 تكرار تقريبًا، يستمر قياس الخسارة في الانخفاض، ولكن بشكل تدريجي أكثر. بعد حوالي 700 تكرار،
          يظلّ فقدان الأداء ثابتًا.

يتقارب النموذج عندما لا يؤدي التدريب الإضافي إلى تحسينه.

في التعلم العميق، تظلّ قيم الخسارة أحيانًا ثابتة أو تقريبًا ثابتة لعدّة تكرارات قبل أن تنخفض أخيرًا. خلال فترة طويلة من القيم المتغيّرة باستمرار، قد تشعر مؤقتًا بأنّ القيمة تقارب القيمة الحقيقية.

راجِع أيضًا الإيقاف المبكر.

اطّلِع على منحنيات تقاربت النماذج وخسارتها في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

دالة محدّبة

دالة يكون فيها المنطقة فوق الرسم البياني للدالة هو مجموعة محدَّبة. يكون شكل الدالة المحدبة النموذجية مثل الحرف U. على سبيل المثال، يلي جميع الدوالّ المحدَّبة:

منحنيات على شكل حرف U، ولكل منها نقطة دنيا واحدة

في المقابل، الدالة التالية ليست محدّبة. لاحظ أنّ المنطقة فوق الرسم البياني ليست مجموعة محدّبة:

منحنى على شكل حرف W يتضمّن نقطتَي قاع محليتين مختلفتَين

تحتوي دالة محدّبة بشكل صارم على نقطة حد أدنى محلي واحدة بالضبط، وهي هي أيضًا نقطة الحد الأدنى العام. الدوالّ الكلاسيكية على شكل حرف U هي دوالّ محدّبة بشكل صارم. ومع ذلك، بعض الدوالّ المحدَّبة (مثل الخطوط المستقيمة) ليست على شكل حرف U.

يمكنك الاطّلاع على الوظائف المقاربة والمنحنية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

تحسين الدالّة المحدّبة

عملية استخدام الأساليب الرياضية مثل التناقص التدرّجي للعثور على الحد الأدنى لدالة محدّبة ركّز الكثير من الأبحاث في مجال تعلُّم الآلة على صياغة مناقشات مختلفة كمشاكل تحسين محدّد وحلّ هذه المشاكل بفعالية أكبر.

للاطّلاع على التفاصيل الكاملة، يُرجى الاطّلاع على Boyd and Vandenberghe، Convex Optimization.

مجموعة محدّبة

مجموعة فرعية من الفضاء الإقليدي بحيث يظل الخط الذي يتم رسمه بين أي نقطتَين في المجموعة الفرعية داخل المجموعة الفرعية بالكامل. على سبيل المثال، الشكلان التاليان هما مجموعتان محدّبتان:

صورة توضيحية واحدة لمستطيل صورة توضيحية أخرى لشكل بيضاوي

في المقابل، الشكلان التاليان ليسا مجموعتَين محدَّبتين:

رسم توضيحي واحد لرسم بياني دائري يتضمّن شريحة غير ظاهرة
          رسم توضيحي آخر لمضلّع غير منتظم بشكل كبير

الالتفاف

#image

في الرياضيات، يشير هذا المصطلح إلى مزيج من دالتَين. في تعلُّم الآلة، يمزج أسلوب التفاف الملف الشخصي التفافي مع مصفوفة الإدخال من أجل تدريب المَعلمات.

غالبًا ما يشير مصطلح "التفاف" في تعلُّم الآلة إلى العملية التفافية أو الطبقة التفافية.

بدون عمليات التفاف، على خوارزمية التعلم الآلي تعلُّم معامل وزن منفصل لكل خلية في مصفوفة تانسور كبيرة. على سبيل المثال، سيضطرّ تدريب خوارزمية تعلُّم الآلة على صور بدقة 2K x 2K إلى العثور على 4 ملايين وزن منفصل. بفضل عمليات التفاف النطاق، ما على خوارزمية تعلُّم الآلة سوى العثور على أوزان لكل خلية في فلتر التفاف النطاق، ما يؤدي إلى تقليل المساحة المتوفّرة في الذاكرة اللازمة لتدريب النموذج بشكل كبير. عند تطبيق الفلتر التدرّبي، تتم ببساطة نسخه على الخلايا بحيث يتم ضرب كل خلية فيه.

اطّلِع على لمحة عن الشبكات العصبية الملتفة في دورة تدريبية عن تصنيف الصور للحصول على مزيد من المعلومات.

فلتر التفافي

#image

أحد المشغّلين في عملية تحويلية. (العنصر الآخر هو شريحة من مصفوفة إدخال). الفلتر التجميعي هو مصفوفة لها ترتيب مماثل لترتيب مصفوفة الإدخال، ولكن بحجم أصغر. على سبيل المثال، في حال توفّر مصفوفة إدخال بحجم 28x28، يمكن أن يكون الفلتر أي مصفوفة ثنائية الأبعاد أصغر من 28x28.

في عمليات التلاعب بالصور، يتم عادةً ضبط جميع الخلايا في الفلتر التدرّبي على نمط ثابت من الأرقام 1 و0. في تعلُّم الآلة، تتم عادةً زراعة ملفّات التمويه التدرّجية بأرقام عشوائية، ثم تُدرِّب الشبكة القيم المثالية.

اطّلِع على التفاف في دورة تدريبية عن تصنيف الصور للحصول على مزيد من المعلومات.

طبقة التفافية

#image

طبقة من الشبكة العصبية العميقة التي يمر فيها فلتر تفافي على هُرم إدخال. على سبيل المثال، فكِّر في الفلتر التدرّبي التالي الذي أبعاده 3×3:

مصفوفة 3×3 بالقيم التالية: [[0,1,0], [1,0,1], [0,1,0]]

تعرض الصورة المتحركة التالية طبقة تحويلية تتألف من 9 عمليات تحويلية تتضمّن مصفوفة الإدخال 5×5. لاحظ أنّ كل عملية تدرّجية تعمل على شريحة مختلفة من 3×3 من مصفوفة الإدخال. تتألّف المصفوفة الناتجة 3×3 (على اليمين) من نتائج 9 عمليات تحويلية:

صورة متحرّكة تعرِض صفيفتَين المصفوفة الأولى هي المصفوفة
          ‏5×5: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          المصفوفة الثانية هي المصفوفة 3×3:
          [[181,303,618], [115,338,605], [169,351,560]].
          يتم احتساب المصفوفة الثانية من خلال تطبيق ملف التمويه
          [[0, 1, 0], [1, 0, 1], [0, 1, 0]] على
          مجموعات فرعية مختلفة من 3×3 من المصفوفة 5×5.

اطّلِع على الطبقات المتصلّة بالكامل في دورة تدريبية عن تصنيف الصور للحصول على مزيد من المعلومات.

شبكة عصبية تلافيفية

#image

شبكة عصبية تتضمّن طبقة واحدة على الأقل هي طبقة تلافيفية. تتألف الشبكة العصبية التجميعية النموذجية من بعض المجموعات من الطبقات التالية:

حققت الشبكات العصبية الالتفافية نجاحًا كبيرًا في أنواع معيّنة من المشاكل، مثل التعرّف على الصور.

عملية الالتفاف

#image

العملية الحسابية المكونة من خطوتَين التالية:

  1. الضرب العنصري ل فلتر التفاف وشريحة من مصفوفة الإدخال (لقطعة مصفوفة الإدخال ترتيب و حجم الفلتر التجميعي نفسهما).
  2. مجموع كل القيم في مصفوفة المنتجات الناتجة

على سبيل المثال، فكِّر في مصفوفة الإدخال 5×5 التالية:

المصفوفة 5×5: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

لنفترض الآن الفلتر التفاعلي 2×2 التالي:

المصفوفة 2×2: [[1, 0], [0, 1]]

تتضمّن كل عملية تجميعية شريحة واحدة بحجم 2×2 من مصفوفة الإدخال. على سبيل المثال، لنفترض أنّنا نستخدم شريحة 2×2 في أعلى يمين مصفوفة الإدخال. وبالتالي، تبدو عملية التفاف الالتفاف على هذه الشريحة على النحو التالي:

تطبيق الفلتر التجميعي [[1, 0], [0, 1]] على القسم العلوي الأيمن
          2×2 من مصفوفة الإدخال، والذي يمثّل [[128,97], [35,22]].
          يترك الفلتر التفافي الرقمَين 128 و22 سليمَين، ولكنه يُلغي الرقمَين 97 و35. نتيجةً لذلك، تؤدي عملية التفاف إلى توليد
          القيمة 150 (128+22).

تتألّف الطبقة التوليدية من سلسلة من العمليات التوليدية، يعمل كلّ منها على شريحة مختلفة من مصفوفة الإدخال.

التكلفة

مرادف لـ الخسارة.

التدريب المشترَك

يكون أسلوب التعلم شبه الإشرافي مفيداً بشكل خاص عند استيفاء جميع الشروط التالية:

تعمل ميزة "التدريب المشترَك" بشكل أساسي على تضخيم الإشارات المستقلة إلى إشارة أقوى. على سبيل المثال، لنفترض أنّ نموذج التصنيف الذي يصنّف السيارات المستعملة الفردية على أنّها إما جيدة أو سيئة. قد تركّز مجموعة واحدة من السمات القائمة على التوقّعات على الخصائص المجمّعة، مثل السنة والعلامة التجارية وطراز السيارة، وقد تركّز مجموعة أخرى من السمات القائمة على التوقّعات على سجلّ قيادة المالك السابق وسجلّ صيانة السيارة.

إنّ الورقة البحثية الأساسية عن التدريب المشترَك هي Combining Labeled and Unlabeled Data with Co-Training (دمج البيانات المُصنَّفة وغير المُصنَّفة باستخدام التدريب المشترَك) التي كتبها Blum وMitchell.

العدالة في الحالات الافتراضية

#fairness

مقياس المساواة الذي يتحقّق مما إذا كان المصنّف يقدّم النتيجة نفسها لفرد ما كما يقدّمها لفرد آخر متطابق معه، باستثناء سمة حسّاسة واحدة أو أكثر إنّ تقييم أحد المصنّفات من أجل قياس عدله البديل هو إحدى الطرق لعرض مصادر التحيز المحتملة في النموذج.

يمكنك الاطّلاع على أيّ من المقالتَين أدناه للحصول على مزيد من المعلومات:

انحياز في التغطية

#fairness

اطّلِع على الانحياز في الاختيار.

رمز عطل

#language

جملة أو عبارة ذات معنى غامض تشكّل عبارات "الانهيار" مشكلة كبيرة في فهم اللغة الطبيعية. على سبيل المثال، العنوان Red Tape Holds Up Skyscraper هو عبارة غير مناسبة لأنّ نموذج الذكاء الاصطناعي اللغوي يمكن أن يفسّر العنوان بشكلٍ دقيق أو مجازي.

ناقد

#rl

مرادف لـ شبكة Q-العميقة.

الإنتروبيا المتداخلة

تعميم Log Loss على مشاكل التصنيف المتعدّد الفئات تقيس نظرية المعلومات المتقاطعة الفرق بين توزيعَي احتمال. اطّلِع أيضًا على الحيرة.

التحقّق المتقاطع

آلية لتقدير مدى قدرة النموذج على تعميم قياساته على البيانات الجديدة من خلال اختبار النموذج على مجموعة واحدة أو أكثر من مجموعات البيانات غير المتداخلة التي تم استبعادها من مجموعة التدريب

دالة التوزيع التراكمي

دالة تحدّد معدّل تكرار العيّنات التي تقلّ عن قيمة مستهدَفة أو تساويها. على سبيل المثال، نأخذ توزيعًا طبيعيًا للقيم المستمرة. تُعلمك دالة التوزيع الاحتمالي التراكمي أنّه من المفترض أن تكون نسبة% 50 تقريبًا من العيّنات أقل من أو مساوية للمتوسط وأن تكون نسبة% 84 تقريبًا من العيّنات أقل من أو مساوية لانحراف معيّن واحد فوق المتوسط.

D

تحليل البيانات

فهم البيانات من خلال النظر في العيّنات والقياس وتصور البيانات يمكن أن يكون تحليل البيانات مفيدًا بشكل خاص عند تلقّي مجموعة بيانات لأول مرة، قبل إنشاء أول نموذج. وهو أمر مهم أيضًا لفهم التجارب وتحديد المشاكل وحلّها في النظام.

زيادة البيانات

#image

زيادة النطاق وعدد مثالي التدريب بشكل مصطنع من خلال تحويل مثالي الحالية لإنشاء أمثلة إضافية على سبيل المثال، لنفترض أنّ الصور هي أحد السمات، ولكنّ مجموعة البيانات لا تتضمن أمثلة كافية للصور ليتعلّم النموذج ارتباطات مفيدة. من الأفضل إضافة عدد كافٍ من الصور المصنّفة إلى مجموعة البيانات ل السماح لنموذجك بالتدريب بشكل صحيح. إذا لم يكن ذلك ممكنًا، يمكن أن تؤدي ميزة "تعزيز البيانات" إلى تدوير كل صورة وتمديدها وعكسها لإنشاء العديد من الصيغ للصورة الأصلية، ما قد يؤدي إلى توفير بيانات مصنّفة كافية لتمكين عملية تدريب ممتازة.

DataFrame

#fundamentals

نوع بيانات شائع في pandas لتمثيل مجموعات البيانات في الذاكرة.

إطار البيانات هو مشابه لجدول أو جدول بيانات. يحتوي كل عمود من إطار البيانات على اسم (عنوان)، ويتم تحديد كل صف باستخدام رقم فريد.

يتم تنظيم كل عمود في إطار البيانات مثل صفيف ثنائي الأبعاد، باستثناء أنّه يمكن تخصيص نوع البيانات لكل عمود.

يمكنك أيضًا الاطّلاع على صفحة مرجع pandas.DataFrame الرسمية.

التوازي في البيانات

طريقة لتوسيع نطاق التدريب أو النمذجة التي تُنشئ نسخة من نموذج كامل على أجهزة متعددة، ثم تُرسِل مجموعة فرعية من بيانات الإدخال إلى كل جهاز يمكن أن تتيح معالجة البيانات المتعدّدة التدريب والاستنتاج باستخدام حِزم بيانات كبيرة جدًا، ولكن تتطلّب معالجة البيانات المتعدّدة أن يكون النموذج صغيرًا بما يكفي ليناسب جميع الأجهزة.

يؤدي عادةً توازُن البيانات إلى تسريع عملية التدريب والاستنتاج.

اطّلِع أيضًا على التوازي في النماذج.

واجهة برمجة التطبيقات لمجموعة البيانات (tf.data)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow عالية المستوى لقراءة البيانات وتحويلها إلى تنسيق تتطلّبه خوارزمية تعلُّم الآلة يمثّل عنصر tf.data.Dataset تسلسلاً من العناصر، حيث يحتوي كل عنصر على مصفوفة تانسور واحدة أو أكثر. يوفر عنصر tf.data.Iterator إمكانية الوصول إلى عناصر Dataset.

مجموعة البيانات

#fundamentals

مجموعة من البيانات الأولية، يتم تنظيمها عادةً (وليس حصريًا) بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

فاصل بين الفئات

الفواصل بين الفئات التي تعلّمها النموذج في فئة ثنائية أو مشاكل التصنيف المتعدّد الفئات على سبيل المثال، في الصورة التالية التي تمثّل مشكلة تصنيف ثنائي، حدود القرار هي الحدود بين الفئة البرتقالية والفئة الزرقاء:

حدّ فاصل محدّد بدقة بين فئة وأخرى

غابة القرارات

#df

نموذج تم إنشاؤه من أشجار قرارات متعددة. تُجري غابة القرارات توقّعات من خلال تجميع توقّعات أشجار القرارات. تشمل الأنواع الشائعة من غابات القرارات الغابات العشوائية والأشجار المحسّنة باستخدام التدرّج.

اطّلِع على قسم شدَّد القرارات في دورة "شدَّد القرارات" للحصول على مزيد من المعلومات.

عتبة القرار

مرادف عتبة التصنيف.

شجرة القرار

#df

نموذج تعلُّم خاضع للإشراف يتألّف من مجموعة من الشروط والأوراق المنظَّمة بشكل هرمي على سبيل المثال، في ما يلي شجرة قرارات:

شجرة قرارات تتألّف من أربعة شروط مرتبة
          بشكل هرمي، وتؤدي إلى خمس أوراق

أداة فك الترميز

#language

بشكل عام، أي نظام تعلُّم آلي يحوّل من تمثيل داخلي تمت معالجته أو كثيف أو إلى تمثيل أكثر كثافة أو تمثيل خارجي

غالبًا ما تكون برامج الترميز جزءًا من نموذج أكبر، حيث يتم غالبًا إقرانها ببرنامج ترميز.

في مهام تسلسل إلى تسلسل، يبدأ المُشفِّر بالحالة الداخلية التي ينشئها المُشفِّر لتوقُّع التسلسل التالي.

راجِع Transformer للاطّلاع على تعريف وحدة فك الترميز ضمن بنية Transformer.

اطّلِع على النماذج اللغوية الكبيرة في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من طبقة مخفية واحدة

يُعرف النموذج العميق أيضًا باسم الشبكة العصبية العميقة.

يُرجى المقارنة مع النموذج الواسع النطاق.

شبكة عصبية عميقة

مرادف لـ النموذج العميق.

شبكة Q-العميقة (DQN)

#rl

في التعرّف على الدالة Q، يتم استخدام شبكة عصبية عميقة تتوقّع وظائف الدالة Q.

المُراجع هو مصطلح مرادف لشبكة Q-العميقة.

التكافؤ الديمغرافي

#fairness

مقياس المساواة الذي يتم استيفاؤه إذا كانت نتائج تصنيف النموذج لا تعتمد على سمة حسّاسة معيّنة

على سبيل المثال، إذا قدّم كلّ من سكان جزيرة ليليبوت وسكان جزيرة كبريت طلبات للانضمام إلى جامعة غلادبدبرب، يتمّ تحقيق المساواة الديمغرافية إذا كانت النسبة المئوية لسكان جزيرة ليليبوت المقبولين متساوية مع النسبة المئوية لسكان جزيرة كبريت المقبولين، بغض النظر عمّا إذا كانت إحدى المجموعة أكثر تأهّلاً في المتوسّط من الأخرى.

يختلف ذلك عن المعدّلات المتكافئة و تكافؤ الفرص، اللذان يسمحان باستناد نتائج التصنيف بشكلٍ إجمالي إلى السمات الحسّاسة، ولكنّهما لا يسمحان باستناد نتائج التصنيف إلى سمات حسّاسة في تصنيفات معيّنة محدّدة الحقيقة الأساسية. اطّلِع على مقالة "مكافحة التمييز باستخدام تعلُّم الآلة الذكي" للاطّلاع على رسم بياني يوضّح التوازنات عند تحسين الأداء لتحقيق المساواة الديمغرافية.

اطّلِع على الإنصاف: المساواة demographic في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

إزالة الضوضاء

#language

منهج شائع للتعلُّم الذاتي المُوجَّه:

  1. التشويش: تتم إضافته بشكل مصطنع إلى مجموعة البيانات.
  2. يحاول النموذج إزالة الضوضاء.

تتيح إزالة الضوضاء التعلّم من الأمثلة غير المصنّفة. تُستخدَم مجموعة البيانات الأصلية كمستهدَف أو تصنيف، وتكون البيانات المشوشة هي المدخلات.

تستخدِم بعض النماذج اللغوية المقنَّعة ميزة تقليل الضوضاء على النحو التالي:

  1. تتم إضافة تشويش بشكل مصطنع إلى جملة غير مصنّفة من خلال حجب بعض الرموز.
  2. يحاول النموذج توقّع الرموز الأصلية.

خاصية كثيفة

#fundamentals

سمة تكون فيها معظم القيم أو جميعها غير صفرية، وتكون عادةً Tensor من القيم الكسورية. على سبيل المثال، يلي مكثّف لأنّ 9 من قيمه غير صفرية:

8 3 7 5 2 4 0 4 9 6

يختلف عن الميزة المتناثرة.

طبقة كثيفة

مرادف لـ الطبقة المكتملة الاتصال.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبونية:

على سبيل المثال، تكون عمق الشبكة العصبية التي تتضمّن خمس طبقات مخفية وطبقة إخراج واحدة هو 6.

يُرجى العلم أنّ طبقة الإدخال لا تؤثر في العمق.

شبكة عصبية تفافية قابلة للفصل حسب العمق (sepCNN)

#image

بنية شبكة عصبية تفافية تستند إلى Inception، ولكن يتم استبدال وحدات Inception بعمليات التفاف القابلة للفصل على مستوى العمق. يُعرف أيضًا باسم Xception.

تُقسِّم عملية الدمج القابل للفصل حسب العمق (التي يُشار إليها أيضًا باسم الدمج القابل للفصل) عملية الدمج العادية الثلاثية الأبعاد إلى عمليتَي دمج منفصلتَين أكثر فعالية من الناحية الحسابية: أولاً، عملية دمج قابلة للفصل حسب العمق، بعمق 1 (n ✕ n ✕ 1)، ثم عملية دمج قابلة للفصل حسب النقطة، بطول وعرض 1 (1 ✕ 1 ✕ n).

لمزيد من المعلومات، يُرجى الاطّلاع على مقالة Xception: Deep Learning with Depthwise Separable Convolutions.

تصنيف مشتق

مرادف لتصنيف تقريبي.

جهاز

#TensorFlow
#GoogleCloud

مصطلح يحمل أكثر من معنى واحد، مع التعريفَين التاليَين المحتمَلَين:

  1. فئة من الأجهزة التي يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الموتّرات
  2. عند تدريب نموذج تعلُّم آلي على شرائح المُسرِّعات (وحدات معالجة الرسومات أو وحدات معالجة الشبكة العصبية للتطبيقات)، هو الجزء من النظام الذي يُجري عمليات المعالجة للمصفوفات وعمليات التضمين. يعمل الجهاز على شرائح مسرعات. في المقابل، يعمل المضيف عادةً على وحدة المعالجة المركزية.

الخصوصية التفاضلية

في تعلُّم الآلة، هو أسلوب إخفاء الهوية لحماية أي بيانات حسّاسة (مثل المعلومات الشخصية لشخص) مضمّنة في مجموعة التدريب الخاصة بالنموذج. يضمن هذا النهجعدم تعلُّم النموذج أو تذكُّره الكثير من المعلومات عن شخص معيّن. ويتم ذلك من خلال أخذ عيّنات وإضافة تشويش أثناء تدريب النموذج لإخفاء نقاط البيانات الفردية، ما يقلل من خطر الكشف عن بيانات التدريب الحسّاسة.

ويُستخدَم أسلوب "الخصوصية التفاضلية" أيضًا خارج نطاق تعلُّم الآلة. على سبيل المثال، يستخدم علماء البيانات أحيانًا الخصوصية التفاضلية لحماية الخصوصية الفردية عند احتساب إحصاءات استخدام المنتجات لشرائح ديمغرافية مختلفة.

تقليل السمات

تقليل عدد السمات المستخدَمة لتمثيل سمة معيّنة في متجه السمات، عادةً من خلال التحويل إلى متجه تضمين

الأبعاد

مصطلح مُحمَّل بحمولة زائدة يتضمّن أيًا من التعريفات التالية:

  • عدد مستويات الإحداثيات في Tensor على سبيل المثال:

    • لا يحتوي المقياس على أيّ سمات، على سبيل المثال، ["Hello"].
    • يحتوي المتجه على سمة واحدة، مثل [3, 5, 7, 11].
    • تحتوي المصفوفة على سمتَين، مثل [[2, 4, 18], [5, 7, 14]]. يمكنك تحديد خلية معيّنة بشكل فريد في متجه أحادي البعد باستخدام إحداثي واحد، ويجب استخدام إحداثيَين لتحديد خلية معيّنة بشكل فريد في مصفوفة ثنائية الأبعاد.
  • عدد الإدخالات في متجه السمات

  • عدد العناصر في طبقة التضمين

طلب مباشر

#language
#generativeAI

مرادف لـ الطلب بلا مثال.

خاصية محدّدة القيم

#fundamentals

سمة تتضمّن مجموعة محدودة من القيم المحتملة على سبيل المثال، السمة التي يمكن أن تكون قيمها حيوان أو نبات أو معدن فقط هي سمة منفصلة (أو تصنيفية).

يختلف ذلك عن الميزة المستمرة.

نموذج تمييزي

نموذج يتنبّأ بالتصنيفات من مجموعة من سمة واحدة أو أكثر بشكل أكثر رسمية، تحدِّد النماذج التفريقية الاحتمالية الشَرطية لنتيجة معيّنة استنادًا إلى الميزات و الأوزان، أي:

p(output | features, weights)

على سبيل المثال، النموذج الذي يتنبّأ ما إذا كانت الرسالة الإلكترونية غير مرغوب فيها استنادًا إلى الميزات والمَعلمات هو نموذج تمييزي.

إنّ الغالبية العظمى من نماذج التعلّم المُوجّه، بما في ذلك نماذج التصنيف والانحدار، هي نماذج تمييزية.

يختلف عن النموذج التوليدي.

المُميِّز

نظام يحدّد ما إذا كانت الأمثلة حقيقية أو زائفة

أو هو النظام الفرعي ضمن شبكة توليدية تداعية التي تحدّد ما إذا كانت الأمثلة التي أنشأها المنشئ حقيقية أو مزيفة.

اطّلِع على المميّز في دورة GAN للحصول على مزيد من المعلومات.

التأثير غير المتكافئ

#fairness

اتّخاذ قرارات عن الأشخاص تؤثر بشكل غير متناسب في مجموعات فرعية مختلفة من السكان ويشير ذلك عادةً إلى الحالات التي تضر فيها عملية صنع القرار المستندة إلى الخوارزميات ببعض المجموعات الفرعية أو تعود بالنفع عليها أكثر من غيرها.

على سبيل المثال، لنفترض أنّه من المرجّح أن تصنّف خوارزمية تحدّد أهلية أحد الأشخاص للحصول على قرض لشراء منزل صغير كشخص "غير مؤهّل" إذا كان عنوانه البريدي يحتوي على رمز بريدي معيّن. إذا كان من المرجّح أن يكون لدى سكان "ليبوتو" الذين يستخدمون تنسيق Big-Endian عناوين بريدية تتضمّن هذا الرمز البريدي أكثر من سكان "ليبوتو" الذين يستخدمون تنسيق Little-Endian، قد تؤدي هذه الخوارزمية إلى تأثير متفاوت.

يختلف ذلك عن المعالجة غير المتكافئة، التي تركّز على الاختلافات الناتجة عندما تكون خصائص المجموعة الفرعية مدخلات صريحة لعملية اتخاذ القرار بالاستناد إلى الخوارزميات.

معاملة مختلفة

#fairness

أخذ السمات الحسّاسة للمشاركين في الاعتبار في عملية اتخاذ القرار بالاستناد إلى الخوارزميات، ما يؤدي إلى التعامل مع مجموعات فرعية مختلفة من الأشخاص بشكل مختلف

على سبيل المثال، لنفترض أنّ هناك خوارزمية تحدد أهلية الأقزام للحصول على قرض لشراء منزل صغير بناءً على البيانات التي يقدّمونها في طلب القرض. إذا كانت الخوارزمية تستخدم انتماء Lilliputian كBig-Endian أو Little-Endian كإدخال، فإنّه يتم تطبيق معاملة مختلفة على هذا السمة.

يختلف ذلك عن التأثير غير المتكافئ الذي يركز على الاختلافات في التأثيرات الاجتماعية للقرارات الخوارزمية على المجموعات الفرعية، بغض النظر عمّا إذا كانت هذه المجموعات الفرعية مدخلات للنموذج.

التقطير

#generativeAI

عملية تقليل حجم نموذج واحد (المعروف باسم المعلّم) إلى نموذج أصغر (المعروف باسم الطالب) يحاكي توقّعات النموذج الأصلي بأكبر قدر ممكن من الدقة إنّ التكثيف مفيد لأنّ النموذج الأصغر حجمًا يقدّم ميزتَين رئيسيتين مقارنةً بالنموذج الأكبر حجمًا (المعلّم):

  • وقت استنتاج أسرع
  • خفض استهلاك الذاكرة والطاقة

ومع ذلك، لا تكون توقّعات الطلاب عادةً جيدة بقدر توقّعات المعلّم.

يُدرِّب التقطير نموذج الطالب لتقليل دالة الخسارة استنادًا إلى الفرق بين المخرجات التي تقدّمها توقّعات نماذج الطالب والمعلّم.

قارِن بين التقطير والمصطلحات التالية:

اطّلِع على النماذج اللغوية الكبيرة: التحسين والتركيز وهندسة الطلبات في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

distribution

وتشير إلى معدّل تكرار القيم المختلفة ونطاقها لسمة أو تصنيف معيّن. يوضّح التوزيع مدى احتمالية ظهور قيمة معيّنة.

تعرض الصورة التالية الرسوم البيانية للشرائح البيانية لتوزيعَين مختلفَين:

  • على اليمين، توزيع ثروة وفقًا لقانون القوة مقارنةً بعدد الأشخاص الذين يملكون هذه الثروة.
  • على يسار الرسم البياني، توزيع طبيعي للطول مقابل عدد الأشخاص الذين لديهم هذا الطول

مدرّجان تكراريان يعرض مخطّط بياني تكراري واحد توزيعًا لقانون الطاقة مع
          الثروة على محور السينات وعدد الأشخاص الذين لديهم هذه الثروة على محور القصات. يمتلك معظم الأشخاص ثروة قليلة جدًا، بينما يمتلك عدد قليل من الأشخاص
          الكثير من الثروة. يعرض الرسم البياني الشريطي الآخر توزيعًا طبيعيًا
          مع الارتفاع على المحور x وعدد الأشخاص الذين لديهم هذا الارتفاع
          على المحور y. يتجمّع معظم الأشخاص في مكان ما بالقرب من المتوسط.

يمكن أن يساعدك فهم توزيع كلّ سمة وتصنيف على تحديد كيفية تسويت القيم ورصد القيم الشاذة.

تشير عبارة خارج النطاق التوزيعي إلى قيمة لا تظهر في مجموعة البيانات أو تكون نادرة جدًا. على سبيل المثال، سيتم اعتبار صورة كوكب زحل خارج نطاق التوزيع لمجموعة بيانات تتألف من صور قطط.

التجميع التفاضلي

#clustering

اطّلِع على التجميع الهرمي.

تصغير نطاق العيّنات

#image

مصطلح يحمل أكثر من معنى واحد، ويمكن أن يعني أيًا مما يلي:

  • تقليل كمية المعلومات في ميزة بهدف تدريب نموذج بكفاءة أكبر على سبيل المثال، قبل تدريب نموذج التعرّف على الصور، يتم تقليل دقة الصور العالية الدقة إلى تنسيق بدرجة دقة أقل.
  • التدريب على نسبة منخفضة بشكل غير متناسب من أمثلة الفئة الممثّلة بشكل زائد من أجل تحسين تدريب النموذج على الفئات الممثّلة بشكل غير كافٍ على سبيل المثال، في مجموعة بيانات غير متوازنة من حيث الفئات، تميل النماذج إلى التعلّم كثيرًا عن الفئة الأكثر شيوعًا وليس بما يكفي عن الفئة الأقل شيوعًا. تساعد ميزة "تقليل العينة" في توازن مقدار التدريب على فئات الأغلبية والأقلية.

اطّلِع على مجموعات البيانات: مجموعات البيانات غير المتوازنة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

DQN

#rl

اختصار Deep Q-Network.

تسوية الإسقاط

شكل من أشكال التسوية المفيدة في تدريب الشبكات العصبية. تزيل عملية تنظيم Dropout اختيارًا عشوائيًا لعدد ثابت من الوحدات في إحدى طبقات الشبكة لخطوة واحدة من التدرّج. وكلما زاد عدد الوحدات التي تم إسقاطها، زادت درجة التنظيم. ويشبه ذلك تدريب الشبكة على محاكاة مجموعة كبيرة بشكلٍ كبير من الشبكات الأصغر حجمًا. لمعرفة التفاصيل الكاملة، يُرجى الاطّلاع على مقالة Dropout: A Simple Way to Prevent Neural Networks from Overfitting (الحذف العشوائي للطبقات: طريقة بسيطة لمنع الشبكات العصبية من التعلّم الزائد).

ديناميكي

#fundamentals

إجراء يتم بشكل متكرر أو مستمر إنّ المصطلحين ديناميكي وعلى الإنترنت هما مترادفَان في مجال تعلُّم الآلة. في ما يلي الاستخدامات الشائعة للإعلانات الديناميكية والإعلانات على الإنترنت في التعلم الآلي:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج يتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرّر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية توليد توقعات عند الطلب.

نموذج متغيّر

#fundamentals

نموذج تتم إعادة تدريبه بشكل متكرر (أو ربما بشكل مستمر). النموذج الديناميكي هو "مدرِّب طوال الحياة" يتكيّف باستمرار مع البيانات المتغيّرة. يُعرف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

يختلف ذلك عن النموذج الثابت.

E

التنفيذ الفوري

#TensorFlow

بيئة برمجة TensorFlow يتم فيها تنفيذ العمليات على الفور. في المقابل، لا يتم تنفيذ العمليات التي يتمّ استدعاؤها في تنفيذ الرسم البياني إلى أن يتمّ تقييمها صراحةً. التنفيذ الفوري هو واجهة إلزامية، تمامًا مثل الرمز في معظم لغات البرمجة. إنّ برامج التنفيذ الفوري هي بشكل عام أسهل بكثير في تصحيح الأخطاء من برامج تنفيذ الرسوم البيانية.

الإيقاف المبكر

#fundamentals

طريقة للتسويف تتضمن إنهاء التدريب قبل انتهاء انخفاض خسارة التدريب. في عملية الإيقاف المبكر، تتوقف عن تدريب النموذج عمدًا عندما يبدأ خسارة مجموعة بيانات التحقّق في الزيادة، أي عندما ينخفض أداء التعميم.

مسافة نقل التربة (EMD)

مقياس للتشابه النسبي بين توزيعَين كلما انخفضت مسافة نقل التربة، كان التوزيعان أكثر تشابهًا.

مسافة التعديل

#language

مقياس لدرجة تشابه سلسلتَي نص معًا في تعلُّم الآلة، يكون "مسافة التعديل" مفيدًا للأسباب التالية:

  • من السهل احتساب مسافة التعديل.
  • يمكن أن تقارن دالة Edit distance بين سلسلةَين معروف أنّهما متشابهتان.
  • يمكن أن يحدِّد "مسافة التعديل" درجة تشابه سلاسل مختلفة مع سلسلة معيّنة.

هناك عدة تعريفات لمسافة التعديل، وكلّ منها يستخدم عمليات مختلفة على السلسلة. اطّلِع على مسافة Levenshtein للحصول على مثال.

ترميز Einsum

رمز فعّال لوصف كيفية دمج متجهات تانسورية يتم دمج المكثفات من خلال ضرب عناصر المكثف بعناصر المكثف الآخر ثم جمع المنتجات. يستخدم أسلوب Einsum رموزًا لتحديد محاور كل مصفوفة تينسور، ويتم إعادة ترتيب هذه الرموز نفسها لتحديد شكل المصفوفة الناتجة الجديدة.

يوفّر NumPy طريقة شائعة لتنفيذ Einsum.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على سمة فئوية عالية الأبعاد بهدف تعلم مصفوفة إدراج ذات أبعاد أقل تدريجيًا تسمح طبقة التضمين للشبكة العصبية بالتدريب بفعالية أكبر بكثير مقارنةً بالتدريب على الميزة الفئوية العالية الأبعاد فقط.

على سبيل المثال، تتضمّن خدمة Earth حاليًا حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي سمة في النموذج، لذا تتضمّن طبقة الإدخال في النموذج متجهًا أحادي القيمة يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل baobab على النحو التالي:

مصفوفة من 73,000 عنصر تحتوي العناصر الـ 6,232 الأولى على القيمة
     0. يحمل العنصر التالي القيمة 1. تحتوي العناصر النهائية التي يبلغ عددها 66,767 عنصرًا على
     القيمة صفر.

إنّ مصفوفة تتضمّن 73,000 عنصر طويلة جدًا. في حال عدم إضافة طبقة تضمين إلى النموذج، ستستغرق عملية التدريب وقتًا طويلاً جدًا بسبب مضاعفة 72,999 صفرًا. ربما اخترت أن تتألّف طبقة التضمين من 12 سمة. نتيجةً لذلك، ستتعرّف طبقة التضمين تدريجيًا على متجه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، يشكّل التجزئة بديلاً معقولاً لطبقة التضمين.

اطّلِع على عمليات التضمين في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

مساحة التضمين

#language

فضاء المتجهات ذي الأبعاد d الذي يتمّ ربط ميزات من فضاء متجهات ذو أبعاد أعلى به يتم تدريب مساحة التضمين لالتقاط بنية مفيدة للتطبيق المقصود.

إنّ ناتج الضرب النقطي لإدراجَين هو مقياس لتشابههما.

متّجه التضمين

#language

بشكل عام، هي مصفوفة من الأعداد الكسورية التي يتم أخذها من أي طبقة مخفية تصف المدخلات إلى تلك الطبقة المخفية. غالبًا ما يكون متجه التضمين هو صفيف الأرقام الكسور العشرية التي تم تدريبها في طبقة التضمين. على سبيل المثال، لنفترض أنّه يجب أن تتعرّف طبقة التضمين على ملف شخصي لكل نوع من الأنواع الـ 73,000 من الأشجار على الأرض. ربما تكون الصفيفة التالية هي متجه التضمين لشجرة الباوباب:

مصفوفة من 12 عنصرًا، يحتوي كلّ منها على عدد بنقطة عائمة
          يتراوح بين 0.0 و1.0

إنّ متجه التضمين ليس مجموعة من الأرقام العشوائية. تحدِّد طبقة التضمين هذه القيم من خلال التدريب، على غرار الطريقة التي تتعلّم بها الشبكة العصبية الأوزان الأخرى أثناء التدريب. كل عنصر من عنصرَي السلسلة هو تقييم لبعض خصائص نوع شجرة معيّن. أيّ عنصر يمثّل سمة نوع الشجرة؟ من الصعب جدًا تحديد ذلك للمستخدمين.

إنّ الجزء المميّز رياضيًا من متجه التضمين هو أنّ العناصر المشابهة تحتوي على مجموعات متشابهة من الأعداد الكسورية. على سبيل المثال، تحتوي أنواع الأشجار المتشابهة على مجموعة أكثر تشابهًا من الأعداد الكسورية مقارنةً بأنواع الأشجار المختلفة. تُعدّ أشجار السرو الأحمر وأشجار السكويا من أنواع الأشجار ذات الصلة، لذلك سيكون لها مجموعة أكثر تشابهًا من الأرقام ذات النقطة العائمة مقارنةً بمجموعة أشجار السرو الأحمر وأشجار جوز الهند. ستتغيّر الأرقام في مصفوفة التضمين في كل مرة تُعيد فيها تدريب النموذج، حتى إذا أعدت تدريبه باستخدام إدخال مطابق.

دالة التوزيع التراكمي التجريبية (eCDF أو EDF)

دالة توزيع تراكمي استنادًا إلى القياسات التجريبية من مجموعة بيانات حقيقية قيمة الدالة في أي نقطة على طول محور السينات هي نسبة الملاحظات في مجموعة البيانات التي تكون أقل من القيمة المحدّدة أو مساوية لها.

تقليل المخاطر التجريبية (ERM)

اختيار الدالة التي تقلّل الخسارة في مجموعة التدريب يُرجى الاطّلاع على تقليص المخاطر البنيوية.

برنامج تشفير

#language

بشكل عام، أي نظام تعلُّم آلي يحوّل من تمثيل كثيف أو خارجي أو تمثيل أولي إلى تمثيل أكثر كثافة أو تمثيل داخلي

غالبًا ما تكون برامج الترميز جزءًا من نموذج أكبر، حيث يتم غالبًا إقرانها ببرنامج فك ترميز. تُقرِن بعض أدوات التحويل برامج الترميز ببرامج فك التشفير، على الرغم من أنّ أدوات التحويل الأخرى تستخدم برنامج الترميز أو برنامج فك التشفير فقط.

تستخدِم بعض الأنظمة مخرج الترميز كمدخل لشبكة تصنيف أو انحدار.

في مهام تسلسل إلى تسلسل، يأخذ الترميز تسلسل إدخال ويعرض حالة داخلية (متجه). بعد ذلك، يستخدم المشفِّر هذه الحالة الداخلية للتنبؤ بالتسلسل التالي.

راجِع Transformer للاطّلاع على تعريف برنامج الترميز في بنية Transformer.

يمكنك الاطّلاع على النماذج اللغوية الكبيرة: ما هو المقصود بالعبارة "نماذج لغوية كبيرة"؟ في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

مجموعة موحدة

مجموعة من النماذج التي تم تدريبها بشكل مستقل ويتم تجميع أو احتساب متوسط توقّعاتها في العديد من الحالات، تُقدّم المجموعة توقعات أفضل من نموذج واحد. على سبيل المثال، فإنّ الغابة العشوائية هي مجموعة تم إنشاؤها من عدة شُجَر قرارات. يُرجى العلم أنّ بعض غابات القرارات ليست مجموعات.

اطّلِع على Random Forest في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

الإنتروبيا

#df

في نظرية المعلومات، يشير القصور إلى مدى عدم إمكانية التنبؤ بتوزيع الاحتمالية. بدلاً من ذلك، يتم تعريف القصور أيضًا على أنّه مقدار المعلومات التي يحتوي عليها كل مثال. يكون للتوزيع أعلى قيمة ممكنة من الانتروبي عندما تكون جميع قيم المتغيّر العشوائي محتملة بالتساوي.

إنّ معلومات مجموعة تتضمّن قيمتَين محتملتَين "0" و "1" (مثل العلامات في مشكلة التصنيف الثنائي) لها الصيغة التالية:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

حيث:

  • H هي الإنتروبيا.
  • p هو الكسر الخاص بعيّنات "1".
  • q هو الكسر الخاص بأمثلة "0". يُرجى العلم أنّ q = (1 - p).
  • السجلّ هو عادةً السجلّ2. في هذه الحالة، تكون وحدة التشويش هي بت.

على سبيل المثال، لنفترض ما يلي:

  • 100 مثال تحتوي على القيمة "1"
  • 300 مثال تحتوي على القيمة "0"

وبالتالي، تكون قيمة القصور هي:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 بت لكل مثال

ستتضمّن المجموعة المتوازنة تمامًا (على سبيل المثال، 200 صفر و200 واحد) انتروبيا تبلغ 1.0 بت لكل نموذج. كلما أصبحت المجموعة أكثر اختلالًا، تحرّك القصور فيها نحو 0.0.

في أشجار القرارات، تساعد الانتروبي في صياغة تحصيل المعلومات لمساعدة المقسّم في اختيار الشروط أثناء نمو شجرة قرار التصنيف.

مقارنة الإنتروبيا بما يلي:

يُطلق على القصور غالبًا اسم قصور Shannon.

اطّلِع على المقسّم الدقيق للتصنيف الثنائي باستخدام سمات رقمية في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

بيئة

#rl

في التعلّم التعزيزي، هو العالم الذي يحتوي على العامل ويسمح له بمراقبة حالة هذا العالم. على سبيل المثال، يمكن أن يكون العالم المعروض لعبة مثل الشطرنج، أو عالمًا ماديًا مثل المتاهة. عندما يطبّق موظّف الدّعم إجراءً على البيئة، تنتقل البيئة بين الحالات.

حلقة

#rl

في التعلّم التعزيزي، كل محاولة متكرّرة من جانب العامل للتعرّف على بيئة.

حقبة

#fundamentals

تمريرة تدريبية كاملة على مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة.

يمثّل الطور N/حجم الحزمة تكرار التدريب، حيث يكون N هو إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض ما يلي:

  • تتألف مجموعة البيانات من 1,000 مثال.
  • حجم الدُفعة هو 50 مثالاً.

لذلك، يتطلّب جيل واحد 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

سياسة "الاستغلال الأمثل للوقت"

#rl

في التعلّم التعزيزي، سياسة تتّبع إما سياسة عشوائية بالاحتمالية "إبسيلون" أو سياسة جشع بخلاف ذلك على سبيل المثال، إذا كان الإpsilon هو 0.9، تتّبع السياسة سياسة عشوائية بنسبة% 90 من الوقت وسياسة جشع بنسبة% 10 من الوقت.

على مدار الحلقات المتتالية، تقلّل الخوارزمية قيمة الإpsilon من أجل الانتقال من اتّباع سياسة عشوائية إلى اتّباع سياسة جشع. من خلال تغيير السياسة، يستكشف الوكيل البيئة بشكل عشوائي أولاً، ثم يستغل نتائج الاستكشاف العشوائي بشكل جشع.

تكافؤ الفرص

#fairness

مقياس المساواة لتقييم ما إذا كان النموذج يتنبأ بالنتيجة المطلوبة بشكلٍ جيد بالتساوي لجميع قيم السمة الحسّاسة بعبارة أخرى، إذا كانت النتيجة المطلوبة للنموذج هي الفئة الموجبة، سيكون الهدف هو أن يكون معدل الإيجابية الحقيقية هو نفسه لجميع المجموعات.

ترتبط المساواة في الفرص بالاحتمالات المتكافئة، ويتطلّب ذلك أن تكون كلا معدلَي الموجبَين الصائبَين ومعدلَي الموجبَين الخاطئَين متطابقَين لجميع المجموعات.

لنفترض أنّ جامعة Glubbdubdrib تقبل كلّ من سكان Lilliput وBrobdingnag في برنامج رياضيات صارم. تقدّم المدارس الثانوية في جزيرة Lilliput مناهج قوية لدروس الرياضيات، وتكون الغالبية العظمى من الطلاب مؤهّلين للالتحاق بالبرنامج الجامعي. لا تقدّم المدارس الثانوية في Brobdingnag صفوفًا في الرياضيات على الإطلاق، ونتيجةً لذلك، يكون عدد الطلاب المؤهّلين للدخول إلى هذه الوظائف أقل بكثير. يتمّ تلبية مبدأ المساواة في الفرص للتصنيف المفضّل "تمّ قبوله" حسب الجنسية (Lilliputian أو Brobdingnagian) إذا كان من المحتمل أن يتم قبول الطلاب المؤهّلين بشكلٍ متساوٍ بغض النظر عمّا إذا كانوا من Lilliputian أو Brobdingnagian.

على سبيل المثال، لنفترض أنّ 100 طالب من جزيرة Lilliput و100 طالب من جزيرة Brobdingnag يتقدمون بطلبات إلى جامعة Glubbdubdrib، ويتم اتخاذ قرارات القبول على النحو التالي:

الجدول 1: مقدّمو الطلبات الصغار (90% منهم مؤهّلون)

  مؤهَّل غير معرَّف
تم قبوله 45 3
تم الرفض 45 7
المجموع 90 10
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 7/10 = 70%
النسبة المئوية الإجمالية للطلاب من جزيرة Lilliput الذين تم قبولهم: (45+3)/100 = 48%

 

الجدول 2: مقدّمو الطلبات من الشركات الكبيرة (10% منهم مؤهّلون):

  مؤهَّل غير معرَّف
تم قبوله 5 9
تم الرفض 5 81
المجموع 10 90
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 81/90 = 90%
النسبة المئوية الإجمالية للطلاب الذين تم قبولهم في جامعة Brobdingnagian: (5+9)/100 = 14%

تستوفي الأمثلة السابقة مبدأ المساواة في الفرص لقبول الطلاب المؤهّلين لأنّه تتوفر لطلاب "ليبليب" المؤهّلين وطلاب "بروبنديجنان" المؤهّلين فرصة متساوية تبلغ% 50 للقبول.

على الرغم من استيفاء مقياس المساواة في الفرص، فإنّ مقياسَي المساواة التاليَين لا يتم استيفاؤهما:

  • المساواة الديمغرافية: يتم قبول طلاب جزيرة Lilliput و جزيرة Brobdingnag في الجامعة بمعدّلات مختلفة، ويُقبل 48% من طلاب جزيرة Lilliput، ولكن لا يتم قبول سوى 14% من طلاب جزيرة Brobdingnag.
  • الاحتمالات المتساوية: على الرغم من أنّ الطلاب المؤهَّلين من جزيرة Lilliput وطلاب جزيرة Brobdingnag لديهما فرصة متساوية للقبول، لا يتم استيفاء القيود الإضافية التي تقضي بأنّ الطلاب غير المؤهَّلين من جزيرة Lilliput وطلاب جزيرة Brobdingnag لديهما فرصة متساوية للرفض. يُسجّل سكان "ليبليب" غير المؤهَّلين معدّل رفض يبلغ% 70، في حين يُسجّل سكان "بروبنديغنا" غير المؤهَّلين معدّل رفض يبلغ% 90.

اطّلِع على الإنصاف: المساواة في فرص الوصول في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الاحتمالات المتكافئة

#fairness

مقياس لعدالة النموذج لتقييم ما إذا كان النموذج يتنبأ بالنتائج بشكلٍ متساوٍ بنفس الجودة لجميع قيم السمة الحسّاسة مع الأخذ في الاعتبار كلّ من الفئة الموجبة و الفئة السالبة، وليس فئة واحدة فقط حصريًا. بعبارة أخرى، يجب أن يكون كل من معدل الموجب الصحيح ومعدل السالب الخاطئ متطابقًا في جميع المجموعات.

ترتبط الاحتمالات المتكافئة بتكافؤ الفرص الذي لا يركز إلا على معدلات الخطأ لفئة واحدة (موجبة أو سالبة).

على سبيل المثال، لنفترض أنّ جامعة Glubbdubdrib تقبل كلّ من سكان Lilliput و Brobdingnag في برنامج رياضيات صارم. تقدّم المدراس الثانوية في جزيرة Lilliput مناهج دراسية قوية لدروس الرياضيات، وتكون الغالبية العظمى من الطلاب مؤهّلة للالتحاق بالبرنامج الجامعي. لا تقدّم المدراس الثانوية في مملكة Brobdingnag صفوفًا في الرياضيات على الإطلاق، ونتيجةً لذلك، يكون عدد الطلاب المؤهّلين أقل بكثير. يتم استيفاء الاحتمالات المتكافئة شرطًا بغض النظر عمّا إذا كان مقدم الطلب من جزيرة Lilliput أو Brobdingnagian، إذا كان مؤهلاً، من المرجّح أن يتم قبوله في البرنامج، وإذا لم يكن مؤهلاً، من المرجّح أن يتم رفضه.

لنفترض أنّ 100 شخص من جزيرة Lilliput و100 شخص من جزيرة Brobdingnag يتقدمون بطلبات إلى جامعة Glubbdubdrib ، ويتم اتخاذ قرارات القبول على النحو التالي:

الجدول 3: مقدّمو الطلبات الصغار (90% منهم مؤهّلون)

  مؤهَّل غير معرَّف
تم قبوله 45 2
تم الرفض 45 8
المجموع 90 10
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 8/10 = 80%
النسبة المئوية الإجمالية للطلاب من جزيرة Lilliput الذين تم قبولهم: (45+2)/100 = 47%

 

الجدول 4: مقدّمو الطلبات من الشركات الكبيرة (10% منهم مؤهّلون):

  مؤهَّل غير معرَّف
تم قبوله 5 18
تم الرفض 5 72
المجموع 10 90
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 72/90 = 80%
إجمالي النسبة المئوية للطلاب في جامعة Brobdingnagian الذين تم قبولهم: (5+18)/100 = 23%

يتم استيفاء الاحتمالات المتكافئة لأنّه تتوفّر لكل من الطلاب المؤهّلين من جزيرة Lilliput وطلاب Brobdingnagian فرصة بنسبة% 50 للقبول، بينما تتوفّر لكل من الطلاب غير المؤهّلين من جزيرة Lilliput وطلاب Brobdingnagian فرصة بنسبة% 80 للرفض.

يتم تعريف الاحتمالات المتكافئة رسميًا في مقالة "المساواة في الفرص في التعلّم الخاضع للإشراف" على النحو التالي: "يحقّق المتنبّئ Ŷ احتمالات متكافئة بالنسبة إلى السمة المحمية "أ" والنتيجة "ص" إذا كان Ŷ و"أ" مستقلّين، شريطة أن تكون "ص" مشروطة بـ "ص"."

Estimator

#TensorFlow

واجهة برمجة تطبيقات TensorFlow منتهية الصلاحية استخدِم tf.keras بدلاً من Estimators.

evals

#language
#generativeAI

يُستخدَم بشكل أساسي كاختصار لتقييمات نموذج اللغة الضخمة. وعلى نطاق أوسع، التقييمات هي اختصار لأي شكل من أشكال التقييم.

التقييم

#language
#generativeAI

يشير ذلك المصطلح إلى عملية قياس جودة نموذج أو مقارنة نماذج مختلفة مع بعضها.

لتقييم نموذج تعلُّم آلي مُوجَّه ، يتم عادةً تقييمه مقارنةً بمجموعة التحقّق ومجموعة الاختبار. تقييم نموذج تعلم الآلة يتضمن عادةً تقييمات أوسع نطاقًا للجودة والسلامة.

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات والتصنيف المحتمل تندرج الأمثلة في التعلم المُوجّه ضمن فئتين عامتَين:

  • يتألّف المثال المصنّف من سمة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المُصنَّفة أثناء عملية التدريب.
  • يتألف المثال غير المصنّف من ميزة واحدة أو أكثر بدون تصنيف. يتم استخدام الأمثلة غير المصنّفة أثناء الاستنتاج.

على سبيل المثال، لنفترض أنّك تدرِّب نموذجًا لتحديد تأثير أحوال الطقس في نتائج اختبارات الطلاب. في ما يلي ثلاثة أمثلة مصنّفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأوّلي للمثال. وهذا يعني أنّ المثال يتألّف عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. بالإضافة إلى ذلك، يمكن أن تتضمّن الميزات في المثال أيضًا ميزات اصطناعية، مثل تقاطعات الميزات.

اطّلِع على التعلم المُراقَب في دورة "مقدّمة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

إعادة تشغيل المحتوى

#rl

في التعلُّم التعزيزي، تُستخدَم تقنية DQN بهدف تقليل الارتباطات الزمنية في بيانات التدريب. يخزِّن العامل عمليات النقل من حالة إلى أخرى في مخازن إعادة التشغيل، ثم يأخذ عيّنات من عمليات النقل من مخازن إعادة التشغيل لإنشاء بيانات تدريب.

انحياز المُختبِر

#fairness

اطّلِع على الانحياز التأكيدي.

مشكلة التدرّج المتزايد

#seq

ميل التدرّجات في الشبكات العصبية العميقة (خاصةً الشبكات العصبية المتكرّرة) إلى أن تصبح شديدة الانحدار (مرتفعة) بشكل مفاجئ غالبًا ما تؤدي التدرجات الحادة إلى تعديلات كبيرة جدًا على الأوزان لكل عقدة في الشبكة العصبية العميقة.

يصبح من الصعب أو من المستحيل تدريب النماذج التي تواجه مشكلة الانحدار المتزايد. يمكن أن يساعد قطع التدرّج في الحدّ من هذه المشكلة.

قارِن ذلك بمشكلة تلاشي التدرّج.

F

F1

مقياس تصنيف ثنائي "مجمّع" يعتمد على كلّ من الدقة والتذكر. في ما يلي الصيغة:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

الواقعية

#generativeAI

في مجال تعلُّم الآلة، سمة تصف نموذجًا يستند ناتجه إلى الواقع إنّ دقة المعلومات هي مفهوم وليس مقياسًا. على سبيل المثال، لنفترض أنّك أرسلت الطلب التالي إلى نموذج لغوي كبير:

ما هي الصيغة الكيميائية لملح الطعام؟

سيجيب نموذج يُحسِّن من دقة المعلومات على النحو التالي:

NaCl

من المغري افتراض أنّ جميع النماذج يجب أن تستند إلى الحقائق. ومع ذلك، من المفترض أن تؤدي بعض الطلبات، مثل الطلب التالي، إلى تحسين الجانب الإبداعي في نموذج الذكاء الاصطناعي التوليدي بدلاً من الجانب الواقعي.

أريد سماع قصيدة هزلية عن رائد فضاء ودودة.

من غير المرجّح أن يستند الراب الناتج إلى الواقع.

يُرجى التمييز بين الثبات.

قيد الإنصاف

#fairness
تطبيق قيد على خوارزمية لضمان استيفاء تعريف واحد أو أكثر للإنصاف تشمل أمثلة قيود المساواة ما يلي:

مقياس المساواة

#fairness

تعريف رياضي "للإنصاف" يمكن قياسه تشمل بعض مقاييس المساواة المستخدَمة بشكل شائع ما يلي:

إنّ العديد من مقاييس المساواة متعارضة مع بعضها، راجِع مقالة عدم توافق مقاييس المساواة.

نتيجة سالبة خاطئة (FN)

#fundamentals

مثال يتنبأ فيه النموذج عن طريق الخطأ بال الفئة السلبية. على سبيل المثال، يتنبّأ النموذج بأنّ رسالة بريد إلكتروني معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكنّ رسالة البريد الإلكتروني هذه هي في الواقع رسالة غير مرغوب فيها.

معدّل النتائج السالبة الخاطئة

يشير ذلك المصطلح إلى نسبة الأمثلة الموجبة الفعلية التي توقّع النموذج خطأً أنّها تنتمي إلى الفئة السالبة. تحتسب الصيغة التالية نسبة التقييمات العميقة الخاطئة:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

موجب خاطئ

#fundamentals

مثال يتنبأ فيه النموذج عن طريق الخطأ بال الفئة الموجبة. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها (الفئة الموجبة)، ولكن هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها في الواقع.

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير ذلك المصطلح إلى نسبة الأمثلة السالبة الفعلية التي توقّع النموذج خطأً أنّها تنتمي إلى الفئة الموجبة. تحتسب الصيغة التالية معدّل النتيجة الإيجابية الزائفة:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

يمثّل معدل الموجب الخاطئ محور x في منحنى خاصية تشغيل جهاز الاستقبال.

اطّلِع على التصنيف: مخطّط ROC و AUC في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

ميزة

#fundamentals

متغيّر إدخال لنموذج تعلُّم الآلة يتكون المثال من سمة واحدة أو أكثر. على سبيل المثال، لنفترض أنّك تدرِّب نموذجًا لتحديد تأثير الظروف الجوية في درجات اختبارات الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلّ منها على ثلاث ميزات وتصنيف واحد:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع التصنيف

اطّلِع على التعلُّم الخاضع للإشراف في دورة "مقدّمة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

مضروب مجموعات الخصائص

#fundamentals

خاصية مصطنعة تم إنشاؤها من خلال "تداخل" الميزات الفئوية أو الميزات المقسّمة

على سبيل المثال، نأخذ نموذج "توقّع المزاج" الذي يمثّل درجة الحرارة في إحدى الفئات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى الفئات الثلاث التالية:

  • still
  • light
  • windy

بدون تقاطعات السمات، يتم تدريب النموذج الخطي بشكل مستقل على كل من المجموعات السبع المختلفة السابقة. وبالتالي، يتم تدريب النموذج على سبيل المثال على freezing بغض النظر عن التدريب على سبيل المثال على windy.

بدلاً من ذلك، يمكنك إنشاء تقاطع ميزات بين درجة الحرارة و سرعة الرياح. ستتضمّن هذه الميزة الاصطناعية القيم التالية الاثنتي عشرة المحتملة:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل عمليات تقاطع العناصر، يمكن للنموذج التعرّف على الاختلافات في المزاج بين يوم freezing-windy ويوم freezing-still.

إذا أنشأت ميزة اصطناعية من ميزتَين تتضمّن كلّ منهما الكثير من الحزم المختلفة، سيتضمّن تقاطع الميزة الناتج عددًا كبيرًا من التركيبات المحتملة. على سبيل المثال، إذا كانت إحدى السمات تحتوي على 1,000 حزمة وكانت السمة الأخرى تحتوي على 2,000 حزمة، سيتضمّن تقاطع السمات الناتج 2,000,000 حزمة.

من الناحية الرسمية، يمثّل التقاطع منتجًا ديكارتيًا.

تُستخدَم عمليات تقاطع الميزات في الغالب مع النماذج الخطية ونادراً ما تُستخدَم مع الشبكات العصبية.

اطّلِع على البيانات الفئوية: تقاطعات العلامات في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمّن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب نموذج
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعّالة من هذه الميزات

على سبيل المثال، قد تحدّد أنّ temperature قد تكون ميزة مفيدة. بعد ذلك، يمكنك تجربة التجميع لتحسين المعلومات التي يمكن للنموذج تعلّمها من نطاقات temperature مختلفة.

يُطلق على هندسة الميزات أحيانًا اسم استخراج الميزات أو إنشاء الميزات.

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

استخراج العناصر

مصطلح مُحمَّل بحمولة زائدة يتضمّن أيًا من التعريفَين التاليَين:

أهمية العناصر

#df

مرادف لأهمية المتغيّرات.

مجموعة الخصائص

#fundamentals

مجموعة الميزات التي يتم تدريب نموذج تعلُّم الآلة عليها على سبيل المثال، قد يشكّل الرمز البريدي وحجم العقار وحالة العقار مجموعة ميزات بسيطة لنموذج يتنبّأ بأسعار المساكن.

مواصفات الخصائص

#TensorFlow

يصف هذا القسم المعلومات المطلوبة لاستخراج بيانات features من وحدة تخزين بروتوكول tf.Example. بما أنّ ملف التخزين المؤقت لبروتوكول tf.Example هو مجرد حاوية للبيانات، عليك تحديد ما يلي:

  • البيانات المطلوب استخراجها (أي مفاتيح الميزات)
  • نوع البيانات (مثلاً، float أو int)
  • الطول (ثابت أو متغيّر)

متّجه الميزة

#fundamentals

مصفوفة قيم feature التي تتضمّن مثالاً يتم إدخال متجه السمات أثناء التدريب والنمذجة. على سبيل المثال، قد يكون خطّ الخصائص لطراز يتضمّن سمتَين منفصلتَين هو:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتَان مخفيتان وطبقة إخراج واحدة
          تحتوي طبقة الإدخال على عقدتَين، إحداهما تحتوي على القيمة
          0.92 والأخرى تحتوي على القيمة 0.56.

يقدّم كل مثال قيمًا مختلفة لسمة "مصفوفة السمات"، لذا يمكن أن يكون مصفوفة السمات للمثال التالي على النحو التالي:

[0.73, 0.49]

تحدِّد هندسة الميزات كيفية تمثيل الميزات في متجه الميزات. على سبيل المثال، قد يتم تمثيل سمة فئوية ثنائية ولها خمس قيم محتملة باستخدام ترميز بقيمة واحدة. في هذه الحالة، سيتألف جزء من متجه السمات لمثال معيّن من أربعة أصفار و واحدة 1.0 في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

في مثال آخر، لنفترض أنّ النموذج يتألّف من ثلاث ميزات:

  • سمة فئوية ثنائية لها خمس قيم محتملة يتم تمثيلها باستخدام ترميز أحادي الدالة، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • سمة فئوية ثنائية أخرى لها ثلاث قيم محتملة يتم تمثيلها بترميز أحادي القيمة، على سبيل المثال: [0.0, 0.0, 1.0]
  • سمة بنقطة عائمة، على سبيل المثال: 8.3

في هذه الحالة، سيتم تمثيل متجه السمات لكل مثال بواسطة تسع قيم. استنادًا إلى أمثلة القيم في القائمة السابقة، سيكون متجه السمات على النحو التالي:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

ميزة

عملية استخراج الميزات من مصدر إدخال، مثل مستند أو فيديو، وربط هذه الميزات بأحد الخطوط المتّجهة للميزات

يستخدم بعض خبراء الذكاء الاصطناعي مصطلح "إنشاء الميزات" كاسم بديل لمصطلح هندسة الميزات أو استخراج الميزات.

التعلّم الموحّد

نهج تعلُّم آلي موزّع يدرِّب نماذج تعلُّم الآلة باستخدام أمثلة لا مركزية على الأجهزة، مثل الهواتف الذكية في تقنية التعلّم الموحّد، تنزِّل مجموعة فرعية من الأجهزة النموذج الحالي من خادم تنسيق مركزي. تستخدم الأجهزة الأمثلة المخزّنة على الأجهزة لإجراء تحسينات على النموذج. بعد ذلك، تحمِّل الأجهزة تحسينات النموذج (وليس أمثلة التدريب) إلى الخادم التنسيقي، حيث يتم تجميعها مع التعديلات الأخرى للحصول على ملف نموذج عالمي محسَّن. بعد التجميع، لن تكون تعديلات النموذج التي تُحتسب بواسطة الأجهزة مطلوبة بعد الآن، ويمكن تجاهلها.

وبما أنّه لا يتم تحميل أمثلة التدريب مطلقًا، يتّبع التعلّم الموحّد مبادئ الخصوصية المتمثّلة في جمع البيانات المركزة والحدّ من استخدام البيانات.

لمزيد من المعلومات عن التعلّم الموحّد، اطّلِع على هذا الدليل التعليمي.

حلقة الملاحظات

#fundamentals

في تعلُّم الآلة، هو الموقف الذي تؤثّر فيه توقّعات النموذج في بيانات التدريب للنموذج نفسه أو نموذج آخر. على سبيل المثال، سيؤثّر النموذج الذي يقترح الأفلام في الأفلام التي يطّلع عليها المستخدمون، ما سيؤثّر بدوره في نماذج اقتراح الأفلام اللاحقة.

اطّلِع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: أسئلة يجب طرحها في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

شبكة عصبية أمامية التغذية (FFN)

شبكة عصبية بدون اتصالات دورية أو متكرّرة على سبيل المثال، الشبكات العصبية العميقة التقليدية هي شبكات عصبية تقدّميّة. على عكس الشبكات الإلهية المتكررة التي تكون دورية.

التعلّم ببضع فُرَص

منهج تعلُّم الآلة الذي يُستخدَم غالبًا لتصنيف الأجسام، ويهدف إلى تدريب أدوات تصنيف فعّالة من عدد صغير فقط من أمثلة التدريب

اطّلِع أيضًا على التعلُّم بفرصة واحدة و التعلُّم بدون إشارات.

الطلب بأمثلة قليلة

#language
#generativeAI

طلب يحتوي على أكثر من مثال واحد (أي "بضعة" أمثلة) يوضّح كيفية الردّ من خلال نموذج اللغة الكبير على سبيل المثال، يحتوي الطلب الطويل التالي على مثالين يوضّحان لنموذج لغوي كبير كيفية الإجابة عن طلب بحث.

أجزاء طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "مساعد الخبراء القانونيين"
فرنسا: يورو مثال واحد
المملكة المتحدة: الجنيه الإسترليني مثال آخر
الهند: طلب البحث الفعلي

يحقّق الطلب بأمثلة قليلة نتائج مرغوب فيها بشكل عام أكثر من الطلب بلا مثال و الطلب بمثال واحد. ومع ذلك، يتطلّب الطلب بأمثلة قليلة طلبًا أطول.

الطلب بأمثلة قليلة هو شكل من أشكال التعلّم ببضع فُرَص المطبَّق على التعلّم المستنِد إلى طلبات.

اطّلِع على هندسة الطلبات في دورة التعلّم المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

كمنجة

#language

مكتبة إعدادات مخصّصة لاستخدام لغة Python أولاً، وهي تضبط قيم الدوال والفئات بدون استخدام رمز برمجي أو بنية تحتية غزيرة. في ما يتعلّق بـ Pax وقواعد بيانات تعلُّم الآلة الأخرى، تمثّل هذه الدوال والklassen النماذج والمَعلمات الفائقة للتدريب.

يفترض Fiddle أنّ قواعد بيانات تعلُّم الآلة تنقسم عادةً إلى:

  • رمز المكتبة الذي يحدّد الطبقات وأدوات التحسين
  • رمز "الربط" لمجموعة البيانات، الذي يستدعي المكتبات ويربط كل شيء معًا

يسجِّل Fiddle بنية استدعاء رمز التجميع في شكل غير مُقيَّم ومتغيّر.

التحسين

#language
#image
#generativeAI

جولة تدريب ثانية خاصة بالمهمة يتم إجراؤها على نموذج تم تدريبه مسبقًا لتحسين مَعلماته في حالة استخدام معيّنة. على سبيل المثال، تتمثل تسلسل التدريب الكامل لبعض النماذج اللغوية الكبيرة على النحو التالي:

  1. التدريب المُسبَق: يتم تدريب نموذج لغوي كبير على مجموعة بيانات عامة واسعة النطاق، مثل جميع صفحات Wikipedia باللغة الإنجليزية.
  2. التحسين: يمكنك تدريب النموذج المدَّرب مسبقًا لتنفيذ مهمة معيّنة، مثل الردّ على طلبات البحث الطبية. تشمل عملية التحسين عادةً مئات أو آلاف الأمثلة التي تركّز على مهمة معيّنة.

في ما يلي مثال آخر على تسلسل التدريب الكامل لنموذج صور كبير:

  1. التدريب المُسبَق: يمكنك تدريب نموذج صور كبير على مجموعة بيانات عامة واسعة من الصور، مثل جميع الصور في Wikimedia commons.
  2. الضبط الدقيق: يمكنك تدريب النموذج المدَّرب مسبقًا لتنفيذ مهمة معيّنة، مثل إنشاء صور لحيوانات الأوركا.

يمكن أن تتضمّن عملية التحسين الدقيق أيّ مجموعة من الاستراتيجيات التالية:

  • تعديل جميع مَعلمات النموذج المدَّرب مسبقًا يُعرف ذلك أحيانًا باسم التحسين الكامل.
  • تعديل بعض المَعلمات الحالية للنموذج المدّرب مسبقًا فقط (عادةً الطبقات الأقرب إلى طبقة الإخراج)، مع إبقاء المَعلمات الحالية الأخرى بدون تغيير (عادةً الطبقات الأقرب إلى طبقة الإدخال) راجِع الضبط الفعال للمَعلمات.
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الحالية الأقرب إلى طبقة الإخراج

التحسين الدقيق هو شكل من أشكال التعلُّم بالاستناد إلى نماذج سابقة. وبناءً على ذلك، قد تستخدِم عملية التحسين الدقيق دالة خسارة مختلفة أو نوعًا مختلفًا من النماذج مقارنةً بتلك المستخدَمة لتدريب النموذج المدّرب مسبقًا. على سبيل المثال، يمكنك تحسين نموذج صور كبير مدرَّب مسبقًا لإنشاء نموذج انحدار يُظهر عدد الطيور في صورة الإدخال.

قارِن بين التحسين الدقيق والمصطلحات التالية:

يمكنك الاطّلاع على التحسين في دورة "مكثّفة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

الكتان

#language

مكتبة مفتوحة المصدر عالية الأداء لمعالجة التعلم العميق، وهي مبنية على JAX. يوفّر Flax دوالًا لتدريب الشبكات العصبية، بالإضافة إلى methods لتقييم أدائها.

Flaxformer

#language

مكتبة Transformer مفتوحة المصدر، تم إنشاؤها استنادًا إلى Flax، وهي مصمّمة أساسًا لمعالجة اللغة الطبيعية والبحث المتعدّد الوسائط.

بوابة تم حذفها

#seq

الجزء من خلية الذاكرة قصيرة المدى الطويلة الذي ينظم تدفق المعلومات من خلال الخلية. تحافظ بوابات النسيان على السياق من خلال تحديد المعلومات التي يجب تجاهلها من حالة الخلية.

نسبة النجاحات

#generativeAI

مقياس لتقييم النص الذي ينشئه نموذج الذكاء الاصطناعي إنّ نسبة النجاح هي عدد العبارة الناتجة "الناجحة" مقسومًا على إجمالي عدد العبارات النصية الناتجة. على سبيل المثال، إذا أنشأ نموذج لغوي كبير 10 مجموعات من الرموز البرمجية، نجحت خمس منها، سيكون نسبة النجاح %50.

على الرغم من أنّ نسبة النجاح مفيدة بشكل عام في جميع الإحصاءات، فإنّ هذا المقياس مفيد في المقام الأول لقياس المهام التي يمكن التحقّق منها، مثل إنشاء الرموز البرمجية أو المشاكل الحسابية.

دالة softmax الكاملة

مرادف لدالة softmax.

يختلف ذلك عن تحليل العينات المحتمَلة.

اطّلِع على الشبكات العصبية: التحديد المتعدّد الفئات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

طبقة مكتملة الاتصال

طبقة مخفية تكون فيها كل عقدة متصلة بكل عقدة في الطبقة المخفية اللاحقة

تُعرف الطبقة المكتملة الاتصال أيضًا باسم الطبقة الكثيفة.

تحويل الدالة

دالة تأخذ دالة كمدخل وتُرجع دالة مُحوَّلة كناتج يستخدم JAX عمليات تحويل الدوال.

G

GAN

اختصار شبكة تضاؤل توليدي.

Gemini

#language
#image
#generativeAI

منظومة متكاملة تتضمّن تكنولوجيات الذكاء الاصطناعي الأكثر تقدّمًا من Google تشمل عناصر هذا النظام البيئي ما يلي:

  • نماذج Gemini المختلفة
  • واجهة المحادثة التفاعلية لنموذج Gemini يكتب المستخدمون طلبات ويردّ Gemini عليها.
  • واجهات برمجة تطبيقات Gemini المختلفة
  • منتجات مختلفة للأنشطة التجارية تستند إلى نماذج Gemini، مثل Gemini في Google Cloud

طُرز Gemini

#language
#image
#generativeAI

أحدث نماذج متعددة الوسائط المستندة إلى تكنولوجيا تحويل البيانات من Google تم تحديد نماذج Gemini خصيصًا للدمج مع موظّفي الدعم.

يمكن للمستخدمين التفاعل مع نماذج Gemini بطرق متنوعة، بما في ذلك من خلال واجهة حوار تفاعلية ومن خلال حِزم تطوير البرامج (SDK).

التعميم

#fundamentals

قدرة النموذج على تقديم توقّعات صحيحة بشأن بيانات جديدة لم يسبق رؤيتها النموذج الذي يمكنه التعميم هو عكس النموذج الذي يتوافق بشكل مفرط.

اطّلِع على التعميم في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

منحنى التعميم

#fundamentals

رسم بياني لكل من الخسارة في مرحلة التدريب و الخسارة في مرحلة التحقّق كوظيفتين لعدد المرات

يمكن أن يساعدك منحنى التعميم في رصد الملاءمة الزائدة المحتمَلة. على سبيل المثال، يشير منحنى التجميع التالي إلى زيادة الملاءمة لأنّ خسائر التحقّق تصبح في نهاية المطاف أعلى بكثير من خسائر التدريب.

رسم بياني إحداثي تم تصنيف المحور ص فيه على أنّه الخسارة وتم تصنيف المحور س
          على أنّه عدد التكرارات تظهر خطّتان بيانيتان. يعرض أحد الرسمَين 
          خسارة التدريب ويعرض الآخر خسارة التحقّق.
          تبدأ المخطّطتان بشكلٍ مشابه، ولكنّ خسارة التدريب تنخفض في نهاية المطاف
          إلى ما هو أقل بكثير من خسارة التحقّق.

اطّلِع على التعميم في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

نموذج خطي معمَّم

تعميم لنماذج الانحدار باستخدام أقلّ مربعات ، والتي تستند إلى الضوضاء الغاوسية، على أنواع أخرى من النماذج المستندة إلى أنواع أخرى من الضوضاء، مثل الضوضاء على نمط بوسي أو الضوضاء الفئوية تشمل أمثلة النماذج الخطية المعمَّمة ما يلي:

يمكن العثور على مَعلمات النموذج الخطي العام من خلال التحسين المحدّد.

تُظهر النماذج الخطية المعمَّمة السمات التالية:

  • إنّ متوسّط التنبؤ لنموذج الانحدار الأمثل للمربعات الصغرى هو يساوي متوسّط التصنيف في بيانات التدريب.
  • إنّ متوسّط الاحتمالية الذي يتنبّأ به نموذج الانحدار اللوجستي المثالي يساوي متوسّط التصنيف في بيانات التدريب.

تقتصر فعالية النموذج الخطي العام على ميزاته. على عكس النموذج العميق، لا يمكن للنموذج الخطي المعمَّم "التعرّف على ميزات جديدة".

النص الذي تم إنشاؤه

#language
#generativeAI

بشكل عام، النص الذي يُخرجه نموذج الذكاء الاصطناعي عند تقييم نماذج لغوية كبيرة، تقارن بعض المقاييس النص الذي تم إنشاؤه مقارنةً بأحد النصوص المرجعية. على سبيل المثال، لنفترض أنّك تحاول معرفة مدى فعالية نموذج تعلُّم الآلة في الترجمة من الفرنسية إلى الهولندية. في هذه الحالة:

  • النص الذي تم إنشاؤه هو الترجمة الهولندية التي يعرضها نموذج الذكاء الاصطناعي.
  • النص المرجعي هو الترجمة الهولندية التي ينشئها مترجم بشري (أو برنامج).

يُرجى العِلم أنّ بعض استراتيجيات التقييم لا تتضمّن نصًا مرجعيًا.

شبكة تنافسية تُنشئ (GAN)

نظام لإنشاء بيانات جديدة ينشئ فيها مُنشئ data ويحدِّد مُميِّز ما إذا كانت data التي تم إنشاؤها صالحة أو غير صالحة

اطّلِع على دورة "شبكات الخصومة التوليدية" لمزيد من المعلومات.

الذكاء الاصطناعي التوليدي

#language
#image
#generativeAI

مجال تحويلي ناشئ بدون تعريف رسمي ومع ذلك، يتفق معظم الخبراء على أنّ نماذج الذكاء الاصطناعي التوليدي يمكنها إنشاء ("توليد") محتوى يتضمن كل ما يلي:

  • معقّد
  • متّسقة
  • الصورة الأصلية

على سبيل المثال، يمكن أن ينشئ نموذج الذكاء الاصطناعي التوليدي مقالات أو صورًا معقدة.

يمكن لبعض التقنيات السابقة، بما في ذلك النماذج اللغوية طويلة المدى (LSTM) والنماذج العصبية التسلسلية (RNN)، أيضًا إنشاء محتوى أصلي ومتسق. يرى بعض الخبراء أنّ هذه التقنيات السابقة هي نوع من الذكاء الاصطناعي التوليدي، بينما يرى آخرون أنّ الذكاء الاصطناعي التوليدي الحقيقي يتطلّب مخرجات أكثر تعقيدًا من تلك التي يمكن أن تنتجها هذه التقنيات السابقة.

يختلف ذلك عن تعلُّم الآلة التوقّعي.

نموذج تولّدي

من الناحية العملية، هو نموذج ينفّذ أيًا مما يلي:

  • تُنشئ (تُنشئ) أمثلة جديدة من مجموعة بيانات التدريب. على سبيل المثال، يمكن أن ينشئ نموذج توليدي شعرًا بعد تدريبه على مجموعة بيانات من القصائد. يندرج ضمن هذه الفئة المُنشئ الذي يشكّل جزءًا من الشبكة التنافسية التوليدية.
  • لتحديد احتمال أن يكون مثال جديد واردًا من المجموعة التدريبية، أو تم إنشاؤه من الآلية نفسها التي تم بها إنشاء المجموعة التدريبية. على سبيل المثال، بعد التدريب على مجموعة بيانات تتألف من جمل إنجليزية، يمكن للنموذج التوليدي تحديد احتمال أن تكون الإدخالات الجديدة عبارة إنجليزية صالحة.

يمكن للنموذج التوليدي من الناحية النظرية تمييز توزيع الأمثلة أو ميزات معيّنة في مجموعة بيانات. والمقصود:

p(examples)

نماذج التعلُّم غير الخاضع للإشراف هي نماذج تُنشئ محتوى.

يختلف ذلك عن النماذج التمييزية.

منشئ

النظام الفرعي ضمن شبكة تداوري تضارسي تُنشئ أمثلة جديدة.

يختلف هذا النموذج عن النموذج التمييزي.

gini impurity

#df

مقياس مشابه للانتروبيا الفواصل تستخدِم قيمًا مستمَدة من إما قياس gini للشوائب أو معلومات الانتروبي لإنشاء الشروط للتصنيف في أشجار القرارات. يتم اشتقاق تحصيل المعلومات من قصور المعلومات. لا تتوفّر عبارة مكافئة مقبولة عالميًا للمقياس المستمَد من قياس gini للانعدام، ومع ذلك، هذا المقياس غير المُسمّى مهمّ تمامًا مثل مقياس معلومات التحسين.

يُطلق على محتوى الشوائب في مقياس جيني أيضًا اسم مؤشر جيني أو جيني ببساطة.

مجموعة البيانات الأساسية

مجموعة من البيانات المنظَّمة يدويًا التي تُسجّل الحقائق الأساسية يمكن للفرق استخدام مجموعة بيانات ذهبية واحدة أو أكثر لتقييم جودة النموذج.

تلتقط بعض مجموعات البيانات الذهبية نطاقات فرعية مختلفة من الحقائق الأساسية. على سبيل المثال، قد تُسجِّل مجموعة بيانات مثالية لتصنيف الصور ظروف الإضاءة ودقة الصورة.

ردّ جيد

#language
#generativeAI

إجابة معروفة بأنّها جيدة على سبيل المثال، في ما يتعلّق بال الطلب التالي:

2 + 2

نأمل أن يكون الردّ على النحو التالي:

4

GPT (النموذج التوليدي المُدرَّب مسبقًا)

#language

مجموعة من النماذج اللغوية الكبيرة المستندة إلى نموذج التحويل والتي طوّرتها شركة OpenAI

يمكن تطبيق صيغ GPT على طرُق متعددة، بما في ذلك:

  • إنشاء الصور (مثل ImageGPT)
  • إنشاء الصور من النصوص (على سبيل المثال، DALL-E)

متدرّج

متجه المشتقات الجزئية بالنسبة إلى جميع المتغيّرات المستقلة في تعلُّم الآلة، يشير التدرّج إلى المتجه للمشتقات الجزئية لدالة النموذج. تشير منحنيات التدرّج في اتجاه الارتفاع الأكثر انحدارًا.

تراكم التدرّج

تقنية الانتشار العكسي التي تعدّل المَعلمات مرّة واحدة فقط في كل حقبة بدلاً من مرّة واحدة في كل تكرار بعد معالجة كل مجموعة صغيرة، يؤدي تجميع منحدرات القصوى إلى تعديل إجمالي متزايد لمنحدرات القصوى. بعد ذلك، بعد معالجة المجموعة المصغّرة الأخيرة في الحقبة، يعدّل النظام أخيرًا المَعلمات استنادًا إلى مجموع جميع التغييرات في التدرّج.

يكون تجميع التدرجات مفيدًا عندما يكون حجم الحزمة كبيرًا جدًا مقارنةً بحجم الذاكرة المتاحة للتدريب. عندما تكون الذاكرة مشكلة، يكون الميل الطبيعي هو تقليل حجم الحزمة. ومع ذلك، فإنّ تقليل حجم الحزمة في الانتشار العكسي العادي يزيد عدد تعديلات المَعلمات. يتيح تجميع التدرّج للنموذج تجنُّب مشاكل الذاكرة مع مواصلة التدريب بكفاءة.

أشجار (قرارات) التعزيز الاشتقاقي (GBT)

#df

نوع من غابات القرارات التي:

اطّلِع على أشجار القرارات المحسَّنة بالتعزيز في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

التعزيز الاشتقاقي

#df

خوارزمية تدريب يتم فيها تدريب النماذج الضعيفة لتحسين جودة نموذج قوي (تقليل الخسارة) بشكلٍ متكرّر على سبيل المثال، قد يكون النموذج الضعيف نموذجًا خطيًا أو نموذج شجرة قرار صغيرًا. يصبح النموذج القوي مجموع كل النماذج المنخفضة الدقة التي تم تدريبها سابقًا.

في أبسط أشكال تحسين التدرّج، يتم تدريب نموذج ضعيف في كل تكرار لتوقّع تدرج الخسارة للنموذج القوي. بعد ذلك، يتم تعديل ناتج النموذج القوي من خلال طرح التدرّج المتوقّع، على غرار التدرّج التنازلي.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

حيث:

  • $F_{0}$ هو النموذج القوي الأوّلي.
  • $F_{i+1}$ هو النموذج القوي التالي.
  • $F_{i}$ هو النموذج القوي الحالي.
  • ‫$\xi$ هي قيمة تتراوح بين 0.0 و1.0 تُعرف باسم الانكماش، وهي مشابهة لمعدل التعلّم في خوارزمية انحدار التدرج.
  • ‫$f_{i}$ هو النموذج الضعيف الذي تم تدريبه لتوقّع تدرج الخسارة لـ $F_{i}$.

تتضمّن الصيغ الحديثة لتعزيز التدرّج أيضًا المشتقة الثانية (Hessian) للخسارة في عملية الحساب.

تُستخدَم أشجار القرارات عادةً كنماذج ضعيفة في تعزيز التدرّج. راجِع أشجار (القرارات) المحسَّنة باستخدام التدرّج.

اقتصاص التدرّج

#seq

آلية شائعة الاستخدام للتخفيف من أثر مشكلة الانحدار المتزايد من خلال تحديد (قطع) الحد الأقصى لقيمة التدرجات بشكل مصطنع عند استخدام التدرج التنازلي لتدريب نموذج.

انحدار التدرج

#fundamentals

أسلوب رياضي لتقليل الخسارة تعمل طريقة انحدار التدرج على تعديل المَعلمات والانحيازات بشكلٍ متكرّر، وتجد تدريجيًا أفضل مجموعة لتقليل الخسارة.

إنّ انحدار التدرج أقدم بكثير من تعلُّم الآلة.

اطّلِع على التكرار الخطي: التدرّج المُنحَط في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

رسم بياني

#TensorFlow

في TensorFlow، مواصفات الحساب تمثل العقد في الرسم البياني العمليات. تكون الحواف موجّهة وتمثّل تمرير نتيجة عملية (Tensor) كأحد المَعلمات لعملية أخرى. استخدِم TensorBoard لعرض رسم بياني.

تنفيذ الرسم البياني

#TensorFlow

بيئة برمجة TensorFlow التي ينشئ فيها البرنامج أولاً رسمًا بيانيًا ثم ينفذ هذا الرسم البياني بالكامل أو جزءًا منه. تنفيذ رسومات البيان هو وضع التنفيذ التلقائي في TensorFlow 1.x.

يختلف ذلك عن التنفيذ الفوري.

سياسة طَمَّاعة

#rl

في تعلُّم التعزيز، سياسة تختار دائمًا الإجراء الذي يحقّق أعلى عائد متوقّع

الثبات على الأرض

خاصية نموذج يستند ناتجه إلى مادة مصدر معيّنة (أي "يستند إليها"). على سبيل المثال، لنفترض أنّك قدّمت كتابًا دراسيًا كاملاً للفيزياء كأحد المدخلات ("السياق") إلى نموذج لغوي كبير. بعد ذلك، يمكنك توجيه سؤال في الفيزياء إلى هذا النموذج اللغوي الكبير. إذا كان ردّ النموذج يعكس معلومات واردة في هذا الكتاب، يعني ذلك أنّه يستند إلى هذا الكتاب.

يُرجى العِلم أنّ النموذج المستنِد إلى الحقائق ليس دائمًا نموذجًا وقائعيًا. على سبيل المثال، قد يحتوي كتاب الفيزياء الذي تم إدخاله على أخطاء.

معلومات فعلية

#fundamentals

الواقع

الحدث الذي حدث فعلاً

على سبيل المثال، نأخذ نموذج تصنيف ثنائي يتنبّأ بما إذا كان طالب في السنة الأولى من الجامعة سيتخرّج خلال ست سنوات. الحقيقة الأساسية لهذا النموذج هي ما إذا كان هذا الطالب قد تخرّج فعلاً خلال ست سنوات أم لا.

الانحياز لتشابه المجموعة

#fairness

بافتراض أنّ ما ينطبق على فرد ينطبق أيضًا على الجميع في تلك المجموعة. يمكن أن تتفاقم تأثيرات التحيز في تحديد المصدر بالاستناد إلى المجموعة إذا تم استخدام تحليل عيّنات يعتمد على مدى التوفّر لجمع البيانات. في عيّنة غير تمثيلية، قد يتم تحديد مصدر لا يعكس الواقع.

اطّلِع أيضًا على الانحياز للتشابه خارج المجموعة والانحياز للمجموعة. يمكنك أيضًا الاطّلاع على الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

H

الهلوسة

#language

إنتاج ناتج يبدو معقولاً ولكنّه غير دقيق من الناحية الواقعية من خلال نموذج الذكاء الاصطناعي التوليدي الذي يُزعَم أنّه يقدّم ادعاءً عن العالم الواقعي على سبيل المثال، نموذج الذكاء الاصطناعي التوليدي الذي يدّعي أنّ باراك أوباما توفي في عام 1865 يتوهّم.

تجزئة

في تعلُّم الآلة، آلية لتجميع البيانات الفئوية، خاصةً عندما يكون عدد الفئات كبيرًا، ولكن عدد الفئات التي تظهر في مجموعة البيانات صغير نسبيًا

على سبيل المثال، تضمّ الأرض حوالي 73,000 نوع من الأشجار. يمكنك تمثيل كل نوع من الأنواع الـ 73,000 من الأشجار في 73,000 مجموعة فئية منفصلة. بدلاً من ذلك، إذا لم تظهر سوى 200 نوع من أنواع الأشجار في مجموعة بيانات، يمكنك استخدام التجزئة لتقسيم أنواع الأشجار إلى 500 حزمة تقريبًا.

يمكن أن يحتوي حِزمة واحدة على أنواع أشجار متعدّدة. على سبيل المثال، يمكن أن تؤدي عملية التجزئة إلى وضع شجرة الباوباب وشجرة القيقب الأحمر، وهما نوعان مختلفان من الناحية الجينية، في الحزمة نفسها. بغض النظر عن ذلك، تظلّ التجزئة طريقة جيدة لمحاولة ربط مجموعات تصنيفية كبيرة بعدد محدّد من الحِزم. تحوِّل ميزة التجزئة سمة فئة ذات عدد كبير من القيم المحتمَلة إلى عدد أصغر بكثير من القيم عن طريق تجميع القيم بطريقة حتمية.

اطّلِع على البيانات الفئوية: القاموس والترميز بقيمة واحدة في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

إرشادي

حلّ بسيط يتم تنفيذه بسرعة لحلّ مشكلة على سبيل المثال، "من خلال استخدام طريقة استكشافية، حققنا دقة بنسبة% 86. عندما انتقلنا إلى استخدام شبكة عصبية عميقة، ارتفعت الدقة إلى %98".

طبقة مخفية

#fundamentals

طبقة في الشبكة العصبية بين الطبقة المُدخلة (الميزات) و الطبقة المُخرَجة (التوقّعات). تتألف كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتَين مخفيتَين، تضمّن الأولى ثلاث خلايا عصبية والثانية خليتَين عصبيتين:

أربع طبقات الطبقة الأولى هي طبقة إدخال تحتوي على سمتَين. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاثة
          خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على اثنين
          من الخلايا العصبية. الطبقة الرابعة هي طبقة ناتجة. يحتوي كلّ سمة
          على ثلاث حواف، يشير كلّ منها إلى خلية عصبية مختلفة
          في الطبقة الثانية. يحتوي كل خلية عصبية في الطبقة الثانية
          على حافتَين، تشير كل منهما إلى خلية عصبية مختلفة
          في الطبقة الثالثة. يحتوي كل خلية عصبية في الطبقة الثالثة على
          حافة واحدة تشير إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية واحدة. على سبيل المثال، الصورة التوضيحية السابقة هي شبكة عصبية عميقة لأنّ النموذج يحتوي على طبقتَين مخفيتَين.

اطّلِع على الشبكات العصبية: العقد والطبقات العميقة في الدورة التدريبية المكثّفة لتعلُّم الآلة للحصول على مزيد من المعلومات.

التجميع الهرمي

#clustering

فئة من خوارزميات التجميع العنقودي التي تُنشئ شجرة للمجموعات العنقودية يناسب التجميع الهرمي البيانات الهرمية، مثل التصنيفات النباتية. هناك نوعان من خوارزميات التجميع الهيكلي:

  • في التجميع التجميعي، يتم أولاً تعيين كل مثال إلى مجموعته الخاصة، ويُدمج بشكل متكرر المجموعات الأقرب لإنشاء شجرة هرمية.
  • يجمع التجميع التقسيمي أولاً جميع العيّنات في مجموعة واحدة، ثم يقسّم المجموعة بشكل متكرّر إلى شجرة هرمية.

يختلف ذلك عن التجميع العنقودي المستنِد إلى النقاط المركزية.

اطّلِع على خورازميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

تسلّق التلال

خوارزمية لتحسين نموذج تعلُّم الآلة بشكلٍ متكرّر ("السير صعودًا") إلى أن يتوقف النموذج عن التحسين ("يصل إلى قمة التل"). الشكل العام للخوارزمية هو كما يلي:

  1. أنشئ نموذجًا أساسيًا.
  2. أنشئ نماذج مرشحة جديدة من خلال إجراء تعديلات صغيرة على طريقة التدريب أو التحسين. قد يتطلّب ذلك استخدام مجموعة تدريب مختلفة قليلاً أو مَعلمات متغيرة مختلفة.
  3. تقييم النماذج المرشحة الجديدة واتّخاذ أحد الخطوات التالية:
    • إذا كان النموذج المُرشَح يتفوّق على النموذج الأوّلي، يصبح هذا النموذج المُرشَح هو النموذج الأوّلي الجديد. في هذه الحالة، كرِّر الخطوات 1 و2 و3.
    • إذا لم يكن هناك نموذج يحقّق أداءً أفضل من النموذج الأوّلي، يعني ذلك أنّك وصلت إلى القمة ويجب إيقاف التكرار.

اطّلِع على دليل ضبط تعلُّم الآلة للحصول على إرشادات حول ضبط المَعلمات الفائقة. اطّلِع على وحدات البيانات في دورة مكثّفة عن تعلّم الآلة للحصول على إرشادات بشأن هندسة الميزات.

خسارة مفصلية

مجموعة من دوالّ الخسارة لمحاولة التصنيف، وهي مصمّمة للعثور على حدود القرار البعيدة قدر الإمكان عن كل مثال تدريبي، وبالتالي زيادة هامش الاختلاف بين الأمثلة والحدود إلى أقصى حدّ. تستخدِم KSVM خسارة الفاصل (أو دالة ذات صلة، مثل خسارة الفاصل المربّع). بالنسبة إلى التصنيف الثنائي، يتم تعريف دالة خسارة المفصل على النحو التالي:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

حيث يكون y هو التصنيف الصحيح، إما -1 أو +1، وy' هو المخرجات الأوّلية لنموذج التصنيف:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

نتيجةً لذلك، تظهر رسمة بيانية لخسارة المفصل مقارنةً بـ (y * y') على النحو التالي:

رسم بياني إحداثي يتألّف من مقطعَي خط متّصلَين يبدأ القسم الأول
          من الخط عند (-3، 4) وينتهي عند (1، 0). يبدأ الجزء الثاني من السطر
          عند النقطة (1، 0) ويستمر إلى أجل غير مسمى مع ميل
          يساوي 0.

الانحياز السابق

#fairness

نوع من التحيز المتوفّر في العالم والذي انتقل إلى مجموعة بيانات. وتميل هذه الانحيازات إلى عكس الأفكار النمطية الثقافية الحالية، والتفاوتات الديمغرافية، والأحكام المسبقة ضد مجموعات اجتماعية معيّنة.

على سبيل المثال، نأخذ نموذج تصنيف يتنبّأ عمّا إذا كان مقدّم طلب القروض سيتخلف عن سداد القروض أم لا، والذي تم تدريبه على بيانات سابقة عن حالات تخلف عن سداد القروض من ثمانينيات القرن الماضي من البنوك المحلية في مجتمعين مختلفين. إذا كان من المرجّح أن يتخلف عن سداد القروض المتقدمون السابقون من "المجتمع أ" بمقدار ستة أضعاف مقارنةً بالمتقدمين من "المجتمع ب"، قد يتعرّف النموذج على تحيز تاريخي يؤدي إلى تقليل احتمالية الموافقة على القروض في "المجتمع أ"، حتى لو لم تعُد الظروف السابقة التي أدّت إلى ارتفاع معدّلات التخلف عن السداد في هذا المجتمع ذات صلة.

اطّلِع على الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

بيانات محتجزة

أمثلة لم يتم استخدامها عن قصد ("تمّ الاحتفاظ بها") أثناء التدريب مجموعة بيانات التحقّق ومجموعة بيانات الاختبار هما مثالان على بيانات الاختبار. تساعد بيانات المجموعة الاختبارية في تقييم قدرة النموذج على التعميم على بيانات أخرى غير البيانات التي تم تدريبه عليها. توفّر الخسارة في مجموعة البيانات المحجوزة تقديرًا أفضل للخسارة في مجموعة بيانات لم يسبق رؤيتها مقارنةً بالخسارة في مجموعة التدريب.

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم آلي على شرائح وحدة تسريع الأداء (وحدات معالجة الرسومات أو وحدات معالجة الطلبات (TPU))، يُعدّ جزء النظام الذي يتحكّم في ما يلي:

  • مسار الرمز البرمجي العام
  • استخراج وتحويل مسار الإدخال

يتم تشغيل المضيف عادةً على وحدة معالجة مركزية، وليس على شريحة مسرع. ويعمل الجهاز على معالجة المتسلسلات التربيعية على شرائح المسرع.

التقييم البشري

#language
#generativeAI

عملية يحكم فيها الأشخاص على جودة ناتج نموذج تعلُّم الآلة، على سبيل المثال، الاستعانة بأشخاص ثنائيي اللغة لتقييم جودة ناتج نموذج ترجمة تعلُّم الآلة يكون التقييم البشري مفيدًا بشكل خاص لتقييم النماذج التي تتضمن إجابات متعددة.

يختلف هذا التقييم عن التقييم التلقائي وتقييم المراجع الآلي.

دور الإنسان (HITL)

#generativeAI

عبارة اصطلاحية غير محدّدة بدقة يمكن أن تعني أيًا مما يلي:

  • سياسة تقييم ناتج الذكاء الاصطناعي التوليدي بشكل نقدي أو مشكك على سبيل المثال، يندهش الفريق الذي يكتب مسرد تعلُّم الآلة من ما يمكن أن تُنجزه النماذج اللغوية الكبيرة، ولكنه يأخذ في الاعتبار الأخطاء التي ترتكبها هذه النماذج.
  • استراتيجية أو نظام لضمان مساعدة المستخدمين في تشكيل سلوك النموذج وتقييمه وتحسينه من خلال إشراك أحد الأشخاص في عملية المراجعة، يمكن للذكاء الاصطناعي الاستفادة من كل من الذكاء الآلي والذكاء البشري. على سبيل المثال، إنّ النظام الذي ينشئ فيه الذكاء الاصطناعي رمزًا يراجعه مهندسو البرمجيات بعد ذلك هو نظام يعتمد على مشاركة الإنسان.

المعلَمة الفائقة

#fundamentals

المتغيّرات التي تعدّلها أنت أو خدمة ضبط المَعلمات الفائقة أثناء عمليات التدريب المتعاقبة لنموذج معيّن على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة فائقة. يمكنك ضبط معدّل التعلّم على 0.01 قبل جلسة تدريب واحدة. إذا تبيّن لك أنّ القيمة 0.01 مرتفعة جدًا، يمكنك ضبط معدّل التعلم على 0.003 في جلسة التدريب التالية.

في المقابل، المَعلمات هي المَعلمات والميل المختلفة التي يتكاملها النموذج أثناء التدريب.

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

مستوى فائق

حد يفصل مساحة إلى مساحتَين فرعيتَين على سبيل المثال، الخط هو مستوى فائق في سمتَين، والمستوى هو مستوى فائق في ثلاث سمات. في مجال تعلُّم الآلة، يكون المستوى الفائق عادةً هو الحد الفاصل بين مساحة عالية الأبعاد. تستخدِم آلات متّجهات الدعم الأساسية المستويات الفائقة لفصل الفئات الموجبة عن الفئات السالبة، غالبًا في فضاء شديد الارتفاع.

I

موزّعة بشكل مستقل ومتشابه

اختصار موزّعة بشكل مستقل ومتشابه.

التعرّف على الصورة

#image

عملية لفهرسة الأجسام أو الأنماط أو المفاهيم في الصورة يُعرَف التعرّف على الصور أيضًا باسم تصنيف الصور.

لمزيد من المعلومات، يُرجى الاطّلاع على ML Practicum: Image Classification.

اطّلِع على ML Practicum: Image Classification course لمزيد من المعلومات.

مجموعة بيانات غير متوازنة

مرادف لمجموعة البيانات غير المتوازنة الفئات.

التحيز الضمني

#fairness

إجراء عملية ربط أو افتراض تلقائيًا استنادًا إلى نماذج العقل وذكرياته يمكن أن يؤثر التحيز الضمني في ما يلي:

  • كيفية جمع البيانات وتصنيفها
  • كيفية تصميم أنظمة تعلُّم الآلة وتطويرها

على سبيل المثال، عند إنشاء مصنّف لتحديد صور الزفاف، قد يستخدِم المهندس وجود فستان أبيض في الصورة كسمة. ومع ذلك، لم تكن الفساتين البيضاء رائجة إلا في عصور معيّنة وفي ثقافات معيّنة.

اطّلِع أيضًا على التحيز التأكيدي.

إسناد

اختصار إسناد القيمة.

عدم توافق مقاييس الإنصاف

#fairness

فكرة أنّ بعض مفاهيم العدالة غير متوافقة مع بعضها ولا يمكن إشباعها في الوقت نفسه نتيجةً لذلك، لا يتوفّر مقياس واحد عالمي لقياس العدالة يمكن تطبيقه على جميع مشاكل الذكاء الاصطناعي.

قد يبدو هذا الأمر محبطًا، ولكن لا يعني عدم توافق مقاييس المساواة أنّ جهود المساواة غير مجدية. بدلاً من ذلك، يقترح المؤلفان أنّه يجب تحديد العدالة بشكل سياقي لمشكلة محدّدة في الذكاء الاصطناعي، بهدف منع الأضرار المتعلّقة بحالات الاستخدام.

اطّلِع على "On the (im)possibility of fairness" لمناقشة أكثر تفصيلاً لهذا الموضوع.

التعلّم في السياق

#language
#generativeAI

مرادف لـ الطلب بأمثلة قليلة.

موزّعة بشكل مستقل ومتشابه

#fundamentals

البيانات المستمَدة من توزيع لا يتغيّر، وحيث لا تعتمد كل قيمة يتم استخراجها على القيم التي تم استخراجها سابقًا إنّ التوزيع التلقائي المتماثل هو الغاز المثالي في التعلم الآلي، وهو بنية رياضية مفيدة، ولكن لا يمكن العثور عليه تقريبًا بالضبط في العالم الحقيقي. على سبيل المثال، قد يكون توزيع الزوّار إلى صفحة ويب مشترَكًا خلال فترة زمنية قصيرة، أي أنّ التوزيع لا يتغيّر خلال تلك الفترة القصيرة، وتكون زيارة شخص معيّن مستقلة بشكل عام عن زيارة شخص آخر. ومع ذلك، في حال توسيع هذه الفترة الزمنية، قد تظهر اختلافات موسمية في عدد زوّار صفحة الويب.

راجِع أيضًا عدم الاستقرار.

العدالة الفردية

#fairness

مقياس للعدالة يتحقّق مما إذا كان يتم تصنيف الأفراد المشابهين بشكل مشابه. على سبيل المثال، قد تريد أكاديمية Brobdingnagian Academy مراعاة مبادئ المساواة الفردية من خلال التأكّد من أنّ احتمال قبول طالبَين حاصلَين على درجات متطابقة ودرجات متطابقة في الاختبارات المعيارية متساوٍ.

يُرجى العِلم أنّ المساواة الفردية تعتمد بالكامل على كيفية تعريفك "للتشابه" (في هذه الحالة، الدرجات ونتائج الاختبارات)، ويمكنك المخاطرة بظهور مشاكل جديدة في المساواة إذا لم يرصد مقياس التشابه معلومات مهمة (مثل صرامة المنهج الدراسي للطالب).

راجِع مقالة "تحقيق العدالة من خلال الوعي" للحصول على مناقشة أكثر تفصيلاً حول العدالة الفردية.

الاستنتاج

#fundamentals

في تعلُّم الآلة، هي عملية إجراء توقّعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنّفة.

يختلف معنى الاستنتاج إلى حدّ ما في الإحصاءات. راجِع مقالة Wikipedia حول الاستنتاج الإحصائي للاطّلاع على التفاصيل.

اطّلِع على التعلُّم الخاضع للإشراف في دورة "مقدّمة عن تعلُّم الآلة" للتعرّف على دور الاستنتاج في نظام تعلُّم خاضع للإشراف.

مسار الاستنتاج

#df

في شجرة القرارات، أثناء الاستنتاج، المسار الذي يسلكه مثال معيّن من الجذر إلى الشروط الأخرى، وينتهي عند الورقة. على سبيل المثال، في شجرة القرار التالية، تعرض السهمان السميكان مسار الاستنتاج لمثال يتضمّن قيم السمات التالية:

  • س = 7
  • y = 12
  • z = -3

يمرّ مسار الاستنتاج في الرسم التوضيحي التالي عبر ثلاثة شروط قبل الوصول إلى الورقة (Zeta).

شجرة قرارات تتألّف من أربعة شروط وخمس أوراق
          الشرط الجذر هو (x > 0). بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل
          مسار الاستنتاج من الجذر إلى الشرط التالي (y > 0).
          بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل مسار الاستنتاج بعد ذلك إلى
          الشرط التالي (z > 0). بما أنّ الإجابة هي &quot;لا&quot;، ينتقل مسار الاستنتاج
          إلى عقدته الطرفية، وهي الورقة (زيتا).

تعرِض الأسهم السميكة الثلاثة مسار الاستنتاج.

اطّلِع على أشجار القرارات في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

اكتساب المعلومات

#df

في غابات القرارات، الفرق بين القصور في أحد الأجزاء وsummation المرجح (حسب عدد الأمثلة) لقصور أجزائه الفرعية القصور في أحد الأجزاء هو القصور للعيّنات في ذلك الجزء.

على سبيل المثال، راجِع قيم التشويش التالية:

  • إنتروبيا العقدة الرئيسية = 0.6
  • قصور عقدة فرعية واحدة تتضمّن 16 مثالاً ذا صلة = 0.2
  • ينطبق القصور على عقدة فرعية أخرى تتضمّن 24 مثالاً ذا صلة، أي 0.1.

وبالتالي، فإنّ% 40 من الأمثلة متوفّرة في عقدة فرعية واحدة و% 60 في العقدة الفرعية الأخرى. ولذلك:

  • مجموع القصور المرجح للعُقد الثانوية = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

وبالتالي، فإنّ تحصيل المعلومات هو:

  • اكتساب المعلومات = قصور الجزء الأصلي - مجموع القصور المرجح للأجزاء الفرعية
  • معلومات مكتسَبة = 0.6 - 0.14 = 0.46

تسعى معظم الفاصلات إلى إنشاء شروط تحقّق أقصى قدر من المعلومات المكتسَبة.

الانحياز لأفراد المجموعة

#fairness

إظهار الانحياز إلى المجموعة أو الخصائص الخاصة إذا كان المختبِرون أو المقيّمون يتألفون من أصدقاء مطوّر تعلُّم الآلة أو أفراد عائلته أو زملائه، قد يؤدي التحيز داخل المجموعة إلى إلغاء اختبار المنتج أو مجموعة البيانات.

الانحياز لأفراد المجموعة هو شكل من أشكال الانحياز لتشابه المجموعة. اطّلِع أيضًا على الانحياز للتشابه خارج المجموعة.

اطّلِع على الإنصاف: أنواع الانحياز في دورة التعرّف الآلي التدريبية المختصرة للحصول على مزيد من المعلومات.

أداة إنشاء الإدخال

آلية يتم من خلالها تحميل البيانات إلى شبكة عصبية

يمكن اعتبار مُنشئ الإدخال مكوّنًا مسؤولاً عن معالجة البيانات الأولية إلى مصفوفات يتم تكرارها لإنشاء دفعات لأجل التدريب والتقييم والاستنتاج.

الطبقة الأولى

#fundamentals

الطبقة في الشبكة العصبية التي تُحتوي على المتجه المميّز وهذا يعني أنّ طبقة الإدخال توفّر أمثلة للتدريب أو الإدراك. على سبيل المثال، تتألف طبقة الإدخال في الشبكة العصبية التالية من سمتَين:

أربع طبقات: طبقة إدخال وطبقتَان مخفيتان وطبقة إخراج

حالة ضمن المجموعة

#df

في شجرة قرارات، شرط يختبر توفّر عنصر واحد في مجموعة من العناصر. على سبيل المثال، في ما يلي شرط ضمن المجموعة:

  house-style in [tudor, colonial, cape]

أثناء الاستنتاج، إذا كانت قيمة سمة نمط المنزل هي tudor أو colonial أو cape، يتم تقييم هذا الشرط على أنّه "نعم". إذا كانت قيمة سمة تصميم المنزل مختلفة (على سبيل المثال، ranch)، سيتم تقييم هذا الشرط على أنّه "لا".

تؤدي الشروط ضمن المجموعة عادةً إلى أشجار قرارات أكثر فعالية مقارنةً بالشروط التي تختبر الميزات المُشفَّرة بترميز واحد ساخن.

مثيل

مرادف لـ example.

ضبط التعليمات

#generativeAI

هو شكل من أشكال التحسين الدقيق الذي يُحسِّن قدرة نموذج الذكاء الاصطناعي التوليدي على اتّباع تعليمات. يتضمن ضبط التعليمات تدريب نموذج على سلسلة من طلبات التعليمات التي تغطي عادةً مجموعة كبيرة من المهام. وبعد ذلك، يميل النموذج الذي تم ضبطه وفقًا للتعليمات إلى توليد ردود مفيدة على الطلبات بلا مثال في مجموعة متنوعة من المهام.

تحديد أوجه الاختلاف والتشابه مع:

القابلية للتفسير

#fundamentals

القدرة على شرح أو عرض استنتاجات نموذج تعلُّم الآلة بعبارة مفهومة للمستخدم

على سبيل المثال، يمكن فهم معظم نماذج الانحدار الخطي بشكلٍ جيد. (ما عليك سوى الاطّلاع على القيم المحسَّنة لكل سمة). يمكن أيضًا تفسير غابات القرارات بشكل كبير. ومع ذلك، تتطلّب بعض النماذج استخدام عروض مرئية متقدّمة لكي يمكن تفسيرها.

يمكنك استخدام أداة تفسير التعلّم (LIT) لتفسير نماذج الذكاء الاصطناعي.

توافق المقيّمين

مقياس لعدد المرات التي يتفق فيها المقيّمون عند تنفيذ مهمة معيّنة إذا لم يتفق المراجعون، قد تحتاج تعليمات المهمة إلى التحسين. يُعرف ذلك أحيانًا باسم الاتّفاق بين المعلِنين أو موثوقية التقييم بين المقيّمين. اطّلِع أيضًا على kappa، وهو أحد أشهر مقاييس اتفاق الخبراء.

اطّلِع على البيانات الفئوية: المشاكل الشائعة في دورة تعلُّم الآلة المكثّفة للحصول على مزيد من المعلومات.

نسبة التداخل إلى الاتحاد (IoU)

#image

تقاطع مجموعتَين مقسومًا على اتحادهما في مهام معالجة الصور باستخدام تعلُّم الآلة، يتم استخدام معامل IoU لقياس دقة المربّع المحيط المتوقّع للنموذج في ما يتعلّق بالمربّع المحيط للحقيقة الأساسية. في هذه الحالة، تكون نسبة IoU للصندوقين هي النسبة بين المنطقة المتداخلة وإجمالي المنطقة، وتتراوح قيمتها من 0 (لا يتداخل صندوق الحدود المتوقّع مع صندوق حدود الحقيقة المرصودة) إلى 1 (يتطابق صندوق الحدود المتوقّع مع صندوق حدود الحقيقة المرصودة تمامًا).

على سبيل المثال، في الصورة أدناه:

  • تم تحديد حدود المربّع المحدَّد مسبقًا (الإحداثيات التي تحدّد مكان الجدول الليلي في اللوحة الذي يتوقعه النموذج) باللون الأرجواني.
  • يظهر مربّع الحدود لبيانات الأساس (الإحداثيات التي تحدّد مكان ملفه الشخصي في اللوحة) باللون الأخضر.

لوحة &quot;غرفة نوم فينسنت في آرل&quot; التي رسمها فان غوخ، مع مربّعَين مختلفَين
          للحدود حول طاولة بجانب السرير يحيط مربّع الحدود
          للبيانات الأساسية (باللون الأخضر) بجدول النوم بشكلٍ مثالي. إنّ
          مربّع الحدود المتوقّع (باللون الأرجواني) مُحوَّل بنسبة% 50 إلى أسفل ويسار
          مربّع الحدود المستند إلى الحقائق الأساسية، وهو يحيط بالربع الأيمن أسفل
          من طاولة النوم، ولكنه لا يشمل بقية الطاولة.

في هذه الحالة، تبلغ قيمة تقاطع مربّعات الحدود للتنبؤ والحقيقة المرجعية (أسفل يمين الصفحة) 1، وقيمة تجميع مربّعات الحدود للتنبؤ والحقيقة المرجعية (أسفل يسار الصفحة) 7، وبالتالي تكون قيمة IoU هي \(\frac{1}{7}\).

الصورة نفسها أعلاه، ولكن تم تقسيم كل مربّع حدودي إلى أربعة تربعات
          هناك سبعة أرباع في المجموع، لأنّ الربع الأيمن أسفل
          مربّع الحدود للقيمة الأساسية والربع العلوي لليسار
          مربّع الحدود المتوقّع يتداخلان مع بعضهما. يمثّل هذا القسم المتراكب (المميّز باللون الأخضر)
          التقاطع، ومساحته 1. الصورة نفسها أعلاه، ولكن تم تقسيم كل مربّع حدودي إلى أربعة تربعات
          هناك سبعة أرباع في المجموع، لأنّ الربع الأيمن أسفل
          مربّع الحدود للقيمة الأساسية والربع العلوي لليسار
          مربّع الحدود المتوقّع يتداخلان مع بعضهما.
          يمثّل الجزء الداخلي بالكامل الذي يحاط بكلا المربّعَين المحدودَين
          (المميّزَين باللون الأخضر) عملية الدمج، ويبلغ مساحته
          7.

IoU

اختصار تداخل على الإضافة.

مصفوفة السلع

#recsystems

في أنظمة الاقتراحات، يتم إنشاء مصفوفة من متجهات التضمين من خلال تحليل المصفوفات التي تحتوي على إشارات كامنة عن كل عنصر. يحتوي كل صف من مصفوفة السلع على قيمة سمة واحدة كامنة لجميع السلع. على سبيل المثال، لنفترض أنّ لدينا نظامًا يقترح الأفلام. يمثّل كل عمود في مصفوفة العناصر فيلمًا واحدًا. قد تمثل الإشارات الكامنة أنواع الأفلام، أو قد تكون إشارات يصعب تفسيرها تتضمن تفاعلات معقّدة بين النوع والنجوم وعمر الفيلم أو عوامل أخرى.

تحتوي مصفوفة السلع على عدد الأعمدة نفسه في المصفوفة المستهدفة التي يتم تجزئتها. على سبيل المثال، إذا كان لديك نظام اقتراحات أفلام يُقيّم 10,000 عنوان فيلم، ستتضمّن ملف تعريف العناصر 10,000 عمود.

items

#recsystems

في نظام التوصية، هي الكيانات التي يقترحها النظام. على سبيل المثال، الفيديوهات هي العناصر التي يقترحها متجر الفيديو، في حين أنّ الكتب هي العناصر التي يقترحها متجر الكتب.

تكرار

#fundamentals

تحديث واحد لمَعلمات النموذج، أي الأوزان والانحيازات للنموذج، أثناء التدريب يحدِّد حجم الحزمة عدد الأمثلة التي يعالجها النموذج في دورة واحدة. على سبيل المثال، إذا كان حجم المجموعة 20، يعالج النموذج 20 مثالاً قبل تعديل المَعلمات.

عند تدريب شبكة عصبية، تتضمن الخطوة الواحدة المرّتَين التاليتَين:

  1. تمريرة إلى الأمام لتقييم الخسارة في دفعة واحدة
  2. عملية التقديم إلى الخلف (الانتشار العكسي) لتعديل مَعلمات النموذج استنادًا إلى الخسارة ومعدّل التعلّم

J

JAX

مكتبة حوسبة مصفوفات تجمع بين XLA (الجبر الخطي المُسرَّع) والتفاضل التلقائي للحصول على أداء عالٍ في الحوسبة الرقمية توفّر JAX واجهة برمجة تطبيقات بسيطة وقوية لكتابة رموز رقمية سريعة باستخدام عمليات التحويل القابلة للتجميع. يوفّر JAX ميزات مثل:

  • grad (التمايز التلقائي)
  • jit (الترجمة الفورية)
  • vmap (التحويل التلقائي إلى مصفوفات أو تجميع البيانات)
  • pmap (المعالجة المتوزية)

JAX هي لغة لتعبير عن عمليات التحويل للرموز البرمجية الرقمية وإنشاءها، وهي مشابهة لمكتبة NumPy في Python، ولكن نطاقها أكبر بكثير. (في الواقع، مكتبة ‎ .numpy ضمن JAX هي نسخة متكافئة وظيفيًا، لكن تمت إعادة كتابتها بالكامل من مكتبة Python NumPy).

JAX ملائم بشكل خاص لتسريع العديد من مهام تعلُّم الآلة من خلال تحويل النماذج والبيانات إلى شكل مناسب للمحاكاة المتزامنة على مستوى شرائح وحدة معالجة الرسومات ووحدة معالجة الموتّرات.

تم إنشاء مكتبة Flax وOptax Pax والعديد من المكتبات الأخرى استنادًا إلى بنية JAX الأساسية.

K

Keras

واجهة برمجة تطبيقات شائعة للتعلم الآلي في لغة Python تعمل Keras على العديد من أُطر عمل التعلّم العميق، بما في ذلك TensorFlow، حيث يتم إتاحة tf.keras.

آلات متّجهات الدعم الأساسية (KSVM)

خوارزمية تصنيف تسعى إلى زيادة الهامش بين الفئات الموجبة و الفئات السالبة من خلال ربط ناقلات بيانات الإدخال بمساحة ذات أبعاد أعلى. على سبيل المثال، لنفترض أنّ هناك مشكلة في تصنيف تتضمّن فيها مجموعة البيانات المُدخلة مائة سمة. لزيادة الهامش بين الفئتَين الإيجابية والسلبية، يمكن أن تربط تقنية KSVM هذه السمات داخليًا في مساحة تضم مليون سمة. تستخدِم نماذج KSVM دالة خسارة تُعرَف باسم خسارة المفصلة.

النقاط الرئيسية

#image

إحداثيات ميزات معيّنة في صورة على سبيل المثال، في نموذج التعرّف على الصور الذي يميز أنواع الزهور، قد تكون النقاط الرئيسية هي مركز كلّ بتلة، والساق، وعضو التلقيح، وما إلى ذلك.

التصديق المتقاطع k-fold

خوارزمية لتوقع قدرة النموذج على التعميم على البيانات الجديدة يشير k في طريقة k-fold إلى عدد المجموعات المتساوية التي تقسم أمثلة مجموعة البيانات إليها، أي أنّك تُدرِّب وتختبر النموذج k مرة. في كل جولة من التدريب والاختبار، يتم استخدام مجموعة مختلفة كمجموعة اختبار، وتصبح جميع المجموعات المتبقية مجموعة تدريب. بعد k جولة من التدريب والاختبار، يمكنك احتساب المتوسط و الانحراف المعياري لمقاييس الاختبار المحدّدة.

على سبيل المثال، لنفترض أنّ مجموعة البيانات تتألف من 120 مثالاً. لنفترض أيضًا أنّك قررت ضبط k على 4. لذلك، بعد ترتيب الأمثلة عشوائيًا، تقسّم مجموعة البيانات إلى أربع مجموعات متساوية من 30 مثالًا وتُجري أربع دورات تدريب واختبار:

مجموعة بيانات مُقسَّمة إلى أربع مجموعات متساوية من الأمثلة في الجولة 1،
          يتم استخدام المجموعات الثلاث الأولى للتدريب ويتم استخدام المجموعة الأخيرة
          للاختبار. في الجولة 2، يتم استخدام أول مجموعتَين والمجموعة
          الأخيرة للتدريب، بينما يتم استخدام المجموعة الثالثة
          للاختبار. في الجولة 3، يتم استخدام المجموعة الأولى والمجموعتَين الأخيرتَين
          للتدريب، بينما يتم استخدام المجموعة الثانية للاختبار.
          في الجولة 4، يتم استخدام المجموعة الأولى للاختبار، بينما يتم استخدام
          المجموعات الثلاث الأخيرة للتدريب.

على سبيل المثال، قد يكون متوسط الخطأ التربيعي (MSE) هو المقياس الأكثر أهمية لنموذج الانحدار الخطي. لذلك، يمكنك العثور على متوسّط MSE وانحرافه المعياري على مستوى جميع الجولات الأربع.

المتوسطات التصنيفية

#clustering

خوارزمية تجميع شائعة تُجمِّع الأمثلة في التعلم غير الخاضع للإشراف تُجري الخوارزمية التصنيفية في الأساس ما يلي:

  • تُحدِّد هذه الخوارزمية بشكلٍ متكرّر أفضل k نقاط مركزية (المعروفة باسم النقاط المركزية).
  • تُحدِّد كل مثال على أنّه أقرب نقطة مركزية. تنتمي الأمثلة الأقرب إلى النقطة المركزية نفسها إلى المجموعة نفسها.

تختار الخوارزمية التصنيفية مواقع النقاط المركزية لتقليل القيمة التراكمية للمربّع للمسافات من كل مثال إلى أقرب نقطة مركزية له.

على سبيل المثال، فكِّر في الرسم البياني التالي لارتفاع الكلب إلى عرضه:

رسم بياني كارتيزيتي يتضمّن عدة عشرات من نقاط البيانات

إذا كان k=3، تحدِّد الخوارزمية التصنيفية ثلاث نقاط مركزية. يتمّ تحديد كلّ مثال بأقرب نقطة مركزية له، ما يؤدّي إلى إنشاء ثلاث مجموعات:

الرسم البياني الديكارتي نفسه كما هو موضّح في الرسم التوضيحي السابق، باستثناء
          أنّه تمت إضافة ثلاثة مراكز ثقل.
          يتم تجميع نقاط البيانات السابقة في ثلاث مجموعات متمايزة،
          حيث تمثّل كل مجموعة نقاط البيانات الأقرب إلى نقطة مركزية معيّنة

لنفترض أنّ أحد المصنّعين يريد تحديد المقاسات المثالية للكنزات الصغيرة والمتوسطة والكبيرة للكلاب. تحدِّد النقاط المركزية الثلاث متوسّط الطول ومتوسّط العرض لكلّ كلب في هذه المجموعة. وبالتالي، على المصنّع تحديد مقاسات البلوفرات استنادًا إلى هذه المراكز الثلاثية للكتلة. يُرجى العِلم أنّهلا يكون عادةً مركز المجموعة العنقودية مثالاً في المجموعة.

تعرض الرسوم التوضيحية السابقة طريقة "متوسطة k" لأمثلة تتضمّن سمتَين فقط (الارتفاع والعرض). تجدر الإشارة إلى أنّ خوارزمية k-means يمكنها تجميع الأمثلة على مستوى العديد من الميزات.

وسيط تصنيفي

#clustering

خوارزمية تجميع عنقودي ذات صلة وثيقة بالخوارزمية التصنيفية إليك اختلافات هذين الإجراءَين:

  • في الخوارزمية التصنيفية، يتم تحديد النقاط المركزية من خلال تقليل مجموع المربّعات للمسافة بين نقطة مركزية مُحتمَلة وكلّ من أمثلتها.
  • في خوارزمية المتوسط الحسابي لـ k، يتم تحديد النقاط المركزية من خلال تقليل مجموع المسافة بين نقطة مركزية مرشحة وكل مثال منها.

يُرجى العلم أنّ تعريفات المسافة تختلف أيضًا:

  • تعتمد الخوارزمية التصنيفية على المسافة الإقليدية من المركز إلى مثال. (في بعدَين، يشير البعد Euclidean إلى استخدام نظرية فيثاغورس لاحتساب الوتر). على سبيل المثال، تكون المسافة بين نقطتَي (2,2) و (5,-2) وفقًا لطريقة "متوسطات k" على النحو التالي:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • تعتمد طريقة "متوسط k" على مسافة مانهاتن من النقطة المركزية إلى مثال. وهذه المسافة هي مجموع التغيُّرات المطلقة في كل سمة. على سبيل المثال، ستكون المسافة بين (2,2) و (5,-2) باستخدام متوسّط k-متوسط هي:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

تسوية L0

#fundamentals

نوع من التسوية الذي يفرض عقوبة على إجمالي عدد المعلَمات غير الصفرية في النموذج. على سبيل المثال، سيُطبَّق نموذج يحتوي على 11 وزنًا غير صفري عقاب أكبر من نموذج مشابه يحتوي على 10 أوزان غير صفرية.

يُعرف أسلوب تسوية L0 أحيانًا باسم تسوية L0-norm.

خسارة L1

#fundamentals

دالة خسارة تعمل على احتساب القيمة المطلقة للفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، في ما يلي حسابخسارة L1 لمجموعة تتألف من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إنّ خسارة L1 أقل حساسية تجاه القيم الشاذة مقارنةً بخسارة L2.

متوسط الخطأ المطلق هو متوسط خسائر L1 لكل مثال.

تسوية L1

#fundamentals

نوع من التسوية التي تفرض عقوبة على المرجحات بما يتناسب مع مجموع القيمة المطلقة للمرجحات. يساعد نموذج L1 في ضبط أوزان السمات غير ذات الصلة أو السمات ذات الصلة بالكاد على 0 بالضبط. تتم إزالة سمة التي تبلغ قيمة وزنها 0 من النموذج.

يختلف ذلك عن التسوية 2.

خسارة L2

#fundamentals

دالة خسارة تعمل على احتساب مربع الفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، في ما يلي حساب خسارة L2 لمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربّع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

بسبب التربيع، يضخّم فقدان L2 تأثير القيم الشاذة. وهذا يعني أنّ خسارة L2 تستجيب بشكلٍ أقوى للتوقّعات السيئة مقارنةً بخسارة L1. على سبيل المثال، سيكون فقدان L1 للمجموعة السابقة هو 8 بدلاً من 16. يُرجى العلم أنّ قيمة واحدة شاذة تمثّل 9 من القيم الـ 16.

تستخدِم نماذج الانحدار عادةً خسارة L2 كدالة الخسارة.

متوسط الخطأ التربيعي هو متوسط خسائر L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة L2.

تسوية L2

#fundamentals

نوع من التسوية التي تفرض عقوبة على القيَم وفقًا لمجموع المربّعات للقيَم. يساعد التعديل L2 في تقليل أوزان القيم الشاذة (تلك التي لها قيم موجبة عالية أو قيم سالبة منخفضة) إلى ما يقرب من 0 ولكن ليس تمامًا إلى 0. تبقى السمات التي لها قيم قريبة جدًا من 0 في النموذج، ولكنّها لا تؤثّر كثيرًا في توقّعات النموذج.

تعمل إعادة التطبيع L2 دائمًا على تحسين التعميم في النماذج الخطية.

يُرجى الاطّلاع على تسوية 1.

التصنيف

#fundamentals

في تعلُّم الآلة المراقَب، هو جزء "الإجابة" أو "النتيجة" من مثال.

يتألّف كل مثال مصنّف من سمة واحدة أو أكثر وتصنيف. على سبيل المثال، في مجموعة بيانات تهدف إلى رصد المحتوى غير المرغوب فيه، من المرجّح أن يكون التصنيف إما "محتوى غير مرغوب فيه" أو "محتوى مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد يكون التصنيف هو كمية الأمطار التي سقطت خلال فترة معيّنة.

مثال مصنّف

#fundamentals

مثال يحتوي على عنصر واحد أو أكثر و تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنّفة من نموذج تقييم المنازل، يتضمّن كلّ منها ثلاث سمات وتصنيفًا واحدًا:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (تصنيف)
3 2 15 345,000 دولار أمريكي
2 1 72 179,000 دولار أمريكي
4 2 34 392,000 دولار أمريكي

في تعلُّم الآلة المُراقَب، يتم تدريب النماذج على أمثلة مصنّفة وإجراء توقّعات بشأن أمثلة غير مصنّفة.

قارِن بين المثال المصنّف والأمثلة غير المصنّفة.

تسرب التصنيف

عيوب في تصميم النموذج تجعل السمة بديلاً عن التصنيف على سبيل المثال، نأخذ نموذج تصنيف ثنائي يتنبّأ بما إذا كان عميل محتمل سيشتري منتجًا معيّنًا أم لا. لنفترض أنّ إحدى ميزات النموذج هي سمة منطقية باسم SpokeToCustomerAgent. لنفترض أيضًا أنّه لا يتم تعيين موظّف دعم للعملاء إلا بعد أن يشتري العميل المحتمل المنتج. أثناء التدريب، سيتعرّف النموذج بسرعة على الارتباط بين SpokeToCustomerAgent والتصنيف.

lambda

#fundamentals

مرادف معدل التسوية.

"لامدا" هو مصطلح يحمل أكثر من معنى. سنركّز هنا على تعريف المصطلح ضمن التسوية.

نموذج لغوي مخصَّص لتطبيقات المحادثة (LaMDA)

#language

نموذج لغوي كبير يستند إلى Transformer، تم تطويره من قِبل Google وتم تدريبه على مجموعة بيانات كبيرة من المحادثات يمكنها إنشاء ردود واقعية على المحادثات.

LaMDA: تكنولوجيا المحادثة المبتكرة تقدّم نظرة عامة.

المعالم

#image

مرادف لـ النقاط الرئيسية.

النموذج اللغوي

#language

نموذج يقدّر احتمالية ظهور رمز أو تسلسل من الرموز في تسلسل أطول من الرموز

نموذج لغوي كبير

#language

على الأقل، نموذج لغوي يتضمّن عددًا كبيرًا جدًا من المَعلمات بعبارة أخرى، أي نموذج لغوي يستند إلى Transformer، مثل Gemini أو GPT.

المساحة الكامنة

#language

مرادف لمساحة التضمين.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية في ما يلي ثلاثة أنواع شائعة من الطبقات:

على سبيل المثال، يعرض الرسم التوضيحي التالي شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة
          خرج واحدة تتألّف طبقة الإدخال من سمتَين. تتكون الطبقة العميقة
          الأولى من ثلاثة خلايا عصبية، وتتكون الطبقة العميقة
          الثانية من خليتين عصبيتين. تتكوّن طبقة الإخراج من عقدة واحدة.

في TensorFlow، الطبقات هي أيضًا دوال Python تأخذ Tensors وخيارات الضبط كمدخلات و تُنشئ عناصر Tensor أخرى كمخرجات.

واجهة برمجة التطبيقات للطبقات (tf.layers)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow لإنشاء شبكة عصبية عميقة كتركيبة من الطبقات تتيح لك واجهة برمجة التطبيقات Layers API إنشاء أنواع مختلفة من الطبقات، مثل:

تتّبع واجهة برمجة التطبيقات Layers API اصطلاحات واجهة برمجة التطبيقات لطبقات Keras. وهذا يعني أنّه باستثناء بادئة مختلفة، فإنّ جميع الدوال في واجهة برمجة التطبيقات Layers API لها الأسماء والتوقيعات نفسها مثل نظيراتها في واجهة برمجة التطبيقات Keras layers API.

ورقة نبات

#df

أي نقطة نهاية في شجرة قرارات. على عكس الشرط، لا تُجري الورقة اختبارًا. بدلاً من ذلك، تكون الورقة عبارة عن توقّع محتمل. وتكون الورقة أيضًا العقدة الطرفية لمسار الاستنتاج.

على سبيل المثال، تحتوي شجرة القرارات التالية على ثلاث أوراق:

شجرة قرارات تتضمّن شرطَين يؤديان إلى ثلاث أوراق

أداة تفسير التعلّم (LIT)

أداة مرئية وتفاعلية لفهم النماذج وتصور البيانات

يمكنك استخدام LIT المفتوح المصدر لتفسير النماذج أو لعرض النص والصورة والبيانات الجداولية.

معدّل التعلّم

#fundamentals

عدد عشري يُخبر خوارزمية التناقص التدرّجي بمدى قوة تعديل الأوزان والانحيازات في كل تكرار. على سبيل المثال، سيؤدي معدّل التعلّم الذي يبلغ ‎0.3 إلى تعديل الأوزان والانحيازات بفاعلية أكبر ثلاث مرات من معدّل التعلّم الذي يبلغ ‎0.1.

معدّل التعلّم هو مَعلمة فائقة رئيسية. إذا ضبطت معدّل التعلّم على قيمة منخفضة جدًا، سيستغرق التدريب وقتًا طويلاً جدًا. إذا ضبطت معدّل التعلّم على قيمة مرتفعة جدًا، غالبًا ما تواجه طريقة التدرّج التنازلي صعوبة في الوصول إلى التقارب.

انحدار التربيعات الأقل

نموذج الانحدار الخطي الذي تم تدريبه من خلال تقليل خسارة L2

مسافة Levenshtein

#language
#metric

مقياس مسافة التعديل الذي يحسب أقل عدد من عمليات الحذف والإدراج والاستبدال المطلوبة لتغيير كلمة إلى أخرى على سبيل المثال، تبلغ المسافة بين كلمتَي heart وdarts ثلاثة لأنّ التعديلات الثلاثة التالية هي أقل التغييرات اللازمة لتحويل الكلمة الأولى إلى الكلمة الثانية:

  1. قلب → قلب (استبدِل "h" بـ "d")
  2. deart → dart (حذف "e")
  3. سهم → سهام (أدخِل "س")

يُرجى العِلم أنّ التسلسل السابق ليس المسار الوحيد للتعديلات الثلاثة.

خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر يمكن تمثيلها فقط من خلال الإضافة والضرب.

يُمثّل الرسم البياني لعلاقة خطية خطًا.

يختلف ذلك عن المحتوى غير الخطي.

النموذج الخطي

#fundamentals

نموذج يحدّد قيمة تقديرية واحدة لكل سمة لإجراء توقّعات (تضمّن النماذج الخطية أيضًا انحيازًا). في المقابل، تكون علاقة السمات بالتنبؤات في النماذج العميقة غير خطية بشكل عام.

عادةً ما يكون من الأسهل تدريب النماذج الخطية وفهمها أكثر من النماذج العميقة. ومع ذلك، يمكن لتصاميم نماذج الذكاء الاصطناعي العميقة التعرّف على العلاقات المعقدة بين الميزات.

الانحدار الخطي و الانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطي

#fundamentals

نوع من نماذج تعلُّم الآلة التي ينطبق عليها كلا الشرطَين التاليَين:

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار بالتصنيف.

LIT

اختصار لعبارة أداة تفسير التعلّم (LIT)، التي كانت تُعرف سابقًا باسم أداة تفسير اللغة.

LLM

#language
#generativeAI

اختصار النموذج اللغوي الكبير.

تقييمات النماذج اللغوية الكبيرة (evals)

#language
#generativeAI

مجموعة من المقاييس والمقاييس المعيارية لتقييم أداء النماذج اللغوية الكبيرة بشكل عام، تؤدي تقييمات LLM إلى ما يلي:

  • مساعدة الباحثين في تحديد الجوانب التي تحتاج إلى تحسين في النماذج اللغوية الكبيرة
  • مفيدة في مقارنة نماذج اللغة الكبيرة المختلفة وتحديد أفضل نموذج لغة كبيرة مهمة معيّنة
  • المساعدة في ضمان أمان النماذج اللغوية الكبيرة وأخلاقية استخدامها

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار التي تتوقّع احتمالية. تتسم نماذج الانحدار اللوجستي بالسمات التالية:

  • التصنيف فئوي. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب احتمالات التصنيفات التي لها قيمتَان محتملتَان. هناك نوع أقل شيوعًا من الانحدار اللوجستي، وهو الانحدار اللوجستي المتعدّد الحدود، الذي يحسب احتمالات التصنيفات التي تحتوي على أكثر من قيمتَين محتملتَين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات "فقدان السجلّ" متعدّدة بشكل موازٍ للتصنيفات التي تتعلّق بأكثر من قيمتَين محتملتَين).
  • يحتوي النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق الجزء المتبقّي من هذا التعريف أيضًا على النماذج العميقة التي تتوقّع احتمالات للتصنيفات الفئوية.

على سبيل المثال، نأخذ نموذج انحدار لوجستي يحسب احتمال أن تكون الرسالة الإلكترونية التي تم إدخالها إما غير مرغوب فيها أو غير ذلك. أثناء الاستنتاج، لنفترض أنّ النموذج توقّع 0.72. وبالتالي، يقدّر ال نموذج ما يلي:

  • احتمالية بنسبة% 72 أن تكون الرسالة الإلكترونية غير مرغوب فيها
  • احتمالية بنسبة% 28 أنّ الرسالة الإلكترونية ليست غير مرغوب فيها

يستخدم نموذج الانحدار اللوجستي البنية المكونة من خطوتَين التاليتَين:

  1. يُنشئ النموذج تنبؤًا أوليًا (y') من خلال تطبيق دالة خطية على ميزات الإدخال.
  2. يستخدم النموذج هذا التوقّع الأوّلي كمدخل لمحاولة دالة سينوية، التي تحوّل التوقّع الأولي إلى قيمة بين 0 و1، باستثناء.

مثل أيّ نموذج انحدار، يتنبّأ نموذج الانحدار اللوجستي بعدد معيّن. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج تصانيف ثنائية على النحو التالي:

  • إذا كان العدد المتوقّع أكبر من حدّ التصنيف، يتوقّع نموذج التصنيف الثنائي الفئة الموجبة.
  • إذا كان العدد المتوقّع أقل من الحدّ الأدنى للتصنيف، يتوقّع نموذج التصنيف الثنائي الفئة السالبة.

لوجيت

متجه التوقّعات الأوّلية (غير المُعدَّلة) التي ينشئها نموذج التصنيف، والذي يتم عادةً تمريره بعد ذلك إلى دالة تسويّة. إذا كان النموذج يحلّ مشكلة تصنيف متعدد الفئات ، تصبح اللوغاريتمات عادةً إدخالًا لدالة softmax. بعد ذلك، تنشئ دالة softmax متجهًا من احتمالات (مُعدَّلة) بقيمة واحدة لكل فئة محتملة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدَمة في الانحدار اللوجستي ثنائي المتغير

لوغاريتم فرص الأفضلية

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الذاكرة طويلة المدى قصيرة الأجل (LSTM)

#seq

نوع من الخلايا في الشبكة العصبية المتكررة المستخدَمة لمعالجة تسلسلات البيانات في تطبيقات مثل التعرّف على الكتابة اليدوية، الترجمة الآلية وإضافة ترجمة للصور. تعالج نماذج LSTMمشكلة تلاشي التدرّج التي تحدث عند تدريب شبكات RNN بسبب تسلسلات البيانات الطويلة من خلال الاحتفاظ بالسجلّ في حالة ذاكرة داخلية استنادًا إلى الإدخال والسياق الجديدَين من الخلايا السابقة في شبكة RNN.

LoRA

#language
#generativeAI

اختصار Low-Rank Adaptability.

خسارة

#fundamentals

خلال تدريب نموذج خاضع للإشراف، يتم قياس مدى اقترارب توقّعات النموذج من تصنيفه.

تحسب دالة الخسارة الخسارة.

أداة تجميع الخسائر

نوع من خوارزميات تعلُّم الآلة التي تُحسِّن أداء نموذج من خلال دمج التوقّعات لعدة نماذج واستخدام هذه التوقّعات لتقديم توقّع واحد نتيجةً لذلك، يمكن أن يقلل مجمع الخسائر من التباين في التوقّعات ويحسن دقّتها.

منحنى الخسارة

#fundamentals

رسم بياني لـ الخسارة كدالّة على عدد دورات التدريب يعرض الرسم البياني التالي منحنى typical loss:

رسم بياني كارتيزيتي للفقد مقابل تكرارات التدريب، يعرض هبوطًا سريعًا في الفقد للتكرارات الأولية، متبوعًا بالهبوط التدريجي، ثم منحدرًا مستويًا خلال التكرارات النهائية

يمكن أن تساعدك منحنيات الخسارة في تحديد الحالات التي يكون فيها النموذج متوافقًا أو متوافقًا بشكل مفرط.

يمكن أن ترسم منحنيات الخسارة جميع أنواع الخسارة التالية:

راجِع أيضًا منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، يتم استخدام دالة mathematica لحساب الخسارة في مجموعة من الأمثلة. تُعرِض دالة الخسارة خسائر أقل للنماذج التي تُقدّم توقّعات جيدة مقارنةً بالنماذج التي تقدّم توقّعات سيئة.

عادةً ما يكون هدف التدريب هو تقليل الخسارة التي تعرِضها دالة الخسارة.

هناك العديد من الأنواع المختلفة لدوالّ الخسارة. اختَر دالة الفقد المناسبة لنوع النموذج الذي تُنشئه. على سبيل المثال:

سطح الخسارة

رسم بياني للوزن مقابل الخسارة يهدف التدرّج التنازلي إلى العثور على الأوزان التي تكون فيها مساحة الخسارة في أدنى مستوى محلي.

Low-Rank Adaptability (LoRA)

#language
#generativeAI

تقنية فعّالة من حيث المَعلمات للتحسين الدقيق التي "تجميد" مَعلمات النموذج المدربة مسبقًا (كي لا يمكن تعديلها بعد ذلك) ثم تُدخِل مجموعة صغيرة من المَعلمات القابلة للتدريب في النموذج. هذه المجموعة من الأوزان القابلة للتدريب (المعروفة أيضًا باسم "مصفوفات التعديل") أصغر بكثير من النموذج الأساسي، وبالتالي تتم عملية تدريبها بشكل أسرع بكثير.

توفّر شبكة LoRA المزايا التالية:

  • تحسين جودة توقّعات النموذج للنطاق الذي يتم فيه تطبيق التحسين الدقيق
  • تحسين الأداء بشكل أسرع من الأساليب التي تتطلّب تحسين جميع ملفّات paramter الخاصة بالنموذج
  • تقليل التكلفة الحسابية لعملية الاستنتاج من خلال تفعيل عرض نماذج متعددة ومتخصّصة بشكل متزامن تشترك في النموذج الأساسي نفسه

LSTM

#seq

اختصار الذاكرة قصيرة المدى الطويلة.

M

تعلُم الآلة

#fundamentals

برنامج أو نظام يدرِّب نموذجًا من البيانات التي يتم إدخالها يمكن للنموذج المدرَّب إجراء توقّعات مفيدة من بيانات جديدة (لم يسبق رؤيتها) يتم استخراجها من التوزيع نفسه المستخدَم لتدريب النموذج.

يشير تعلُّم الآلة أيضًا إلى مجال الدراسة المعنيّ بهذه البرامج أو الأنظمة.

الترجمة الآلية

#generativeAI

استخدام برامج (عادةً ما تكون نموذج تعلُّم آلة) لتحويل نص من لغة بشرية إلى لغة بشرية أخرى، على سبيل المثال، من الإنجليزية إلى اليابانية

فئة الأغلبية

#fundamentals

التصنيف الأكثر شيوعًا في مجموعة بيانات غير متوازنة الفئات. على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على 99% من التصنيفات السلبية و1% من التصنيفات الإيجابية، فإنّ التصنيفات السلبية هي فئة الأغلبية.

يُرجى المقارنة مع الفئة الأقلية.

عملية اتخاذ القرار وفقًا لنموذج ماركوف (MDP)

#rl

رسم بياني يمثّل نموذج اتخاذ القرار الذي يتم فيه اتخاذ القرارات (أو الإجراءات) للتنقّل في تسلسل الحالات بافتراض أنّه يتم استيفاء خاصيّة ماركوف في التعلم التعزيزي، تؤدي هذه الانتقالات بين الحالات إلى عرض مكافأة رقمية.

خاصيّة ماركوف

#rl

خاصيّة بيئات معيّنة، حيث يتم تحديد التحولات الحالات بالكامل من خلال المعلومات الضمنية في الحالة الحالية والإجراء الذي يتّخذه الوكيل.

نموذج لغوي مُموَّه

#language

نموذج لغوي يتنبّأ باحتمالية استخدام علامات مقترَحة لملء الفراغات في تسلسل معيّن. على سبيل المثال، يمكن لنموذج اللغة المقنَّعة حساب احتمالات الكلمات المرشحة لاستبدال الخطوط السفلية في الجملة التالية:

عاد ____ في القبّعة.

تستخدم المراجع عادةً السلسلة "MASK" بدلاً من العلامة السفلية. على سبيل المثال:

عادت كلمة "قناع" في القبّعة.

معظم نماذج اللغة المقنَّعة الحديثة هي ثنائية الاتجاه.

matplotlib

مكتبة مفتوحة المصدر لإنشاء الرسومات البيانية ثنائية الأبعاد بلغة بايثون. تساعدك مكتبة matplotlib في التمثيل البصري للجوانب المختلفة للتعلم الآلي.

تجزئة المصفوفة

#recsystems

في الرياضيات، آلية للعثور على المصفوفات التي يكون ناتج ضربها النقطي تقريبيًا لمصفوفة مستهدَفة.

في أنظمة الاقتراحات، تشكل مصفوفة الاستهداف غالبًا تقييمات المستخدمين لـ العناصر. على سبيل المثال، قد تبدو مصفوفة المحتوى المستهدفة لنظام اقتراحات الأفلام على النحو التالي، حيث تكون الأعداد الصحيحة الموجبة هي تقييمات المستخدمين و0 يشير إلى أنّ المستخدم لم يقدّم تقييمًا للفيلم:

  الدار البيضاء The Philadelphia Story Black Panther المرأة المعجزة Pulp Fiction
مستخدم 1 5.0 3 0.0 2.0 0.0
مستخدم 2 4.0 0.0 0.0 1 5.0
مستخدم 3 3 1 4.0 5.0 0.0

يهدف نظام اقتراحات الأفلام إلى توقّع تقييمات المستخدمين للأفلام التي لم يتم تقييمها. على سبيل المثال، هل سيعجب المستخدم "أ" بفيلم Black Panther؟

من بين الأساليب التي تستخدمها أنظمة التوصية هي استخدام تحليل محتوى الجدول لإنشاء الجدولَين التاليَين:

على سبيل المثال، يمكن أن يؤدي استخدام تحليل المصفّفات على المستخدِمين الثلاثة والعناصر الخمسة إلى الحصول على مصفوفة المستخدِمين ومصفّفة السلع التالية:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

ينتج عن حاصل ضرب مصفوفة المستخدمين في مصفوفة العناصر ملف ترشيح لا يحتوي فقط على تقييمات المستخدمين الأصلية، بل يتضمّن أيضًا توقّعات للأفلام التي لم يشاهدها كل مستخدم. على سبيل المثال، لنفترض أنّ تقييم المستخدم "أ" لفندق Casablanca هو 5.0. من المفترض أن يكون ناتج ضرب النقاط المرتبط بهذه الخلية في مصفوفة الاقتراحات حوالي 5.0، وهو:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

الأهم من ذلك، هل سيعجب "المستخدم 1" فيلم Black Panther؟ يؤدي الضرب النقطي المرتبط بالصف الأول والعمود الثالث إلى الحصول على تقييم متوقّع يبلغ 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

تؤدي عملية تحليل المصفوفات عادةً إلى إنشاء مصفوفة مستخدمين ومصفوفة سلع، وهما مصفوتان أكثر كثافة بكثير من المصفوفة المستهدَفة.

متوسّط الخطأ المطلق (MAE)

متوسط الخسارة لكل نموذج عند استخدام فقدان1 يمكنك احتساب متوسّط الخطأ المطلق على النحو التالي:

  1. احتساب خسارة L1 لمجموعة.
  2. قسِّم خسارة L1 على عدد النماذج في المجموعة.

على سبيل المثال، لنفترض أنّنا نحسب خسارة L1 في الحزمة التالية من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج الخسارة (الفرق بين القيم الفعلية والقيم المتوقّعة)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

وبالتالي، تكون خسارة L1 هي 8 وعدد الأمثلة هو 5. وبالتالي، فإنّ متوسّط الخطأ المطلق هو:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

قارِن بين متوسّط الخطأ المطلق ومتوسط الخطأ التربيعي و جذر متوسّط الخطأ التربيعي.

متوسّط متوسط الدقّة عند k (mAP@k)

#language
#generativeAI

المتوسط الإحصائي لجميع نتائج متوسّط الدقة عند k على مستوى مجموعة بيانات التحقّق. من بين استخدامات متوسّط متوسط الدقة عند k هو تقييم جودة الاقتراحات التي ينشئها نظام التوصية.

على الرغم من أنّ عبارة "متوسط المتوسط" تبدو زائدة، إلا أنّ اسم المقياس مناسب. بعد كل شيء، يجد هذا المقياس متوسّط قيم متوسط الدقة عند k المتعددة.

الخطأ التربيعي المتوسط (MSE)

متوسط الخسارة لكل نموذج عند استخدام فقدان2 يمكنك احتساب الخطأ التربيعي المتوسط على النحو التالي:

  1. احتساب خسارة L2 لمجموعة.
  2. قسِّم خسارة L2 على عدد النماذج في الحزمة.

على سبيل المثال، فكِّر في الخسارة في المجموعة التالية من خمسة أمثلة:

القيمة الفعلية توقّعات النموذج الخسارة الخسارة التربيعية
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = خسارة L2

وبالتالي، يكون الخطأ التربيعي المتوسط على النحو التالي:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

"متوسط الخطأ التربيعي" هو أداة تحسين شائعة للتدريب، ويُستخدم بشكل خاص في الانحدار الخطي.

قارِن بين الخطأ التربيعي المتوسّط ومتوسط الخطأ المطلق وجذر الخطأ التربيعي المتوسّط.

يستخدم TensorFlow Playground متوسّط الخطأ المربّع لاحتساب قيم الخسارة.

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة المتزامنة لتعلُّم الآلة، مصطلح مرتبط بتخصيص البيانات وال النموذج إلى شرائح TPU، وتحديد كيفية تقسيم هذه القيم أو تكرارها.

شبكة هي عبارة مُحمّلة بشكل زائد يمكن أن تعني أيًا مما يلي:

  • تخطيط مادي لرقائق TPU
  • بنية منطقية مجردة لربط البيانات والنموذج بشرائح TPU

في كلتا الحالتَين، يتم تحديد شبكة على أنّها شكل.

التعلّم الوصفي

#language

مجموعة فرعية من تعلُّم الآلة ترصد خوارزمية تعلُّم أو تحسّنها. يمكن أن يهدف نظام التعلّم الفائق أيضًا إلى تدريب نموذج لتعلّم مهمة جديدة بسرعة من خلال كمية صغيرة من البيانات أو من خلال الخبرة المكتسَبة في المهام السابقة. تحاول خوارزميات التعلم الفائق بشكل عام تحقيق ما يلي:

  • تحسين الميزات المصمّمة يدويًا أو التعرّف عليها (مثل أداة الإعداد أو أداة التحسين)
  • تحسين كفاءة استخدام البيانات والمعالجة
  • تحسين التعميم

يرتبط التعلّم الوصفي بالتعلّم ببضع فُرَص.

المقياس

#TensorFlow

إحصاءات تهمّك

الهدف هو مقياس يحاول نظام تعلُّم الآلة تحسينه.

Metrics API (tf.metrics)

واجهة برمجة تطبيقات TensorFlow لتقييم النماذج على سبيل المثال، tf.metrics.accuracy تُحدِّد عدد المرات التي تتطابق فيها توقّعات النموذج مع التصنيفات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في إحدى المرات. عادةً ما يتراوح حجم الحزمة للحزمة الصغيرة بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أنّ مجموعة التدريب بالكامل (الحزمة الكاملة) تتألف من 1,000 مثال. لنفترض أيضًا أنّك ضبطت حجم الحزمة لكل حزمة صغيرة على 20. لذلك، تحدِّد كل خطوة من الخطوات فقدانًا في 20 مثالًا عشوائيًا من 1,000 مثال، ثم تعدِّل الأوزان والانحيازات وفقًا لذلك.

من الأفضل بكثير احتساب الخسارة في مجموعة صغيرة بدلاً من الخسارة في جميع الأمثلة في المجموعة الكاملة.

النزول المتدرّج العشوائي ضمن دفعة صغيرة

خوارزمية التنزيل التدرّجي التي تستخدِم الدفعات الصغيرة بعبارة أخرى، يقدّر "النزول المتدرّج العشوائي ضمن دفعة صغيرة" الانحدار استنادًا إلى مجموعة فرعية صغيرة من بيانات التدريب. تستخدِم الخوارزمية العادية للنزول المتدرّج العشوائي دفعة صغيرة بحجم 1.

خسارة الحد الأدنى والأقصى

دالة خسارة ل الشبكات التوليدية التنافسية، استنادًا إلى التشتت بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية

يتم استخدام خسارة Minimax في الورقة الأولى لوصف الشبكات التوليدية التنافسية.

فئة الأقليات

#fundamentals

التصنيف الأقل شيوعًا في مجموعة بيانات غير متوازنة من حيث الفئات. على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على ‎99% من التصنيفات السلبية و‎1% من التصنيفات الموجبة، فإنّ التصنيفات الموجبة هي فئة الأقلية.

المقارنة مع الفئة الأكثر عددًا

مزيج من الخبراء

#language
#generativeAI

مخطّط لزيادة كفاءة الشبكة العصبية من خلال استخدام مجموعة فرعية فقط من مَعلماتها (المعروفة باسم الخبير) لمعالجة رمز إدخال معيّن أو مثال تُوجّه شبكة التوجيه كل رمز مميّز أو مثال إدخال إلى الخبراء المناسبين.

لمعرفة التفاصيل، يُرجى الاطّلاع على أيّ من المقالتَين التاليتَين:

مالي

اختصار تعلُّم الآلة.

MMIT

#language
#image
#generativeAI

اختصار لعبارة مُعدّة للتعليمات المتعدّدة الوسائط.

MNIST

#image

مجموعة بيانات تابعة للملك العام جمعها كلّ من LeCun وCortes وBurges وتتضمّن 60,000 صورة، تعرض كلّ صورة كيف كتب شخص ما رقمًا معيّنًا من 0 إلى 9 يدويًا. يتم تخزين كل صورة كصفيف من الأعداد الصحيحة بحجم 28×28، حيث يكون كل عدد صحيح قيمة للون الرمادي تتراوح بين 0 و255، بما في ذلك هذين الرقمَين.

MNIST هي مجموعة بيانات أساسية لتعلُّم الآلة، وغالبًا ما تُستخدَم لاختبار أساليب جديدة تتعلّق بالتعلم الآلي. لمعرفة التفاصيل، يُرجى الاطّلاع على قاعدة بيانات MNIST للأرقام المكتوبة بخط اليد.

الوسيط

#language

فئة بيانات عالية المستوى. على سبيل المثال، الأرقام والنصوص والصور والفيديوهات والمواد المسموعة هي خمسة أنماط مختلفة.

نموذج

#fundamentals

بشكل عام، أيّ بنية رياضية تعالج بيانات الإدخال وتُعرِض النتيجة. بعبارة أخرى، النموذج هو مجموعة المَعلمات والبنية التي يحتاجها النظام لوضع التوقّعات. في تعلُّم الآلة المراقَب، يأخذ النموذج مثالاً كمدخل ويستنتج توقّعًا كمنتج. ضمن تعلُّم الآلة المراقَب، تختلف النماذج إلى حدّ ما. على سبيل المثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

يُنشئ التعلُّم الآلي غير المُوجّه أيضًا نماذج، وهي عادةً دالة يمكنها ربط مثال إدخال بأحد المجموعات الأكثر ملاءمةً.

سعة النموذج

تعقيد المشاكل التي يمكن للنموذج تعلُّمها وكلما زادت تعقيدًا المشاكل التي يمكن للنموذج تعلُّمها، زادت قدرة النموذج. وعادةً ما تزداد قدرة النموذج مع زيادة عدد مَعلمات النموذج. للحصول على تعريف رسمي لسعة المصنِّف، يُرجى الاطّلاع على سمة VC.

تسلسل النماذج

#generativeAI

نظام يختار النموذج المثالي لطلب اتّباع استنتاج معيّن

تخيل مجموعة من النماذج، تتراوح بين النماذج الكبيرة جدًا (التي تتضمّن الكثير من المَعلمات) والنماذج الأصغر حجمًا (التي تتضمّن عددًا أقل بكثير من المَعلمات). تستهلك النماذج الكبيرة جدًا موارد حسابية أكثر في وقت النمذجة مقارنةً بالنماذج الأصغر حجمًا. ومع ذلك، يمكن أن تستنتج نماذج الكبيرة جدًا عادةً طلبات أكثر تعقيدًا من النماذج الأصغر حجمًا. يحدِّد التسلسل الهرمي للنماذج تعقيد طلب الاستنتاج، ثم يختار النموذج المناسب لإجراء الاستنتاج. إنّ الدافع الرئيسي لاستخدام نموذج التسلسل هو تقليل تكاليف الاستنتاج من خلال اختيار نماذج أصغر بشكل عام، واختيار نموذج أكبر فقط للاستعلامات الأكثر تعقيدًا.

لنفترض أنّ نموذجًا صغيرًا يعمل على هاتف ويعمل إصدار أكبر من ذلك النموذج على خادم بعيد. إنّ التسلسل الجيد للنموذج يقلل من التكلفة ووقت الاستجابة من خلال السماح للنموذج الأصغر حجمًا بمعالجة الطلبات البسيطة وعدم استدعاء سوى النموذج البعيد لمعالجة الطلبات المعقدة.

يمكنك أيضًا الاطّلاع على جهاز توجيه النماذج.

المعالجة الموازِية للنماذج

#language

طريقة لتوسيع نطاق التدريب أو الاستنتاج من خلال وضع أجزاء مختلفة من أحد النماذج على أجهزة مختلفة يتيح نموذج "المعالجة المتعددة للمهام" استخدام النماذج الكبيرة جدًا التي لا يمكن وضعها على جهاز واحد.

لتنفيذ التوازي في النماذج، ينفّذ النظام عادةً ما يلي:

  1. تجزئة (تقسيم) النموذج إلى أجزاء أصغر
  2. توزيع عملية تدريب هذه الأجزاء الأصغر على معالجات متعددة يُدرِّب كل معالج جزءًا من النموذج.
  3. دمج النتائج لإنشاء نموذج واحد

يؤدي توازُن النموذج إلى إبطاء عملية التدريب.

اطّلِع أيضًا على المعالجة المتوزية للبيانات.

جهاز توجيه نموذجي

#generativeAI

الخوارزمية التي تحدّد النموذج المثالي للقيام بعملية الاستنتاج في التسلسل الهرمي للنموذج يكون جهاز التوجيه النموذجي عادةً نموذج تعلُّم آلة يتعرّف تدريجيًا على كيفية اختيار أفضل نموذج لمدخل معيّن. ومع ذلك، يمكن أن يكون جهاز التوجيه النموذجي أحيانًا خوارزمية أبسط غير مستندة إلى التعلم الآلي.

تدريب النموذج

عملية تحديد أفضل نموذج

MOE

#language
#image
#generativeAI

اختصار مجموعة من الخبراء.

الزخم

خوارزمية متقدّمة لانحدار التدرج تعتمد فيها خطوة التعلّم ليس فقط على المشتقّ في الخطوة الحالية، ولكن أيضًا على المشتقّين للخطوات التي سبقتها مباشرةً. تتضمن كمية الحركة احتساب متوسط متحرك مُقدَّر بشكلٍ أسي للتدرّجات بمرور الوقت، وهو ما يشبه كمية الحركة في الفيزياء. يمنع الزخم أحيانًا عملية التعلّم من التوقف عند أدنى قيمة محلية.

MT

#generativeAI

اختصار الترجمة الآلية.

التصنيف المتعدّد الفئات

#fundamentals

في التعلّم المُوجّه، مشكلة تصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتَين من التصنيفات على سبيل المثال، يجب أن تكون التصنيفات في مجموعة بيانات Iris واحدة من الأنواع التالية الثلاثة:

  • Iris setosa
  • Iris virginica
  • Iris versicolor

إنّ النموذج الذي تم تدريبه على مجموعة بيانات Iris والذي يتوقّع نوع Iris استنادًا إلى أمثلة جديدة يُجري تصنيفًا متعدد الفئات.

في المقابل، مشكلات التصنيف التي تفرّق بين فئتَين بالضبط هي نماذج التصنيف الثنائي. على سبيل المثال، نموذج الرسائل الإلكترونية الذي يتنبّأ بأنّ الرسالة غير مرغوب فيها أو مرغوب فيها هو نموذج تصنيف ثنائي.

في مشاكل التجميع، يشير التصنيف المتعدّد الفئات إلى أكثر من جماعتَين.

الانحدار اللوجستي المتعدّد الفئات

استخدام الانحدار اللوجستي في معالجة مشاكل التصنيف المتعدّد الفئات

الانتباه الذاتي المتعدّد الرؤوس

#language

إضافة إلى الانتباه الذاتي التي تطبّق آلية الانتباه الذاتي عدّة مرات لكل موضع في تسلسل الإدخال

أدخلت أدوات التحويل ميزة "الانتباه الذاتي المتعدّد الرؤوس".

مُعدّة للتعليمات المتعدّدة الوسائط

#language

نموذج مُعدّ للتعليمات يمكنه معالجة الإدخال بخلاف النصوص، مثل الصور والفيديوهات والصوت

نموذج متعدد الوسائط

#language

نموذج تتضمّن مدخلاته و/أو مخرجاته أكثر من نوع واحد من الوسائط على سبيل المثال، لنفترض أنّ هناك نموذجًا يستخدِم كلاً من الصورة والترجمة النصية (طريقتَان) كسمات، ويصنِّف النتيجة على أنّها تشير إلى مدى ملاءمة الترجمة النصية للصورة. وبالتالي، تكون مدخلات هذا النموذج متعددة الوسائط والمخرجات أحادية الوسائط.

التصنيف المتعدّد الفئات

مرادف للتصنيف المتعدّد الفئات.

الانحدار المتعدّد الفئات

مرادف لمصطلح الانحدار اللوجستي المتعدّد الفئات.

تنفيذ مهام متعددة

أسلوب تعلُّم آلة يتم فيه تدريب نموذج واحد لتنفيذ مهام متعددة.

يتم إنشاء النماذج المتعدّدة المهام من خلال التدريب على بيانات مناسبة لكلّ مهمة من المهام المختلفة. يتيح ذلك للنموذج تعلُّم مشاركة المعلومات في جميع المهام، ما يساعد النموذج على التعلّم بفعالية أكبر.

غالبًا ما يكون للنموذج الذي تم تدريبه على مهام متعددة قدرات تحسين عامة محسّنة، ويمكن أن يكون أكثر فعالية في التعامل مع أنواع مختلفة من البيانات.

لا

فخ القيم غير المعرفة كأرقام

عندما يصبح رقم واحد في النموذج NaN أثناء التدريب، ما يؤدي إلى أن يصبح العديد من الأرقام الأخرى في النموذج أو جميعها في نهاية المطاف NaN

NaN هو اختصار لقيمة غير رقمية.

معالجة اللغات الطبيعية

#language
مجال تعليم أجهزة الكمبيوتر معالجة ما قاله المستخدم أو كتبه باستخدام القواعد اللغوية. تعتمد جميع تقنيات معالجة اللغات الطبيعية الحديثة تقريبًا على التعلم الآلي.

فهم اللغات الطبيعية

#language

مجموعة فرعية من معالجة اللغات الطبيعية تحدّد النوايا المتعلّقة بعبارة يتم قولها أو كتابتها يمكن أن تتجاوز ميزة فهم اللغة معالجة اللغات الطبيعية لتشمل جوانب language معقدة، مثل السياق والسخرية والمشاعر.

فئة سلبية

#fundamentals

في التصنيف الثنائي، يُطلق على أحد التصنيفَين اسم موجب والآخر اسم سالب. الفئة الإيجابية هي الشيء أو الحدث الذي يختبره النموذج، والفئة السلبية هي الاحتمالية الأخرى. على سبيل المثال:

  • قد تكون الفئة السلبية في اختبار طبي هي "ليس ورمًا".
  • قد تكون الفئة السلبية في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير رسالة غير مرغوب فيها".

يختلف عن الفئة الموجبة.

أخذ عيّنات سلبية

مرادف تحليل العينات المحتمَلة.

البحث عن البنية العصبية (NAS)

تقنية لتصميم بنية الشبكة العصبية تلقائيًا يمكن أن تقلّل خوارزميات NAS من مقدار الوقت والموارد المطلوبة لتدريب شبكة عصبية.

يستخدم نظام التخزين في الشبكة عادةً ما يلي:

  • مساحة بحث، وهي مجموعة من التصاميم الممكنة
  • دالة الكفاءة، وهي مقياس لأداء بنية معيّنة في مهمة معيّنة

تبدأ خوارزميات البحث التلقائي للشبكات (NAS) غالبًا بمجموعة صغيرة من التصاميم الممكنة، ثم توسع بشكل تدريجي مساحة البحث عندما تتعرّف الخوارزمية على المزيد من التصاميم الفعّالة. تستند وظيفة اللياقة عادةً إلى أداء البنية على مجموعة تدريب، ويتم عادةً تدريب الخوارزمية باستخدام أسلوب التعزيز.

أثبتت خوارزميات البحث التلقائي عن الشبكة فعاليتها في العثور على تصاميم عميقة عالية الأداء لمجموعة متنوعة من المهام، بما في ذلك تصنيف الصور والنصوص، والترجمة الآلية.

شبكة عصبية

#fundamentals

نموذج يحتوي على طبقة مخفية واحدة على الأقل الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية واحدة. على سبيل المثال، يوضّح المخطّط البياني التالي شبكة عصبية عميقة تحتوي على طبقتَين مخفيتَين.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج

يتصل كل عصبون في الشبكة العصبية بجميع العقد في الطبقة التالية. على سبيل المثال، في المخطّط البياني السابق، لاحظ أنّ كل خلية عصبية من الخلايا العصبية الثلاث في الطبقة المخفية الأولى تتصل بشكل منفصل بكلا الخليتين العصبيتين في الطبقة المخفية الثانية.

تُعرف الشبكات العصبية التي يتم تنفيذها على أجهزة الكمبيوتر أحيانًا باسم الشبكات العصبية الاصطناعية لتمييزها عن الشبكات العصبية المتوفّرة في الأدمغة والأنظمة العصبية الأخرى.

يمكن لبعض الشبكات العصبية تقليد العلاقات غير الخطية المعقدة للغاية بين الميزات المختلفة والعلامة.

راجِع أيضًا الشبكة العصبية التفافّية و الشبكة العصبية المتكرّرة.

عصبون

#fundamentals

في تعلُّم الآلة، هي وحدة متميزة ضمن الطبقة المخفية الشبكة العصبية. ينفِّذ كل عصبون الإجراء التالي المكوّن من مرحلتين:

  1. لحساب المجموع المرجح لقيم الإدخال مضروبًا بأوزانها المقابلة.
  2. تمرير المجموع المرجح كمدخل إلى دالة التفعيل

يقبل العصبون في الطبقة المخفية الأولى مدخلات من قيم السمات في الطبقة المُدخلة. يقبل الخلية العصبية في أي طبقة مخفية بعد الأولى مدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، يقبل خلية عصبية في الطبقة المخفية الثانية مدخلات من الخلايا العصبية في الطبقة المخفية الأولى.

تُبرز الصورة التوضيحية التالية خليتَين عصبيتَين ومقدّماتَيهما.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج تم تمييز خليتَين عصبيتَين: إحداهما في
          الطبقة المخفية الأولى والأخرى في الطبقة المخفية الثانية. يتلقّى العصبون المميّز
          في الطبقة المخفية الأولى مدخلات من كلتا السمتَين
          في طبقة الإدخال. يتلقّى الخلية العصبية المميّزة في الطبقة المخفية الثانية
          مدخلات من كل خلية عصبية من الخلايا العصبية الثلاث في
          الطبقة المخفية الأولى.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وغيرها من أجزاء الأنظمة العصبية.

السلسلة المكوّنة من n عنصر

#seq
#language

تسلسل مرتب من N كلمة على سبيل المثال، truly madly عبارة عن 2 غرام. ولأنّ الترتيب مهم، فإنّ madly truly يختلف عن truly madly.

لا أسماء هذا النوع من النصوص القصيرة أمثلة
2 الثنائيات to go, go to, eat lunch, eat dinner
3 ثلاثي الوحدات أو ثلاثي المقاطع أكل الكثير، ثلاث فئران عمياء، دقّات الجرس
4 4 غرام walk in the park, dust in the wind, the boy ate lentils

تعتمد العديد من نماذج فهم اللغة الطبيعية على مجموعات الكلمات لتوقع الكلمة التالية التي سيكتبها أو ينطقها المستخدم. على سبيل المثال، لنفترض أنّ أحد المستخدمين كتب ثلاثة عميان. من المرجّح أن يتوقّع نموذج الذكاء الاصطناعي للغة (NLU) المستنِد إلى المجموعات الثلاثية من الكلمات أن يكتب المستخدِم mice بعد ذلك.

قارِن بين النصوص القصيرة ذات الوحدات المتعددة ومجموعة الكلمات، وهي مجموعات غير مرتبة من الكلمات.

معالجة اللغات الطبيعية

#language

اختصار لعبارة معالجة اللغات الطبيعية.

فهم اللغات الطبيعية

#language

اختصار لعبارة فهم اللغة الطبيعية.

العقدة (شجرة القرار)

#df

في شجرة القرار، أي شرط أو ورقة

شجرة قرارات تتضمّن شرطَين وثلاث أوراق

العقدة (الشبكة العصبية)

#fundamentals

خلية عصبية في طبقة مخفية

عقدة (رسم بياني TensorFlow)

#TensorFlow

عملية في رسم بياني TensorFlow

الضجيج

بشكل عام، أيّ شيء يحجب الإشارة في مجموعة بيانات. يمكن إدخال الضوضاء في البيانات بطرق متنوعة. على سبيل المثال:

  • يرتكِب المقيّمون البشريون أخطاء في التصنيف.
  • يسجّل الأشخاص والأدوات قيم السمات بشكل خاطئ أو يحذفونها.

حالة غير ثنائية

#df

شرط يحتوي على أكثر من نتيجتين محتملتَين على سبيل المثال، يحتوي الشرط غير الثنائي التالي على ثلاثة نتائج محتملة:

شرط (عدد_المراحل = ?) يؤدي إلى ثلاث نتائج
          محتملة تؤدي إحدى النتائج (عدد_الأرجل = 8) إلى ورقة
          تُسمى عنكبوت. تؤدي النتيجة الثانية (عدد_الأرجل = 4) إلى
          ورقة باسم كلب. تؤدي النتيجة الثالثة (عدد_الأرجل = 2) إلى
          ورقة سميت بـ penguin.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولكن لا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، نأخذ نموذجَين يرتبط كل منهما بميزة واحدة بعلامة واحدة. النموذج على اليسار خطي والنموذج على اليمين غير خطي:

رسمان بيانيان المخطّط البياني هو خط، لذا هذه علاقة خطية.
          الرسم البياني الآخر هو منحنى، لذا هذه علاقة غير خطية.

انحياز عدم الاستجابة

#fairness

اطّلِع على الانحياز في الاختيار.

عدم الثبات

#fundamentals

سمة تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، راجِع الأمثلة التالية على عدم الاستقرار:

  • يختلف عدد المايوهات المُباعة في متجر معيّن حسب الموسم.
  • تكون كمية فاكهة معيّنة يتم حصادها في منطقة معيّنة صفرًا لمعظم أيام السنة، ولكن تكون كبيرة لفترة قصيرة.
  • بسبب تغيُّر المناخ، تتغيّر درجات الحرارة السنوية المتوسطة.

يُرجى الاطّلاع على الثبات.

لا إجابة صحيحة واحدة (NORA)

#language
#generativeAI

طلب يتضمّن عدة ردود مناسبة على سبيل المثال، لا تتضمّن الرسالة التالية إجابة صحيحة واحدة:

أريد سماع نكتة عن الفيلة.

قد يكون من الصعب تقييم طلبات لا تتضمّن إجابة صحيحة واحدة.

NORA

#language
#generativeAI

اختصار لا توجد إجابة صحيحة واحدة.

تسوية

#fundamentals

بشكل عام، هي عملية تحويل النطاق الفعلي للمتغيّر من القيم إلى نطاق عادي من القيم، مثل:

  • من -1 إلى +1
  • من 0 إلى 1
  • الدرجات المعيارية (تتراوح تقريبًا بين -3 و+3)

على سبيل المثال، لنفترض أنّ النطاق الفعلي لقيم سمة معيّنة هو 800 إلى 2,400. كجزء من هندسة الميزات، يمكنك تسويت القيم الفعلية إلى نطاق عادي، مثل -1 إلى +1.

إنّ التسويف هو مهمة شائعة في هندسة الميزات. يتم عادةً تدريب النماذج بشكل أسرع (وتقديم توقعات أفضل) عندما يكون لكل سمة رقمية في متجه السمات النطاق نفسه تقريبًا.

اطّلِع على وحدة العمل مع البيانات الرقمية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من التفاصيل. راجِع أيضًا مقالة تسويف درجة "ي" المعيارية.

رصد المحتوى الجديد

عملية تحديد ما إذا كان مثال جديد (جديد) ينتمي إلى التوزيع نفسه الذي تنتمي إليه مجموعة التدريب بعبارة أخرى، بعد التدريب على مجموعة التدريب، يحدِّد رصد الحداثة ما إذا كان مثال (أثناء الاستنتاج أو أثناء التدريب الإضافي) هو مثال شاذ.

يختلف ذلك عن اكتشاف القيم الشاذة.

البيانات الرقمية

#fundamentals

السمات التي يتم تمثيلها كأرقام صحيحة أو أرقام ذات قيمة حقيقية على سبيل المثال، من المرجّح أن يمثّل نموذج تقييم المنزل حجمه (بالقدم المربّع أو متر مربّع) كبيانات رقمية. يشير تمثيل العنصر كبيانات رقمية إلى أنّ قيم العنصر لها علاقة رياضية بالعلامة. وهذا يعني أنّ عدد الأمتار المربعة في المنزل يرتبط على الأرجح بعلاقة رياضية مع قيمة المنزل.

لا يجب تمثيل كل البيانات الصحيحة كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة، ولكن يجب عدم تمثيل الرموز البريدية الصحيحة كبيانات رقمية في النماذج. ويعود السبب في ذلك إلى أنّ الرمز البريدي 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. بالإضافة إلى ذلك، على الرغم من أنّ الرموز البريدية المختلفة ترتبط بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20000 تساوي ضعف قيم العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات تصنيفية بدلاً من ذلك.

تُعرف السمات الرقمية أحيانًا باسم السمات المستمرة.

NumPy

مكتبة رياضية مفتوحة المصدر توفّر عمليات صفائف فعّالة في لغة Python. pandas مبنية على مكتبة NumPy.

O

هدف

مقياس تحاول الخوارزمية تحسينه.

دالة الهدف

الصيغة الرياضية أو المقياس الذي يهدف النموذج إلى تحسينه. على سبيل المثال، تكون الدالة الهدف لتحليل الانحدار الخطي عادةً متوسط الخسارة المربّعة. لذلك، عند تدريب نموذج الانحدار الخطي، يهدف التدريب إلى تقليل متوسط الخسارة المربّعة.

في بعض الحالات، يكون الهدف هو زيادة الدالة الهدف إلى أقصى حد. على سبيل المثال، إذا كانت الدالة الموضوعية هي الدقة، يكون الهدف هو زيادة الدقة إلى أقصى حدّ.

اطّلِع أيضًا على الخسارة.

حالة مائلة

#df

في شجرة القرار، هو شرط يتضمّن أكثر من سمة واحدة. على سبيل المثال، إذا كان الارتفاع والعرض سمتَين، يكون الشرط التالي شرطًا غير مباشر:

  height > width

يختلف هذا الشرط عن الشرط المتوافق مع المحور.

بلا إنترنت

#fundamentals

مرادف لـ ثابت.

الاستنتاج بلا إنترنت

#fundamentals

عملية إنشاء النموذج لمجموعة من التوقّعات ثم تخزين (حفظ) هذه التوقّعات ويمكن للتطبيقات بعد ذلك الوصول إلى التوقّعات المستنتَجة من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، نأخذ نموذجًا يُنشئ توقّعات الطقس المحلية (التوقّعات) مرة كل أربع ساعات. بعد تنفيذ كل نموذج، يُخزِّن النظام جميع توقّعات الطقس المحلية في ذاكرة التخزين المؤقت. تسترجع تطبيقات الطقس التوقّعات من ذاكرة التخزين المؤقت.

يُعرف الاستنتاج بلا إنترنت أيضًا باسم الاستنتاج الثابت.

يختلف ذلك عن الاستنتاج على الإنترنت.

ترميز أحادي

#fundamentals

تمثيل البيانات الفئوية كخطّ متّجه فيه:

  • يتم ضبط عنصر واحد على 1.
  • يتم ضبط جميع العناصر الأخرى على 0.

يُستخدَم ترميز One-hot بشكل شائع لتمثيل السلاسل أو المعرّفات التي تتضمّن مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أنّ ميزة فئوية معيّنة باسم Scandinavia لها خمس قيم محتملة:

  • "الدنمارك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثّل الترميز الأحادي كل قيمة من القيم الخمس على النحو التالي:

بلد المتّجه
"الدنمارك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل ترميز One-hot، يمكن للنموذج تعلُّم عمليات الربط المختلفة استنادًا إلى كل بلد من البلدان الخمسة.

يُعدّ تمثيل سمة على أنّها بيانات رقمية بديلاً للترميز الواحد الفاعل. لا يُعدّ تمثيل البلدان Scandanavian رقميًا خيارًا جيدًا. على سبيل المثال، نأخذ التمثيل الرقمي التالي:

  • "الدنمارك" هي 0
  • "السويد" هي 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • "آيسلندا" هي 4

باستخدام الترميز الرقمي، سيفسر النموذج الأرقام الأولية رياضيًا وسيحاول التدريب على هذه الأرقام. ومع ذلك، فإنّ آيسلندا ليست في الواقع ضعف (أو نصف) شيء مثل النرويج، لذا سيتوصّل النموذج إلى بعض الاستنتاجات الغريبة.

التعلُّم بفرصة واحدة

منهج تعلُّم آلي يُستخدَم غالبًا لتصنيف الأجسام، ويهدف إلى تعلُّم المصنّفات الفعّالة من مثال تدريبي واحد.

اطّلِع أيضًا على التعلّم ببضع فُرَص و التعلّم بدون أيّ بيانات سابقة.

الطلب بمثال واحد

#language
#generativeAI

طلب يتضمّن مثالاً واحدًا يوضّح كيفية ردّ النموذج اللغوي الكبير على سبيل المثال، يحتوي الطلب التالي على مثال واحد يوضّح للنموذج اللغوي الكبير كيفية الردّ على طلب بحث.

أجزاء طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "مساعد الخبراء القانونيين"
فرنسا: يورو مثال واحد
الهند: طلب البحث الفعلي

قارِن بين طلبات الإجراء الواحد والمصطلحات التالية:

واحد مقابل الكل

#fundamentals

في حال توفّر مشكلة تصنيف تتضمّن N فئة، يتمثل ال الحلّ في N مصنّف ثنائي منفصل، أي مصنّف ثنائي لكل نتيجة محتملة. على سبيل المثال، في حال توفّر نموذج يصنف الأمثلة كحيوان أو نبات أو معدن، سيقدّم حلّ "واحد مقابل الكل" الثلاثة المصنّفات الثنائية المنفصلة التالية:

  • حيوان مقابل غير حيوان
  • الخضار مقابل غير الخضار
  • معدن مقابل غير معدن

على الإنترنت

#fundamentals

مرادف لـ ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، لنفترض أنّ تطبيقًا يُرسل إدخالًا إلى نموذج ويُصدر طلبًا للحصول على توقّع. يستجيب النظام الذي يستخدم الاستنتاج على الإنترنت للطلب من خلال تشغيل النموذج (وإرجاع التوقّع إلى التطبيق).

يختلف ذلك عن الاستنتاج بلا إنترنت.

العملية (op)

#TensorFlow

في TensorFlow، أي إجراء ينشئ Tensor أو يغيّره أو يدمّره على سبيل المثال، ضرب المصفوفات هو عملية تأخذ مصفوفتَين كمدخل وتُنشئ مصفوفة واحدة كمُخرج.

Optax

مكتبة لمعالجة التدرّج وتحسينه في JAX تسهّل Optax البحث من خلال توفير وحدات أساسية يمكن إعادة دمجها بطرق مخصّصة لتحسين النماذج المَعلمية، مثل الشبكات العصبية العميقة. تشمل الأهداف الأخرى ما يلي:

  • توفير عمليات تنفيذ فعّالة وسهلة القراءة واختبارها جيدًا ل المكوّنات الأساسية
  • تحسين الإنتاجية من خلال إتاحة دمج المكوّنات من المستوى المنخفض في أدوات تحسين مخصّصة (أو مكوّنات أخرى لمعالجة التدرّج)
  • تسريع اعتماد الأفكار الجديدة من خلال تسهيل المساهمة فيها

مُحسِّن

تطبيق محدّد لخوارزمية التناقص التدرّجي تشمل أدوات التحسين الشائعة ما يلي:

  • AdaGrad، وهي اختصار لـ ADAptive GRADient descent (الانحدار التدرّجي التكيّفي).
  • آدم، ويعني ADAptive with Momentum.

الانحياز للتشابه خارج المجموعة

#fairness

الميل إلى اعتبار أعضاء المجموعة الخارجية أكثر تشابهًا من أعضاء المجموعة الداخلية عند مقارنة المواقف والقيم وسمات الشخصية وغيرها من السمات يشير مصطلح المجموعة الداخلية إلى الأشخاص الذين تتفاعل معهم بانتظام، ويشير مصطلح المجموعة الخارجية إلى الأشخاص الذين لا تتفاعل معهم بانتظام. إذا أنشأت مجموعة بيانات من خلال مطالبة المشاركين بتقديم سمات عن المجموعات الخارجية، قد تكون هذه السمات أقل دقة وأكثر نمطية مقارنةً بالصفات التي يسردها المشاركون للأشخاص في مجموعتهم.

على سبيل المثال، قد يصف سكان جزيرة Lilliput منازل سكان جزيرة Lilliput الآخرين بتفاصيل كبيرة، مع الإشارة إلى الاختلافات الصغيرة في الأنماط المعمارية والنوافذ والأبواب والأحجام. ومع ذلك، قد يعلن سكان جزيرة ليليبوت نفسها ببساطة أنّه يعيش جميع سكان جزيرة برابينجناج في منازل متطابقة.

الانحياز للتشابه خارج المجموعة هو شكل من أشكال الانحياز لتشابه المجموعة.

اطّلِع أيضًا على الانحياز لأفراد المجموعة.

رصد القيم الشاذة

عملية تحديد القيم الشاذة في مجموعة التدريب

يختلف ذلك عن اكتشاف المحتوى الجديد.

الذي حقق أداءً مختلفًا

القيم البعيدة عن معظم القيم الأخرى في مجال تعلُّم الآلة، أيّ مما يلي هو قيمة شاذة:

  • إدخال بيانات تكون قيمها أكبر من 3 انحرافات معيارية تقريبًا عن المتوسط
  • الأوزان ذات القيم المطلقة العالية
  • القيم المتوقّعة بعيدة نسبيًا عن القيم الفعلية.

على سبيل المثال، لنفترض أنّ widget-price هي ميزة لطراز معيّن. لنفترض أنّ متوسّط widget-price هو 7 يورو مع انحرافٍ معيّاري يبلغ 1 يورو. وبالتالي، فإنّ الأمثلة التي تحتوي على widget-price‏ 12 يورو أو 2 يورو تُعدّ قيمًا شاذة لأنّ كلّ سعر من هذه الأسعار يختلف عن المتوسط بمقدار خمسة انحرافات معيارية.

غالبًا ما تحدث القيم الشاذة بسبب أخطاء إملائية أو أخطاء أخرى في الإدخال. في حالات أخرى، لا تكون القيم الشاذة أخطاءً، فبعد كل شيء، تكون القيم التي تبعد عن المتوسط بمقدار خمسة انحرافات معيارية نادرة، ولكنّها ليست مستحيلة.

غالبًا ما تتسبب القيم الشاذة في حدوث مشاكل في تدريب النماذج. الاقتصاص هي إحدى طرق إدارة القيم الشاذة.

التقييم خارج الحزمة (تقييم خارج الحزمة)

#df

آلية لتقييم جودة غابة القرارات من خلال اختبار كل شجرة قرار باستخدام الأمثلة التي لم يتم استخدامها أثناء التدريب على شجرة القرار هذه. على سبيل المثال، في المخطّط البياني التالي، يُرجى ملاحظة أنّ النظام يُدرِّب كل شجرة قرارات على نحو ثلثَي الأمثلة تقريبًا، ثم يُقيّمها مقارنةً بالثلث المتبقّي من الأمثلة.

غابة قرارات تتألّف من ثلاث أشجار قرارات
          يتم تدريب شجرة قرار واحدة على ثلثي الأمثلة
          ثم استخدام الثلث المتبقّي للتقييم خارج النطاق.
          يتم تدريب شجرة قرارات ثانية على ثلثي مثال مختلفين
          عن شجرة القرارات السابقة، ثم
          يتم استخدام ثلث مختلف لتقييم خارج النطاق مقارنةً بشجرة القرارات السابقة.

التقييم خارج المجموعة هو تقرّيب محافظ وفعال من الناحية الحسابية لآلية التحقّق التبادلي. في التصديق المتقاطع، يتم تدريب نموذج واحد لكل جولة من جولات التصديق المتقاطع (على سبيل المثال، يتم تدريب 10 نماذج في عملية تصديق متقاطع مكوّنة من 10 مراحل). من خلال التقييم خارج النطاق، يتم تدريب نموذج واحد. بما أنّ أسلوب التجميع يُحجم عن استخدام بعض البيانات من كل شجرة أثناء التدريب، يمكن أن يستخدِم تقييم "خارج النطاق" هذه البيانات لتقريب التحقق من الصحة المتبادل.

الطبقة النهائية

#fundamentals

الطبقة "النهائية" للشبكة العصبية تحتوي طبقة الإخراج على التوقّع.

يعرض الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة
          خرج واحدة تتألّف طبقة الإدخال من سمتَين. تتكون الطبقة العميقة
          الأولى من ثلاثة خلايا عصبية، وتتكون الطبقة العميقة
          الثانية من خليتين عصبيتين. تتكوّن طبقة الإخراج من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب بشكلٍ وثيق لدرجة أنّ النموذج لا يتمكن من تقديم تنبؤات صحيحة بشأن البيانات الجديدة

يمكن أن تقلل التسوية من التكيّف المفرط. يمكن أن يؤدي التدريب على مجموعة تدريبية كبيرة ومتنوعة أيضًا إلى تقليل مشكلة التكيّف المفرط.

زيادة عدد العينات

إعادة استخدام أمثلة لفئة الأقل تمثيلاً في مجموعة بيانات غير متوازنة الفئات من أجل إنشاء مجموعة تدريب أكثر توازناً

على سبيل المثال، نأخذ مشكلة تصنيف ثنائي حيث تكون نسبة فئة الأغلبية إلى فئة الأقلية هي 5,000:1. إذا كانت مجموعة البيانات تحتوي على مليون مثال، لن تحتوي سوى على 200 مثال تقريبًا من فئة الأقلية، ما قد يكون قليلاً جدًا لإجراء تدريب فعّال. للتغلب على هذا النقص، يمكنك زيادة عدد العينات (إعادة استخدام) هذه الأمثلة الـ 200 عدة مرات، ما قد يؤدي إلى الحصول على أمثلة كافية لإجراء تدريب مفيد.

يجب توخّي الحذر بشأن الملاءمة الزائدة عند زيادة عدد العينات.

يُرجى الاطّلاع على تحليل عيّنات غير كافية.

P

البيانات المُجمَّعة

نهج لتخزين البيانات بكفاءة أكبر

تخزِّن البيانات المُجمَّعة البيانات إما باستخدام تنسيق مضغوط أو بطريقة أخرى تسمح بالوصول إليها بكفاءة أكبر. تقلِّل البيانات المُجمَّعة من مقدار الذاكرة والعمليات الحسابية المطلوبة للوصول إليها، ما يؤدي إلى تسريع عملية التدريب وزيادة كفاءة الاستنتاج من النموذج.

غالبًا ما يتم استخدام البيانات المُجمَّعة مع تقنيات أخرى، مثل زيادة البيانات و التسوية، ما يؤدي إلى تحسين أداء النماذج بشكلٍ أكبر.

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات المستندة إلى الأعمدة، تم إنشاؤها استنادًا إلى numpy. تتيح العديد من إطارات عمل تعلُّم الآلة، بما في ذلك TensorFlow، استخدام بنى بيانات pandas كمدخلات. اطّلِع على مستندات pandas للحصول على التفاصيل.

مَعلمة

#fundamentals

المَعلمات والانحيازات التي يتعلمها النموذج أثناء التدريب على سبيل المثال، في نموذج الانحدار الخطي، تتألف المَعلمات من الانحراف (b) وجميع الأوزان (w1 وw2، وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المَعلمات الفائقة هي القيم التي يقدّمها أنت (أو خدمة ضبط المَعلمات الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة.

ضبط مُفعّل للمَعلمات

#language
#generativeAI

مجموعة من الأساليب لتحسين نموذج لغوي تم تدريبه مسبقًا (PLM) بفعالية أكبر من التحسين الكامل عادةً ما تعمل عملية التحسين المُفعّلة للمَعلمات على تحسين عدد أقل بكثير من المَعلمات مقارنةً بعملية التحسين الكامل، ومع ذلك، تؤدي هذه العملية بشكل عام إلى إنشاء نموذج لغوي كبير يحقّق أداءً مماثلاً (أو شبه مماثل) لأداء نموذج لغوي كبير تم إنشاؤه من خلال عملية التحسين الكامل.

قارِن بين الضبط الفعال للمَعلمات وبين:

يُعرف الضبط الفعال للمَعلمات أيضًا باسم التحسين الفعال للمَعلمات.

خادم المَعلمات (PS)

#TensorFlow

وظيفة تتتبّع مَعلمات النموذج في بيئة موزّعة

تعديل المَعلمة

عملية تعديل مَعلمات النموذج أثناء التدريب، عادةً ضمن دورة واحدة من التناقص التدرّجي

مشتقة جزئية

مشتق يُعتبر فيه كل المتغيّرات ثابتة باستثناء متغيّر واحد. على سبيل المثال، فإنّ المشتقّ الجزئي للدالة f(x, y) بالنسبة إلى x هو المشتقّ للدالة f على أنّها دالة من x فقط (أي إبقاء y ثابتًا). تركّز المشتقة الجزئية f بالنسبة إلى x فقط على كيفية تغيُّر x وتتجاهل جميع المتغيّرات الأخرى في المعادلة.

انحياز المشاركة

#fairness

مرادف لاحتكار عدم الاستجابة. اطّلِع على الانحياز في الاختيار.

استراتيجية التجزئة

الخوارزمية التي يتم من خلالها تقسيم المتغيّرات على مستوى خوادم المَعلمات

pass at k (pass@k)

مقياس لتحديد جودة الرمز البرمجي (مثل Python) الذي ينشئه نموذج لغوي كبير وعلى وجه التحديد، يشير المرور عند k إلى احتمال أن يجتاز دستة واحدة على الأقل من k دستة من مجموعات الرموز البرمجية التي تم إنشاؤها جميع اختبارات الوحدة.

غالبًا ما تواجه النماذج اللغوية الكبيرة صعوبة في إنشاء رمز برمجي جيد لمعالجة المشاكل البرمجية المعقدة. يتعامل مهندسو البرمجيات مع هذه المشكلة من خلال طلب إنشاء نموذج اللغة الكبير لعدة (k) حلول للمشكلة نفسها. بعد ذلك، يختبر مهندسو البرامج كل حل من الحلول باستخدام اختبارات الوحدة. يعتمد احتساب المرور عند k على نتيجة اختبارات الوحدة:

  • إذا اجتاز حلّ واحد أو أكثر من هذه الحلول اختبار الوحدة، يعني ذلك أنّ نموذج اللغة الضخم اجتاز تحدّي إنشاء الرمز البرمجي.
  • إذا لم يجتاز أيّ من الحلول اختبار الوحدة، يفشل نموذج التعلم الآلي المتقدّم في حلّ هذا التحدي المتعلّق بإنشاء الرموز البرمجية.

في ما يلي صيغة المرور عند k:

$$\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}$$

بشكل عام، تؤدي القيم الأعلى k إلى الحصول على نتائج أعلى في نتائج k، ومع ذلك، تتطلّب القيم الأعلى k المزيد من الموارد المخصّصة لنموذج اللغة واختبار الوحدات.

Pax

إطار عمل برمجي مصمّم لتدريب نماذج الشبكات العصبية على نطاق واسع بحيث تمتد على شرائح شريحة معجِّل متعددة أو مجموعات وحدات.

تم إنشاء Pax استنادًا إلى Flax، الذي تم إنشاؤه استنادًا إلى JAX.

مخطّط بياني يشير إلى موضع Pax في حِزمة البرامج
          تم إنشاء Pax على JAX. تتكوّن Pax نفسها من ثلاث
          طبقات. تحتوي الطبقة السفلية على TensorStore وFlax.
          تحتوي الطبقة الوسطى على Optax وFlaxformer. تحتوي الطبقة العلوية
          على مكتبة Praxis Modeling Library. تم إنشاء Fiddle
          استنادًا إلى Pax.

شبكة perceptron

نظام (سواء كان جهازًا أو برنامجًا) يتلقّى قيمة إدخال واحدة أو أكثر، ويشغّل دالة على مجموع القيم المُرجّحة للمدخلات، ويحسب قيمة ناتجة واحدة في تعلُّم الآلة، تكون الدالة عادةً غير خطية، مثل ReLU أو دالة sigmoid أو tanh. على سبيل المثال، يعتمد المعرِّف التالي على الدالة السينية لمعالجة ثلاث قيم إدخال:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

في الرسم التوضيحي التالي، يتلقّى المُدرِّك ثلاث مدخلات، يتم تعديل كلّ منها باستخدام مَعلمة قبل إدخالها في المُدرِّك:

شبكة perceptron تستقبل 3 مدخلات، وكل مدخل منها يُضرب في 
          أوزان منفصلة يعرض المُدرِّك قيمة واحدة.

وحدات الإدراك هي الخلايا العصبية في الشبكات العصبية.

الأداء

مصطلح يحمل معاني متعدّدة:

  • المعنى العادي في مجال هندسة البرمجيات على وجه التحديد: ما مدى سرعة (أو كفاءة) تشغيل هذا البرنامج؟
  • المعنى في مجال تعلُّم الآلة يجيب مقياس الأداء عن السؤال التالي: ما مدى صحة هذا النموذج؟ أي، ما مدى جودة توقّعات النموذج؟

أهمية متغيّرات التبديل

#df

نوع من أهمية المتغيّر الذي يُقيّم الزيادة في خطأ التوقّع لنموذج بعد تبديل قيم السمة إنّ أهمية متغيّر التبادل هو مقياس مستقل عن النموذج.

الارتباك

أحد مقاييس مدى نجاح النموذج في إنجاز مهمته. على سبيل المثال، لنفترض أنّ مهمتك هي قراءة الأحرف القليلة الأولى من كلمة يقرؤها أحد المستخدمين على لوحة مفاتيح الهاتف، وتقديم قائمة بكلمات التكمّل المحتملة. إنّ الارتباك، P، لهذه المهمة هو تقريبًا عدد التخمينات التي تحتاج إلى تقديمها لكي تحتوي قائمتك على الكلمة الفعلية التي يحاول المستخدم كتابتها.

يرتبط الالتباس بالإنتروبيا المتداخلة على النحو التالي:

$$P= 2^{-\text{cross entropy}}$$

مسار التعلّم

البنية الأساسية المحيطة بخوارزمية تعلُّم الآلة تشمل عملية المعالجة المخطّط لها جمع البيانات ووضعها في ملفات بيانات التدريب، وتدريب نموذج واحد أو أكثر، وتصدير النماذج إلى مرحلة الإنتاج.

معالجة البيانات في مجموعات

#language

شكل من أشكال التوازي في النماذج يتم فيه تقسيم معالجة النموذج إلى مراحل متتالية ويتم تنفيذ كل مرحلة على جهاز مختلف. بينما تعالج مرحلة واحدة دفعة واحدة، يمكن للمرحلة السابقة العمل على الدفعة التالية.

اطّلِع أيضًا على التدريب على مراحل.

pjit

دالة JAX تقسم الرمز البرمجي لتشغيله على عدة شرائح مسرع. يُرسِل المستخدم دالة إلى pjit، ويعرض دالة ذات دلالة مماثلة ولكن تم تجميعها في عملية حسابية XLA يتم تنفيذها على أجهزة متعددة (مثل وحدات معالجة الرسومات أو نوى TPU).

يتيح تنسيق pjit للمستخدمين تقسيم العمليات الحسابية بدون إعادة كتابتها باستخدام SPMD.

اعتبارًا من آذار (مارس) 2023، تم دمج pjit مع jit. يُرجى الرجوع إلى مقالة المصفوفات الموزّعة والتشغيل المتزامن التلقائي لمزيد من التفاصيل.

PLM

#language
#generativeAI

اختصار نموذج لغوي مدرَّب مسبقًا.

pmap

دالة JAX تنفّذ نُسخًا من دالة إدخال على أجهزة أجهزة متعددة أساسية (وحدات المعالجة المركزية أو وحدات معالجة الرسومات أو وحدات معالجة النطاق التقدّمي (TPU))، باستخدام قيم إدخال مختلفة. تعتمد دالة pmap على SPMD.

سياسة

#rl

في التعلّم التعزيزي، تعيين احتمالي للعامل من الإجراءات

تجميع

#image

تقليل مصفوفة (أو مصفوفات) تم إنشاؤها من قبل طبقة تلافيفية سابقة إلى مصفوفة أصغر عادةً ما تتضمن عملية التجميع أخذ الحد الأقصى أو المتوسط للقيمة على مستوى المنطقة التي تم تجميعها. على سبيل المثال، لنفترض أنّ لدينا المصفوفة 3×3 التالية:

المصفوفة 3×3‏ [[5,3,1], [8,2,5], [9,4,3]].

تمامًا مثل عملية الالتفاف، تقسم عملية التجميع تلك المصفّفة إلى شرائح ثم تُحرِّك عملية الالتفاف هذه باستخدام الخطوات. على سبيل المثال، لنفترض أنّ عملية التجميع تقسّم المصفوفة التجميعية إلى شرائح 2×2 بخطوة 1×1. كما يوضّح الرسم البياني التالي، تحدث أربع عمليات تجميع. لنفترض أنّ كل عملية تجميع تختار الحد الأقصى لقيمة الأربعة في هذا المقطع:

مصفوفة الإدخال هي 3×3 بالقيم: [[5,3,1], [8,2,5], [9,4,3]].
          المصفوفة الفرعية 2×2 في أعلى يمين مصفوفة الإدخال هي [[5,3]، [8,2]]، لذا
          تؤدي عملية التجميع في أعلى يمين المصفوفة إلى القيمة 8 (وهي
          الحد الأقصى من 5 و3 و8 و2). المصفوفة الفرعية 2×2 في أعلى يسار مصفوفة
          الإدخال هي [[3,1]، [2,5]]، لذا تؤدي عملية التجميع في أعلى يسار المصفوفة
          إلى القيمة 5. المصفوفة الفرعية 2×2 في أسفل يمين مصفوفة الإدخال هي
          [[8,2], [9,4]], لذا تؤدي عملية التجميع في أسفل يمين المصفوفة إلى القيمة
          9. المصفوفة الفرعية 2×2 في أسفل يسار مصفوفة الإدخال هي
          [[2,5], [4,3]], لذا تؤدي عملية التجميع في أسفل يسار المصفوفة إلى القيمة
          5. باختصار، تؤدي عملية التجميع إلى إنشاء المصفوفة 2×2 التالية:
          [[8,5], [9,5]].

تساعد عملية التجميع في فرض عدم التغير الناتج عن الترجمة في مصفوفة الإدخال.

يُعرف تجميع البيانات لتطبيقات الرؤية رسميًا باسم التجميع المكاني. تشير تطبيقات السلاسل الزمنية عادةً إلى التجميع باسم التجميع الزمني. ويُطلق على الدمج أحيانًا اسم تحليل عيّنات فرعية أو تقليل الحجم.

الترميز الموضعي

#language

أسلوب لإضافة معلومات عن موضع الرمز المميّز في تسلسل إلى إدراج الرمز المميّز تستخدِم نماذج Transformer الترميز الترتيبي لفهم العلاقة بين الأجزاء المختلفة من السلسلة بشكلٍ أفضل.

يستخدم أحد طرق تنفيذ الترميز الموضعي دالة جيبية. (على وجه التحديد، يتم تحديد معدّل تكرار الدالة الجيبية وamplitudها حسب موضع الرمز المميّز في التسلسل). تتيح هذه التقنية لنموذج Transformer تعلُّم التركيز على أجزاء مختلفة من التسلسل استنادًا إلى مواضعها.

فئة موجبة

#fundamentals

الفئة التي تختبرها.

على سبيل المثال، قد تكون الفئة الموجبة في نموذج السرطان هي "ورم". قد تكون الفئة الموجبة في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير مرغوب فيها".

يختلف ذلك عن الفئة السلبية.

المعالجة اللاحقة

#fairness
#fundamentals

تعديل ناتج نموذج بعد تشغيله يمكن استخدام مرحلة ما بعد المعالجة لفرض قيود المساواة بدون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على مصنّف ثنائي من خلال ضبط حدّ تصنيف بحيث يتم الحفاظ على تكافؤ الفرص لبعض السمات من خلال التحقّق من أنّ معدّل الموجب الحقيقي هو نفسه لجميع قيم تلك السمة.

نموذج مدرَّب بعد ذلك

#language
#image
#generativeAI

مصطلح غير محدّد بدقة يشير عادةً إلى نموذج تم تدريبه مسبقًا وخضع لبعض المعالجة اللاحقة، مثل إجراء واحد أو أكثر مما يلي:

مساحة تحت منحنى PR (المساحة تحت منحنى PR)

المنطقة تحت منحنى الدقة-الاسترجاع الذي تمّت إضافته، والذي تمّ الحصول عليه من خلال رسم نقاط (الاسترجاع، الدقة) لقيم مختلفة من عتبة التصنيف.

Praxis

مكتبة أساسية عالية الأداء للتعلم الآلي في Pax غالبًا ما يُشار إلى Praxis باسم "مكتبة الطبقات".

لا يحتوي Praxis على تعريفات فئة Layer فحسب، بل على معظم مكوّناتها الداعمة أيضًا، بما في ذلك:

يوفّر Praxis تعريفات لفئة Model.

الدقة

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما توقّع النموذج الفئة الموجبة، ما هي النسبة المئوية للتنبؤات الصحيحة؟

في ما يلي الصيغة:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

حيث:

  • تعني النتيجة الموجبة الصحيحة أنّ النموذج تنبأ بشكل صحيح بالفئة الموجبة.
  • تشير الحالة الإيجابية الخاطئة إلى أنّ النموذج أخطأ في توقّع الفئة الإيجابية.

على سبيل المثال، لنفترض أنّ نموذجًا قدّم 200 توقّع إيجابي. من بين هذه التوقّعات الإيجابية الـ 200:

  • وبلغ عدد الحالات الموجبة الصحيحة 150 حالة.
  • وبلغ عدد النتائج الموجبة الخاطئة 50 نتيجة.

في هذه الحالة:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

يختلف هذا المقياس عن الدقة واكتمال التوقعات الإيجابية.

اطّلِع على التصنيف: الدقة ومعدل الاسترجاع والدقة والمقاييس المتعلّقة لمزيد من المعلومات.

الدقة عند k (precision@k)

#language

مقياس لتقييم قائمة مرتّبة (مُرتّبة) من العناصر تحدِّد الدقة عند k النسبة المئوية لأول k عنصر في هذه القائمة التي تكون "ملائمة". والمقصود:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

يجب أن تكون قيمة k أقل من أو مساوية لطول القائمة المعروضة. يُرجى العلم أنّ طول القائمة المعروضة ليس جزءًا من عملية الحساب.

غالبًا ما يكون مدى الصلة بالموضوع أمرًا شخصيًا، وحتى الخبراء لا يتفقون في أغلب الأحيان على العناصر التي تكون ملائمة.

المقارنة بـ:

منحنى الدقة والاستذكار

منحنى الدقة في مقابل الاسترجاع عند مختلف عتبات التصنيف

التوقّع

#fundamentals

ناتج النموذج على سبيل المثال:

  • التنبؤ بنموذج التصنيف الثنائي هو إما فئة الشدَّة الإيجابية أو فئة الشدَّة السلبية.
  • التنبؤ الذي يقدّمه نموذج التصنيف المتعدّد الفئات هو فئة واحدة.
  • التنبؤ الذي يقدّمه نموذج الانحدار الخطي هو رقم.

انحياز التوقّعات

قيمة تشير إلى مدى بُعد متوسّط التوقّعات عن متوسّط التصنيفات في مجموعة البيانات.

يجب عدم الخلط بين هذا المصطلح ومصطلح التحيز في نماذج تعلُّم الآلة أو التحيز في الأخلاق والعدالة.

تعلُّم الآلة التوقّعي

أي نظام تعلُّم آلي عادي ("كلاسيكي")

لا يتوفّر تعريف رسمي لمصطلح الذكاء الاصطناعي التوقّعي. بدلاً من ذلك، يميز المصطلح فئة من أنظمة تعلُّم الآلة التي لا تستند إلى الذكاء الاصطناعي التوليدي.

التكافؤ التوقّعي

#fairness

مقياس المساواة الذي يتحقّق مما إذا كانت معدّلات الدقة متكافئة للمجموعات الفرعية المعنيّة، وذلك بالنسبة إلى مصنّف معيّن.

على سبيل المثال، سيستوفي النموذج الذي يتوقّع قبول الطلاب في الجامعات قياس التكافؤ التوقّعي للجنسية إذا كان معدّل الدقّة متطابقًا لكل من سكان جزيرة ليليبوت وسكان جزيرة بلوبيديغناج.

يُعرف التكافؤ التوقّعي أحيانًا أيضًا باسم التكافؤ التوقّعي للسعر.

اطّلِع على "تعريفات الإنصاف الموضّحة" (القسم 3.2.1) لمناقشة أكثر تفصيلاً عن المساواة التوقّعية.

التكافؤ في الأسعار القائمة على التوقّعات

#fairness

اسم آخر للتطابق التوقّعي

المعالجة المُسبَقة

#fairness
معالجة البيانات قبل استخدامها لتدريب نموذج يمكن أن تكون المعالجة المُسبَقة بسيطة مثل إزالة الكلمات من مجموعة نصوص باللغة الإنجليزية التي لا تظهر في القاموس الإنجليزي، أو يمكن أن تكون معقدة مثل إعادة التعبير عن نقاط البيانات بطريقة تزيل أكبر عدد ممكن من السمات التي ترتبط بـ السمات الحسّاسة. يمكن أن تساعد المعالجة المُسبَقة في استيفاء قيود الإنصاف.

نموذج مدرَّب مسبقًا

#language
#image
#generativeAI

عادةً ما يكون نموذجًا سبق تدريبه. يمكن أن يشير المصطلح أيضًا إلى متجه التضمين الذي تم تدريبه سابقًا.

يشير مصطلح النموذج اللغوي المُدرَّب مسبقًا عادةً إلى نموذج لغوي كبير سبق أن تم تدريبه.

التدريب المُسبَق

#language
#image
#generativeAI

التدريب الأولي لنموذج على مجموعة بيانات كبيرة إنّ بعض النماذج المدربة مسبقًا هي نماذج عملاقة وبطيئة، ويجب عادةً تحسينها من خلال تدريب إضافي. على سبيل المثال، قد يُجري خبراء تعلُّم الآلة تدريبًا مسبقًا على نموذج لغة كبير باستخدام مجموعة بيانات نصية ضخمة، مثل جميع الصفحات باللغة الإنجليزية في "ويكيبيديا". بعد التدريب المُسبَق، يمكن تحسين النموذج الناتج بشكلٍ أكبر باستخدام أيّ من التقنيات التالية:

اعتقاد مسبق

الفرضيات التي تعتقد أنّها صحيحة عن البيانات قبل بدء التدريب عليها على سبيل المثال، تعتمد L2 التعديل على اعتقاد مسبق بأنّ المَعلمات يجب أن تكون صغيرة وأن يتم توزيعها بشكلٍ عادي حول القيمة صفر.

نموذج الانحدار الاحتمالي

نموذج الانحدار الذي لا يستخدم فقط الأوزان لكل سمة، بل يستخدم أيضًا عدم اليقين في هذه الأوزان يُنشئ نموذج الانحدار الاحتمالي توقّعًا وعدم يقينًا لذلك التوقّع. على سبيل المثال، قد يقدّم نموذج الانحدار الاحتمالي توقّعًا بقيمة 325 مع قياس انحراف معيّن يبلغ 12. لمزيد من المعلومات عن نماذج الانحدارالاحتمالي، اطّلِع على Colab على tensorflow.org.

دالة الكثافة الاحتمالية

دالة تحدِّد معدّل تكرار عيّنات البيانات التي تحتوي بالضبط على قيمة معيّنة. عندما تكون قيم مجموعة البيانات هي أرقام متسلسلة بفاصل عشري، نادرًا ما تحدث المطابقات التامّة. ومع ذلك، فإنّ دمج دالة كثافة احتمالية من القيمة x إلى القيمة y ينتج عنه معدّل تكرار متوقع لعينات البيانات بين x وy.

على سبيل المثال، لنفترض أنّ هناك توزيعًا طبيعيًا يبلغ متوسطه 200 و انحرافًا معياريًا يبلغ 30. لتحديد معدّل تكرار عيّنات البيانات التي تقع ضمن النطاق 211.4 إلى 218.7، يمكنك دمج دالة كثافة احتمالية التوزيع الطبيعي من 211.4 إلى 218.7.

طلب

#language
#generativeAI

أي نص يتم إدخاله كإدخال إلى نموذج لغوي كبير لإعداد النموذج للعمل بطريقة معيّنة. يمكن أن تكون الطلبات قصيرة مثل عبارة أو طويلة بشكل عشوائي (على سبيل المثال، نص رواية كامل). تندرج الطلبات ضمن فئات متعدّدة، بما في ذلك تلك الواردة في الجدول التالي:

فئة الطلب مثال ملاحظات
السؤال ما هي سرعة طيران الحمام؟
مدرسة تعليم كتابة قصيدة مضحكة عن المراجحة طلب يطلب من النموذج اللغوي الكبير تنفيذ إجراء معيّن
مثال ترجمة رمز Markdown إلى HTML على سبيل المثال:
Markdown: * عنصر قائمة
HTML: <ul> <li>عنصر قائمة</li> </ul>
الجملة الأولى في هذا المثال هي عبارة عن إرشاد. والباقي من الطلب هو المثال.
الدور شرح سبب استخدام خوارزمية انحدار التدرج في تدريب تعلُّم الآلة للحصول على درجة الدكتوراه في الفيزياء الجزء الأول من الجملة هو عبارة عن توجيه، وتشكل العبارة "إلى درجة الدكتوراه في الفيزياء" جزء الوظيفة.
إدخال جزئي لإكمال النموذج يقيم رئيس وزراء المملكة المتحدة في يمكن أن ينتهي طلب الإدخال الجزئي بشكل مفاجئ (كما هو الحال في هذا المثال) أو ينتهي بشرطة سفلية.

يمكن لنموذج الذكاء الاصطناعي التوليدي الاستجابة لطلب باستخدام نص أو رمز برمجي أو صور أو إدراج أو فيديوهات أو أي شيء آخر تقريبًا.

التعلّم المستنِد إلى الطلبات

#language
#generativeAI

ميزة تتوفّر في بعض النماذج تتيح لها تعديل سلوكها استجابةً لإدخال نص عشوائي (الطلبات). في النموذج النموذجي للتعلم المستنِد إلى طلب، يردّ النموذج اللغوي الكبير على طلب من خلال إنشاء نص. على سبيل المثال، لنفترض أنّ أحد المستخدمين يُدخل الطلب التالي:

تلخيص قانون نيوتن الثالث للحركة

لا يتم تدريب النموذج القادر على التعلّم المستنِد إلى الطلبات على الإجابة عن الطلب السابق على وجه التحديد. بدلاً من ذلك، "يعرف" النموذج الكثير من الحقائق حول الفيزياء، والكثير عن قواعد اللغة العامة، والكثير عن ما يشكّل بشكل عام إجابات مفيدة. هذه المعرفة كافية لتقديم إجابة مفيدة (على أمل ذلك). من خلال الملاحظات الإضافية التي يقدّمها المستخدمون ("كانت هذه الإجابة معقّدة جدًا" أو "ما هو ردّ الفعل؟")، يمكن لبعض أنظمة التعلّم المستندة إلى طلبات البحث تحسين فائدة إجاباتها تدريجيًا.

تصميم الطلب

#language
#generativeAI

مرادف لـ هندسة الطلبات.

هندسة الطلبات

#language
#generativeAI

فن إنشاء طلبات تؤدي إلى الحصول على الردود المطلوبة من نموذج لغوي كبير يُجري الأشخاص هندسة للطلبات. إنّ كتابة طلبات مساعدة منظَّمة جيدًا هو جزء أساسي من ضمانتلقّي ردود مفيدة من نموذج لغوي كبير. تعتمد هندسة الطلبات على عوامل متعدّدة، منها:

  • مجموعة البيانات المستخدَمة للتدريب المُسبَق والتحسين المحتمل للنموذج اللغوي الكبير
  • temperature ومَعلمات فك التشفير الأخرى التي يستخدمها النموذج لإنشاء الردود

يمكنك الاطّلاع على مقدّمة عن تصميم الطلبات لمزيد من التفاصيل حول كتابة طلبات مفيدة.

تصميم الطلبات هو مصطلح مرادف لهندسة الطلبات.

ضبط الطلبات

#language
#generativeAI

آلية ضبط فعّال للمَعلمات تتعرّف على "بادئة" يضيفها النظام إلى الطلب الفعلي.

أحد أشكال ضبط الطلبات، والذي يُسمى أحيانًا ضبط البادئة، هو إضافتها في كل طبقة. في المقابل، لا يؤدي معظم عمليات ضبط الطلبات إلا إلى إضافة بادئة إلى طبقة الإدخال.

وكيل (السمات الحسّاسة)

#fairness
سمة تُستخدَم كبديل لسمة حساسة. على سبيل المثال، قد يتم استخدام الرمز البريدي الخاص بفرد ما كعنصر بديل لدخله أو عرقه أو عرقه.

التصنيفات التقريبية

#fundamentals

البيانات المستخدَمة لتقريب التصنيفات غير متوفّرة مباشرةً في مجموعة بيانات.

على سبيل المثال، لنفترض أنّه عليك تدريب نموذج للتنبؤ بمستوى الإجهاد لدى الموظفين. تحتوي مجموعة البيانات على الكثير من الميزات التوقّعية، ولكنها لا تحتوي على تصنيف باسم مستوى الإجهاد. لا داعي للقلق، يمكنك اختيار "حوادث مكان العمل" كسمة تمثيلية لقياس مستوى الإجهاد. بعد كل شيء، يتعرّض الموظفون الذين يعانون من ضغوط شديدة لمزيد من الحوادث مقارنةً بالموظفين الهادئين. أم أنّه ليس كذلك؟ قد تزيد حوادث مكان العمل وينخفض عددها لأسباب متعدّدة.

في المثال الثاني، لنفترض أنّك تريد أن يكون هل تهطل الأمطار؟ تصنيفًا منطقيًا لمجموعة بياناتك، ولكنّ مجموعة البيانات لا تحتوي على بيانات عن هطول الأمطار. إذا كانت هناك صور متاحة، يمكنك استخدام صور أشخاص يحملون مظلات كتصنيف بديل لعبارة هل تهطل الأمطار؟ هل هذا تصنيف تقريبي جيد؟ من المحتمل، ولكن قد يكون من المرجّح أن يحمل الناس في بعض الثقافات مظلات لحماية أنفسهم من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الخوادم الوكيلة غير كاملة. اختَر التصنيفات الفعلية بدلاً من تصنيفات الوكيل كلما أمكن. ومع ذلك، في حال عدم توفّر تصنيف فعلي، يجب اختيار التصنيف البديل بعناية شديدة، مع اختيار التصنيف البديل الأقل سوءًا.

دالة خالصة

دالة تستند نتائجها إلى مدخلاتها فقط، ولا تتضمّن أي آثار جانبية على وجه التحديد، لا تستخدم الدالة الخالصة أي حالة عامة أو تغيرها، مثل محتوى ملف أو قيمة متغيّر خارج الدالة.

يمكن استخدام الدوالّ الخالصة لإنشاء رمز آمن من حيث مؤشرات الترابط، وهو أمر مفيد عند تقسيم رمز النموذج على عدة شرائح مسرع.

تتطلّب طرق تحويل الدوال في JAX أن تكون دوالّ الإدخال دوالّ أساسية.

سين

دالة Q

#rl

في التعلم التعزيزي، هي الدالة التي تصعِّد العائد المتوقّع من اتّخاذ إجراء في حالة ثم اتّباع سياسة معيّنة.

تُعرف دالة Q أيضًا باسم دالة قيمة الحالة-الإجراء.

تعلُّم Q

#rl

في التعلُّم التعزيزي، هي خوارزمية تسمح للوكيل بتعلم دالة Q المثلى ل عملية اتخاذ القرار في نموذج ماركوف من خلال تطبيق معادلة بلمان. تنشئ عملية اتخاذ القرار بالاستناد إلى نموذج ماركوف بيئة.

التجزيء

كل مجموعة في تجميع الشرائح المئوية

تجميع القيم حسب الشرائح

توزيع قيم السمة على مجموعات بحيث يحتوي كل مجموعة على العدد نفسه (أو العدد نفسه تقريبًا) من الأمثلة على سبيل المثال، يقسّم الشكل التالي 44 نقطة إلى 4 مجموعات، يحتوي كلّ منها على 11 نقطة. لكي تحتوي كل مجموعة في الشكل على العدد نفسه من النقاط، تمتد بعض المجموعات على عرض مختلف لقيم x.

44 نقطة بيانات مقسمة إلى 4 مجموعات تضم كلّ منها 11 نقطة
          على الرغم من أنّ كل مجموعة تحتوي على العدد نفسه من نقاط البيانات،
          تحتوي بعض المجموعات على نطاق أوسع من قيم السمات مقارنةً بالمجموعات
          الأخرى.

التقطيع

مصطلح مُحمّل بحمولة زائدة يمكن استخدامه بأيّ من الطرق التالية:

  • تنفيذ تجميع الشرائح حسب الشركاء على سمة معيّنة
  • تحويل البيانات إلى أصفار وآحاد لتسريع عمليات التخزين والتدريب والاستنتاج بما أنّ البيانات المنطقية أكثر مقاومة للضوضاء والأخطاء مقارنةً بالتنسيقات الأخرى، يمكن أن تؤدي التجزئة إلى تحسين صحة النموذج. تشمل تقنيات التقريب التقريب والاقتطاع التجميع.
  • تقليل عدد الوحدات المستخدَمة لتخزين مَعلمات النموذج على سبيل المثال، لنفترض أنّه يتم تخزين مَعلمات النموذج كأرقام نقط عائمة 32 بت. تحوِّل عملية التقريب تلك المَعلمات من 32 بت إلى 4 أو 8 أو 16 بت. تقلِّل عملية الترميز من المعلومات التالية:

    • استخدام وحدات الحوسبة والذاكرة والقرص والشبكة
    • وقت استنتاج توقّع
    • استهلاك الطاقة

    ومع ذلك، تؤدي عملية التقريب أحيانًا إلى تقليل دقة توقّعات النموذج.

قائمة المحتوى التالي

#TensorFlow

عملية في TensorFlow تنفِّذ بنية بيانات ملف الانتظار يُستخدَم عادةً في I/O.

R

RAG

#fundamentals

اختصار لعبارة إنشاء مُحسَّن لاسترداد المعلومات.

الغابة العشوائية

#df

مجموعة موحدة من أشجار القرارات يتم فيها تدريب كل شجرة قرارات باستخدام تشويش عشوائي محدّد، مثل التجميع

الغابات العشوائية هي نوع من غابات القرارات.

سياسة عشوائية

#rl

في التعلم التعزيزي، هو سياسة تختار إجراءً عشوائيًا.

الترتيب (الترتيب الترتيبي)

الموضع الترتيبي لفئة في مشكلة تعلُّم آلي يصنف الفئات من الأعلى إلى الأدنى. على سبيل المثال، يمكن لنظام ترتيب السلوك ترتيب مكافآت الكلب من الأعلى (شريحة لحم) إلى الأدنى (كرنب ذابل).

rank (Tensor)

#TensorFlow

عدد السمات في Tensor على سبيل المثال، يكون للقيمة عددية ترتيب 0، وللمتجه ترتيب 1، وللمصفوفة ترتيب 2.

يجب عدم الخلط بين هذا المقياس والترتيب (الترتيب الترتيبي).

الترتيب

نوع من التعلم المُوجّه الذي يهدف إلى ترتيب قائمة بالعناصر.

مُصنِّف

#fundamentals

هو شخص يقدّم تصنيفات للأمثلة. "المُعلِق" هو اسم آخر للمُقيّم.

تذكُّر الإعلان

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما كانت الحقيقة الأساسية هي الفئة الموجبة، ما هي النسبة المئوية للتنبؤات التي حدّدها النموذج بشكل صحيح على أنّها الفئة الموجبة؟

في ما يلي الصيغة:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

حيث:

  • تعني النتيجة الموجبة الصحيحة أنّ النموذج تنبأ بشكل صحيح بالفئة الموجبة.
  • يعني التقييم الخاطئ سلبيًا أنّ النموذج أخطأ في التنبؤ بالنتيجة الفئة السلبية.

على سبيل المثال، لنفترض أنّ نموذجك قدّم 200 توقّع بشأن أمثلة كانت الحقيقة الأساسية فيها هي الفئة الإيجابية. من بين هذه التوقعات الـ 200:

  • وبلغ عدد الحالات الموجبة الصحيحة 180 حالة.
  • وكانت هناك 20 حالة سلبية خاطئة.

في هذه الحالة:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

اطّلِع على التصنيف: الدقة ومعدل الاسترجاع والدقة والمقاييس المتعلّقة لمزيد من المعلومات.

تذكُّر عند k (recall@k)

#language

مقياس لتقييم الأنظمة التي تعرِض قائمة مرتّبة (مُرتَّبة) بالعناصر. يحدِّد "التذكُّر عند k" نسبة العناصر ذات الصلة في أوّل k عنصر في تلك القائمة من إجمالي عدد العناصر ذات الصلة التي يتم عرضها.

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

يُرجى الاطّلاع على الدقة عند k.

نظام الاقتراحات

#recsystems

نظام يختار لكل مستخدم مجموعة صغيرة نسبيًا من العناصر المرغوب فيها من مجموعة كبيرة من النصوص على سبيل المثال، قد يقترح نظام اقتراح الفيديوهات فيديوهَين من مجموعة تضم 100,000 فيديو، ويختار Casablanca و The Philadelphia Story لمستخدم معيّن، وWonder Woman و Black Panther لمستخدم آخر. قد يستند نظام اقتراح الفيديوهات إلى عوامل مثل:

  • الأفلام التي قيّمها أو شاهدها مستخدمون مشابهون
  • النوع والمخرجون والممثلون والفئة الديمغرافية المستهدَفة...

وحدة خطية مصحَّحة (ReLU)

#fundamentals

دالة تفعيل ذات السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان المدخل موجبًا، يكون الناتج مساويًا للمدخل.

على سبيل المثال:

  • إذا كان المدخل -3، يكون الناتج 0.
  • إذا كان الإدخال 3+، يكون الناتج 3.0.

في ما يلي رسم بياني لـ ReLU:

رسم بياني كارتيزيتي لخطَّين يحتوي السطر الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني عند 0,0. يمتلك هذا الخط ميلًا موجبًا +1، لذا
          يمتد من 0,0 إلى +∞,+∞.

وتعدّ ReLU دالة تنشيط رائجة جدًا. على الرغم من سلوكه البسيط، يظلّ نموذج ReLU يتيح للشبكة العصبية تعلُّم العلاقات غير الخطية بين السمات والتصنيف.

شبكة عصبية متكررة

#seq

شبكة عصبية يتم تشغيلها عمدًا عدة مرات، حيث يتمّ نقل أجزاء من كلّ عملية تشغيل إلى عملية التشغيل التالية. على وجه التحديد، توفّر الالتفافات المخفية من الخطوة السابقة جزءًا من الإدخال إلى الالتفاف المخفي نفسه في الخطوة التالية. تكون الشبكات العصبية المتكرّرة مفيدة بشكل خاص لتقييم التسلسلات، بحيث يمكن للطبقات المخفية التعلم من عمليات التشغيل السابقة للشبكة العصبية على الأجزاء السابقة من التسلسل.

على سبيل المثال، يعرض الشكل التالي شبكة عصبية متكررة يتم تشغيلها أربع مرات. يُرجى ملاحظة أنّ القيم التي تم تعلّمها في الطبقات المخفية من التشغيلة الأولى تصبح جزءًا من الإدخال إلى الطبقات المخفية نفسها في التشغيلة الثانية. وبالمثل، تصبح القيم التي تم تعلّمها في الطبقة المخفية في المحاولة الثانية جزءًا من الإدخال إلى الطبقة المخفية نفسها في المحاولة الثالثة. بهذه الطريقة، يتم تدريب الشبكة العصبية المتكررة تدريجيًا ومحاولة توقّع معنى التسلسل بأكمله بدلاً من معنى الكلمات الفردية فقط.

شبكة عصبية رجعية يتم تشغيلها أربع مرات لمعالجة أربع كلمات إدخال

نص مرجعي

#language
#generativeAI

ردّ الخبير على طلب على سبيل المثال، في ما يلي الطلب التالي:

ترجمة السؤال "ما اسمك؟" من الإنجليزية إلى الفرنسية

قد يكون ردّ الخبير على النحو التالي:

Comment vous appelez-vous?

تقيس مقاييس مختلفة (مثل ROUGE) درجة تطابق النص المرجعي مع النص الذي أنشأه نموذج تعلُّم الآلة.

نموذج الانحدار

#fundamentals

بشكل غير رسمي، نموذج يُنشئ توقّعات رقمية (على عكس ذلك، يُنشئ نموذج التصنيف تنبؤًا للفئة.) على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • نموذج يتنبأ بقيمة منزل معيّن باليورو، مثل 423,000.
  • نموذج يتنبّأ بمتوسط العمر المتوقع لشجرة معيّنة بالسنة، مثل 23.2
  • نموذج يتنبّأ بكمية الأمطار التي ستتساقط في مدينة معيّنة خلال الساعات الستة المقبلة، مثل 0.18.

النوعان الشائعان من نماذج الانحدار هما:

  • الانحدار الخطي، الذي يعثر على الخط الذي يلائم قيم التصنيفات بشكلٍ أفضل مع العناصر
  • الانحدار اللوجستي، الذي ينشئ احتمالية تتراوح بين 0.0 و1.0، والتي يربطها النظام عادةً بتنبؤ للفئة.

ليس كل نموذج يعرض توقّعات رقمية هو نموذج انحدار. في بعض الحالات، يكون التوقّع الرقمي مجرد نموذج تصنيف يتضمّن أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبّأ برمز بريدي رقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلّل من الملاءمة الزائدة تشمل الأنواع الشائعة من التسويف ما يلي:

يمكن أيضًا تعريف التّنظيم على أنّه العقوبة المفروضة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدِّد الأهمية النسبية لمحاولة التسوية أثناء التدريب. يؤدي رفع معدل التنظيم إلى تقليل التفاصيل الزائدة، ولكن قد يؤدي إلى تقليل قدرة النموذج على التنبؤ. في المقابل، يؤدي تقليل أو حذف معدّل التنظيم إلى زيادة التكيّف المفرط.

التعلّم التعزيزي

#rl

مجموعة من الخوارزميات التي تتعلّم سياسة مثالية هدفها تحقيق الحد الأقصى من العائد عند التفاعل مع بيئة على سبيل المثال، المكافأة النهائية في معظم الألعاب هي الفوز. يمكن أن تصبح أنظمة التعلّم التعزيزي خبيرة في لعب الألعاب المعقدة من خلال تقييم تسلسلات الحركات السابقة في اللعبة التي أدّت في نهاية المطاف إلى تحقيق انتصارات والتسلسلات التي أدّت في نهاية المطاف إلى الخسارة.

التعلّم المعزّز من الردود البشرية (RLHF)

#generativeAI
#rl

استخدام ملاحظات من المقيّمين لتحسين جودة ردود النموذج على سبيل المثال، يمكن أن تطلب آلية RLHF من المستخدمين تقييم جودة استجابة النموذج باستخدام رمز إيموجي 👍 أو 👎. ويمكن للنظام بعد ذلك تعديل ردوده المستقبلية استنادًا إلى هذه الملاحظات.

ReLU

#fundamentals

اختصار وحدة خطية مصحَّحة.

مخزن مؤقت لإعادة التشغيل

#rl

في الخوارزميات المشابهة لخوارزمية DQN، الذاكرة التي يستخدمها الوكيل لتخزين عمليات انتقال الحالة لاستخدامها في إعادة تشغيل التجربة.

نسخة مطابقة

نسخة من مجموعة التدريب أو النموذج، عادةً على جهاز آخر على سبيل المثال، يمكن أن يستخدم النظام استراتيجية المعالجة التالية لتنفيذ المعالجة المتوازيّة للبيانات:

  1. وضع نُسخ طبق الأصل من نموذج حالي على أجهزة متعددة
  2. أرسِل مجموعات فرعية مختلفة من مجموعة التدريب إلى كل نسخة.
  3. تجميع تعديلات المَعلمة

الانحياز في إعداد التقارير

#fairness

إنّ معدّل تكرار كتابة المستخدمين عن الإجراءات أو النتائج أو السمات لا يعكس معدّلات تكرار حدوثها في الحياة الواقعية أو درجة تميّز سمة ما عن مجموعة من الأفراد. يمكن أن يؤثّر التحيز في إعداد التقارير في تركيبة البيانات التي تستفيد منها أنظمة تعلُّم الآلة.

على سبيل المثال، في الكتب، تكون كلمة ضحك أكثر شيوعًا من تنفس. من المرجّح أن يحدِّد نموذج تعلُّم الآلة الذي يقدّر معدّل تكرار الضحك والتنفس من مجموعة كتب أنّ الضحك أكثر شيوعًا من التنفس.

التمثيل

عملية ربط البيانات بميزات مفيدة

إعادة الترتيب

#recsystems

المرحلة النهائية من نظام الاقتراحات، التي قد تتم خلالها إعادة تقييم العناصر التي تمّت تقييمها وفقًا لبعض غيرها من الخوارزميات (عادةً ما تكون غير مستندة إلى الذكاء الاصطناعي). تعمل إعادة الترتيب على تقييم قائمة العناصر التي تم إنشاؤها في مرحلة التقييم، مع اتّخاذ إجراءات مثل:

  • إزالة العناصر التي سبق أن اشتراها المستخدم
  • زيادة نتيجة العناصر الأحدث

إنشاء البيانات المعزّزة بالاسترجاع (RAG)

#fundamentals

أسلوب لتحسين جودة ناتج النموذج اللغوي الكبير (LLM) من خلال ربطه بمصادر المعرفة التي تم استرجاعها بعد تدريب النموذج تحسِّن ميزة "الردّ المخصّص حسب الغرض" دقة ردود النماذج اللغوية الكبيرة من خلال منح النموذج اللغوي الكبير المدّرب إمكانية الوصول إلى المعلومات التي يتم استرجاعها من قواعد بيانات أو مستندات موثوقة.

تشمل الدوافع الشائعة لاستخدام ميزة "إنشاء المحتوى بالاستناد إلى محتوى سبق أن شاهدته" ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها النموذج
  • منح النموذج إذن الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج
  • تفعيل النموذج للإشارة إلى المصادر

على سبيل المثال، لنفترض أنّ تطبيقًا للكيمياء يستخدم PaLM API لإنشاء ملخّصات مرتبطة بطلبات بحث المستخدمين. عندما تتلقّى الخلفية في التطبيق طلب بحث، تُجري الخلفية ما يلي:

  1. البحث عن ("استرداد") البيانات ذات الصلة بطلب بحث المستخدم
  2. إلحاق بيانات الكيمياء ذات الصلة ("تعزيز") بطلب بحث المستخدم
  3. يوجّه هذا الإجراء نموذج اللغة الضخم (LLM) لإنشاء ملخّص استنادًا إلى البيانات المُلحَقة.

العودة

#rl

في التعلّم التعزيزي، استنادًا إلى سياسة معيّنة وحالة معيّنة، هو مجموع كل المكافآت التي يتوقع العاملتلقّيها عند اتّباع السياسة من الحالة إلى نهاية الحلقة. يراعي الوكيل طبيعة المكافآت المتأخرة المتوقّعة من خلال خصم المكافآت وفقًا لعمليات انتقال الحالة المطلوبة للحصول على المكافأة.

لذلك، إذا كان عامل الخصم هو \(\gamma\)، و \(r_0, \ldots, r_{N}\) يشير إلى المكافآت حتى نهاية الحلقة، يكون احتساب العائد على النحو التالي:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

مكافأة

#rl

في التعلّم التعزيزي، هي النتيجة الرقمية لاتّخاذ إجراء في حالة، كما هو محدّد من قِبل البيئة.

تسوية تربيعية

مرادف للتسويّة 2. يُستخدَم مصطلح التسوية الرأسية بشكلٍ متكرّر في سياقات الإحصاءات الخالصة، في حين يُستخدَم مصطلح التسوية 2 بشكلٍ متكرّر في سياقات التعلم الآلي.

RNN

#seq

اختصار للشبكات العصبية المتكررة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني لمعدل الموجب الصحيح مقابل معدل الموجب الخاطئ لحدود التصنيف المختلفة في التصنيف الثنائي

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. لنفترض مثلاً أنّ نموذج التصنيف الثنائي يفصل تمامًا بين جميع فئات السلبية وجميع فئات الإيجابية:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على الجانب الأيمن
          7 أمثلة سلبية على الجانب الأيسر

يظهر منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى ROC المحور x هو &quot;معدل الموجب الخاطئ&quot; والمحور y هو
          &quot;النسبة الموجبة الصائبة&quot;. يكون المنحنى على شكل حرف L مقلوب. يبدأ المنحنى
          عند (0.0,0.0) ويرتفع مباشرةً إلى (0.0,1.0). بعد ذلك، ينتقل المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

في المقابل، يعرض الرسم التوضيحي التالي قيم الانحدار اللوجستي التلقائية لنموذج سيئ لا يمكنه فصل الفئات السلبية عن الفئات الإيجابية على الإطلاق:

خطّ أعداد يتضمّن أمثلة إيجابية وفئات سلبية
          مختلطة تمامًا

يظهر منحنى ROC لهذا النموذج على النحو التالي:

منحنى ROC، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

في الوقت نفسه، في العالم الواقعي، تفصل معظم نماذج التصنيف الثنائي بين الفئات الإيجابية والسلبية إلى حدّ ما، ولكن ليس بشكلٍ كامل عادةً. وبالتالي، يقع منحنى ROC النموذجي في مكان ما بين الحدّين الأدنى والأعلى:

منحنى ROC المحور x هو &quot;معدل الموجب الخاطئ&quot; والمحور y هو
          &quot;النسبة الموجبة الصائبة&quot;. يشبه منحنى ROC قوسًا متذبذبًا
          يقطع نقاط البوصلة من الغرب إلى الشمال.

تحدِّد النقطة على منحنى ROC الأقرب إلى (0.0,1.0) نظريًا عتبة التصنيف المثالية. ومع ذلك، تؤثر عدة مشاكل أخرى في العالم الواقعي في اختيار الحدّ الأمثل للتصنيف. على سبيل المثال، قد تتسبب النتائج السلبية الخاطئة في مشاكل أكثر بكثير من النتائج الموجبة الخاطئة.

يلخِّص مقياس عددي يُسمى AUC منحنى ROC في قيمة واحدة بفاصل عشري.

طلب الدور

#language
#generativeAI

جزء اختياري من الطلب الذي يحدّد شريحة جمهور مستهدَفة لاستجابة نموذج الذكاء الاصطناعي التوليدي. بدون طلب تحديد الدور، يقدّم نموذج لغوي كبير إجابة قد تكون مفيدة أو غير مفيدة للشخص الذي يطرح الأسئلة. من خلال طلب دور، يمكن أن يجيب نموذج لغوي كبير بطريقة أكثر ملاءمةً وفائدةً لجمهور مستهدف معيّن. على سبيل المثال، يظهر جزء طلب الدور من الطلبات التالية بخط عريض:

  • تلخيص هذه المقالة لرسالة الدكتوراه في الاقتصاد
  • وصف آلية عمل المد والجزر لطفل في العاشرة من عمره
  • شرح الأزمة المالية لعام 2008 تحدّث كما تتحدّث مع طفل صغير، أو كلب من سلالة لابرادور.

الجذر

#df

العقدة الأولى (أول شرط) في شجرة قرارات وفقًا للعرف، تضع المخططات البيانية الجذر في أعلى شجرة القرار. على سبيل المثال:

شجرة قرارات تتضمّن شرطَين وثلاث أوراق 
          الشرط الأولي (x > 2) هو الجذر.

الدليل الجذري

#TensorFlow

الدليل الذي تحدّده لاستضافة الأدلة الفرعية لملفات نقاط التوقف وأحداث TensorFlow لعدة نماذج

جذر الخطأ التربيعي المتوسّط (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط

الثبات الدوراني

#image

في مشكلة تصنيف الصور، هي قدرة الخوارزمية على تصنيف الصور بنجاح حتى في حال تغيُّر اتجاه الصورة. على سبيل المثال، يظل بإمكان الخوارزمية التعرّف على مضرب تنس سواء كان موجهًا للأعلى أو بجانبه أو للأسفل. يُرجى العلم أنّ عدم الاعتماد على الاتجاه ليس مرغوبًا فيه دائمًا، على سبيل المثال، يجب عدم تصنيف الرقم 9 مقلوبًا على أنّه 9.

اطّلِع أيضًا على الثبات الانتقالي و الثبات الحجمي.

ROUGE (Recall-Oriented Understudy for Gisting Evaluation)

#language

مجموعة من المقاييس التي تقيِّم نماذج التلخيص التلقائي والترجمة الآلية. تحدِّد مقاييس ROUGE درجة تداخل النص المرجعي مع النص الذي تم إنشاؤه من نموذج الذكاء الاصطناعي (ML). تتداخل مقاييس عائلة ROUGE بطريقة مختلفة. تشير نتائج ROUGE الأعلى إلى تشابه أكبر بين النص المرجعي والنص الذي تم إنشاؤه مقارنةً بنتائج ROUGE الأقل.

ينشئ كل فرد من عائلة ROUGE عادةً المقاييس التالية:

  • الدقة
  • التذكُّر
  • F1

لمعرفة التفاصيل والأمثلة، يُرجى الاطّلاع على:

ROUGE-L

#language

أحد أفراد عائلة ROUGE يركز على طول أطول تسلسل فرعي شائع في النص المرجعي والنص الذي تم إنشاؤه. تحسب الصيغ التالية دقة ومستوى التذكر لـ ROUGE-L:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

يمكنك بعد ذلك استخدام F1 لتجميع دقة ROUGE-L ومستوى استرجاع ROUGE-L في مقياس واحد:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

يتجاهل مقياس ROUGE-L أيّ أسطر جديدة في النص المرجعي والنص الذي تم إنشاؤه، لذلك يمكن أن يشمل أطول تسلسل فرعي مشترك عدّة جمل. عندما يتضمّن النص المرجعي والنص الذي تم إنشاؤه عدة جمل، يكون ROUGE-Lsum، وهو أحد أشكال مقياس ROUGE-L، مقياسًا أفضل بشكل عام. يحدِّد مقياس ROUGE-Lsum أطول تسلسل فرعي مشترك لكل جملة في فقرة، ثم يحتسِب متوسّط هذه التسلسلات الفرعية المشتركة الأطول.

ROUGE-N

#language

مجموعة من المقاييس ضمن عائلة ROUGE التي تقارن بين النصوص المشتركة التي تتألف من عدد معيّن من الكلمات في النص المرجعي والنص الذي تم إنشاؤه. على سبيل المثال:

  • يقيس مقياس ROUGE-1 عدد الرموز المشترَكة في النص المرجعي والنص الذي تم إنشاؤه.
  • يقيس مقياس ROUGE-2 عدد الثنائيات (الكلمات المكونة من كلمتَين) المشترَكة في النص المرجعي والنص الذي تم إنشاؤه.
  • يقيس مقياس ROUGE-3 عدد الثلاثيات (3-grams) المشترَكة في النص المرجعي والنص الذي تم إنشاؤه.

يمكنك استخدام الصيغ التالية لاحتساب تذكر ROUGE-N و دقة ROUGE-N لأيّ عضو من عائلة ROUGE-N:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

يمكنك بعد ذلك استخدام F1 لتجميع دقة ROUGE-N ومستوى استرجاع ROUGE-N في مقياس واحد:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

ROUGE-S

#language

يُعدّ هذا المقياس من ROUGE-N أكثر تساهلاً، إذ يتيح مطابقة الجمل القصيرة. وهذا يعني أنّ ROUGE-N لا يحسب سوى النصوص التي تتكوّن من وحدات أساسية بحجم N التي تتطابق تمامًا، ولكنّ ROUGE-S يحسب أيضًا النصوص التي تتكوّن من وحدات أساسية بحجم N مفصولة بكلمة واحدة أو أكثر. على سبيل المثال، يمكنك القيام بما يلي:

عند احتساب مقياس ROUGE-N، لا يتطابق الثنائي السحب البيضاء مع السحب البيضاء المتصاعدة. ومع ذلك، عند احتساب مقياس ROUGE-S، يتطابق السحب البيضاء مع السحب البيضاء المتصاعدة.

معامل التحديد

مقياس الانحدار الذي يشير إلى مقدار التباين في التصنيف الناتج عن ميزة فردية أو مجموعة ميزات "مربّع R" هو قيمة تتراوح بين 0 و1، ويمكنك تفسيرها على النحو التالي:

  • تعني قيمة R المربّع 0 أنّ أيّ من التباين في التصنيف لا يرجع إلى مجموعة الميزات.
  • يعني مقياس R المربّع الذي يساوي 1 أنّ جميع الاختلافات في التصنيف تعود إلى مجموعة الميزات.
  • يشير مقياس R المربّع الذي يتراوح بين 0 و1 إلى مدى إمكانية توقّع اختلاف العلامة من ميزة معيّنة أو مجموعة ميزات. على سبيل المثال، تعني قيمة "مربع R" التي تبلغ 0.10 أنّ 10% من التباين في التصنيف يرجع إلى مجموعة الميزات، وتعني قيمة "مربع R" التي تبلغ 0.20 أنّ 20% يرجع إلى مجموعة الميزات، وهكذا.

‫R المربّع هو مربّع معامل ارتباط بيرسون بين القيم التي توقّعها النموذج والحقيقة الأساسية.

S

التحيز في جمع العيّنات

#fairness

اطّلِع على الانحياز في الاختيار.

جمع العيّنات مع الاستبدال

#df

طريقة لاختيار عناصر من مجموعة من العناصر المُحتمَلة التي يمكن فيها اختيار العنصر نفسه عدة مرات تعني عبارة "مع الاستبدال" أنّه بعد كل اختيار، يتم إرجاع العنصر المحدّد إلى مجموعة العناصر المرشّحة. أما الطريقة العكسية، وهي جمع العيّنات بدون استبدال، فتعني أنّه لا يمكن اختيار عنصر مرشح إلا مرة واحدة.

على سبيل المثال، فكِّر في مجموعة الفواكه التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

لنفترض أنّ النظام اختار fig عشوائيًا كأول عنصر. في حال استخدام تحليل العينات مع الاستبدال، يختار النظام العنصر الثاني من المجموعة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

نعم، هذه هي المجموعة نفسها التي استخدمناها سابقًا، لذا من المحتمل أن يختار النظام fig مرة أخرى.

في حال استخدام أسلوب جمع العيّنات بدون الاستبدال، لا يمكن اختيار عيّنة مرة أخرى بعد اختيارها. على سبيل المثال، إذا اختار النظام fig بشكل عشوائي كأحد العيّنات الأولى، لا يمكن اختيار fig مرة أخرى. لذلك، يختار النظام العيّنة الثانية من المجموعة (المعدَّلة) التالية:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

التنسيق المقترَح لحفظ نماذج TensorFlow واستعادتها ‫SavedModel هو تنسيق تسلسل قابل للاسترداد وغير معتمد على اللغة، ما يتيح للأنظمة والأدوات ذات المستوى الأعلى إنشاء نماذج TensorFlow واستخدامها وتحويلها.

اطّلِع على قسم "الحفظ والاستعادة" في دليل مطوّري برامج TensorFlow للاطّلاع على التفاصيل الكاملة.

موفّر

#TensorFlow

عنصر TensorFlow مسؤول عن حفظ نقاط التحقق للنموذج

الكمية القياسية

رقم واحد أو سلسلة واحدة يمكن تمثيلها على أنّها مصفوفة تانسورية ذات رتبة 0 على سبيل المثال، تُنشئ كل سطر من سطور التعليمة البرمجية التالية عددًا واحدًا من القيم السلفية في TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

التوسّع

أي تحويل رياضي أو أسلوب يغيّر نطاق تصنيف و/أو قيمة العنصر تكون بعض أشكال التكبير مفيدة جدًا للتحويلات، مثل التسوية.

تشمل أشكال التوسيع الشائعة والمفيدة في تعلُّم الآلة ما يلي:

  • التكبير/التصغير الخطي، الذي يستخدم عادةً مزيجًا من الطرح والقسمة لاستبدال القيمة الأصلية برقم يتراوح بين -1 و+1 أو بين 0 و1
  • التكبير اللوغاريتمي الذي يستبدل القيمة الأصلية باللوغاريتم
  • تسويّة النتيجة المعيارية، التي تستبدِل القيمة الأصلية بقيمة عشرية تمثل عدد الانحرافات المعيارية عن متوسط تلك الميزة

مكتبة ساي كيت ليرن

منصة رائجة مفتوحة المصدر لتكنولوجيا تعلُّم الآلة اطّلِع على scikit-learn.org.

تسجيل النتائج

#recsystems

الجزء من نظام الاقتراحات الذي يقدّم قيمة أو ترتيبًا لكل عنصر تم إنشاؤه في مرحلة إنشاء الاقتراحات

الانحياز في الاختيار

#fairness

الأخطاء في الاستنتاجات المستخلصة من البيانات المستندة إلى عيّنات بسبب عملية اختيار تؤدي إلى حدوث اختلافات منهجية بين العيّنات المرصودة في البيانات وتلك غير المرصودة في ما يلي أشكال التحيز في الاختيار:

  • الانحياز في التغطية: لا يتطابق المجتمع الإحصائي الممثّل في مجموعة البيانات مع المجتمع الإحصائي الذي يقدّم نموذج تعلُّم الآلة توقعات بشأنه.
  • تحيز أخذ العينات: لا يتم جمع البيانات عشوائيًا من المجموعة المستهدَفة.
  • الانحراف في عدم الردّ (يُعرف أيضًا باسم الانحراف في المشاركة): يوقف المستخدمون من مجموعات معيّنة الاستطلاعات بمعدّلات مختلفة عن المستخدمين من مجموعات أخرى.

على سبيل المثال، لنفترض أنّك تنشئ نموذج تعلُّم آليًا يتنبأ بمدى استمتاع المستخدمين بفيلم معيّن. لجمع بيانات التدريب، يمكنك توزيع استطلاع على جميع المشاهدين في الصف الأول من سينما تعرض الفيلم. قد يبدو هذا الإجراء على الفور طريقة معقولة لجمع مجموعة بيانات، ولكن قد يؤدي هذا الشكل من جمع البيانات إلى ظهور أشكال التحيز في الاختيار التالية:

  • التحيز في التغطية: من خلال أخذ عيّنات من مجموعة من الأشخاص الذين اختاروا مشاهدة الفيلم، قد لا تعمم توقّعات النموذج على الأشخاص الذين لم يُظهروا هذا المستوى من الاهتمام بالفيلم.
  • التحيز في جمع العيّنات: بدلاً من جمع عيّنات عشوائية من المجموعة المستهدَفة (جميع الأشخاص في الفيلم)، جمعت عيّنات من الأشخاص في الصف الأمامي فقط. من المحتمل أنّ الأشخاص الجالسين في الصف الأمامي كانوا أكثر اهتمامًا بالفيلم مقارنةً بأولئك الجالسين في الصفوف الأخرى.
  • التحيز الناتج عن عدم الردّ: بشكل عام، يميل الأشخاص الذين لديهم آراء قوية إلى الردّ على الاستطلاعات الاختيارية بشكلٍ متكرّر أكثر من الأشخاص الذين لديهم آراء معتدلة. بما أنّ استطلاع الأفلام اختياري، من المرجّح أن تشكل الردود توزيعًا ثنائيًا للقيم بدلاً من توزيع طبيعي (على شكل جرس).

الانتباه الذاتي (يُعرف أيضًا باسم طبقة الانتباه الذاتي)

#language

طبقة شبكة عصبية تحوّل تسلسلاً من الملفات المضمّنة (مثل ملفات الرمز المميّز المضمّنة) إلى تسلسل آخر من الملفات المضمّنة يتم تأسيس كلّ إدراج في تسلسل الإخراج من خلال دمج المعلومات من عناصر تسلسل الإدخال من خلال آلية التركيز.

يشير الجزء الذاتي من الانتباه الذاتي إلى التسلسل الذي يهتم بنفسه بدلاً من أي سياق آخر. إنّ الانتباه الذاتي هو أحد أساسيات الوحدات الأساسية لمعمارية Transformer، ويستخدم مصطلحات البحث في القاموس، مثل "طلب بحث" و"مفتاح" و "قيمة".

تبدأ طبقة الانتباه الذاتي بتسلسل من تمثيلات الإدخال، تمثل كل واحدة كلمة. يمكن أن يكون تمثيل الإدخال لكلمة ما هو إدراج بسيط. لكل كلمة في تسلسل الإدخال، تُحسِّن الشبكة صلة الكلمة بكل عنصر في التسلسل الكامل للكلمات. تحدِّد نتائج مدى الصلة مقدار دمج التمثيل النهائي للكلمة في تمثيلات الكلمات الأخرى.

على سبيل المثال، فكِّر في الجملة التالية:

لم يعبر الحيوان الشارع لأنّه كان متعبًا جدًا.

يعرض الرسم التوضيحي التالي (من مقالة Transformer: A Novel Neural Network Architecture for Language Understanding) نمط الانتباه لطبقة الانتباه الذاتي للضمير it، مع اختلاف كثافة كل سطر للإشارة إلى مقدار مساهمة كل كلمة في التمثيل:

تظهر الجملة التالية مرّتين: لم يعبر الحيوان
          الشارع لأنّه كان متعبًا جدًا. تربط الخطوط الضمير it في
          جملة واحدة بخمسة وحدات ترميز (The وanimal وstreet وit و
          النقطة) في الجملة الأخرى.  إنّ الرابط بين الضمير it
          وكلمة animal هو الأقوى.

تُبرز طبقة الانتباه الذاتي الكلمات ذات الصلة بـ "it". في هذا الحالة، تعلّمت طبقة الانتباه تمييز الكلمات التي قد تتمثّل فيها، مع منح الأهمية الأكبر للكلمة حيوان.

بالنسبة إلى تسلسل من n رمز، تحوّل الانتباه الذاتي تسلسلًا من عمليات التضمين n مرّات منفصلة، مرّة واحدة في كل موضع في التسلسل.

راجِع أيضًا التركيز و التركيز الذاتي المتعدّد الرؤوس.

التعلُّم الذاتي الإشراف

مجموعة من الأساليب لتحويل مشكلة تعلُّم آلي غير موجَّه إلى مشكلة تعلُّم آلي موجَّه من خلال إنشاء تصنيفات بديلة من أمثلة غير مصنّفة

تستخدم بعض النماذج المستندة إلى محوِّلات BERT، مثل BERT، التعلُّم الذاتي الإشرافي.

التدريب الذاتي الإشراف هو أحد أساليب التعلم شبه المُراقَب.

التدريب الذاتي

نوع من التعلم الذاتي الإشرافي الذي يكون مفيدًا بشكل خاص عند استيفاء جميع الشروط التالية:

تعمل ميزة "التدريب الذاتي" من خلال تكرار الخطوتَين التاليتَين إلى أن يتوقف النموذج عن التحسن:

  1. استخدِم تعلُّم الآلة المراقَب لتدريب نموذج على الأمثلة المصنّفة.
  2. استخدِم النموذج الذي تم إنشاؤه في الخطوة 1 لإنشاء توقّعات (تصنيفات) بشأن الأمثلة غير المصنّفة، مع نقل تلك التي تتمتع بثقة عالية إلى الأمثلة المصنّفة باستخدام التصنيف المتوقّع.

يُرجى ملاحظة أنّ كل تكرار للخطوة 2 يضيف المزيد من الأمثلة المصنّفة للخطوة 1 بهدف التدريب عليها.

التعلّم شبه المُراقَب

تدريب نموذج على بيانات تتضمّن بعض أمثلة التدريب تصنيفات، ولكن لا تتضمّن أمثلة أخرى تصنيفات تتمثل إحدى تقنيات التعلّم شبه المُوجَّه في استنتاج تصنيفات للأمثلة غير المصنّفة، ثم التدريب على التصنيفات المستنتَجة لإنشاء نموذج جديد. يمكن أن يكون التعلّم شبه المُوجّه مفيدًا إذا كانت عملية الحصول على التصنيفات مكلفة، ولكن كانت الأمثلة غير المصنّفة وفيرة.

التدريب الذاتي هو إحدى تقنيات التعلم شبه المُراقَب.

سمة حسّاسة

#fairness
سمة بشرية قد تحظى باهتمام خاص لأسباب قانونية أو أخلاقية أو اجتماعية أو شخصية

تحليل المشاعر

#language

استخدام الخوارزميات الإحصائية أو خوارزميات تعلُّم الآلة لتحديد الموقف العام للمجموعة، سواء كان إيجابيًا أو سلبيًا، تجاه خدمة أو منتج أو منظمة أو موضوع على سبيل المثال، باستخدام فهم اللغة الطبيعية، يمكن أن تُجري الخوارزمية تحليلًا للمشاعر استنادًا إلى الملاحظات النصية من دورة دراسية جامعية لتحديد مدى شعور الطلاب عمومًا بالاستحسان أو عدم الاستحسان تجاه الدورة الدراسية.

نموذج تسلسلي

#seq

نموذج تتضمّن مدخلاته اعتمادًا تسلسليًا على سبيل المثال، توقّع الفيديو التالي الذي سيتمّ مشاهدته من تسلسل الفيديوهات التي تمّت مشاهدتها في السابق

مهمة من تسلسل إلى تسلسل

#language

مهمة تعمل على تحويل تسلسل إدخال من الرموز المميّزة إلى تسلسل ناتج من الرموز المميّزة. على سبيل المثال، هناك نوعان شائعان من المهام المتعلّقة بتحويل تسلسل إلى تسلسل:

  • المترجمون:
    • مثال على تسلسل الإدخال: "أحبك".
    • مثال على تسلسل النتائج: "Je t'aime".
  • الإجابة عن الأسئلة:
    • مثال على تسلسل الإدخال: "هل أحتاج إلى سيارتي في مدينة القاهرة؟"
    • مثال على تسلسل الإخراج: "لا، يُرجى إبقاء سيارتك في المنزل".

حصة طعام

عملية إتاحة نموذج مدرَّب لتقديم توقّعات من خلال الاستنتاج على الإنترنت أو الاستنتاج بلا إنترنت

shape (Tensor)

عدد العناصر في كل سمة من المصفوفة. يتم تمثيل الشكل كقائمة من الأعداد الصحيحة. على سبيل المثال، يتضمّن المتجه الثلاثي الأبعاد التالي الشكل [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

يستخدم TensorFlow تنسيق الصفوف (بأسلوب C) لتمثيل ترتيب السمات، ولهذا السبب يكون الشكل في TensorFlow هو [3,4] بدلاً من [4,3]. بعبارة أخرى، في مصفوفة TensorFlow ثنائية الأبعاد، يكون الشكل [عدد الصفوف، عدد الأعمدة].

الشكل الثابت هو شكل مصفوفة معروف في وقت الترجمة.

يكون الشكل الديناميكي غير معروف في وقت الترجمة، وبالتالي يعتمد على بيانات وقت التشغيل. يمكن تمثيل هذا المتجه الفائق باستخدام سمة عنصر نائب في TensorFlow، كما هو موضّح في [3, ?].

قطعة

#TensorFlow
#GoogleCloud

تقسيم منطقي لمجموعة التدريب أو النموذج عادةً ما تنشئ بعض العمليات أجزاءً من خلال تقسيم الأمثلة أو المَعلمات إلى أجزاء (عادةً) بحجم متساوٍ. ويتم بعد ذلك تعيين كل شريحة إلى جهاز مختلف.

يُطلق على تقسيم النموذج اسم التوازي في النموذج، ويُطلق على تقسيم البيانات اسم التوازي في البيانات.

التقلّص

#df

مَعلمة فائقة في تقوية التدرّج للتحكّم في التعلّم الزائد إنّ التقلّص في تحسين التدرّج يشبه معدّل التعلّم في النزول المتدرج. إنّ نسبة الانكماش هي قيمة صعِد عشري تتراوح بين 0.0 و1.0. تقلّل قيمة الانكماش الأقل من التكيّف المفرط أكثر من قيمة الانكماش الأكبر.

الدالّة الإسية

#fundamentals

دالة رياضية "تضغط" قيمة الإدخال في نطاق محدود، عادةً من 0 إلى 1 أو -1 إلى +1. وهذا يعني أنّه يمكنك تمرير أي رقم (اثنان أو مليون أو مليار سلبي أو أيّ رقم آخر) إلى دالة sigmoid وسيظلّ الناتج ضمن النطاق المحدود. يظهر الرسم البياني لدالة التنشيط السينية على النحو التالي:

رسم بياني منحني ثنائي الأبعاد بقيم x تتراوح بين ما يلي:
          ما لا نهاية إلى موجب، بينما تتراوح قيم y بين 0 تقريبًا
          و1 تقريبًا. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

لدالة السينية العديد من الاستخدامات في تعلُّم الآلة، بما في ذلك:

مقياس التشابه

#clustering

في خوارزميات التجميع العنقودي، هو المقياس المستخدَم لتحديد مدى تشابه أي مثالَين.

برنامج واحد / بيانات متعدّدة (SPMD)

أسلوب التوازي الذي يتم فيه تنفيذ العملية الحسابية نفسها على بيانات إدخال مختلفة بالتوازي على أجهزة مختلفة هدف SPMD هو الحصول على نتائج بشكل أسرع. وهو النمط الأكثر شيوعًا للبرمجة الموازية.

الثبات الحجمي

#image

في مشكلة تصنيف الصور، هي قدرة الخوارزمية على تصنيف الصور بنجاح حتى في حال تغيُّر حجمها. على سبيل المثال، يظل بإمكان الخوارزمية التعرّف على قطة سواء كانت تستهلك مليونَي بكسل أو 200 ألف بكسل. يُرجى العِلم أنّ أفضل خوارزميات تصنيف الصور لا تزال لها حدود عملية في ما يتعلق بعدم الاعتماد على الحجم. على سبيل المثال، من غير المرجّح أن تحدّد الخوارزمية (أو الإنسان) بشكل صحيح محتوى صورة قطة تستهلك 20 بكسل فقط.

اطّلِع أيضًا على الثبات الانتقالي و الثبات الدوراني.

الرسم

#clustering

في التعلم الآلي غير المُوجَّه، يشير ذلك المصطلح إلى فئة من الخوارزميات التي تُجري تحليلاً أوليًا للتشابه في الأمثلة. تستخدِم خوارزميات الرسم دالة تجزئة حسّاسة للموقع الجغرافي لتحديد النقاط التي يُحتمل أن تكون متشابهة، ثم تجميعها في مجموعات.

تؤدي ميزة "التقسيم إلى أقسام" إلى تقليل العمليات الحسابية المطلوبة لعمليات احتساب التشابه في مجموعات البيانات الكبيرة. بدلاً من احتساب التشابه لكل مزدوجة من الأمثلة في مجموعة البيانات، لا نحسب التشابه إلا لكل مزدوجة من النقاط ضمن كل مجموعة.

skip-gram

#language

نمط n-gram الذي قد يحذف (أو "يتخطّى") كلمات من السياق الأصلي، ما يعني أنّ الكلمات N قد لا تكون متجاورة في الأصل بعبارة أدق، "ن-غرام بفاصل k" هو ن-غرام قد تم تخطّي ما يصل إلى k كلمة فيه.

على سبيل المثال، تحتوي العبارة "the quick brown fox" على الثنائيات التالية المحتمَلة:

  • "السريع"
  • "quick brown"
  • "ثعلب بني"

"الثنائية ذات الفاصل الواحد" هي عبارة عن زوج من الكلمات تفصل بينهما كلمة واحدة كحد أقصى. لذلك، يحتوي المحتوى "the quick brown fox" على المقاطع التالية التي تتكوّن من كلمتَين مع تخطّي كلمة واحدة:

  • "the brown"
  • "ثعلب سريع"

بالإضافة إلى ذلك، تكون كل الثنائيات أيضًا ثنائيات تخطي كلمة واحدة، لأنّه قد يتم تخطي أقل من كلمة واحدة.

تكون ميزة "المقاطع التي يتم تخطّيها" مفيدة لفهم المزيد من السياق المحيط بالكلمة. في المثال، كان "الثعلب" مرتبطًا مباشرةً بـ "سريع" في مجموعة المقاطع-الثنائية-بفاصل-واحد، ولكن ليس في مجموعة المقاطع-الثنائية.

تساعد ميزة "المقاطع التي تليها" في تدريب نماذج إدراج الكلمات.

softmax

#fundamentals

دالة تحدّد احتمالات كل فئة محتملة في نموذج تصنيف متعدد الفئات. تُضاف الاحتمالات معًا لتشكل 1.0 بالضبط. على سبيل المثال، يعرض الجدول التالي كيفية توزيع دالة softmax على الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب 0.85
هرّ ‎.13
حصان 0.02

تُعرف دالة Softmax أيضًا باسم دالة Softmax الكاملة.

يختلف ذلك عن تحليل العينات المحتمَلة.

ضبط الطلبات اللطيفة

#language
#generativeAI

أسلوب لضبط نموذج لغوي كبير لمهمة معيّنة، بدون استخدام موارد مكثفة في عملية التحسين الدقيق بدلاً من إعادة تدريب كل المَعلمات في النموذج، تعمل ميزة "ضبط الطلبات اللطيفة" على تعديل الطلب تلقائيًا لتحقيق الهدف نفسه.

استنادًا إلى طلب نصي، يؤدي تعديل الطلبات الناعمة عادةً إلى إلحاق عمليات إدراج رموز إضافية بالطلب واستخدام الانتشار العكسي لتحسين الإدخال.

يحتوي الطلب "الصعِب" على رموز مميّزة فعلية بدلاً من عمليات إدراج الرموز المميّزة.

خاصية متناثرة

#language
#fundamentals

سمة تكون قيمها غالبًا صفرًا أو فارغة على سبيل المثال، تكون الميزة التي تحتوي على قيمة 1 واحدة ومليون قيمة 0 متباعدة. في المقابل، تحتوي الميزة الكثيفة على قيم تكون في الغالب غير صفرية أو فارغة.

في مجال تعلُّم الآلة، هناك عدد كبير من الميزات المتفرقة. وتكون الميزات الفئوية عادةً ميزات متناثرة. على سبيل المثال، من بين 300 نوع من الأشجار المحتملة في الغابة، قد يحدِّد مثال واحد شجرة قيقب فقط. أو من بين ملايين الفيديوهات المحتمَلة في مكتبة فيديوهات، قد يحدِّد مثال واحد فقط "الدار البيضاء".

في النموذج، يتم عادةً تمثيل الميزات المتفرقة باستخدام التشفير الثنائي. إذا كان التشفير الواحد النشط كبيرًا، يمكنك وضع طبقة إدراج فوق التشفير الواحد النشط لتحقيق كفاءة أكبر.

تمثيل متناثر

#language
#fundamentals

تخزين المواضع للعناصر غير الصفرية فقط في سمة متفرّقة

على سبيل المثال، لنفترض أنّ سمة تصنيفية باسم species تحدّد 36 نوعًا من الأشجار في غابة معيّنة. لنفترض أيضًا أنّ كل مثال يحدّد نوعًا واحدًا فقط.

يمكنك استخدام متجه أحادي القيمة لتمثيل أنواع الأشجار في كل مثال. سيحتوي المتجه أحادي القيمة على 1 واحد (لتمثيل أنواع الأشجار المحدّدة في هذا المثال) و35 0 (لتمثيل أنواع الأشجار الـ 35 غير المُدرَجة في هذا المثال). وبالتالي، قد يبدو التمثيل الثنائي المميّز لـ maple على النحو التالي:

متجه يكون فيه الموضع 0 إلى 23 يحمل القيمة 0، والموضع
          24 يحمل القيمة 1، والموضع 25 إلى 35 يحمل القيمة 0

بدلاً من ذلك، سيحدِّد التمثيل المتفرق ببساطة موضع الأنواع المحدّدة. إذا كان maple في الموضع 24، سيكون التمثيل المتناثر maple على النحو التالي:

24

يُرجى ملاحظة أنّ التمثيل المتفرق أكثر كثافة من التمثيل المميّز بقيمة واحدة.

متّجه متناثر

#fundamentals

متجه تكون قيمه صفرًا في الغالب راجِع أيضًا سمة المتخلّلة والتخلّل.

مقياس التناثر

عدد العناصر التي تم ضبطها على القيمة صفر (أو فارغة) في متجه أو مصفوفة مقسومًا على إجمالي عدد الإدخالات في هذا المتجه أو المصفوفة على سبيل المثال، ضع في الاعتبار مصفوفة تتألف من 100 عنصر تحتوي فيها 98 خلية على القيمة صفر. يتم احتساب الكثافة على النحو التالي:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

تشير التراخي في الخصائص إلى التراخي في أحد خطوط الخصائص، ويشير التراخي في النموذج إلى التراخي في أوزان النموذج.

اختزال مكاني

#image

اطّلِع على الجمع.

تقسيم

#df

في شجرة القرار، اسم آخر ل شرط.

مقسِّم

#df

أثناء تدريب شجرة قرارات، يكون الإجراء (والخوارزمية) مسؤولاً عن العثور على أفضل شرط في كل عقدة.

SPMD

اختصار برنامج واحد / بيانات متعددة.

تربيع الخسارة المفصلية

تربيع الخسارة المفصلية. تفرض "خسارة المفصلية المربّعة" عقوبات على القيم الشاذة أكثر من "خسارة المفصلية" العادية.

الخسارة التربيعية

#fundamentals

مرادف لخسارة L2.

التدريب على مراحل

#language

منهج لتدريب نموذج في تسلسل من المراحل المنفصلة ويمكن أن يكون الهدف هو إما تسريع عملية التدريب أو تحقيق جودة أفضل للنموذج.

في ما يلي صورة توضيحية لنهج التجميع التدريجي:

  • يحتوي "المرحلة 1" على 3 طبقات مخفية، و"المرحلة 2" على 6 طبقات مخفية، و"المرحلة 3" على 12 طبقة مخفية.
  • يبدأ الطور 2 التدريب باستخدام الأوزان التي تم تعلّمها في الطبقات المخفية الثلاث للطور 1. تبدأ المرحلة 3 التدريب باستخدام الأوزان التي تم تعلّمها في ال6 طبقات المخفية للمرحلة 2.

ثلاث مراحل، وهي المرحلة 1 والمرحلة 2 والمرحلة 3
          يحتوي كلّ مرحلة على عدد مختلف من الطبقات: تحتوي المرحلة 1 على
          3 طبقات، وتحتوي المرحلة 2 على 6 طبقات، وتحتوي المرحلة 3 على 12 طبقة.
          تصبح الطبقات الثلاث من المرحلة 1 هي الطبقات الثلاث الأولى من المرحلة 2.
          وبالمثل، تصبح الطبقات الست من المرحلة 2 هي الطبقات الست الأولى من
          المرحلة 3.

اطّلِع أيضًا على المعالجة المخطّط لها.

الولاية

#rl

في التعلّم التعزيزي، هي قيم المَعلمات التي تصف الإعدادات الحالية للبيئة، والتي يستخدمها العامل لتحديدالإجراء.

دالة قيمة الحالة-الإجراء

#rl

مرادف لدالة Q-function.

ثابت

#fundamentals

إجراء يتم تنفيذه مرة واحدة بدلاً من تنفيذه باستمرار العبارة ثابت مرادفة للعبارة بلا إنترنت. في ما يلي الاستخدامات الشائعة للبيانات الثابتة وغير المتصلة بالإنترنت في تعلُّم الآلة:

  • النموذج الثابت (أو النموذج بلا إنترنت) هو نموذج تم تدريبه مرة واحدة ثم استخدامه لبعض الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو عملية ينشئ فيها النموذج مجموعة من التوقّعات في المرة الواحدة.

يختلف عن الإعلانات الديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

الثبات

#fundamentals

سمة لا تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، تُظهر الميزة التي تبدو قيمها متماثلة تقريبًا في عامَي 2021 و 2023 ثباتًا.

في العالم الواقعي، تظهر سمات قليلة جدًا ثباتًا. حتى الميزات التي تشير إلى الاستقرار (مثل مستوى سطح البحر) تتغيّر بمرور الوقت.

يُرجى الاطّلاع على عدم الاستقرار.

خطوة

تمرير للأمام وتمرير للخلف لدفعة واحدة

اطّلِع على الانتشار العكسي للخطأ للحصول على مزيد من المعلومات عن التمرير الأمامي والتمرير الخلفي.

حجم الخطوة

مرادف لمعدّل التعلّم

النزول المتدرّج العشوائي

#fundamentals

خوارزمية التدرّج الهابط التي يكون فيها حجم الحزمة واحدًا بعبارة أخرى، يتم تدريب دالة SGD على مثال واحد يتم اختياره بشكل موحّد وبطريقة عشوائية من مجموعة تدريب.

خطوة

#image

في عملية تحويل تلافعي أو تجميع، الاختلاف في كل سمة من سمات السلسلة التالية من شرائح الإدخال على سبيل المثال، يوضّح المخطّط المتحرّك التالي خطوة (1،1) أثناء عملية تحويلية. لذلك، تبدأ شريحة الإدخال التالية في موضع واحد على يسار شريحة الإدخال السابقة. عندما تصل العملية إلى الحافة اليمنى، يتم نقل الشريحة التالية بالكامل إلى اليسار ولكن بمقدار موضع واحد للأسفل.

مصفوفة إدخال 5×5 وفلتر تفافي 3×3 بما أنّ
     الخطوة هي (1,1)، سيتم تطبيق فلتر تجميعي 9 مرات. تقيِّم الشريحة التراكمية الأولى
     المصفوفة الفرعية 3×3 في أعلى يمين مصفوفة
     الإدخال. تقيِّم الشريحة الثانية المصفوفة الفرعية 3×3
     في أعلى منتصف الجدول. يقيّم القسم التجميعي الثالث المصفوفة الفرعية 3×3
     في أعلى يسار الصورة.  تقيِّم الشريحة الرابعة المصفوفة الفرعية 3×3 في منتصف يمين الجدول.
     يُقيّم الجزء الخامس المصفوفة الفرعية الوسطى 3×3. يُقيّم الجزء السادس
     المصفوفة الفرعية 3×3 في منتصف اليمين. تقيِّم الشريحة السابعة
     المصفوفة الفرعية 3×3 في أسفل يمين الشاشة.  يُقيّم الجزء الثامن
     المصفوفة الفرعية 3×3 في أسفل الوسط. تقيِّم الشريحة التاسعة المصفوفة الفرعية 3×3
     في أسفل يسار الصورة.

يوضّح المثال السابق خطوة ثنائية الأبعاد. إذا كانت مصفوفة السلسلة المدخلة ثلاثية الأبعاد، ستكون الخطوة أيضًا ثلاثية الأبعاد.

تقليل المخاطر البنيوية (SRM)

خوارزمية توازن بين هدفَين:

  • الحاجة إلى إنشاء النموذج الأكثر توقّعًا (على سبيل المثال، أدنى خسارة)
  • الحاجة إلى إبقاء النموذج بسيطًا قدر الإمكان (على سبيل المثال، استخدام أسلوب التسوية القوي)

على سبيل المثال، دالة تقلّل من الخسارة + التنظيم في مجموعة التدريب هي خوارزمية لتقليل المخاطر البنيوية.

يختلف ذلك عن تقليل المخاطر التجريبية.

جمع عيّنات جزئية

#image

اطّلِع على الجمع.

رمز مميز للكلمة الفرعية

#language

في النماذج اللغوية، العنصر هو سلسلة فرعية من كلمة، وقد تكون الكلمة بأكملها.

على سبيل المثال، قد يتم تقسيم كلمة مثل "itemize" إلى القطع "item" (كلمة أصلية) و "ize" (لاحقة)، ويتم تمثيل كل منهما بعلامة خاصة به. إنّ تقسيم الكلمات غير الشائعة إلى أجزاء كهذه، والتي تُعرف باسم الكلمات الفرعية، يسمح لنماذج اللغة بالعمل على الأجزاء الأكثر شيوعًا من الكلمة، مثل البادئات واللاحقات.

في المقابل، قد لا يتم تقسيم الكلمات الشائعة مثل "going" وقد يتم تمثيلها برمز موحّد.

الملخّص

#TensorFlow

في TensorFlow، قيمة أو مجموعة من القيم يتم احتسابها في خطوة معيّنة، وتُستخدَم عادةً لتتبُّع مقاييس النموذج أثناء التدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من السمات وتصنيفاتها المقابلة يشبه تعلُّم الآلة الخاضع للإشراف تعليم موضوع معيّن من خلال دراسة مجموعة من الأسئلة والاطلاع على إجاباتها المقابلة. بعد أن يتقن الطالب عملية الربط بين الأسئلة والكلمات الإجابية، يمكنه بعد ذلك تقديم إجابات عن أسئلة جديدة (لم يسبق له الاطّلاع عليها) حول الموضوع نفسه.

قارِن ذلك مع تعلُّم الآلة غير المراقَب.

خاصية مصطنعة

#fundamentals

عنصر غير متوفّر بين عناصر الإدخال، ولكن تمّ تجميعه من عنصر واحد أو أكثر منها. تشمل طرق إنشاء ميزات اصطناعية ما يلي:

  • تجميع سمة مستمرة في مجموعات نطاقات
  • إنشاء تداخل ميزات
  • ضرب (أو قسمة) قيمة سمة واحدة في قيم سمات أخرى أو في نفسها على سبيل المثال، إذا كانت a وb سمتَي إدخال، إليك أمثلة على السمات الاصطناعية:
    • ab
    • a2
  • تطبيق دالة لامتناهية على قيمة سمة على سبيل المثال، إذا كان c سمة إدخال، في ما يلي أمثلة على السمات التركيبية:
    • sin(c)
    • ln(c)

لا تُعتبر الميزات التي تم إنشاؤها من خلال التسوية أو التكبير/التصغير وحدها ميزات اصطناعية.

T

T5

#language

نموذج تعلُّم الاستيعاب للتحويل من نص إلى نص الذي طرحته تكنولوجيات الذكاء الاصطناعي من Google في عام 2020 ‫T5 هو نموذج ترميز-فك ترميز، استنادًا إلى بنية Transformer، تم تدريبه على مجموعة ข้อมูล كبيرة جدًا. وهي فعّالة في مجموعة متنوعة من مهام معالجة اللغات الطبيعية، مثل إنشاء النصوص وترجمة اللغات والإجابة عن الأسئلة بطريقة حوارية.

يُستمَد اسم T5 من الأحرف الخمسة في "Text-to-Text Transfer Transformer".

T5X

#language

إطار عمل مفتوح المصدر لتعلُّم الآلة مصمّم لإنشاء نماذج معالجة لغات طبيعية (NLP) على نطاق واسع وتدريبها يتم تنفيذ T5 على قاعدة بيانات T5X (التي يتم إنشاؤها استنادًا إلى JAX وFlax).

التعلم التدرّجي للتقييمات

#rl

في التعلُّم التعزيزي، يتم تنفيذ التعلُّم باستخدام نموذج Q باستخدام جدول لتخزين دوالّ Q لكلّ تركيبة من الحالة والإجراء.

الاستهداف

مرادف لـ التصنيف.

الشبكة المستهدَفة

#rl

في التعرّف العميق على Q، هي شبكة عصبية تقريبية مستقرة للشبكة العصبية الرئيسية، حيث تنفِّذ الشبكة العصبية الرئيسية إما وظيفة Q أو سياسة. بعد ذلك، يمكنك تدريب الشبكة الرئيسية على قيم Q التي توقّعها الشبكة المستهدفة. وبالتالي، يمكنك منع حلقة الملاحظات والآراء التي تحدث عندما يتم تدريب الشبكة الرئيسية على قيم Q التي تتوقّعها بنفسها. ومن خلال تجنُّب هذه الملاحظات، يزداد ثبات التدريب.

مهمة

مشكلة يمكن حلّها باستخدام تقنيات تعلُّم الآلة، مثل:

درجة الحرارة

#language
#image
#generativeAI

مَعلمة فائقة تتحكّم في درجة العشوائية لمخرجات النموذج تؤدي درجات الحرارة المرتفعة إلى زيادة العشوائية في النتائج، بينما تؤدي درجات الحرارة المنخفضة إلى تقليل العشوائية في النتائج.

يعتمد اختيار أفضل درجة حرارة على التطبيق المحدّد والخصائص المفضّلة لمخرجات النموذج. على سبيل المثال، قد تحتاج إلى رفع درجة الحرارة عند إنشاء تطبيق يُنشئ مواد إبداعية. في المقابل، من المحتمل أن تخفض درجة الحرارة عند إنشاء نموذج يصنف الصور أو النصوص لتحسين دقة النموذج واتساقه.

غالبًا ما يتم استخدام درجة الحرارة مع softmax.

البيانات حسب فترة زمنية محدّدة

البيانات المسجّلة في نقاط زمنية مختلفة على سبيل المثال، تكون مبيعات المعاطف الشتوية المسجّلة لكل يوم من أيام السنة بيانات زمنية.

Tensor

#TensorFlow

بنية البيانات الأساسية في برامج TensorFlow وحدات Tensor هي هياكل بيانات خماسية الأبعاد (حيث يمكن أن يكون N كبيرًا جدًا)، وتكون في أغلب الأحيان كميات قياسية أو متجهات أو مصفوفات. يمكن أن تحتوي عناصر مصفوفة Tensor على قيم عدد صحيح أو عدد عشري أو سلسلة.

TensorBoard

#TensorFlow

لوحة البيانات التي تعرض الملخصات المحفوظة أثناء تنفيذ برنامج واحد أو أكثر من برامج TensorFlow

TensorFlow

#TensorFlow

منصة تعلُّم آلي موزّعة على نطاق واسع ويشير المصطلح أيضًا إلى طبقة واجهة برمجة التطبيقات الأساسية في حِزمة TensorFlow، والتي تتيح العمليات الحسابية العامة على الرسومات البيانية لتدفق البيانات.

على الرغم من أنّ TensorFlow تُستخدَم بشكل أساسي للتعلم الآلي، يمكنك أيضًا استخدام TensorFlow للمهام غير المتعلّقة بالتعلم الآلي والتي تتطلّب عمليات حسابية رقمية باستخدام رسومات تدفق البيانات.

TensorFlow Playground

#TensorFlow

برنامج يعرض بصريًا مدى تأثير المَعلمات الفائقة المختلفة في تدريب النموذج (الشبكة العصبية بشكل أساسي). انتقِل إلى http://playground.tensorflow.org لتجربة TensorFlow Playground.

منصة TensorFlow للعرض

#TensorFlow

منصة لنشر النماذج المدربة في مرحلة الإنتاج

وحدة معالجة الموتّرات (TPU)

#TensorFlow
#GoogleCloud

دائرة متكاملة خاصة بالتطبيق (ASIC) تعمل على تحسين أداء أعباء عمل تعلُّم الآلة. يتم نشر هذه الدوائر المتكاملة الخاصة بالتطبيقات على هيئة شرائح TPU متعدّدة على جهاز TPU.

ترتيب المتّجه

#TensorFlow

اطّلِع على rank (Tensor).

شكل المتّجه

#TensorFlow

عدد العناصر التي يحتوي عليها Tensor في سمات مختلفة. على سبيل المثال، يكون شكل مصفوفة [5, 10] Tensor هو 5 في سمة واحدة و10 في سمة أخرى.

حجم المتّجه

#TensorFlow

إجمالي عدد القيم السلفية التي يحتوي عليها Tensor على سبيل المثال، حجم ملف [5, 10] Tensor هو 50.

TensorStore

مكتبة لقراءة و كتابة مصفوفات كبيرة متعددة الأبعاد بكفاءة

شرط الإنهاء

#rl

في التعلم التعزيزي، هي الشروط التي تحدد متى تنتهي الحلقة، مثل عندما يصل الوكيل إلى حالة معيّنة أو يتجاوز حدًا معيّنًا لعدد عمليات النقل بين الحالات. على سبيل المثال، في لعبة تيك تاك تو (المعروفة أيضًا باسم "صفر واحد")، تنتهي الحلقة عندما يضع أحد اللاعبين علامة على ثلاثة مربّعات متتالية أو عندما يتم وضع علامة على كلّ المربّعات.

اختبار

#df

في شجرة القرار، اسم آخر ل شرط.

خسارة الاختبار

#fundamentals

مقياس يمثّل الخسارة للنموذج مقارنةً بمجموعة الاختبار عند إنشاء نموذج، تحاول عادةً تقليل الخسارة في الاختبار. ويعود السبب في ذلك إلى أنّ انخفاض خسارة الاختبار يمثّل إشارة جودة أقوى من انخفاض خسارة التدريب أو انخفاض خسارة التحقّق.

في بعض الأحيان، يشير الاختلاف الكبير بين خسارة الاختبار وخسارة التدريب أو خسارة التحقّق إلى أنّه عليك زيادة معدّل التنظيم.

مجموعة الاختبار

مجموعة فرعية من مجموعة البيانات المحجوزة لاختبار نموذج تم تدريبه

في العادة، تقسم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية التالية المميّزة:

يجب أن ينتمي كل مثال في مجموعة بيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كلّ من مجموعة التدريب و مجموعة الاختبار.

ترتبط كلّ من مجموعة التدريب ومجموعة التحقّق ارتباطًا وثيقًا بتدريب النموذج. وبما أنّ مجموعة الاختبار مرتبطة بشكل غير مباشر فقط بالتدريب، فإنّ الخسارة في الاختبار هي مقياس أقل تحيزًا وذو جودة أعلى من الخسارة في التدريب أو الخسارة في التحقّق.

نطاق النص

#language

نطاق فهرس الصفيف المرتبط بقسم فرعي معيّن من سلسلة نصية. على سبيل المثال، تشغل الكلمة good في سلسلة Python s="Be good now" نطاق النص من 3 إلى 6.

tf.Example

#TensorFlow

ملف تخزين بروتوكول عادي لوصف بيانات الإدخال لتدريب نموذج تعلُّم الآلة أو الاستنتاج

tf.keras

#TensorFlow

تنفيذ Keras مدمج في TensorFlow

الحدّ (لأشجار القرارات)

#df

في شرط مُحاذاً للمحور، هي القيمة التي تتم المقارنة بينها والعنصر. على سبيل المثال، 75 هي قيمة الحدّ الأدنى في الشرط التالي:

grade >= 75

تحليل السلاسل الزمنية

#clustering

حقل فرعي من تعلُّم الآلة والإحصاءات يحلِّل البيانات الزمنية. تتطلّب العديد من أنواع مشاكل تعلُّم الآلة تحليل السلاسل الزمنية، بما في ذلك التصنيف والتجميع والتوقّعات واكتشاف القيم الشاذة. على سبيل المثال، يمكنك استخدام تحليل السلاسل الزمنية لتوقّع المبيعات المستقبلية للمعاطف الشتوية حسب الشهر استنادًا إلى بيانات المبيعات السابقة.

خطوة الوقت

#seq

خلية واحدة "غير ملفوفة" ضمن شبكة عصبية متكررة. على سبيل المثال، يعرض الشكل التالي ثلاث مراحل زمنية (مُصنَّفة باستخدام البادئات t-1 وt وt+1):

ثلاث مراحل زمنية في شبكة عصبية متكررة تصبح ناتج
          الخطوة الزمنية الأولى مدخلًا للخطوة الزمنية الثانية. يصبح الناتج
          للخطوة الزمنية الثانية مدخلاً للخطوة الزمنية الثالثة.

رمز مميّز

#language

في النموذج اللغوي، هي الوحدة الأساسية التي يتم تدريب النموذج عليها وإجراء التوقّعات استنادًا إليها. عادةً ما يكون الرمز المميّز أحد يليه:

  • كلمة: على سبيل المثال، تتألف العبارة "الكلاب تحب القطط" من ثلاثة علامات كلمات: "الكلاب" و"تحب" و "القطط".
  • حرف، على سبيل المثال، تتألف العبارة "دراجة سمكة" من تسعة رموز أحرف. (يُرجى العِلم أنّ المسافة الفارغة تُحتسَب كأحد الرموز).
  • الكلمات الفرعية: يمكن أن تكون الكلمة الواحدة عبارة عن رمز موحّد أو رموز متعدّدة. تتكوّن الكلمة الفرعية من كلمة أصلية أو بادئة أو لاحقة. على سبيل المثال، قد يعرض نموذج اللغة الذي يستخدم الكلمات الفرعية كعناصر مميزة الكلمة "كلاب" كعنصرَين مميزَين (الكلمة الأساسية "كلب" واللاحقة "س" للجمع). قد ينظر نموذج اللغة نفسه إلى الكلمة الواحدة "أطول" على أنّها كلمتان فرعيتان (الكلمة الأساسية "طويل" واللاحقة "er").

في النطاقات خارج النماذج اللغوية، يمكن أن تمثّل الرموز أنواعًا أخرى من الوحدات الأساسية. على سبيل المثال، في مجال الرؤية الحاسوبية، قد يكون الرمز المميّز مجموعة فرعية من الصورة.

دقة أفضل k

#language

النسبة المئوية لعدد المرات التي يظهر فيها "تصنيف مستهدَف" ضمن أوّل ك موضع من القوائم التي تم إنشاؤها. يمكن أن تكون القوائم اقتراحات مخصّصة أو قائمة بالعناصر مرتبة حسب softmax.

تُعرف دقة أفضل k عناصر أيضًا باسم الدقة عند k.

برج

مكوّن من شبكة عصبية عميقة وهو شبكة عصبية عميقة بحد ذاته. في بعض الحالات، يقرأ كل برج من مصدر بيانات مستقل، وتظل هذه الأبراج مستقلة إلى أن يتم دمج النتائج في طبقة نهائية. في حالات أخرى (على سبيل المثال، في برج المشفِّر والمشفِّر ل العديد من المحوِّلات)، تكون الأبراج متصلة ببعضها.

لغة غير لائقة

#language

درجة مساءة المحتوى أو تهديده أو إساءته يمكن للعديد من نماذج تعلُّم الآلة تحديد المحتوى السام وقياسه. ترصد معظم هذه النماذج المحتوى الضار استنادًا إلى مَعلمات متعدّدة، مثل مستوى اللغة المسيئة ومستوى اللغة المهددة.

TPU

#TensorFlow
#GoogleCloud

اختصار وحدة معالجة الموتّرات.

شريحة TPU

#TensorFlow
#GoogleCloud

مسرع قابل للبرمجة للجبر الخطي مع ذاكرة عالية النطاق على الشريحة محسَّنة لأحمال عمل تعلُّم الآلة يتم نشر شرائح TPU متعددة على جهاز TPU.

جهاز TPU

#TensorFlow
#GoogleCloud

لوحة دوائر كهربائية مطبوعة (PCB) تتضمّن عدّة شرائح TPU، وواجهات شبكة ذات نطاق تردد عالٍ، وأجهزة لتبريد النظام

وحدة معالجة الموتّرات الرئيسية

#TensorFlow
#GoogleCloud

عملية التنسيق المركزية التي تعمل على جهاز مضيف وتُرسِل ويتلقّى من خلاله البيانات والنتائج والبرامج والأداء ومعلومات صحة النظام ويُرسِلها إلى عمال وحدات معالجة الموتّرات يدير "جهاز التحكّم الرئيسي في TPU" أيضًا عملية إعداد أجهزة TPU وإيقافها.

عقدة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

مورد وحدة معالجة موتّرات على Google Cloud مع نوع وحدة معالجة موتّرات محدّد تتصل عقدة TPU ب شبكة VPC من شبكة VPC ندّية. عقد TPU هي مورد محدّد في Cloud TPU API.

مجموعة وحدات معالجة الموتّرات

#TensorFlow
#GoogleCloud

إعدادات محدّدة لأجهزة TPU في أحد مراكز بيانات Google تكون جميع الأجهزة في مجموعة TPU متصلة ببعضها عبر شبكة مخصّصة عالية السرعة. مجموعة وحدات معالجة الموتّرات هي أكبر إعداد لأجهزة TPU المتاحة لإصدار معيّن من TPU.

مورد وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

عنصر وحدة معالجة TPU على Google Cloud الذي تنشئه أو تديره أو تستخدِمه. على سبيل المثال، عقد TPU وأنواع TPU هي موارد TPU.

شريحة TPU

#TensorFlow
#GoogleCloud

شريحة TPU هي جزء جزئي من أجهزة TPU في مجموعة TPU. تكون جميع الأجهزة في شريحة TPU متصلة ببعضها عبر شبكة مخصّصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

إعدادات جهاز TPU واحد أو أكثر باستخدام إصدار محدّد لأجهزة TPU يمكنك اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة وحدة معالجة الموتّرات على Google Cloud. على سبيل المثال، v2-8 نوع وحدة معالجة الموتّرات هو جهاز TPU v2 واحد مزوّد بـ 8 نوى. يتضمّن نوع v3-2048 من وحدات TPU ‏256 وحدة TPU v3 متصلة بشبكة وإجمالي 2048 نواة. أنواع وحدات معالجة الموتّرات هي موارد يتم تحديدها في Cloud TPU API.

عامل وحدة معالجة التعرّف على الصور

#TensorFlow
#GoogleCloud

عملية يتم تشغيلها على جهاز مضيف وتنفيذ برامج تعلُّم الآلة على أجهزة TPU

التدريب

#fundamentals

عملية تحديد المَعلمات المثالية (الأوزان والتأثيرات المسبقة) التي تتألف منها النموذج أثناء التدريب، يقرأ النظام عيّنات ويضبط المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل الخسارة للنموذج أثناء دورة تدريب معيّنة على سبيل المثال، لنفترض أنّ دالة الخسارة هي متوسط الخطأ التربيعي. قد يكون فقدان التدريب (متوسط الخطأ التربيعي) للتكرار 10 هو 2.2، وفقدان التدريب للتكرار 100 هو 1.9.

يوضِّح منحنى الخسارة خسارة التدريب مقارنةً بعدد المرات المتكرّرة. يوفّر منحنى الخسارة التلميحَين التاليَين عن التدريب:

  • يشير الانحدار إلى الأسفل إلى أنّ النموذج يتحسّن.
  • يشير الانحدار التصاعدي إلى أنّ أداء النموذج يزداد سوءًا.
  • يشير المنحدر المستوي إلى أنّ النموذج وصل إلى مرحلة التقارب.

على سبيل المثال، يوضّح منحنى الخسارة التالي الذي يُعدّ مثاليًا إلى حدٍ ما ما يلي:

  • منحدر حادّ للأسفل أثناء النُسخ الأولية، ما يشير إلى تحسين النموذج بسرعة.
  • منحدر مسطّح تدريجيًا (ولكن لا يزال ينخفض) حتى قرب نهاية العملية التدريب، ما يشير إلى استمرار تحسين النموذج بوتيرة أبطأ إلى حد ما مقارنةً بالتكرارات الأولية
  • منحدر مستوٍ باتجاه نهاية التدريب، ما يشير إلى التقارب

رسم بياني لخسارة التدريب في مقابل التكرارات يبدأ منحنى الخسارة هذا
    بانحدار حاد للأسفل. يصبح الميل تدريجيًا مسطّحًا إلى أن يصبح الميل
    صفرًا.

على الرغم من أنّ فقدان البيانات أثناء التدريب مهم، يمكنك أيضًا الاطّلاع على التعميم.

الانحراف في عرض البيانات التدريبية

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء التقديم

مجموعة التدريب

#fundamentals

مجموعة فرعية من مجموعة البيانات المستخدَمة لتدريب نموذج.

يتم تقسيم الأمثلة في مجموعة البيانات عادةً إلى المجموعات الفرعية التالية المميّزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

مسار

#rl

في التعلم التعزيزي، تشير تسلسلات المجموعات إلى تسلسل حالات انتقال العامل، حيث تتوافق كل مجموعة مع الحالة والإجراء المكافأة والحالة التالية لعملية انتقال حالة معيّنة.

التعلّم القائم على نقل المهام

نقل المعلومات من مهمة تعلُّم آلي إلى أخرى على سبيل المثال، في التعلم المتعدّد المهام، يحلّ نموذج واحد مهام متعددة، مثل النموذج العميق الذي يتضمّن عقد إخراج مختلفة للقيام ب tasks مختلفة. قد يشمل التعلّم بالاستناد إلى البيانات السابقة نقل المعرفة من حلّ مهمة أبسط إلى مهمة أكثر تعقيدًا، أو نقل المعرفة من مهمة تتوفّر فيها بيانات أكثر إلى مهمة تتوفّر فيها بيانات أقل.

تعمل معظم أنظمة تعلُّم الآلة على حلّ مهمة واحدة. يُعدّ التعلّم التحويلي خطوة أولى نحو الذكاء الاصطناعي، حيث يمكن لبرنامج واحد حلّ مهام متعددة.

المحوّل

#language

بنية شبكة عصبية تم تطويرها في Google والتي تعتمد على آليات التركيز الذاتي لتحويل تسلسل من عمليات إدراج الإدخال إلى تسلسل من عمليات إدراج المخرج بدون الاعتماد على عمليات التفاف أو الشبكات العصبية المتكررة. يمكن النظر إلى نموذج Transformer على أنّه حزمة من طبقات الانتباه الذاتي.

يمكن أن يتضمّن المحوِّل أيًا مما يلي:

يحوّل برنامج الترميز تسلسلًا من عمليات التضمين إلى تسلسل جديد بالطول نفسه. يتضمّن برنامج الترميز N طبقات متطابقة، تحتوي كلّ طبقة منها على مرحلتين فرعيتين. يتم تطبيق هاتين الطبقتين الفرعيتين في كل موضع من تسلسل إدراج الإدخال، ما يحوّل كل عنصر من التسلسل إلى إدراج جديد. تجمع الطبقة الفرعية الأولى من برنامج الترميز المعلومات من ملف ملف السلسلة. تحوّل الطبقة الفرعية الثانية من برنامج الترميز المعلومات المُجمَّعة إلى عنصر إدراج في الإخراج.

يحوّل المشفِّر تسلسلًا من عمليات إدراج الإدخال إلى تسلسل من عمليات إدراج الإخراج، وقد يكون طوله مختلفًا. يتضمّن أداة فك التشفير أيضًا N طبقات متطابقة تحتوي على ثلاث طبقات فرعية، تشبه طبقتاً منها الطبقات الفرعية لأداة التشفير. تأخذ الطبقة الفرعية الثالثة لفك التشفير ناتج التشفير وتطبّق آلية التركيز الذاتي لجمع المعلومات منه.

تقدّم مشاركة المدونة Transformer: A Novel Neural Network Architecture for Language Understanding مقدمة جيدة عن نموذج التحويل.

الثبات الانتقالي

#image

في مشكلة تصنيف الصور، هي قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغيّر موضع الأجسام داخل الصورة. على سبيل المثال، لا يزال بإمكان الخوارزمية التعرّف على كلب، سواء كان في وسط الإطار أو على يمينه.

اطّلِع أيضًا على الثبات الحجمي و الثبات الدوراني.

ثلاثي الأحرف

#seq
#language

نمط تحليلي من وحدات أساسية حيث يكون N=3

سالب صحيح (TN)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة السلبية. على سبيل المثال، يستنتج النموذج أنّ رسالة بريد إلكتروني معيّنة ليست رسالة غير مرغوب فيها، وأنّ رسالة البريد الإلكتروني هذه هي ليست رسالة غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة الموجبة. على سبيل المثال، يستنتج النموذج أنّه هناك رسالة إلكترونية معيّنة غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية غير مرغوب فيها حقًا.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف لـ الرجوع. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

يمثّل معدل الموجب الصحيح محور y في منحنى خاصية تشغيل جهاز الاستقبال.

U

عدم المعرفة (بسمة حسّاسة)

#fairness

حالة تتوفّر فيها السمات الحسّاسة، ولكنّها غير مضمّنة في بيانات التدريب ولأنّ السمات الحسّاسة غالبًا ما تكون مرتبطة بسمات أخرى من بيانات المستخدم، قد يظلّ للنموذج الذي تم تدريبه بدون معرفة بسمة حسّاسة أثره العميق في التأثير غير المتكافئ في ما يتعلّق بهذه السمة، أو قد ينتهك قيود العدالة الأخرى.

فرط التعميم

#fundamentals

إنشاء نموذج يتمتع بقدرة ضعيفة على التوقّع لأنّه لم يرصد بشكل كامل تعقيد بيانات التدريب يمكن أن تؤدي العديد من المشاكل إلى حدوث "نقص في التطابق"، بما في ذلك:

جمع عيّنات غير كافية

إزالة عيّنات من الفئة الأكثر تمثيلاً في مجموعة بيانات غير متوازنة من حيث الفئات من أجل إنشاء مجموعة تدريب أكثر توازناً

على سبيل المثال، نأخذ مجموعة بيانات تكون فيها نسبة الفئة الأكثر تمثيلاً إلى الفئة الأقل تمثيلاً هي 20:1. للتغلب على عدم توازن الفئات هذا، يمكنك إنشاء مجموعة تدريب تتألف من جميع أمثلة الفئة القليلة التمثيل وعُشر أمثلة الفئة الأكثر تمثيلاً فقط، ما يؤدي إلى إنشاء نسبة فئات مجموعة التدريب بنسبة 2:1. وبفضل استخدام عيّنات أقل، قد تؤدي مجموعة التدريب هذه التي تمت مراعاة التوازن فيها بشكلٍ أفضل إلى إنشاء نموذج أفضل. بدلاً من ذلك، قد تحتوي هذه المجموعة التدريبية الأكثر توازناً على أمثلة غير كافية لتدريب نموذج فعّال.

يختلف ذلك عن زيادة معدل أخذ العينات.

أحادي الاتجاه

#language

نظام يقيّم فقط النص الذي يسبق قسمًا مستهدفًا من النص. في المقابل، يُقيّم النظام الثنائي الاتجاه كلاً من النص الذي يسبق قسمًا مستهدفًا من النص ويليه. اطّلِع على الاتصال الثنائي الاتجاه لمزيد من التفاصيل.

نموذج لغوي أحادي الاتجاه

#language

نموذج لغوي يستند إلى الاحتمالات فقط على الرموز التي تظهر قبل الرموز المستهدفة وليس بعدها يختلف هذا النموذج عن النموذج اللغوي الثنائي الاتجاه.

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات ولكن ليس به تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مُصنَّفة من نموذج تقييم المنزل، ولكلّ منها ثلاث ميزات ولكن بدون قيمة المنزل:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المُراقَب، يتم تدريب النماذج على أمثلة مصنّفة وإجراء توقّعات بشأن أمثلة غير مصنّفة.

في التعلم شبه المُراقَب والتعلم غير المُراقَب، يتم استخدام أمثلة غير مصنّفة أثناء التدريب.

قارِن بين المثال غير المصنّف والمثال المصنّف.

تعلُّم الآلة غير الخاضع للإشراف

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، عادةً ما تكون مجموعة بيانات غير مصنّفة

إنّ الاستخدام الأكثر شيوعًا لتقنية تعلُّم الآلة غير الخاضع للإشراف هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن أن تجمع خوارزمية التعلم الآلي غير الخاضعة للإشراف الأغاني استنادًا إلى خصائص مختلفة للموسيقى. يمكن أن تصبح المجموعات الناتجة مدخلات لخوارزميات تعلُّم الآلة الأخرى (مثل خدمة اقتراح الموسيقى). يمكن أن يساعد التجميع العنقودي في حال ندرت التصنيفات المفيدة أو عدم توفّرها. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات في فهم البيانات بشكل أفضل.

يختلف هذا النوع عن تعلُّم الآلة المراقَب.

وضع نماذج لتحسين الأداء

أسلوب وضع نماذج، يُستخدَم عادةً في التسويق، لتصميم "التأثير السببي" (المعروف أيضًا باسم "التأثير المتزايد") لمحاولة معرفة أثر "العلاج" على "فرد". وإليك مثالان:

  • قد يستخدم الأطباء وضع النماذج لزيادة التأثير من أجل توقّع انخفاض معدل الوفيات (التأثير السببي) لإجراء طبي (علاج) استنادًا إلى العمر والسجلّ الطبي للمريض (الشخص).
  • قد يستخدِم خبراء التسويق وضع نماذج لتأثير العلامة التجارية من أجل توقّع الزيادة في احتمالية إجراء عملية شراء (التأثير السببي) بسبب إعلان (العلاج) على شخص (فرد).

يختلف وضع نماذج لقياس التأثير عن التصنيف أو الانحدار في أنّ بعض التصنيفات (على سبيل المثال، نصف من التصنيفات في المعالجات الثنائية) لا تكون متوفّرة دائمًا في وضع نماذج لقياس التأثير. على سبيل المثال، يمكن أن يتلقّى المريض علاجًا أو لا يتلقّى علاجًا، وبالتالي، يمكننا فقط ملاحظة ما إذا كان المريض سيتعافى أو لا يتعافى في أحد هذين الحالتَين فقط (ولكن ليس في كليهما). تتمثل الميزة الرئيسية لنموذج التأثير في أنّه يمكنه إنشاء توقّعات للحالة غير المرصودة (الحالة البديلة) واستخدامها لاحتساب التأثير السببي.

زيادة الوزن

تطبيق وزن على فئة تمّ تقليل عيّنتها يساوي العامل الذي تمّ تقليل عيّنتها به

مصفوفة المستخدِمين

#recsystems

في أنظمة الاقتراحات، هو مصفوفة إدراج يتم إنشاؤها من خلال تحليل مصفوفة تحتوي على إشارات كامنة عن الإعدادات المفضّلة للمستخدم. يحتوي كل صف من صفائف المستخدِمين على معلومات عن القوة النسبية للإشارات الكامنة المختلفة لمستخدِم واحد. على سبيل المثال، لنفترض أنّ لدينا نظامًا يقترح الأفلام. في هذا النظام، قد تمثّل الإشارات الكامنة في مصفوفة المستخدِمين اهتمام كل مستخدِم بأنواع معيّنة من المحتوى، أو قد تكون إشارات يصعب تفسيرها وتتضمن تفاعلات معقّدة على مستوى عوامل متعدّدة.

تحتوي مصفوفة المستخدِمين على عمود لكلّ سمة كامنة وصفّ لكلّ مستخدِم. وهذا يعني أنّ مصفوفة المستخدِمين تحتوي على عدد الصفوف نفسه الذي تحتوي عليه المصفوفة المستهدَفة التي يتمّ تجزئتها. على سبيل المثال، في حال توفّر نظام اقتراح أفلام لعدد 1,000,000 مستخدم، ستتضمّن Matrix المستخدمين 1,000,000 صفًا.

V

الإثبات

#fundamentals

التقييم الأولي لجودة النموذج تتحقّق عملية التحقّق من جودة توقّعات النموذج مقارنةً ب مجموعة التحقّق.

بما أنّ مجموعة التحقّق تختلف عن مجموعة التدريب، تساعد عملية التحقّق في تجنُّب الملاءمة الزائدة.

يمكنك اعتبار تقييم النموذج مقارنةً بمجموعة التحقّق هو المحاولة الأولى للاختبار، وتقييم النموذج مقارنةً ب مجموعة الاختبار هي المحاولة الثانية للاختبار.

فقدان القيمة الصالحة

#fundamentals

مقياس يمثّل الخسارة للنموذج على مجموعة التحقّق خلال تكرار معيّن من التدريب

راجِع أيضًا منحنى التعميم.

مجموعة التحقّق

#fundamentals

مجموعة فرعية من مجموعة البيانات التي تُجري تقييمًا أولى باستخدام نموذج تم تدريبه. عادةً ما يتم تقييم النموذج المدّرب على مجموعة التحقّق عدة مرات قبل تقييم النموذج على مجموعة الاختبار.

عادةً ما تقسم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية التالية المميّزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

إسناد القيمة

عملية استبدال قيمة غير متوفّرة بقيمة بديلة مقبولة عند عدم توفّر قيمة، يمكنك إما تجاهل المثال بأكمله أو يمكنك استخدام الاستدلال على القيمة لإنقاذ المثال.

على سبيل المثال، نأخذ مجموعة بيانات تحتوي على سمة temperature من المفترض تسجيلها كل ساعة. ومع ذلك، كانت قراءة درجة الحرارة غير متاحة لساعة معيّنة. في ما يلي قسم من مجموعة البيانات:

الطابع الزمني درجة الحرارة
1680561000 10
1680564600 12
1680568200 غير متاحة
1680571800 20
1680575400 21
1680579000 21

يمكن للنظام حذف المثال غير المتوفّر أو تقدير قيمة درجة الحرارة غير المتوفّرة على أنّها 12 أو 16 أو 18 أو 20، وذلك استنادًا إلى خوارزمية الاستنتاج.

مشكلة تلاشي التدرّج

#seq

ميل منحنيات التدرّج في الطبقات المخفية المبكرة لبعض الشبكات العصبية العميقة إلى أن تصبح مسطّحة بشكل مفاجئ (منخفضة) تؤدي التدرجات الأقلّ انخفاضًا بشكلٍ متزايد إلى تغييرات أصغر في الأوزان على العقد في شبكة عصبية عميقة، ما يؤدي إلى تعلُّم قليل أو بدون تعلُّم. يصبح من الصعب أو المستحيل تدريب النماذج التي تواجه مشكلة تلاشي التدرّج. تعالج خلايا الذاكرة قصيرة المدى الطويلة هذه المشكلة.

قارِن ذلك بمشكلة التدرّج المتزايد.

أهمية المتغيّرات

#df

مجموعة من الدرجات التي تشير إلى الأهمية النسبية لكل سمة في النموذج

على سبيل المثال، ضع في الاعتبار شجرة قرارات تُقدّر أسعار المنازل. لنفترض أنّ شجرة القرار هذه تستخدم ثلاث سمات: الحجم والعمر والأسلوب. إذا تم احتساب مجموعة من قيم متغيرات الأهمية للسمات الثلاث على النحو التالي: {size=5.8, age=2.5, style=4.7}، يكون المقاس أكثر أهمية في شجرة القرار من العمر أو الطراز.

تتوفّر مقاييس مختلفة لأهمية المتغيّرات، والتي يمكن أن تُعلِم خبراء الذكاء الاصطناعي (ML) عن الجوانب المختلفة للنماذج.

الترميز التلقائي المتغيّر (VAE)

#language

نوع من المشفِّرات التلقائية التي تستفيد من الاختلاف بين المدخلات والمخرجات لإنشاء نُسخ معدَّلة من المدخلات. تكون أدوات الترميز الذاتي التفاضلية مفيدة للذكاء الاصطناعي التوليدي.

تستند نماذج VAE إلى الاستنتاج التنوّعي: وهو أسلوب لتقدير مَعلمات نموذج الاحتمالية.

المتّجه

مصطلح يحمل العديد من المعاني ويختلف معناه في مختلف المجالات الحسابية والعلمية. في مجال تعلُّم الآلة، يمتلك المتجه سمتَين:

  • نوع البيانات: عادةً ما تحتوي المتجهات في تعلُّم الآلة على أعداد بفاصل عشري.
  • عدد العناصر: هو طول المتّجه أو أبعاده.

على سبيل المثال، ضع في الاعتبار متجه ميزات يحتوي على ثمانية أرقام نقطية عائمة. يبلغ طول أو سمة متجه السمات هذا ثمانية. يُرجى العِلم أنّ متجهات تعلُّم الآلة غالبًا ما تحتوي على عدد كبير من السمات.

يمكنك تمثيل العديد من الأنواع المختلفة من المعلومات على شكل متجه. على سبيل المثال:

  • يمكن تمثيل أي موضع على سطح الأرض على أنّه اتجاه ثنائي الأبعاد، حيث يكون أحد الأبعاد هو خط العرض والآخر هو خط الطول.
  • يمكن تمثيل الأسعار الحالية لكل من 500 سهم على شكل vektor ببعد 500.
  • يمكن تمثيل طريقة توزيع الاحتمالية على عدد محدود من الفئات باستخدام متجه. على سبيل المثال، يمكن أن يعرض نظام التصنيف المتعدّد الفئات الذي يتوقّع أحد الألوان الثلاثة الناتجة (الأحمر أو الأخضر أو الأصفر) المتجه (0.3, 0.2, 0.5) للإشارة إلى P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

يمكن تسلسل المتجهات، وبالتالي يمكن تمثيل مجموعة متنوعة من الوسائط المختلفة كمتّجه واحد. تعمل بعض النماذج مباشرةً على تسلسل العديد من عمليات الترميز الأحادية.

تم تحسين المعالجات المخصّصة، مثل وحدات معالجة الوحدات الطرفية (TPU)، لإجراء عمليات حسابية على المتجهات.

الخطّ المتجه هو متجه тензорي من الترتيب 1.

واط

خسارة Wasserstein

إحدى دوالّ الخسارة المستخدَمة بشكل شائع في الشبكات التوليدية التنافسية، استنادًا إلى مسافة محوّل الأرض بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

الوزن

#fundamentals

قيمة يضربها النموذج بقيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، ويُعدّ الاستنتاج عملية استخدام هذه الأوزان المستندة إلى التعلّم بهدف التوقّعات.

المربّعات الصغرى البديلة المرجحة (WALS)

#recsystems

خوارزمية لتقليل الدالة الموضوعية أثناء تحليل المصفوفات في أنظمة الاقتراحات، ما يسمح بمحاولة تقليل أهمية الأمثلة غير المتوفّرة. تعمل تقنية WALS على تقليل الخطأ التربيعي المرجح بين المصفوفة الأصلية وإعادة الإنشاء من خلال التبديل بين إصلاح تجزئة الصفوف وتجزئة الأعمدة. يمكن حلّ كلّ من عمليات التحسين هذه باستخدام أسلوب أقلّ مربّعات التحسين المحدّد. لمعرفة التفاصيل، يُرجى الاطّلاع على دورة "أنظمة الاقتراحات".

مجموع مركّز

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في الأوزان المقابلة لها على سبيل المثال، لنفترض أنّ الإدخالات ذات الصلة تتألف مما يلي:

قيمة الإدخال وزن الإدخال
2 -1.3
-1 0.6
3 0.4

وبالتالي، فإنّ المجموع المرجح هو:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال في دالة التفعيل.

نموذج واسع

نموذج خطي يتضمّن عادةً العديد من سمات الإدخال المتفرقة. نشير إليه باسم "واسع النطاق" لأنّه يمثّل هذا النموذج نوعًا خاصًا من الشبكات العصبية التي تتضمّن عددًا كبيرًا من المدخلات التي تتصل مباشرةً بعقدة الإخراج. غالبًا ما يكون من الأسهل تصحيح أخطاء النماذج الواسعة النطاق والتحقّق منها مقارنةً بالنماذج العميقة. على الرغم من أنّ النماذج الواسعة النطاق لا يمكنها التعبير عن الوظائف غير الخطية من خلال الطبقات المخفية، يمكن للنماذج الواسعة النطاق استخدام عمليات التحويل مثل تداخل السمات والتجميع لنمذجة الوظائف غير الخطية بطرق مختلفة.

يختلف هذا النموذج عن النموذج العميق.

العرض

عدد الخلايا العصبية في طبقة معيّنة من الشبكة العصبية.

حكمة الحشود

#df

تشير هذه الفكرة إلى أنّ احتساب متوسط آراء أو تقديرات مجموعة كبيرة من الأشخاص ("الجمهور") غالبًا ما يؤدي إلى نتائج جيدة بشكل مفاجئ. على سبيل المثال، لنفترض أنّ هناك لعبة يحاول فيها المستخدمون تخمين عدد حبات الجيلي التي تم تعبئتها في وعاء كبير. على الرغم من أنّ معظم الحلول الفردية ستكون غير دقيقة، تبيّن من خلال التجارب أنّ متوسط كل الحلول يقترب بشكل مفاجئ من العدد الفعلي لحبوب النعناع في المرطبان.

المجموعات هي تقنية برمجية تستند إلى حكمة الحشود. حتى إذا كانت النماذج الفردية تقدّم توقّعات غير دقيقة على الإطلاق، فإنّ جمع توقّعات العديد من النماذج يؤدي في أغلب الأحيان إلى توقّعات جيدة بشكل مفاجئ. على سبيل المثال، على الرغم من أنّه قد تُقدّم شجرة قرار فردية تنبؤات ضعيفة، غالبًا ما تُقدّم غابة قرارات تنبؤات جيدة جدًا.

تضمين الكلمات

#language

تمثيل كل كلمة في مجموعة كلمات ضمن مصفوفة إدراج، أي تمثيل كل كلمة كأحد مصفوفات القيم الكسورية العشرية التي تتراوح بين 0.0 و1.0 إنّ الكلمات التي تحمل معاني مشابهة لها تمثيلات أكثر تشابهًا من الكلمات التي تحمل معاني مختلفة. على سبيل المثال، سيكون لكل من الجزر والهليون والخيار تمثيلات مشابهة نسبيًا، والتي ستكون مختلفة جدًا عن تمثيلات الطائرة والنظارات الشمسية ومعجون الأسنان.

X

XLA (الجبر الخطي المُسرَّع)

وهو عبارة عن برنامج ترجمة مفتوح المصدر لتعلُّم الآلة لوحدات GPU ووحدات المعالجة المركزية ووحدات تسريع تعلُّم الآلة.

يأخذ برنامج XLA Compiler النماذج من إطارات عمل تعلُّم الآلة الشائعة، مثل PyTorch و TensorFlow وJAX، ويُحسِّنها لتحقيق أداء عالٍ على منصات الأجهزة المختلفة، بما في ذلك وحدات معالجة الرسومات ووحدات المعالجة المركزية ومُسرِّعات تعلُّم الآلة.

Z

التعلّم بلا مثال

نوع من التدريب في تعلُّم الآلة حيث يُستنتج النموذج توقّعًا لمهمة لم يتم تدريبه عليها من قبل. بعبارة أخرى، لا يتم منح النموذجأمثلة تدريبية خاصة بالمهمة، ولكن يُطلب منهاستنتاج تلك المهمة.

الطلب بلا مثال

#language
#generativeAI

طلب لا يقدّم مثالاً على الردّ الذي تريده من النموذج اللغوي الكبير على سبيل المثال:

أجزاء طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "مساعد الخبراء القانونيين"
الهند: طلب البحث الفعلي

قد يردّ النموذج اللغوي الكبير بأيّ مما يلي:

  • روبية
  • INR
  • ر.ه.‏
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

جميع الإجابات صحيحة، ولكن قد تفضّل تنسيقًا معيّنًا.

قارِن بين طلبات البحث بدون أي معلومات سابقة والمصطلحات التالية:

تسوية الدرجة المعيارية

#fundamentals

أسلوب تصغير يستبدل قيمة السمة الأوّلية بقيمة عشرية تمثل عدد الانحرافات المعيارية عن متوسّط تلك السمة. على سبيل المثال، لنفترض أنّ قيمة السمة المتوسطة هي 800 وأنّ الانحراف المعياري هو 100. يوضّح الجدول التالي كيفية ربط القيمة الأولية بنتيجة الاختبار المعياري z-score باستخدام ميزة تسويّة نتيجة الاختبار المعياري:

قيمة أساسية الدرجة المعيارية
800 0
950 ‫+1.5
575 -2.25

بعد ذلك، يتم تدريب نموذج تعلُّم الآلة على نتائج اختبار Z لهذه الميزة بدلاً من القيم الأوّلية.