مسرد مصطلحات تعلُم الآلة

يحدد مسرد المصطلحات هذا المصطلحات العامة للتعلم الآلي، بالإضافة إلى المصطلحات الخاصة بـ TensorFlow.

A

الازدواج

أسلوب لتقييم أهمية ميزة أو مكوّن من خلال إزالته مؤقتًا من نموذج. يمكنك حينئذٍ إعادة تدريب النموذج بدون تلك الميزة أو المكون، وإذا تمت إعادة تدريب النموذج يعمل بشكل أسوأ بكثير، فقد تم إيقاف الميزة أو المكون الذي تمت إزالته أمرًا مهمًا على الأرجح.

على سبيل المثال، لنفترض أنّك تدرّبت على نموذج تصنيف باستخدام 10 ميزات وحقّقت دقة بنسبة %88 في مجموعة الاختبار. للتحقّق من أهمية الميزة الأولى، يمكنك إعادة تدريب النموذج باستخدام الميزات التسع الأخرى فقط. إذا كان أداء النموذج الذي تمت إعادة تدريبه أسوأ بكثير (على سبيل المثال، دقة تبلغ %55)، من المحتمل أن تكون الميزة التي تمّت إزالتها مهمة. وعلى العكس، إذا كان أداء النموذج المُعاد تدريبه جيدًا بنفس القدر، فمن المحتمل أن ليس بهذه الأهمية.

يمكن أن يساعد الاكتئاب أيضًا في تحديد أهمية ما يلي:

  • المكونات الأكبر حجمًا، مثل نظام فرعي كامل لنظام تعلُّم آلي أكبر
  • العمليات أو التقنيات، مثل خطوة المعالجة المسبقة للبيانات

وفي كلتا الحالتَين، ستلاحظ كيف يتغيّر أداء النظام (أو لا يتغيّر) بعد إزالة المكوّن.

اختبار A/B

طريقة إحصائية لمقارنة طريقتَين (أو أكثر) هما أ وب عادةً ما يكون أ أسلوبًا حاليًا، ويكون ب أسلوبًا جديدًا. لا يحدّد اختبار A/B فقط التقنية التي تحقّق أداءً أفضل، ولكنه يحدّد أيضًا ما إذا كان الفرق ذو دلالة إحصائية.

يقارن اختبار A/B عادةً مقياسًا واحدًا باستخدام طريقتَين. على سبيل المثال، كيف تختلف دقة النموذج باستخدام طريقتَين؟ ومع ذلك، يمكن أن تقارن اختبارات أ/ب أيضًا أي عدد محدود من المقاييس.

شريحة مسرع

#GoogleCloud

يشير هذا المصطلح إلى فئة من مكوّنات الأجهزة المتخصصة المصمّمة لأداء مفاتيح التشفير. العمليات الحسابية اللازمة لخوارزميات التعلم المتعمق.

يمكن أن تؤدي شرائح المعالِجات (أو المعالِجات ببساطة) إلى زيادة سرعة وكفاءة مهام التدريب والاستنتاج بشكلٍ كبير مقارنةً بوحدة المعالجة المركزية (CPU) المخصّصة للأغراض العامة. وهي مثالية لتدريب الشبكات العصبية والمهام المشابهة التي تتطلّب معالجة مكثفة.

تشمل أمثلة شرائح المعالِج ما يلي:

  • وحدات معالجة Tensor من Google (TPU) مع أجهزة مخصّصة للتعلم المتعمق.
  • على الرغم من أن وحدات معالجة الرسومات من NVIDIA مصممة في البداية لمعالجة الرسومات، لتمكين المعالجة المتوازية، والتي قد ينتج عنها وزيادة سرعة المعالجة.

الدقة

#fundamentals

عدد التوقّعات الصحيحة للتصنيف مقسومًا على إجمالي عدد التوقّعات والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، إذا كان النموذج قدّم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة، ستكون دقته على النحو التالي:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء معيّنة للفئات المختلفة من التوقعات الصحيحة عبارات بحث مقترحة غير صحيحة وبالتالي، فإنّ صيغة الدقة للتصنيف الثنائي هي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

قارِن بين الدقة و الدقّة و اكتمال التوقعات الإيجابية.

اطّلِع على التصنيف: الدقة ومعدل الاسترجاع والدقة والمقاييس المتعلّقة في الدورة التدريبية المكثّفة لتعلُّم الآلة للحصول على مزيد من المعلومات.

إجراء

#rl

في التعلُّم التعزيزي، هي الآلية التي ينتقل بها العامل بين حالات البيئة. يختار موظّف الدّعم الإجراء باستخدام سياسة.

دالّة التفعيل

#fundamentals

دالة تتيح للشبكات العصبية تعلُّمالعلاقات غير الخطية (المعقدة) بين السمات والتصنيف.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط أبدًا خطوطًا مفردة مستقيمة. على سبيل المثال، يتألف مخطط دالة تفعيل ReLU من خطين مستقيمين:

رسم بياني كارتيزيتي لخطَّين يحتوي الصف الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. يمتلك هذا الخط ميلًا موجبًا +1، لذا
          يمتد من 0,0 إلى +∞,+∞.

يظهر الرسم البياني لدالة التنشيط السينية على النحو التالي:

مخطط منحن ثنائي الأبعاد بقيم x تمتد عبر المجال
          من اللانهائية إلى +الموجب، بينما تمتد قيم ص في النطاق من 0 تقريبًا إلى
          تقريبًا 1. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

اطّلِع على الشبكات العصبية: وظائف activation في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

التعلّم النشط

نهج تدريب يمكن فيه تختار بعض البيانات التي تتعلم منها. التعلُّم النشط تكون ذات قيمة خاصة عند استخدام أمثلة مصنَّفة محدودة أو مكلفة للحصول عليها. وبدلاً من البحث الأعمى عن نظام من الأمثلة المصنَّفة، تبحث خوارزمية التعلم النشط بشكل انتقائي النطاق المحدد من الأمثلة التي يحتاجها للتعلم.

AdaGrad

وهي خوارزمية متطورة لخورازمية انحدار التدرج تعمل على إعادة تقييم تدرج لكل معلمة، ما يؤدي بشكل فعال إلى تحديد كل معلمة معدّل التعلّم المستقل. للحصول على الشرح الكامل، يُرجى الاطّلاع على هذه الأبحاث التي أجرتها "أداغراد".

وكيل

#rl

في التعلُّم التعزيزي، العنصر الذي يستخدم سياسة لتحقيق الحد الأقصى من العائد المتوقّع من الانتقال بين حالات البيئة.

بشكل عام، الوكيل هو برنامج يخطّط وينفّذ بشكل مستقل سلسلة من الإجراءات لتحقيق هدف معيّن، مع القدرة على التكيّف مع التغيُّرات في بيئته. على سبيل المثال، قد يستخدم موظّف دعم مستند إلى التعلم الآلي الضخم أسلوبًا للتعلم الآلي الضخم من أجل إنشاء خطة، بدلاً من تطبيق سياسة تعلُّم مُعزّز.

التجميع من الأسفل إلى الأعلى

#clustering

اطّلِع على التجميع الهرمي.

رصد القيم الشاذة

عملية تحديد القيم الشاذة على سبيل المثال، إذا كان المتوسط ميزة معينة هي 100 بانحراف معياري يبلغ 10، فمن المفترض أن يضع اكتشاف القيم الشاذة علامة 200 على أنها مريبة.

الأرجنتين

اختصار الواقع المعزّز.

المساحة تحت منحنى PR

يمكنك الاطّلاع على PR AUC (المنطقة التي تقع تحت منحنى PR).

المساحة تحت منحنى ROC

اطّلِع على AUC (المساحة تحت منحنى ROC).

الذكاء الاصطناعي العام

آلية غير بشرية تعرض مجموعة واسعة من حلّ المشاكل والإبداع والقدرة على التكيف. على سبيل المثال، يمكن لبرنامج يُظهر ذكاءً اصطناعيًا عامًا ترجمة النصوص وتأليف سمفونيات والتفوّق في الألعاب التي لم يتم اختراعها بعد.

الذكاء الاصطناعي

#fundamentals

برنامج أو نموذج غير بشري يمكنه حلّ مهام معقّدة على سبيل المثال، يعرض كلّ من البرنامج أو النموذج الذي يترجم النص أو البرنامج أو النموذج الذي يحدّد الأمراض من الصور الشعاعية الذكاء الاصطناعي.

من الناحية الرسمية، تعلُّم الآلة هو حقل فرعي من الذكاء الاصطناعي. ومع ذلك، في السنوات الأخيرة، بدأت بعض المؤسسات في استخدام مصطلحَي الذكاء الاصطناعي وتعلُّم الآلة بالتبادل.

تنبيه

#language

آلية مستخدمة في شبكة عصبية تشير إلى أهمية كلمة معينة أو جزء من كلمة ما. تعمل ميزة "التركيز" على ضغط مقدار المعلومات التي يحتاجها النموذج لتوقّع الرمز/الكلمة التاليَين. قد تتكون آلية الانتباه النموذجية من المجموع المرجح على مجموعة من المدخلات، حيث يتم احتساب الوزن لكل إدخال من خلال جزء آخر من الشبكة العصبية.

يمكنك أيضًا مراجعة الاهتمام الذاتي الانتباه الذاتي متعدد الرؤوس، وهي الوحدات الأساسية في المحوّلات.

اطّلِع على النماذج اللغوية الكبيرة: ما هو المقصود بالعبارة "نموذج لغوي كبير"؟ في الدورة التدريبية المكثّفة لتعلُّم الآلة للحصول على مزيد من المعلومات عن الانتباه الذاتي.

سمة

#fairness

مرادف لـ feature.

في ما يتعلّق بإنصاف تعلُّم الآلة، غالبًا ما تشير السمات إلى السمات المتعلّقة بالأفراد.

تحليل عيّنات السمات

#df

تكتيك لتدريب غابة اتخاذ القرارات حيث يتم اتخاذ كل تنظر شجرة القرار في مجموعة فرعية عشوائية فقط من البيانات المحتملة الميزات عند التعرّف على الحالة. بشكل عام، يتمّ أخذ عيّنة من مجموعة فرعية مختلفة من الميزات لكل عقدة. في المقابل، عند تدريب شجرة قرارات بدون أخذ عيّنات من السمات، يتمّ أخذ كلّ الميزات المحتمَلة في الاعتبار لكلّ عقدة.

المساحة تحت منحنى ROC

#fundamentals

رقم بين 0.0 و1.0 يمثل ونموذج التصنيف الثنائي القدرة على فصل الصفوف الإيجابية عن فئات سلبية: فكلما اقتربت قيمة AUC من 1.0، زادت قدرة النموذج على فصل الصفوف من بعضها البعض.

على سبيل المثال، يُظهر الرسم التوضيحي التالي نموذجًا لأحد المصنِّفات. يفصل الفئات الإيجابية (الأشكال البيضاوية الخضراء) عن الفئات السالبة (مستطيلات أرجوانية) تمامًا. يحقّق هذا النموذج المثالي غير الواقعي قيمة AUC تبلغ 1.0:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على أحد الجانبين
          9 أمثلة سلبية على الجانب الآخر

في المقابل، تعرض الصورة التوضيحية التالية نتائج نموذج يندرج ضمن فئة المصنّفات ويُنشئ نتائج عشوائية. يحقّق هذا النموذج قيمة AUC تبلغ 0.5:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          ويكون تسلسل الأمثلة إيجابيًا وسلبيًا
          إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي
          سلبي، إيجابي، سلبي.

نعم، تساوي قيمة AUC في النموذج السابق 0.5 وليس 0.0.

تقع معظم النماذج بين هذين الحدّين. على سبيل المثال، النموذج التالي يفصل بين الإيجابيات والسلبيات إلى حد ما، وبالتالي تتراوح قيمة AUC في مكان ما بين 0.5 و1.0:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          تسلسل الأمثلة هو سلبي، سلبي، سلبي، سلبي،
          إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي،
          إيجابي.

تتجاهل AUC أي قيمة قمت بتعيينها الحد الأدنى للتصنيف. بدلاً من ذلك، تأخذ AUC جميع عتبات التصنيف الممكنة في الاعتبار.

اطّلِع على التصنيف: مقياس ROC و AUC في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

الواقع المعزّز

#image

تكنولوجيا تُظهر صورة يتم إنشاؤها على جهاز كمبيوتر على ما يراه المستخدم من العالم الواقعي، ما يوفر عرضًا مركبًا.

برنامج ترميز تلقائي

#language
#image

نظام يتعلّم استخراج أهم المعلومات من المدخلات برامج الترميز التلقائي هي مزيج من برامج الترميز برنامج فك الترميز: تعتمد برامج الترميز التلقائي على العملية التالية المكوّنة من خطوتَين:

  1. يربط برنامج الترميز الإدخال بأبعاد أقل (عادةً) مع فقدان البيانات. (متوسط).
  2. ينشئ برنامج الترميز العكسي نسخة ذات فقدان للبيانات من الإدخال الأصلي من خلال ربط التنسيق ذي الأبعاد الأقل بتنسيق الإدخال الأصلي ذي الأبعاد الأعلى.

يتم تدريب برامج الترميز التلقائي بشكل شامل من خلال محاولة برنامج فك الترميز إعادة إنشاء الإدخال الأصلي من التنسيق المتوسط لبرنامج الترميز بأكبر قدر ممكن. وبما أنّ التنسيق الوسيط أصغر (أبعاده أقل) من التنسيق الأصلي، يتم إجبار الترميز التلقائي على معرفة المعلومات الأساسية في الإدخال، ولن يكون الإخراج متطابقًا تمامًا مع الإدخال.

على سبيل المثال:

  • إذا كانت بيانات الإدخال عبارة عن رسم، ستكون النسخة غير الدقيقة مشابهة للرسم الأصلي، ولكن تم تعديلها إلى حد ما. من المحتمل أنّ النسخة غير الدقيقة تزيل التشويش من الرسم الأصلي أو تملأ بعض البكسلات المفقودة.
  • إذا كانت بيانات الإدخال نصية، فسينشئ برنامج الترميز التلقائي نصًا جديدًا يحاكي (ولكنه ليس مطابقًا) للنص الأصلي.

راجِع أيضًا الترميز الذاتي المتغيّر.

الانحياز في التشغيل الآلي

#fairness

عندما يفضّل صانع القرار البشري الاقتراحات التي يقدّمها نظام اتّخاذ قرارات آلي على المعلومات التي يتمّ إنشاؤها بدون اتّباع إجراءات آلية، حتى في حال ارتكاب نظام اتّخاذ القرارات الآلي للأخطاء

اطّلِع على الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

AutoML

أي عملية مبرمَجة لإنشاء تعلُّم الآلة الطُرز: يمكن أن تنفّذ AutoML مهامًا تلقائيًا مثل ما يلي:

إنّ ميزة "تعلُّم الآلة الآلي" مفيدة لعلماء البيانات لأنّها يمكن أن توفر لهم الوقت والمحاولة في تطوير مسارات تعلُّم الآلة وتحسين دقة التنبؤ. كما أنها مفيدة لغير الخبراء، من خلال إضفاء التعقيد مهام التعلم الآلي بسهولة أكبر لهم.

اطّلِع على تعلُّم الآلة المبرمَج (AutoML) في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

نموذج الانحدار التلقائي

#language
#image
#generativeAI

نموذج يستنتج توقّعًا استنادًا إلى ما سبق والتنبؤات. على سبيل المثال، تتوقّع نماذج اللغة التسلسلية التلقائية العنصر التالي استنادًا إلى العناصر التي تم توقّعها سابقًا. إنّ جميع النماذج اللغوية الكبيرة المستندة إلى نموذج Transformer هي نماذج ذاتية الرجوع.

في المقابل، لا تكون نماذج الصور المستندة إلى GAN عادةً متراجِعة تلقائيًا، لأنّها تُنشئ صورة في خطوة واحدة إلى الأمام وليس بشكلٍ متكرّر في الخطوات. ومع ذلك، بعض نماذج إنشاء الصور تتحرك تلقائيًا بسبب تقوم بإنشاء صورة بخطوات.

الخسارة الثانوية

دالة فقدان—تُستخدم مع نموذج الشبكة العصبونية الأساسي الخسارة التي تساعد في تسريع التدريب أثناء والتكرارات المبكرة عندما يتم تهيئة الترجيحات بشكل عشوائي.

تدفع وظائف الخسارة المساعِدة التدرّجات الفعالة إلى الطبقات السابقة. يسهل ذلك التقارب أثناء التدريب من خلال مكافحة مشكلة التلاشي للتدرّج.

متوسّط الدقة

مقياس لتلخيص أداء تسلسل نتائج مرتَّبة. يتم احتساب متوسّط الدقة من خلال احتساب متوسّط قيم الدقة لكل نتيجة ذات صلة (كل نتيجة في القائمة المرتبطة التي يزداد فيها التذكر مقارنةً بالنتيجة السابقة).

يمكنك الاطّلاع أيضًا على المنطقة التي تقع أسفل "منحنى العلاقات العامة".

شرط مُحاذاة المحور

#df

في شجرة قرارات، شرط لا يتضمن سوى ميزة واحدة. على سبيل المثال، إذا كانت المنطقة ميزة، ما يلي عبارة عن شرط محاذاة المحور:

area > 200

التباين مع شرط المائل.

B

الانتشار العكسي

#fundamentals

الخوارزمية التي تنفِّذ انحدار التدرج في الشبكات العصبية

يتضمن تدريب شبكة عصبية العديد من المرات لدورة المرورَين التالية:

  1. أثناء الخطوة إلى الأمام، يعالج النظام مجموعة من الأمثلة لتقديم توقّعات. يقارن النظام كلّ توقّع بكل قيمة تصنيف. الفرق بين التوقّع وقيمة التصنيف هو الخسارة لهذا المثال. ويجمع النظام الخسائر لجميع الأمثلة لاحتساب العدد الإجمالي الخسارة في الدفعة الحالية.
  2. أثناء البداية والنهاية المتأخرة (الرجوع في مرحلة النشر)، يحدّ النظام من الخسارة بنسبة تعديل الأوزان لجميع الخلايا العصبية في جميع الطبقات المخفية

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات المخفية. تساهم كل خلية عصبية من هذه الخلايا في إجمالي الخسارة بطرق مختلفة. تحدِّد تقنية الانتشار العكسي ما إذا كان يجب زيادة أو خفض الأوزان المطبَّقة على خلايا عصبية معيّنة.

معدّل التعلّم هو مضاعِف يتحكّم في الدرجة التي تزيد بها كل تمريرة خلفية أو تقل عن كل وزن. سيؤدي معدّل التعلّم الكبير إلى زيادة أو خفض كلّ وزن أكثر من معدّل التعلّم الصغير.

في مصطلحات حساب التفاضل والتكامل، تؤدي عملية انعكاسية البيانات تنفيذًا لقاعدة السلسلة. من حساب التفاضل والتكامل. وهذا يعني أنّ طريقة الانتشار العكسي تحسب الناقصة الجزئية للخطأ بالاستناد إلى كل مَعلمة.

منذ سنوات، اضطر ممارسو تعلُّم الآلة إلى كتابة رموز برمجية لتنفيذ عملية انتشار العكس. تُنفِّذ الآن واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل Keras، تقنية الانتشار العكسي نيابةً عنك. أخيرًا!

اطّلِع على الشبكات العصبية في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الحزمة

#df

طريقة لتدريب مجموعة حيث يتم تدريب النموذج المؤسسي على مجموعة فرعية عشوائية من التدريب أمثلة مأخوذة كعينة مع الاستبدال. على سبيل المثال، الغابة العشوائية هي مجموعة من أشجار القرارات التي تم تدريبها باستخدام أسلوب "التجميع".

مصطلح التجميع هو اختصار لجمع البيانات من النموذج الأساسي.

الاطّلاع على صفحة الغابات العشوائية في الدورة التدريبية "غابات القرار" للحصول على مزيد من المعلومات.

مجموعة الكلمات

#language

تمثيل للكلمات في عبارة أو فقرة، بغض النظر عن الترتيب على سبيل المثال، تمثّل مجموعة الكلمات العبارات الثلاث التالية بشكلٍ متطابق:

  • الكلب يقفز
  • كلب يقفز
  • كلب يقفز

يتم ربط كل كلمة بفهرس في خطّ متجه قليل الكثافة، حيث يحتوي الخطّ المتجه على فهرس لكل كلمة في القاموس. على سبيل المثال: يتم تعيين عبارة قفز الكلب في متجه للخصائص بقيمة غير صفرية في الفهارس الثلاثة المقابلة للكلمات the وdog يقفز. يمكن أن تكون القيمة غير الصفرية أيًّا ممّا يلي:

  • A 1 للإشارة إلى وجود كلمة.
  • احتساب عدد مرّات ظهور كلمة معيّنة في الحقيبة على سبيل المثال، إذا كانت العبارة هي الكلب البني هو كلب ذو فراء بني، سيتم تمثيل كل من بني وكلب بالعدد 2، بينما سيتم تمثيل الكلمات الأخرى بالعدد 1.
  • أي قيمة أخرى، مثل اللوغاريتم لعدد المرات التي تظهر فيها كلمة في الحقيبة

خط الأساس

نموذج يُستخدم كنقطة مرجعية لمقارنة مدى نجاح (نموذج أكثر تعقيدًا عادةً). على سبيل المثال، يمكن أن يعمل نموذج الانحدار اللوجستي أساس جيد لنموذج عميق.

بالنسبة إلى مشكلة معيّنة، يساعد خط الأساس مطوّري النماذج في قياس الحد الأدنى من الأداء المتوقّع الذي يجب أن يحقّقه النموذج الجديد كي يكون مفيداً.

دفعة

#fundamentals

مجموعة الأمثلة المستخدَمة في دورة تدريبية واحدة التكرار. ويحدد حجم المجموعة عدد الأمثلة في .

يمكنك الاطّلاع على الحقبة للحصول على شرح حول علاقة الدفعة. حقبة.

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الاستنتاج المجمّع

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى عملية استنتاج التوقّعات بشأن نتائج الأمثلة غير المصنفة مقسمة إلى أصغر المجموعات الفرعية ("الدفعات").

ويمكن للاستنتاج المجمَّع أن يستفيد من خصائص التوازي شرائح مسرِّعة الأعمال: وهذا يعني أنّه يمكن لمُسرِّعات متعدّدة استنتاج توقّعات في الوقت نفسه على دفعات مختلفة من المثالين غير المصنّفة، ما يؤدي إلى زيادة عدد الاستنتاجات بشكل كبير في الثانية.

راجِع أنظمة تعلُّم الآلة للإنتاج: الثابتة في مقابل الديناميكية الاستنتاج في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

تسوية الدفعات

تسوية المُدخل أو المُخرجات دوال التفعيل في طبقة مخفية: يمكن أن تساعد تسوية الدفعة تقديم المزايا التالية:

حجم الدفعة

#fundamentals

عدد الأمثلة في مجموعة. على سبيل المثال، إذا كان حجم المجموعة 100، يعالج النموذج 100 مثال في كل جولة.

في ما يلي استراتيجيات شائعة لحجم الدُفعات:

  • النزول المتدرج العشوائي (SGD)، حيث يكون حجم المجموعة 1.
  • الدُفعة الكاملة التي يكون حجم الدُفعة فيها هو عدد الأمثلة مجموعة تدريب. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، سيكون حجم المجموعة المجمّعة مليون مثال. وعادةً ما تكون الحِزم الكاملة استراتيجية غير فعّالة.
  • دفعة صغيرة يكون فيها حجم الدُفعة عادةً بين 10 و1000. عادةً ما تكون الدفعة الصغيرة هي الاستراتيجية الأكثر فعالية.

راجع ما يلي لمزيد من المعلومات:

شبكة بايزي العصبية

شبكة عصبية احتمالية تراعيعدم اليقين في الأوزان والنواتج عادةً ما يتنبّأ نموذج الانحدار للشبكة العصبية العادية بقيمة عددية. على سبيل المثال، يتنبّأ نموذج عادي بسعر منزلٍ هو 853,000. في المقابل، تتوقّع الشبكة العصبية المستندة إلى نظرية بايز توزيعًا للقيم. على سبيل المثال، يتوقّع نموذج بايز سعر منزل يبلغ 853,000 مع انحراف معيّاري يبلغ 67,200.

تعتمد الشبكة العصبية البايزيانية على نظرية بايز لحساب حالات عدم اليقين في الأوزان والتوقّعات. وحدة عصبية بيزي يمكن أن تكون الشبكة مفيدة عندما يكون من المهم قياس عدم اليقين، كما هو الحال في والنماذج المتعلقة بالمستحضرات الصيدلانية. كما يمكن أن تساعدك الشبكات العصبية في بايز ومنع فرط التخصيص.

التحسين باستخدام بايز

نموذج الانحدار الاحتمالي لتحسين التكاليف الحاسوبية دوال الأهداف عن طريق تحسين قيمة بديلة بدلاً من ذلك تحدد مقدار عدم اليقين باستخدام تقنية التعلم بايز. بما أنّه إنّ تحسين الأداء بالاستناد إلى نظرية بايزي باهظ التكلفة بحد ذاته، يتم استخدامه عادةً لتحسين المهام التي يصعب تقييمها والتي تتضمّن عددًا صغيرًا من المَعلمات، مثل اختيار المَعلمات الفائقة.

معادلة بيلمان

#rl

في التعلّم التعزيزي، تستوفي دالة Q المثلى الهوية التالية:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

تطبّق خوارزميات التعلم التعزيزي هذه المعادلة لإنشاء التعلم باستخدام نموذج Q من خلال قاعدة التعديل التالية:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

بالإضافة إلى التعلّم المعزّز، يمكن استخدام معادلة Bellman في البرمجة الديناميكية. راجِع مدخل Wikipedia لمعادلة Bellman.

BERT (تمثيلات الترميز الثنائية الاتجاه من المحولات)

#language

بنية نموذج لتمثيل النصوص مدرب ويمكن أن يعمل نموذج BERT كجزء من نموذج أكبر لتصنيف النص أو مهام تعلُّم الآلة الأخرى.

تتسم BERT بالسمات التالية:

تشمل الصيغ المختلفة لنموذج BERT ما يلي:

  • ALBERT، وهو اختصار لعبارة A Light BERT.
  • LaBSE:

يُرجى الاطّلاع على مقالة فتح المصدر BERT: التدريب المُسبَق على التطوّر بعد اللغات الطبيعية جارٍ المعالجة للحصول على نظرة عامة على نماذج BERT.

الانحياز (الأخلاق/الإنصاف)

#fairness
#fundamentals

1. الصور النمطية أو التحيز أو التفضيل لبعض الأشياء أو الأشخاص أو المجموعات على حساب آخرين ويمكن أن تؤثّر هذه الانحيازات في جمع البيانات وتفسيرها وتصميم النظام وكيفية تفاعل المستخدمين معه. تشمل أشكال هذا النوع من التحيز ما يلي:

2. يشير ذلك المصطلح إلى خطأ نظامي ناتج عن استخدام طريقة لجمع العيّنات أو الإبلاغ عن المحتوى. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بين هذا المصطلح ومصطلح الانحياز في نماذج تعلُّم الآلة أو الانحياز في التنبؤ.

اطّلِع على الإنصاف: أنواع الانحياز في دورة التعرّف الآلي التدريبية المختصرة للحصول على مزيد من المعلومات.

الانحياز (الرياضيات) أو مصطلح الانحياز

#fundamentals

نقطة تقاطع أو إزاحة من نقطة أصل الانحياز هو مَعلمة في نماذج تعلُّم الآلة، ويُرمز إليه بأيّ مما يلي:

  • ب
  • w0

على سبيل المثال، الانحياز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني الانحياز "نقطة التقاطع مع محور y". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

رسم خط مستقيم بميل 0.5 وانحراف (نقطة تقاطع y)‏ 2

يحدث التحيز لأنّ بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال، لنفترض أنّ تكلفة الدخول إلى مدينة ملاهي هي 2 يورو وتكلفة إضافية تبلغ 0.5 يورو لكل ساعة يقضيها العميل. وبالتالي، فإنّ النموذج الذي يحدّد التكلفة الإجمالية يتضمّن تحيزًا بمقدار 2 لأنّ أدنى تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاق والعدالة أو التحيز في التوقّعات.

راجِع الانحدار الخطي. في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

ثنائي الاتجاه

#language

مصطلح يستخدم لوصف نظام يقيّم النص الذي يسبق ويتّبع قسمًا مستهدفًا من النص. في المقابل، نظام أحادي الاتجاه فقط يقيّم النص الذي يسبق القسم المستهدف من النص.

على سبيل المثال، فكِّر في نموذج لغوي مُموَّه الذي يجب أن يحدِّد احتمالات الكلمة أو الكلمات التي تمّ وضع خط تحتها في السؤال التالي:

ما هو _____ معك؟

يجب أن يستند نموذج اللغة أحادي الاتجاه إلى الاحتمالات فقط على السياق الذي تقدّمه الكلمات "What" و"is" و"the". في المقابل، يمكن أن يحصل نموذج اللغة الثنائي الاتجاه أيضًا على سياق من "مع" و"أنت"، ما قد يساعد النموذج في إنشاء توقّعات أفضل.

نموذج لغوي ثنائي الاتجاه

#language

نموذج لغوي يحدّد احتمالية ظهور علامة معيّنة في موضع معيّن في مقتطف من النص استنادًا إلى النص السابق والتالي

الثنائي

#seq
#language

نَمط تحليلي حيث يكون N=2

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف التي تتنبأ بإحدى الفئتَين المتنافيتَين:

على سبيل المثال، ينفِّذ كلّ من النموذجَين التاليَين لتعلُّم الآلة عملية تصنيف ثنائي:

  • يشير هذا المصطلح إلى نموذج يحدِّد ما إذا كانت الرسائل الإلكترونية محتوى غير مرغوب فيه (الفئة الإيجابية) أو محتوى غير مرغوب فيه (الفئة السلبية).
  • يشير هذا المصطلح إلى نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص قد يعاني من مرض معين (الفئة الإيجابية) أو لا يحتوي على هذا المرض (الفئة السالبة).

تباين مع التصنيف متعدد الفئات.

اطّلِع أيضًا على الانحدار اللوجستي و حد التصنيف.

راجع التصنيف في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

شرط ثنائي

#df

في شجرة القرار، شرط يكون له نتيجتان محتملتان فقط، تكون عادةً نعم أو لا. على سبيل المثال، ما يلي هو شرط ثنائي:

temperature >= 100

يختلف هذا الشرط عن الشرط غير الثنائي.

راجِع أنواع الشروط. في الدورة التدريبية "غابات القرار" للحصول على مزيد من المعلومات.

الربط

مرادف لتجميع القيم.

BLEU (Bilingual Evaluation Understudy)

#language

درجة بين 0.0 و1.0، بما يشمل ذلك، تشير إلى جودة الترجمة بين لغتين بشريتان (على سبيل المثال، بين الإنجليزية والروسية). البلوتوث الدرجة 1.0 تشير إلى ترجمة مثالية؛ تشير درجة BLEU بقيمة 0.0 إلى ترجمة سيئة.

تعزيز

يشير ذلك المصطلح إلى أسلوب للتعلُّم الآلي يجمع بشكل متكرر بين مجموعة من البيانات البسيطة المصنِّفات غير الدقيقة للغاية (المشار إليها بالمصنِّفات "الضعيفة") في المُصنِّف بدقة عالية (المُصنِّف "القوي") حسب زيادة ترجيح الأمثلة التي يستخدمها النموذج حاليًا خطأ في التصنيف.

الاطّلاع على القرار المعزَّز المتدرج الأشجار؟ في الدورة التدريبية "غابات القرار" للحصول على مزيد من المعلومات.

مربّع حدود

#image

في صورة، توجد إحداثيات (x وy) لمستطيل حول مساحة اهتمام، مثل الكلب في الصورة أدناه.

صورة كلب يجلس على أريكة مربع حدود أخضر
          مع إحداثيات أعلى اليسار من (275، 1271) وأسفل اليمين
          تحيط بإحداثيات (2954, 2761) حول جسد الكلب

البث

توسيع شكل المعامل في عملية حسابية بالمصفوفة إلى السمات المتوافقة مع تلك العملية. على سبيل المثال، يتطلّب الجبر الخطي أن يكون للم Operandَين في عملية إضافة المصفوفة سمات متطابقة. وبالتالي، لا يمكنك إضافة مصفوفة الشكل (m, n) إلى متجه طوله n. يتيح البث إجراء هذه العملية من خلال توسيع الخط المتجه للطول n إلى مصفوفة شكل (m، n) في وتكرار نفس القيم أسفل كل عمود.

فعلى سبيل المثال، وبالنظر إلى التعريفات التالية، يحظر الجبر الخطي A+B لأن A وB لهما أبعاد مختلفة:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

ومع ذلك، يمكّن البث العملية A+B من خلال توسيع B افتراضيًا إلى:

 [[2, 2, 2],
  [2, 2, 2]]

وبالتالي، فإنّ A+B هي الآن عملية صالحة:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

اطلع على الوصف التالي لـ البث في NumPy لمزيد من التفاصيل.

تجميع البيانات

#fundamentals

تحويل سمة واحدة إلى سمات ثنائية متعددة تُعرف باسم الحزم أو الحاويات، استنادًا عادةً إلى نطاق قيم وعادةً ما تكون الميزة المقتطعة ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة واحدة مستمرّة بنقطة عائمة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • وتكون درجة الحرارة <= 10 درجات مئوية هي مجموعة القيم "الباردة".
  • وتكون درجة الحرارة من 11 إلى 24 درجة مئوية ضمن الفئة "معتدلة".
  • وتكون درجة الحرارة >= 25 درجة مئوية في المجموعة "الدافئة".

سيتعامل النموذج مع كل قيمة في الحزمة نفسها بشكلٍ مماثل. على سبيل المثال، القيمتَان 13 و22 هما في حزمة المناطق المعتدلة، لذا يتعامل النموذج مع القيمتَين بشكلٍ مماثل.

راجِع البيانات الرقمية: الربط في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

C

طبقة المعايرة

التسوية بعد التنبؤ، عادةً لمراعاة الانحياز في التوقّعات: يجب أن تتطابق التوقّعات المعدَّلة والاقتِبالات مع توزيع مجموعة من التصنيفات المرصودة.

إنشاء نموذج محتمل

#recsystems

المجموعة الأولية من التوصيات التي اختارها نظام الاقتراحات: على سبيل المثال، ضع في اعتبارك مكتبة تضم 100,000 كتاب. تنشئ مرحلة إنشاء الاقتراحات قائمة أصغر بكثير من الكتب المناسبة لمستخدم معيّن، على سبيل المثال 500 كتاب. ولكن حتى 500 كتاب هو عدد كبير جدًا لاقتراحه على المستخدم. إنّ المراحل اللاحقة والأكثر تكلفة في نظام الاقتراحات (مثل التقييم و إعادة الترتيب) تقلّل من هذه الاقتراحات الـ 500 إلى مجموعة أصغر بكثير وأكثر فائدة من الاقتراحات.

اطّلِع على نظرة عامة على عملية إنشاء المرشحين في دورة "أنظمة الاقتراحات" للحصول على مزيد من المعلومات.

تحليل العيّنات المرشّحة

يشير هذا المصطلح إلى عملية تحسين وقت التدريب تحسب الاحتمالية لجميع الإيجابية، التي تستخدم، على سبيل المثال، softmax، ولكن بشكلٍ عشوائي عينة من التسميات السلبية. على سبيل المثال، عند تقديم مثال مصنّف على أنّه كلب صيد وكلب، تعمل ميزة "تحليل عيّنات المرشحين" على احتساب الاحتمالات المتوقّعة وشروط الخسارة المقابلة لكلّ من:

  • كلب صيد ألماني
  • dog
  • مجموعة فرعية عشوائية من الفئات السلبية المتبقية (على سبيل المثال، قطة، مصاصة حلوى، سور)

والفكرة هي أنّه يمكن ل الفئات السلبية التعلّم من التعزيز السلبي الأقل تكرارًا ما دام الفئات الإيجابية تحصل دائمًا على تعزيز إيجابي مناسب، وقد تم ملاحظة ذلك من الناحية التجريبية.

أخذ عينات المرشح أكثر كفاءة من الناحية الحسابية من خوارزميات التدريب التي تحتسب التوقّعات لجميع الفئات السالبة، لا سيّما عند عدد الفئات السالبة كبير جدًا.

بيانات فئوية

#fundamentals

الميزات التي تحتوي على مجموعة محددة من القيم المحتملة. على سبيل المثال: بالنظر إلى خاصية فئوية تُسمى traffic-light-state، والتي يمكنها فقط تحتوي على إحدى القيم الثلاث التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كخاصيّة تصنيفية، يمكن للنموذج التعرّف على أثرred وgreen وyellow المختلف على سلوك السائق.

تسمى أحيانًا السمات الفئوية الميزات المنفصلة.

يُرجى الاطّلاع على البيانات الرقمية.

اطّلِع على العمل مع data التصنيفية في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

نموذج لغوي سببي

#language

مرادف لـ النموذج اللغوي أحادي الاتجاه.

اطّلِع على نموذج اللغة الثنائي الاتجاه لمقارنة النهجَين الاتجاهيَين المختلفَين في وضع نماذج اللغة.

نقطة مركزية

#clustering

يشير ذلك المصطلح إلى مركز أي مجموعة عنقودية تم تحديده باستخدام الخوارزمية التصنيفية أو. k-median. على سبيل المثال، إذا كانت k هي 3، تُوجد الخوارزمية التصنيفية أو الخوارزمية التصنيفية 3 نقاط مركزية.

راجِع خوارزميات التجميع العنقودي. في دورة التجميع العنقودي لمزيد من المعلومات.

التجميع المستنِد إلى النقاط المركزية

#clustering

فئة من خوارزميات التجميع العنقودي التي تنظِّم البيانات في مجموعات غير هرمية. والخوارزمية التصنيفية هي خوارزمية التجميع العنقودي المستندة إلى النقاط المركزية الأكثر استخدامًا .

يختلف ذلك عن خوارزميات التجميع الهرمي .

راجِع خوارزميات التجميع العنقودي. في دورة التجميع العنقودي لمزيد من المعلومات.

توجيه سلسلة الأفكار

#language
#generativeAI

أحد أساليب هندسة الطلبات التي تشجع نموذج لغوي كبير (LLM) لشرح السبب، خطوة بخطوة. على سبيل المثال، ضع في اعتبارك الطلب التالي، دفع انتباه خاص إلى الجملة الثانية:

كم عدد قوى g التي سيواجهها السائق في سيارة تنطلق من 0 إلى 60 ميل في الساعة في 7 ثوانٍ؟ في الإجابة، يجب عرض جميع العمليات الحسابية ذات الصلة.

من المرجّح أن يكون ردّ النموذج اللغوي الكبير:

  • إظهار سلسلة من المعادلات الفيزيائية، من خلال التعويض عن القيم 0 و60 و7 في الأماكن المناسبة.
  • اشرح سبب اختيار هذه الصِيَغ وما تعنيه المتغيّرات المختلفة.

تجبر سلسلة التفكير التي تفرض على النموذج اللغوي الكبير إجراء جميع العمليات الحسابية مما قد يؤدي إلى إجابة أكثر دقة. بالإضافة إلى ذلك، تتيح طلبات سلسلة التفكير للمستخدم فحص خطوات الذكاء الاصطناعي اللغوي (LLM) لتحديد ما إذا كانت الإجابة منطقية أم لا.

محادثة

#language
#generativeAI

محتوى حوار متبادل مع نظام تعلُّم الآلة، عادةً نموذج لغوي كبير التفاعل السابق في محادثة (ما تمت كتابته وكيف استجاب النموذج اللغوي الكبير) ليصبح سياق للأجزاء اللاحقة من المحادثة.

إنّ الدردشة المبرمجة عبارة عن تطبيق لنموذج لغوي كبير.

نقطة تفتيش

البيانات التي تسجِّل حالة مَعلمات النموذج سواءً أثناء التدريب أو بعد اكتماله على سبيل المثال، أثناء التدريب، يمكنك:

  1. التوقف عن التدريب، ربما عمدًا أو ربما نتيجة أخطاء معينة.
  2. سجِّل النقطة المرجعية.
  3. بعد ذلك، أعِد تحميل نقطة التحكّم، ربما على جهاز مختلف.
  4. إعادة بدء التدريب

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف على سبيل المثال:

  • في نموذج تصنيف ثنائي يكتشف محتوى غير مرغوب فيه، فقد يكون الفئتان محتوى غير مرغوب فيه وليس محتوى غير مرغوب فيه.
  • في نموذج التصنيف المتعدّد الفئات الذي يحدِّد سلالات الكلاب، قد تكون الفئات هي بودل وبيجل وبوغ وغيرها.

يتوقّع نموذج التصنيف فئة معيّنة. في المقابل، يتنبّأ نموذج الانحدار بعدد بدلاً من فئة.

راجع التصنيف في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

نموذج التصنيف

#fundamentals

نموذج يكون توقّعه فئة على سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بلغة الجملة المُدخَلة (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • نموذج للتنبؤ بأنواع الأشجار (القيقب؟ هل المطلوب هو Oak؟ باوباب؟).
  • يشير هذا المصطلح إلى نموذج يتنبأ بالفئة الموجبة أو السالبة لفئة معيَّنة. حالة طبية.

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف هما:

حد التصنيف

#fundamentals

في التصنيف الثنائي، هو رقم بين 0 و1 يحوّل الناتج الأوّلي لنموذج الانحدار اللوجستي إلى توقّع الفئة الإيجابية أو الفئة السلبية. يُرجى العلم أنّ حدّ التصنيف هو قيمة يختارها أحد الأشخاص، وليست قيمة يختارها تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأوّلية أكبر من حدّ التصنيف، يتم توقّع الفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من الحدّ الأدنى للتصنيف، يتم عندئذٍ توقّع الفئة السلبية.

لنفترض على سبيل المثال أن الحد الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية تساوي 0.9، سيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية 0.7، فسيتنبأ النموذج بالفئة السالبة.

يؤثر اختيار حد التصنيف بشدة في عدد النتائج الموجبة الخاطئة أرقام سالبة خاطئة:

راجع الحدود الدنيا والالتباس مصفوفة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

مجموعة بيانات غير متوازنة الفئات

#fundamentals

مجموعة بيانات لمشكلة تصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، بالنظر إلى مجموعة بيانات للتصنيف الثنائي، يكون التصنيفان على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السلبية إلى الإيجابية هي 100,000 إلى 1، لذا فإنّ هذه مجموعة بيانات غير متوازنة الفئات.

وفي المقابل، ليست مجموعة البيانات التالية غير متوازنة في الفئات بسبب نسبة التصنيفات السالبة إلى التصنيفات الموجبة قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا موجبًا

يمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة في الفئات. على سبيل المثال، ما يلي تكون مجموعة بيانات التصنيف متعدد الفئات غير متوازنة أيضًا لأن تسمية واحدة يتضمن أمثلة أكثر بكثير من المثالين الآخرين:

  • 1,000,000 تصنيف بالفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا من الفئة "برتقالي"

اطّلِع أيضًا على الخلل وفئة الأغلبية وفئة الأقلية.

اقتصاص

#fundamentals

أحد الأساليب للتعامل مع القيم الاستثنائية من خلال إجراء أحد الأمرين التاليين أو كليهما:

  • تقليل قيم الميزة التي تزيد عن الحد الأقصى إلى هذا الحد الأقصى.
  • زيادة قيم الميزات التي تقل عن الحد الأدنى حتى ذلك الحد الأدنى.

على سبيل المثال، لنفترض أنّ أقل من %0.5 من قيم سمة معيّنة تقع خارج النطاق 40-60. في هذه الحالة، يمكنك إجراء ما يلي:

  • اقتطع كل القيم التي تزيد عن 60 (الحد الأقصى) لتصبح 60 بالضبط.
  • يُرجى اقتصاص جميع القيم التي تقلّ عن 40 (الحدّ الأدنى) لتكون 40 بالضبط.

قد تتسبّب القيم الاستثنائية في إتلاف النماذج، وقد تتسبّب أحيانًا أوزان. إلى تجاوز الفائض أثناء التدريب. يمكن أن تفسد بعض القيم الاستثنائية بشكل كبير مقاييس مثل الدقة. يعتبر الاقتصاص أسلوبًا شائعًا للحدّ الضرر.

قوى الاقتصاص المتدرج قيم التدرج ضمن نطاق محدد أثناء التدريب.

راجِع البيانات الرقمية: التسوية في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

Cloud TPU

#TensorFlow
#GoogleCloud

هو مسرِّع متخصص للأجهزة تم تصميمه لتسريع الجهاز أعباء العمل التعليمية على Google Cloud.

التجميع العنقودي

#clustering

تجميع الأمثلة ذات الصلة، خاصةً أثناء التعلُّم غير الخاضع للإشراف بمجرد أن يتم يتم تجميع الأمثلة، ويمكن لأي شخص تقديم معنى لكل مجموعة عنقودية بشكل اختياري.

هناك العديد من خوارزميات التجميع. على سبيل المثال، تجمع خوارزمية الوسط الحسابي الأمثلة معًا استنادًا إلى قربها من نقطة مركزية، كما هو موضّح في المخطّط البياني التالي:

وهو رسم بياني ثنائي الأبعاد يتم فيه تسمية المحور س بعرض الشجرة،
          ويسمى المحور ص بارتفاع الشجرة. يحتوي الرسم البياني على
          والنقاط المركزية وعشرات نقاط البيانات. تُعد نقاط البيانات
          مصنفة بناءً على قربها. أي أن نقاط البيانات
          وتُصنف الأقرب إلى نقطة مركزية بالمجموعة العنقودية 1، بينما أن هذه
          والأقرب إلى النقطة المركزية الأخرى بالمجموعة العنقودية 2.

ويمكن للباحث البشري بعد ذلك مراجعة المجموعات العنقودية، وعلى سبيل المثال، تصنيف المجموعة 1 على أنها "أشجار قزمة" والمجموعة 2 على أنها "أشجار بالحجم الكامل".

في مثال آخر، نأخذ خوارزمية تجميع عنقودي تستند إلى المسافة بين نموذج معيّن ونقطة مركزية، كما هو موضّح أدناه:

يتم ترتيب العشرات من نقاط البيانات في دوائر متحدة المركز،
          مثل الثقوب حول مركز رمي السهام. الحلقة الأعمق
          من نقاط البيانات مصنفة ضمن المجموعة العنقودية 1، الحلقة الوسطى
          بالمجموعة العنقودية 2، والحلقة الخارجية
          المجموعة 3.

يمكنك الاطّلاع على دورة التصنيف لمزيد من المعلومات.

التكيف المشترَك

عندما تتنبأ الخلايا العصبية بالأنماط في بيانات التدريب عن طريق الاعتماد بشكل حصري تقريبًا على مخرجات خلايا عصبية أخرى محددة بدلاً من الاعتماد على سلوك الشبكة ككل. عندما لا تكون الأنماط التي تؤدي إلى التكيف المشترَك متوفّرة في بيانات التحقّق، يؤدّي التكيف المشترَك إلى التكيّف المفرط. تنظيم عمليات التغيير يقلّل من عملية التكيّف مع الآخرين لأن الانقطاع يضمن أن الخلايا العصبية لا يمكنها الاعتماد فقط على خلايا عصبية أخرى محددة.

الفلترة حسب الاهتمامات الجماعية

#recsystems

إجراء توقّعات حول اهتمامات مستخدم واحد استنادًا إلى اهتمامات العديد من المستخدمين الآخرين الفلترة حسب الاهتمامات الجماعية وغالبًا ما يُستخدم في أنظمة الاقتراح.

عرض التعاون الفلترة في الدورة التدريبية لأنظمة التوصية للحصول على مزيد من المعلومات.

تغيُّر المفهوم

يشير ذلك المصطلح إلى تغيير في العلاقة بين العناصر والتسمية. وبمرور الوقت، يؤدّي تغيُّر المفاهيم إلى تقليل جودة النموذج.

أثناء التدريب، يتعرّف النموذج على العلاقة بين السمات وتصنيفاتها في مجموعة التدريب. إذا كانت التصنيفات في مجموعة التدريب представлява بدائل جيدة للعالم الواقعي، يجب أن يقدّم النموذج توقّعات جيدة للعالم الواقعي. ومع ذلك، بسبب تغيُّر المفاهيم، تميل توقّعات النموذج إلى التدهور بمرور الوقت.

على سبيل المثال، لنفترض أنّ لدينا نموذج تصنيف ثنائي يتنبّأ ما إذا كان طراز سيارة معيّن "موفّرًا للوقود" أم لا. وهذا يعني أن الميزات يمكن أن تكون:

  • وزن السيارة
  • ضغط المحرِّك
  • نوع الإرسال

بينما يكون التصنيف إما:

  • موفّر للوقود
  • غير موفّر للوقود

ومع ذلك، يتغيّر باستمرار مفهوم "السيارة ذات الكفاءة العالية في استهلاك الوقود". إذا كان طراز سيارة مصنّفًا على أنّه فعّال في استهلاك الوقود في عام 1994، من المؤكد تقريبًا أن يتم تصنيفه على أنّه غير فعّال في استهلاك الوقود في عام 2024. إنّ النموذج الذي يعاني من تغيُّر المفهوم يميل إلى إجراء تنبؤات أقل فائدة بمرور الوقت.

تحديد أوجه الاختلاف والتشابه مع عدم الحركة

الشرط

#df

في شجرة القرار، تكون أي عقدة لتقييم تعبير. على سبيل المثال، الجزء التالي من تحتوي شجرة القرارات على شرطين:

شجرة قرارات تتكون من شرطين: (x> 0)
          (ص > 0).

ويُطلق على الحالة أيضًا اسم "تقسيم" أو "اختبار".

حالة التباين باستخدام ورقة الشجر.

انظر أيضًا:

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

محادثة

#language

مرادف لـ الهلوسة.

قد يكون التخمين عبارة عن مصطلح أكثر دقة من الناحية الفنية من الهلوسة. ومع ذلك، أصبحت الأوهام شائعة أولاً.

الإعدادات

عملية منح قيم السمات الأولية المستخدَمة لتدريب نموذج، بما في ذلك:

ففي مشروعات التعلم الآلي، يمكن تنفيذ التهيئة من خلال طريقة خاصة ملف إعداد أو استخدام مكتبات إعداد مثل ما يلي:

الانحياز التأكيدي

#fairness

الميل إلى البحث عن المعلومات وتفسيرها وتفضيلها وتذكُّرها بطريقة تؤكد صحة المعتقدات أو الفرضيات الموجودة مسبقًا قد يجمع مطوّرو تعلُّم الآلة بيانات أو يصنّفونها بغير قصد بطرق تؤثّر في نتيجة تدعم عقائدهم الحالية. الانحياز التأكيدي هو شكل من الانحياز الضمني.

تحيز المجرب هو شكل من أشكال الانحياز التأكيدي الذي ويواصل المجرّب تدريب النماذج حتى يتم تأكيد الفرضية.

مصفوفة التشويش

#fundamentals

جدول NxN يلخص عدد التنبؤات الصحيحة وغير الصحيحة الذي قدّمه نموذج التصنيف. على سبيل المثال، ضع في الاعتبار مصفوفة التشويش التالية نموذج التصنيف الثنائي:

الورم (متوقّع) غير ورم (المتوقَّعة)
الورم (الحقيقة الأرضية) 18 (TP) 1 (FN)
غير ورم (معلومات حقيقية) 6 (FP) 452 (TN)

توضح مصفوفة التشويش السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الأساسية فيها "ورم"،صنّف النموذج 18 تنبؤًا بشكل صحيح وصنّف تنبؤًا واحدًا بشكل خاطئ.
  • من بين 458 توقّعًا كانت الحقيقة الأساسية فيها "غير ورم"، صنّف النموذج 452 حالة بشكل صحيح و6 حالات بشكل غير صحيح.

يمكن أن تساعدك مصفوفة الارتباك لمشكلة التصنيف المتعدّد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، ضع في الاعتبار مصفوفة التشويش التالية للفئة الثالثة نموذج تصنيف متعدد الفئات يصنف ثلاثة أنواع مختلفة من القزحية (فيرجينيكا وVersicolor وSetosa). عندما كانت الحقيقة الأساسية هي Virginica، تعرِض مصفوفة الارتباك أنّه من المرجّح بكثير أن يتنبأ النموذج بخطأ بـ Versicolor بدلاً من Setosa:

  Setosa (متوقّعة) Versicolor (متوقّعة) فيرجينيكا (المتوقَّعة)
سيتوسا (الحقيقة الواقعية) 88 12 0
Versicolor (معلومات فعلية) 6 141 7
Virginica (الحقيقة الأساسية) 2 27 109

وكمثال آخر، يمكن أن تكشف مصفوفة التشويش أن نموذجًا تم تدريبه فإن التعرف على الأرقام المكتوبة بخط اليد يميل إلى التنبؤ عن طريق الخطأ بـ 9 بدلاً من 4، أو توقع 1 عن 7 عن طريق الخطأ.

تحتوي مصفوفات الارتباك على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة وتذكُّرها.

تحليل الدوائر الانتخابية

#language

تقسيم جملة إلى هياكل نحوية أصغر ("المكونات"). يمكن أن يعالج جزء لاحق من نظام تعلُّم الآلة، مثل نموذج فهم اللغة الطبيعية، المكوّنات بسهولة أكبر من الجملة الأصلية. على سبيل المثال، نأخذ الجملة التالية:

تبنت صديقتي قطتَين.

يمكن للمحلل اللغوي للدائرة تقسيم هذه الجملة إلى ما يلي: مكونين:

  • صديقي عبارة اسمية.
  • تبني قطتين هي عبارة فعلية.

ويمكن تقسيم هذه المكوّنات إلى مكوّنات أصغر. على سبيل المثال، عبارة الفعل

تبني قطتين

يمكن تقسيمها بشكل فرعي إلى:

  • تمّت الموافقة هو فعل.
  • قطتان هي عبارة اسمية أخرى.

تضمين اللغة في سياقها

#language
#generativeAI

إدراج يقترب من "فهم" الكلمات والعبارات بطرق يمكن للناطقين الأصليين استخدامها الصياغة اللغوية للسياق يمكن للتضمينات فهم البنية والدلالات والسياق المعقد.

على سبيل المثال، ننصحك بتضمين كلمة cow باللغة الإنجليزية. يمكن أن تمثّل عمليات التضمين القديمة مثل word2vec الكلمات الإنجليزية بحيث تكون المسافة في مساحة التضمين من بقرة إلى ثور مشابهة للمسافة من نعجة (أنثى الأغنام) إلى كبش (ذكر الأغنام) أو من أنثى إلى ذكر. الصياغة اللغوية للسياق يمكن للتضمينات أن ترتقي إلى أبعد من ذلك من خلال إدراك أن المتحدثين باللغة الإنجليزية في بعض الأحيان إذا كنت تستخدم كلمة بقرة، يمكنك استخدامها غالبًا للإشارة إلى بقرة أو ثور.

نافذة السياق

#language
#generativeAI

عدد الرموز التي يمكن للنموذج معالجتها في طلب معيّن كلما زادت مساحة النافذة السياقية، زادت المعلومات التي يمكن للنموذج استخدامها لتقديم ردود متسقة ومتّسقة على الطلب.

خاصية مستمرة

#fundamentals

ميزة بنقطة عائمة مع نطاق لانهائي من القيم المحتمَلة، مثل درجة الحرارة أو الوزن

تباين مع الميزة المنفصلة.

عينة عشوائية

استخدام مجموعة بيانات لم يتم جمعها علميًا لإجراء سرعة التجارب. فيما بعد، من الضروري التبديل إلى مجموعة البيانات مجموعة البيانات الأصلية.

التقارب

#fundamentals

الحالة التي يتمّ الوصول إليها عندما تتغيّر قيم الخسارة قليلاً جدًا أو لا تتغيّر على الإطلاق مع كل تكرار على سبيل المثال، ما يلي يشير منحنى الخسارة إلى التقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور X غير متوفّر. المحور ص هو عدد التطبيق
          التكرارات. يكون الخسارة مرتفعًا جدًا خلال عمليات التكرار القليلة الأولى، ولكنه
          ينخفض بشكل حاد. بعد حوالي 100 تكرار، لا تزال الخسارة
          تنازليًا ولكن تدريجيًا أكثر. بعد حوالي 700 تكرار،
          تظل الخسارة ثابتة.

يتقارب النموذج عندما لا يؤدي التدريب الإضافي إلى تحسينه.

في التعليم المتعمق، تظل قيم الخسارة ثابتة أو تقريبًا للعديد من التكرارات قبل أن يتراجع أخيرًا. خلال فترة طويلة من قيم الخسارة الثابتة، قد تحصل مؤقتًا على إحساس زائف بالاقتران.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

راجع تقارب النموذج وفقدانه المنحنيات في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

دالة محدّبة

دالة يكون فيها المنطقة فوق الرسم البياني للدالة هو مجموعة محدَّبة. تكون الدالة المحدبة النموذجية على شكل الحرف U. على سبيل المثال، يلي جميع الدوالّ المحدّدة:

منحنيات على شكل حرف U، ولكل منها نقطة حدّ أدنى واحدة

في المقابل، الدالة التالية ليست محدّبة. لاحظ أنّ المنطقة فوق الرسم البياني ليست مجموعة محدّبة:

منحنى على شكل حرف W يتضمّن نقطتَي قاع محليتين مختلفتَين

تحتوي دالة محدّبة بشكل صارم على نقطة حد أدنى محلي واحدة بالضبط، وهي هي أيضًا نقطة الحد الأدنى العام. الدوالّ الكلاسيكية على شكل حرف U هي دوالّ محدّبة بشكل صارم. ومع ذلك، فإن بعض الدوال المحدبة (على سبيل المثال، الخطوط المستقيمة) ليست على شكل حرف U.

اطّلِع على الوظائف المقاربة والمنحنية في الدورة التدريبية المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

تحسين الدالّة المحدّبة

عملية استخدام أساليب رياضية مثل التناقص التدرّجي للعثور على الحد الأدنى لدالة محدّبة ركّز الكثير من الأبحاث في مجال تعلُّم الآلة على صياغة مناقشات مختلفة كمشاكل تحسين محدّد وحلّ هذه المشاكل بفعالية أكبر.

للاطّلاع على التفاصيل الكاملة، يُرجى الاطّلاع على Boyd and Vandenberghe، Convex Optimization.

مجموعة محدّبة

مجموعة فرعية من الفضاء الإقليدي بحيث يظل الخط الذي يتم رسمه بين أي نقطتَين في المجموعة الفرعية داخل المجموعة الفرعية بالكامل. على سبيل المثال، الشكلان التاليان هما مجموعتان محدّبتان:

صورة توضيحية واحدة لمستطيل صورة توضيحية أخرى لشكل بيضاوي

في المقابل، الشكلان التاليان ليسا مجموعتَين محدَّبتين:

رسم توضيحي واحد لرسم بياني دائري يتضمّن شريحة غير ظاهرة
          صورة توضيحية أخرى لمضلّع غير منتظم إلى حدٍ كبير

التفاف

#image

في الرياضيات، يشير ذلك إلى مزيج من دالتَين. في الجهاز التعلم، فإن الالتفاف يمزج بينالتطور عامل التصفية ومصفوفة الإدخال لتدريب الأوزان.

غالبًا ما يشير مصطلح "التفاف" في تعلُّم الآلة إلى العملية التفافية أو الطبقة التفافية.

بدون عمليات التفاف، سيكون على خوارزمية التعلم الآلي تعلُّم معامل وزن منفصل لكل خلية في مصفوفة تانسور كبيرة. على سبيل المثال، سيضطر أحد خوارزميات تعلُّم الآلة التي يتم تدريبها على صور بدقة 2K x 2K إلى العثور على 4 ملايين وزن منفصل. بفضل التطورات، أصبح التعلم الآلي على إيجاد الأوزان لكل خلية في فلتر التفافي، ما يقلل بشكل كبير الذاكرة اللازمة لتدريب النموذج. عند تطبيق الفلتر التدرّبي، تتم ببساطة نسخه على الخلايا بحيث يتم ضرب كل خلية فيه.

اطّلِع على لمحة عن الشبكات العصبية الملتفة في دورة تدريبية عن تصنيف الصور للحصول على مزيد من المعلومات.

فلتر التفافي

#image

يظهر أحد الممثلين في عملية التفافية. (العنصر الآخر هو شريحة من مصفوفة إدخال). عامل التصفية الالتفافية هو مصفوفة تحتوي على نفس الترتيب مثل مصفوفة الإدخال، ولكن بشكل أصغر. على سبيل المثال، إذا كانت مصفوفة إدخال بحجم 28×28، يمكن أن يكون عامل التصفية أي مصفوفة ثنائية الأبعاد أصغر من 28x28.

في عمليات التلاعب بالصور، يتم عادةً ضبط جميع الخلايا في الفلتر التدرّبي على نمط ثابت من الأرقام 1 و0. في التعلم الآلي، عادةً ما تتضمن عوامل التصفية الالتفافية بأرقام عشوائية ثم تدريب القيم المثالية.

اطّلِع على التفاف في دورة تدريبية عن تصنيف الصور للحصول على مزيد من المعلومات.

طبقة التفافية

#image

يشير ذلك المصطلح إلى طبقة من الشبكة العصبونية العميقة يمكن فيها يمر فلتر التفافي على طول إدخال ومصفوفة. على سبيل المثال، ضع في الاعتبار المخطط 3x3 التالي فلتر التفافي:

مصفوفة 3×3 بالقيم التالية: [[0,1,0], [1,0,1], [0,1,0]]

تعرض الصورة المتحركة التالية طبقة تحويلية تتألف من 9 عمليات تحويلية تتضمّن مصفوفة الإدخال 5×5. لاحظ أنّ كل عملية تدرّجية تعمل على شريحة مختلفة من 3×3 من مصفوفة الإدخال. تتألّف المصفوفة الناتجة 3×3 (على اليمين) من نتائج 9 عمليات تحويلية:

صورة متحركة تعرض مصفوفة واحدة. المصفوفة الأولى هي 5×5
          المصفوفة: [[128,97,53,201,198], [35,22,25,200,195]
          [37,24,28,197,182]، [33,28,92,195,179]، [31,40,100,192,177]].
          المصفوفة الثانية هي مصفوفة 3×3:
          [[181,303,618]، [115,338,605]، [169,351,560]].
          وتُحسب المصفوفة الثانية بتطبيق خوارزمية الالتفاف
          الفلتر [[0، 1، 0]، [1، 0، 1]، [0، 1، 0]]
          مجموعات فرعية مختلفة 3×3 في مصفوفة 5×5.

اطّلِع على الطبقات المتصلّة بالكامل في دورة تصنيف الصور للحصول على مزيد من المعلومات.

شبكة عصبية التفافية

#image

شبكة عصبية تكون فيها طبقة واحدة على الأقل طبقة التفافية. التفاف نموذجي تتكون الشبكة العصبية من تركيبة من الطبقات التالية:

حققت الشبكات العصبية الالتفافية نجاحًا كبيرًا في أنواع معيّنة من المشاكل، مثل التعرّف على الصور.

عملية التفافية

#image

العملية الحسابية التالية المكوَّنة من خطوتين:

  1. الضرب العنصري ل فلتر التفاف وشريحة من مصفوفة الإدخال (لقطعة مصفوفة الإدخال ترتيب و حجم الفلتر التجميعي نفسهما).
  2. مجموع كل القيم في مصفوفة المنتجات الناتجة

على سبيل المثال، فكِّر في مصفوفة الإدخال 5×5 التالية:

المصفوفة 5×5: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

لنفترض الآن الفلتر التفاعلي 2×2 التالي:

المصفوفة 2×2: [[1, 0], [0, 1]]

تتضمّن كل عملية تجميعية شريحة واحدة بحجم 2×2 من مصفوفة الإدخال. على سبيل المثال، لنفترض أنّنا نستخدم شريحة 2×2 في أعلى يمين مصفوفة الإدخال. إذًا، عملية الالتفاف في تظهر هذه الشريحة على النحو التالي:

تطبيق الفلتر التجميعي [[1, 0], [0, 1]] على القسم العلوي الأيمن
          2×2 من مصفوفة الإدخال، والذي يمثّل [[128,97], [35,22]].
          يترك الفلتر التفافي الرقمَين 128 و22 سليمَين، ولكنه يُلغي الرقمَين 97 و35. نتيجةً لذلك، تؤدي عملية التفاف إلى توليد
          القيمة 150 (128+22).

تتألّف الطبقة التوليدية من سلسلة من العمليات التوليدية، يعمل كلّ منها على شريحة مختلفة من مصفوفة الإدخال.

التكلفة

مرادف loss.

التدريب المشترَك

يكون أسلوب التعلم شبه الإشرافي مفيداً بشكل خاص عند استيفاء جميع الشروط التالية:

تعمل ميزة "التدريب المشترَك" بشكل أساسي على تضخيم الإشارات المستقلة إلى إشارة أقوى. على سبيل المثال، لنفترض أنّ نموذج التصنيف الذي يصنّف السيارات المستعملة الفردية على أنّها إما جيدة أو سيئة. قد تركّز مجموعة واحدة من السمات القائمة على التوقّعات على الخصائص المجمّعة، مثل السنة والعلامة التجارية وطراز السيارة، وقد تركّز مجموعة أخرى من السمات القائمة على التوقّعات على سجلّ قيادة المالك السابق وسجلّ صيانة السيارة.

المقالة الأساسية حول التدريب المشترك هي الجمع بين البيانات المصنفة والبيانات غير المصنفة مع التدريب التعاوني من قِبل بلوم وميتشل.

الإنصاف المغاير

#fairness

مقياس إنصاف يتحقّق مما إذا كان المصنِّف تُنتج نفس النتيجة لفرد واحد كما هو الحال مع فرد آخر مماثلة للأول، إلا في ما يتعلق بواحدة أو أكثر السمات الحسّاسة: إنّ تقييم أحد المصنّفات من أجل قياس عدله البديل هو إحدى الطرق لعرض مصادر التحيز المحتملة في النموذج.

يمكنك الاطّلاع على أي مما يلي لمزيد من المعلومات:

انحياز في التغطية

#fairness

اطّلِع على الانحياز في الاختيار.

زهرة متلازمة

#language

جملة أو عبارة ذات معنى غامض تمثل أزهار الأزهار مشكلة كبيرة في الطبيعة فهم اللغة. على سبيل المثال، العنوان الشريط الأحمر يحمل سكاي سكريبر هو لأن نموذج NLU يمكنه تفسير العنوان الرئيسي حرفيًا مجازيًا.

ناقد

#rl

مرادف لـ Deep Q-Network.

الإنتروبيا المختلفة

تعميم Log Loss على مشاكل التصنيف المتعدّد الفئات الإنتروبيا المتقاطعة تحدد الفرق بين توزيعين للاحتمالية. اطّلِع أيضًا على الحيرة.

التحقّق المتبادل

آلية لتقدير مدى نجاح النموذج في تعميم قياساته على البيانات الجديدة من خلال اختبار النموذج على مجموعة واحدة أو أكثر من مجموعات البيانات غير المتداخلة التي تم استبعادها من مجموعة التدريب

دالة التوزيع التراكمي (CDF)

يشير ذلك المصطلح إلى دالة تحدِّد معدّل تكرار العينات الأقل من أو تساوي القيمة المستهدفة. على سبيل المثال، نأخذ توزيعًا طبيعيًا للقيم المستمرة. تُعلمك دالة التوزيع الاحتمالي التراكمي أنّه من المفترض أن تكون نسبة %50 تقريبًا من العيّنات أقل من أو مساوية للمتوسط وأن تكون نسبة %84 تقريبًا من العيّنات أقل من أو مساوية لانحراف معيّن واحد فوق المتوسط.

D

تحليل البيانات

إن الحصول على فهم للبيانات من خلال النظر في العينات والقياس والتصور. يمكن أن يكون تحليل البيانات مفيدًا بشكل خاص عندما مجموعة البيانات لأول مرة، قبل أن تنشئ إحداها النموذج الأول. وهو أمر مهم أيضًا لفهم التجارب وتحديد المشاكل وحلّها في النظام.

زيادة البيانات

#image

تعزيز نطاق وعدد أمثلة على التدريب من خلال تحويل البيانات الحالية أمثلة لإنشاء أمثلة إضافية. على سبيل المثال، لنفترض أنّ الصور هي أحد السمات، ولكنّ مجموعة البيانات الخاصة بك لا تتضمن أمثلة كافية للصور ليتمكّن النموذج من تعلُّم ارتباطات مفيدة. من الأفضل إضافة عدد كافٍ من الصور المُصنَّفة إلى مجموعة البيانات ل السماح لنموذجك بالتدريب بشكلٍ سليم. وإذا لم يكن ذلك ممكنًا، فإن زيادة البيانات يمكن تدوير كل صورة وتمديدها وعكسها لإنتاج العديد من متغيرات الصورة الأصلية، والتي قد ينتج عنها بيانات مصنَّفة كافية لإتاحة نتائج التدريب.

إطار البيانات

#fundamentals

نوع بيانات شائع pandas لتمثيل مجموعات البيانات في الذاكرة.

DataFrame مماثل لجدول أو جدول بيانات. كل عمود من DataFrame له اسم (رأس)، ويتم تحديد كل صف بواسطة رقم فريد.

تتم هيكلة كل عمود في DataFrame كصفيف ثنائي الأبعاد، باستثناء يمكن تعيين نوع البيانات الخاص لكل عمود.

يمكنك أيضًا الاطّلاع على صفحة مرجع pandas.DataFrame الرسمية .

موازاة البيانات

طريقة لتوسيع نطاق التدريب أو الاستنتاج ينسخ نموذجًا بالكامل على أجهزة متعددة ثم يمرر مجموعة فرعية من بيانات الإدخال إلى كل جهاز. يمكن أن تتيح معالجة البيانات بالتوازي تدريب النماذج واستنتاجها باستخدام حِزم بيانات كبيرة جدًا، ولكن تتطلّب معالجة البيانات بالتوازي أن يكون النموذج صغيرًا بما يكفي ليناسب جميع الأجهزة.

عادة ما يعمل موازاة البيانات على تسريع التدريب والاستنتاج.

اطّلِع أيضًا على التوازي في النماذج.

مجموعة البيانات

#fundamentals

يشير هذا المصطلح إلى مجموعة من البيانات الأولية التي يتم تنظيمها عادةً (وليس بشكل حصري) في مجموعة واحدة. بأي من التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

واجهة برمجة تطبيقات مجموعة البيانات (tf.data)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow عالية المستوى لقراءة البيانات وتحويلها إلى تنسيق تتطلّبه خوارزمية تعلُّم الآلة يمثّل الكائن tf.data.Dataset تسلسلاً من العناصر التي يحتوي كل عنصر على أداة استشعار واحد أو أكثر. tf.data.Iterator يتيح الوصول إلى عناصر Dataset.

حدود القرار

الفاصل بين الصفوف التي تعلمتها الطراز في فئة ثنائية أو مسائل التصنيف متعدد الفئات. على سبيل المثال: في الصورة التالية التي تمثل مشكلة تصنيف ثنائي، فإن حدود القرار هي الحدود الواقعة بين الفئة البرتقالية الفئة الزرقاء:

حدّ فاصل محدّد بدقة بين فئة وأخرى

غابة القرارات

#df

يشير ذلك المصطلح إلى نموذج يتم إنشاؤه من عدة أشجار قرارات. تُجري غابة القرارات توقّعات من خلال تجميع توقّعات أشجار القرارات. تشمل الأنواع الشائعة من غابات القرارات غابات عشوائية وأشجار مزروعة متدرجة.

اطّلِع على قسم شدَّد القرارات في دورة "شدَّد القرارات" للحصول على مزيد من المعلومات.

الحد الأدنى لاتخاذ القرار

مرادف الحد الأدنى للتصنيف.

شجرة القرار

#df

يشير هذا المصطلح إلى نموذج تعلُّم خاضع للإشراف مؤلّف من مجموعة من الشروط والمغادرة بتسلسل هرمي. على سبيل المثال، في ما يلي شجرة قرارات:

يشير هذا المصطلح إلى شجرة قرارات تتكوّن من أربعة شروط مرتّبة.
          بشكل هرمي، مما يؤدي إلى خمس أوراق.

برنامج فك الترميز

#language

بشكل عام، أي نظام تعلُّم آلي يحوّل من تمثيل داخلي كثيف أو تمّت معالجته إلى تمثيل أكثر كثافة أو تمثيل خارجي أو تمثيل أولي

غالبًا ما تكون برامج فك الترميز جزءًا من نموذج أكبر، حيث يتم استخدامها بشكل متكرر إلى جانب برنامج ترميز

في المهام المتسلسلة إلى التسلسل، أداة فك الترميز الحالة الداخلية التي ينشئها برنامج التشفير لتوقع التسلسل.

راجِع Transformer للاطّلاع على تعريف وحدة فك الترميز ضمن بنية Transformer.

الاطّلاع على النماذج اللغوية الكبيرة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من عنصر طبقة مخفية.

ويسمى النموذج العميق أيضًا الشبكة العصبونية العميقة.

يُرجى المقارنة مع النموذج الواسع النطاق.

شبكة عصبية عميقة

مرادف للنموذج العميق.

شبكة Deep QNetwork (DQN)

#rl

في التعرّف على الدالة Q، يتم استخدام شبكة عصبية عميقة تتوقّع وظائف الدالة Q.

المُراجع هو مصطلح مرادف لشبكة Q-العميقة.

التكافؤ الديموغرافي

#fairness

مقياس المساواة الذي يتم استيفاؤه إذا كانت نتائج تصنيف النموذج لا تعتمد على سمة حسّاسة معيّنة

على سبيل المثال، إذا انطبق كل من ليليبوتيان وبروبدينجيانس على لجامعة غلوب دوبدريب، يتم تحقيق التكافؤ الديموغرافي إذا كانت النسبة المئوية من سكان مدينة ليليبوتياين تساوي نفس النسبة المئوية لسكان بروددينجينا يتم قبولها، بغض النظر عما إذا كانت إحدى المجموعات أكثر تأهيلاً في المتوسط من الآخر.

يختلف ذلك عن المعدّلات المتكافئة و تكافؤ الفرص، اللذان يسمحان باستناد نتائج التصنيف بشكلٍ إجمالي إلى السمات الحسّاسة، ولكنّهما لا يسمحان باستناد نتائج التصنيف إلى سمات حسّاسة في تصنيفات معيّنة محدّدة الحقيقة الأساسية. عرض "الهجوم التمييز من خلال تعلُّم الآلة الأكثر ذكاءً" للحصول على تمثيل بصري واستكشاف المفاضلات عند التحسين من أجل التكافؤ الديموغرافي.

اطّلِع على الإنصاف: المساواة demographic في الدورة المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

إزالة الضوضاء

#language

منهج شائع للتعلُّم الذاتي المُوجَّه:

  1. التشويش: تتم إضافته بشكل مصطنع إلى مجموعة البيانات.
  2. يحاول model إزالة التشويش.

تتيح إزالة الضوضاء التعلّم من الأمثلة غير المصنّفة. تُستخدَم مجموعة البيانات الأصلية كمستهدَف أو تصنيف و البيانات المشوشة كمدخل.

تستخدِم بعض النماذج اللغوية المقنَّعة ميزة تقليل الضوضاء على النحو التالي:

  1. تتم إضافة الضوضاء بشكل مصطنع إلى جملة غير مصنَّفة من خلال إخفاء بعض الرموز المميزة.
  2. يحاول النموذج التنبؤ بالرموز المميزة الأصلية.

خاصية كثيفة

#fundamentals

سمة تكون فيها معظم القيم أو جميعها غير صفرية، وتكون عادةً Tensor من القيم الكسورية. على سبيل المثال، يلي مكثّف لأنّ 9 من قيمه غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع الميزة البسيطة.

طبقة كثيفة

يشير ذلك المصطلح إلى الطبقة المتصلة بالكامل.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

فعلى سبيل المثال، يمكن إنشاء شبكة عصبية مكونة من خمس طبقات مخفية وطبقة إخراج واحدة. يبلغ عمقها 6.

لاحِظ أنّ طبقة الإدخال لا وعمق التأثير.

الشبكة العصبونية الالتفافية القابلة للفصل بين العمق (sepCNN)

#image

بنية شبكة عصبية تفافية تستند إلى Inception، ولكن يتم استبدال وحدات Inception بعمليات التفاف القابلة للفصل على مستوى العمق. يُعرف أيضًا باسم Xception.

التفاف قابل للفصل بعمق أكبر (يُختصَر أيضًا باسم التفاف قابل للفصل) يعمل الالتفاف ثلاثي الأبعاد القياسي على تحليل عمليتين منفصلتين من الالتفاف. أكثر فعالية من الناحية الحسابية: أولاً، الالتفاف الحاسم، مع عمق 1 (n topic n na 1) ثم التفاف نقاط، بالطول والعرض 1 (1 احرص على 1 فوز 1 فوز 1).

لمزيد من المعلومات، يمكنك الاطّلاع على مقالة Xception: التعلم المتعمق مع Depthwise Separable الالتفاف:

تصنيف مشتق

مرادف لتصنيف تقريبي.

جهاز

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عبارة عن حمل زائد مع التعريفَين التاليَين:

  1. فئة من الأجهزة التي يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الموتّرات
  2. عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، وهو جزء من النظام يعالج فعليًا Tenors والتضمينات: يعمل الجهاز على شرائح مسرعات. في المقابل، يعمل المضيف عادةً على وحدة المعالجة المركزية.

الخصوصية التفاضلية

يشير ذلك المصطلح إلى أسلوب إخفاء الهوية في تعلُّم الآلة لحماية أي بيانات حسّاسة. (على سبيل المثال، المعلومات الشخصية للفرد) التي يتم تضمينها في نموذج مجموعة التدريب من الظهور. يضمن هذا النهجعدم تعلُّم النموذج أو تذكُّره الكثير من المعلومات عن شخص معيّن. يتم تحقيق ذلك عن طريق جمع العينات وإضافة التشويش أثناء النموذج والتدريب لإخفاء نقاط البيانات الفردية، وتخفيف خطر كشف بيانات التدريب الحساسة.

ويُستخدَم أسلوب "الخصوصية التفاضلية" أيضًا خارج نطاق تعلُّم الآلة. على سبيل المثال، يستخدم علماء البيانات أحيانًا الخصوصية التفاضلية لحماية الخصوصية الفردية عند احتساب إحصاءات استخدام المنتجات لشرائح ديمغرافية مختلفة.

تقليل الأبعاد

تقليل عدد الأبعاد المستخدمة لتمثيل ميزة معينة في خط متجه الخصائص، عادةً عن طريق التحويل إلى متّجه تضمين.

الأبعاد

مصطلح مُحمَّل بحمولة زائدة يتضمّن أيًا من التعريفات التالية:

  • عدد مستويات الإحداثيات في Tensor على سبيل المثال:

    • لا يحتوي المقياس على أيّ سمات، على سبيل المثال، ["Hello"].
    • الخط المتجه له بُعد واحد؛ على سبيل المثال، [3, 5, 7, 11].
    • للمصفوفة بُعدان؛ على سبيل المثال، [[2, 4, 18], [5, 7, 14]]. يمكنك تحديد خلية معيّنة بشكل فريد في متجه أحادي البعد باستخدام إحداثي واحد، ويجب استخدام إحداثيَين لتحديد خلية معيّنة بشكل فريد في مصفوفة ثنائية الأبعاد.
  • عدد الإدخالات في متّجه الميزة.

  • عدد العناصر في طبقة تضمين.

طلب مباشر

#language
#generativeAI

مرادف لـ الطلب بلا مثال.

خاصية منفصلة

#fundamentals

سمة تتضمّن مجموعة محدودة من القيم المحتملة على سبيل المثال: الميزة التي قد تكون قيمها قد تكون فقط حيوان أو خضار أو معدن هي منفصلة (أو فئوية).

التباين مع الميزة المستمرة.

نموذج تمييزي

نموذج يتنبّأ بالتصنيفات من مجموعة من سمة واحدة أو أكثر بشكل أكثر رسمية، تحدِّد النماذج التفريقية الاحتمالية الشَرطية لنتيجة معيّنة استنادًا إلى الميزات و الأوزان، أي:

p(output | features, weights)

فعلى سبيل المثال، نموذج يتنبأ بما إذا كانت الرسالة الإلكترونية هي رسالة غير مرغوب فيها من الميزات والأوزان نموذج تمييزي.

الغالبية العظمى من نماذج التعلم المُوجّه، بما في ذلك التصنيف ونماذج الانحدار، هي نماذج تمييزية.

التباين مع النموذج التوليدي.

أداة تمييز

نظام يحدّد ما إذا كانت الأمثلة حقيقية أو مزيّفة

بدلاً من ذلك، يمكن أن يعمل النظام الفرعي ضمن النظام الخداعي التوليدي الشبكة التي تحدد ما إذا كان أن تكون الأمثلة التي أنشأها منشئ المحتوى حقيقية أو مزيّفة.

الاطّلاع على الجهة المميِّزة في دورة GAN لمزيد من المعلومات.

التأثير غير المتكافئ

#fairness

اتّخاذ قرارات عن الأشخاص تؤثر بشكل غير متناسب في مجموعات فرعية مختلفة من السكان ويشير ذلك عادةً إلى الحالات التي تضر فيها عملية صنع القرار المستندة إلى الخوارزميات ببعض المجموعات الفرعية أو تعود بالنفع عليها أكثر من غيرها.

فعلى سبيل المثال، لنفترض أن الخوارزمية التي تحدد هدف ليليبوتيان. من المرجح أن يتم تصنيف الأهلية للحصول على قرض منزل مصغر على أنهم "غير مؤهلين" إذا كان عنوانه البريدي يحتوي على علامة الرمز البريدي. إذا كان من المرجح أن يكون لدى العناوين البريدية التي تحمل هذا الرمز البريدي أكثر من Little-Endian Lilliputians، فقد ينتج عن هذه الخوارزمية تأثيرًا متباينًا.

التباين مع المعالجة المتباينة، الذي يركز على التناقضات التي تنتج عندما تبرز خصائص هي مدخلات صريحة إلى عملية اتخاذ القرار الخوارزمية.

العلاج المتباين

#fairness

أخذ السمات الحسّاسة للمشاركين في الاعتبار في عملية اتخاذ القرار بالاستناد إلى الخوارزميات، ما يؤدي إلى التعامل مع مجموعات فرعية مختلفة من الأشخاص بشكل مختلف

على سبيل المثال، لنفترض أنّ هناك خوارزمية تحدد أهلية الأقزام للحصول على قرض لشراء منزل صغير بناءً على البيانات التي يقدّمونها في طلب القرض. إذا كانت الخوارزمية تستخدم كان ارتباط ليليبوتيان كـ Big-Endian أو Little-Endian كمدخل، تطبيق معالجة متباينة على هذا البعد.

تباين مع التأثير المتباين الذي يركز على الاختلافات في التأثيرات المجتمعية للقرارات الخوارزمية على المجموعات الفرعية، بغض النظر عمَّا إذا كانت تلك المجموعات الفرعية مدخلات إلى النموذج أم لا.

التقطير

#generativeAI

عملية تقليل حجم نموذج واحد (يُعرف باسم author) إلى نموذج أصغر (يُعرف باسم student) يحاكي تنبؤات النموذج الأصلي بأكبر قدر ممكن من الصدق. إنّ التكثيف مفيد لأنّ النموذج الأصغر حجمًا يقدّم ميزتَين رئيسيتين مقارنةً بالنموذج الأكبر حجمًا (المعلّم):

  • وقت استنتاج أسرع
  • خفض استهلاك الذاكرة والطاقة

ومع ذلك، لا تكون توقّعات الطلاب عادةً جيدة مثل توقّعات المعلّم.

تدرّب عملية الاستخلاص نموذج الطالب لتقليل دالة الخسارة استنادًا إلى الفرق بين المخرجات لتنبؤات نماذج الطلاب والمعلمين.

تحديد أوجه الاختلاف والتشابه بين الاستخلاص والمصطلحات التالية:

راجِع النماذج اللغوية الكبيرة: الضبط الدقيق والاستخلاص والطلب الهندسة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

distribution

التكرار ونطاق القيم المختلفة لعنصر معين feature أو label. يوضّح التوزيع مدى احتمالية ظهور قيمة معيّنة.

تعرض الصورة التالية الرسوم البيانية للشرائح البيانية لتوزيعَين مختلفَين:

  • على اليسار، توزيع قانون السلطة للثروة مقابل عدد الأشخاص امتلاك هذه الثروة.
  • على اليمين، توزيع طبيعي للطول مقابل عدد الأشخاص تمتلك هذا الارتفاع.

مدرّجان تكراريان يعرض مخطّط بياني تكراري واحد توزيعًا لقانون الطاقة مع
          عرض الثروة على محور السينات وعدد الأشخاص الذين لديهم هذه الثروة على محور القصّات. يمتلك معظم الناس ثروة قليلة جدًا، وقلة قليلة
          الكثير من الثروة. يوضح المدرّج التكراري الآخر توزيعًا طبيعيًا
          بالطول على المحور x وعدد الأشخاص الذين لديهم هذا الطول
          على المحور y. يتجمّع معظم الأشخاص في مكان ما بالقرب من المتوسط.

يمكن أن يساعدك فهم كل ميزة وتوزيع تصنيف في تحديد كيف لتسوية القيم واكتشاف القيم الشاذّة.

تشير عبارة out of distribution إلى قيمة لا تظهر في أو نادرة جدًا. على سبيل المثال، سيتم اعتبار صورة كوكب زحل خارج نطاق التوزيع لمجموعة بيانات تتألف من صور قطط.

التجميع التفاضلي

#clustering

اطّلِع على التجميع الهرمي.

تصغير نطاق العيّنات

#image

مصطلح يحمل أكثر من معنى واحد، ويمكن أن يعني أيًا مما يلي:

اطّلِع على مجموعات البيانات: مجموعات البيانات غير المتوازنة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

DQN

#rl

اختصار Deep Q-Network.

تسوية الإسقاط

يشير هذا المصطلح إلى أحد أشكال التنظيم المفيد في التدريب. الشبكات العصبونية. تزيل عملية تنظيم "الإيقاف المؤقت" اختيارًا عشوائيًا لعدد ثابت من الوحدات في أحد طبقات الشبكة لخطوة واحدة من التدرّج. كلما زاد عدد الوحدات التي تم حذفها، زادت التسوية. ويشبه ذلك تدريب الشبكة على محاكاة مجموعة كبيرة بشكلٍ كبير من الشبكات الأصغر حجمًا. لمعرفة التفاصيل الكاملة، يُرجى الاطّلاع على مقالة Dropout: A Simple Way to Prevent Neural Networks from Overfitting (الحذف العشوائي للطبقات: طريقة بسيطة لمنع الشبكات العصبية من التعلّم الزائد).

ديناميكي

#fundamentals

إجراء يتم بشكل متكرر أو مستمر إنّ المصطلحين ديناميكي وعلى الإنترنت هما مترادفَان في مجال تعلُّم الآلة. في ما يلي الاستخدامات الشائعة للإعلانات الديناميكية والإعلانات على الإنترنت في التعلم الآلي:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرّر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية توليد توقعات عند الطلب.

نموذج متغيّر

#fundamentals

نموذج تتم إعادة تدريبه بشكل متكرر (أو ربما بشكل مستمر). النموذج الديناميكي هو "مدرِّب طوال الحياة" يتكيّف باستمرار مع البيانات المتغيّرة. يُعرف النموذج الديناميكي أيضًا باسم على الإنترنت.

التباين مع النموذج الثابت.

E

التنفيذ الفوري

#TensorFlow

بيئة برمجة TensorFlow يتم فيها تنفيذ العمليات على الفور. وعلى النقيض من ذلك، فإن العمليات التي يتم استدعاؤها لا يتم تنفيذ تنفيذ الرسم البياني إلى أن يتم تنفيذ ذلك بشكل صريح التقييم. التنفيذ السريع هو الحاسمة، مثل الرمز في معظم لغات البرمجة. تُعد برامج التنفيذ الحرجة بشكل عام، يكون تصحيح الأخطاء أسهل بكثير من برامج تنفيذ الرسم البياني.

إيقاف مبكر

#fundamentals

طريقة للتسويف تتضمن إنهاء التدريب قبل انتهاء انخفاض خسارة التدريب. في عملية الإيقاف المبكر، تتوقف عن تدريب النموذج عمدًا عندما يبدأ خسارة مجموعة بيانات التحقّق في الزيادة، أي عندما ينخفض أداء التعميم.

مسافة نقل التربة (EMD)

مقياس للتشابه النسبي لاثنين من توزيعات. كلما انخفضت مسافة نقل التربة، كان التوزيعان أكثر تشابهًا.

مسافة التعديل

#language

يشير ذلك المصطلح إلى قياس لمدى تشابه سلسلتَين نصيتَين مع بعضهما. وفي تعلُّم الآلة، يكون تعديل المسافة مفيدًا لأنه من السهل والحوسبة، وطريقة فعالة لمقارنة سلسلتين معروفتين مشابهة أو للعثور على سلاسل مشابهة لسلسلة معينة.

هناك عدة تعريفات لمسافة التعديل، وكلّ منها يستخدم عمليات مختلفة على السلسلة. على سبيل المثال، تأخذ مسافة Levenshtein في الاعتبار أقل عدد من عمليات الحذف والإدراج والاستبدال.

على سبيل المثال، تبلغ المسافة بين كلمتَي heart وdarts 3 لأنّ التعديلات الثلاثة التالية هي أقل التغييرات التي يمكن إجراؤها لتحويل كلمة إلى الأخرى:

  1. قلب ← قلب (استبدل "ع" بـ "د")
  2. deart → dart (حذف "e")
  3. dart → darts (إدراج "s")

ترميز Einsum

يشير ذلك المصطلح إلى علامة فعّالة لوصف كيفية استخدام عاملي متوتر. مجتمعة. يتم جمع العشرات من خلال ضرب عناصر متوتر واحد. باستخدام عناصر الموتر الآخر ثم جمع النواتج. يستخدم أسلوب Einsum رموزًا لتحديد محاور كل مصفوفة تينسور، ويتم إعادة ترتيب هذه الرموز نفسها لتحديد شكل المصفوفة الناتجة الجديدة.

يوفّر NumPy تنفيذًا شائعًا لواجهة Einsum.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على سمة فئوية عالية الأبعاد بهدف تعلم مصفوفة إدراج ذات أبعاد أقل تدريجيًا تسمح طبقة التضمين للشبكة العصبية بالتدريب بفعالية أكبر بكثير مقارنةً بالتدريب على الميزة الفئوية العالية الأبعاد فقط.

على سبيل المثال، تتضمّن خدمة Earth حاليًا حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي سمة في النموذج، لذا تتضمّن الطبقة المدخلة في النموذج متجهًا أحادي القيمة يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل السمة baobab على النحو التالي:

مصفوفة من 73,000 عنصر تحتوي العناصر الـ 6,232 الأولى على القيمة
     0. يحمل العنصر التالي القيمة 1. يحمل آخر 66,767 عنصرًا
     بالقيمة صفر.

إنّ مصفوفة تتضمّن 73,000 عنصر طويلة جدًا. في حال عدم إضافة طبقة تضمين النموذج، وسيستغرق التدريب وقتًا طويلاً للغاية بسبب نضرب 72999 صفرًا. ربما تختار طبقة التضمين لتضمين من 12 بُعدًا. وبالتالي، تتعلم طبقة التضمين تدريجيًا متجه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً. إلى طبقة تضمين.

الاطّلاع على التضمينات في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

مساحة التضمين

#language

يشير ذلك المصطلح إلى مساحة الخط المتجه ذي الأبعاد d. مساحة الخط المتجه إليها. ومن الناحية المثالية، تحتوي مساحة التضمين على هيكل تسفر عن نتائج رياضية ذات مغزى؛ على سبيل المثال، في مساحة تضمين مثالية، إلى جانب تجميع وطرح التضمينات حل مهام تشبيه الكلمات.

منتج النقاط تضمينان هو مقياس للتشابه.

تضمين متجه

#language

يمكن الإشارة بشكل عام إلى مجموعة من أرقام النقطة العائمة المأخوذة من أي الطبقة المخفية التي تصف مدخلات تلك الطبقة المخفية. غالبًا ما يكون متجه التضمين هو صفيف الأرقام الكسور العشرية التي تم تدريبها في طبقة التضمين. على سبيل المثال، لنفترض أن طبقة التضمين يجب أن تتعرف على تضمين متجه لكل نوع من أنواع الأشجار البالغ عددها 73000 نوع على الأرض. ربما تكون الصفيفة التالية هي متجه التضمين لشجرة الباوباب:

مصفوفة من 12 عنصرًا، يحتوي كلّ منها على عدد بنقطة عائمة
          يتراوح بين 0.0 و1.0

إنّ متجه التضمين ليس مجموعة من الأرقام العشوائية. تحدِّد طبقة التضمين هذه القيم من خلال التدريب، على غرار الطريقة التي تتعلّم بها الشبكة العصبية الأوزان الأخرى أثناء التدريب. يُعد كل عنصر من عناصر تصنيف الصفيفة إلى جانب بعض خصائص أنواع الأشجار. أي التي تمثل أنواع الأشجار بشكل أفضل؟ من الصعب جدًا تحديد ذلك للمستخدمين.

إنّ الجزء المميّز رياضيًا من متجه التضمين هو أنّ العناصر المشابهة تحتوي على مجموعات متشابهة من الأعداد الكسورية. على سبيل المثال: تحتوي أنواع الأشجار على مجموعة أكثر تشابهًا من أعداد النقاط العائمة أنواع الأشجار المختلفة. تُعدّ أشجار السرو الأحمر وأشجار السكويا من أنواع الأشجار ذات الصلة، لذلك سيكون لها مجموعة أكثر تشابهًا من الأرقام ذات النقطة العائمة مقارنةً بمجموعة أشجار السرو الأحمر وأشجار جوز الهند. ستكون الأرقام في متجه التضمين التغيير في كل مرة تُعيد فيها تدريب النموذج، حتى لو أعدت تدريب النموذج مع إدخال متطابق.

دالة التوزيع التراكمي التجريبية (eCDF أو EDF)

دالة توزيع تراكمي استنادًا إلى القياسات التجريبية من مجموعة بيانات حقيقية تحدد قيمة في أي نقطة على طول المحور x هو جزء من الملاحظات في مجموعة البيانات الأقل من أو تساوي القيمة المحددة.

تقليل المخاطر التجريبية (ERM)

اختيار الدالة التي تقلّل الخسارة في مجموعة التدريب يُرجى الاطّلاع على تقليص المخاطر البنيوية.

برنامج تشفير

#language

بشكل عام، إنّ أي نظام لتعلُّم الآلة يُجري عملية تحويل من تنسيق أولي أو متناثر أو خارجي إلى تمثيل داخلي أكثر معالجة أو كثافة أو أكثر.

غالبًا ما تكون برامج الترميز جزءًا من نموذج أكبر، حيث يتم استخدامها بشكل متكرّر إلى جانب برنامج فك الترميز بعض المحوّلات إقران برامج الترميز ببرامج فك الترميز، علمًا أنّ المحولات الأخرى لا تستخدم سوى برنامج الترميز أو برنامج فك الترميز فقط.

وتستخدم بعض الأنظمة مخرجات برنامج التشفير كمدخل للتصنيف أو شبكة الانحدار.

في مهام تسلسل إلى تسلسل، يأخذ الترميز تسلسل إدخال ويعرض حالة داخلية (متجه). بعد ذلك، يستخدم برنامج فك الترميز هذه الحالة الداخلية لتوقّع التسلسل التالي.

راجِع Transformer للاطّلاع على تعريف برنامج الترميز في بنية Transformer.

راجِع النماذج اللغوية الكبيرة: ما معنى اللغة الكبيرة؟ نموذج في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

مجموعة موحدة

مجموعة من النماذج التي تم تدريبها بشكل مستقل ويتم تجميع أو احتساب متوسط توقّعاتها في كثير من الحالات، ينتج عن المجموعة النموذجية أفضل أكثر من نموذج واحد. على سبيل المثال، الغابة العشوائية هي مجموعة مبنية من عدة مصادر أشجار القرارات: لاحظ أنه ليس كل غابات القرارات هي مجموعات موحدة.

عرض عشوائي الغابة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

الإنتروبيا

#df

ضِمن نظرية المعلومات، وصف لمدى عدم إمكانية التنبؤ توزيعها. وبدلاً من ذلك، يُعرَّف القصور أيضًا بأنه مقدار المعلومات التي يحتوي عليها كل مثال. يكون للتوزيع أعلى قيمة ممكنة من الانتروبي عندما تكون جميع قيم المتغيّر العشوائي محتملة بشكلٍ متساوٍ.

إنّ معلومات مجموعة تتضمّن قيمتَين محتملتَين "0" و"1" (مثل العلامات في مشكلة التصنيف الثنائي) لها الصيغة التالية:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

حيث:

  • H هو القصور.
  • p هو كسر "1" الأمثلة.
  • q هو كسر "0" الأمثلة. لاحظ أن q = (1 - p)
  • السجلّ هو عادةً السجلّ2. في هذه الحالة، تكون وحدة التشويش هي بت.

على سبيل المثال، لنفترض ما يلي:

  • 100 مثال تحتوي على القيمة "1"
  • 300 مثال تحتوي على القيمة "0"

وبالتالي، تكون قيمة القصور هي:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 بت لكل مثال

مجموعة متوازنة تمامًا (على سبيل المثال، 200 "0" و200 "1") قد يكون هناك قصور يبلغ 1.0 بت لكل مثال. عندما تصبح المجموعة أكثر غير متوازن، يتحرك قصوره باتجاه 0.0.

في أشجار القرارات، يساعد القصور في تشكيل تحصيل المعلومات لمساعدة التقسيم لاختيار الشروط أثناء نمو شجرة قرارات التصنيف.

مقارنة الإنتروبيا بما يلي:

يُطلق على القصور غالبًا اسم قصور Shannon.

راجِع القسم التقسيم الدقيق للتصنيف الثنائي مع البيانات الرقمية الميزات في الدورة التدريبية "غابات القرار" للحصول على مزيد من المعلومات.

بيئة

#rl

في التعلّم التعزيزي، هو العالم الذي يحتوي على العامل ويسمح له بمراقبة حالة هذا العالم. على سبيل المثال: العالم الممثَّل يمكن أن يكون لعبة مثل الشطرنج، أو عالم مادي مثل متاهة عندما يطبِّق الوكيل إجراءً على البيئة، ثم تنتقل البيئة بين الحالات.

حلقة

#rl

في التعلم المعزّز، يتم اتخاذ كل من المحاولات المتكررة الوكيل للتعرّف على البيئة.

حقبة

#fundamentals

تمريرة تدريبية كاملة على مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة

يمثّل الطور N/حجم الحزمة تكرار التدريب، حيث يكون N هو إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض أن ما يلي:

  • تتألف مجموعة البيانات من 1,000 مثال.
  • حجم الدفعة هو 50 مثالاً.

وبالتالي، تتطلب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

اطّلِع على الانحدار الخطي: المَعلمات الفائقة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

سياسة إبسيلون الجشع

#rl

في التعلّم التعزيزي، سياسة تتّبع إما سياسة عشوائية بالاحتمالية "إبسيلون" أو سياسة جشع بخلاف ذلك على سبيل المثال، إذا كان إبسيلون هو 0.9، إذن تتبع السياسة سياسة عشوائية بنسبة 90% من الوقت وطمعة السياسة بنسبة 10% من الوقت.

في الحلقات المتتالية، تقلّل الخوارزمية من قيمة إبسيلون بالترتيب. الانتقال من اتّباع سياسة عشوائية إلى سياسة طمعة. من خلال تغيير السياسة، يستكشف الوكيل البيئة بشكل عشوائي أولاً، ثم يستغل نتائج الاستكشاف العشوائي بشكل جشع.

تكافؤ الفرص

#fairness

مقياس إنصاف لتقييم ما إذا كان النموذج التنبؤ بالنتيجة المرجوة بشكل متساوٍ لجميع قيم سمة حسّاسة بعبارة أخرى، إذا كانت النتيجة المطلوبة للنموذج هي الفئة الموجبة، سيكون الهدف هو أن يكون معدل الإيجابية الحقيقية هو نفسه لجميع المجموعات.

ترتبط تكافؤ الفرص بالاحتمالات المتساوية، الأمر الذي يتطلب أن كل من المعدلات الموجبة الصائبة تكون الأسعار الموجبة الخاطئة هي نفسها لجميع المجموعات.

لنفترض أن جامعة غلوب دوبدريب تعترف بكل من ليليبوتيان وبروبديناجيان. إلى برنامج رياضيات صارم. تقدّم المدارس الثانوية في جزيرة Lilliput منهجًا أكاديميًا غنيًا لدروس الرياضيات، وتكون الغالبية العظمى من الطلاب مؤهّلة للالتحاق بالبرنامج الجامعي. برودديناجينز المدارس الثانوية دروس الرياضيات على الإطلاق، ونتيجةً لذلك، يقل عدد طلابهم مؤهلاً. يتمّ تحقيق المساواة في الفرص للتصنيف المفضّل "تمّ قبوله" حسب الجنسية (Lilliputian أو Brobdingnagian) إذا كان من المحتمل أن يتم قبول الطلاب المؤهّلين بشكلٍ متساوٍ بغض النظر عمّا إذا كانوا من Lilliputian أو Brobdingnagian.

على سبيل المثال، لنفترض أن 100 من Lilliputian و100 من Brobdingnagis ينطبق عليهم يتم اتّخاذ القرارات المتعلّقة بقبول طلبات الالتحاق بجامعة غلوب دوبدريب على النحو التالي:

الجدول 1. مقدّمو الطلبات الصغار (90% منهم مؤهّلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 3
تم الرفض 45 7
المجموع 90 10
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 7/10 = 70%
النسبة المئوية الإجمالية للطلاب من جزيرة Lilliput الذين تم قبولهم: (45+3)/100 = 48%

 

الجدول 2: مقدّمو الطلبات من الشركات الكبيرة (10% منهم مؤهّلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 9
تم الرفض 5 81
المجموع 10 90
النسبة المئوية للطلاب المؤهَّلين الذين تم قبولهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهَّلين الذين تم رفضهم: 81/90 = 90%
النسبة المئوية الإجمالية للطلاب الذين تم قبولهم في جامعة Brobdingnagian: (5+9)/100 = 14%

تلبي الأمثلة السابقة تكافؤ فرص قبول وطلاب مؤهلين لأن كلاً من Lilliputians وBrobdingnagians المؤهلين فرصة 50% للسماح لهم بالانضمام إلى البرنامج.

على الرغم من استيفاء مقياس المساواة في الفرص، فإنّ مقياسَي المساواة التاليَين لا يتم استيفاؤهما:

  • التكافؤ السكاني: ليليبوتيان يتم قبول سكان "بروبردينجيون" في الجامعة بمعدلات مختلفة. يتم قبول 48٪ من طلاب ليليبوتيان، ولكن 14٪ فقط من ويمكن انضمام طلاب مدرسة Brobdingnagian.
  • الاحتمالات المتساوية: على الرغم من أنّ الطلاب المؤهَّلين من جزيرة Lilliput وطلاب جزيرة Brobdingnag لديهما فرصة متساوية للقبول، لا يتم استيفاء القيود الإضافية التي تقضي بأنّ الطلاب غير المؤهَّلين من جزيرة Lilliput وطلاب جزيرة Brobdingnag لديهما فرصة متساوية للرفض. يُرجى العِلم أنّ معدّل رفض طلبات مستخدمي Lilliputians غير المؤهَّلين يبلغ %70، في حين أنّه يرتفع إلى %90 بالنسبة إلى مستخدمي Brobdingnag غير المؤهَّلين.

اطّلِع على الإنصاف: المساواة في فرص الوصول في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الاحتمالات المتكافئة

#fairness

مقياس لعدالة النموذج لتقييم ما إذا كان النموذج يتنبأ بالنتائج بشكلٍ متساوٍ بنفس الجودة لجميع قيم السمة الحسّاسة مع الأخذ في الاعتبار كلّ من الفئة الموجبة و الفئة السالبة، وليس فئة واحدة فقط حصريًا. بعبارة أخرى، نجد أن كلاً من المعدل الموجب الصحيح ويجب أن يكون معدّل السالب الخاطئ هو نفسه جميع المجموعات.

ترتبط الاحتمالات المتكافئة بتكافؤ الفرص الذي لا يركز إلا على معدلات الخطأ لفئة واحدة (موجبة أو سالبة).

على سبيل المثال، لنفترض أنّ جامعة Glubbdubdrib تقبل كلّ من سكان Lilliput و Brobdingnag في برنامج رياضيات صارم. ليليبوتيانز ثانوي المدارس منهجًا قويًا لدروس الرياضيات، وأن الغالبية العظمى من طالبًا مؤهلين للانضمام إلى برنامج الجامعة. برودديناجينز ثانوي المدارس لا تقدم دروسًا في الرياضيات على الإطلاق، ونتيجةً لذلك، يقل عدد طلابهم مؤهلين. يتم استيفاء الاحتمالات المتكافئة شرطًا بغض النظر عمّا إذا كان مقدم الطلب من جزيرة Lilliput أو Brobdingnagian، إذا كان مؤهلاً، من المرجّح أن يتم قبوله في البرنامج، وإذا لم يكن مؤهلاً، من المرجّح أن يتم رفضه.

لنفرض أنّ 100 شخص من "ليليبوتيان" و100 شخص من "الأخوين" يتقدمون بطلب للانضمام إلى Glubbdubdrib يتم اتخاذ القرارات المتعلقة بالجامعة والقبول على النحو التالي:

الجدول 3. مقدّمو الطلبات الصغار (90% منهم مؤهّلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 2
تم الرفض 45 8
المجموع 90 10
النسبة المئوية للطلاب المؤهلين المسموح بهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 8/10 = 80%
النسبة المئوية الإجمالية للطلاب في مدينة ليليبوتية المتاحين بها: (45+2)/100 = 47%

 

الجدول 4. مقدمو طلبات الانضمام إلى برنامج Brobdingnagian (%10 مؤهلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 18
تم الرفض 5 72
المجموع 10 90
النسبة المئوية للطلاب المؤهلين المسموح بهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 72/90 = 80%
النسبة المئوية الإجمالية للطلاب الذين انضموا إلى جامعة Brobdingnagian: (5+18)/100 = 23%

يتم استيفاء الاحتمالات المتكافئة لأنّه تتوفّر لكل من الطلاب المؤهَّلين من جزيرة Lilliput وطلاب Brobdingnagian فرصة بنسبة %50 للقبول، بينما تتوفّر لكل من الطلاب غير المؤهَّلين من جزيرة Lilliput وطلاب Brobdingnagian فرصة بنسبة %80 للرفض.

يتم تعريف الاحتمالات المتكافئة رسميًا في مقالة "المساواة في الفرص في التعلّم الخاضع للإشراف" على النحو التالي: "يحقّق المتنبّئ Ŷ احتمالات متكافئة بالنسبة إلى السمة المحمية "أ" والنتيجة "ص" إذا كان Ŷ و"أ" مستقلّين، شريطة أن تكون "ص" مشروطة بـ "ص"."

مقدِّر

#TensorFlow

واجهة برمجة تطبيقات TensorFlow منتهية الصلاحية استخدام tf.keras بدلاً من ذلك من المقدرين.

evals

#language
#generativeAI

يُستخدم بشكل أساسي كاختصار لتقييمات النموذج اللغوي الكبير. وعلى نطاق أوسع، التقييمات هي اختصار لأي شكل من أشكال التقييم.

التقييم

#language
#generativeAI

يشير ذلك المصطلح إلى عملية قياس جودة أحد النماذج أو مقارنة النماذج المختلفة. مقابل بعضنا البعض.

لتقييم تعلُّم الآلة الخاضع للإشراف نموذج، يمكنك الحكم عليه عادةً من خلال مجموعة تحقُّق ومجموعة اختبار. تقييم النموذج اللغوي الكبير تقييمات أوسع للجودة والأمان.

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات والتصنيف المحتمل تندرج الأمثلة في التعلم المُوجّه ضمن فئتين عامتَين:

  • يتألّف المثال المصنّف من سمة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المُصنَّفة أثناء عملية التدريب.
  • يتألف المثال غير المصنّف من ميزة واحدة أو أكثر بدون تصنيف. يتم استخدام الأمثلة غير المصنفة أثناء الاستنتاج.

فعلى سبيل المثال، افترض أنك تتدرب على نموذج لتحديد تأثير أحوال الطقس على درجات اختبار الطالب. فيما يلي ثلاثة أمثلة مصنفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف dataset هو المصدر الأولي للمثال. أي أن المثال يتكون عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. بالإضافة إلى ذلك، يمكن أن تتضمّن الميزات في المثال أيضًا ميزات اصطناعية، مثل تقاطعات الميزات.

الاطّلاع على التعلُّم المُوجّه في دورة مقدمة عن التعلم الآلي لمزيد من المعلومات.

إعادة تشغيل التجربة

#rl

في التعلُّم التعزيزي، تُستخدَم تقنية DQN بهدف تقليل الارتباطات الزمنية في بيانات التدريب. الوكيل يخزِّن انتقالات الحالة في مخزن مؤقت لإعادة التشغيل، ثم نماذج انتقالات من المخزن المؤقت لإعادة التشغيل لإنشاء بيانات تدريب.

انحياز المُختبِر

#fairness

اطّلِع على الانحياز التأكيدي.

مشكلة التدرّج المتزايد

#seq

ميل التدرجات في الشبكات العصبونية العميقة (خاصةً الشبكات العصبونية المتكررة) لتصبح شديد الانحدار (مرتفع) بشكل مدهش. غالبًا ما تؤدي التدرجات الحادة إلى تعديلات كبيرة جدًا في الأوزان لكل عقدة في الشبكة العصبية العميقة.

النماذج التي تعاني من مشكلة التدرج المتفجر تصبح صعبة أو من المستحيل تدريبه. الاقتصاص المتدرج التخفيف من هذه المشكلة.

قارِن ذلك بمشكلة تلاشي التدرّج.

F

سيارات F1

مقياس تصنيف ثنائي "مجمّع" يعتمد على كلّ من الدقة والتذكر. في ما يلي الصيغة:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

على سبيل المثال، في ما يلي ما يلي:

  • الدقة = 0.6
  • التذكُّر = 0.4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

عندما تكون الدقة واكتمال التوقعات الإيجابية متشابهَين إلى حدٍ كبير (كما هو الحال في المثال السابق)، يقترب 1 من متوسطهما. عندما تختلف الدقة والتذكر بشكلٍ ملحوظ، يكون مقياس دقة الاختبار1 أقرب إلى القيمة الأقل. على سبيل المثال:

  • الدقة = 0.9
  • recall = 0.1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

قيد الإنصاف

#fairness
تطبيق قيد على خوارزمية لضمان توفُّر تعريف واحد أو أكثر الإنصاف راضين. تشمل أمثلة قيود الإنصاف ما يلي:

مقياس المساواة

#fairness

تعريف رياضي لكلمة "الإنصاف" قابلة للقياس. تتضمن بعض مقاييس الإنصاف الشائعة الاستخدام ما يلي:

العديد من مقاييس الإنصاف تكون حصرية بشكل متبادل؛ الرؤية عدم توافق مقاييس الإنصاف:

نتيجة سالبة خاطئة (FN)

#fundamentals

مثال يتنبأ فيه النموذج عن طريق الخطأ بال الفئة السلبية. على سبيل المثال، يعبِّر النموذج يتنبأ بأن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، لكن هذه الرسالة الإلكترونية في الواقع هي رسالة غير مرغوب فيها.

معدّل النتائج السالبة الخاطئة

يشير ذلك المصطلح إلى نسبة الأمثلة الموجبة الفعلية التي توقّع النموذج خطأً أنّها تنتمي إلى الفئة السالبة. تحسب المعادلة التالية القيمة false معدل سلبي:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

اطّلِع على الحدود القصوى وجدول الارتباك في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

موجب خاطئ (FP)

#fundamentals

يشير هذا المصطلح إلى مثال يتنبأ فيه النموذج عن طريق الخطأ فئة إيجابية. على سبيل المثال، يتنبأ النموذج أن رسالة معينة تمثل رسالة غير مرغوب فيها (الفئة الإيجابية)، لكن من أن تكون رسالة غير مرغوب فيها في الواقع.

راجع الحدود الدنيا والالتباس مصفوفة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير هذا المصطلح إلى نسبة الأمثلة السلبية الفعلية التي تم رصدها عن طريق الخطأ. تتنبأ الفئة الموجبة. تحتسب الصيغة التالية معدّل النتيجة الإيجابية الزائفة:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدّل الموجب الخاطئ هو المحور "س" في منحنى RoC.

اطّلِع على التصنيف: مقياس ROC و AUC في دورة التعلّم الآلي المكثّفة للحصول على مزيد من المعلومات.

ميزة

#fundamentals

يشير ذلك المصطلح إلى متغيّر إدخال في نموذج تعلُّم الآلة. يتكون المثال من سمة واحدة أو أكثر. على سبيل المثال، لنفترض أنّك تدرِّب نموذجًا لتحديد تأثير الظروف الجوية في درجات اختبارات الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلٌ منها على ثلاث ميزات وتسمية واحدة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع التصنيف

الاطّلاع على التعلّم المُوجّه في دورة مقدمة عن التعلم الآلي للحصول على مزيد من المعلومات.

مضروب مجموعات الخصائص

#fundamentals

ميزة اصطناعية تم تكوينها من خلال عبارة "دمج" ميزات فئوية أو مجمّعة.

على سبيل المثال، ننصحك باستخدام أداة "توقّعات الحالة المزاجية" نموذج يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى الفئات الثلاث التالية:

  • still
  • light
  • windy

بدون تقاطعات الخصائص، يتدرّب النموذج الخطي بشكل مستقل على كل قبل سبع مجموعات مختلفة. إذًا، يتدرب النموذج، على سبيل المثال، freezing بشكل مستقل عن التدريب، على سبيل المثال، windy

وبدلاً من ذلك، يمكنك إنشاء خاصية تقاطع درجة الحرارة سرعة الرياح. تضم هذه الميزة الاصطناعية ما يلي 12 ممكنة القيم التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل تقاطعات العناصر، يمكن للنموذج تعلُّم الاختلافات في المزاج بين يوم freezing-windy ويوم freezing-still.

إذا أنشأت ميزة اصطناعية من ميزتَين تتضمّن كلّ منهما الكثير من الحزم المختلفة، سيتضمّن تقاطع الميزة الناتج عددًا كبيرًا من التركيبات المحتملة. على سبيل المثال، إذا كانت إحدى السمات تحتوي على 1,000 حزمة وكانت السمة الأخرى تحتوي على 2,000 حزمة، سيتضمّن تقاطع السمات الناتج 2,000,000 حزمة.

رسميًا، الصليب هو المنتج الديكارتي:

تُستخدَم عمليات تقاطع الميزات في الغالب مع النماذج الخطية ونادراً ما تُستخدَم مع الشبكات العصبية.

راجِع البيانات الفئوية: الميزة صليب في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمّن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تطبيق أحد النماذج.
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعّالة من هذه الميزات

على سبيل المثال، قد تجد أن temperature قد يكون مفيدًا الجديدة. بعد ذلك، يمكنك تجربة استخدام ميزة تجميع البيانات. لتحسين المعلومات التي يمكن أن يتعلّمها النموذج من نطاقات temperature المختلفة.

يُطلق على هندسة الميزات أحيانًا اسم استخراج الميزات أو إنشاء الميزات.

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

استخراج الميزات

العبارة التي تم تحميلها بشكل زائد وتتضمّن أحد التعريفات التالية:

أهمية الميزات

#df

مرادف لأهمية المتغيّرات.

مجموعة الخصائص

#fundamentals

مجموعة ميزات تعلُّم الآلة يتدرب model على. على سبيل المثال، قد يتضمن الرمز البريدي وحجم الموقع وحالة الموقع إنشاء مجموعة خصائص بسيطة لنموذج يتنبأ بأسعار المساكن.

مواصفات الميزات

#TensorFlow

وصف المعلومات المطلوبة لاستخراج بيانات الميزات من المخزن المؤقت لبروتوكول tf.Example. بما أنّ ملف تعريف بروتوكول tf.Example هو مجرد حاوية للبيانات، يجب تحديد ما يلي:

  • البيانات المطلوب استخراجها (أي مفاتيح الميزات)
  • نوع البيانات (مثلاً، float أو int)
  • الطول (ثابت أو متغيّر)

متّجه الميزة

#fundamentals

يشير هذا المصطلح إلى مصفوفة قيم feature التي تتكوّن من مثال. يتم إدخال متجه الميزة أثناء التدريب وأثناء الاستنتاج. فعلى سبيل المثال، خط متجه الخصائص لنموذج مكون من سمتين منفصلتين قد يكون:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عقدتين، تحتوي إحداهما على القيمة
          0.92 والآخر يحتوي على القيمة 0.56.

يقدّم كل مثال قيمًا مختلفة لسمة "مصفوفة السمات"، لذا يمكن أن يكون مصفوفة السمات للمثال التالي على النحو التالي:

[0.73, 0.49]

هندسة الميزات التي تحدد كيفية تمثيل الميزات في خط المتجه الخاص. على سبيل المثال، قد يتم تمثيل سمة فئوية ثنائية ولها خمس قيم محتملة باستخدام ترميز بقيمة واحدة. في هذه الحالة، جزء يتكون خط متجه الخصائص لمثال معين من أربعة أصفار 1.0 واحد في الموضع الثالث على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

في مثال آخر، لنفترض أنّ النموذج يتألّف من ثلاث ميزات:

  • خاصية فئوية ثنائية تحتوي على خمس قيم محتملة ممثلة باستخدام ترميز واحد فعال؛ على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • سمة فئوية ثنائية أخرى لها ثلاث قيم محتملة يتم تمثيلها بترميز أحادي القيمة، على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة؛ على سبيل المثال: 8.3.

في هذه الحالة، سيتم تمثيل متجه السمات لكل مثال بواسطة تسع قيم. بناءً على أمثلة القيم في القائمة السابقة، سيكون الخط المتجه للميزة:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

اطّلِع على البيانات الرقمية: كيفية نقل النموذج للبيانات باستخدام ناقلات السمات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

تشبع اللون

عملية استخراج الميزات من مصدر إدخال، مثل مستند أو فيديو، ووضع هذه الميزات في متّجه الميزة.

يستخدم بعض خبراء الذكاء الاصطناعي مصطلح "إنشاء الميزات" كاسم بديل لمصطلح هندسة الميزات أو استخراج الميزات.

التعلّم الموحّد

هو نهج موزّع لتعلُّم الآلة يدرّب لتعلُّم الآلة نماذج تعلُّم الآلة باستخدام الخوارزمية غير المركزية أمثلة متوفرة على أجهزة مثل الهواتف الذكية. في تقنية التعلّم الموحّد، تنزِّل مجموعة فرعية من الأجهزة النموذج الحالي من خادم تنسيق مركزي. تستخدم الأجهزة الأمثلة المخزّنة على الأجهزة لإجراء تحسينات على النموذج. بعد ذلك، تحمِّل الأجهزة تحسينات النموذج (وليس أمثلة التدريب) إلى الخادم التنسيقي، حيث يتم تجميعها مع التعديلات الأخرى للحصول على ملف نماذج عالمي محسّن. بعد التجميع، لن تكون تعديلات النموذج التي تُحتسب بواسطة الأجهزة مطلوبة بعد ذلك، ويمكن تجاهلها.

وبما أنّه لا يتم تحميل أمثلة التدريب مطلقًا، يتّبع التعلّم الموحّد مبادئ الخصوصية المتمثّلة في جمع البيانات المركزة والحدّ من استخدام البيانات.

لمزيد من المعلومات عن التعلّم الموحّد يُرجى الاطّلاع على هذا الدليل التوجيهي.

حلقة الملاحظات

#fundamentals

في التعلم الآلي، وهو موقف تؤثر فيه توقعات النموذج بيانات التطبيق لنفس النموذج أو نموذج آخر. على سبيل المثال، النموذج الذي اقتراحات الأفلام سوف تؤثر على الأفلام التي يشاهدها الناس، والتي ستجعل للتأثير في نماذج توصية الأفلام اللاحقة.

راجِع أنظمة تعلُّم الآلة للإنتاج: أسئلة اسأل في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

الشبكة العصبونية الموجزة (FFN)

شبكة عصبية بدون اتصالات دورية أو متكرّرة على سبيل المثال، الشبكات العصبية العميقة التقليدية هي شبكات عصبية تقدّميّة. التباين مع الخلايا العصبية المتكررة الشبكات، والتي تكون دائرية.

التعلّم ببضع فُرَص

أحد مناهج التعلم الآلي، وغالبًا ما يُستخدم لتصنيف الكائنات، لتدريب المصنِّفات الفعالة من عدد قليل فقط من أمثلة التدريب.

يمكنك أيضًا الاطّلاع على معلومات حول التعلّم بلقطة واحدة. التعلُّم المجاني:

الطلب بأمثلة قليلة

#language
#generativeAI

طلب يحتوي على أكثر من مثال واحد (أي "بضعة" أمثلة) يوضّح كيفية الردّ من خلال نموذج اللغة الكبير على سبيل المثال، يحتوي الطلب الطويل التالي على مثالين يوضّحان لنموذج لغوي كبير كيفية الإجابة عن طلب بحث.

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "نموذج اللغة المحوسبة"
فرنسا: EUR مثال واحد
المملكة المتحدة: الجنيه الإسترليني مثال آخر.
الهند: الاستعلام الفعلي.

تؤدي المطالبة بلقطات قليلة بشكل عام إلى نتائج مرغوبة أكثر من طلب من الصفر طلب من لقطة واحدة: ومع ذلك، يتطلّب الطلب بأمثلة قليلة طلبًا أطول.

الطلب بأمثلة قليلة هو شكل من أشكال التعلّم ببضع فُرَص المطبَّق على التعلّم المستنِد إلى طلبات.

الاطّلاع على الطلب الهندسة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

كمنجة

#language

يشير هذا المصطلح إلى مكتبة إعداد تركّز على Python أولاً وتضبط قيم الوظائف والفئات بدون رموز هجومية أو بنية تحتية. في ما يتعلّق بـ Pax وقواعد بيانات تعلُّم الآلة الأخرى، تمثّل هذه الدوال والklassen النماذج والمَعلمات الفائقة للتدريب.

كتمان أن قواعد رموز التعلم الآلي تنقسم عادةً إلى:

  • رمز المكتبة الذي يحدّد الطبقات والمحسّنات.
  • رمز "الربط" لمجموعة البيانات، الذي يستدعي المكتبات ويربط كل شيء معًا

يلتقط Fiddle بنية استدعاء الرمز الملتصق في صورة غير مقيّمة قابل للتغيير.

ضبط دقيق

#language
#image
#generativeAI

يتم الحصول على تصريح تدريب ثانٍ خاص بالمهمة والذي يتم تنفيذه على نموذج مدرّب مسبقًا لتحسين معلَماته في حالة استخدام محددة. على سبيل المثال، قد يكون تسلسل التطبيق الكامل لبعض في ما يلي النماذج اللغوية الكبيرة:

  1. التدريب المُسبَق: تدريب نموذج لغوي كبير على مجموعة بيانات عامة واسعة النطاق، مثل جميع صفحات Wikipedia باللغة الإنجليزية
  2. الضبط الدقيق: يمكنك تدريب النموذج المدرَّب مسبقًا على تنفيذ مهمة محدّدة. مثل الاستجابة لطلبات البحث الطبية عادةً ما يتضمن الضبط الدقيق مئات أو آلاف الأمثلة التي تركز على المهمة المحددة.

في ما يلي مثال آخر على تسلسل التدريب الكامل لنموذج صور كبير:

  1. التدريب المُسبَق: يمكنك تدريب نموذج صور كبير على مجموعة بيانات عامة واسعة النطاق، مثل جميع الصور في Wikimedia commons.
  2. الضبط الدقيق: يمكنك تدريب النموذج المدَّرب مسبقًا لتنفيذ مهمة معيّنة، مثل إنشاء صور لحيوانات الأوركا.

يمكن أن يستلزم الضبط الدقيق أي مزيج من الاستراتيجيات التالية:

  • تعديل كل النماذج الحالية التي تم تدريبها مسبقًا المَعلمات: ويُسمى هذا أحيانًا الضبط الدقيق الكامل.
  • تعديل بعض المَعلمات الحالية للنموذج المدرّب مسبقًا (عادةً ما تكون الطبقات الأقرب إلى طبقة إخراج)، مع الاحتفاظ بالمعلمات الأخرى الموجودة دون تغيير (عادةً ما تكون الطبقات الأقرب إلى طبقة الإدخال). عرض توليف بكفاءة المَعلمات:
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الحالية الأقرب إلى طبقة الإخراج.

التحسين الدقيق هو شكل من أشكال التعلُّم بالاستناد إلى نماذج سابقة. وبناءً على ذلك، قد يستخدم الضبط دالة فقدان مختلفة أو نموذجًا مختلفًا من تلك المستخدمة لتطبيق النموذج المدرَّب مسبقًا. على سبيل المثال، يمكنك تحسين نموذج صور كبير مدرَّب مسبقًا لإنشاء نموذج انحدار يُظهر عدد الطيور في صورة الإدخال.

قارِن بين التحسين الدقيق والمصطلحات التالية:

يمكنك الاطّلاع على التحسين في دورة "مكثّفة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

الكتان

#language

برنامج مفتوح المصدر عالي الأداء مكتبة لـ وهي تكنولوجيا تعلُّم متعمّقة تستند إلى JAX. يوفّر Flax دوالًا لتدريب الشبكات العصبية، بالإضافة إلى methods لتقييم أدائها.

فلاكسفورم

#language

مكتبة مفتوحة المصدر Transformer، مبنية على Flax، مصمّمة في المقام الأول لمعالجة اللغة الطبيعية والبحث المتعدّد الوسائط

نسيان البوابة

#seq

جزء من ذاكرة طويلة المدى التي تنظم تدفق المعلومات خلال الخلية. لا شكّ في أنّ البوابات تحافظ على السياق من خلال تحديد المعلومات التي يجب تجاهلها. من حالة الخلية.

دالة softmax الكاملة

مرادف لدالة softmax.

التباين مع عينات المرشّحين.

اطّلِع على الشبكات العصبية: التحديد المتعدّد للفئات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على مزيد من المعلومات.

طبقة مكتملة الاتصال

طبقة مخفية تكون فيها كل عقدة مرتبطة بـ كل عقدة في الطبقة المخفية اللاحقة

تُعرف الطبقة المكتملة الاتصال أيضًا باسم الطبقة الكثيفة.

تحويل الدالة

دالة تستخدم دالة كإدخال وتعرض دالة محوّلة كمخرج. تستخدِم JAX عمليات تحويل الدوال.

G

GAN

اختصار شبكة تضاؤل توليدي.

التعميم

#fundamentals

قدرة النموذج على تقديم توقّعات صحيحة بشأن بيانات جديدة لم يسبق رؤيتها النموذج الذي يمكن التعميم هو عكس ذلك نموذج فرط التخصيص.

الاطّلاع على مقالة Generalization (التعميم) في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

Gemini

#language
#image
#generativeAI

منظومة متكاملة تضم تكنولوجيات الذكاء الاصطناعي الأكثر تطورًا من Google عناصر هذه المنظومة المتكاملة تشمل:

  • نماذج Gemini متنوعة:
  • واجهة المحادثة التفاعلية لنموذج Gemini يكتب المستخدمون الطلبات ويردّ Gemini على هذه الطلبات.
  • واجهات برمجة تطبيقات Gemini المختلفة
  • منتجات مختلفة للأنشطة التجارية تستند إلى نماذج Gemini، مثل Gemini في Google Cloud

نماذج Gemini

#language
#image
#generativeAI

متطوّرة من Google ومستنِدة إلى محوّل النماذج المتعدّدة الوسائط: تم تحديد نماذج Gemini خصيصًا للدمج مع موظّفي الدعم.

يمكن للمستخدمين التفاعل مع نماذج Gemini بطرق متنوعة، بما في ذلك من خلال واجهة حوار تفاعلية ومن خلال حِزم تطوير البرامج (SDK).

منحنى التعميم

#fundamentals

رسم بياني لكل من الخسارة في مرحلة التدريب و الخسارة في مرحلة التحقّق كوظيفتين لعدد المرات المتكرّرة

يمكن أن يساعدك منحنى التعميم في اكتشاف الفرط في التخصيص. على سبيل المثال، يشير منحنى التجميع التالي إلى زيادة الملاءمة لأنّ خسائر التحقّق تصبح في نهاية المطاف أعلى بكثير من خسائر التدريب.

رسم بياني إحداثي تم تصنيف المحور ص فيه على أنّه الخسارة وتم تصنيف المحور س
          على أنّه عدد التكرارات تظهر خطّتان بيانيتان. يعرض أحد الرسمَين 
          خسارة التدريب ويعرض الآخر خسارة التحقّق.
          يبدأ المخططان بشكل مشابه، لكن خسارة التدريب في النهاية
          تنخفض كثيرًا إلى أقل بكثير من فقدان التحقق.

الاطّلاع على مقالة Generalization (التعميم) في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

نموذج خطي معمَّم

تعميم انحدار المربعات الصغرى والنماذج، والتي تستند إلى الغاوسي ضجيج، إلى آخر من النماذج التي تعتمد على أنواع أخرى من التشويش، مثل ضوضاء بواسون أو الضوضاء الفئوية. تشمل أمثلة النماذج الخطية المعمَّمة ما يلي:

يمكن إيجاد معاملات النموذج الخطي العام من خلال تحسين البث المباشر:

تُظهر النماذج الخطية المعممة الخصائص التالية:

  • والمتوسط المثالي لنموذج انحدار التربيعات الصغرى هو مساوٍ لمتوسط التصنيف على بيانات التطبيق.
  • إنّ متوسّط الاحتمالية الذي يتنبّأ به نموذج الانحدار اللوجستي المثالي يساوي متوسّط التصنيف في بيانات التدريب.

تتقيد قوة النموذج الخطي المعمم بميزاته. إلغاء الإعجاب نموذج عميق، فإن النموذج الخطي المعمم لا يمكنه "تعلم ميزات جديدة".

الشبكة الخادعة التوليدية (GAN)

نظام لإنشاء بيانات جديدة ينشئ فيها مُنشئ data ويحدِّد مُميِّز ما إذا كانت data التي تم إنشاؤها صالحة أو غير صالحة

اطّلِع على دورة "شبكات الخصومة التوليدية" لمزيد من المعلومات.

الذكاء الاصطناعي التوليدي

#language
#image
#generativeAI

مجال تحويلي ناشئ بدون تعريف رسمي ومع ذلك، يتفق معظم الخبراء على أنّ نماذج الذكاء الاصطناعي التوليدي يمكنها إنشاء ("توليد") محتوى يتضمن كل ما يلي:

  • معقّد
  • متماسكة
  • الصورة الأصلية

على سبيل المثال، يمكن لنموذج الذكاء الاصطناعي التوليدي إنشاء مقالات أو صور معقدة.

بعض التكنولوجيات السابقة، بما في ذلك LSTMs وRNN، أيضًا إنشاء بيانات أصلية المحتوى المترابط. يرى بعض الخبراء أنّ هذه التقنيات السابقة هي نوع من الذكاء الاصطناعي التوليدي، بينما يرى آخرون أنّ الذكاء الاصطناعي التوليدي الحقيقي يتطلّب مخرجات أكثر تعقيدًا من تلك التي يمكن أن تنتجها هذه التقنيات السابقة.

يختلف ذلك عن تعلُّم الآلة التوقّعي.

نموذج توليدي

من الناحية العملية، يشير النموذج إلى إجراء أي مما يلي:

  • تُنشئ (تُنشئ) أمثلة جديدة من مجموعة بيانات التدريب. على سبيل المثال، يمكن أن يُنشئ النموذج التوليدي الشعر بعد التدريب على مجموعة بيانات للقصائد يندرج ضمن هذه الفئة المُنشئ الذي يشكّل جزءًا من الشبكة التنافسية التوليدية .
  • وتحدد احتمالية أن يأتي مثال جديد من محددة، أو تم إنشاؤها من نفس الآلية التي أتاحت مجموعة التطبيق. على سبيل المثال، بعد التدريب على مجموعة بيانات تتألف من جمل إنجليزية، يمكن للنموذج التوليدي تحديد احتمال أن تكون الإدخالات الجديدة عبارة إنجليزية صالحة.

يمكن للنموذج التوليدي أن يميز نظريًا توزيع الأمثلة أو ميزات معينة في مجموعة بيانات. والمقصود:

p(examples)

نماذج التعلّم غير الخاضعة للإشراف هي نماذج توليدية.

يختلف ذلك عن النماذج التمييزية.

منشئ

النظام الفرعي ضمن شبكة توليدية تداعية تُنشئ أمثلة جديدة.

التباين مع النموذج التمييزي.

gini impurity

#df

مقياس مشابه لـ القصور. الفواصل تستخدِم قيمًا مستمَدة من إما قياس gini للشوائب أو من الترموديناميكا لإنشاء الشروط للتصنيف في أشجار القرارات. يتم اشتقاق تحصيل المعلومات من قيمة القصور. لا تتوفّر عبارة مكافئة مقبولة عالميًا للمقياس المستمَد من قياس gini للانعدام، ومع ذلك، هذا المقياس غير المُسمّى مهمّ تمامًا مثل مقياس اكتساب المعلومات.

ويُطلق على نقص جيني أيضًا اسم مؤشر جيني، أو ببساطة جيني.

مجموعة البيانات الذهبية

مجموعة من البيانات المنظَّمة يدويًا التي تُسجّل الحقائق الأساسية يمكن للفرق استخدام مجموعة بيانات ذهبية واحدة أو أكثر لتقييم جودة النموذج.

تلتقط بعض مجموعات البيانات الذهبية نطاقات فرعية مختلفة من الحقائق الأساسية. على سبيل المثال، قد تُسجِّل مجموعة بيانات مثالية لتصنيف الصور ظروف الإضاءة ودقة الصورة.

GPT (النموذج التوليدي المُدرَّب مسبقًا)

#language

مجموعة من النماذج اللغوية الكبيرة المستندة إلى نموذج التحويل التي طوّرتها OpenAI

يمكن تطبيق صيغ GPT على طرُق متعددة، بما في ذلك:

  • إنشاء الصور (مثل ImageGPT)
  • تحويل النص إلى صورة (على سبيل المثال، DALL-E.

متدرّج

متجه المشتقات الجزئية بالنسبة إلى جميع المتغيّرات المستقلة في تعلُّم الآلة، يكون التدرّج هو المتجه للمشتقات الجزئية لدالة النموذج. نقاط التدرج في اتجاه الصعود الأكثر انحدارًا.

تجميع التدرج

يشير هذا المصطلح إلى أسلوب backpostagation الذي يعدِّل المَعلمات فقط مرة واحدة لكل فترة بدلاً من مرة واحدة في والتكرار. بعد معالجة كل دفعة صغيرة، تدرج ويعمل التراكم ببساطة على تحديث إجمالي التدرجات الحالية. بعد ذلك، بعد معالجة المجموعة المصغّرة الأخيرة في الحقبة، يعدّل النظام أخيرًا المَعلمات استنادًا إلى مجموع جميع التغييرات في التدرّج.

ويكون التجميع المتدرج مفيدًا عندما يكون حجم الدفعة كبيرًا جدًا مقارنة بحجم الذاكرة المتاحة للتدريب. عندما تكون هناك مشكلة في الذاكرة، يكون الميل الطبيعي هو تقليل حجم الدُفعة. ومع ذلك، فإنّ تقليل حجم الحزمة في الانتشار العكسي العادي يزيد عدد تعديلات المَعلمات. يتيح تجميع التدرّج للنموذج تجنُّب مشاكل الذاكرة مع مواصلة التدريب بكفاءة.

أشجار التدرج المعزز (القرار) (GBT)

#df

نوع من غابات القرارات التي:

الاطّلاع على القرار المعزَّز المتدرج الأشجار في دورة غابات اتخاذ القرار للحصول على مزيد من المعلومات.

التعزيز الاشتقاقي

#df

يشير ذلك المصطلح إلى خوارزمية تدريب يتم فيها تدريب النماذج الضعيفة على التكرار. تحسين جودة (تقليل خسارة) نموذج قوي. على سبيل المثال، قد يكون النموذج الضعيف نموذجًا خطيًا أو نموذج شجرة قرار صغيرًا. ويصبح النموذج القوي مجموع جميع النماذج الضعيفة التي تم تدريبها مسبقًا.

في أبسط أشكال تحسين التدرّج، يتم تدريب نموذج ضعيف في كل تكرار لتوقّع تدرج الخسارة للنموذج القوي. بعد ذلك، يتم تعديل ناتج النموذج القوي من خلال طرح التدرّج المتوقّع، على غرار التدرّج التنازلي.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

حيث:

  • $F_{0}$ هو النموذج القوي البداية.
  • $F_{i+1}$ هو النموذج القوي التالي.
  • $F_{i}$ هو النموذج القوي الحالي.
  • ‫$\xi$ هي قيمة تتراوح بين 0.0 و1.0 تُعرف باسم الانكماش، وهي مشابهة لمعدل التعلّم في خوارزمية انحدار التدرج.
  • ‫$f_{i}$ هو النموذج الضعيف الذي تم تدريبه لتوقّع تدرج الخسارة لـ $F_{i}$.

تتضمّن الصيغ الحديثة لتعزيز التدرّج أيضًا المشتقّ الثاني (Hessian) للخسارة في عملية الحساب.

تُستخدَم أشجار القرارات عادةً كنماذج ضعيفة في تعزيز التدرّج. راجِع أشجار (القرارات) المحسَّنة بالانحدار.

اقتصاص التدرّج

#seq

آلية شائعة الاستخدام للتخفيف من أثر مشكلة الانحدار المتزايد من خلال تحديد (قطع) الحد الأقصى لقيمة التدرجات بشكل مصطنع عند استخدام التدرج التنازلي لتدريب نموذج.

انحدار تدرّجي

#fundamentals

أسلوب رياضي لتقليل الخسارة. ضبط انحدار التدرج بالتكرار التحسيني القيم المرجحة والانحيازات، وإيجاد أفضل تركيبة تدريجيًا لتقليل الخسارة.

أما انحدار التدرج، فهو أقدم، أقدم بكثير، من تعلُّم الآلة.

راجِع الانحدار الخطي: التدرج descent في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

رسم بياني

#TensorFlow

في TensorFlow، مواصفات الحساب العُقد في الرسم البياني لتمثيل العمليات. تكون الحواف موجّهة وتمثّل تمرير نتيجة عملية (Tensor) كأحد المَعلمات لعملية أخرى. استخدام TensorBoard لعرض رسم بياني

تنفيذ الرسم البياني

#TensorFlow

بيئة برمجة TensorFlow يتم فيها إنشاء البرنامج لأول مرة رسمًا بيانيًا ثم تنفيذ هذا الرسم البياني بالكامل أو جزء منه تنفيذ رسومات البيان هو وضع التنفيذ التلقائي في TensorFlow 1.x.

تباين الألوان مع التنفيذ السريع.

سياسة طَمَّاعة

#rl

في مجال التعلُّم المعزز، هي سياسة تختار دائمًا الإجراء الذي يحقق أعلى عائد متوقع.

معلومات فعلية

#fundamentals

الواقع.

الحدث الذي حدث فعلاً

على سبيل المثال، يمكنك وضع تصنيف ثنائي يتنبأ بما إذا كان الطالب في السنة الأولى في الجامعة سوف يتخرج في غضون ست سنوات. إن الحقيقة الأساسية لهذا النموذج هي ما إذا كان أن الطالب قد تخرج بالفعل في غضون ست سنوات.

الانحياز لتشابه المجموعة

#fairness

بافتراض أنّ ما ينطبق على فرد ينطبق أيضًا على الجميع في تلك المجموعة. يمكن أن تتفاقم آثار تحيز إحالة المجموعة إذا كان أخذ العينات العشوائي يستخدم لجمع البيانات. في العيّنة غير التمثيلية، تمثّل معلومات تحديد المصدر قد تصنع لا تعكس الواقع.

راجِع أيضًا انحياز التجانس خارج المجموعة والتحيز داخل المجموعة. راجع أيضًا الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

H

الهلوسة

#language

إنشاء نتائج تبدو معقولة ولكنّها غير دقيقة من الناحية الواقعية من خلال نموذج ذكاء اصطناعي توليدي يُزعم أنّه يقدّم ادعاءً عن العالم الواقعي على سبيل المثال، نموذج من الذكاء الاصطناعي التوليدي يدّعي أنّ باراك أوباما توفي في العام 1865. هلوسة.

تجزئة

في تعلُّم الآلة، آلية لتجميع البيانات الفئوية، خاصةً عندما يكون عدد الفئات كبيرًا، ولكن عدد الفئات التي تظهر في مجموعة البيانات صغير نسبيًا

على سبيل المثال، موطن الأرض هو موطن لحوالي 73000 نوع من الأشجار. يمكنك represent كل نوع من الأنواع الـ 73,000 من الأشجار في 73,000 مجموعة فئية منفصلة. وإذا ظهر 200 نوع فقط من هذه الأشجار في الحقيقة، في إحدى مجموعات البيانات، يمكنك استخدام التجزئة لتقسيم أنواع الأشجار إلى ربما 500 دلو.

يمكن أن يحتوي مجموعة واحدة على عدة أنواع من الأشجار. على سبيل المثال، التجزئة يمكن وضع الباوباب والقيقب الأحمر، وهما نوعان مختلفان وراثيًا النوع - في نفس مجموعة البيانات. بغض النظر، لا تزال التجزئة طريقة جيدة وتعيين مجموعات فئوية كبيرة في العدد المحدد من المجموعات. تحول التجزئة صفة فئوية لها عدد كبير من القيم المحتملة عدد أقل من القيم عن طريق تجميع القيم في بطريقة حتمية.

راجِع البيانات الفئوية: المفردات ومصطلح واحد فعال الترميز في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

إرشادي

حلّ بسيط يتم تنفيذه بسرعة لحلّ مشكلة على سبيل المثال، "من خلال استخدام طريقة استكشافية، حققنا دقة بنسبة %86. عندما تحولنا إلى الشبكة العصبية العميقة، ارتفعت الدقة إلى 98%".

طبقة مخفية

#fundamentals

يشير ذلك المصطلح إلى طبقة في الشبكة العصبونية بين طبقة الإدخال (الميزات) و طبقة الناتج (التنبؤ). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتَين مخفيتَين، الأولى تتضمّن ثلاث خلايا عصبية والثانية تتضمّن خليتَين عصبيتين:

أربع طبقات الطبقة الأولى هي طبقة إدخال تحتوي على اثنين
          الجديدة. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاثة
          خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على اثنين
          الخلايا العصبية. الطبقة الرابعة هي طبقة الإخراج. كل ميزة
          تحتوي على ثلاث حواف تشير كل منها إلى خلية عصبية مختلفة
          في الطبقة الثانية. كل خلية من الخلايا العصبية في الطبقة الثانية
          يحتوي على حافتين، تشير كل منهما إلى خلية عصبية مختلفة
          في الطبقة الثالثة. كل خلية من الخلايا العصبية في الطبقة الثالثة تحتوي على
          حافة واحدة، تشير كل منها إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من تصنيف طبقة مخفية. فعلى سبيل المثال، الرسم التوضيحي السابق عبارة عن صورة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

راجِع الشبكات العصبونية: العُقد والمخفيّة الطبقات في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

التجميع الهرمي

#clustering

يشير هذا المصطلح إلى فئة من خوارزميات التجميع التي تُنشئ شجرة بيانات. المجموعات العنقودية. يتناسب التجميع الهرمي تمامًا مع البيانات الهرمية، مثل التصنيفات النباتية. هناك نوعان من التسلسلات الهرمية خوارزميات التجميع العنقودي:

  • في التجميع التجميعي، يتم أولاً تعيين كل مثال إلى مجموعته الخاصة، ويُدمج بشكل متكرر المجموعات الأقرب لإنشاء شجرة هرمية.
  • يعمل التجميع العنقودي أولاً على تجميع جميع الأمثلة في مجموعة عنقودية واحدة، ثم تُقسم المجموعة العنقودية بالتكرار إلى شجرة هرمية.

يختلف ذلك عن التجميع العنقودي المستنِد إلى النقاط المركزية.

اطّلِع على خورازميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

خسارة مفصلية

مجموعة من دوالّ الخسارة لمحاولة التصنيف، وهي مصمّمة للعثور على حدود القرار البعيدة قدر الإمكان عن كل مثال تدريبي، وبالتالي زيادة هامش الاختلاف بين الأمثلة والحدود إلى أقصى حدّ. تستخدِم KSVM خسارة المفصل (أو دالة ذات صلة، مثل خسارة المفصل المربّع). بالنسبة للتصنيف الثنائي، تُستخدم دالة فقدان المفصلات على النحو التالي:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

حيث يكون y هو التصنيف الصحيح، إما -1 أو +1، وy' هو الناتج الأولي في نموذج المُصنِّف:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

وبالتالي، يبدو مخطط الخسارة المفصلية مقابل (y * y') على النحو التالي:

مخطط الديكارتي يتكون من مقطعين مستقيمين متصلين. الأول
          يبدأ الجزء الخطي بـ (-3، 4) وينتهي عند (1، 0). يبدأ الجزء الثاني من السطر
          عند النقطة (1، 0) ويستمر إلى أجل غير مسمى مع ميل
          يساوي 0.

انحياز تاريخي

#fairness

نوع من التحيز المتوفّر في العالم والذي انتقل إلى مجموعة بيانات. تميل هذه التحيزات إلى إظهار والصور النمطية الثقافية، وعدم المساواة الديموغرافية، والتحيزات ضد بعض والمجموعات الاجتماعية.

على سبيل المثال، بالنظر إلى نموذج تصنيف تتنبأ بما إذا كان مقدّم طلب القرض يتخلف عن سداد قرضه أم لا، والذي كان تم التدريب على البيانات التاريخية للتخلف عن سداد القروض من ثمانينيات القرن الماضي من مصارف محلية في والمجتمعات المختلفة. إذا كان المتقدمون السابقون من المنتدى "أ" أكبر بست مرات احتمالية التخلف عن سداد قروضهم مقارنة بالمتقدمين من المجتمع (ب)، فإن النموذج تحيزًا تاريخيًا يؤدي إلى تقليل احتمال حدوث بالموافقة على القروض في المجتمع (أ)، حتى في حالة استيفاء الشروط التاريخية التي أدت إلى في تلك المجتمعات لم تعد ذات صلة

راجِع الإنصاف: أنواع الانحياز في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

بيانات محتجزة

أمثلة عن المحتوى الذي لا يتم استخدامه عمدًا ("يتم عرضه") أثناء التدريب مجموعة بيانات التحقّق ومجموعة بيانات الاختبار هما مثالان على بيانات الاختبار. بيانات الحظر في تقييم قدرة النموذج على التعميم في البيانات بخلاف البيانات التي تم التدريب عليها. توفّر الخسارة في مجموعة البيانات المحجوزة تقديرًا أفضل للخسارة في مجموعة بيانات لم يسبق رؤيتها مقارنةً بالخسارة في مجموعة التدريب.

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، وهي الجزء من النظام تتحكم في كل مما يلي:

  • مسار الرمز البرمجي العام
  • استخراج وتحويل مسار الإدخال.

يتم تشغيل المضيف عادةً على وحدة معالجة مركزية، وليس على شريحة مسرع. ويعمل الجهاز على معالجة المتسلسلات التربيعية على شرائح المسرع.

المعلَمة الفائقة

#fundamentals

تشير المتغيرات التي تنفذها أنت أو خدمة ضبط المعلمة الفائقة على التكيف خلال الفترات المتتالية لتطبيق أحد النماذج. على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة فائقة. يمكنك اضبط معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا تبيّن لك أنّ القيمة 0.01 مرتفعة جدًا، يمكنك ضبط معدّل التعلم على 0.003 في جلسة التدريب التالية.

في المقابل، المَعلمات هي المعلَمات المختلفة القيم المرجحة والانحياز الذي يمثّله النموذج يتعلم أثناء التدريب.

راجِع الانحدار الخطي: المعلَمات الفائقة في الدورة التدريبية المكثّفة عن تعلّم الآلة للحصول على مزيد من المعلومات.

مستوى فائق

حد يفصل مساحة إلى مساحتَين فرعيتَين على سبيل المثال، الخط هو المستوى الفائق في البعدين والمستوى هو المستوى الفائق في ثلاثة أبعاد. في مجال تعلُّم الآلة، يكون المستوى الفائق عادةً هو الحد الفاصل بين مساحة عالية الأبعاد. تستخدِم آلات متّجهات الدعم الأساسية سطحًا hyperplanes لفصل الفئات الموجبة عن الفئات السالبة، غالبًا في مساحة عالية الأبعاد.

I

موزّعة بشكل مستقل ومتشابه

اختصار موزَّعة بشكل مستقل ومتماثل.

التعرّف على الصورة

#image

يشير ذلك المصطلح إلى عملية تصنّف عناصر أو أنماطًا أو مفاهيم في صورة معيّنة. تُعرف ميزة التعرّف على الصور أيضًا باسم تصنيف الصور.

لمزيد من المعلومات، يُرجى الاطّلاع على ML Practicum: Image Classification.

الاطّلاع على التدريب العملي لتعلُّم الآلة: تصنيف الصور دورة تدريبية لمزيد من المعلومات.

مجموعة بيانات غير متوازنة

مرادف لمجموعة البيانات غير المتوازنة الفئات.

التحيز الضمني

#fairness

إجراء عملية ربط أو افتراض تلقائيًا استنادًا إلى نماذج العقل وذكرياته يمكن أن يؤثر التحيز الضمني في ما يلي:

  • كيفية جمع البيانات وتصنيفها.
  • كيفية تصميم أنظمة تعلُّم الآلة وتطويرها

على سبيل المثال، عند إنشاء مصنّف لتحديد صور الزفاف، قد يستخدم المهندس وجود فستان أبيض في الصورة كسمة. ومع ذلك، لم تكن الفساتين البيضاء رائجة إلا في عصور معيّنة وبثقافات معيّنة.

اطّلِع أيضًا على التحيز التأكيدي.

إسناد

اختصار إسناد القيمة.

عدم توافق مقاييس الإنصاف

#fairness

فكرة أنّ بعض مفاهيم العدالة غير متوافقة مع بعضها ولا يمكن إشباعها في الوقت نفسه نتيجةً لذلك، لا يتوفّر مقياس واحد عالمي لقياس العدالة يمكن تطبيقه على جميع مشاكل الذكاء الاصطناعي.

على الرغم من أنّ هذا قد يبدو محبطًا، إلا أنّ عدم توافق مقاييس المساواة لا يعني أنّ جهود المساواة غير مجدية. بدلاً من ذلك، تقترح يجب تحديد الإنصاف ضمن السياق لمشكلة معينة في مجال تعلُّم الآلة، وهدف منع الأضرار الخاصة بحالات الاستخدام الخاصة به.

اطّلِع على "On the (im)possibility of fairness" لمناقشة أكثر تفصيلاً لهذا الموضوع.

التعلّم ضمن السياق

#language
#generativeAI

مرادف لـ الطلب بأمثلة قليلة.

موزّعة بشكل مستقل ومتشابه

#fundamentals

يشير ذلك المصطلح إلى البيانات المأخوذة من توزيع لا تتغيّر، والتي تكون فيها كل قيمة. مرسومة لا تعتمد على القيم التي تم رسمها مسبقًا. إنّ التوزيع التلقائي المتماثل هو الغاز المثالي في التعلم الآلي، وهو بنية رياضية مفيدة، ولكن لا يمكن العثور عليه تقريبًا بالضبط في العالم الحقيقي. على سبيل المثال، توزيع الزوار على إحدى صفحات الويب موزّعة بشكل مستقل خلال فترة زمنية قصيرة؛ أي أن التوزيع لا التي تتغير خلال تلك الفترة الموجزة وتكون زيارة شخص ما بشكل مستقل عن زيارة شخص آخر. ومع ذلك، إذا قمت بتوسيع هذه النافذة الزمنية، قد تظهر اختلافات موسمية في زوار صفحة الويب.

راجِع أيضًا المقالة عدم ثبات الأداء.

الإنصاف الفردي

#fairness

مقياس إنصاف يتحقّق مما إذا كان يتم تصنيف أفراد مشابهين بالطريقة نفسها. على سبيل المثال، قد ترغب أكاديمية Brobdingnagian Academy في تلبية الإنصاف الفردي من خلال التأكد من أن طالبين لهما درجات متطابقة ودرجات الاختبار الموحّدة هي على الأرجح إمكانية القبول

يُرجى العِلم أنّ المساواة الفردية تعتمد بالكامل على كيفية تعريفك "للتشابه" (في هذه الحالة، الدرجات ونتائج الاختبارات)، ويمكنك المخاطرة بظهور مشاكل جديدة في المساواة إذا لم يرصد مقياس التشابه معلومات مهمة (مثل صرامة المنهج الدراسي للطالب).

الاطّلاع على "الإنصاف والإنصاف الوعي" للحصول على مناقشة أكثر تفصيلاً حول الإنصاف الفردي.

الاستنتاج

#fundamentals

في التعلم الآلي، تتم عملية إجراء التنبؤات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

يختلف معنى الاستنتاج إلى حدّ ما في الإحصاءات. راجِع مقالة Wikipedia حول الاستنتاج الإحصائي للاطّلاع على التفاصيل.

الاطّلاع على التعلّم المُوجّه في دورة مقدمة عن تعلُّم الآلة لمعرفة دور الاستنتاج في عملية نظام التعلم.

مسار الاستنتاج

#df

في شجرة القرار، خلال الاستنتاج، المسار الذي يتخذه مثال معين من الجذر إلى شروط أخرى، ينتهي بـ ورقة شجر على سبيل المثال، في شجرة القرار التالية، تعرض سهام السميكة مسار الاستنتاج لمثال يتضمّن قيمًا يليها السمة:

  • x = 7
  • y = 12
  • z = -3

ينتقل مسار الاستنتاج في الرسم التوضيحي التالي خلال ثلاثة الظروف قبل الوصول إلى ورقة الشجر (Zeta).

شجرة قرارات تتألّف من أربعة شروط وخمس أوراق
          الشرط الجذر هو (x > 0). بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل
          مسار الاستنتاج من الجذر إلى الشرط التالي (y > 0).
          نظرًا لأن الإجابة هي &quot;نعم&quot;، فإن مسار الاستنتاج ينتقل إلى
          الشرط التالي (z > 0). بما أن الإجابة هي لا، فإن مسار الاستنتاج
          ينتقل إلى العقدة الطرفية، وهي ورقة الشجر (Zeta).

تعرِض الأسهم السميكة الثلاثة مسار الاستنتاج.

الاطّلاع على أشجار القرار في الدورة التدريبية "غابات القرار" للحصول على مزيد من المعلومات.

تحصيل المعلومات

#df

في غابات القرارات، يكون الفرق بين قصور الجزء والقيم المرجحة (حسب عدد الأمثلة) مجموع القصور في الأجزاء الثانوية. القصور في أحد الأجزاء هو القصور للعيّنات في ذلك الجزء.

على سبيل المثال، راجِع قيم التشويش التالية:

  • إنتروبيا العقدة الرئيسية = 0.6
  • قصور لعقدة فرعية واحدة بها 16 مثالاً = 0.2
  • ينطبق القصور على عقدة فرعية أخرى تحتوي على 24 مثالاً ذا صلة = 0.1

وبالتالي فإن 40% من الأمثلة موجودة في عقدة فرعية واحدة و60% في عقدة فرعية أخرى. لذلك:

  • مجموع القصور المرجح للعُقد الثانوية = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

وبالتالي، فإنّ تحصيل المعلومات هو:

  • تحصيل المعلومات = قصور الجزء الأصلي - مجموع القصور المُرجّح للعُقد الفرعية
  • معلومات مكتسَبة = 0.6 - 0.14 = 0.46

تسعى معظم الفاصلات إلى إنشاء شروط تحقّق أقصى قدر من المعلومات.

الانحياز لأفراد المجموعة

#fairness

إظهار الانحياز إلى المجموعة أو الخصائص الخاصة إذا كان المختبِرون أو المقيّمون يتألفون من أصدقاء مطوّر تعلُّم الآلة أو أفراد عائلته أو زملائه، قد يؤدي التحيز داخل المجموعة إلى إلغاء اختبار المنتج أو مجموعة البيانات.

الانحياز لأفراد المجموعة هو شكل من أشكال الانحياز لتشابه المجموعة. راجِع أيضًا انحياز التجانس خارج المجموعة.

اطّلِع على الإنصاف: أنواع الانحياز في دورة التعرّف الآلي التدريبية المختصرة للحصول على مزيد من المعلومات.

أداة إنشاء الإدخال

آلية يتم من خلالها تحميل البيانات إلى شبكة عصبية

يمكن اعتبار مُنشئ الإدخال مكوّنًا مسؤولاً عن معالجة البيانات الأولية إلى مصفوفات يتم تكرارها لإنشاء دفعات لأجل التدريب والتقييم والاستنتاج.

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تحتوي على متّجه الميزة. أي أن طبقة الإدخال يقدم أمثلة للتدريب أو الاستنتاج على سبيل المثال، تتألف طبقة الإدخال في الشبكة العصبية التالية من سمتَين:

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج.

حالة الإدخال

#df

في شجرة قرارات، شرط يختبر توفّر عنصر واحد في مجموعة من العناصر. على سبيل المثال، في ما يلي شرط مضمَّن:

  house-style in [tudor, colonial, cape]

أثناء الاستنتاج، إذا كانت قيمة سمة نمط المنزل هي tudor أو colonial أو cape، يتم تقييم هذا الشرط على أنّه "نعم". إذا كانت قيمة سمة تصميم المنزل مختلفة (على سبيل المثال، ranch)، سيتم تقييم هذا الشرط على أنّه "لا".

تؤدي الشروط ضمن المجموعة عادةً إلى أشجار قرارات أكثر فعالية مقارنةً بالشروط التي تختبر الميزات المُشفَّرة بترميز واحد ساخن.

مثيل

مرادف لـ مثال.

ضبط التعليمات

#generativeAI

هو أحد أشكال التحسين الدقيق الذي يُحسِّن قدرة الذكاء الاصطناعي التوليدي على اتّباع تعليماته. يتضمن ضبط التعليمات تطبيق نموذج على سلسلة من مطالبات التعليمات، وتغطي عادةً مجموعة واسعة من مجموعة متنوعة من المهام. وبعد ذلك، يميل النموذج الذي تم ضبطه وفقًا للتعليمات إلى توليد ردود مفيدة على الطلبات بلا مثال في مجموعة متنوعة من المهام.

المقارنة والتباين مع:

القابلية للتفسير

#fundamentals

القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة في مصطلحات مفهومة للإنسان.

على سبيل المثال، تعتمد معظم نماذج الانحدار الخطي على قابل للتفسير. (ما عليك سوى الاطّلاع على القيم المحسَّنة لكل سمة). غابات اتخاذ القرار أيضًا قابلة للتفسير بدرجة عالية. في المقابل، تحتوي بعض النماذج تتطلب تصورًا متطورًا لتصبح قابلة للتفسير.

يمكنك استخدام أداة تفسير التعلّم (LIT) لتفسير نماذج الذكاء الاصطناعي.

توافق المقيّمين

مقياس لعدد المرات التي يتفق فيها المقيّمون عند تنفيذ مهمة معيّنة إذا لم يتفق المراجعون، قد تحتاج تعليمات المهمة إلى التحسين. ويُطلق عليها أحيانًا اسم اتفاق المعلِّقين التوضيحية أو موثوقية المصنّفين. اطّلِع أيضًا على kappa، وهو أحد أشهر مقاييس اتفاق الخبراء.

اطّلِع على البيانات الفئوية: المشاكل الشائعة في الدورة المكثّفة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

تقاطع الاتحاد (IoU)

#image

تقاطع مجموعتَين مقسومًا على اتحادهما في مهام معالجة الصور باستخدام تعلُّم الآلة، يتم استخدام معامل IoU لقياس دقة المربّع المحيط المتوقّع للنموذج في ما يتعلّق بالمربّع المحيط للحقيقة الأساسية. في هذه الحالة، قد يحتاج وحدة IoU المربعين هما النسبة بين المساحة المتداخلة والمساحة الإجمالية، وتتراوح قيمتها من 0 (لا يوجد تداخل بين مربع الإحاطة المتوقع وحقيقة الحقيقة مربع الإحاطة) إلى 1 (مربع الإحاطة المتوقع ومربع الإحاطة بحقيقة الأرض نفس الإحداثيات بالضبط).

على سبيل المثال، في الصورة أدناه:

  • تم تحديد حدود المربّع المحدَّد مسبقًا (الإحداثيات التي تحدّد مكان الجدول الليلي في اللوحة الذي يتوقعه النموذج) باللون الأرجواني.
  • مربع حدود الحقيقة (الإحداثيات التي تحدد مكان الليل جدول في اللوحة بالفعل) باللون الأخضر.

لوحة &quot;غرفة نوم فينسنت في آرل&quot; للرسام فان غوخ، مع مربّعَين مختلفَين
          للحدود حول طاولة بجانب السرير الحقيقة
          يحيط مربّع الإحاطة (باللون الأخضر) بالطاولة الليلية تمامًا. تشير رسالة الأشكال البيانية
          مربع الإحاطة المتوقع (باللون الأرجواني) إزاحة بنسبة 50٪ لأسفل وإلى اليمين
          لصندوق الإحاطة بواقع الحقيقة؛ فإنها تتضمن الربع السفلي الأيمن
          من طاولة الطعام في الليل، ولكنه يفوت بقية الطاولة.

في هذه الحالة، تبلغ قيمة تقاطع مربّعات الحدود للتنبؤ والحقيقة المرصودة (أسفل يمين الصفحة) 1، وقيمة تجميع مربّعات الحدود للتنبؤ والحقيقة المرصودة (أسفل يسار الصفحة) 7، وبالتالي تكون قيمة IoU هي \(\frac{1}{7}\).

الصورة نفسها أعلاه، ولكن تم تقسيم كل مربّع حدودي إلى أربعة تربعات
          هناك سبعة أرباع في المجموع، لأنّ الربع الأيمن أسفل
          مربّع الحدود للقيمة الأساسية والربع العلوي لليسار
          مربّع الحدود المتوقّع يتداخلان مع بعضهما. يمثّل هذا القسم المتراكب (المميّز باللون الأخضر) التقاطع، ومساحته 1. نفس الصورة أعلاه، ولكن مع تقسيم كل مربع إحاطة إلى أربعة
          الأرباع. يوجد سبعة أربعة أقسام، حيث يظهر الجزء السفلي الأيمن
          ربع مربع حدود الأرض والجزء العلوي الأيسر
          ربع مربع الإحاطة المتوقع يتداخل مع بعضها البعض.
          التصميم الداخلي بالكامل محاط بكلا المربعين المحاطين
          (المظلل باللون الأخضر) يمثل الاتحاد،
          على مساحة 7.

IoU

اختصار تقاطع طرق اتحاد.

مصفوفة السلع

#recsystems

في أنظمة الاقتراحات، يتم إنشاء مصفوفة من متجهات التضمين من خلال تحليل المصفوفات التي تحتوي على إشارات كامنة عن كل عنصر. يحتوي كل صف من مصفوفة العناصر على قيمة اختزال واحد لجميع العناصر. على سبيل المثال، لنفترض أنّ لدينا نظامًا يقترح الأفلام. يحتوي كل عمود في مصفوفة البنود فيلمًا واحدًا. الإشارات الكامنة قد تمثل أنواعًا موسيقية أو قد يصعب تفسيرها إشارات تتضمن تفاعلات معقدة بين النوع والنجوم أو عمر الفيلم أو عوامل أخرى.

تحتوي مصفوفة العناصر على نفس عدد الأعمدة المستهدفة المصفوفة التي يتم تحليلها إلى عوامل. على سبيل المثال، عند أخذ فيلم نظام توصية يقيّم 10000 عنوان أفلام، تحتوي مصفوفة البنود على 10000 عمود.

items

#recsystems

في نظام الاقتراح، تشير الكيانات التي التي يقترحها النظام. على سبيل المثال، الفيديوهات هي العناصر التي يقترحها متجر الفيديو، في حين أنّ الكتب هي العناصر التي تقترحها مكتبة.

تكرار

#fundamentals

تحديث واحد لمَعلمات النموذج، أي الأوزان والانحيازات للنموذج، أثناء التدريب ويحدِّد حجم الدفعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال، إذا كان حجم المجموعة 20، يعالج النموذج 20 مثالاً قبل تعديل المَعلمات.

عند تدريب شبكة عصبية، تتضمن الخطوة الواحدة المرّتَين التاليتَين:

  1. تمريرة للأمام لتقييم الخسارة في دفعة واحدة.
  2. عملية التقديم إلى الخلف (الانتشار العكسي) لتعديل مَعلمات النموذج استنادًا إلى الخسارة ومعدّل التعلّم

J

JAX

مكتبة حوسبة مصفوفات تجمع بين XLA (الجبر الخطي المُسرَّع) والتفاضل التلقائي للحصول على أداء عالٍ في الحوسبة الرقمية تقدم قناة JAX برنامجًا بسيطًا وقويًا واجهة برمجة تطبيقات لكتابة رمز رقمي مسرَّع باستخدام عمليات تحويل قابلة للإنشاء. توفّر JAX ميزات مثل:

  • grad (تفاضل تلقائي)
  • jit (الترجمة الفورية)
  • vmap (التحويل التلقائي إلى شكل مرئي أو تجميع البيانات)
  • pmap (المعالجة المتوزية)

JAX هي لغة لتعبير عن عمليات تحويل الرموز البرمجية الرقمية وإنشاءها، وهي مشابهة لمكتبة NumPy في بايثون، ولكن نطاقها أكبر بكثير. (في الواقع، مكتبة ‎.numpy ضمن JAX هي نسخة متكافئة وظيفيًا، لكن تمت إعادة كتابتها بالكامل من مكتبة Python NumPy).

إنّ تجربة JAX مناسبة بشكل خاص لتسريع العديد من مهام تعلُّم الآلة. من خلال تحويل النماذج والبيانات إلى شكل مناسب للتوازي في وحدات معالجة الرسومات وشرائح مسرِّعة معالجة الرسومات (TPU).

Flax وOptax وPax وغير ذلك يتم إنشاء المكتبات على البنية الأساسية لـ JAX.

K

Keras

هي واجهة برمجة تطبيقات شائعة في لغة بايثون للتعلّم الآلي. كيراس يركض في والعديد من أطر التعلم المتعمقة، بما في ذلك TensorFlow، حيث يتم متاح كـ tf.keras

آلات متّجهات الدعم الأساسية (KSVM)

يشير هذا المصطلح إلى خوارزمية تصنيف تسعى إلى زيادة الهامش بين إيجابية الفئات السالبة من خلال ربط متّجهات بيانات الإدخال إلى مساحة ذات أبعاد أعلى. على سبيل المثال، لنفترض أنّ هناك مشكلة في تصنيف تتضمّن مجموعة بيانات الإدخال مائة سمة. لزيادة الهامش بين الفئات الإيجابية والسلبية، يمكن لآلة متجه الدعم ربط هذه الميزات داخليًا في مساحة مليون البعد. تستخدِم نماذج KSVM دالة خسارة تُعرَف باسم خسارة المفصلة.

النقاط الرئيسية

#image

إحداثيات ميزات معيّنة في صورة على سبيل المثال، في نموذج التعرّف على الصور الذي يميز أنواع الزهور، قد تكون النقاط الرئيسية هي مركز كلّ بتلة، والساق، وعضو التلقيح، وما إلى ذلك.

التحقق من الصحة المتقاطع k- Fold

يشير هذا المصطلح إلى خوارزمية للتنبؤ بقدرة نموذج على تعميم البيانات الجديدة. يشير الحرف k في المحور k- Fold إلى عدد المجموعات المتساوية التي تقسم أمثلة مجموعة البيانات إليها؛ أي أنك تتدرب ونختبر النموذج k مرة. في كل جولة من التدريب والاختبار، يتم استخدام مجموعة مختلفة كمجموعة اختبار، وتصبح جميع المجموعات المتبقية مجموعة تدريب. بعد k جولات من التدريب والاختبار، يمكنك احتساب المتوسط و الانحراف المعياري لمقاييس الاختبار المحدّدة.

على سبيل المثال، افترض أن مجموعة البيانات الخاصة بك تتكون من 120 مثالاً. ولنفترض أيضًا، فقررت تعيين k على 4. لذلك، بعد ترتيب الأمثلة عشوائيًا، تقسِّم مجموعة البيانات إلى أربع مجموعات متساوية من 30 مثالًا وتُجري أربع دورات تدريب واختبار:

مجموعة بيانات مقسمة إلى أربع مجموعات متساوية من الأمثلة. في الجولة 1،
          يتم استخدام أوّل ثلاث مجموعات للتدريب ويتم استخدام المجموعة الأخيرة
          للاختبار. في الجولة 2، يتم استخدام أول مجموعتَين والمجموعة
          الأخيرة للتدريب، بينما يتم استخدام المجموعة الثالثة
          للاختبار. في الجولة 3، تكون المجموعة الأولى والمجموعتين الأخيرتين
          للتدريب، بينما تُستخدم المجموعة الثانية للاختبار.
          في الجولة 4، يتم استخدام المجموعة الأولى للاختبار، بينما تُستخدم المجموعة النهائية
          استخدام ثلاث مجموعات للتدريب.

على سبيل المثال، قد يكون متوسط الخطأ التربيعي (MSE) هو المقياس الأكثر أهمية لنموذج الانحدار الخطي. لذلك، سوف نجد المتوسط والانحراف المعياري للخطأ التربيعي المتوسط في جميع الجولات الأربع.

المتوسطات التصنيفية

#clustering

خوارزمية تجميع شائعة تُجمِّع الأمثلة في التعلم غير الخاضع للإشراف تقوم الخوارزمية التصنيفية بشكل أساسي بما يلي:

  • تحديد أفضل نقاط مركزية بالتكرار (تُعرف باعتبارها centroids).
  • تُحدِّد كل مثال على أنّه أقرب نقطة مركزية. تنتمي الأمثلة الأقرب إلى النقطة المركزية نفسها إلى المجموعة نفسها.

تختار الخوارزمية التصنيفية مواقع النقاط المركزية لتقليل القيمة التراكمية للمربّع للمسافات من كل مثال إلى أقرب نقطة مركزية له.

على سبيل المثال، ضع في الاعتبار المخطط التالي لارتفاع الكلب بالنسبة إلى عرض الكلب:

رسم بياني كارتيزيتي يتضمّن عدة عشرات من نقاط البيانات

إذا كانت ك=3، فستحدد الخوارزمية التصنيفية ثلاث نقاط مركزية. كل مثال مع أقرب نقطة مركزية لها، ويكون الناتج ثلاث مجموعات:

الرسم البياني الديكارتي نفسه كما هو موضّح في الرسم التوضيحي السابق، باستثناء
          أنّه تمت إضافة ثلاثة مراكز ثقل.
          يتم تجميع نقاط البيانات السابقة في ثلاث مجموعات مختلفة،
          حيث تمثل كل مجموعة نقاط البيانات الأقرب إلى مجموعة
          نقطة مركزية.

تخيل أن الشركة المصنعة ترغب في تحديد الأحجام المثالية للشركات الصغيرة وسترات متوسطة وكبيرة للكلاب. تحدِّد النقاط المركزية الثلاث متوسّط الطول ومتوسّط العرض لكلّ كلب في هذه المجموعة. وبالتالي، على المصنّع تحديد مقاسات البلوفرات استنادًا إلى هذه المراكز الثلاثية للكتلة. يُرجى العِلم أنّهلا يكون عادةً مركز المجموعة العنقودية مثالاً في المجموعة.

توضح الرسوم التوضيحية السابقة الخوارزمية التصنيفية لأمثلة تحتوي فقط على ميزتين (الارتفاع والعرض). تجدر الإشارة إلى أنّ خوارزمية "الوسيط الحسابي k" يمكنها تجميع الأمثلة على مستوى العديد من الميزات.

وسيط تصنيفي

#clustering

يشير ذلك المصطلح إلى خوارزمية تجميع ترتبط ارتباطًا وثيقًا بالخوارزمية التصنيفية. تشير رسالة الأشكال البيانية الفرق العملي بين الاثنين على النحو التالي:

  • وفي الخوارزمية التصنيفية، يتم تحديد النقاط المركزية من خلال تخفيض مجموع مربعات المسافة بين النقطة المركزية المرشحة وكل أمثلتها.
  • وفي المتوسط التصنيفي، يتم تحديد النقاط المركزية من خلال خفض مجموع المسافة بين النقطة المركزية المرشحة وكل مثال من أمثلتها.

يُرجى العلم أنّ تعريفات المسافة تختلف أيضًا:

  • تعتمد الخوارزمية التصنيفية على المسافة الإقليدية من والنقطة المركزية إلى مثال. (في بعدَين، يشير البعد Euclidean إلى استخدام نظرية فيثاغورس لاحتساب الوتر). على سبيل المثال، تكون المسافة بين نقطتَي (2,2) و(5,-2) وفقًا لطريقة "متوسطات k" كالتالي:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • يعتمد الوسيط التصنيفي على مسافة مانهاتن من النقطة المركزية إلى مثال. وهذه المسافة هي مجموع القيم المطلقة للفرق في كل سمة. على سبيل المثال، ستكون المسافة بين (2,2) و(5,-2) هي:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

تسوية L0

#fundamentals

نوع من التسوية الذي يفرض عقوبة على إجمالي عدد المَعلمات غير الصفرية في النموذج. على سبيل المثال، سيتمّ فرض عقوبة أكبر على نموذج يتضمّن 11 وزنًا غير صفري مقارنةً بنموذج مشابه يتضمّن 10 أوزان غير صفري.

يُسمى تسوية المستوى 0 أحيانًا تسوية المعيار L0.

خسارة L1

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة الفرق بين قيم التصنيف الفعلية القيم التي يتنبأ بها النموذج. على سبيل المثال، في ما يلي حساب خسارة L1 لمجموعة تتألف من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إنّ خسارة L1 أقل حساسية للقيم الشاذة مقارنةً بخسارة L2.

متوسط الخطأ المطلق هو متوسط خسائر L1 لكل مثال.

تسوية L1

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بالتناسب مع مجموع القيمة المطلقة الأوزان. تساعد تسوية الأرباح من المستوى 1 في زيادة احتمالات البيانات غير الملائمة أو ميزات يكاد تكون ذات صلة بالقيمة 0. تتم إزالة سمة ذات أهمية تساوي 0 من النموذج.

تباين مع L2 تسوية.

الخسارة 2

#fundamentals

دالة خسارة تعمل على احتساب مربع الفرق بين قيم التصنيف الفعلية والقيم التي يتنبّأ بها النموذج. على سبيل المثال، إليك احتساب الخسارة من L2 بمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

تؤدي خسارة المستوى 2 إلى تضخيم تأثير القيم الشاذّة بمعنى آخر، تتجاوب خسارة المستوى 2 بدرجة أكبر مع التوقعات السيئة خسارة الجولة الأولى على سبيل المثال، سيكون فقدان L1 للمجموعة السابقة هو 8 بدلاً من 16. لاحظ أنّ قيمة واحدة شاذة تمثّل 9 من القيم الـ 16.

تستخدِم نماذج الانحدار عادةً خسارة L2 كدالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة في المستوى 2.

تسوية L2

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بما يتناسب مع مجموع المربعات للقيم الترجيحية. يساعد تسوية المستوى 2 في زيادة ترجيحات القيم الخارجية (وهي ذات القيم السالبة المرتفعة أو ذات القيم السالبة المنخفضة) أقرب إلى 0 لكن ليست تمامًا إلى 0. تظل الميزات ذات القيم القريبة جدًا من 0 في النموذج ولكنها لا تؤثر كثيرًا في تنبؤ النموذج.

تؤدي تسوية المستوى 2 دائمًا إلى تحسين التعميم في النماذج الخطية.

يختلف ذلك عن تسوية 1.

التصنيف

#fundamentals

في تعلُّم الآلة المراقَب، هو جزء "الإجابة" أو "النتيجة" من مثال.

يتألّف كل مثال مصنَّف من مثال واحد أو أكثر. الميزات وتصنيف. على سبيل المثال، في مجموعة بيانات تهدف إلى رصد المحتوى غير المرغوب فيه، من المرجّح أن يكون التصنيف إما "محتوى غير مرغوب فيه" أو "محتوى مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد تكون التسمية هي مقدار الأمطار التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على عنصر واحد أو أكثر و تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنفة من نموذج تقييم منزل، لكل منها ثلاث ميزات وتصنيف واحد:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392,000 دولار أمريكي

في نظام تعلُّم الآلة الخاضع للإشراف، نماذج التدريب على الأمثلة المصنفة وعمل التنبؤات على أمثلة غير مصنَّفة:

مثال على التباين مع أمثلة غير مصنَّفة.

تسرب التصنيف

عيب في تصميم النموذج تكون فيه الميزة وكيلاً تصنيف: على سبيل المثال، ضع في اعتبارك التصنيف الثنائي الذي يتوقّع ما إذا كان العميل المحتمل سيشتري منتجًا معيّنًا أم لا. لنفترض أنّ إحدى ميزات النموذج هي سمة منطقية باسم SpokeToCustomerAgent. ولنفترض كذلك أن وكيل العميل عبارة عن تعيينه بعد أن يكون العميل المحتمل قد اشترى المنتج. أثناء التدريب، سيتعرّف النموذج بسرعة على الارتباط بين SpokeToCustomerAgent والتصنيف.

لمدا

#fundamentals

مرادف معدّل التنظيم.

"لامدا" هو مصطلح يحمل أكثر من معنى. سنركّز هنا على تعريف المصطلح ضمن التسوية.

نموذج لغوي مخصَّص لتطبيقات المحادثة (LaMDA)

#language

نموذج يستند إلى المحوّل نموذج لغوي كبير طوّرته Google مدرَّبة على مجموعة بيانات حوارية كبيرة يمكنها إنشاء ردود واقعية

LaMDA: محادثتنا الرائدة التقنية نظرة عامة.

معالم

#image

مرادف نقاط المفاتيح.

نموذج لغوي

#language

نموذج يقدّر احتمالية ظهور رمز أو تسلسل من الرموز في تسلسل أطول من الرموز

نموذج لغوي كبير

#language

على الأقل، نموذج لغوي يتضمّن عددًا كبيرًا جدًا من المَعلمات بعبارة أخرى، أي نموذج لغوي يستند إلى Transformer، مثل Gemini أو GPT.

المساحة الكامنة

#language

مرادف لمساحة التضمين.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية في ما يلي ثلاثة أنواع شائعة من الطبقات:

على سبيل المثال، يوضح الرسم التوضيحي التالي شبكة عصبية ذات طبقة إدخال واحدة وطبقتين مخفيتين وطبقة إخراج واحدة:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة
          خرج واحدة تتكون طبقة الإدخال من ميزتين. تتكون الطبقة العميقة
          الأولى من ثلاث خلايا عصبية، وتتكون الطبقة العميقة
          الثانية من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

في TensorFlow، الطبقات هي أيضًا دوال بايثون تستخدم أجهزة الاستشعار وخيارات الضبط كإدخال ننتج عوامل تنس أخرى كمخرجات.

واجهة برمجة التطبيقات للطبقات (tf.layers)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow لإنشاء شبكة عصبية متعمقة كتركيبة للطبقات. تتيح لك واجهة برمجة التطبيقات Layers API إنشاء أنواع مختلفة من الطبقات، مثل:

تتّبع Layers API اصطلاحات واجهة برمجة التطبيقات لطبقات Keras. وهذا يعني أنه بخلاف البادئة المختلفة، فإن جميع الدوال في Layers API لها نفس الأسماء والتوقيعات التي لنظيراتها في Keras واجهة برمجة التطبيقات للطبقات.

ورقة نبات

#df

أي نقطة نهاية في شجرة قرارات. إلغاء الإعجاب بـ condition، لا تُجري ورقة شجر اختبارًا. وإنما تعتبر ورقة الشجر تنبؤًا محتملاً. ورقة الشجر هي أيضًا الطرف عقدة مسار استنتاج.

على سبيل المثال، تحتوي شجرة القرارات التالية على ثلاث أوراق:

شجرة قرارات تتضمّن شرطَين يؤديان إلى ثلاث أوراق

أداة قابلية التفسير في التعلُّم (LIT)

أداة مرئية وتفاعلية لفهم النماذج وتصور البيانات.

يمكنك استخدام LIT مفتوح المصدر من أجل تفسير النماذج أو عرض النص والصور البيانات الجدولية.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يوضّح انحدار التدرج لـ مدى قوة ضبط الأوزان والتحيزات في كل التكرار. على سبيل المثال، سيؤدي معدّل التعلّم الذي يبلغ ‎0.3 إلى تعديل الأوزان والانحيازات بفاعلية أكبر ثلاث مرات من معدّل التعلّم الذي يبلغ ‎0.1.

معدّل التعلّم هو مَعلمة زائدة رئيسية. في حال ضبط كان معدل التعلم منخفضًا جدًا، سيستغرق التدريب وقتًا طويلاً. في حال حذف في أنك قمت بتعيين معدل التعلم مرتفعًا للغاية، وغالبًا ما تواجه خوارزمية انحدار التدرج مشكلة الوصول إلى التقارب.

انحدار التربيعات الأقل

يشير ذلك المصطلح إلى أحد نماذج الانحدار الخطي التي يتم تطويرها من خلال خفض الخسارة L2:

خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر يمكن تمثيلها فقط من خلال الإضافة والضرب.

يُمثّل الرسم البياني لعلاقة خطية خطًا.

تباين الألوان مع القيم nonlinear.

النموذج الخطي

#fundamentals

نموذج يعيّن وزنًا واحدًا لكل الميزة التي تتيح لك التنبؤات. (تضمّن النماذج الخطية أيضًا انحيازًا). في المقابل، تكون علاقة السمات بالتنبؤات في النماذج العميقة غير خطية بشكل عام.

عادةً ما يكون تدريب النماذج الخطية أسهل وأكثر يمكن تفسيره من النماذج الأوّلية ومع ذلك، يمكن أن تتعلم النماذج العميقة علاقات معقدة بين الميزات.

الانحدار الخطي الانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطي

#fundamentals

نوع من نماذج تعلُّم الآلة التي ينطبق عليها كلا الشرطَين التاليَين:

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار باستخدام التصنيف.

LIT

اختصار لـ أداة تعلُّم تفسير البيانات (LIT)، التي كانت تُعرف سابقًا باسم أداة ترجمة اللغة.

LLM

#language
#generativeAI

اختصار النموذج اللغوي الكبير.

تقييمات النماذج اللغوية الكبيرة (evals)

#language
#generativeAI

مجموعة من المقاييس والمقاييس المعيارية لتقييم أداء النماذج اللغوية الكبيرة على مستوى عالٍ، تقييمات النموذج اللغوي الكبير:

  • يمكنك مساعدة الباحثين في تحديد المجالات التي تحتاج النماذج اللغوية الكبيرة فيها إلى تحسين.
  • مفيدة في مقارنة نماذج اللغة الكبيرة المختلفة وتحديد أفضل نموذج لغة كبيرة مهمة معيّنة.
  • ساعِدنا في ضمان أنّ استخدام النماذج اللغوية الكبيرة آمن وأخلاقي.

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار التي تتوقّع احتمالية. تتسم نماذج الانحدار اللوجستي بالسمات التالية:

  • يكون التصنيف فئويًا. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب احتمالات التصنيفات التي لها قيمتَان محتملتَان. أحد الصيغ الأقل شيوعًا وهو الانحدار اللوجستي متعدد الحدود احتمالات التصنيفات ذات أكثر من قيمتين محتملتين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات متعددة لفقدان السجلات بالتوازي مع التصنيفات بأكثر من قيمتين محتملتين).
  • يحتوي النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق الجزء المتبقّي من هذا التعريف أيضًا على النماذج العميقة التي تتوقّع احتمالات للتصنيفات الفئوية.

على سبيل المثال، نأخذ نموذج انحدار لوجستي يحسب احتمال أن تكون الرسالة الإلكترونية التي تم إدخالها إما غير مرغوب فيها أو غير ذلك. أثناء الاستنتاج، افترض أن النموذج يتنبأ بـ 0.72. وبالتالي، يقدر النموذج:

  • فرصة 72٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • فرصة 28٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية المكونة من خطوتَين التاليتَين:

  1. ينشئ النموذج توقّعًا أوّليًا (y') من خلال تطبيق دالة خطية. الخاصة بميزات الإدخال.
  2. يستخدم النموذج هذا التوقّع الأوّلي كمدخل لمحاولة دالة سينوية، التي تحوّل التوقّع الأوّلي إلى قيمة بين 0 و1، باستثناء.

كما هو الحال في أي نموذج انحدار، يتنبأ أي نموذج انحدار لوجستي برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من التصنيف الثنائي النموذج على النحو التالي:

  • إذا كان العدد المتوقّع أكبر من حدّ التصنيف، يتوقّع نموذج التصنيف الثنائي الفئة الموجبة.
  • إذا كان العدد المتوقّع أقل من الحدّ الأدنى للتصنيف، يتوقّع نموذج التصنيف الثنائي الفئة السالبة.

لوجيت

الخط المتجه في التنبؤات الأولية (غير العادية) التي النموذج الذي يتم تمريره عادةً إلى دالة التسوية. إذا كان النموذج يحلّ مشكلة تصنيف متعدد الفئات ، تصبح اللوغاريتمات عادةً إدخالًا لدالة softmax. بعد ذلك، تنشئ دالة softmax متجهًا من احتمالات (مُعدَّلة) بقيمة واحدة لكل فئة محتملة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدمة في النظام الثنائي الانحدار اللوجستي.

لوغاريتم فرص الأفضلية

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الذاكرة القصيرة المدى (LSTM)

#seq

نوع من الخلايا في الشبكة العصبية المتكررة المستخدَمة لمعالجة تسلسلات البيانات في تطبيقات مثل التعرّف على الكتابة اليدوية، والترجمة الآلية، وإضافة ترجمة للصور. تعالج الشبكات المتسلسلة الطويلة للذاكرة مشكلة تلاشي التدرّج التي تحدث عند تدريب الشبكات العصبية المتسلسلة بسبب تسلسلات البيانات الطويلة من خلال الاحتفاظ بالسجلّ في حالة الذاكرة الداخلية استنادًا إلى الإدخال والسياق الجديدَين من الخلايا السابقة في الشبكة العصبية المتسلسلة.

LoRA

#language
#generativeAI

يشير إلى اختصار قابلية التكيّف المنخفضة الترتيب.

الخسارة

#fundamentals

أثناء تدريب النموذج المُوجّه، وهو مقياس لمدى التنبؤ بالنموذج من التصنيف الخاص به.

تحسب دالة الخسارة الخسارة.

موقع تجميع الخسائر

يشير ذلك المصطلح إلى نوع من خوارزميات تعلُّم الآلة. تحسين أداء النموذج من خلال الجمع بين التنبؤات لنماذج باستخدام هذه التنبؤات لعمل تنبؤ واحد. وبالتالي يمكن لأداة تجميع الخسارة تقليل تباين التوقعات تحسين دقة التوقّعات.

منحنى الخسارة

#fundamentals

رسم بياني لـ الخسارة كدالّة على عدد دورات التدريب يعرض الرسم البياني التالي منحنى typical loss :

رسم بياني الديكارتي للخسارة مقابل التكرارات التدريبية، يُظهر
          الانخفاض السريع في الخسارة في التكرارات الأولية، تليه
          ثم انحدار مستوٍ أثناء التكرارات النهائية.

يمكن أن تساعدك منحنيات الخسارة في تحديد الحالات التي يكون فيها النموذج متوافقًا أو متوافقًا بشكل مفرط.

يمكن أن ترسم منحنيات الخسارة جميع أنواع الخسارة التالية:

اطّلِع أيضًا على منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، يتم استخدام دالة mathematica لحساب الخسارة في مجموعة من الأمثلة. دالة الخسارة ترجع خسارة أقل للنماذج التي ينتج عنها تنبؤات جيدة مقارنةً بالنماذج التي التوقعات السيئة.

وعادةً ما يكون الهدف من التطبيق هو تقليل فقدان دالة الخسارة. وإرجاعه.

هناك العديد من الأنواع المختلفة لدوال الخسارة. اختيار النقطة الخسارة المناسبة المناسبة لنوع النموذج الذي تقوم بإنشائه. على سبيل المثال:

مساحة الخسارة

رسم بياني للوزن مقابل الخسارة تهدف انحدار التدرج لحساب الوزن(الأوزان) التي يكون سطح الخسارة فيها عند الحد الأدنى المحلي.

القدرة على التكيف منخفض الترتيب (LoRA)

#language
#generativeAI

أسلوب معلَمات فعال ضبط دقيق "يتوقّف عن العمل" تم تدريب النموذج مسبقًا الأوزان (بحيث لا يمكن تعديلها بعد ذلك) ثم تدرج مجموعة صغيرة للأوزان القابلة للتدريب في النموذج. هذه المجموعة من الأوزان القابلة للتدريب (المعروفة أيضًا باسم "مصفوفات التعديل") أصغر بكثير من النموذج الأساسي، وبالتالي تتم عملية تدريبها بشكلٍ أسرع بكثير.

توفّر شبكة LoRA المزايا التالية:

  • تحسين جودة توقّعات النموذج للنطاق الذي يتم فيه تطبيق التحسين الدقيق
  • الضبط الدقيق بشكل أسرع من الأساليب التي تتطلب ضبط جميع سمات النموذج المعلَمات.
  • تقليل التكلفة الحسابية لعملية الاستنتاج من خلال تفعيل عرض نماذج متعدّدة ومتخصّصة بشكل متزامن تشترك في النموذج الأساسي نفسه

LSTM

#seq

اختصار الذاكرة قصيرة المدى الطويلة.

M

تعلُم الآلة

#fundamentals

برنامج أو نظام يدرِّب نموذجًا من البيانات التي يتم إدخالها يمكن للنموذج المدرَّب إجراء توقّعات مفيدة من بيانات جديدة (لم يسبق رؤيتها) يتم استخراجها من التوزيع نفسه المستخدَم لتدريب النموذج.

كما يشير التعلم الآلي إلى مجال الدراسة المعني باستخدام هذه البرامج أو الأنظمة.

فئة الأغلبية

#fundamentals

التصنيف الأكثر شيوعًا في مجموعة بيانات غير متوازنة الفئات. على سبيل المثال: أي مجموعة بيانات تحتوي على تسميات سلبية 99% وتسميات موجبة بنسبة 1%، والتسميات السالبة هي فئة الأغلبية.

يُرجى المقارنة مع الفئة الأقلية.

عملية اتخاذ القرار وفقًا لنموذج ماركوف (MDP)

#rl

رسم بياني يمثّل نموذج اتخاذ القرار الذي يتم فيه اتخاذ القرارات (أو الإجراءات) للتنقّل في تسلسل الحالات بافتراض أنّه يتم استيفاء خاصيّة ماركوف في التعلم التعزيزي، تؤدي هذه الانتقالات بين الحالات إلى عرض مكافأة رقمية.

خاصيّة ماركوف

#rl

خاصيّة بيئات معيّنة، حيث يتم تحديد التحولات الحالات بالكامل من خلال المعلومات الضمنية في الحالة الحالية والإجراء الذي يتّخذه الوكيل.

نموذج لغوي مُموَّه

#language

نموذج لغوي يتنبأ باحتمالية الرموز المميزة المرشحة لملء الفراغات في تسلسل. على سبيل المثال، يمكن لنموذج اللغة المقنَّعة حساب احتمالات الكلمات المرشحة لاستبدال الخطوط السفلية في الجملة التالية:

عاد ____ في القبّعة.

تستخدم المؤلفات عادةً السلسلة "MASK" بدلاً من تسطير. على سبيل المثال:

عادت كلمة "قناع" في القبّعة.

معظم نماذج اللغة المقنَّعة الحديثة هي ثنائية الاتجاه.

matplotlib

مكتبة مفتوحة المصدر لإنشاء الرسومات البيانية ثنائية الأبعاد بلغة بايثون. تساعدك مكتبة matplotlib في التمثيل البصري للجوانب المختلفة للتعلم الآلي.

تجزئة المصفوفة

#recsystems

في الرياضيات، آلية للعثور على المصفوفات التي يكون ناتج ضربها النقطي تقريبيًا لمصفوفة مستهدَفة.

في أنظمة التوصية، تمثل المصفوفة المستهدفة يحمل غالبًا بيانات التقييمات على العناصر. على سبيل المثال، قد تبدو مصفوفة المحتوى المستهدفة لنظام اقتراحات الأفلام على النحو التالي، حيث تكون الأعداد الصحيحة الموجبة هي تقييمات المستخدمين و0 يشير إلى أنّ المستخدم لم يقدّم تقييمًا للفيلم:

  الدار البيضاء قصة فيلادلفيا الفهد الأسود المرأة المعجزة Pulp Fiction
مستخدم 1 5.0 3 0.0 2.0 0.0
مستخدم 2 4.0 0.0 0.0 1 5.0
مستخدم 3 3 1 4.0 5.0 0.0

يهدف نظام اقتراحات الأفلام إلى توقّع تقييمات المستخدمين للأفلام التي لم يتم تقييمها. على سبيل المثال، هل سيعجب المستخدم "أ" بفيلم Black Panther؟

يتمثل أحد مناهج أنظمة التوصية في استخدام مصفوفة إلى العوامل لإنتاج المصفوفة التالية:

على سبيل المثال، يمكن أن يؤدي استخدام تحليل المصفّفات على المستخدِمين الثلاثة والعناصر الخمسة إلى الحصول على مصفوفة المستخدِمين ومصفّفة السلع التالية:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

ينتج عن حاصل ضرب مصفوفة المستخدمين في مصفوفة العناصر ملف ترشيح لا يحتوي فقط على تقييمات المستخدمين الأصلية، بل يتضمّن أيضًا توقّعات للأفلام التي لم يشاهدها كل مستخدم. على سبيل المثال، لنفترض أنّ تقييم المستخدم "أ" لفندق Casablanca هو 5.0. النقطة يجب أن يكون ناتج المنتج المقابل لتلك الخلية في مصفوفة التوصيات نأمل أن يكون حوالي 5.0، وهو:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

الأهم من ذلك، هل سيحب المستخدم 1 Black Panther؟ الحصول على ناتج الضرب النقطي يتجاوب مع الصف الأول والعمود الثالث ينتج عنه توقع تصنيف 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

تؤدي عملية تحليل المصفوفات عادةً إلى إنشاء مصفوفة مستخدمين ومصفوفة سلع، وهما مصفوتان أكثر كثافة بكثير من المصفوفة المستهدَفة.

متوسط الخطأ المطلق (MAE)

متوسط الخسارة لكل نموذج عند استخدام فقدان1 احسب متوسط الخطأ المطلق على النحو التالي:

  1. احسب الخسارة L1 لدُفعة.
  2. قسِّم خسارة L1 على عدد النماذج في المجموعة.

على سبيل المثال، لنأخذ في الاعتبار احتساب خسارة L1 في الحزمة التالية من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج الخسارة (الفرق بين القيم الفعلية والقيم المتوقّعة)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إذًا، تكون الخسارة L1 هي 8 وعدد الأمثلة هو 5. وبالتالي، فإنّ متوسّط الخطأ المطلق هو:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

قارِن بين متوسّط الخطأ المطلق ومتوسط الخطأ التربيعي و جذر متوسّط الخطأ التربيعي.

الخطأ التربيعي المتوسط (MSE)

متوسّط الخسارة لكل نموذج عند استخدام فقدان2 احسب متوسط الخطأ التربيعي على النحو التالي:

  1. احسب الخسارة L2 لدُفعة.
  2. قسِّم خسارة L2 على عدد النماذج في الحزمة.

على سبيل المثال، فكِّر في الخسارة في المجموعة التالية من خمسة أمثلة:

القيمة الفعلية توقّعات النموذج الخسارة الخسارة التربيعية
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = خسارة L2

وبالتالي، فإن متوسط الخطأ التربيعي هو:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

متوسط الخطأ المربع هو محسّن تدريب شائع، وبالأخص في ما يخص الانحدار الخطي.

قارِن بين الخطأ التربيعي المتوسّط ومتوسط الخطأ المطلق وجذر الخطأ التربيعي المتوسّط.

تستخدم قناة TensorFlow Playground متوسط الخطأ التربيعي لحساب قيم الخسارة.

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة الموازية لتعلُّم الآلة، هو مصطلح مرتبط بتخصيص البيانات وال النموذج إلى شرائح TPU، وتحديد كيفية تقسيم هذه القيم أو تكرارها.

الشبكة المتداخلة هي عبارة عن حمل زائد ويمكن أن تعني أيًا مما يلي:

  • تمثّل هذه السمة تصميمًا فعليًا لشرائح TPU.
  • إنشاء منطقي تجريدي لتعيين البيانات والنموذج إلى وحدة معالجة الموتّرات رقائق البطاطس.

وفي كلتا الحالتين، يتم تحديد الشبكة المتداخلة كشكل.

التعلّم الوصفي

#language

مجموعة فرعية من تعلُّم الآلة تستكشف خوارزمية تعلُّم أو تحسّنها. ويمكن أن يهدف نظام التعلم الوصفي أيضًا إلى تدريب نموذج لتعلم كيفية مهمة من كمية صغيرة من البيانات أو من الخبرة المكتسبة في المهام السابقة. بوجهٍ عام، تحاول خوارزميات التعلّم الوصفي تحقيق ما يلي:

  • تحسين أو تعلم الميزات الهندسية يدويًا (مثل أداة التهيئة أو محسّن).
  • أن تكون أكثر كفاءة في استخدام البيانات والمعالجة
  • تحسين التعميم.

يرتبط التعلّم الوصفي بالتعلّم ببضع فُرَص.

المقياس

#TensorFlow

إحصائية مهمة.

الهدف هو مقياس يستخدمه نظام تعلُّم الآلة. تحسينه.

Metrics API (tf.metrics)

واجهة برمجة تطبيقات TensorFlow لتقييم النماذج على سبيل المثال: tf.metrics.accuracy يحدد عدد مرات تطابق تنبؤات النموذج مع التصنيفات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في واحدة التكرار. عادةً ما يتراوح حجم الحزمة للحزمة الصغيرة بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أنّ مجموعة التدريب بأكملها (الدُفعة الكاملة) يتكون من 1000 مثال. لنفترض أيضًا أنّك ضبطت حجم الحزمة لكل حزمة صغيرة على 20. لذلك، يحدد التكرار الخسارة في 20 عشوائيًا من 1000 مثال ثم من خلال تعديل القيم المرجحة والانحيازات وفقًا لذلك.

ويكون حساب الخسارة على دفعة صغيرة أكثر فعالية بكثير من فقدان جميع الأمثلة الموجودة في الدفعة الكاملة.

النزول المتدرّج العشوائي ضمن دفعة صغيرة

خوارزمية انحدار التدرج التي تستخدم دفعات صغيرة: أو بعبارةٍ أخرى، فإنّ التجميع العشوائي المجزّأ يقدر خورازمية انحدار التدرج التدرج بناءً على مجموعة فرعية صغيرة من بيانات التدريب. تستخدم الانحدار العشوائي المتدرج العادي دفعة صغيرة بحجم 1.

خسارة الحد الأدنى والأقصى

دالة الخسارة الشبكات العدائية التوليدية، بناءً على القصور المتقاطع بين توزيع من البيانات التي تم إنشاؤها والبيانات الحقيقية.

يُستخدم الحد الأدنى من الخسارة في الورقة الأولى لوصف الشبكات الخادعة التوليدية.

فئة الأقليات

#fundamentals

التصنيف الأقل شيوعًا في مجموعة بيانات غير متوازنة في الفئة. على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على 99% من التصنيفات السلبية و1% من التصنيفات الإيجابية، فإنّ التصنيفات الإيجابية هي فئة الأقلية.

التباين مع فئة الغالبية.

مجموعة من الخبراء

#language
#generativeAI

مخطط لزيادة كفاءة الشبكة العصبونية من خلال باستخدام مجموعة فرعية فقط من معلماتها (المعروفة باسم خبير) لمعالجة إدخال محدد الرمز المميز أو مثال. تُوجّه شبكة التوجيه كل رمز مميّز أو مثال إدخال إلى الخبراء المناسبين.

للاطّلاع على التفاصيل، يُرجى الاطّلاع على أيّ من المقالتَين التاليتَين:

مالي

اختصار تعلُّم الآلة.

MMIT

#language
#image
#generativeAI

اختصار لـ تعليمات محسَّنة بعدة وسائط:

معهد MNIST (المعهد الوطني للمعايير والتكنولوجيا)

#image

مجموعة بيانات المجال العام التي تم تجميعها بواسطة LeCun وكورتيس وبورجس تحتوي على 60,000 صورة، تعرض كل صورة طريقة كتابة شخص ما لصورة معيّنة يدويًا الرقم من 0 إلى 9. يتم تخزين كل صورة في شكل مصفوفة 28×28 من الأعداد الصحيحة، حيث يكون كل عدد صحيح عبارة عن قيمة بتدرج رمادية بين 0 و255، شاملاً.

MNIST هي مجموعة بيانات أساسية لتعلُّم الآلة، وغالبًا ما تُستخدَم لاختبار أساليب جديدة تتعلّق بالتعلم الآلي. للحصول على التفاصيل، يمكنك مراجعة قاعدة بيانات "الأرقام المكتوبة بخط اليد" في MNIST

الوسيط

#language

فئة بيانات عالية المستوى. على سبيل المثال، الأرقام والنصوص والصور والفيديوهات والمواد المسموعة هي خمسة أنماط مختلفة.

نموذج

#fundamentals

بشكل عام، أيّ بنية رياضية تعالج بيانات الإدخال وتُعرِض النتيجة. بعبارة أخرى، النموذج هو مجموعة المَعلمات والبنية التي يحتاجها النظام لتقديم توقّعات. في نظام تعلُّم الآلة الخاضع للإشراف، يأخذ النموذج مثال كمدخل ويستنتج التوقّع كإخراج. ومن خلال التعلّم الآلي المُوجّه نماذج مختلفة إلى حد ما. على سبيل المثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

تعلُّم الآلة غير الخاضع للإشراف أيضًا نماذج، وعادةً ما تكون دالة يمكنها تعيين مثال إدخال المجموعة الأكثر ملاءمةً.

سعة النموذج

يشير ذلك المصطلح إلى مدى تعقيد المسائل التي يمكن أن يتعلّمها نموذج معيّن. كلما زادت تعقيدًا المشكلات التي يمكن أن يتعلمها النموذج، زادت قدرة النموذج. نموذج تزداد السعة عادةً كلما زاد عدد معاملات النموذج. للحصول على تعريف رسمي لسعة المصنِّف، يُرجى الاطّلاع على سمة VC.

تسلسل النماذج

#generativeAI

يشير هذا المصطلح إلى نظام يختار النموذج المثالي استنادًا إلى استنتاج معيّن. طلب البحث.

تخيل مجموعة من النماذج، تتراوح من النماذج الكبيرة للغاية (الكثير من المعلَمات) إلى أصغر بكثير (معلَمات أقل بكثير). تستهلك النماذج الكبيرة جدًا موارد حسابية أكثر في وقت النمذجة مقارنةً بالنماذج الأصغر حجمًا. ومع ذلك، إنّ نماذجنا إلى استنتاج طلبات أكثر تعقيدًا من النماذج الأصغر. يحدد التتابع النموذجي مدى تعقيد طلب الاستنتاج ثم واختيار النموذج المناسب لإجراء الاستنتاج. إن الحافز الرئيسي لتدفق النموذج هو خفض تكاليف الاستنتاج من خلال واختيار النماذج الأصغر بصورة عامة، وتحديد نموذج أكبر فقط للحصول على الاستعلامات المعقدة.

لنفترض أنّ نموذجًا صغيرًا يعمل على هاتف ويعمل إصدار أكبر من ذلك النموذج على خادم بعيد. يؤدي تتالي النموذج الجيد إلى خفض التكلفة ووقت الاستجابة من خلال ما يمكّن النموذج الأصغر من معالجة الطلبات البسيطة ويطلب فقط نموذج بعيد للتعامل مع الطلبات المعقدة.

يمكنك أيضًا الاطّلاع على جهاز التوجيه النموذجي.

موازاة النموذج

#language

طريقة لتوسيع نطاق التدريب أو الاستنتاج من خلال وضع أجزاء مختلفة من أحد النماذج على أجهزة مختلفة موازاة النموذج لتمكين النماذج الكبيرة جدًا بحيث لا تناسب جهاز واحد.

لتنفيذ التوازي في النماذج، ينفّذ النظام عادةً ما يلي:

  1. أجزاء (تقسيم) النموذج إلى أجزاء أصغر.
  2. توزيع عملية تدريب هذه الأجزاء الأصغر على معالجات متعددة يُدرِّب كل معالج جزءًا من النموذج.
  3. دمج النتائج لإنشاء نموذج واحد

يؤدي التوازُن في النموذج إلى إبطاء عملية التدريب.

راجِع أيضًا موازية البيانات.

جهاز توجيه نموذجي

#generativeAI

يشير هذا المصطلح إلى الخوارزمية التي تحدّد النموذج المثالي الاستنتاج في النموذج المتتالية. عادةً ما يكون جهاز التوجيه النموذجي في حد ذاته أحد نماذج التعلم الآلي تتعلم تدريجيًا كيفية اختيار أفضل نموذج لمدخل معين. ومع ذلك، يمكن أن يكون جهاز التوجيه النموذجي أحيانًا خوارزمية أبسط وغير مستندة إلى التعلم الآلي.

تدريب النموذج

عملية تحديد أفضل نموذج

الزخم

يشير ذلك المصطلح إلى خوارزمية معقّدة لخوارزمية انحدار التدرج تعتمد فيها خطوة التعلُّم. ليس فقط على المشتق في الخطوة الحالية، ولكن أيضًا على المشتقات الخطوات التي سبقتها مباشرةً. تتضمن كمية الحركة احتساب متوسّط متحرك مُقدَّر بشكلٍ أسيّ للتدرّجات بمرور الوقت، وهو ما يشبه كمية الحركة في الفيزياء. يمنع الزخم أحيانًا عملية التعلّم من التوقف عند أدنى قيمة محلية.

MOE

#language
#image
#generativeAI

اختصار مزيج من الخبراء.

تصنيف متعدّد الفئات

#fundamentals

في التعلّم المُوجّه، مشكلة التصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتَين من التصنيفات على سبيل المثال، يجب أن تكون التصنيفات في مجموعة بيانات Iris واحدة من الأنواع التالية الثلاثة:

  • Iris setosa
  • Iris virginica
  • بنفسجي فاتح

إنّ النموذج الذي تم تدريبه على مجموعة بيانات Iris والذي يتوقّع نوع Iris استنادًا إلى أمثلة جديدة يُجري تصنيفًا متعدد الفئات.

وفي المقابل، تندرج مشكلات التصنيف التي تميز بين وصفين الفئات هي نماذج تصنيف ثنائية. على سبيل المثال، نموذج الرسائل الإلكترونية الذي يتنبّأ بأنّ الرسالة غير مرغوب فيها أو مرغوب فيها هو نموذج تصنيف ثنائي.

في مشكلات التجميع العنقودي، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

انحدار لوجستي متعدد الفئات

استخدام الانحدار اللوجستي في معالجة مشاكل التصنيف المتعدّد الفئات

الانتباه الذاتي المتعدّد الرؤوس

#language

تمثّل هذه السمة إضافة تنبيه ذاتي تطبّق آلية الانتباه الذاتي عدة مرات لكل موضع في تسلسل الإدخال.

قدّمت المحوّلات ميزة الانتباه الذاتي المتعدّد الرؤوس.

نموذج متعدد الوسائط

#language

يشير هذا المصطلح إلى نموذج تشتمل مدخلاته و/أو مخرجاته على أكثر من عنصر. الطريقة: على سبيل المثال، لنفترض أنّ هناك نموذجًا يستخدِم كلاً من الصورة والشرح النصي (أسلوبان) كسمات، ويصنِّف النموذج المحتوى النصي حسب مدى ملاءمته للصورة. وبالتالي، تكون مدخلات هذا النموذج متعددة الوسائط والمخرجات أحادية الوسائط.

مُعدّة للتعليمات المتعدّدة الوسائط

#language

نموذج معدَّل وفقًا للتعليمات يمكنه معالجة الإدخال غير النصوص، مثل الصور والفيديو والصوت

التصنيف المتعدّد الفئات

مرادف للتصنيف متعدد الفئات.

الانحدار المتعدّد الفئات

مرادف لـ الانحدار اللوجستي متعدد الفئات.

تنفيذ مهام متعددة

يشير ذلك المصطلح إلى أسلوب لتعلُّم الآلة يتم فيه استخدام نموذج واحد. التدريب على أداء عدة مهام.

يتم إنشاء النماذج المتعدّدة المهام من خلال التدريب على بيانات مناسبة لكلّ مهمة من المهام المختلفة. يتيح ذلك للنموذج تعلُّم مشاركة المعلومات في جميع المهام، ما يساعده في التعلّم بفعالية أكبر.

غالبًا ما يحسّن النموذج المُدرَّب على مهام متعددة من قدرات التعميم ويمكن أن تكون أكثر فعالية في التعامل مع أنواع مختلفة من البيانات.

لا

فخ القيم غير المعرفة كأرقام

عندما يصبح رقم واحد في نموذجك NaN أثناء التطبيق، الأمر الذي قد يتسبب في ظهور العديد من الأرقام الأخرى أو جميعها في نموذجك تصبح في النهاية NaN.

NaN هو اختصار لعبارة لا يمثّل رقمًا.

فهم اللغات الطبيعية

#language

تحديد نوايا المستخدم استنادًا إلى ما كتبه أو قاله. على سبيل المثال، يستخدِم محرّك بحث فهم اللغة الطبيعية لتحديد ما يبحث عنه المستخدِم استنادًا إلى ما كتبه أو قاله.

فئة سلبية

#fundamentals

في التصنيف الثنائي، يُطلق على أحد التصنيفَين اسم موجب والآخر اسم سالب. الفئة الإيجابية هي الشيء أو الحدث الذي يختبره النموذج، والفئة السلبية هي الاحتمالية الأخرى. على سبيل المثال:

  • الفئة السالبة في الاختبار الطبي قد تكون "ليست ورمًا".
  • قد تكون الفئة السالبة في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير رسالة غير مرغوب فيها".

التباين مع الفئة الموجبة.

أخذ عيّنات سلبية

مرادف تحليل العينات المحتمَلة.

البحث عن البنية العصبية (NAS)

تقنية لتصميم بنية الشبكة العصبية تلقائيًا يمكن أن تقلّل خوارزميات شبكة البحث الاصطناعي (NAS) من مقدار الوقت والموارد المطلوبة لتدريب شبكة عصبية.

تستخدم NAS عادةً ما يلي:

  • مساحة بحث، وهي مجموعة من التصاميم الممكنة
  • دالة اللياقة البدنية، وهي مقياس لمدى جودة والهندسة المعمارية في مهمة معينة.

غالبًا ما تبدأ خوارزميات التخزين الشبكي بمجموعة صغيرة من الهياكل المحتملة أن توسع مساحة البحث تدريجيًا، حيث تتعلم الخوارزمية المزيد عن يكون البُنى الهندسية فعالة. تعتمد وظيفة اللياقة البدنية عادةً على أداء البنية في مجموعة تدريب، ويتم استخدام الخوارزمية مدربين عادةً باستخدام التعلُّم المعزّز.

أثبتت خوارزميات البحث التلقائي عن الشبكة فعاليتها في العثور على تصاميم عميقة عالية الأداء لمجموعة متنوعة من المهام، بما في ذلك تصنيف الصور والنصوص والترجمة الآلية.

شبكة عصبية

#fundamentals

طراز يحتوي على واحد على الأقل طبقة مخفية. الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية واحدة. على سبيل المثال، يوضّح المخطّط البياني التالي شبكة عصبية عميقة تحتوي على طبقتَين مخفيتَين.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج

تتصل كل خلية عصبية في الشبكة العصبية بجميع النقاط في الطبقة التالية. على سبيل المثال، في المخطط السابق، لاحظ أن كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية، تتصل بشكل منفصل بكلتا الخليتين العصبيتين في الطبقة الثانية المخفية.

تسمى الشبكات العصبية المنفذة على أجهزة الكمبيوتر أحيانًا الشبكات العصبية الاصطناعية للتمييز بينها الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

قد تحاكي بعض الشبكات العصبية العلاقات غير الخطية المعقدة للغاية بين الميزات المختلفة والتسمية.

راجِع أيضًا الشبكة العصبونية الالتفافية و الشبكة العصبونية المتكررة.

عصبون

#fundamentals

في تعلُّم الآلة، هي وحدة متميزة ضمن الطبقة المخفية الشبكة العصبية. ينفِّذ كل عصبون الإجراء التالي المكوّن من مرحلتين:

  1. حساب المجموع المرجح لقيم الإدخال مضروبة حسب أوزانها المقابلة.
  2. يجتاز المجموع المرجح كمدخل إلى دالة التفعيل.

يقبل العصبون في الطبقة المخفية الأولى مدخلات من قيم السمات في الطبقة المُدخلة. يقبل الخلية العصبية في أي طبقة مخفية بعد الأولى مدخلات من الخلايا العصبية في الطبقة المخفية السابقة. فعلى سبيل المثال، تقبل الخلية العصبية في الطبقة المخفية الثانية المدخلات من الخلايا العصبية في الطبقة الأولى المخفية.

تُبرز الصورة التوضيحية التالية خليتَين عصبيتَين ومقدّماتَيهما.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين و
          طبقة إخراج خليتان عصبيتان بارزتان: واحدة في الأولى
          طبقة مخفية وواحد في الطبقة الثانية المخفية. يتم تمييز
          الخلية العصبية في الطبقة المخفية الأولى تتلقى مدخلات من كلتا الميزتين
          في طبقة الإدخال. يتلقّى الخلية العصبية المميّزة في الطبقة المخفية الثانية
          مدخلات من كل خلية عصبية من الخلايا العصبية الثلاث في
          الطبقة المخفية الأولى.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ. وأجزاء أخرى من الجهاز العصبي.

الحرف اللاتيني n جرام

#seq
#language

تسلسل مرتب من N كلمة على سبيل المثال، يساوي truly madly 2 غرام. بما أنّه الترتيب مهم، فإنّ madly truly يختلف عن truly madly.

لا أسماء هذا النوع من النصوص القصيرة أمثلة
2 بيجرام أو 2 غرام الذهاب إلى، وتناول الغداء، وتناول العشاء
3 ثلاثي الوحدات أو ثلاثي المقاطع أكل الكثير، ثلاث فئران عمياء، دقّات الجرس
4 4 غرام walk in the park, dust in the wind, the boy ate lentils

تعتمد العديد من نماذج فهم اللغة الطبيعية على مجموعات الكلمات لتوقع الكلمة التالية التي سيكتبها أو ينطقها المستخدم. على سبيل المثال، لنفترض أنّ أحد المستخدمين كتب ثلاثة عميان. من المرجّح أن يتوقّع نموذج الذكاء الاصطناعي للغة (NLU) المستنِد إلى المجموعات الثلاثية من الكلمات أن يكتب المستخدِم mice بعد ذلك.

قارِن بين النصوص القصيرة ذات الوحدات المتعددة ومجموعة الكلمات، وهي مجموعات غير مرتبة من الكلمات.

فهم اللغات الطبيعية

#language

اختصار فهم اللغة الطبيعية.

العقدة (شجرة القرار)

#df

في شجرة القرار، يكون أي condition أو ورقة الشجر.

شجرة قرارات ذات شرطين وثلاث أوراق.

العقدة (الشبكة العصبونية)

#fundamentals

خلية عصبية في طبقة مخفية

العقدة (TensorFlow الرسم البياني)

#TensorFlow

عملية في رسم بياني TensorFlow

الضجيج

بشكل عام، أي شيء يحجب الإشارة في مجموعة البيانات. التشويش يمكن تقديمها إلى البيانات بعدة طرق. على سبيل المثال:

  • يخطئ المصنّفون في التصنيف.
  • يسجّل الأشخاص والأدوات قيم السمات بشكل خاطئ أو يحذفونها.

شرط غير ثنائي

#df

شرط يحتوي على أكثر من نتيجتين محتملتَين فعلى سبيل المثال، يحتوي الشرط غير الثنائي التالي على ثلاثة النتائج:

شرط (عدد_المراحل = ?) يؤدي إلى ثلاث نتائج
          محتملة نتيجة واحدة (number_of_legs = 8) تؤدي إلى ورقة
          باسم عنكبوت. النتيجة الثانية (number_of_legs = 4) تؤدي إلى
          ورقة شجر اسمها كلب. النتيجة الثالثة (number_of_legs = 2) تؤدي إلى
          ورقة شجر اسمها بطريق.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولكن لا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، ضع في اعتبارك نموذجين يرتبط كل منهما ميزة واحدة بتسمية واحدة. النموذج الموجود على اليسار خطي والنموذج الظاهر على اليمين غير خطي:

رسمان بيانيان المخطط الواحد هو خط، إذن هذه علاقة خطية.
          الرسم البياني الآخر هو منحنى، لذا هذه علاقة غير خطية.

انحياز عدم الاستجابة

#fairness

راجِع انحياز الاختيار.

عدم الحركة

#fundamentals

سمة تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، راجِع الأمثلة التالية على عدم الاستقرار:

  • يختلف عدد ملابس السباحة التي يتم بيعها في متجر معيّن مع اختلاف الموسم.
  • تكون كمية فاكهة معيّنة يتم حصادها في منطقة معيّنة صفرًا لمعظم أيام السنة، ولكن تكون كبيرة لفترة قصيرة.
  • بسبب تغيُّر المناخ، تتغيّر درجات الحرارة السنوية المتوسطة.

التباين مع الثبات.

تسوية

#fundamentals

بشكل عام، هي عملية تحويل النطاق الفعلي للمتغيّر من القيم إلى نطاق عادي من القيم، مثل:

  • من -1 إلى +1
  • 0 إلى 1
  • درجات Z (تقريبًا، من -3 إلى +3)

على سبيل المثال، لنفترض أن النطاق الفعلي للقيم لميزة معينة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل كـ -1 إلى 1+.

التسوية مهمة شائعة في هندسة الميزات. يتم عادةً تدريب النماذج بشكل أسرع (وإعداد تنبؤات أفضل) عند كل خاصية عددية في متّجه الميزة له النطاق نفسه تقريبًا.

راجِع مقالة العمل باستخدام البيانات الرقمية الوحدة من الدورة المكثّفة عن تعلّم الآلة للحصول على المزيد من التفاصيل. راجِع أيضًا تسوية الدرجة المعيارية.

اكتشاف الحداثة

عملية تحديد ما إذا كان مثال جديد (جديد) ينتمي إلى التوزيع نفسه الذي تنتمي إليه مجموعة التدريب بعبارة أخرى، بعد التدريب على مجموعة التدريب، فإن طريقة الكشف الجديدة تحدد ما إذا كان تمرين جديد مثال (أثناء الاستنتاج أو أثناء التدريب الإضافي) قيمة استثنائية.

التباين مع رصد القيم الخارجية

البيانات الرقمية

#fundamentals

السمات التي يتم تمثيلها كأرقام صحيحة أو أرقام ذات قيمة حقيقية على سبيل المثال، من المرجّح أن يمثّل نموذج تقييم المنزل حجمه (بالقدم المربّع أو متر مربّع) كبيانات رقمية. يشير تمثيل العنصر كبيانات رقمية إلى أنّ قيم العنصر لها علاقة رياضية بالعلامة. أي أن عدد الأمتار المربعة في أي منزل ربما له بعض العلاقة الرياضية بقيمة المنزل.

يجب عدم تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة، ولكن يجب عدم تمثيل الرموز البريدية الصحيحة كبيانات رقمية في النماذج. ويعود السبب في ذلك إلى أنّ الرمز البريدي 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. بالإضافة إلى ذلك، على الرغم من أنّ الرموز البريدية المختلفة ترتبط بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20000 تساوي ضعف قيم العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات تصنيفية بدلاً من ذلك.

تُعرف السمات الرقمية أحيانًا باسم السمات المستمرة.

NumPy

تقوم مكتبة رياضية مفتوحة المصدر توفر عمليات صفائف فعالة في بايثون. تستند pandas إلى NumPy.

O

هدف

مقياس تحاول خوارزميتك تحسينه.

دالة الهدف

تمثّل هذه السمة الصيغة الرياضية أو المقياس الذي يهدف النموذج إلى تحسينه. على سبيل المثال، قد تكون الدالة الموضوعية وعادةً ما يكون الانحدار الخطي متوسط الخسارة التربيعية: لذلك، عند تدريب نموذج الانحدار الخطي، فإن التدريب يهدف إلى تقليل متوسط الخسارة التربيعية.

وفي بعض الحالات، يكون الهدف هو تحقيق أقصى استفادة من الوظيفة الموضوعية. على سبيل المثال، إذا كانت الدالة الهدف هي الدقة، فإن الهدف هو لزيادة الدقة إلى أقصى حد

اطّلِع أيضًا على الخسارة.

حالة مائلة

#df

في شجرة القرار، هو شرط يتضمّن أكثر من سمة واحدة. فعلى سبيل المثال، إذا كان الطول والعرض كلاهما السمتين، يكون ما يلي شرطًا مائلاً:

  height > width

تباين مع شرط محاذاة المحور.

بلا إنترنت

#fundamentals

مرادف لـ ثابت.

الاستنتاج بلا إنترنت

#fundamentals

عملية إنشاء النموذج لمجموعة من التوقّعات ثم تخزين (حفظ) هذه التوقّعات يمكن للتطبيقات بعد ذلك الوصول إلى من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في اعتبارك نموذجًا ينشئ توقّعات الطقس المحلي (التنبؤات) مرة كل أربع ساعات. وبعد تشغيل كل نموذج، يحدد النظام يخزن جميع توقعات الطقس المحلية مؤقتًا. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُسمّى الاستنتاج بلا إنترنت أيضًا الاستنتاج الثابت.

يختلف ذلك عن الاستنتاج على الإنترنت.

ترميز أحادي

#fundamentals

تمثيل البيانات الفئوية كخطّ متّجه فيه:

  • تمّ ضبط عنصر واحد على 1.
  • يتم ضبط جميع العناصر الأخرى على 0.

يُستخدَم ترميز One-hot بشكل شائع لتمثيل السلاسل أو المعرّفات التي تتضمّن مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أنّ ميزة فئوية معيّنة باسم Scandinavia لها خمس قيم محتملة:

  • "الدنمارك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي لكل قيمة من القيم الخمس على النحو التالي:

بلد المتجه
"الدنمارك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل ترميز One-hot، يمكن للنموذج تعلُّم عمليات الربط المختلفة استنادًا إلى كل بلد من البلدان الخمسة.

يُعدّ تمثيل سمة على أنّها بيانات رقمية بديلاً للترميز الواحد الفاعل. لا يُعدّ تمثيل البلدان Scandanavian رقميًا خيارًا جيدًا. على سبيل المثال: ضع في اعتبارك التمثيل الرقمي التالي:

  • "الدنمارك" هي 0
  • "السويد" تساوي 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • "آيسلندا" هو 4

باستخدام الترميز الرقمي، سيفسر النموذج الأرقام الأولية رياضيًا وسيحاول التدريب على هذه الأرقام. ومع ذلك، فإنّ آيسلندا ليست في الواقع ضعف (أو نصف) شيء مثل النرويج، لذا سيتوصّل النموذج إلى بعض الاستنتاجات الغريبة.

التعلُّم بلقطة واحدة

أحد مناهج التعلم الآلي، وغالبًا ما يُستخدم لتصنيف الكائنات، مصمَّمة لتعلم المصنِّفات الفعالة من خلال مثال تدريبي واحد.

اطّلِع أيضًا على التعلّم ببضع فُرَص و التعلّم بدون أيّ بيانات سابقة.

مطالبة بنقرة واحدة

#language
#generativeAI

طلب يتضمّن مثالاً واحدًا يوضّح كيفية ردّ النموذج اللغوي الكبير على سبيل المثال، يحتوي الطلب التالي على مثال واحد يوضّح للنموذج اللغوي الكبير كيفية الردّ على طلب بحث.

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "نموذج اللغة المحوسبة"
فرنسا: EUR مثال واحد.
الهند: طلب البحث الفعلي

قارِن بين طلبات الإجراء الواحد والمصطلحات التالية:

واحد مقابل الكل

#fundamentals

بناءً على مشكلة تصنيف في الفئات N، يتكون من N منفصل المصنِّفات الثنائية: مصنِّف ثنائي واحد لكل نتيجة محتملة. على سبيل المثال، في حال توفّر نموذج يصنف الأمثلة كحيوان أو نبات أو معدن، سيقدّم حلّ "واحد مقابل الكل" الثلاثة المصنّفات الثنائية المنفصلة التالية:

  • حيوان مقابل غير حيوان
  • الخضار مقابل غير الخضار
  • معدني مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف لـ ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، لنفترض أنّ أحد التطبيقات يُرسل إدخالًا إلى نموذج ويُصدر طلبًا للحصول على توقّع. لنفترض أن هناك نظامًا يستخدم الاستنتاج عبر الإنترنت يستجيب للطلب من خلال تنفيذ النموذج (وإرجاع التنبؤ إلى التطبيق).

يختلف ذلك عن الاستنتاج بلا إنترنت.

العملية (op)

#TensorFlow

في TensorFlow، أي إجراء ينشئ، يتلاعب بأداة Tensor أو يدمرها. بالنسبة على سبيل المثال، ضرب المصفوفة هو عملية يتم فيها استخدام اثنين من التحمل ثم يقوم بإدخال Tensor واحد كمخرج.

Optax

مكتبة تحسين ومعالجة التدرجات لتطبيق JAX تُسهل Optax البحث من خلال توفير الوحدات الأساسية التي يمكن بطرق مخصّصة لتحسين النماذج بارامترية مثل والشبكات العصبية العميقة. تشمل الأهداف الأخرى ما يلي:

  • وتوفير عمليات تنفيذ سهلة القراءة ومختبرة جيدًا وفعالة والمكونات الأساسية.
  • تحسين الإنتاجية من خلال إتاحة دمج المكوّنات من المستوى المنخفض في أدوات تحسين مخصّصة (أو مكوّنات أخرى لمعالجة التدرّج)
  • تسريع اعتماد الأفكار الجديدة من خلال تسهيل المساهمة فيها

محسِّن

تطبيق محدّد لخوارزمية التناقص التدرّجي تشمل أدوات التحسين الشائعة ما يلي:

  • AdaGrad، وهو اختصار للنزول ADAptive GRADient
  • Adam، التي تعني ADAptive مع الزخم

الانحياز للتشابه خارج المجموعة

#fairness

الميل إلى اعتبار أعضاء المجموعة الخارجية أكثر تشابهًا من أعضاء المجموعة الداخلية عند مقارنة المواقف والقيم وسمات الشخصية وغيرها من السمات في المجموعة: تشير إلى المستخدمين الذين تتفاعل معهم بانتظام. تشير out-group إلى المستخدمين الذين لا تتفاعل معهم بانتظام. إذا أنشأت مجموعة بيانات من خلال مطالبة المشاركين بتقديم سمات عن المجموعات الخارجية، قد تكون هذه السمات أقل دقة وأكثر نمطية مقارنةً بالصفات التي يسردها المشاركون للأشخاص في مجموعتهم.

على سبيل المثال، قد يصف سكان مدينة ليليبوتاس منازل أفراد عائلة معينة آخرين. بتفصيل كبير، مع الإشارة إلى الاختلافات الصغيرة في الأساليب المعمارية، والنوافذ، وأبوابها وأحجامها. ومع ذلك، قد يعلن نفس الأشخاص ليليوتي ببساطة أن يعيش جميع سكان "الأخوين" في منازل متطابقة.

الانحياز للتشابه خارج المجموعة هو شكل من أشكال الانحياز لتشابه المجموعة.

راجِع أيضًا الانحياز داخل المجموعة.

رصد القيم الشاذة

يشير هذا المصطلح إلى عملية تحديد القيم الشاذّة في مجموعة تدريب.

تباين مع ميزة اكتشاف الحداثة.

الذي حقق أداءً مختلفًا

القيم بعيدة عن معظم القيم الأخرى. في التعلم الآلي، أي من فيما يلي قيم استثنائية:

  • إدخال بيانات تكون قيمها أكبر من 3 انحرافات معيارية تقريبًا عن المتوسط
  • الأوزان ذات القيم المطلقة العالية.
  • القيم المتوقّعة بعيدة نسبيًا عن القيم الفعلية.

على سبيل المثال، لنفترض أنّ widget-price هي ميزة لطراز معيّن. لنفترض أنّ المتوسط widget-price هو 7 يورو بانحراف معياري. من أصل 1 يورو. وبالتالي، فإنّ الأمثلة التي تحتوي على widget-price‏ 12 يورو أو 2 يورو تُعدّ قيمًا شاذة لأنّ كلّ سعر من هذه الأسعار يزيد عن المتوسط بمقدار خمسة انحرافات معيارية.

غالبًا ما تحدث القيم الشاذة بسبب أخطاء إملائية أو أخطاء أخرى في الإدخال. في حالات أخرى، لا تكون القيم الشاذة أخطاءً، فبعد كل شيء، تكون القيم التي تبعد عن المتوسط بمقدار خمسة انحرافات معيارية نادرة، ولكنّها ليست مستحيلة.

غالبًا ما تتسبب القيم الشاذة في حدوث مشاكل في تدريب النماذج. الاقتصاص هي إحدى طرق إدارة القيم الاستثنائية.

تقييم خارج الحقيبة (تقييم OOB)

#df

آلية لتقييم جودة مجموعة اتخاذ القرارات من خلال اختبار كل شجرة القرار في ضوء أمثلة لم يتم استخدامها أثناء تدريب شجرة القرارات تلك. على سبيل المثال، في العنصر لاحظ أن النظام يقوم بتدريب كل شجرة قرارات على حوالي ثلثي الأمثلة ثم يتم تقييمها وفقًا الثلث المتبقي من الأمثلة.

غابة قرارات تتألف من ثلاث أشجار قرارات
          تتدرب شجرة قرارات واحدة على ثلثي الأمثلة
          ثم يستخدم الثلث المتبقي لتقييم OOB.
          يتم تدريب شجرة قرارات ثانية على ثلثي مثال مختلفين
          عن شجرة القرارات السابقة، ثم
          يتم استخدام ثلث مختلف لتقييم خارج النطاق مقارنةً بتقييم
          شجرة القرارات السابقة.

يُعد التقييم "خارج الحقيبة" فعالاً ومحافظًا من الناحية الحسابية تقريب آلية التحقّق المتقاطع. في التصديق المتقاطع، يتم تدريب نموذج واحد لكل جولة من جولات التصديق المتقاطع (على سبيل المثال، يتم تدريب 10 نماذج في عملية تصديق متقاطع مكوّنة من 10 مراحل). باستخدام تقييم OOB، يتم تدريب نموذج واحد. وذلك لأنّ الحقائب تقتطع بعض البيانات من كل شجرة أثناء التدريب، ويمكن لتقييم OOB استخدام هذه البيانات لتقريب التحقق المتبادل.

الطبقة النهائية

#fundamentals

"النهاية" طبقة الشبكة العصبونية. تحتوي طبقة الإخراج على التوقّع.

يعرض الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج:

شبكة عصبية تحتوي على طبقة إدخال واحدة وطبقتين مخفيتين وطبقة واحدة
          طبقة الإخراج. تتألّف طبقة الإدخال من سمتَين. الأول
          الطبقة المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية
          تتكون من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب لدرجة أن النموذج لا ينجح في وعمل تنبؤات صحيحة بشأن البيانات الجديدة.

يمكن أن يؤدي التسوية إلى التقليل من فرط التخصيص. يمكن أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوعة أيضًا إلى تقليل فرط التخصيص.

زيادة العينات

إعادة استخدام الأمثلة من صف دراسي في مجموعة بيانات غير متوازنة في الفئات من أجل إنشاء مجموعة تدريب متوازنة.

على سبيل المثال، يمكنك وضع تصنيف ثنائي أن تكون نسبة الفئة الأكبر وفئة الأقلية هي 5000:1. إذا كانت مجموعة البيانات تحتوي على مليون مثال، لن تحتوي سوى على 200 مثال تقريبًا من فئة الأقلية، ما قد يكون عددًا قليلاً جدًا لإجراء تدريب فعّال. للتغلب على هذا النقص، يمكنك قد تفرط في أخذ عينات (إعادة استخدام) هذه الأمثلة الـ 200 عدة مرات، مما قد ينتج الأمثلة الكافية للتدريب المفيد.

يجب توخّي الحذر بشأن الملاءمة الزائدة عند زيادة عدد العينات.

يُرجى الاطّلاع على تحليل عيّنات غير كافية.

P

البيانات المُجمَّعة

نهج لتخزين البيانات بكفاءة أكبر

تخزِّن البيانات المُجمَّعة البيانات إما باستخدام تنسيق مضغوط أو بطريقة أخرى تسمح بالوصول إليها بكفاءة أكبر. تقلل البيانات المجمّعة من مقدار الذاكرة والحساب المطلوب الوصول إليها، مما يؤدي إلى تدريب أسرع واستنتاج نموذج أكثر كفاءة.

غالبًا ما يتم استخدام البيانات المعبأة مع أساليب أخرى، مثل زيادة البيانات تنظيمها، ما يعزز أداء الطُرز:

باندا

#fundamentals

هي واجهة برمجة تطبيقات لتحليل البيانات مركِّزة على الأعمدة وتم إنشاؤها استنادًا إلى numpy. تتيح العديد من إطارات عمل تعلُّم الآلة، بما في ذلك TensorFlow، استخدام بنى بيانات pandas كمدخلات. يمكنك الاطّلاع على وثائق الباندا لمزيد من التفاصيل.

مَعلمة

#fundamentals

القيم المرجحة والانحيازات التي يتعلّمها النموذج أثناء تدريب: على سبيل المثال، في إحدى الانحدار الخطي، فإن المعلَمات تتكون من التحيز (b) وجميع القيم التقديرية (w1 وw2، وهكذا) في المعادلة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المَعلمات الفائقة هي القيم التي يقدّمها أنت (أو خدمة ضبط المَعلمات الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو مَعلمة متغيرة.

توليف موفر للمعلَمات

#language
#generativeAI

مجموعة من الأساليب لتحسين نموذج لغوي تمّ تدريبه مسبقًا (PLM) بفعالية أكبر من التحسين الكامل عادةً ما تعمل عملية التحسين المُفعّلة للمَعلمات على تحسين عدد أقل بكثير من المَعلمات مقارنةً بعملية التحسين الكامل، ومع ذلك، تؤدي هذه العملية بشكل عام إلى إنشاء نموذج لغوي كبير يحقّق أداءً مماثلاً (أو شبه مماثل) لأداء نموذج لغوي كبير تم إنشاؤه من خلال عملية التحسين الكامل.

قارِن بين الضبط الفعال للمَعلمات وبين:

يُعرف الضبط الفعال للمَعلمة أيضًا باسم الضبط الدقيق لكفاءة المَعلمة.

خادم المَعلمات (PS)

#TensorFlow

يشير هذا المصطلح إلى المهمة التي تتتبّع معلَمات أحد النماذج في. الموزعة.

تعديل المَعلمة

يشير هذا المصطلح إلى عملية ضبط معلَمات أحد النماذج أثناء. التدريب، عادةً في تكرار واحد خوارزمية انحدار التدرج.

مشتق جزئي

مشتق يُعتبر فيه جميع المتغيّرات ثابتة باستثناء متغيّر واحد. على سبيل المثال، مشتق f(x, y) الجزئي بالنسبة إلى x هو مشتق f الذي يُعتبر دالة x فقط (أي إبقاء y ثابتًا). تركّز المشتقة الجزئية f بالنسبة إلى x فقط على كيفية تغيُّر x وتتجاهل جميع المتغيّرات الأخرى في المعادلة.

تحيز المشاركة

#fairness

مرادف لتحيز عدم الاستجابة. راجِع انحياز الاختيار.

استراتيجية تقسيم

الخوارزمية التي يتم من خلالها تقسيم المتغيّرات على مستوى خوادم المَعلمات

Pax

إطار عمل برمجة مصمم لتدريب واسعة النطاق نماذج للشبكات العصبية كبيرة جدًا تشمل TPU متعددة شريحة مسرِّعة شرائح أو اللوحات.

تم إنشاء Pax استنادًا إلى Flax، الذي تم إنشاؤه استنادًا إلى JAX.

مخطّط بياني يشير إلى موضع Pax في حِزمة البرامج
          تم إنشاء Pax على JAX. تتكوّن Pax نفسها من ثلاث
          طبقات. تحتوي الطبقة السفلية على TensorStore وFlax.
          تحتوي الطبقة الوسطى على Optax وFlexformer. تحتوي الطبقة العلوية
          على مكتبة Praxis Modeling Library. تم إنشاء Fiddle
          استنادًا إلى Pax.

Perceptron

أي نظام (إما أجهزة أو برامج) يأخذ قيمة أو أكثر من قيم الإدخال، تقوم بتشغيل دالة على المجموع المرجح للمدخلات، ويحسب قيمة قيمة المخرجات. وفي التعلم الآلي، تكون الدالة عادةً غير خطية، مثل ReLU أو sigmoid أو تانه على سبيل المثال، يعتمد المعرِّف التالي على الدالة السينية لمعالجة ثلاث قيم إدخال:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

في الرسم التوضيحي التالي، يتلقّى المُدرِّك ثلاث مدخلات، يتم تعديل كلّ منها باستخدام مَعلمة قبل إدخالها في المُدرِّك:

يشير ذلك المصطلح إلى مُشاهِد يتألّف من 3 إدخالات، مضروبًا في كل قيمة منها.
          الأوزان. يُنتج المستقبِل قيمة واحدة.

المستشعرات هي الخلايا العصبية في الشبكات العصبونية.

الأداء

المصطلحات التي تحمل المعاني التالية:

  • المعنى القياسي في هندسة البرمجيات. Namely: ما مدى سرعة (أو بكفاءة) هل يعمل هذا الجزء من البرنامج؟
  • المعنى في مجال تعلُّم الآلة هنا، يجيب الأداء على السؤال التالي: ما مدى صحة هذا النموذج؟ أي، ما مدى جودة تنبؤات النموذج؟

أهمية متغيّرات التبديل

#df

نوع من أهمية المتغيّر الذي يُقيّم الزيادة في خطأ التوقّع لنموذج بعد تبديل قيم السمة تعتبر أهمية متغير التبديل عنصرًا مستقلاً عن النموذج المقياس.

الارتباك

أحد المقاييس لمدى نجاح نموذج في إنجاز مهمته. على سبيل المثال، افترض أن مهمتك هي قراءة الأحرف القليلة الأولى من كلمة الذي يكتبه المستخدم على لوحة مفاتيح الهاتف، ولتقديم قائمة إلى كلمات الإكمال. والإرباك، P، بالنسبة لهذه المهمة هو تقريبًا عدد التي تحتاج إلى تقديمها حتى تحتوي قائمتك على كلمة يحاول المستخدم كتابتها.

يرتبط الالتباس بالإنتروبيا المتداخلة على النحو التالي:

$$P= 2^{-\text{cross entropy}}$$

مسار الإحالة الناجحة

يشير ذلك المصطلح إلى البنية الأساسية التي تحيط بخوارزمية تعلُّم الآلة. تشمل عملية المعالجة المخطّط لها جمع البيانات ووضعها في ملفات بيانات التدريب، وتدريب نموذج واحد أو أكثر، وتصدير النماذج إلى مرحلة الإنتاج.

معالجة البيانات في مجموعات

#language

شكل من أشكال التوازي في النماذج يتم فيه تقسيم معالجة النموذج إلى مراحل متتالية ويتم تنفيذ كل مرحلة على جهاز مختلف. بينما تعالج مرحلة واحدة دفعة واحدة، يمكن للمرحلة السابقة العمل على الدفعة التالية.

اطّلِع أيضًا على التدريب على مراحل.

Pjit

دالة JAX التي تقسم الرمز البرمجي لتشغيله على عدة شرائح مسرع يُرسِل المستخدم دالة إلى pjit، ويعرض دالة ذات دلالة مماثلة ولكن تم تجميعها في عملية حسابية XLA يتم تنفيذها على أجهزة متعددة (مثل وحدات معالجة الرسومات أو نوى TPU).

يتيح pjit للمستخدمين تقسيم العمليات الحسابية بدون إعادة كتابتها باستخدام أداة تقسيم SPMD.

اعتبارًا من آذار (مارس) 2023، تم دمج "pjit" مع "jit". ارجع إلى الصفائف الموزعة والصفائف التلقائية تطبيق موازٍ لمزيد من التفاصيل.

حملة PLM

#language
#generativeAI

تمثّل هذه السمة اختصار نموذج لغوي مدرَّب مسبقًا.

تحسين الأداء من Google

دالة JAX تنفّذ نُسخًا من دالة إدخال على أجهزة أجهزة متعددة أساسية (وحدات المعالجة المركزية أو وحدات معالجة الرسومات أو وحدات معالجة النطاق التقدّمي (TPU))، مع قيم إدخال مختلفة. تعتمد دالة pmap على SPMD.

سياسة

#rl

في التعلّم المعزّز، تحدد عملية الربط الاحتمالية التي يجريها الوكيل من الحالات إلى الإجراءات.

تجميع

#image

يؤدي خفض مصفوفة (أو مصفوفات) تم إنشاؤها بواسطة دالة سابقة طبقة التفاف إلى مصفوفة أصغر. عادة ما يتضمن التجميع إما القيمة القصوى أو المتوسطة عبر المنطقة المجمّعة. على سبيل المثال، لنفترض أنّ لدينا المصفوفة 3×3 التالية:

المصفوفة 3×3‏ [[5,3,1], [8,2,5], [9,4,3]].

تمامًا مثل عملية الالتفاف، تقسم عملية التجميع تلك المصفّفة إلى شرائح ثم تُحرِّك عملية الالتفاف هذه باستخدام الخطوات. على سبيل المثال، لنفترض أنّ عملية التجميع تقسّم المصفوفة التجميعية إلى شرائح 2×2 بخطوة 1×1. كما يوضح الرسم التخطيطي التالي، تتم أربع عمليات تجميع. تخيل أن كل عملية تجميع تختار القيمة القصوى أربعة في تلك الشريحة:

مصفوفة الإدخال هي 3×3 والقيم التالية: [[5,3,1]، [8,2,5]، [9,4,3]].
          المصفوفة الفرعية 2x2 العلوية اليسرى لمصفوفة الإدخال هي [[5,3]، [8,2]]، لذا
          ينتج عن عملية التجميع في أعلى اليسار القيمة 8 (وهي
          5 و3 و8 و2 كحد أقصى). المصفوفة الفرعية 2×2 في أعلى يسار مصفوفة
          الإدخال هي [[3,1]، [2,5]]، لذا تؤدي عملية التجميع في أعلى يسار المصفوفة
          إلى القيمة 5. المصفوفة الفرعية 2×2 أسفل اليسار لمصفوفة الإدخال
          [[8,2], [9,4]]، وبالتالي فإن عملية التجميع في أسفل اليسار ترجع القيمة
          9- تعتبر المصفوفة الفرعية 2×2 في أسفل اليمين لمصفوفة الإدخال
          [[2,5], [4,3]]، وبالتالي فإن عملية التجميع في أسفل اليمين ترجع القيمة
          5- باختصار، تؤدي عملية التجميع إلى إنشاء المصفوفة 2×2 التالية:
          [[8,5], [9,5]].

يساعد التجميع في فرض الثبات التحويلي في مصفوفة الإدخال.

يُعرف تجميع البيانات لتطبيقات الرؤية رسميًا باسم التجميع المكاني. تشير تطبيقات السلسلة الزمنية عادةً إلى التجميع على أنّه تجميع مؤقت. على نحو أقل رسمية، غالبًا ما يُطلق على التجميع اسم العيّنات الفرعية أو تقليل العيّنات.

ترميز موضعي

#language

أسلوب لإضافة معلومات عن موضع الرمز المميّز في تسلسل إلى إدراج الرمز المميّز تستخدِم نماذج Transformer الترميز المتعلّق بالموضع لفهم العلاقة بين الأجزاء المختلفة من التسلسل بشكلٍ أفضل.

يستخدم التنفيذ الشائع للترميز الموضعي الدالة الجيبية. (على وجه التحديد، يتم تحديد معدّل تكرار الدالة الجيبية وamplitudها حسب موضع الرمز المميّز في التسلسل). تتيح هذه التقنية لنموذج Transformer تعلُّم التركيز على أجزاء مختلفة من التسلسل استنادًا إلى مواضعها.

فئة موجبة

#fundamentals

الفئة التي تختبرها

على سبيل المثال، الفئة الموجبة في نموذج السرطان قد تكون "ورم". قد تكون الفئة الموجبة في أحد أدوات تصنيف الرسائل الإلكترونية هي "غير مرغوب فيها".

التباين مع الفئة السالبة.

مرحلة لاحقة من المعالجة

#fairness
#fundamentals

تعديل ناتج نموذج بعد تشغيله يمكن استخدام المعالجة اللاحقة لفرض قيود الإنصاف دون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على مصنّف ثنائي من خلال ضبط حدّ تصنيف بحيث يتم الحفاظ على تكافؤ الفرص لبعض السمات من خلال التحقّق من أنّ معدّل الموجب الحقيقي هو نفسه لجميع قيم تلك السمة.

PR AUC (المنطقة الواقعة أسفل منحنى PR)

المنطقة التابعة منحنى تذكُّر الدقة، الذي يتم الحصول عليه من خلال تخطيط (التذكر والدقة) للقيم المختلفة الحد الأدنى للتصنيف: استنادًا إلى كيفية حساب القيمة، قد يكون مقياس AUC للاقتراحات ذات الصلة بالإعلانات مماثلاً لقيمة متوسط الدقة للنموذج.

Praxis

مكتبة تعلُّم الآلة الأساسية وعالية الأداء من Pax يُشار إلى Praxis غالبًا باسم "مكتبة الطبقات".

لا يحتوي Prixis على تعريفات فئة الطبقة فحسب، بل يحتوي أيضًا على معظم مكوناتها الداعمة أيضًا، بما في ذلك:

يوفّر Praxis تعريفات لفئة Model.

الدقة

مقياس لنماذج التصنيف التي تجيب عن السؤال التالي:

عندما توقّع النموذج الفئة الموجبة، ما هي النسبة المئوية للتنبؤات الصحيحة؟

فيما يلي المعادلة:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

حيث:

  • النتيجة الموجبة الصحيحة تعني أنّ النموذج تنبأ بشكل صحيح بالفئة الموجبة.
  • تعني الحالة الموجبة الخاطئة أن النموذج قد تنبأ بالفئة الموجبة عن طريق الخطأ.

على سبيل المثال، لنفترض أن أحد النماذج قام بعمل 200 تنبؤ إيجابي. من بين هذه التوقّعات الإيجابية الـ 200:

  • وبلغ عدد الحالات الموجبة الصحيحة 150 حالة.
  • 50 كانت نتائج موجبة خاطئة.

في هذه الحالة:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

يختلف هذا المقياس عن الدقة واكتمال التوقعات الإيجابية.

راجِع القسم التصنيف: الدقة والتذكُّر والدقة وغيرها من المعلومات ذات الصلة المقاييس لمزيد من المعلومات.

منحنى الدقة والاستذكار

منحنى الدقة مقابل التذكر بمقياس مختلف الحد الأدنى للتصنيف:

التوقّع

#fundamentals

ناتج النموذج على سبيل المثال:

  • التنبؤ بنموذج التصنيف الثنائي هو إما فئة التقييم الموجب أو فئة التقييم السلبي.
  • التنبؤ بنموذج التصنيف متعدد الفئات هو فئة واحدة.
  • التنبؤ الذي يقدّمه نموذج الانحدار الخطي هو رقم.

الانحياز للتوقّع

قيمة تشير إلى مدى بُعد متوسّط التوقّعات عن متوسّط التصنيفات في مجموعة البيانات.

لا يجب الخلط بين هذا المصطلح ومصطلح التحيز في نماذج تعلُّم الآلة أو التحيز في الأخلاق والعدالة.

تعلُّم الآلة التنبؤي

أي نظام تعلّم آلي عادي ("كلاسيكي")

ما مِن تعريف رسمي للمصطلح تعلُّم الآلة القائم على التوقّعات. بدلاً من ذلك، يميز المصطلح فئة من أنظمة تعلُّم الآلة لا تستند إلى الذكاء الاصطناعي التوليدي:

التكافؤ التنبؤي

#fairness

مقياس إنصاف يتحقّق مما إذا كان في أي مصنِّف معيّن، تساوي معدّلات الدقة تعادل المجموعات الفرعية قيد النظر.

على سبيل المثال، سيستوفي النموذج الذي يتوقّع قبول الطلاب في الجامعات المساواة التوقّعية للجنسية إذا كان معدّل الدقّة متطابقًا لكل من سكان جزيرة ليليبوت وسكان جزيرة كبريت.

يُعرف التكافؤ التنبؤي في بعض الأحيان أيضًا باسم تعادل المعدل التنبؤي.

الاطّلاع على "تعريفات الإنصاف" الموضحة" (القسم 3.2.1) لإجراء مناقشة أكثر تفصيلاً حول التكافؤ التنبؤي.

التكافؤ في الأسعار القائمة على التوقّعات

#fairness

اسم آخر للتماثل القائم على التوقّعات.

المعالجة المسبقة

#fairness
معالجة البيانات قبل استخدامها لتدريب نموذج يمكن أن تؤدي المعالجة المسبقة أن تكون بسيطة مثل إزالة الكلمات من النصوص المكتوبة باللغة الإنجليزية والتي لا تحدث في القاموس الإنجليزي، أو قد تكون معقدة مثل إعادة التعبير نقاط البيانات بطريقة تزيل أكبر عدد ممكن من السمات المرتبطة باستخدام السمات الحسّاسة قدر الإمكان يمكن أن تساعد المعالجة المُسبقة في تلبية قيود الإنصاف.

نموذج مدرَّب مسبقًا

#language
#image
#generativeAI

النماذج أو مكوّنات النماذج (مثل متّجه التضمين) التي سبق أن تم تدريبها في بعض الأحيان، ستُغذّي مصفوفات التضمين المدربة مسبقًا في شبكة عصبية. وفي أحيان أخرى، سيُدرِّب النموذج مصفوفات التضمين نفسها بدلاً من الاعتماد على مصفوفات التضمين المدربة مسبقًا.

يشير مصطلح نموذج لغوي مدرَّب مسبقًا إلى نموذج لغوي كبير تم تدريبه مسبقًا.

التدريب المُسبَق

#language
#image
#generativeAI

يشير ذلك المصطلح إلى التطبيق الأولي لنموذج على مجموعة بيانات كبيرة. إنّ بعض النماذج المدربة مسبقًا هي نماذج عملاقة وبطيئة، ويجب عادةً تحسينها من خلال تدريب إضافي. على سبيل المثال، قد يقوم خبراء تعلُّم الآلة مسبقًا بتدريب نموذج لغوي كبير في مجموعة بيانات نصية ضخمة، مثل جميع الصفحات الإنجليزية في ويكيبيديا. بعد التدريب المُسبَق، يمكن تحسين النموذج الناتج بشكلٍ أكبر باستخدام أيّ من التقنيات التالية:

الاعتقاد السابق

ما الذي تؤمن به حول البيانات قبل أن تبدأ في التدريب عليها. على سبيل المثال، تعتمد تسوية المستوى2 على اعتقاد سابق بأنّ القيم المرجحة يجب أن تكون صغيرة وعادية توزيعها حول الصفر.

نموذج الانحدار الاحتمالي

يشير نموذج الانحدار الذي لا يستخدم القيم المرجحة لكل ميزة، ولكن أيضًا عدم اليقين من تلك الأوزان. يُنشئ نموذج الانحدار الاحتمالي توقّعًا وعدم يقينًا لذلك التوقّع. على سبيل المثال، قد يقدّم نموذج الانحدار الاحتمالي توقّعًا بقيمة 325 مع قياس انحراف معيّن يبلغ 12. لمزيد من المعلومات حول الانحدار الاحتمالي النماذج، راجع Colab هذا على tensorflow.org.

دالة الكثافة الاحتمالية

دالة لتحديد معدّل تكرار عيّنات البيانات التي تحتوي بالضبط على قيمة معيّنة عندما تكون قيم مجموعة بيانات نقطة عائمة مستمرة الأرقام، نادرًا ما تحدث المطابقات التامة. ومع ذلك، فإنّ دمج دالة كثافة احتمالية من القيمة x إلى القيمة y ينتج عنه معدّل التكرار المتوقّع لعيّنات البيانات بين x وy.

على سبيل المثال، لنفترض أن التوزيع الطبيعي له متوسط 200 الانحراف المعياري 30. لتحديد التكرار المتوقع لعينات البيانات ضمن النطاق 211.4 إلى 218.7، يمكنك دمج الاحتمالات دالة الكثافة للتوزيع الطبيعي من 211.4 إلى 218.7.

إشعار

#language
#generativeAI

أي نص يتم إدخاله كإدخال إلى نموذج لغوي كبير لإعداد النموذج للعمل بطريقة معيّنة. يمكن أن تكون المطالبات قصيرة مثل عبارة أو طويلة بشكل عشوائي (على سبيل المثال، نص رواية كامل). تندرج الطلبات ضمن فئات متعدّدة، بما في ذلك تلك الواردة في الجدول التالي:

فئة الطلب مثال ملاحظات
السؤال ما هي سرعة طيران الحمام؟
مدرسة تعليم كتابة قصيدة مضحكة عن المواقع المنشأة بهدف عرض الإعلانات رسالة تطلب من النموذج اللغوي الكبير تنفيذ إجراء.
مثال يجب ترجمة رمز Markdown إلى HTML. مثل:
Markdown: * عنصر قائمة
HTML: <ul> <li>عنصر القائمة</li> &lt;/ul&gt;
الجملة الأولى في هذا المثال هي عبارة عن إرشاد. الباقي من الطلب هو المثال.
الدور شرح سبب استخدام خوارزمية انحدار التدرج في تدريب تعلُّم الآلة درجة الدكتوراه في الفيزياء الجزء الأول من الجملة هو تعليمات؛ الْعِبَارَة "إلى درجة الدكتوراه في الفيزياء" هو جزء الدور.
إدخال جزئي لإكمال النموذج يقيم رئيس وزراء المملكة المتحدة في قد ينتهي طلب الإدخال الجزئي بشكل مفاجئ (كما يحدث في هذا المثال). أو تنتهي بشرطة سفلية.

يمكن لنموذج الذكاء الاصطناعي التوليدي الاستجابة لطلب باستخدام نص أو رمز برمجي أو صور أو إدراج أو فيديوهات أو أي شيء آخر تقريبًا.

التعلّم المستنِد إلى الطلبات

#language
#generativeAI

إمكانية استخدام نماذج معيّنة تساعدها على التكيف سلوكه استجابةً للإدخال العشوائي للنص (الطلبات). في نموذج التعلم القائم على المطالبة النموذجي، يردّ نموذج لغوي كبير على طلب من خلال إنشاء النص. على سبيل المثال، لنفترض أنّ أحد المستخدمين يُدخل الطلب التالي:

لخِّص قانون "نيوتن" الثالث للحركة.

إنّ النموذج القادر على التعلُّم المستند إلى الطلب غير مدرب بشكل خاص على الإجابة المطالبة السابقة. بدلاً من ذلك، "يعرف" النموذج الكثير من الحقائق عن الفيزياء، والكثير عن قواعد اللغة العامة، والكثير عن ما يشكّل بشكل عام إجابات مفيدة. هذه المعرفة كافية لتقديم دراسة مفيدة (نأمل) معينة. من خلال الملاحظات الإضافية التي يقدّمها المستخدمون ("كانت هذه الإجابة معقّدة جدًا" أو "ما هو ردّ الفعل؟")، يمكن لبعض أنظمة التعلّم المستندة إلى طلبات البحث تحسين فائدة إجاباتها تدريجيًا.

تصميم الطلب

#language
#generativeAI

هو مرادف لـ هندسة الطلبات.

هندسة الطلبات

#language
#generativeAI

فن إنشاء طلبات تؤدي إلى الحصول على الردود المطلوبة من نموذج لغوي كبير يعالج فريق من المراجعين الطلب. الهندسة. تعد كتابة مطالبات جيدة التنظيم جزءًا أساسيًا من ضمان ردودًا مفيدة من نموذج لغوي كبير. تعتمد هندسة الطلبات على على عوامل عديدة، منها:

  • إنّ مجموعة البيانات المستخدَمة لإجراء تدريب مسبق وربما fine-tune النموذج اللغوي الكبير
  • مَعلمة temperature ومَعلمات فك الترميز الأخرى التي التي يستخدمها النموذج لإنشاء الاستجابات.

عرض مقدمة حول تصميم الطلبات للحصول على المزيد من التفاصيل حول كتابة الطلبات المفيدة

تصميم الطلبات هو مصطلح مرادف لهندسة الطلبات.

توليف الطلبات

#language
#generativeAI

آلية ضبط فعّال للمَعلمات تتعرّف على "بادئة" يضيفها النظام إلى الطلب الفعلي.

أحد أشكال ضبط الطلبات، والذي يُسمى أحيانًا ضبط البادئة، هو إضافتها في كل طبقة. في المقابل، يضبط معظم توليف الطلبات يضيف بادئة إلى طبقة الإدخال.

تصنيفات الخادم الوكيل

#fundamentals

البيانات المستخدَمة لتقريب التصنيفات غير متوفّرة مباشرةً في مجموعة بيانات.

على سبيل المثال، لنفترض أنّه عليك تدريب نموذج للتنبؤ بمستوى الإجهاد لدى الموظفين. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية ولكنها لا يحتوي على تصنيف باسم مستوى الإجهاد. لا داعي للقلق، يمكنك اختيار "الحوادث في مكان العمل" كسمة تمثيلية لقياس مستوى الإجهاد. بعد كل شيء، يتعرّض الموظفون الذين يعانون من ضغوط شديدة لمزيد من الحوادث مقارنةً بالموظفين الهادئين. أم هذا صحيح؟ قد تزيد حوادث مكان العمل ويقلّ عددها لأسباب متعدّدة.

في المثال الثاني، لنفترض أنّك تريد أن يكون هل تهطل الأمطار؟ تصنيفًا منطقيًا لمجموعة بياناتك، ولكنّ مجموعة البيانات لا تحتوي على بيانات عن هطول الأمطار. إذا كانت هناك صور متاحة، يمكنك استخدام صور أشخاص يحملون مظلات كتصنيف بديل لعبارة هل تهطل الأمطار؟ هل هذا تسمية وكيل جيدة؟ ربما، ولكن الأشخاص في بعض الثقافات أكثر عرضة لحمل مظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. اختَر التصنيفات الفعلية بدلاً من التصنيفات الوكيلة كلما أمكن. ومع ذلك، عند عدم وجود تصنيف فعلي، اختر الوكيل بعناية شديد، حيث يتم اختيار المرشح الأقل سوءًا لتصنيف الخادم الوكيل.

وكيل (السمات الحسّاسة)

#fairness
سمة تُستخدَم كبديل لسمة حساسة على سبيل المثال، قد يتم استخدام الرمز البريدي الخاص بفرد ما كعنصر بديل لدخله أو عرقه أو عرقه.

دالة خالصة

دالة تستند مخرجاتها إلى مدخلاتها فقط، وليس لها جانب التأثيرات. على وجه التحديد، لا تستخدم الدالة الخالصة أي حالة عامة أو تغيّرها، مثل محتوى ملف أو قيمة متغيّر خارج الدالة.

يمكن استخدام الدوالّ الخالصة لإنشاء رمز آمن من حيث مؤشرات الترابط، وهو أمر مفيد عند تقسيم رمز النموذج على عدة شرائح مسرع.

تتطلّب طرق تحويل الدوال في JAX أن تكون دوال الإدخال دوالًا أساسية.

سين

دالة Q

#rl

في التعلم المعزز، يُطلق على الدالة التي يتنبأ بالعائد المتوقع من إجراء في الولاية، ثم اتّباع سياسة محدّدة.

تُعرف دالة Q أيضًا باسم دالة قيمة الحالة-الإجراء.

تعلُّم أسئلة

#rl

في التعلُّم التعزيزي، هي خوارزمية تسمح للوكيل بتعلم دالة Q المثلى ل عملية اتخاذ القرار في نموذج ماركوف من خلال تطبيق معادلة بلمان. نماذج عملية قرارات ماركوف البيئة.

التجزيء

كل مجموعة في تجميع الشرائح حسب المئة

تجميع التجزئية

توزيع قيم السمة على مجموعات بحيث يحتوي كل مجموعة على العدد نفسه (أو العدد نفسه تقريبًا) من الأمثلة على سبيل المثال: يقسم الشكل التالي 44 نقطة إلى 4 مجموعات، يحتوي على 11 نقطة. لكي تحتوي كل مجموعة في الشكل على نفس عدد النقاط، وتمتد بعض المجموعات بعرض مختلف للقيم س.

44 نقطة بيانات مقسمة إلى 4 مجموعات كل منها 11 نقطة.
          وعلى الرغم من أن كل مجموعة تحتوي على نفس عدد نقاط البيانات،
          تحتوي بعض المجموعات على نطاق أوسع من قيم الخصائص أكثر من غيرها
          دلاء.

التقطيع

عبارة التحميل الزائد التي يمكن استخدامها بأي من الطرق التالية:

  • تنفيذ تجميع البيانات المجمَّعة على ميزة معينة.
  • يمكن أن يؤدي تحويل البيانات إلى أصفار وآحاد لتخزينها والتدريب عليها والاستنتاج. بما أنّ البيانات المنطقية أكثر مقاومة للضوضاء والأخطاء مقارنةً بالتنسيقات الأخرى، يمكن أن تؤدي التجزئة إلى تحسين صحة النموذج. تشمل تقنيات التقريب التقريب والاقتطاع التجميع.
  • خفض عدد وحدات البت المستخدمة لتخزين المَعلمات: على سبيل المثال، لنفترض أنّه يتم تخزين مَعلمات النموذج كأرقام نقط عائمة 32 بت. تحوِّل عملية التقريب تلك المَعلمات من 32 بت إلى 4 أو 8 أو 16 بت. تقلِّل عملية الترميز من المعلومات التالية:

    • استخدام وحدات الحوسبة والذاكرة والقرص والشبكة
    • وقت استنتاج توقّع
    • استهلاك الطاقة

    ومع ذلك، يقلل التحديد الكمي أحيانًا من صحة نموذج والتنبؤات.

قائمة المحتوى التالي

#TensorFlow

عملية في TensorFlow تنفِّذ بنية بيانات ملف الانتظار يُستخدَم عادةً في I/O.

R

RAG

#fundamentals

اختصار لـ الجيل المستند إلى استرجاعه:

الغابة العشوائية

#df

مجموعة موحدة من أشجار القرارات يتم فيها تدريب كل شجرة قرارات باستخدام تشويش عشوائي محدّد، مثل التجميع

الغابات العشوائية هي نوع من غابات القرارات.

سياسة عشوائية

#rl

في التعلم التعزيزي، هو سياسة تختار إجراءً عشوائيًا.

الترتيب

نوع من التعلم المُوجّه الذي يهدف إلى ترتيب قائمة بالعناصر.

الترتيب (الترتيب الترتيبي)

الموضع الترتيبي لفئة في مشكلة تعلُّم آلي يصنف الفئات من الأعلى إلى الأدنى. فعلى سبيل المثال، يساعد ترتيب السلوك يصنف مكافآت الكلب من الأعلى (شريحة لحم) إلى الأدنى (كرنب ذبل).

rank (Tensor)

#TensorFlow

عدد الأبعاد في Tensor. على سبيل المثال: رتبة عددية 0، ومتجه رتبة 1، ومصفوفة لها رتبة 2.

يجب عدم الخلط بين هذا المقياس والترتيب (الترتيب الترتيبي).

مُصنِّف

#fundamentals

هو شخص يقدّم تصنيفات للأمثلة. "المُعلِق" هو اسم آخر للمقيّم.

تذكُّر الإعلان

مقياس لنماذج التصنيف التي تجيب عن السؤال التالي:

عندما كانت الحقيقة الأساسية هي الفئة الموجبة، ما هي النسبة المئوية للتنبؤات التي حدّدها النموذج بشكل صحيح على أنّها الفئة الموجبة؟

في ما يلي الصيغة:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

حيث:

  • النتيجة الموجبة الصحيحة تعني أنّ النموذج تنبأ بشكل صحيح بالفئة الموجبة.
  • يعني التقييم الخاطئ سلبيًا أنّ النموذج أخطأ في التنبؤ بالنتيجة الفئة السلبية.

على سبيل المثال، لنفترض أنّ نموذجك قدّم 200 توقّع بشأن أمثلة كانت الحقيقة الأساسية فيها هي الفئة الإيجابية. من بين 200 توقع:

  • وبلغ عدد الحالات الموجبة الصحيحة 180 حالة.
  • وكانت هناك 20 حالة سلبية خاطئة.

في هذه الحالة:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

راجِع القسم التصنيف: الدقة والتذكُّر والدقة وغيرها من المعلومات ذات الصلة المقاييس لمزيد من المعلومات.

نظام الاقتراحات

#recsystems

نظام يختار لكل مستخدم مجموعة صغيرة نسبيًا من العناصر المرغوب فيها من مجموعة كبيرة من النصوص على سبيل المثال، قد يقترح نظام اقتراح الفيديوهات فيديوهَين من مجموعة تضم 100,000 فيديو، واختيار الدار البيضاء قصة فيلادلفيا لمستخدم واحد، والمرأة الخارقة Black Panther لشخص آخر. قد يكون نظام اقتراح الفيديو تعتمد توصياتها على عوامل مثل:

  • الأفلام التي قيّمها أو شاهدها مستخدمون مشابهون
  • النوع والمخرجون والممثلون والفئة الديمغرافية المستهدَفة...

وحدة خطية مصحَّحة (ReLU)

#fundamentals

دالة تفعيل لها السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان الإدخال موجبًا، فإن المخرجات يساوي المُدخل.

على سبيل المثال:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المدخل هو +3، يكون الناتج 3.0.

في ما يلي رسم بياني لـ ReLU:

مخطط الديكارتي مكون من سطرين. يحتوي الصف الأول على قيمة CONSTANT
          y‏ = 0، والتي تمتد على طول محور x من -∞,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. انحدار هذا الخط بمقدار +1، وبالتالي
          فهي تتراوح من 0,0 إلى +اللانهائية،+اللانهائية.

ReLU هي دالة تفعيل شائعة جدًا. على الرغم من سلوكه البسيط، يظلّ نموذج ReLU يتيح للشبكة العصبية تعلُّم العلاقات غير الخطية بين السمات والتصنيف.

شبكة عصبية متكررة

#seq

شبكة عصبية يتم تشغيلها عمدًا عدة مرات، حيث يتمّ نقل أجزاء من كلّ عملية تشغيل إلى عملية التشغيل التالية. على وجه التحديد، توفّر الالتفافات المخفية من الخطوة السابقة جزءًا من الإدخال إلى الالتفاف المخفي نفسه في الخطوة التالية. الشبكات العصبية المتكررة مفيدة بشكل خاص لتقييم التسلسلات، بحيث تكون الطبقات المخفية يمكننا التعلم من العمليات السابقة للشبكة العصبية في الأجزاء السابقة من التسلسل.

فعلى سبيل المثال، يوضح الشكل التالي شبكة عصبية متكررة أربع مرات. لاحظ أن القيم التي تم تعلمها في الطبقات المخفية من يصبح أول تشغيل جزء من الإدخال إلى نفس الطبقات المخفية في المرحلة الثانية. وبالمثل، تصبح القيم التي تم تعلّمها في الطبقة المخفية في المحاولة الثانية جزءًا من الإدخال إلى الطبقة المخفية نفسها في المحاولة الثالثة. بهذه الطريقة، تتدرب الشبكة العصبية المتكررة تدريجيًا يتنبأ بمعنى التسلسل بأكمله بدلاً من المعنى فقط من الكلمات الفردية

شبكة عصبية رجعية يتم تشغيلها أربع مرات لمعالجة أربع كلمات إدخال

نموذج الانحدار

#fundamentals

بشكل غير رسمي، نموذج ينشئ توقّعات رقمية (في المقابل، ينشئ نموذج تصنيف فئة prediction.) على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • نموذج يتنبأ بقيمة منزل معيّن، مثل 423,000 يورو
  • يشير ذلك المصطلح إلى نموذج يتنبأ بمتوسط العمر المتوقّع لشجرة معيّنة، مثل 23.2 عامًا.
  • نموذج يتنبأ بكمية الأمطار التي ستتساقط في مدينة معينة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار هما:

  • الانحدار الخطي، الذي يعثر على الخط الذي يلائم قيم التصنيفات إلى العناصر على أفضل نحو.
  • الانحدار اللوجستي، الذي ينشئ احتمالية تتراوح بين 0.0 و1.0، والتي يربطها النظام عادةً بتنبؤ الفئة.

ليس كل نموذج يعرض توقّعات رقمية هو نموذج انحدار. في بعض الحالات، التنبؤ الرقمي هو في الحقيقة مجرد نموذج تصنيف هو أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبّأ برمز بريدي رقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلل من الإفراط في التوافق. تشمل الأنواع الشائعة من التسوية ما يلي:

يمكن أيضًا تعريف التسوية على أنها عقوبة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدد الأهمية النسبية الانتظام خلال التدريب. إنّ رفع يحدّ معدّل التسوية من الفرط في التخصيص ولكنه قد لتقليل القوة التنبؤية للنموذج. وعلى العكس من ذلك، فإن تقليل أو حذف يزيد معدل التسوية من فرط التخصيص.

التعلّم المعزز (RL)

#rl

مجموعة من الخوارزميات التي تتعلم سياسة مثالية، وتهدف إلى هو زيادة العائد إلى أقصى حد عند التفاعل مع بيئة على سبيل المثال، المكافأة النهائية لمعظم الألعاب هي الفوز. يمكن أن تصبح أنظمة التعلّم التعزيزي خبيرة في لعب الألعاب المعقدة من خلال تقييم تسلسلات الحركات السابقة في اللعبة التي أدّت في نهاية المطاف إلى تحقيق انتصارات والتسلسلات التي أدّت في نهاية المطاف إلى الخسارة.

التعلّم المعزّز من الملاحظات البشرية (RLHF)

#generativeAI
#rl

استخدام ملاحظات من المقيّمين لتحسين جودة ردود النموذج على سبيل المثال، يمكن أن تطلب آلية RLHF من المستخدمين تقييم جودة استجابة النموذج باستخدام رمز إيموجي 👍 أو 👎. ويمكن للنظام بعد ذلك تعديل ردوده المستقبلية استنادًا إلى هذه الملاحظات.

ReLU

#fundamentals

اختصار وحدة خطية مصحَّحة.

إعادة تشغيل المخزن المؤقت

#rl

في الخوارزميات المشابهة لخوارزمية DQN، الذاكرة التي يستخدمها الوكيل لتخزين عمليات انتقال الحالة لاستخدامها في إعادة تشغيل التجربة.

نسخة مطابقة

نسخة من مجموعة التدريب أو النموذج، عادةً على جهاز آخر على سبيل المثال، يمكن أن يستخدم النظام استراتيجية التالية لتنفيذ المعالجة المتوازيّة للبيانات:

  1. ضع نُسخًا طبق الأصل من نموذج موجود على أجهزة متعددة.
  2. أرسِل مجموعات فرعية مختلفة من مجموعة التدريب إلى كل نسخة.
  3. تجميع تعديلات المَعلمة

الانحياز في إعداد التقارير

#fairness

إنّ معدّل تكرار كتابة الأشخاص عن الإجراءات أو النتائج أو السمات لا يعكس معدّلات تكرار حدوثها في الحياة الواقعية أو الدرجة التي تمثل بها السمة مجموعة من الأفراد. يمكن أن يؤثر التحيز في إعداد التقارير على التركيبة من البيانات التي تتعلم منها أنظمة التعلم الآلي.

على سبيل المثال، في الكتب، تكون كلمة ضحك أكثر انتشارًا من تنفس. يشير هذا المصطلح إلى نموذج لتعلُّم الآلة يقدِّر التكرار النسبي من المحتمل أن يحدد الضحك والتنفس من مجموعة الكتب أن الضحك أكثر شيوعًا من التنفس.

التمثيل

عملية ربط البيانات بميزات مفيدة

إعادة ترتيب

#recsystems

المرحلة الأخيرة من نظام الاقتراحات والتي يمكن خلالها إعادة تقييم العناصر المصنفة وفقًا لبعض (عادةً ما تكون غير مستندة إلى تعلُّم الآلة). تؤدي إعادة الترتيب إلى تقييم قائمة العناصر. الناتجة عن مرحلة تسجيل النتائج، واتّخاذ إجراءات مثل:

  • إزالة العناصر التي سبق أن اشتراها المستخدم
  • تعزيز نتيجة العناصر الأحدث

إنشاء البيانات المعزّزة بالاسترجاع (RAG)

#fundamentals

أسلوب لتحسين جودة ناتج النموذج اللغوي الكبير (LLM) من خلال ربطه بمصادر المعرفة التي تم استرجاعها بعد تدريب النموذج تحسِّن ميزة "الردّ المخصّص حسب الغرض" دقة ردود النماذج اللغوية الكبيرة من خلال منح النموذج اللغوي الكبير المدّرب إمكانية الوصول إلى المعلومات التي يتم استرجاعها من قواعد بيانات أو مستندات موثوقة.

تشمل الدوافع الشائعة لاستخدام الإنشاء المحسّن للاسترجاع ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها النموذج
  • منح النموذج إمكانية الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاقتباس من المصادر.

لنفترض مثلاً أن أحد تطبيقات الكيمياء يستخدم جدول البيانات PaLM واجهة برمجة التطبيقات لإنشاء الملخّصات المتعلقة بطلبات بحث المستخدم. عندما تتلقى الواجهة الخلفية للتطبيق طلبًا، فإن الخلفية:

  1. يبحث عن بيانات ("استرداد") ذات الصلة بطلب بحث المستخدم.
  2. إلحاق بيانات الكيمياء ذات الصلة ("تعزيز") بطلب بحث المستخدم
  3. توجّه هذه السياسة إلى النموذج اللغوي الكبير لإنشاء ملخّص استنادًا إلى البيانات المُرفَقة.

العودة

#rl

في التعلّم التعزيزي، استنادًا إلى سياسة معيّنة وحالة معيّنة، هو مجموع كل المكافآت التي يتوقع العاملتلقّيها عند اتّباع السياسة من الحالة إلى نهاية الحلقة. الوكيل تراعي الطبيعة المتأخرة للمكافآت المتوقعة من خلال تخفيض المكافآت وفقًا لعمليات الانتقال في الولاية المطلوبة للحصول على المكافأة.

بالتالي، إذا كان عامل الخصم هو \(\gamma\)و \(r_0, \ldots, r_{N}\) لتحديد المكافآت حتى نهاية الحلقة، ثم يتم احتساب العائد هي على النحو التالي:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

مكافأة

#rl

في التعلم المعزز، تكون النتيجة العددية لأخذ action في حالة محددة من خلال البيئة.

تسوية تربيعية

مرادف للتسويّة 2. المصطلح يتم استخدام تسوية سلسلة الجبال بشكل أكثر شيوعًا في الإحصاءات البحتة السياقات، بينما يتم استخدام تسوية L2 بوتيرة أعلى في التعلم الآلي.

RNN

#seq

اختصار للشبكات العصبية المتكرّرة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني للمعدل الموجب الصحيح مقابل معدّل الموجب الخاطئ لمختلف الأنواع حدود للتصنيف في النظام الثنائي الفئات.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي لفصل الفئات الإيجابية عن الفئات السالبة. لنفترض، على سبيل المثال، أن نموذج التصنيف الثنائي يفصل بشكل مثالي جميع القيم السالبة الفئات من جميع الفئات الإيجابية:

خطّ أعداد يتضمّن 8 أمثلة إيجابية على الجانب الأيمن
          7 أمثلة سلبية على الجانب الأيسر

يبدو منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور x هو المعدل الموجب الخاطئ والمحور y
          هو المعدل الإيجابي الصحيح. للمنحنى شكل حرف L مقلوب. المنحنى
          يبدأ من (0.0,0.0) ويصل مباشرة إلى (0.0,1.0). بعد ذلك، ينتقل المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

وفي المقابل، يوضح الرسم التوضيحي التالي الانحدار اللوجستي الأولي القيم لنموذج مخيف لا يمكنه فصل الفئات السالبة عن إيجابية على الإطلاق:

خطّ أعداد يتضمّن أمثلة إيجابية وفئات سلبية
          مختلطة تمامًا

ويبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى ROC، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

وفي الوقت نفسه، بالعودة إلى العالم الحقيقي، تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حد ما، ولكن عادة لا تكون مثالية. وبالتالي، يقع منحنى خاصية تشغيل جهاز الاستقبال النموذجي في مكان ما بين الطرفين:

منحنى ROC المحور x هو &quot;معدل الموجب الخاطئ&quot; والمحور y هو
          &quot;النسبة الموجبة الصائبة&quot;. يشبه منحنى ROC قوسًا متذبذبًا
          يقطع نقاط البوصلة من الغرب إلى الشمال.

النقطة في منحنى ROC الأقرب إلى (0.0,1.0) تحدد نظريًا الحد المثالي للتصنيف. ومع ذلك، تؤثر عدة مشاكل أخرى في العالم الواقعي في اختيار الحدّ الأمثل للتصنيف. على سبيل المثال، قد تتسبب النتائج السلبية الخاطئة في مشاكل أكثر بكثير من النتائج الموجبة الخاطئة.

يلخِّص مقياس عددي يُسمى AUC منحنى ROC في قيمة واحدة بفاصل عشري.

تشجيع الأدوار

#language
#generativeAI

جزء اختياري من الطلب الذي يحدّد شريحة جمهور مستهدَفة لاستجابة نموذج الذكاء الاصطناعي التوليدي. بدون طلب تحديد الدور، يقدّم نموذج لغوي كبير إجابة قد تكون مفيدة أو غير مفيدة للشخص الذي يطرح الأسئلة. مع طلب دور ولغة كبيرة أن يجيب بها نموذج البيانات بطريقة أكثر ملاءمة وفائدة جمهور مستهدف محدد. على سبيل المثال، يظهر جزء طلب الدور من الطلبات التالية بخط عريض:

  • تلخيص هذه المقالة للحصول على درجة الدكتوراه في الاقتصاد.
  • يُرجى وصف آلية عمل المد والجزر لطفل بعمر عشر سنوات.
  • شرح الأزمة المالية لعام 2008 تحدّث كما تفعل مع طفل صغير، أو كلب جولدن ريتريفر

الجذر

#df

العقدة الأولى (أول شرط) في شجرة قرارات وفقًا للعرف، تضع المخططات البيانية الجذر في أعلى شجرة القرار. على سبيل المثال:

شجرة قرارات ذات شرطين وثلاث أوراق. تشير رسالة الأشكال البيانية
          شرط البدء (x> 2) هو الجذر.

الدليل الجذري

#TensorFlow

الدليل الذي تحدّده لاستضافة الأدلة الفرعية لـ TensorFlow ملفات نقاط التحقق والأحداث لنماذج متعددة.

جذر الخطأ التربيعي المتوسّط (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

الثبات الدوراني

#image

في إحدى مشكلات تصنيف الصور، يمكن أن تحدد قدرة الخوارزمية على تصنيف الصور حتى عندما يتغير اتجاه الصورة. على سبيل المثال: يظل بإمكان الخوارزمية تحديد مضرب تنس سواء كان يشير إلى الأعلى، أو جانبية أو لأسفل. لاحظ أن الثبات الدوراني ليس مرغوبًا فيه دائمًا؛ على سبيل المثال، لا ينبغي تصنيف الرقم 9 المقلوب على أنه 9.

اطّلِع أيضًا على الثبات التحويلي ثابت الحجم:

معامل التحديد

مقياس الانحدار الذي يشير إلى مقدار التباين في التصنيف الناتج عن ميزة فردية أو مجموعة ميزات معامل R هو قيمة بين 0 و1، والتي يمكنك تفسيرها على النحو التالي:

  • يعني مربع R ذات القيمة 0 أنه لا يوجد أي من تباين التصنيف بسبب مجموعة الخصائص.
  • يعني مقياس R المربّع الذي يساوي 1 أنّ جميع الاختلافات في التصنيف تعود إلى مجموعة الميزات.
  • يشير مقياس R المربّع الذي يتراوح بين 0 و1 إلى مدى إمكانية توقّع اختلاف العلامة من ميزة معيّنة أو مجموعة ميزات. على سبيل المثال، يعني معامل التحديد بـ 0.10 أن 10 بالمائة من التباين في التسمية بسبب مجموعة الخصائص، فإن مربع R بقيمة 0.20 يعني أن و20 في المائة ترجع إلى مجموعة الخصائص، وهكذا.

معامل التحديد (R) هو مربع ارتباط بيرسون مُعامل بين القيم التي تنبأ بها النموذج والحقيقة الأساسية.

S

التحيز في جمع العيّنات

#fairness

راجِع انحياز الاختيار.

جمع العيّنات مع الاستبدال

#df

طريقة لاختيار العناصر من مجموعة من العناصر المرشحة التي تتضمن نفس العنصر عدة مرات. عبارة "مع الاستبدال" يعني أنه بعد كل تحديد، يتم إرجاع العنصر المحدد إلى مجموعة من العناصر المرشحة. أما الطريقة العكسية، وهي جمع العيّنات بدون استبدال، فتعني أنّه لا يمكن اختيار عنصر مرشح إلا مرة واحدة.

على سبيل المثال، ضع في الاعتبار مجموعة الفاكهة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

لنفترض أنّ النظام يختار fig بشكل عشوائي كأول عنصر. في حال استخدام أخذ العينات مع الاستبدال، يختار النظام العنصر الثاني من المجموعة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

نعم، تم ضبط الإعدادات نفسها على النحو السابق، لذا يمكن للنظام اختر fig مرة أخرى.

في حالة استخدام أخذ العينات بدون استبدال، فلا يمكن بعد اختيار العينة الذي تم اختياره مرة أخرى. على سبيل المثال، إذا اختار النظام بشكل عشوائي القيمة fig كقيمة يجب اختيار العيّنة الأولى، ثم لا يمكن اختيار "fig" مرة أخرى. وبالتالي، لا شكّ في أن النظام تختار العينة الثانية من المجموعة (المنخفضة) التالية:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

التنسيق المقترَح لحفظ نماذج TensorFlow واستردادها. SavedModel هو تنسيق تسلسلي محايد اللغة وقابل للاسترداد، يتيح أنظمة وأدوات عالية المستوى لإنتاج TensorFlow واستهلاكها وتحويلها النماذج.

الاطّلاع على فصل الحفظ والاستعادة في دليل مبرمج TensorFlow للحصول على التفاصيل الكاملة.

موفّر

#TensorFlow

كائن TensorFlow المسئول عن حفظ نقاط تفتيش النموذج.

الكمية القياسية

يشير هذا المصطلح إلى رقم واحد أو سلسلة واحدة يمكن تمثيلها كرقم Tenor بقيمة الترتيب 0. على سبيل المثال، ما يلي سطور الرمز التي ينشئ كل منها مقياسًا في TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

التوسّع

أي تحويل رياضي أو أسلوب يغيّر نطاق تصنيف و/أو قيمة العنصر بعض أشكال التحجيم مفيدة جدًا للتحولات مثل التسوية.

في ما يلي بعض الأشكال الشائعة للتحجيم المفيدة في التعلم الآلي:

  • التحجيم الخطي، والذي يستخدم عادةً مزيجًا من الطرح قسمة لاستبدال القيمة الأصلية برقم بين -1 و+1 أو بين 0 و1.
  • التحجيم اللوغاريتمي، والذي يستبدل القيمة الأصلية اللوغاريتم.
  • تسوية الدرجة المعيارية التي تستبدل قيمة أصلية بقيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن متوسط هذه الميزة.

مكتبة ساي كيت ليرن

منصة رائجة مفتوحة المصدر لتكنولوجيا تعلُّم الآلة اطّلِع على scikit-learn.org.

تسجيل النتائج

#recsystems

الجزء من نظام الاقتراحات الذي يقدّم قيمة أو ترتيبًا لكل عنصر تم إنشاؤه في مرحلة إنشاء الاقتراحات

الانحياز في الاختيار

#fairness

الأخطاء في الاستنتاجات المستخلصة من البيانات المستندة إلى عيّنات بسبب عملية اختيار تؤدي إلى حدوث اختلافات منهجية بين العيّنات المرصودة في البيانات وتلك غير المرصودة في ما يلي أشكال التحيز في الاختيار:

  • الانحياز في التغطية: لا يتطابق المجتمع الإحصائي الممثّل في مجموعة البيانات مع المجتمع الإحصائي الذي يقدّم نموذج تعلُّم الآلة توقعات بشأنه.
  • تحيز أخذ العينات: لا يتم جمع البيانات بشكل عشوائي من المجموعة المستهدفة.
  • تحيز عدم الاستجابة (يسمى أيضًا تحيز المشاركة): المستخدمون من تعمل بعض المجموعات على إيقاف الاستطلاعات بمعدلات مختلفة عن معدّل المستخدمين لمجموعات أخرى.

فعلى سبيل المثال، لنفترض أنك تنشئ نموذجًا للتعلم الآلي يتنبأ حول استمتاع الأشخاص بالأفلام. لجمع بيانات التدريب، يمكنك توزيع استطلاع على جميع المشاهدين في الصف الأول من سينما تعرض الفيلم. قد يبدو هذا الإجراء على الفور طريقة معقولة لجمع مجموعة بيانات، ولكن قد يؤدي هذا الشكل من جمع البيانات إلى ظهور أشكال التحيز في الاختيار التالية:

  • التحيز في التغطية: من خلال أخذ عيّنات من مجموعة من الأشخاص الذين اختاروا مشاهدة الفيلم، قد لا تعمم توقّعات النموذج على الأشخاص الذين لم يُظهروا هذا المستوى من الاهتمام بالفيلم.
  • التحيز في جمع العيّنات: بدلاً من جمع عيّنات عشوائية من المجتمع الإحصائي المقصود (جميع الأشخاص في الفيلم)، جمعت عيّنات من الأشخاص في الصف الأمامي فقط. من المحتمل أنّ الأشخاص الجالسين في الصف الأمامي كانوا أكثر اهتمامًا بالفيلم مقارنةً بأولئك الجالسين في الصفوف الأخرى.
  • التحيز لعدم الرد: بشكل عام، يميل الأشخاص ذوو الآراء القوية إلى إلى الرد على الاستطلاعات الاختيارية بمعدل تكرار أكبر من الأشخاص ذوي الإحتياجات المعتدلة آرائك. نظرًا لأن استبيان الفيلم اختياري، فإن الردود من المرجح أن تشكل التوزيع الثنائي الجوانب من التوزيع الطبيعي (على شكل جرس).

الانتباه الذاتي (يُعرف أيضًا باسم طبقة الانتباه الذاتي)

#language

يشير هذا المصطلح إلى طبقة الشبكة العصبونية التي تحوّل سلسلة من التضمينات (مثل تضمينات الرمز المميّز) إلى تسلسل آخر من التضمينات كل عملية تضمين في تسلسل الإخراج هي تم إنشاؤها من خلال دمج المعلومات من عناصر تسلسل الإدخال من خلال آلية لفت الانتباه.

يشير الجزء الذاتي من الانتباه الذاتي إلى التسلسل الذي يهتم بنفسه بدلاً من أي سياق آخر. الانتباه الذاتي هو أحد أهم الوحدات الأساسية لـ المحولات وتستخدم بحث القاموس المصطلحات مثل "query" و"key" و"value".

تبدأ طبقة الانتباه الذاتي بتسلسل من تمثيلات الإدخال، واحد لكل كلمة. ويمكن أن يكون تمثيل الإدخال لإحدى الكلمات طريقة بسيطة التضمين. لكل كلمة في تسلسل الإدخال، تُحسِّن الشبكة صلة الكلمة بكل عنصر في التسلسل الكامل للكلمات. تحدد نقاط مدى الصلة مدى صلة التمثيل النهائي للكلمة وتدمج تمثيلات للكلمات الأخرى.

على سبيل المثال، فكِّر في الجملة التالية:

لم يعبر الحيوان الشارع لأنه كان مرهقًا جدًا.

يعرض الرسم التوضيحي التالي (من مقالة Transformer: A Novel Neural Network Architecture for Language Understanding) نمط الانتباه لطبقة الانتباه الذاتي للضمير it، مع اختلاف كثافة كل سطر للإشارة إلى مقدار مساهمة كل كلمة في التمثيل:

تظهر الجملة التالية مرتين: الحيوان لم يعبر
          في الشارع لأنه كان متعبًا للغاية. يربط الخطوط الضمير الذي يربط الضمير
          جملة واحدة إلى خمسة رموز مميزة (الحيوان والشارع وهو
          النقطة) في الجملة الأخرى.  الخط الفاصل بين الضمير
          وكلمة حيوان هي الأقوى.

تبرز طبقة الانتباه الذاتي الكلمات ذات الصلة بـ "هي". في هذه الدورة، الحالة، تعلّمت طبقة الانتباه تمييز الكلمات التي يمكن أن المشار إليه، مع تعيين أعلى وزن لـ حيوان.

بالنسبة إلى تسلسل من n رمز، تحوّل الانتباه الذاتي تسلسلًا من عمليات التضمين n مرّات منفصلة، مرّة في كل موضع في التسلسل.

يمكنك أيضًا الاطّلاع على سمة تنبيه و الاهتمام الذاتي من خلال عدة رؤوس.

التعلُّم الذاتي الإشراف

مجموعة من أساليب تحويل مشكلة تعلُّم الآلة غير المُوجّه في مشكلة تعلُّم الآلة المراقَب عن طريق إنشاء تصنيفات بديلة من أمثلة غير مصنَّفة:

تستخدم بعض النماذج المستندة إلى المحوّل، مثل BERT، والتعلم الذاتي.

التدريب الذاتي هو التعلّم شبه المُوجّه.

تدريب ذاتي

أحد خيارات التعلّم الذاتي يكون مفيدًا بشكل خاص عندما تحقق جميع الشروط التالية:

تعمل ميزة "التدريب الذاتي" من خلال تكرار الخطوتَين التاليتَين إلى أن يتوقف النموذج عن التحسن:

  1. استخدِم تعلُّم الآلة المراقَب لتدريب نموذج على الأمثلة المصنّفة.
  2. استخدم النموذج الذي تم إنشاؤه في الخطوة الأولى لإنشاء تنبؤات (تصنيفات) على الأمثلة غير المصنفة، ونقل تلك التي تكون هناك ثقة كبيرة فيها إلى الأمثلة المصنفة ذات التصنيف المتنبأ به.

لاحظ أن كل تكرار للخطوة 2 يضيف المزيد من الأمثلة المصنفة للخطوة 1 إلى التدريب.

التعلّم شبه المُراقَب

تدريب نموذج على البيانات حيث يكون لبعض أمثلة التدريب تسميات ولكن والبعض الآخر لا يفعل ذلك. يتمثل أحد أساليب التعلم شبه المُوجّه في استنتاج تسميات بالأمثلة غير المصنفة، ثم التدريب على التسميات المستنتَجة لإنشاء تصنيف الأمثل. يمكن أن يكون التعلم شبه المُوجّه مفيدًا إذا كان الحصول على التصنيفات مكلفًا لكن الأمثلة غير المصنفة كثيرة.

التدريب الذاتي هو إحدى تقنيات التعلم شبه المُراقَب.

سمة حسّاسة

#fairness
سمة بشرية قد تحظى باهتمام خاص لأسباب قانونية أو أخلاقية أو اجتماعية أو شخصية

تحليل الآراء

#language

يمكن أن يؤدي استخدام الخوارزميات الإحصائية أو خوارزميات التعلم الآلي لتحديد هدف مجموعة الموقف العام - الإيجابي أو السلبي - تجاه خدمة أو منتج أو المؤسسة أو الموضوع. على سبيل المثال، استخدام فهم اللغة الطبيعية يمكن لخوارزمية إجراء تحليل الآراء حول الملاحظات النصية من دورة جامعية لتحديد الدرجة التي ينتقل بها الطلاب بشكل عام، لم تعجبهم الدورة أو لم تعجبهم.

نموذج تسلسلي

#seq

يشير ذلك المصطلح إلى نموذج تكون إدخالاته تعتمد على تبعية تسلسلية. على سبيل المثال، توقّع الفيديو التالي الذي سيتمّ مشاهدته من تسلسل الفيديوهات التي تمّت مشاهدتها في السابق

مهمة تسلسل إلى تسلسل

#language

مهمة تحوِّل تسلسل إدخال للرموز المميّزة إلى مُخرجات تسلسل الرموز المميزة. على سبيل المثال، هناك نوعان شائعان من المهام المتعلّقة بتحويل تسلسل إلى تسلسل:

  • المترجمون:
    • نموذج تسلسل إدخال: "أحبك".
    • مثال على تسلسل النتائج: "Je t'aime".
  • الإجابة عن الأسئلة:
    • مثال على تسلسل الإدخال: "هل أحتاج إلى سيارتي في مدينة القاهرة؟"
    • مثال على تسلسل الإخراج: "لا، يُرجى إبقاء سيارتك في المنزل".

حصة طعام

عملية إتاحة نموذج مدرَّب لتقديم توقّعات من خلال الاستنتاج على الإنترنت أو الاستنتاج بلا إنترنت

shape (Tensor)

عدد العناصر في كل سمة من المصفوفة. يتم تمثيل الشكل كقائمة من الأعداد الصحيحة. على سبيل المثال، يتضمّن المتجه الثلاثي الأبعاد التالي الشكل [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

يستخدم TensorFlow تنسيق الصفوف (بأسلوب C) لتمثيل ترتيب السمات، ولهذا السبب يكون الشكل في TensorFlow هو [3,4] بدلاً من [4,3]. بعبارة أخرى، في مخطط TensorFlow Tensor ثنائي الأبعاد، هو [عدد الصفوف، وعدد الأعمدة].

الشكل الثابت هو شكل متسابق يكون معروفًا في وقت التجميع.

يكون الشكل الديناميكي غير معروف في وقت التجميع وبالتالي تعتمد على بيانات بيئة التشغيل. يمكن تمثيل هذا المتجه باستخدام سمة عنصر نائب في TensorFlow، كما هو موضّح في [3, ?].

قطعة

#TensorFlow
#GoogleCloud

قسم منطقي من مجموعة التدريب أو model. عادةً ما تنشئ بعض العمليات أجزاءً من خلال قسمة الأمثلة أو المَعلمات التي تريدها (عادةً) أجزاء متساوية الحجم. ويتم بعد ذلك تعيين كل شريحة إلى جهاز مختلف.

يُطلق على تقسيم النموذج اسم التوازي في النموذج، ويُطلق على تقسيم البيانات اسم التوازي في البيانات.

انكماش

#df

المعلَمة الفائقة في تعزيز التدرّج التي تتحكّم الفرط في التخصيص: انكماش في تعزيز التدرج يشبه معدّل التعلّم في خوارزمية انحدار التدرج. إنّ نسبة الانكماش هي قيمة صعِد عشري تتراوح بين 0.0 و1.0. تقلِّل قيمة الانكماش الأقل من التكيّف المفرط أكثر من قيمة الانكماش الأكبر.

الدالّة الإسية

#fundamentals

دالة رياضية "تضغط" قيمة الإدخال في نطاق محدود، عادةً من 0 إلى 1 أو -1 إلى +1. أي أنه يمكنك تمرير أي رقم (اثنين، مليون، سالب، أي شيء) إلى الدالة السينية وسيظل الناتج في نطاق محدود. يبدو مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحني ثنائي الأبعاد بقيم x تتراوح بين ما يلي:
          ما لا نهاية إلى موجب، بينما تتراوح قيم y بين 0 تقريبًا
          و1 تقريبًا. عندما تكون x = 0، تكون y = 0.5. يكون ميل المنحنى دائمًا
          موجبًا، مع أعلى ميل عند 0.0.5 وميل
          متناقص تدريجيًا مع زيادة القيمة المطلقة لسمة x.

لدالة السينية العديد من الاستخدامات في تعلُّم الآلة، بما في ذلك:

مقياس التشابه

#clustering

في خوارزميات التجميع، يكون المقياس المستخدَم لتحديد مدى تشابه (مدى تشابه) أي مثالين.

برنامج واحد / بيانات متعددة (SPMD)

يشير ذلك المصطلح إلى أسلوب موازٍ يتم فيه إجراء الحوسبة نفسها على مدخلات مختلفة. البيانات بالتوازي على أجهزة مختلفة. إن الهدف من SPMD هو الحصول على نتائج بسرعة أكبر. وهو النمط الأكثر شيوعًا في البرمجة المتوازية.

الثبات الحجمي

#image

في إحدى مشكلات تصنيف الصور، يمكن أن تحدد قدرة الخوارزمية على تصنيف الصور حتى عندما يتغير حجم الصور. على سبيل المثال، يظل بإمكان الخوارزمية التعرّف على قطة سواء كانت تستهلك مليونَي بكسل أو 200 ألف بكسل. يُرجى العِلم أنّ أفضل خوارزميات تصنيف الصور لا تزال لها حدود عملية في ما يتعلق بعدم الاعتماد على الحجم. على سبيل المثال، من غير المرجّح أن تحدّد الخوارزمية (أو المستخدم) بشكل صحيح محتوى صورة قطة تستهلك 20 بكسل فقط.

اطّلِع أيضًا على الثبات التحويلي الثبات الدوري:

الرسم التخطيطي

#clustering

في مجال تعلُّم الآلة غير الخاضع للإشراف، يشير ذلك المصطلح إلى فئة من الخوارزميات التي تنفّذ تحليلاً أوليًا للتشابه. في الأمثلة. تستخدم خوارزميات الرسم دالة التجزئة الحساسة للمنطقة المحلية لتحديد النقاط التي من المحتمل أن تكون متشابهة، ثم تجميع في مجموعات.

تؤدي ميزة "التقسيم إلى أقسام" إلى تقليل العمليات الحسابية المطلوبة لعمليات احتساب التشابه في مجموعات البيانات الكبيرة. فبدلاً من حساب التشابه لكل فرد مثلين في مجموعة البيانات، فإننا نحسب التشابه فقط لكل زوج من النقاط داخل كل مجموعة.

نموذج "الكلمات التي تليها"

#language

نمط n-gram الذي قد يحذف (أو "يتخطّى") كلمات من السياق الأصلي، ما يعني أنّ الكلمات الـ N قد لا تكون متجاورة في الأصل. بعبارة أدق، "ن-غرام بفاصل k" هو ن-غرام قد تم تخطّي ما يصل إلى k كلمة فيه.

على سبيل المثال، تحتوي العبارة "الثعلب البني السريع" على الثنائيات المحتملة التالية:

  • "السريع"
  • "بني سريع"
  • "ثعلب بني"

"1-تخطي-2 غرام" هو عبارة عن كلمتَين لا يزيد عددهما عن كلمة واحدة. لذلك، يحتوي المحتوى "the quick brown fox" على المقاطع التالية التي تتكوّن من كلمتَين مع تخطّي كلمة واحدة:

  • "البني"
  • "ثعلب سريع"

بالإضافة إلى ذلك، يُعَدّ الـ 2 غرامًا أيضًا 1 غرام من غرام واحد، نظرًا إلى أنّ 3. يمكن تخطّي كلمة واحدة أو أكثر.

تكون ميزة "المقاطع التي يتم تخطّيها" مفيدة لفهم السياق المحيط بالكلمة بشكل أفضل. في المثال، كان "الثعلب" مرتبطًا مباشرةً بـ "سريع" في مجموعة المقاطع-الثنائية-بفاصل-واحد، ولكن ليس في مجموعة المقاطع-الثنائية.

تدريب الغرامات في التدريب نماذج تضمين الكلمات.

softmax

#fundamentals

يشير هذا المصطلح إلى دالة تحدد الاحتمالات لكل فئة محتملة في إحدى نموذج التصنيف المتعدّد الفئات. تضيف الاحتمالات إلى 1.0 بالضبط. على سبيل المثال، يعرض الجدول التالي كيفية توزيع softmax. الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب 0.85
هرّ 13.
حصان 0.02

يُطلَق على جهاز Softmax أيضًا اسم full softmax.

يختلف ذلك عن تحليل العينات المحتمَلة.

ضبط الطلبات اللطيفة

#language
#generativeAI

أسلوب لضبط نموذج لغوي كبير لمهمة معيّنة، بدون استخدام موارد مكثفة في عملية التحسين الدقيق بدلاً من إعادة تدريب كل المَعلمات في النموذج، تعمل ميزة "ضبط الطلبات اللطيفة" على تعديل الطلب تلقائيًا لتحقيق الهدف نفسه.

عند الحصول على طلب نصي، ضبط الطلب بشكل مبدئي تُلحِق عادةً عمليات تضمين إضافية للرمز المميّز في الطلب وتستخدم الانتشار العكسي لتحسين الإدخال.

"صعب" يتضمن رموزًا مميزة فعلية بدلاً من تضمينات الرموز المميزة.

خاصية متناثرة

#language
#fundamentals

سمة تكون قيمها في الغالب صفرًا أو فارغة على سبيل المثال، العنصر الذي يحتوي على قيمة 1 مفردة ومليون 0 هو متناثر. في المقابل، الميزة المكثفة لها قيم ليست صفرًا أو فارغة في الغالب.

في مجال تعلُّم الآلة، هناك عدد كبير من الميزات المتفرقة. وتكون الميزات الفئوية عادةً ميزات متناثرة. على سبيل المثال، من بين 300 نوع من الأشجار المحتملة في الغابة، قد يحدِّد مثال واحد شجرة قيقب فقط. أو من بين الملايين الفيديوهات المحتملة في مكتبة الفيديوهات، قد يوضّح مثال واحد و"الدار البيضاء" فقط.

في النموذج، يتم عادةً تمثيل الميزات المتفرقة باستخدام التشفير الثنائي. إذا كان التشفير الواحد النشط كبيرًا، يمكنك وضع طبقة إدراج فوق التشفير الواحد النشط لتحقيق كفاءة أكبر.

تمثيل متناثر

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في عنصر متفرق.

على سبيل المثال، لنفترض أن هناك خاصية فئوية تسمى species تحدد الـ 36 أنواع الأشجار في غابة معينة. لنفترض أيضًا أنّ كل مثال يحدِّد نوعًا واحدًا فقط.

يمكنك استخدام متجه أحادي الدالة لتمثيل أنواع الأشجار في كل مثال. سيحتوي المتجه أحادي القيمة على 1 واحد (لتمثيل أنواع الأشجار المحدّدة في هذا المثال) و35 0 (لتمثيل أنواع الأشجار الـ 35 غير المُدرَجة في هذا المثال). وبالتالي، قد يبدو التمثيل الثنائي المميّز لـ maple على النحو التالي:

متجه تحتوي فيه المواضع من 0 إلى 23 على القيمة 0،
          يحمل الرقم 24 القيمة 1، بينما تشتمل المواضع من 25 إلى 35 على القيمة 0.

بدلاً من ذلك، سيحدِّد التمثيل المتفرق ببساطة موضع الأنواع المحدّدة. إذا كان maple في الموضع 24، سيكون التمثيل المتناثر maple على النحو التالي:

24

لاحظ أن التمثيل المتناثر أكثر إيجازًا بكثير من واحد فعال التمثيل المناسب.

متّجه متناثر

#fundamentals

متجه تكون قيمه في الغالب أصفار. راجِع أيضًا سمة المتخلّلة والتشتت.

الندرة

عدد العناصر المحددة على صفر (أو فارغ) في متجه أو مصفوفة مقسومة في العدد الإجمالي للإدخالات في ذلك الخط المتجه أو المصفوفة. على سبيل المثال: ضع في الاعتبار مصفوفة مكونة من 100 عنصر تحتوي 98 خلية فيها على صفر. يتم احتساب الكثافة على النحو التالي:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

تشير التراخي في الخصائص إلى التراخي في أحد خطوط الخصائص، ويشير التراخي في النموذج إلى التراخي في أوزان النموذج.

اختزال مكاني

#image

اطّلِع على الجمع.

سبليت

#df

في شجرة القرار، اسم آخر ل شرط.

مقسِّم

#df

أثناء تدريب شجرة قرار، تتم إضافة سلسلة الإجراءات (والخوارزمية) المسئولة عن إيجاد أفضل condition عند كل عقدة.

SPMD

اختصار برنامج واحد / بيانات متعددة.

تربيع الخسارة المفصلية

تربيع الخسارة المفصلية. تفرض "الخسارة المفصلية المربّعة" عقوبات على القيم الشاذة أكثر من "الخسارة المفصلية" العادية.

الخسارة التربيعية

#fundamentals

مرادف لخسارة L2.

تدريب مرحلي

#language

منهج لتدريب نموذج في تسلسل من المراحل المنفصلة ويمكن أن يكون الهدف هو إما تسريع عملية التدريب أو تحقيق جودة أفضل للنموذج.

في ما يلي صورة توضيحية لنهج التجميع التدريجي:

  • المرحلة 1 تحتوي على 3 طبقات مخفية، بينما تحتوي المرحلة الثانية على 6 طبقات مخفية، المرحلة 3 تحتوي على 12 طبقة مخفية.
  • تبدأ المرحلة الثانية التدريب بأوزان الأوزان التي تم تعلمها في الطبقات الثلاث المخفية المرحلة 1. تبدأ المرحلة 3 التدريب بالأوزان التي تم تعلمها في الطبقات المخفية من المرحلة 2.

ثلاث مراحل تُسمى المرحلة 1 والمرحلة 2 والمرحلة 3.
          يحتوي كلّ مرحلة على عدد مختلف من الطبقات: تحتوي المرحلة 1 على
          3 طبقات، وتحتوي المرحلة 2 على 6 طبقات، وتحتوي المرحلة 3 على 12 طبقة.
          تصبح الطبقات الثلاث من المرحلة 1 هي الطبقات الثلاث الأولى من المرحلة 2.
          وبالمثل، تصبح الطبقات الست من المرحلة 2 أول 6 طبقات من
          المرحلة 3.

اطّلِع أيضًا على المعالجة المخطّط لها.

الولاية

#rl

وفي التعلم المعزز، تشير قيم المعامل التي تصف المعامل الحالي تهيئة البيئة التي يستخدمها الوكيل اختَر إجراءً.

دالة قيمة الحالة-الإجراء

#rl

مرادف دالة Q.

ثابت

#fundamentals

إجراء يتم تنفيذه مرة واحدة بدلاً من تنفيذه باستمرار العبارتان ثابتة وبلا إنترنت هي مرادفات لهذه العبارة. في ما يلي الاستخدامات الشائعة للبيانات الثابتة وغير المتصلة بالإنترنت في تعلُّم الآلة:

  • النموذج الثابت (أو النموذج المتوفّر بلا اتصال بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو عملية ينشئ فيها النموذج مجموعة من التوقّعات في المرة الواحدة.

يختلف عن الإعلانات الديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

ثبات

#fundamentals

سمة لا تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون السمة هي الوقت. على سبيل المثال، الميزة التي تبدو قيمها متشابهة في عام 2021 يعرض العام 2023 ثابتًا.

في العالم الواقعي، تظهر سمات قليلة جدًا ثباتًا. حتى الميزات التي تشير إلى الاستقرار (مثل مستوى سطح البحر) تتغيّر بمرور الوقت.

التباين مع عدم ثبات البيانات.

خطوة

تمرير للأمام وتمرير للخلف لدفعة واحدة

اطّلِع على الانتشار العكسي للخطأ للحصول على مزيد من المعلومات عن التمرير الأمامي والتمرير الخلفي.

حجم الخطوة

مرادف لمعدّل التعلّم

انحدار التدرج العشوائي (SGD)

#fundamentals

خوارزمية التدرّج الهابط التي يكون فيها حجم المجموعة واحدًا بعبارة أخرى، تتدرب سنغافوره على مثال واحد يتم اختياره بشكل موحد في عشوائيًا من مجموعة تدريب.

قفزة

#image

في عملية تحويل تلافعي أو تجميع، الاختلاف في كل سمة من سمات السلسلة التالية من شرائح الإدخال على سبيل المثال، الرسوم المتحركة التالية خطوة (1,1) خلال عملية التفافية. لذلك، تبدأ شريحة الإدخال التالية في موضع واحد على يسار شريحة الإدخال السابقة. عندما تصل العملية إلى الحافة اليمنى، تكون الشريحة التالية طريقنا إلى اليسار لكن بمقدار موضع واحد.

مصفوفة إدخال 5×5 وفلتر تفافي 3×3 نظرًا لأن
     الخطوة (1,1)، سيتم تطبيق فلتر التفافي 9 مرات. الأول
     تقيّم الشريحة الالتفافية المصفوفة الفرعية 3×3 العلوية اليسرى للمدخل
     ومصفوفة. تقيِّم الشريحة الثانية المصفوفة الفرعية 3×3
     في أعلى منتصف الجدول. تقيّم الشريحة الالتفافية الثالثة 3x3 أعلى اليمين.
     المصفوفة الفرعية.  تقيّم الشريحة الرابعة المصفوفة الفرعية 3x3 ذات اليسار الأوسط.
     يُقيّم الجزء الخامس المصفوفة الفرعية الوسطى 3×3. يُقيّم الجزء السادس
     المصفوفة الفرعية 3×3 في منتصف اليمين. يُقيّم الجزء السابع
     المصفوفة الفرعية 3×3 في أسفل يمين الشاشة.  يُقيّم الجزء الثامن
     المصفوفة الفرعية 3×3 في أسفل الوسط. تقيِّم الشريحة التاسعة المصفوفة الفرعية 3×3
     في أسفل يسار الصورة.

يوضح المثال السابق خطوة ثنائية الأبعاد. إذا كانت مصفوفة السلسلة المدخلة ثلاثية الأبعاد، ستكون الخطوة أيضًا ثلاثية الأبعاد.

تقليص المخاطر الهيكلية (SRM)

خوارزمية توازن بين هدفَين:

  • الحاجة إلى إنشاء النموذج الأكثر توقّعًا (على سبيل المثال، أدنى خسارة)
  • الحاجة إلى جعل النموذج بسيطًا قدر الإمكان (على سبيل المثال، قوي والتسويق).

على سبيل المثال، دالة تقلّل من الخسارة + التنظيم في مجموعة التدريب هي خوارزمية لتقليل المخاطر البنيوية.

يختلف ذلك عن تقليل المخاطر التجريبية.

جمع عيّنات فرعية

#image

يُرجى الاطّلاع على تجميع البيانات.

رمز مميز للكلمة الفرعية

#language

في النماذج اللغوية، يكون الرمز المميّز السلسلة الفرعية للكلمة، والتي قد تكون الكلمة بأكملها.

على سبيل المثال، يمكن أن تشير كلمة مثل "itemize" إلى أجزاء "العنصر" (كلمة جذر) و"ize" (لاحقة)، يتم تمثيل كل منها الرمز المميز. يسمح تقسيم الكلمات غير المألوفة إلى مثل هذه الكلمات، التي تسمى كلمات فرعية، للعمل على الأجزاء المكونة الأكثر شيوعًا للكلمة، مثل البادئات واللاحقات.

في المقابل، قد لا يتم تقسيم الكلمات الشائعة مثل "going" وقد يتم تمثيلها برمز موحّد.

الملخّص

#TensorFlow

في TensorFlow، تكون قيمة أو مجموعة قيم محسوبة عند قيمة step، التي تُستخدَم عادةً لتتبُّع مقاييس النماذج أثناء التدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من خلال الميزات التصنيفات المقابلة. تعلُّم الآلة المراقَب مماثل إلى تعلم موضوع من خلال دراسة مجموعة من الأسئلة الإجابات المقابلة. بعد أن يتقن الطالب عملية الربط بين الأسئلة والكلمات الإجابية، يمكنه بعد ذلك تقديم إجابات عن أسئلة جديدة (لم يسبق له الاطّلاع عليها) حول الموضوع نفسه.

المقارنة بـ تعلُّم الآلة غير المُوجّه:

خاصية مصطنعة

#fundamentals

هناك ميزة غير موجودة ضمن ميزات الإدخال، ولكنها بعد تجميعها من واحد أو أكثر منها. طرق إنشاء ميزات اصطناعية ما يلي:

  • وضع حزمة كميزة مستمرة في سلال النطاقات
  • إنشاء تقاطع بين الميزات.
  • ضرب (أو قسمة) قيمة سمة واحدة في قيم سمات أخرى أو في نفسها على سبيل المثال، إذا كانت a وb سمتَي إدخال، إليك يلي مثالان على السمات المصطنعة:
    • ab
    • أ2
  • تطبيق دالة عليا على قيمة سمة. على سبيل المثال، إذا كانت c هي ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • ج(ج)
    • ln(c)

الميزات التي يتم إنشاؤها من خلال تسوية أو تحجيم وحدها لا تُعتبر ميزات اصطناعية.

T

T5

#language

تحويل النص إلى نص نقل التعلّم النموذج من تقديم تكنولوجيات الذكاء الاصطناعي من Google في 2020 T5 هو نموذج برنامج ترميز-لبرنامج فك الترميز استنادًا إلى بنية المحوّلات، مدرَّبة على قاعدة كبيرة جدًا مجموعة البيانات الأصلية. وهي فعّالة في مجموعة متنوعة من مهام معالجة اللغات الطبيعية، مثل إنشاء النصوص وترجمة اللغات والإجابة عن الأسئلة بطريقة حوارية.

اشتق اسم T5 من الأحرف الخمسة في "تحويل النص إلى نص".

T5X

#language

إطار عمل مفتوح المصدر لتعلُّم الآلة مصمّم لإنشاء نماذج معالجة لغات طبيعية (NLP) على نطاق واسع وتدريبها يتم تنفيذ T5 على قاعدة رموز T5X (وهو تم إنشاؤه على JAX وFlax).

التعلُّم الجدولي Q

#rl

في التعلم المعزّز، من المهم تنفيذ تعلُّم Q من خلال استخدام جدول لتخزين دوال Q لكل مجموعة من state وaction.

الاستهداف

مرادف لـ التصنيف.

الشبكة المستهدَفة

#rl

في التعرّف العميق على Q، هي شبكة عصبية تقريبية مستقرة للشبكة العصبية الرئيسية، حيث تنفِّذ الشبكة العصبية الرئيسية إما وظيفة Q أو سياسة. بعد ذلك، يمكنك تدريب الشبكة الرئيسية على قيم Q التي تنبأ بها القيمة المستهدفة الشبكة. وبالتالي، يمكنك منع حلقة الملاحظات والآراء التي تحدث عندما يتم تدريب الشبكة الرئيسية على قيم Q التي تتوقّعها بنفسها. ومن خلال تجنُّب هذه الملاحظات، يزداد ثبات التدريب.

المهمة

مشكلة يمكن حلّها باستخدام تقنيات تعلُّم الآلة، مثل:

درجة الحرارة

#language
#image
#generativeAI

مَعلمة فائقة تتحكّم في درجة العشوائية لمخرجات النموذج تؤدي درجات الحرارة الأعلى إلى نتائج عشوائية أكثر، بينما ينتج عن درجات الحرارة المنخفضة نتائج عشوائية أقل.

يعتمد اختيار أفضل درجة حرارة على التطبيق المحدّد والخصائص المفضّلة لمخرجات النموذج. على سبيل المثال، قد أن ترفع درجة الحرارة عند إنشاء تطبيق تؤدي إلى إنشاء مخرجات إبداعية. وعلى العكس، قد تعمل على خفض درجة حرارة عند إنشاء نموذج يصنف الصور أو النصوص من أجل تحسين دقة النموذج واتساقه.

غالبًا ما تُستخدَم درجة الحرارة مع السمة softmax.

البيانات حسب فترة زمنية محدّدة

البيانات المسجّلة في نقاط زمنية مختلفة على سبيل المثال، ستكون مبيعات المعاطف الشتوية المسجّلة لكل يوم من أيام السنة بيانات زمنية.

Tensor

#TensorFlow

هيكل البيانات الأساسي في برامج TensorFlow. وحدات Tensor هي هياكل بيانات خماسية الأبعاد (حيث يمكن أن يكون N كبيرًا جدًا)، وتكون عادةً وحدات عددية أو متجهات أو مصفوفات. يمكن أن تتضمن عناصر Tensor عددًا صحيحًا أو نقطة عائمة أو قيم السلسلة.

لوحة TensorBoard

#TensorFlow

لوحة البيانات التي تعرض الملخصات المحفوظة أثناء تنفيذ برنامج واحد أو أكثر من برامج TensorFlow

TensorFlow

#TensorFlow

منصة تعلُّم آلي موزّعة على نطاق واسع يشير المصطلح أيضًا إلى طبقة واجهة برمجة التطبيقات الأساسية في حِزمة TensorFlow، والتي تتيح العمليات الحسابية العامة على الرسومات البيانية لتدفق البيانات.

على الرغم من أنّ TensorFlow تُستخدَم بشكل أساسي للتعلم الآلي، يمكنك أيضًا استخدام TensorFlow للمهام غير المتعلّقة بالتعلم الآلي والتي تتطلّب عمليات حسابية رقمية باستخدام رسومات تدفق البيانات.

TensorFlow Playground

#TensorFlow

برنامج يعرض بصريًا مدى تأثير المَعلمات الفائقة المختلفة في تدريب النموذج (الشبكة العصبية بشكل أساسي). انتقِل إلى http://playground.tensorflow.org لتجربة TensorFlow Playground.

منصة TensorFlow للعرض

#TensorFlow

هي منصة لنشر نماذج مدرَّبة في الإنتاج.

وحدة معالجة الموتّرات (TPU)

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى دارة متكاملة خاصة بالتطبيق (ASIC) تُحسِّن أداء أعباء عمل التعلم الآلي. يتم نشر حالات ASIC هذه شرائح TPU متعددة على جهاز TPU

ترتيب المتّجه

#TensorFlow

اطّلِع على مقالة الترتيب (Tensor).

شكل الموتّر

#TensorFlow

عدد العناصر التي يحتوي عليها Tensor في أبعاد مختلفة. على سبيل المثال، يكون للـ [5, 10] Tensor بشكل 5 في بُعد واحد و10 في تقرير آخر.

حجم المتّجه

#TensorFlow

يشير ذلك المصطلح إلى إجمالي عدد القيم القياسية التي يحتوي عليها Tensor. على سبيل المثال، [5, 10] حجم Tensor 50.

TensorStore

مكتبة للقراءة الفعالة كتابة صفائف كبيرة متعددة الأبعاد.

شرط الإنهاء

#rl

في التعلُّم المعزّز، فإن الشروط التي تحديد وقت انتهاء الحلقة، مثل وقت وصول موظّف الدعم حالة معينة أو تتجاوز الحد الأدنى لعدد انتقالات الحالات. على سبيل المثال، في لعبة تيك تاك تو (المعروفة أيضًا باسم "صفر واحد")، تنتهي الحلقة عندما يضع أحد اللاعبين علامة على ثلاثة مربّعات متتالية أو عندما يتم وضع علامة على كلّ المربّعات.

اختبار

#df

في شجرة القرار، اسم آخر condition.

عدد الاختبار

#fundamentals

مقياس يمثّل خسارة النموذج مقابل مجموعة الاختبار. عند إنشاء نموذج، تحاول عادةً تقليل الخسارة في الاختبار. ويعود السبب في ذلك إلى أنّ انخفاض خسائر الاختبار يمثّل إشارة جودة أقوى من انخفاض خسائر التدريب أو انخفاض خسائر التحقّق.

وجود فجوة كبيرة بين خسارة الاختبار وفقدان التدريب أو خسارة التحقق في بعض الأحيان أنك بحاجة إلى زيادة معدّل تنظيم المحتوى:

مجموعة الاختبار

مجموعة فرعية من مجموعة البيانات المحجوزة لاختبار نموذج تم تدريبه

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. فعلى سبيل المثال، لا ينبغي أن ينتمي أحد الأمثلة إلى كل من مجموعة التطبيق مجموعة الاختبار.

ترتبط كلّ من مجموعة التدريب ومجموعة التحقّق ارتباطًا وثيقًا بتدريب النموذج. وبما أنّ مجموعة الاختبار مرتبطة بالتدريب بشكل غير مباشر فقط، فإنّ الخسارة في الاختبار هي مقياس أقل تحيزًا وذو جودة أعلى من الخسارة في التدريب أو الخسارة في التحقّق.

امتداد النص

#language

نطاق فهرس الصفيف المرتبط بقسم فرعي معيّن من سلسلة نصية. على سبيل المثال، تشغل الكلمة good في سلسلة Python s="Be good now" نطاق النص من 3 إلى 6.

tf.Example

#TensorFlow

ملف تخزين بروتوكول عادي لوصف بيانات الإدخال لتدريب نموذج تعلُّم الآلة أو الاستنتاج

tf.keras

#TensorFlow

تم دمج تنفيذ Keras في TensorFlow

الحد (لأشجار القرارات)

#df

في شرط مُحاذاً للمحور، هي القيمة التي تتم المقارنة بينها والعنصر. على سبيل المثال، 75 هو الحد المسموح به في الشرط التالي:

grade >= 75

تحليل السلاسل الزمنية

#clustering

يشير هذا المصطلح إلى حقل فرعي من تعلُّم الآلة والإحصاءات التي تحلِّل. البيانات الزمنية: تتطلّب العديد من أنواع مشاكل تعلُّم الآلة تحليل السلاسل الزمنية، بما في ذلك التصنيف والتجميع والتوقّعات واكتشاف القيم الشاذة. على سبيل المثال، يمكنك استخدام تحليل السلسلة الزمنية لتوقُّع المبيعات المستقبلية للمعاطف الشتوية حسب الشهر استنادًا إلى بيانات المبيعات السابقة.

خطوة الوقت

#seq

واحدة "غير معروضة" خلية داخل الشبكة العصبونية المتكرّرة. على سبيل المثال، يوضح الشكل التالي ثلاث خطوات زمنية (مسماة الرموز السفلية t-1 وt وt+1):

ثلاث خطوات زمنية في شبكة عصبية متكررة. تصبح ناتج
          الخطوة الزمنية الأولى مدخلاً للخطوة الزمنية الثانية. يصبح الناتج
          للخطوة الزمنية الثانية مدخلاً للخطوة الزمنية الثالثة.

رمز مميز

#language

في النموذج اللغوي، وهو الوحدة الذرية التي يستخدمها النموذج التدريب عليها وعمل التنبؤات عليها. عادةً ما يكون الرمز المميّز أحد العناصر التالية:

  • كلمة: على سبيل المثال، تتألف العبارة "الكلاب تحب القطط" من ثلاثة علامات كلمات: "الكلاب" و"تحب" و"القطط".
  • حرف — على سبيل المثال، عبارة "سمكة دراجة" يتكون من تسعة الرموز المميزة للأحرف. (يُرجى العِلم أنّ المسافة الفارغة تُحتسَب كأحد الرموز).
  • الكلمات الفرعية: يمكن أن تكون الكلمة الواحدة عبارة عن رمز موحّد أو رموز متعدّدة. تتكوّن الكلمة الفرعية من كلمة أصلية أو بادئة أو لاحقة. على سبيل المثال: النموذج اللغوي الذي يستخدم كلمات فرعية كرموز مميّزة قد يعرض كلمة "كلاب" كرمزين مميزين (كلمة الجذر "dog" ولاحقة الجمع "s"). قد ينظر نموذج اللغة نفسه إلى الكلمة الواحدة "أطول" على أنّها كلمتان فرعيتان (الكلمة الأساسية "طويل" واللاحقة "er").

وفي النطاقات خارج النماذج اللغوية، يمكن أن تمثل الرموز المميزة أنواعًا أخرى من فقط. على سبيل المثال، في مجال الرؤية الحاسوبية، قد يكون الرمز المميّز مجموعة فرعية من الصورة.

برج

هو أحد مكونات الشبكة العصبية العميقة التي نفسه شبكة عصبية عميقة. في بعض الحالات، يُقرأ كل برج من مصدر بيانات مستقل، وتظل هذه الأبراج مستقلة حتى يتم دمج المُخرجات في طبقة أخيرة. في حالات أخرى، (على سبيل المثال، في برج برنامج الترميز وبرنامج فك الترميز العديد من المحولات)، والأبراج لها روابط متقاطعة لبعضنا البعض.

TPU

#TensorFlow
#GoogleCloud

اختصار Tensor process Unit.

شريحة TPU

#TensorFlow
#GoogleCloud

مسرِّع جبر خطي قابل للبرمجة مزود بذاكرة ذات نطاق ترددي مرتفع على الرقاقة المحسَّنة لأعباء التعلم الآلي يتم نشر شرائح TPU متعددة على جهاز TPU.

جهاز TPU

#TensorFlow
#GoogleCloud

لوحة دائرة كهربائية مطبوعة (PCB) تتضمّن عدة شرائح TPU وواجهات الشبكة ذات النطاق الترددي العالي وأجهزة تبريد النظام.

وحدة معالجة الموتّرات الرئيسية

#TensorFlow
#GoogleCloud

عملية التنسيق المركزية التي تعمل على جهاز مضيف وتُرسِل ويتلقّى من خلاله البيانات والنتائج والبرامج والأداء ومعلومات صحة النظام ويُرسِلها إلى عمال وحدات معالجة الموتّرات يدير "جهاز التحكّم الرئيسي في TPU" أيضًا عملية إعداد أجهزة TPU وإيقافها.

عقدة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى مورد من وحدات معالجة الموتّرات على Google Cloud يتضمّن نوع TPU: تتصل عقدة وحدة معالجة الموتّرات VPC Network من شبكة VPC المشابهة تُعد عُقد وحدة معالجة الموتّر موردًا يتم تحديده في Cloud TPU API:

كبسولة بولي يورثان متلدّن بالحرارة

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى إعدادات معيَّنة لأجهزة معالجة الموتّرات في إحدى خدمات Google. مركز البيانات لدينا. جميع الأجهزة المضمّنة في حافظة TPU متصلة ببعضها بعضًا. عبر شبكة مخصصة عالية السرعة. تُعد وحدة TPU Pod أكبر تهيئة أجهزة معالجة الموتّرات المتوفّرة لإصدار معيَّن من وحدات معالجة الموتّرات

مورد وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

وحدة معالجة الموتّرات (TPU) على Google Cloud التي تنشئها أو تديرها أو تستهلكها على سبيل المثال، عقد TPU وأنواع TPU هي موارد TPU.

شريحة TPU

#TensorFlow
#GoogleCloud

شريحة TPU هي جزء كسري من أجهزة TPU في جهاز TPU Pod جميع الأجهزة المدرَجة في شريحة وحدة معالجة الموتّرات متصلة. ببعضهما البعض عبر شبكة مخصصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى إعدادات جهاز واحد أو أكثر من أجهزة معالجة الموتّرات التي تتضمّن وحدة معالجة خارجية. إصدار جهاز TPU يتم اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة TPU على Google Cloud. على سبيل المثال، v2-8 نوع وحدة معالجة الموتّرات هو جهاز واحد من نوع TPU v2 يتضمّن 8 أنوية. يتضمّن نوع v3-2048 من وحدات TPU ‏256 وحدة TPU v3 متصلة بشبكة وإجمالي 2048 نواة. أنواع وحدات معالجة الموتّرات هي موارد يتم تحديدها في Cloud TPU API.

عامل معالجة الموتّرات

#TensorFlow
#GoogleCloud

عملية يتم تشغيلها على جهاز مضيف وتنفيذ برامج تعلُّم الآلة على أجهزة TPU

التدريب

#fundamentals

عملية تحديد المَعلمات المثالية (الأوزان والتأثيرات المسبقة) التي تتألف منها النموذج أثناء التدريب، يقرأ النظام أمثلة ويتم تعديل المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل الخسارة للنموذج أثناء دورة تدريب معيّنة على سبيل المثال، لنفترض أنّ دالة الخسارة هي متوسط الخطأ التربيعي. وربما يكون خسارة التدريب (متوسط الخطأ المربع) للتكرار العاشر هو 2.2، وفقدان التدريب التكرار 100 هو 1.9.

يوضِّح منحنى الخسارة خسارة التدريب مقارنةً بعدد المرات المتكرّرة. يوفر منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير الانحدار لأسفل إلى أن النموذج يتحسن.
  • يشير الانحدار التصاعدي إلى أنّ أداء النموذج يزداد سوءًا.
  • يشير الانحدار المستقيم إلى أن النموذج قد وصل التقارب:

على سبيل المثال، يوضّح منحنى الخسارة التالي الذي يُعدّ مثاليًا إلى حدٍ ما ما يلي:

  • منحدر حادّ للأسفل أثناء النُسخ الأولية، ما يشير إلى تحسين النموذج بسرعة.
  • انحدار تدريجي (ولكن لا يزال لأسفل) حتى اقتراب النهاية من التدريب، وهو ما يعني استمرار تحسين النموذج إلى حدٍ ما بوتيرة أبطأ بعد ذلك أثناء التكرارات الأولية.
  • منحدر مستوٍ نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. ويبدأ منحنى الخسارة هذا
     مع انحدار حاد إلى الأسفل. يصبح المنحدر تدريجيًا مسطّحًا إلى أن يصبح المنحدر
    صفرًا.

على الرغم من أنّ فقدان البيانات أثناء التدريب مهم، يمكنك أيضًا الاطّلاع على التعميم.

الانحراف في تقديم البيانات التدريبية

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء التقديم

مجموعة تدريب

#fundamentals

مجموعة فرعية من مجموعة البيانات المستخدَمة لتدريب نموذج.

يتم تقسيم الأمثلة في مجموعة البيانات عادةً إلى المجموعات الفرعية التالية المميّزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

المسار

#rl

في التعلم التعزيزي، تشير تسلسلات المجموعات إلى تسلسل حالات انتقال العامل، حيث تتوافق كل مجموعة مع الحالة والإجراء المكافأة والحالة التالية لعملية انتقال حالة معيّنة.

التعلّم القائم على نقل البيانات

نقل المعلومات من مهمة تعلُّم آلي إلى أخرى على سبيل المثال، في التعلم المتعدّد المهام، يحلّ نموذج واحد مهام متعددة، مثل النموذج العميق الذي يتضمّن عقد إخراج مختلفة للمهام المختلفة. قد يتضمن التعلم الآلي نقل المعرفة من حل مهمة أبسط إلى أخرى أكثر تعقيدًا، أو أن تتضمن نقل المعرفة من مهمة يوجد بها المزيد من البيانات إلى مكان تنخفض البيانات.

حلّ معظم أنظمة تعلُّم الآلة مهمة واحدة. تعلم النقل هو خطوة جديدة نحو الذكاء الاصطناعي حيث يمكن لبرنامج واحد أن يحلّ متعددة.

المحوّل

#language

يشير هذا المصطلح إلى بنية للشبكة العصبونية التي تم تطويرها في Google. على آليات الانتباه الذاتي لتحويل تسلسل تضمينات الإدخال في تسلسل للمخرجات التضمينات بدون الاعتماد على عمليات الدمج أو الشبكات العصبونية المتكررة. يمكن النظر إلى نموذج Transformer على أنّه حزمة من طبقات الانتباه الذاتي.

يمكن أن يتضمّن المحوِّل أيًا مما يلي:

يحوّل برنامج الترميز تسلسلًا من عمليات التضمين إلى تسلسل جديد بالطول نفسه. يتضمّن برنامج الترميز N طبقات متطابقة، تحتوي كلّ طبقة منها على مرحلتين فرعيتين. يتم تطبيق هاتَين الطبقتَين الفرعيتَين في كل موضع من موضع الإدخال تسلسل تضمين، وتحويل كل عنصر من عناصر التسلسل إلى عنصر جديد التضمين. وتجمع الطبقة الفرعية الأولى لبرنامج الترميز المعلومات من تسلسل الإدخال. وتعمل الطبقة الفرعية الثانية في برنامج التشفير على تحويل القيم المعلومات في تضمين مخرجات.

يحوّل برنامج فك الترميز سلسلة من تضمينات الإدخالات إلى تسلسل تضمينات الإخراج، وربما ذات طول مختلف. يتضمن برنامج فك الترميز أيضًا N من الطبقات المتماثلة بها ثلاث طبقات فرعية، اثنتان منها تشبهان الطبقات الفرعية لبرنامج الترميز تأخذ الطبقة الفرعية الثالثة لفك التشفير ناتج التشفير وتطبّق آلية التركيز الذاتي لجمع المعلومات منه.

تقدّم مشاركة المدونة Transformer: A Novel Neural Network Architecture for Language Understanding مقدمة جيدة عن نموذج التحويل Transformer.

الثبات الانتقالي

#image

في مشكلة تصنيف الصور، هي قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغيّر موضع الأجسام داخل الصورة. على سبيل المثال، لا تزال الخوارزمية قادرة على التعرّف على كلب، سواء كان في وسط الإطار أو على يمينه.

اطّلِع أيضًا على الثبات الحجمي و الثبات الدوراني.

مثلث

#seq
#language

ن غرام يكون فيه N=3.

سالب صحيح (TN)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة السلبية. على سبيل المثال، يستنتج النموذج أنّ رسالة بريد إلكتروني معيّنة ليست رسالة غير مرغوب فيها، وأنّ رسالة البريد الإلكتروني هذه هي ليست رسالة غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح بال الفئة الموجبة. على سبيل المثال، يستنتج النموذج أنّه هناك رسالة إلكترونية معيّنة غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية غير مرغوب فيها حقًا.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف الاستدعاء. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

يمثّل معدل الموجب الصحيح محور y في منحنى خاصية تشغيل جهاز الاستقبال.

U

عدم المعرفة (بسمة حسّاسة)

#fairness

حالة تتوفّر فيها السمات الحسّاسة، ولكنّها غير مضمّنة في بيانات التدريب ولأنّ السمات الحسّاسة غالبًا ما تكون مرتبطة بسمات أخرى من بيانات المستخدم، قد يظلّ للنموذج الذي تم تدريبه بدون معرفة بسمة حسّاسة أثره العميق في التأثير غير المتكافئ في ما يتعلّق بهذه السمة، أو قد ينتهك قيود العدالة الأخرى.

فرط التعميم

#fundamentals

إنتاج نموذج بقدرة ضعيفة على التنبؤ لأن النموذج لم يلتقط تعقيد بيانات التدريب بشكل كامل. العديد من المشاكل إلى فرط التعميم، بما في ذلك:

التقليل من العيّنات

إزالة أمثلة من درس لغوي في مجموعة بيانات غير متوازنة في الفئة من أجل إنشاء مجموعة تدريب متوازنة.

على سبيل المثال، نأخذ مجموعة بيانات تكون فيها نسبة الفئة الأكثر تمثيلاً إلى الفئة الأقل تمثيلاً هي 20:1. للتغلب على هذا الفصل غير متوازن، يمكنك إنشاء مجموعة تدريب تتكون من كل أعضاء الأقلية أمثلة الفئات ولكن فقط عُشر أمثلة الفئة الأغلبية، والتي من شأنها إنشاء نسبة 2:1 لفئة مجموعة التطبيق. وبفضل التقليل من حجم العيّنات، مجموعة تدريب متوازنة قد ينتج عنها نموذج أفضل. بدلاً من ذلك، قد تحتوي هذه المجموعة التدريبية الأكثر توازناً على أمثلة غير كافية لتدريب نموذج فعّال.

يختلف ذلك عن زيادة أخذ العينات.

أحادي الاتجاه

#language

يشير ذلك المصطلح إلى نظام يقيّم فقط النص الذي يسبق قسمًا مستهدَفًا من النص. وفي المقابل، يقيّم النظام الثنائي الاتجاه كلاً من نص يسبق ويتبع قسمًا مستهدَفًا من النص. اطّلِع على الاتصال الثنائي الاتجاه للحصول على مزيد من التفاصيل.

نموذج لغوي أحادي الاتجاه

#language

نموذج لغوي يستند إلى الاحتمالات فقط على الرموز التي تظهر قبل الرموز المستهدفة وليس بعدها التباين مع النموذج اللغوي الثنائي الاتجاه.

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات بدون تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنَّفة من منزل. نموذج تقييم، لكل منها ثلاث ميزات ولكن بدون قيمة للشركة نفسها:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المُراقَب، يتم تدريب النماذج على أمثلة مصنّفة وإجراء توقّعات بشأن أمثلة غير مصنّفة.

يخضع للإشراف شبه خاضع للإشراف غير الخاضع للإشراف استخدام الأمثلة غير المصنفة أثناء التدريب.

قارِن بين المثال غير المصنّف والمثال المصنّف.

التعلم الآلي غير المُوجّه

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، عادةً ما تكون مجموعة بيانات غير مصنّفة

الاستخدام الأكثر شيوعًا للتعلم الآلي غير المُوجّه هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن أن تجمع خوارزمية التعلم الآلي غير الخاضعة للإشراف الأغاني استنادًا إلى خصائص مختلفة للموسيقى. يمكن أن تصبح المجموعات العنقودية الناتجة مدخلاً لأجهزة أخرى خوارزميات التعلّم (على سبيل المثال، خدمة اقتراح الموسيقى). يمكن أن يكون التجميع العنقودي مفيدًا عندما تكون التصنيفات المفيدة قليلة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعدك المجموعات البشر على فهم البيانات بشكل أفضل.

يختلف هذا النوع عن تعلُّم الآلة المراقَب.

وضع نماذج للإحالات الناجحة

أسلوب وضع نماذج، شائع الاستخدام في التسويق، يضع نماذج لمحاولة قياس "التأثير السببي" (المعروف أيضًا باسم "التأثير المتزايد") لمحاولة قياس أثر "العلاج" على "فرد". وإليك مثالان:

  • قد يستخدم الأطباء نمذجة التحسين للتنبؤ بانخفاض معدل الوفيات (التأثير السببي) لإجراء طبي (العلاج) اعتمادًا على العمر والتاريخ الطبي للمريض (فرد).
  • قد تستخدم جهات التسويق نمذجة التحسين لتوقُّع الزيادة في احتمالية الشراء (التأثير السببي) بسبب إعلان (المجموعة التجريبية) على شخص (فردي).

تختلف نمذجة التحسين عن التصنيف أو الانحدار في أن بعض التصنيفات (على سبيل المثال، نصف التصنيفات في العلاجات الثنائية) مفقودة في نمذجة التحسين. على سبيل المثال، يمكن أن يتلقّى المريض علاجًا أو لا يتلقّى علاجًا، وبالتالي، لا يمكننا مراقبة ما إذا كان المريض سيتعافى أو لن يتعافى إلا في أحد هذين الحالتَين فقط (وليس في كليهما). تتمثل الميزة الرئيسية لنموذج التأثير في أنّه يمكنه إنشاء توقّعات للحالة غير المرصودة (الحالة البديلة) واستخدامها لاحتساب التأثير السببي.

زيادة الوزن

تطبيق الترجيح على الفئة المستندة إلى عيّنات مخفّضة يساوي إلى العامل الذي قمت بأخذ عينة منه.

مصفوفة المستخدِمين

#recsystems

في أنظمة الاقتراحات، هو مصفوفة إدراج يتم إنشاؤها من خلال تحليل مصفوفة التي تحتوي على إشارات كامنة عن الإعدادات المفضّلة للمستخدم. يحتوي كل صف من صفائف المستخدِمين على معلومات عن القوة النسبية للإشارات الكامنة المختلفة لمستخدِم واحد. على سبيل المثال، ضع في اعتبارك نظام اقتراح الأفلام. في هذا النظام، قد تمثّل الإشارات الكامنة في مصفوفة المستخدمين اهتمام كل مستخدم في أنواع معينة، أو قد يكون من الصعب تفسيرها إشارات تتضمن للتفاعلات المعقدة عبر عوامل متعددة.

تحتوي مصفوفة المستخدِمين على عمود لكلّ سمة كامنة وصفّ لكلّ مستخدِم. وهذا يعني أنّ مصفوفة المستخدِمين تحتوي على عدد الصفوف نفسه الذي تحتوي عليه المصفوفة المستهدَفة التي يتمّ تجزئتها. على سبيل المثال، في حال توفّر نظام اقتراح أفلام لمليون مستخدم، ستتضمّن Matrix المستخدمين مليون صف.

V

الإثبات

#fundamentals

التقييم الأولي لجودة أحد النماذج. تتحقّق عملية التحقّق من جودة توقّعات النموذج مقارنةً ب مجموعة التحقّق.

ولأن مجموعة التحقق من الصحة تختلف عن مجموعة التدريب، ويساعد التحقق من الصحة في الحماية من الإفراط في التوافق.

يمكنك اعتبار تقييم النموذج مقارنةً بمجموعة التحقّق هو المحاولة الأولى للاختبار، وتقييم النموذج مقارنةً ب مجموعة الاختبار هي المحاولة الثانية للاختبار.

فقدان التحقّق

#fundamentals

مقياس يمثّل الخسارة للنموذج على مجموعة التحقّق خلال تكرار معيّن من التدريب

راجِع أيضًا منحنى التعميم.

مجموعة التحقّق من الصحة

#fundamentals

مجموعة فرعية من مجموعة البيانات التي تُجري تقييمًا أولى مقارنةً بنموذج تم تدريبه. عادةً ما يتم تقييم النموذج المدّرب على مجموعة التحقّق عدة مرات قبل تقييم النموذج على مجموعة الاختبار.

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، ينبغي ألا ينتمي مثال واحد إلى كل من مجموعة التطبيق ومجموعة التحقق من الصحة.

احتساب القيمة

عملية استبدال قيمة غير متوفّرة بقيمة بديلة مقبولة عندما تكون إحدى القيم غير متوفّرة، يمكنك إما تجاهل المثال بأكمله أو يمكنك استخدام الاستدلال على القيم لإنقاذ المثال.

على سبيل المثال، نأخذ مجموعة بيانات تحتوي على سمة temperature من المفترض تسجيلها كل ساعة. ومع ذلك، كانت قراءة درجة الحرارة غير متاحة لساعة معيّنة. فيما يلي قسم من مجموعة البيانات:

الطابع الزمني درجة الحرارة
1680561000 10
1680564600 12
1680568200 غير متاحة
1680571800 20
1680575400 21
1680579000 21

يمكن للنظام حذف المثال غير المتوفّر أو تقدير قيمة درجة الحرارة غير المتوفّرة على أنّها 12 أو 16 أو 18 أو 20، وذلك استنادًا إلى خوارزمية الاستنتاج.

مشكلة تلاشي التدرّج

#seq

ميل تدرجات الطبقات المخفية الأولى من بعض الشبكات العصبية العميقة مسطّح بشكل مدهش (منخفض). تؤدي التدرجات الأقلّ انخفاضًا بشكلٍ متزايد إلى تغييرات أصغر في الأوزان على العقد في شبكة عصبية عميقة، ما يؤدي إلى تعلُّم قليل أو بدون تعلُّم. نماذج تعاني من مشكلة التلاشي المتلاشى تصبح من الصعب أو المستحيل تدريبها. تعالج خلايا الذاكرة القصيرة المدى هذه المشكلة.

قارِن ذلك بمشكلة التدرّج المتزايد.

الأهمية المتغيرة

#df

مجموعة من الدرجات التي تشير إلى الأهمية النسبية لكل منها الميزة على النموذج.

على سبيل المثال، نأخذ شجرة قرارات تُقدّر أسعار المنازل. لنفترض أنّ شجرة القرار هذه تستخدم ثلاث سمات: المقاس والعمر والأسلوب. إذا كانت هناك مجموعة من القيم المتغيرة يتم حساب الميزات الثلاثة {size=5.8, age=2.5, style=4.7}، فإن الحجم أكثر أهمية بالنسبة شجرة القرارات من العمر أو النمط.

توجد مقاييس مختلفة للأهمية المتغيرة، والتي يمكن أن تفيد خبراء في تعلُّم الآلة حول الجوانب المختلفة للنماذج.

الترميز التلقائي التنوّعي (VAE)

#language

نوع من برامج الترميز التلقائي التي تستفيد من التباين بين المدخلات والمخرجات لإنشاء نُسخ معدلة من المدخلات. تُعدّ برامج الترميز التلقائي المتنوّعة مفيدة للذكاء الاصطناعي التوليدي.

تعتمد قيم VAE على الاستنتاج المختلف: وهو أسلوب لتقدير معاملات نموذج الاحتمال.

المتّجه

مصطلح يحمل العديد من المعاني ويختلف معناه في مختلف المجالات الحسابية والعلمية. في مجال تعلُّم الآلة، يمتلك المتجه سمتَين:

  • نوع البيانات: عادةً ما تحتوي المتجهات في التعلم الآلي على أرقام النقطة العائمة.
  • عدد العناصر: وهو طول المتّجه أو بُعده.

على سبيل المثال، ضع في الاعتبار متجه ميزات يحتوي على ثمانية أرقام نقطية عائمة. طول الخط المتجه هذا أو أبعاده ثمانية. يُرجى العِلم أنّ متجهات تعلُّم الآلة غالبًا ما تحتوي على عدد كبير من السمات.

يمكنك تمثيل العديد من الأنواع المختلفة من المعلومات على شكل متجه. على سبيل المثال:

  • يمكن تمثيل أي موضع على سطح الأرض على أنّه اتجاه ثنائي الأبعاد، حيث يكون أحد الأبعاد هو خط العرض والآخر هو خط الطول.
  • يمكن تمثيل الأسعار الحالية لكل من 500 سهم على شكل vektor ببعد 500.
  • يمكن تمثيل طريقة توزيع الاحتمالية على عدد محدود من الفئات باستخدام متجه. على سبيل المثال، للتصنيف متعدد الفئات الذي يتنبأ بأن أحد ألوان الإخراج الثلاثة (أحمر أو أخضر أو أصفر) يمكن أن يؤدي إلى إخراج الخط المتجه (0.3, 0.2, 0.5) يعني P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

يمكن إجراء تسلسل للخطوط المتجهة؛ وبالتالي يمكن استخدام مجموعة متنوعة من الوسائط ممثلة كمتجه واحد. تعمل بعض النماذج مباشرةً على سلسلة من ترميزات واحدة سريعة

تم تحسين معالِجات البيانات المتخصّصة مثل وحدات معالجة الموتّرات لتنفيذ مهامك. العمليات الرياضية على المتجهات.

المتجه هو tensor للمقياس الترتيب 1.

واط

خسارة "فاسرشتاين"

إحدى دوالّ الخسارة المستخدَمة بشكل شائع في الشبكات التوليدية التنافسية، استنادًا إلى مسافة محو الأرض بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها نموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، ويُعدّ الاستنتاج عملية استخدام هذه الأوزان المستندة إلى التعلّم بهدف التوقّعات.

المربّعات الصغرى البديلة المرجحة (WALS)

#recsystems

خوارزمية لتقليل الدالة الموضوعية أثناء تحليل المصفوفات في أنظمة الاقتراحات، ما يسمح بمحاولة تقليل أهمية الأمثلة غير المتوفّرة. تقلل WALS القيمة المرجحة هناك خطأ تربيعي بين المصفوفة الأصلية وإعادة البناء من خلال أو التبديل بين إصلاح تحليل الصفوف إلى عواملها وتحليل الأعمدة. يمكن حلّ كل من هذه التحسينات باستخدام المربعات الصغرى تحسين البث المباشر: لمعرفة التفاصيل، يُرجى الاطّلاع على دورة "أنظمة الاقتراحات".

مجموع مركّز

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في الأوزان المقابلة لها على سبيل المثال، لنفترض أن المدخلات ذات الصلة تتكون مما يلي:

القيمة التي تم إدخالها وزن الإدخال
2 1.3-
-1 0.6
3 0.4

وبالتالي، فإنّ المجموع المرجح هو:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال دالة التفعيل.

نموذج واسع

نموذج خطي يتضمّن عادةً العديد من سمات الإدخال المتفرقة. نشير إليه باسم "واسع النطاق" لأنّه يمثّل هذا النموذج نوعًا خاصًا من الشبكات العصبية التي تتضمّن عددًا كبيرًا من المدخلات التي تتصل مباشرةً بعقدة الإخراج. غالبًا ما يكون من الأسهل تصحيح أخطاء النماذج الواسعة النطاق والتحقّق منها مقارنةً بالنماذج العميقة. على الرغم من أنّ النماذج الواسعة النطاق لا يمكنها التعبير عن الوظائف غير الخطية من خلال الطبقات المخفية، يمكن للنماذج الواسعة النطاق استخدام عمليات التحويل مثل تداخل السمات والتجميع لنمذجة الوظائف غير الخطية بطرق مختلفة.

تباين مع النموذج العميق.

العرض

عدد الخلايا العصبية في طبقة معيّنة من الشبكة العصبية.

حكمة الحشود

#df

فكرة أن متوسط آراء أو تقديرات مجموعة كبيرة من الأشخاص ("الحشود") غالبًا ما تؤدي إلى نتائج جيدة بشكل مدهش. على سبيل المثال، ضع في الاعتبار لعبة يخمّن فيها الأشخاص عدد حبوب الجيلي معبأة في وعاء كبير. على الرغم من أن معظم الأفراد أن تكون التخمينات غير دقيقة، فإن متوسط جميع التخمينات بشكل تجريبي قريب من العدد الفعلي حبوب الجيلي في إناء.

المجموعات هي تقنية برمجية تستند إلى حكمة الحشود. حتى إذا كانت النماذج الفردية تقدّم توقّعات غير دقيقة على الإطلاق، فإنّ جمع توقّعات العديد من النماذج يؤدي في أغلب الأحيان إلى توقّعات جيدة بشكل مفاجئ. على سبيل المثال، على الرغم من أنّه قد تُقدّم شجرة قرار فردية تنبؤات ضعيفة، غالبًا ما تُقدّم غابة قرارات تنبؤات جيدة جدًا.

تضمين الكلمات

#language

تمثيل كل كلمة في مجموعة كلمات ضمن مصفوفة إدراج، أي تمثيل كل كلمة كأحد مصفوفات القيم الكسورية العشرية التي تتراوح بين 0.0 و1.0 كلمات متشابهة المعاني لها تمثيلات أكثر تشابهًا من الكلمات ذات المعاني المختلفة. على سبيل المثال، سيكون لكل من الجزر والهليون والخيار تمثيلات مشابهة نسبيًا، والتي ستكون مختلفة جدًا عن تمثيلات الطائرة والنظارات الشمسية ومعجون الأسنان.

X

XLA (الجبر الخطي المُسرَّع)

وهو عبارة عن برنامج ترجمة مفتوح المصدر لتعلُّم الآلة لوحدات GPU ووحدات المعالجة المركزية ووحدات تسريع تعلُّم الآلة.

يأخذ برنامج XLA Compiler النماذج من إطارات عمل تعلُّم الآلة الشائعة، مثل PyTorch و TensorFlow وJAX، ويُحسِّنها لتحقيق أداء عالي على منصات الأجهزة المختلفة، بما في ذلك وحدات معالجة الرسومات ووحدات المعالجة المركزية ومُسرِّعات تعلُّم الآلة.

Z

التعلُّم بلا مثال

هو نوع من تدريب تعلُّم الآلة حيث يتم يستنتج النموذج تنبؤًا لمهمة ما لم يتم التدريب عليه بالفعل. أو بعبارةٍ أخرى، يحدد النموذج لا يتم إعطائه أي أمثلة تدريبية خاصة بالمهمة، لكن تم طرح سؤال إجراء الاستنتاج لهذه المهمة.

الطلب بلا مثال

#language
#generativeAI

طلب لا يقدّم لك مثالاً على الطريقة التي تريد اتّباعها نموذج لغوي كبير للاستجابة. على سبيل المثال:

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عنه "نموذج اللغة المحوسبة"
الهند: طلب البحث الفعلي

قد يردّ النموذج اللغوي الكبير بأيّ مما يلي:

  • روبية
  • INR
  • ر.ه.‏
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

جميع الإجابات صحيحة، ولكن قد تفضّل تنسيقًا معيّنًا.

حدِّد أوجه التشابه والاختلاف بين الطلب بدون لقطة مع المصطلحات التالية:

تسوية الدرجة المعيارية

#fundamentals

أسلوب تصغير يستبدل قيمة السمة الأوّلية بقيمة عشرية تمثل عدد الانحرافات المعيارية عن متوسّط تلك السمة. على سبيل المثال، لنفترض أنّ قيمة السمة المتوسطة هي 800 وأنّ الانحراف المعياري هو 100. ويوضح الجدول التالي كيفية تسوية الدرجة المعيارية يقوم بتعيين القيمة الأولية إلى الدرجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

يتدرب نموذج التعلم الآلي بعد ذلك على درجات Z لهذه الميزة بدلاً من القيم الأولية.