مسرد مصطلحات تعلُم الآلة

يحدد مسرد المصطلحات هذا المصطلحات العامة للتعلم الآلي، بالإضافة إلى المصطلحات الخاصة بـ TensorFlow.

A

الازدواج

أسلوب لتقييم أهمية ميزة أو مكوّن من خلال إزالته مؤقتًا من نموذج. يمكنك حينئذٍ إعادة تدريب النموذج بدون تلك الميزة أو المكون، وإذا تمت إعادة تدريب النموذج يعمل بشكل أسوأ بكثير، فقد تم إيقاف الميزة أو المكون الذي تمت إزالته أمرًا مهمًا على الأرجح.

على سبيل المثال، لنفترض أنك تدرّب نموذج التصنيف على 10 ميزات وتحقيق دقة% 88 في مجموعة الاختبار: للتأكّد من الأهمية الميزة الأولى، يمكنك إعادة تدريب النموذج باستخدام الميزات التسعة الأخرى الجديدة. فإذا كان أداء النموذج المُعاد تدريبه أسوأ بكثير (على سبيل المثال، بدقة 55٪)، فقد كانت الميزة التي تمت إزالتها مهمة على الأرجح. وعلى العكس، إذا كان أداء النموذج المُعاد تدريبه جيدًا بنفس القدر، فمن المحتمل أن ليس بهذه الأهمية.

يمكن أن يساعد الاكتئاب أيضًا في تحديد أهمية ما يلي:

  • المكونات الأكبر حجمًا، مثل نظام فرعي كامل لنظام تعلُّم الآلة الأكبر
  • العمليات أو التقنيات، مثل خطوة المعالجة المسبقة للبيانات

في كلتا الحالتين، ستلاحظ كيفية تغير أداء النظام (أو لا يتغير) بعد إزالة المكون.

اختبار A/B

طريقة إحصائية لمقارنة أسلوبين (أو أكثر) - أسلوب أ وب. وعادةً ما يكون الحرف A هو أسلوب حالي، B هي تقنية جديدة. لا يقتصر اختبار A/B على تحديد الأسلوب الأفضل أداءً فحسب. وكذلك ما إذا كان الفرق ذا دلالة إحصائية.

يقارن اختبار أ/ب عادةً مقياس واحد على طريقتين: على سبيل المثال، كيف يقارن دقة النموذج بين التقنيات؟ في المقابل، بإمكان اختبار أ/ب أيضًا مقارنة أي عدد محدود من والمقاييس.

شريحة مسرِّعة

#GoogleCloud

يشير هذا المصطلح إلى فئة من مكوّنات الأجهزة المتخصصة المصمّمة لأداء مفاتيح التشفير. العمليات الحسابية اللازمة لخوارزميات التعلم المتعمق.

يمكن أن تؤدي شرائح مسرِّعة الأعمال (أو ما يُعرف مسرِّعات الأعمال فقط) إلى التأثير بشكل كبير زيادة سرعة وكفاءة التدريب ومهام الاستنتاج مقارنةً بوحدة المعالجة المركزية للأغراض العامة. تعد مثالية لتدريب والشبكات العصبية والمهام الحاسوبية المماثلة.

تشمل الأمثلة على شرائح التسريع ما يلي:

  • وحدات معالجة Tensor من Google (TPU) مع أجهزة مخصّصة للتعلم المتعمق.
  • على الرغم من أن وحدات معالجة الرسومات من NVIDIA مصممة في البداية لمعالجة الرسومات، لتمكين المعالجة المتوازية، والتي قد ينتج عنها وزيادة سرعة المعالجة.

الدقة

#fundamentals

عدد توقّعات التصنيف الصحيحة مقسومًا على إجمالي عدد التنبؤات. والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، قد ينتج عن نموذج قدم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة التوقعات سيكون لها دقة:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء معيّنة للفئات المختلفة من التوقعات الصحيحة عبارات بحث مقترحة غير صحيحة إذًا، معادلة الدقة للتصنيف الثنائي هي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

تحديد أوجه الاختلاف والتشابه بين الدقة الدقة استدعاء

إجراء

#rl

في مجال التعلّم المعزّز، الآلية التي يمكن من خلالها الوكيل الانتقالات بين حالات البيئة. يختار الوكيل الإجراء باستخدام السياسة:

دالّة التفعيل

#fundamentals

يشير هذا المصطلح إلى دالة تتيح للشبكات العصبونية تعلُّم. العلاقات غير الخطية (المعقدة) بين العناصر والتسمية.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط أبدًا خطوطًا مفردة مستقيمة. على سبيل المثال، يتألف مخطط دالة تفعيل ReLU من خطين مستقيمين:

مخطط الديكارتي مكون من سطرين. السطر الأول له عدد ثابت
          قيمة y تساوي 0، وتتحرك على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. انحدار هذا الخط بمقدار +1، وبالتالي
          فهي تتراوح من 0,0 إلى +اللانهائية،+اللانهائية.

يبدو مخطط دالة التفعيل السيني على النحو التالي:

مخطط منحن ثنائي الأبعاد بقيم x تمتد عبر المجال
          من اللانهائية إلى +الموجب، بينما تمتد قيم ص في النطاق من 0 تقريبًا إلى
          تقريبًا 1. عندما تساوي x 0، تكون y تساوي 0.5. وعادة ما يكون انحدار المنحنى
          موجب، وأعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًا
          الانحدار مع زيادة القيمة المطلقة لـ x.

التعلّم النشط

نهج تدريب يمكن فيه تختار بعض البيانات التي تتعلم منها. التعلُّم النشط تكون ذات قيمة خاصة عند استخدام أمثلة مصنَّفة محدودة أو مكلفة للحصول عليها. وبدلاً من البحث الأعمى عن نظام من الأمثلة المصنَّفة، تبحث خوارزمية التعلم النشط بشكل انتقائي النطاق المحدد من الأمثلة التي يحتاجها للتعلم.

AdaGrad

وهي خوارزمية متطورة لخورازمية انحدار التدرج تعمل على إعادة تقييم تدرج لكل معلمة، ما يؤدي بشكل فعال إلى تحديد كل معلمة معدّل التعلّم المستقل. للحصول على الشرح الكامل، يُرجى الاطّلاع على هذه الأبحاث التي أجرتها "أداغراد".

وكيل

#rl

في مجال التعلّم المعزّز، الكيان الذي يستخدم السياسة لزيادة العائد المتوقّع الذي يتم تحقيقه من تنتقل بين حالات البيئة.

بشكل أكثر عمومية، الوكيل هو برنامج يخطط وينفذ بشكل مستقل سلسلة من الإجراءات سعيًا إلى تحقيق الهدف، مع القدرة على التكيّف مع التغييرات في بيئته. على سبيل المثال، قد يستخدم الوكيل المستند إلى LLM إنشاء خطة النماذج اللغوية الكبيرة بدلاً من تطبيق سياسة تعلُّم تعزيزي

التجميع من الأسفل إلى الأعلى

#clustering

اطّلِع على التجميع الهرمي.

رصد القيم الشاذة

عملية تحديد القيم الشاذّة. على سبيل المثال، إذا كان المتوسط ميزة معينة هي 100 بانحراف معياري يبلغ 10، فمن المفترض أن يضع اكتشاف القيم الشاذة علامة 200 على أنها مريبة.

الأرجنتين

اختصار الواقع المعزّز.

المساحة تحت منحنى PR

يمكنك الاطّلاع على PR AUC (المنطقة التي تقع تحت منحنى PR).

المساحة تحت منحنى ROC

اطّلِع على المساحة أسفل منحنى خاصية تشغيل جهاز الاستقبال).

الذكاء الاصطناعي العام

آلية غير بشرية تعرض مجموعة واسعة من حلّ المشاكل والإبداع والقدرة على التكيف. على سبيل المثال، برنامج يوضح يمكن للذكاء العام ترجمة النصوص وإنشاء سيمفونيات وإتقان الألعاب التي لم يتم اختراعها بعد.

الذكاء الاصطناعي

#fundamentals

برنامج غير بشري أو نموذج يمكنه حلّ المهام المعقّدة. على سبيل المثال، يمكن استخدام برنامج أو نموذج يترجم نصًا أو برنامجًا أو نموذجًا تحدد الأمراض من خلال الصور الإشعاعية من خلال الذكاء الاصطناعي.

ومن الناحية الرسمية، يمثّل تعلُّم الآلة أحد المجالات الفرعية للتعلُّم الآلي منه. إلا أن بعض المنظمات بدأت في السنوات الأخيرة في استخدام المصطلحين الذكاء الاصطناعي والتعلم الآلي بالتبادل.

تنبيه

#language

آلية مستخدمة في شبكة عصبية تشير إلى أهمية كلمة معينة أو جزء من كلمة ما. ضغط الانتباه كمية المعلومات التي يحتاجها النموذج للتنبؤ بالرمز/الكلمة التالية. قد تتكون آلية الانتباه النموذجية من المجموع المرجح على مجموعة من المدخلات، حيث يتم احتساب الوزن لكل إدخال من خلال جزء آخر من الشبكة العصبية.

يمكنك أيضًا مراجعة الاهتمام الذاتي الانتباه الذاتي متعدد الرؤوس، وهي الوحدات الأساسية في المحوّلات.

سمة

#fairness

مرادف لـ feature.

وفي إنصاف التعلم الآلي، تشير السمات غالبًا إلى السمات الشخصية المتعلقة بالأفراد.

تحليل عيّنات السمات

#df

تكتيك لتدريب غابة اتخاذ القرارات حيث يتم اتخاذ كل تنظر شجرة القرار في مجموعة فرعية عشوائية فقط من البيانات المحتملة الميزات عند التعرّف على الحالة. بوجه عام، يتم أخذ عينات من مجموعة فرعية مختلفة من الميزات لكل عقدة: في المقابل، عند تدريب شجرة قرارات دون أخذ عينات السمات، يتم النظر في جميع الخصائص الممكنة لكل عقدة.

المساحة تحت منحنى ROC

#fundamentals

رقم بين 0.0 و1.0 يمثل ونموذج التصنيف الثنائي القدرة على فصل الصفوف الإيجابية عن فئات سلبية: فكلما اقتربت قيمة AUC من 1.0، زادت قدرة النموذج على فصل الصفوف من بعضها البعض.

على سبيل المثال، يُظهر الرسم التوضيحي التالي نموذجًا لأحد المصنِّفات. يفصل الفئات الإيجابية (الأشكال البيضاوية الخضراء) عن الفئات السالبة (مستطيلات أرجوانية) تمامًا. يحتوي هذا النموذج غير الواقعي على قيمة AUC بقيمة 1.0:

سطر أرقام يحتوي على 8 أمثلة موجبة على جانب واحد
          9 أمثلة سلبية من ناحية أخرى.

وبالعكس، يعرض الرسم التوضيحي التالي نتائج أحد المصنِّفات. النموذج الذي أنشأ نتائج عشوائية. تبلغ قيمة AUC لهذا النموذج 0.5:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          ويكون تسلسل الأمثلة إيجابيًا وسلبيًا
          إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي
          سلبي، إيجابي، سلبي.

نعم، تساوي قيمة AUC في النموذج السابق 0.5 وليس 0.0.

تقع معظم النماذج في مكان ما بين الطرفين. على سبيل المثال، النموذج التالي يفصل بين الإيجابيات والسلبيات إلى حد ما، وبالتالي تتراوح قيمة AUC بين 0.5 و1.0:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          فإن تسلسل الأمثلة هو سالب، سلبي، سالب، سلبي،
          إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي،
          إيجابية.

تتجاهل AUC أي قيمة قمت بتعيينها الحد الأدنى للتصنيف. بدلاً من ذلك، يتم استخدام في الاعتبار جميع حدود التصنيف الممكنة.

الواقع المعزّز

#image

يشير هذا المصطلح إلى تكنولوجيا يتم فيها تركيب صورة يُنشِئها الكمبيوتر على وجهة نظر المستخدم. العالم الواقعي، وبالتالي توفر عرضًا مُركبًا.

برنامج ترميز تلقائي

#language
#image

يشير هذا المصطلح إلى نظام يتعلّم كيفية استخراج أهم المعلومات من إدخال. برامج الترميز التلقائي هي مزيج من برامج الترميز برنامج فك الترميز: تعتمد برامج الترميز التلقائي على العملية التالية المؤلفة من خطوتَين:

  1. يربط برنامج الترميز الإدخال بأبعاد أقل (عادةً) مع فقدان البيانات. (متوسط).
  2. تنشئ أداة فك الترميز نسخة مع فقدان البيانات من الإدخال الأصلي عن طريق تعيين الشكل ذي الأبعاد الأقل إلى الأبعاد الأصلية ذات الأبعاد الأعلى تنسيق الإدخال.

يتم تدريب برامج الترميز التلقائي بشكل شامل من خلال محاولة برنامج فك الترميز إعادة إنشاء الإدخال الأصلي من التنسيق المتوسط لبرنامج الترميز بأكبر قدر ممكن. وذلك لأن التنسيق المتوسط أصغر (أقل أبعادًا) من التنسيق الأصلي، يتم فرض تشغيل برنامج الترميز التلقائي لمعرفة المعلومات الضرورية في المدخلات، ولن يكون للمخرجات متطابقة تمامًا مع المدخلات.

على سبيل المثال:

  • إذا كانت بيانات الإدخال رسمية، فستكون النسخة غير الدقيقة مشابهة الرسم الأصلي، ولكن تم تعديله إلى حد ما. ربما تزيل النسخة غير الدقيقة التشويش من الرسم الأصلي أو تملأ بعض وحدات البكسل المفقودة.
  • إذا كانت بيانات الإدخال نصية، فسينشئ برنامج الترميز التلقائي نصًا جديدًا يحاكي (ولكنه ليس مطابقًا) للنص الأصلي.

اطّلِع أيضًا على برامج الترميز التلقائية المختلفة.

الانحياز في التشغيل الآلي

#fairness

عندما يفضّل صانع القرار البشري التوصيات التي يتم تقديمها من خلال نظام نظام لصنع القرار على المعلومات التي يتم إجراؤها دون أتمتة، حتى عندما يرتكب نظام اتخاذ القرار الآلي أخطاءً.

AutoML

أي عملية مبرمَجة لإنشاء تعلُّم الآلة الطُرز: يمكن أن تنفّذ AutoML مهامًا تلقائيًا مثل ما يلي:

يعد AutoML مفيدًا لعلماء البيانات لأنه يمكن أن يوفر لهم الوقت الجهد المبذول في تطوير مسارات التعلم الآلي وتحسين التنبؤات ودقتها. كما أنها مفيدة لغير الخبراء، من خلال إضفاء التعقيد مهام التعلم الآلي بسهولة أكبر لهم.

نموذج الانحدار التلقائي

#language
#image
#generativeAI

نموذج يستنتج توقّعًا استنادًا إلى ما سبق والتنبؤات. فعلى سبيل المثال، تتوقع النماذج اللغوية الانحدارية التلقائية الرمز المميّز استنادًا إلى الرموز المميّزة المتوقَّعة سابقًا. كلها مستندة إلى Transformer النماذج اللغوية الكبيرة تراجع تلقائي.

وفي المقابل، لا تكون عادةً نماذج الصور المستندة إلى GAN انحدارية تلقائيًا. لأنها تنشئ صورة في عملية انتقال واحدة وليس بشكل متكرر الخطوات. ومع ذلك، بعض نماذج إنشاء الصور تتحرك تلقائيًا بسبب تقوم بإنشاء صورة بخطوات.

الخسارة الإضافية

دالة فقدان—تُستخدم مع نموذج الشبكة العصبونية الأساسي الخسارة التي تساعد في تسريع التدريب أثناء والتكرارات المبكرة عندما يتم تهيئة الترجيحات بشكل عشوائي.

تدفع دوال الخسارة المساعدة التدرجات الفعّالة الطبقات السابقة يسهل ذلك التقارب أثناء التدريب من خلال مكافحة مشكلة التلاشي للتدرّج.

متوسط الدقة

مقياس لتلخيص أداء تسلسل نتائج مرتَّبة. ويتم حساب متوسط الدقة بأخذ متوسط precision قيم لكل نتيجة ذات صلة (كل نتيجة في القائمة المرتبة التي تزداد فيها نسبة التذكر مقارنة بالنتيجة السابقة).

يمكنك الاطّلاع أيضًا على المنطقة التي تقع أسفل "منحنى العلاقات العامة".

شرط محاذاة المحور

#df

في شجرة القرار، شرط تتضمّن ميزة واحدة فقط على سبيل المثال، إذا كانت المنطقة ميزة، ما يلي عبارة عن شرط محاذاة المحور:

area > 200

التباين مع شرط المائل.

B

الانتشار العكسي

#fundamentals

يشير هذا المصطلح إلى الخوارزمية التي تنفّذ خوارزمية انحدار التدرج في الشبكات العصبونية.

يتضمّن تدريب الشبكة العصبية العديد من التكرارات. من دورة الاجتياز التالية:

  1. خلال البداية والنهاية المبكرة، يعالج النظام مجموعة من أمثلة للحصول على عبارات بحث مقترحة يقارن النظام كل التنبؤ لكل قيمة label. الفرق بين التوقع وقيمة التصنيف هي loss لهذا المثال. ويجمع النظام الخسائر لجميع الأمثلة لاحتساب العدد الإجمالي الخسارة في الدفعة الحالية.
  2. أثناء البداية والنهاية المتأخرة (الرجوع في مرحلة النشر)، يحدّ النظام من الخسارة بنسبة تعديل الأوزان لجميع الخلايا العصبية في جميع الطبقات المخفية

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات الخفية. كل خلية من تلك الخلايا العصبية تساهم في الخسارة الكلية بطرق مختلفة. عملية الانتشار العكسي تحدّد ما إذا كان سيتم زيادة القيم التقديرية أو تقليلها تطبيقها على خلايا عصبية معينة.

معدّل التعلّم هو مضاعِف يتحكّم في الدرجة التي تزيد بها كل تمريرة خلفية أو تقل عن كل وزن. سيزيد معدل التعلم الكبير أو ينخفض كل وزن بما يزيد عن بمعدل تعلم صغير.

في مصطلحات حساب التفاضل والتكامل، تؤدي عملية انعكاسية البيانات تنفيذًا لقاعدة السلسلة. من حساب التفاضل والتكامل. أي أن الانتشار العكسي يحسب المشتق الجزئي للخطأ مع فيما يتعلق بكل معلمة.

منذ سنوات، اضطر ممارسو تعلُّم الآلة إلى كتابة رموز برمجية لتنفيذ عملية انتشار العكس. تستخدم واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل TensorFlow، عملية الانتشار العكسي لك. أخيرًا!

ملء الفراغات

#df

طريقة لتدريب مجموعة حيث يتم تدريب النموذج المؤسسي على مجموعة فرعية عشوائية من التدريب أمثلة مأخوذة كعينة مع الاستبدال. على سبيل المثال، الغابة العشوائية هي مجموعة من يتم تدريب أشجار القرارات باستخدام طريقة الأكياس.

يشير المصطلح Burging إلى اختصار لـ agg (تجميع التجميع).

كيس من الكلمات

#language

تمثيل للكلمات في عبارة أو فقرة بغض النظر عن الترتيب. فعلى سبيل المثال، تمثل مجموعة الكلمات اتباع ثلاث عبارات بشكل متماثل:

  • الكلب يقفز
  • تقفز الكلب
  • كلب يقفز

ويتم تعيين كل كلمة على فهرس في متّجه متفرق، حيث يشير فإن المتجه يحتوي على فهرس لكل كلمة في المفردات. على سبيل المثال: يتم تعيين عبارة قفز الكلب في متجه الخصائص بقيمة غير صفرية في الفهارس الثلاثة المقابلة للكلمات the وdog يقفز. ويمكن أن تكون القيمة غير الصفرية أيًا مما يلي:

  • هو 1 للإشارة إلى وجود كلمة.
  • عدد مرات ظهور كلمة في الحقيبة. على سبيل المثال: إذا كانت العبارة الكلب الكستنائي هو كلب بفرو كستنائي، فسيتم تمثيل maroon وdog على أنه 2، بينما يتم تمثيل الكلمات الأخرى سيتم تمثيلها كـ 1.
  • بعض القيم الأخرى، مثل لوغاريتم عدد مرات ظهور الكلمة في الحقيبة.

خط الأساس

نموذج يُستخدم كنقطة مرجعية لمقارنة مدى نجاح (نموذج أكثر تعقيدًا) أداءً. على سبيل المثال، يمكن أن يعمل نموذج الانحدار اللوجستي أساس جيد لنموذج عميق.

بالنسبة إلى مشكلة معينة، يساعد الخط المرجعي مطوّري النماذج في تحديد الحد الأدنى من الأداء المتوقع الذي يجب أن يحققه النموذج الجديد نموذج المشروع الذي يمكن اعتباره مفيدًا.

مُجمَّع

#fundamentals

مجموعة الأمثلة المستخدَمة في دورة تدريبية واحدة التكرار. ويحدد حجم المجموعة عدد الأمثلة في .

يمكنك الاطّلاع على الحقبة للحصول على شرح حول علاقة الدفعة. حقبة.

استنتاج مجمّع

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى عملية استنتاج التوقّعات بشأن نتائج الأمثلة غير المصنفة مقسمة إلى أصغر المجموعات الفرعية ("الدفعات").

ويمكن للاستنتاج المجمَّع أن يستفيد من خصائص التوازي شرائح مسرِّعة الأعمال: بمعنى أن هناك العديد من مسرِّعات الأعمال أن تستنتج في الوقت نفسه توقعات على دفعات مختلفة من القيم غير المصنفة الأمثلة، مما يؤدي إلى زيادة عدد الاستنتاجات في الثانية الواحدة بشكل كبير.

تسوية الدفعات

تسوية المُدخل أو المُخرجات دوال التفعيل في طبقة مخفية: يمكن أن تساعد تسوية الدفعة تقديم المزايا التالية:

حجم الدفعة

#fundamentals

عدد الأمثلة في مجموعة. فعلى سبيل المثال، إذا كان حجم الدفعة 100، فسيعالج النموذج 100 مثال لكل تكرار.

في ما يلي استراتيجيات شائعة لحجم الدُفعات:

  • الهبوط المتدرج العشوائي (SGD)، حيث يكون حجم الدفعة 1.
  • الدُفعة الكاملة التي يكون حجم الدُفعة فيها هو عدد الأمثلة مجموعة تدريب. على سبيل المثال، إذا كانت مجموعة التطبيق يحتوي على مليون مثال، فإن حجم الدفعة سيكون مليون الأمثلة. عادةً ما تكون الدفعة الكاملة استراتيجية غير فعالة.
  • دفعة صغيرة يكون فيها حجم الدُفعة عادةً بين 10 و1000. عادةً ما تكون الدفعة الصغيرة هي الاستراتيجية الأكثر فعالية.

شبكة بايزي العصبية

شبكة عصبية محتملة تراعي عدم يقين في النسب والمخرجات. شبكة عصبية قياسية يتنبأ عادةً نموذج الانحدار بقيمة عددية فعلى سبيل المثال، يتنبأ نموذج قياسي بسعر المنزل من 853000. وفي المقابل، تتنبأ الشبكة العصبية البايزي بتوزيع القيم فعلى سبيل المثال، يتنبأ نموذج بايز بسعر منزل يبلغ 853000 مع بانحراف معياري يبلغ 67200.

تعتمد الشبكة العصبية في بايز على بايز النظرية لحساب قيم الشك في الأوزان والتنبؤات. وحدة عصبية بيزي يمكن أن تكون الشبكة مفيدة عندما يكون من المهم قياس عدم اليقين، كما هو الحال في والنماذج المتعلقة بالمستحضرات الصيدلانية. كما يمكن أن تساعدك الشبكات العصبية في بايز ومنع فرط التخصيص.

التحسين باستخدام بايز

نموذج الانحدار الاحتمالي لتحسين التكاليف الحاسوبية دوال الأهداف عن طريق تحسين قيمة بديلة بدلاً من ذلك تحدد مقدار عدم اليقين باستخدام تقنية التعلم بايز. منذ إنّ تحسين بايز هو نفسه مكلف للغاية، ويُستخدَم عادةً لتحسين المهام المكلفة للتقييم التي تحتوي على عدد صغير من المعلمات، مثل اختيار المعلَمات الفائقة

معادلة بيلمان

#rl

في التعلم المعزّز، يتم تحديد الهوية التالية المُستخدمة في دالة Q:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

تطبّق خوارزميات التعلُّم المعزّز ما يلي: الهوية لإنشاء Q-Learn من خلال قاعدة التعديل التالية:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

بالإضافة إلى التعلم التعزِّزي، فإن لمعادلة بيلمان تطبيقات البرمجة الديناميكية. يمكنك الاطّلاع على مقالة ويكيبيديا لمعادلة بيلمان

برنامج الترميز الثنائي الاتجاه BERT تمثيلات من المحوّلين)

#language

بنية نموذج تمثيل للنص. مدرب ويمكن أن يعمل نموذج BERT كجزء من نموذج أكبر لتصنيف النص أو مهام تعلُّم الآلة الأخرى.

ويتميز نموذج BERT بالخصائص التالية:

تشمل صيغ BERT ما يلي:

  • ALBERT، وهو اختصار لعبارة A Light BERT.
  • LaBSE:

يُرجى الاطّلاع على مقالة فتح المصدر BERT: التدريب المُسبَق على التطوّر بعد اللغات الطبيعية جارٍ المعالجة للحصول على نظرة عامة حول نماذج BERT.

التحيز (الأخلاقيات/الإنصاف)

#fairness
#fundamentals

1. والنقد النمطي أو التحيز أو المحسوبية تجاه بعض الأشياء أو الأشخاص أو مجموعات أكثر من غيرها. يمكن أن تؤثر هذه التحيزات على الجمع تفسير البيانات وتصميم النظام وكيفية تفاعل المستخدمين باستخدام نظام. تشمل أشكال هذا النوع من التحيز ما يلي:

2. يشير ذلك المصطلح إلى خطأ نظامي ناتج عن استخدام طريقة لجمع العيّنات أو الإبلاغ عن المحتوى. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو تحيز التنبؤ.

تحيز (رياضيات) أو مصطلح تحيز

#fundamentals

اعتراض أو إزاحة من المصدر. يُعد التحيز معلمة في نماذج التعلم الآلي، والتي يرمز إليها بأي من التالي:

  • ب
  • w0

على سبيل المثال، الانحياز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني التحيز فقط "تقاطع ص". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

رسم خط مستقيم ميله 0.5 وانحراف (تقاطع ص) 2.

يوجد التحيز لأن بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال: لنفترض أن تكلفة دخول مدينة الملاهي 2 يورو 0.5 يورو لكل ساعة يقيم فيها العميل. وبالتالي، يؤدي تعيين نموذج التكلفة الإجمالية لها تحيز 2 لأن أقل تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاق والإنصاف أو تحيز التنبؤ.

ثنائي الاتجاه

#language

مصطلح يستخدم لوصف نظام يقيّم النص الذي يسبق ويتّبع قسمًا مستهدفًا من النص. في المقابل، نظام أحادي الاتجاه فقط يقيّم النص الذي يسبق القسم المستهدف من النص.

على سبيل المثال، يمكنك استخدام نموذج لغوي مقنَّع تحديد احتمالات الكلمة أو الكلمات التي تمثل التسطير في السؤال التالي:

ما هو _____ معك؟

يجب أن يعتمد النموذج اللغوي أحادي الاتجاه على احتمالاته فقط على السياق الذي تقدمه الكلمات "ماذا" و"هو" و"الـ". في المقابل، كما يمكن لنموذج لغوي ثنائي الاتجاه الحصول على سياق من "مع" و"أنت"، وهو ما قد يساعد النموذج في تقديم تنبؤات أفضل.

نموذج لغوي ثنائي الاتجاه

#language

نموذج لغوي يحدد احتمالية فإن هذا الرمز موجود في موقع معين في مقتطف من النص بناءً على النص السابق واللاحق.

بيغرام

#seq
#language

جرام n يكون فيه N=2.

التصنيف الثنائي

#fundamentals

يشير هذا المصطلح إلى نوع من مهام التصنيف التي يتنبأ بإحدى الفئتين المتنفيتين:

على سبيل المثال، يؤدي كل نموذج من نماذج تعلُّم الآلة التصنيف الثنائي:

  • يشير هذا المصطلح إلى نموذج يحدِّد ما إذا كانت الرسائل الإلكترونية محتوى غير مرغوب فيه (الفئة الإيجابية) أو محتوى غير مرغوب فيه (الفئة السلبية).
  • يشير هذا المصطلح إلى نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص قد يعاني من مرض معين (الفئة الإيجابية) أو لا يحتوي على ذلك المرض (الفئة السالبة).

تباين مع التصنيف متعدد الفئات.

راجِع أيضًا الانحدار اللوجستي و الحد الأدنى للتصنيف.

شرط ثنائي

#df

في شجرة القرار، شرط يكون له نتيجتان محتملتان فقط، تكون عادةً نعم أو لا. على سبيل المثال، ما يلي هو شرط ثنائي:

temperature >= 100

التباين مع شرط غير ثنائي.

الربط

مرادف التجميع.

دراسة التقييم الثنائي اللغة (BLEU)

#language

درجة بين 0.0 و1.0، بما يشمل ذلك، تشير إلى جودة الترجمة بين لغتين بشريتان (على سبيل المثال، بين الإنجليزية والروسية). البلوتوث الدرجة 1.0 تشير إلى ترجمة مثالية؛ تشير درجة BLEU بقيمة 0.0 إلى ترجمة سيئة.

التعزيز

يشير ذلك المصطلح إلى أسلوب للتعلُّم الآلي يجمع بشكل متكرر بين مجموعة من البيانات البسيطة المصنِّفات غير الدقيقة للغاية (المشار إليها بالمصنِّفات "الضعيفة") في المُصنِّف بدقة عالية (المُصنِّف "القوي") حسب زيادة ترجيح الأمثلة التي يستخدمها النموذج حاليًا خطأ في التصنيف.

مربّع حدود

#image

في صورة، توجد إحداثيات (x وy) لمستطيل حول مساحة اهتمام، مثل الكلب في الصورة أدناه.

صورة لكلب يجلس على أريكة مربع حدود أخضر
          مع إحداثيات أعلى اليسار من (275، 1271) وأسفل اليمين
          تحيط بإحداثيات (2954, 2761) حول جسد الكلب

بث عام

توسيع شكل المعامل في عملية حسابية بالمصفوفة إلى السمات المتوافقة مع تلك العملية. على سبيل المثال: يتطلب الجبر الخطي أن يتم استخدام المعاملين في عملية جمع المصفوفة يجب أن تكون لها الأبعاد نفسها. وبالتالي، لا يمكنك إضافة مصفوفة شكل (م، ن) إلى متجه الطول n. يتيح البث إجراء هذه العملية من خلال توسيع الخط المتجه للطول n إلى مصفوفة شكل (m، n) في وتكرار نفس القيم أسفل كل عمود.

فعلى سبيل المثال، وبالنظر إلى التعريفات التالية، يحظر الجبر الخطي A+B لأن A وB لهما أبعاد مختلفة:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

ومع ذلك، يمكّن البث العملية A+B من خلال توسيع B افتراضيًا إلى:

 [[2, 2, 2],
  [2, 2, 2]]

وبالتالي، أصبحت A+B الآن عملية صالحة:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

اطلع على الوصف التالي لـ البث في NumPy لمزيد من التفاصيل.

تجميع البيانات

#fundamentals

تحويل ميزة واحدة إلى ميزات ثنائية متعددة تسمى الحزم أو السلال، وتعتمد عادةً على نطاق القيمة. عادةً ما تكون الميزة المقطّعة للميزة المستمرة.

فعلى سبيل المثال، بدلاً من تمثيل درجة الحرارة النقطة العائمة المستمرة، يمكنك قطع نطاقات من درجات الحرارة في مجموعات منفصلة، مثل:

  • <= 10 درجات مئوية قد يكون "بارد" دُلو.
  • 11 - 24 درجة مئوية ستكون "معتدلة" دُلو.
  • >= 25 درجة مئوية قد يكون "دافئ" دُلو.

سيتعامل النموذج مع كل قيمة في مجموعة البيانات نفسها تماثلاً. بالنسبة على سبيل المثال، القيمتان 13 و22 كلاهما في مجموعة البيانات المعتدلة، وبالتالي فإن يتعامل مع القيمتين بشكل متماثل.

C

طبقة المعايرة

التسوية بعد التنبؤ، عادةً لمراعاة الانحياز في التوقّعات: التنبؤات المعدلة ينبغي أن تتطابق الاحتمالات مع توزيع مجموعة مرصودة من التصنيفات.

الجيل المرشّح

#recsystems

المجموعة الأولية من التوصيات التي اختارها نظام الاقتراحات: على سبيل المثال، ضع في اعتبارك مكتبة تضم 100,000 كتاب. تنشئ مرحلة إنشاء المرشحين قائمة أصغر بكثير من الكتب المناسبة لمستخدم معين، لنفترض 500. ولكن حتى هناك 500 كتاب كبير جدًا ولا يمكن اقتراحها على المستخدم. وبالتالي، تكون أكثر تكلفة مراحل نظام الاقتراح (مثل تقييم النتائج) إعادة ترتيب النتائج) إلى تقليل تلك القيم الـ 500 إلى أقل بكثير، مجموعة من التوصيات الأكثر فائدة.

تحليل العيّنات المرشّحة

يشير هذا المصطلح إلى عملية تحسين وقت التدريب تحسب الاحتمالية لجميع الإيجابية، التي تستخدم، على سبيل المثال، softmax، ولكن بشكلٍ عشوائي عينة من التسميات السلبية. فعلى سبيل المثال، إذا نظرنا إلى المثال المسمى beagle وdog، ويحسب تحليل العينات المرشح الاحتمالات المتوقعة وبنود الخسارة المقابلة في:

  • بيغل
  • كلب
  • مجموعة فرعية عشوائية من الفئات السالبة المتبقية (مثل قطة، lollipop، وfence).

تكمن الفكرة في أن يمكن للفئات السلبية أن تتعلّم من المهارات الأقل استخدامًا التعزيز السلبي طالما الصفوف الإيجابية دائمًا ما تحصل على الإيجابيات المناسبة التعزيز، وهذا يحدث بالفعل بشكل تجريبي.

أخذ عينات المرشح أكثر كفاءة من الناحية الحسابية من خوارزميات التدريب التي تحتسب التوقّعات لجميع الفئات السالبة، لا سيّما عند عدد الفئات السالبة كبير جدًا.

بيانات فئوية

#fundamentals

الميزات التي تحتوي على مجموعة محددة من القيم المحتملة. على سبيل المثال: بالنظر إلى خاصية فئوية تُسمى traffic-light-state، والتي يمكنها فقط تحتوي على إحدى القيم الثلاث التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كخاصية فئوية، يمكن لأي نموذج معرفة تأثيرات مختلفة في red وgreen وyellow على سلوك السائق.

تسمى أحيانًا السمات الفئوية الميزات المنفصلة.

التباين مع البيانات الرقمية.

نموذج لغوي سببي

#language

مرادف للنموذج اللغوي أحادي الاتجاه.

اطّلِع على النموذج اللغوي الثنائي الاتجاه من أجل تحديد أوجه الاختلاف في النمذجة اللغوية المختلفة.

نقطة مركزية

#clustering

يشير ذلك المصطلح إلى مركز أي مجموعة عنقودية تم تحديده باستخدام الخوارزمية التصنيفية أو. k-median. على سبيل المثال، إذا كانت k هي 3، تُوجد الخوارزمية التصنيفية أو الخوارزمية التصنيفية 3 نقاط مركزية.

التجميع العنقودي القائم على النقاط المركزية

#clustering

يشير هذا المصطلح إلى فئة من خوارزميات التجميع التي تنظّم البيانات. في مجموعات عنقودية غير هرمية. الخوارزمية التصنيفية هي الخوارزمية الأكثر خوارزمية التجميع العنقودي القائم على النقطة المركزية.

التباين مع التجميع الهرمي الخوارزميات.

سلسلة التفكير

#language
#generativeAI

أحد أساليب هندسة الطلبات التي تشجع نموذج لغوي كبير (LLM) لشرح السبب، خطوة بخطوة. على سبيل المثال، ضع في اعتبارك الطلب التالي، دفع انتباه خاص إلى الجملة الثانية:

كم عدد القوى التي سيختبرها السائق في سيارة تنتقل من 0 إلى 60 ميل في الساعة في 7 ثوان؟ في الإجابة، اعرض جميع العمليات الحسابية ذات الصلة.

من المرجّح أن يكون ردّ النموذج اللغوي الكبير:

  • إظهار سلسلة من المعادلات الفيزيائية، من خلال التعويض عن القيم 0 و60 و7 في الأماكن المناسبة.
  • اشرح سبب اختيارها لهذه المعادلات وما الذي تعنيه المتغيرات المختلفة.

تجبر سلسلة التفكير التي تفرض على النموذج اللغوي الكبير إجراء جميع العمليات الحسابية مما قد يؤدي إلى إجابة أكثر دقة. بالإضافة إلى ذلك، يمكن أن تساعد سلسلة التفكير المستخدم من مراجعة خطوات النموذج اللغوي الكبير لتحديد ما إذا كان أو لا تكون الإجابة منطقية.

محادثة

#language
#generativeAI

يعني محتوى الحوار المتبادل مع نظام تعلُّم الآلة، نموذج لغوي كبير: التفاعل السابق في محادثة (ما تمت كتابته وكيف استجاب النموذج اللغوي الكبير) ليصبح سياق للأجزاء اللاحقة من المحادثة.

إنّ chatbot عبارة عن تطبيق لنموذج لغوي كبير.

نقطة تفتيش

البيانات التي تسجل حالة معلَمات نموذج في تكرار تدريبي معين. تؤدي نقاط التحقق إلى تفعيل نموذج التصدير. الوزن، أو أداء التدريب على مستوى جلسات متعددة. نقاط التفتيش وكذلك تمكين التدريب لمواصلة الأخطاء السابقة (على سبيل المثال، الاستغناء عن الوظائف).

عند الضبط الدقيق، فإن نقطة البداية سيكون تدريب النموذج الجديد محددًا النموذج المدرَّب مسبقًا.

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف. على سبيل المثال:

  • في نموذج تصنيف ثنائي يكتشف محتوى غير مرغوب فيه، فقد يكون الفئتان محتوى غير مرغوب فيه وليس محتوى غير مرغوب فيه.
  • في نموذج التصنيف المتعدّد الفئات التي تحدد سلالات الكلاب، قد تكون هذه الفئات بودل وبيغل وباك وهكذا

يتوقّع نموذج التصنيف فئة معيّنة. في المقابل، يتنبأ نموذج الانحدار برقم بدلاً من فئة.

نموذج التصنيف

#fundamentals

نموذج يكون توقّعه فئة فعلى سبيل المثال، فيما يلي جميع نماذج التصنيف:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بلغة الجملة المُدخَلة (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • نموذج للتنبؤ بأنواع الأشجار (القيقب؟ البلوط؟ باوباب؟).
  • يشير هذا المصطلح إلى نموذج يتنبأ بالفئة الموجبة أو السالبة لفئة معيَّنة. حالة طبية.

في المقابل، تتنبأ نماذج الانحدار بالأعداد بدلاً من الفصول الدراسية.

هناك نوعان شائعان من نماذج التصنيف هما:

حد التصنيف

#fundamentals

في تصنيف ثنائي، رقم بين 0 و1 يحوِّل الناتج الأولي نموذج الانحدار اللوجستي في توقع إما الفئة الموجبة أو الفئة السالبة. لاحظ أن الحد الأدنى للتصنيف هو قيمة يختارها الشخص، وليست قيمة يتم اختيارها بواسطة تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من حد التصنيف، التنبؤ بالفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من حد التصنيف، عندئذ التنبؤ بالفئة السالبة.

لنفترض على سبيل المثال أن الحد الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية تساوي 0.9، فسيتنبأ النموذج بالفئة الموجبة. إذا كانت القيمة الأولية 0.7، فسيتنبأ النموذج بالفئة السالبة.

يؤثر اختيار حد التصنيف بشدة في عدد النتائج الموجبة الخاطئة أرقام سالبة خاطئة:

مجموعة بيانات غير متوازنة الفئات

#fundamentals

مجموعة بيانات لمشكلة تصنيف يكون فيها العدد الإجمالي من التصنيفات لكل فئة يختلف بشكل كبير. على سبيل المثال، بالنظر إلى مجموعة بيانات للتصنيف الثنائي، يكون التصنيفان على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التصنيفات السالبة والموجبة هي 100000 إلى 1، ومن ثم هي مجموعة بيانات غير متوازنة في الفئات.

وفي المقابل، ليست مجموعة البيانات التالية غير متوازنة في الفئات بسبب نسبة التصنيفات السالبة إلى التصنيفات الموجبة قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

يمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة في الفئات. على سبيل المثال، ما يلي تكون مجموعة بيانات التصنيف متعدد الفئات غير متوازنة أيضًا لأن تسمية واحدة يتضمن أمثلة أكثر بكثير من المثالين الآخرين:

  • 1,000,000 تصنيف بالفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا بالفئة "برتقالي"

راجِع أيضًا الإنتروبيا وفئة الأغلبية وفئة الأقل.

اقتصاص

#fundamentals

أحد الأساليب للتعامل مع القيم الاستثنائية من خلال إجراء أحد الأمرين التاليين أو كليهما:

  • تقليل قيم الميزة التي تزيد عن الحدّ الأقصى إلى هذا الحد الأقصى.
  • زيادة قيم الميزات التي تقل عن الحد الأدنى حتى ذلك الحد الأدنى.

على سبيل المثال، لنفترض أن أقل من% 0.5 من قيم ميزة معيّنة تقع. خارج النطاق 40-60. في هذه الحالة، يمكنك إجراء ما يلي:

  • يُرجى اقتصاص جميع القيم التي تزيد عن 60 (الحدّ الأقصى) لتكون 60 بالضبط.
  • يُرجى اقتصاص جميع القيم التي تقلّ عن 40 (الحدّ الأدنى) لتكون 40 بالضبط.

قد تتسبّب القيم الاستثنائية في إتلاف النماذج، وقد تتسبّب أحيانًا أوزان. إلى تجاوز الفائض أثناء التدريب. يمكن أن تفسد بعض القيم الاستثنائية بشكل كبير مقاييس مثل الدقة. يعتبر الاقتصاص أسلوبًا شائعًا للحدّ الضرر.

قوى الاقتصاص المتدرج قيم التدرج ضمن نطاق محدد أثناء التدريب.

Cloud TPU

#TensorFlow
#GoogleCloud

هو مسرِّع متخصص للأجهزة تم تصميمه لتسريع الجهاز أعباء العمل التعليمية على Google Cloud.

التجميع العنقودي

#clustering

تجميع الأمثلة ذات الصلة، خاصةً أثناء التعلّم غير المُوجّه: بمجرد أن يتم يتم تجميع الأمثلة، ويمكن لأي شخص تقديم معنى لكل مجموعة عنقودية بشكل اختياري.

هناك العديد من خوارزميات التجميع العنقودي. على سبيل المثال، تتضمن الخوارزمية التصنيفية تقوم الخوارزمية بتجميع الأمثلة بناءً على قربها من النقطة المركزية، كما في المخطّط البياني التالي:

وهو رسم بياني ثنائي الأبعاد يتم فيه تسمية المحور س بعرض الشجرة،
          ويسمى المحور ص بارتفاع الشجرة. يحتوي الرسم البياني على
          والنقاط المركزية وعشرات نقاط البيانات. تُعد نقاط البيانات
          مصنفة بناءً على قربها. أي أن نقاط البيانات
          وتُصنف الأقرب إلى نقطة مركزية بالمجموعة العنقودية 1، بينما أن هذه
          والأقرب إلى النقطة المركزية الأخرى بالمجموعة العنقودية 2.

ويمكن للباحث البشري بعد ذلك مراجعة المجموعات العنقودية، وعلى سبيل المثال، تصنيف المجموعة 1 على أنها "أشجار قزمة" والمجموعة 2 على أنها "أشجار بالحجم الكامل".

كمثال آخر، يمكن وضع خوارزمية التجميع العنقودي بناءً على المسافة المثالية من نقطة مركزية، وتوضيح ذلك على النحو التالي:

يتم ترتيب العشرات من نقاط البيانات في دوائر متحدة المركز،
          مثل الثقوب حول مركز رمي السهام. الحلقة الأعمق
          من نقاط البيانات مصنفة ضمن المجموعة العنقودية 1، الحلقة الوسطى
          بالمجموعة العنقودية 2، والحلقة الخارجية
          المجموعة 3.

التكيّف مع الآخرين

عندما تتنبأ الخلايا العصبية بالأنماط في بيانات التدريب عن طريق الاعتماد بشكل حصري تقريبًا على مخرجات خلايا عصبية أخرى محددة بدلاً من الاعتماد على سلوك الشبكة ككل. عندما تحدث الأنماط التي تسبب التكيّف المشترك غير موجودة في بيانات التحقق، فإن التكيّف المشترك يتسبب في فرط التخصيص. تنظيم عمليات التغيير يقلّل من عملية التكيّف مع الآخرين لأن التسرب يضمن أن الخلايا العصبية لا يمكنها الاعتماد فقط على خلايا عصبية أخرى محددة.

الفلترة حسب الاهتمامات الجماعية

#recsystems

إجراء توقّعات بشأن اهتمامات أحد المستخدمين بناءً على اهتمامات العديد من المستخدمين الآخرين. الفلترة حسب الاهتمامات الجماعية وغالبًا ما يُستخدم في أنظمة الاقتراح.

مفهوم الحركة

يشير ذلك المصطلح إلى تغيير في العلاقة بين العناصر والتسمية. وبمرور الوقت، يقلل انحراف المفهوم من جودة النموذج.

أثناء التطبيق، يتعرف النموذج على العلاقة بين الخصائص تسمياتهم في مجموعة التطبيق. إذا كانت التسميات في مجموعة التطبيق خوادم وكيلة جيدة للواقع، فإن النموذج ينبغي أن يقدم لتنبؤات العالم الحقيقي. ومع ذلك، وبسبب انحراف المفهوم، تميل التوقعات إلى التدهور بمرور الوقت.

على سبيل المثال، يمكنك وضع تصنيف ثنائي يتنبأ بما إذا كان طراز معين من السيارات "موفرًا للوقود" أم لا. وهذا يعني أن الميزات يمكن أن تكون:

  • وزن السيارة
  • ضغط المحرّك
  • نوع ناقل الحركة

في حين أن التصنيف إما:

  • موفّر للوقود
  • غير موفّر للوقود

ومع ذلك، فإن مفهوم "سيارة موفرة للوقود" يحتفظ المتغير. من المؤكد تقريبًا أن طراز السيارة الذي تم تصنيفه على أنه موفر للوقود في عام 1994 أن تكون غير موفّرة للوقود في 2024 نموذج يعاني من انحراف مفهوم إلى إجراء تنبؤات أقل وأقل فائدة بمرور الوقت.

تحديد أوجه الاختلاف والتشابه مع عدم الحركة

الشرط

#df

في شجرة القرار، تكون أي عقدة لتقييم تعبير. على سبيل المثال، الجزء التالي من تحتوي شجرة القرارات على شرطين:

شجرة قرارات تتكون من شرطين: (x> 0)
          (ص > 0).

ويسمى الشرط أيضًا التقسيم أو الاختبار.

حالة التباين باستخدام ورقة الشجر.

انظر أيضًا:

محادثة

#language

مرادف لكلمة هالوس.

قد يكون التخمين عبارة عن مصطلح أكثر دقة من الناحية الفنية من الهلوسة. ومع ذلك، أصبحت الهلوسة شائعة في المقام الأول.

الإعدادات

يشير ذلك المصطلح إلى عملية تحديد قيم الخصائص الأوّلية المستخدَمة لتدريب أحد النماذج. بما في ذلك:

ففي مشروعات التعلم الآلي، يمكن تنفيذ التهيئة من خلال طريقة خاصة ملف إعداد أو استخدام مكتبات إعداد مثل ما يلي:

الانحياز التأكيدي

#fairness

الميل للبحث عن المعلومات وتفسيرها وتكريمها وتذكّرها في بطريقة تؤكد صحة المعتقدات أو الفرضيات الموجودة مسبقًا للفرد. قد يجمع مطوّرو برامج تعلُّم الآلة أو يصنّفونها بدون قصد البيانات بطرق تؤثر في نتيجة تدعم المعتقدات. الانحياز التأكيدي هو شكل من الانحياز الضمني.

تحيز المجرب هو شكل من أشكال الانحياز التأكيدي الذي ويواصل المجرّب تدريب النماذج حتى يتم تأكيد الفرضية.

مصفوفة التشويش

#fundamentals

جدول NxN يلخص عدد التنبؤات الصحيحة وغير الصحيحة الذي قدّمه نموذج التصنيف. على سبيل المثال، ضع في الاعتبار مصفوفة التشويش التالية نموذج التصنيف الثنائي:

الورم (المتوقَّع) غير ورم (المتوقَّعة)
الورم (الحقيقة الأرضية) 18 سنة (TP) 1 (FN)
غير الورم (الحقيقة الواقعية) 6 (FP) 452 (TN)

توضح مصفوفة التشويش السابقة ما يلي:

  • من بين 19 تنبؤًا كانت الحقيقة الواقعية فيها، الأورام، صنف النموذج 18 بشكل صحيح وصنف 1 بشكل غير صحيح.
  • من بين 458 تنبؤًا كانت هناك حقيقة أساسية كانت غير ورم، يستخدم النموذج صنفت بشكل صحيح 452 وتصنيف 6 بشكل غير صحيح.

مصفوفة التشويش للتصنيف متعدد الفئات والمشكلة في تحديد أنماط الأخطاء. على سبيل المثال، بالنظر إلى مصفوفة التشويش التالية للفئة الثالثة نموذج تصنيف متعدد الفئات يصنف ثلاثة أنواع مختلفة من القزحية (فيرجينيكا وVersicolor وSetosa). عندما كانت الحقيقة الواقعية هي فيرجينيكا، أن مصفوفة التشويش تظهر أنه من المرجح أن يحدث أخطاء التنبؤ بVersicolor من Setosa:

  سيتوسا (المتوقَّعة) Versicolor (المتوقع) فيرجينيكا (المتوقَّعة)
سيتوسا (الحقيقة الواقعية) 88 12 0
Versicolor (الحقيقة الواقعية) 6 141 7
فيرجينيكا (الحقيقة) 2 27 109

وكمثال آخر، يمكن أن تكشف مصفوفة التشويش أن نموذجًا تم تدريبه فإن التعرف على الأرقام المكتوبة بخط اليد يميل إلى التنبؤ عن طريق الخطأ بـ 9 بدلاً من 4، أو توقع 1 عن 7 عن طريق الخطأ.

تحتوي مصفوفات الارتباك على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة وتذكُّرها.

تحليل الدوائر الانتخابية

#language

تقسيم جملة إلى هياكل نحوية أصغر ("المكونات"). جزء لاحق من نظام التعلم الآلي، مثل نموذج فهم اللغة الطبيعية تحليل المكونات بسهولة أكبر من الجملة الأصلية. على سبيل المثال: ضع في الاعتبار الجملة التالية:

تبنت صديقتي قطتَين.

يمكن للمحلل اللغوي للدائرة تقسيم هذه الجملة إلى ما يلي: مكونين:

  • صديقي هي عبارة اسمية.
  • تبني قطتين هي عبارة فعلية.

ويمكن تقسيم هذه العناصر بشكل فرعي إلى مكوّنات أصغر. على سبيل المثال، عبارة الفعل

تم تبني قطتين

يمكن تقسيمها بشكل فرعي إلى:

  • adopted هي فعل.
  • قطتان هي عبارة اسمية أخرى.

تضمين لغة مستندة إلى السياق

#language
#generativeAI

تضمين يقترب من "الفهم" كلمات والعبارات بطرق يمكن للمتحدثين بها الأصليين. الصياغة اللغوية للسياق يمكن للتضمينات فهم البنية والدلالات والسياق المعقد.

على سبيل المثال، ننصحك بتضمين كلمة cow باللغة الإنجليزية. التضمينات القديمة مثل word2vec يمكن أن تمثل الإنجليزية كلمات بحيث يتم تحديد المسافة في مساحة التضمين من بقرة إلى ثور مشابهة للمسافة من الإيروي (أنثى الخروف) ذاكرة الوصول العشوائي (ذكر الخراف) أو من أنثى إلى ذكر. الصياغة اللغوية للسياق يمكن للتضمينات أن ترتقي إلى أبعد من ذلك من خلال إدراك أن المتحدثين باللغة الإنجليزية في بعض الأحيان إذا كنت تستخدم كلمة بقرة، يمكنك استخدامها غالبًا للإشارة إلى بقرة أو ثور.

نافذة السياق

#language
#generativeAI

عدد الرموز المميزة التي يمكن أن يعالجها نموذج في الطلب كلما كانت نافذة السياق أكبر، زادت المعلومات التي يمكن أن يستخدمها النموذج لتقديم ردود مترابطة ومتسقة إلى المطالبة.

خاصية مستمرة

#fundamentals

ميزة نقطة عائمة تضم نطاقًا غير محدود من القيم القيم، مثل درجة الحرارة أو الوزن.

تباين مع الميزة المنفصلة.

عينة عشوائية

استخدام مجموعة بيانات لم يتم جمعها علميًا لإجراء سرعة التجارب. فيما بعد، من الضروري التبديل إلى مجموعة البيانات مجموعة البيانات الأصلية.

التقارب

#fundamentals

حالة يتم الوصول إليها عندما تتغير قيم الخسارة قليلاً جدًا أو على الإطلاق مع كل تكرار. على سبيل المثال، ما يلي يشير منحنى الخسارة إلى التقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور س هو الخسارة. المحور ص هو عدد التطبيق
          التكرارات. تكون الخسارة كبيرة جدًا خلال التكرارات القليلة الأولى، لكن
          ينخفض بشكل كبير. بعد حوالي 100 تكرار، لا تزال الخسارة
          تنازليًا ولكن تدريجيًا أكثر. بعد حوالي 700 تكرار،
          تظل الخسارة ثابتة.

ويتقارب النموذج مع عدم اكتمال التدريب الإضافي تحسين النموذج.

في التعليم المتعمق، تظل قيم الخسارة ثابتة أو تقريبًا للعديد من التكرارات قبل أن يتراجع أخيرًا. خلال فترة طويلة قيم الخسارة الثابتة، فقد تحصل مؤقتًا على إحساس خاطئ بالتقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

دالة محدّبة

دالة تكون فيها المنطقة أعلى الرسم البياني للدالة للمجموعة المحدبة. دالة محدبة نموذجية هي على شكل شيء مثل الحرف U. على سبيل المثال، ما يلي كلها دوال محدّبة:

منحنيات على شكل حرف U، ولكل منها نقطة دنيا واحدة.

في المقابل، الدالة التالية ليست محدبة. لاحظ كيف أن المنطقة التي تقع فوق الرسم البياني ليست مجموعة محدّبة:

منحنى على شكل حرف W يتضمن نقطتَين دنيا محليتين مختلفتين.

تتضمن الدالة المحدبة تمامًا نقطة صغرى محلية واحدة، وهي هو أيضًا الحد الأدنى العام. الدوال الكلاسيكية على شكل حرف U الدوال المحدبة بشكل صارم. ومع ذلك، فإن بعض الدوال المحدبة (على سبيل المثال، الخطوط المستقيمة) ليست على شكل حرف U.

تحسين الدالّة المحدّبة

يشير ذلك المصطلح إلى عملية استخدام الأساليب الرياضية مثل. خوارزمية انحدار التدرج للعثور على أدنى قيمة لدالة محدبة. وقد ركز قدر كبير من الأبحاث في مجال التعلم الآلي على صياغة المشكلات مثل مشكلات التحسين المحدبة وحل تلك المشكلات بصورة أكبر فعالية.

للحصول على التفاصيل الكاملة، راجع بويد وفاندنبيرغ، محدّب التحسين:

مجموعة محدّبة

مجموعة فرعية من المساحة الإقليدية بحيث يتم رسم خط بين أي نقطتين في المجموعة الفرعية بالكامل داخل المجموعة الفرعية. على سبيل المثال، يُرمز الإدخالان التاليان الأشكال عبارة عن مجموعات محدبة:

صورة توضيحية واحدة لمستطيل رسم توضيحي آخر لشكل بيضاوي

في المقابل، لا يشكّل الشكلان التاليان مجموعات محدّبة:

صورة توضيحية واحدة لرسم بياني دائري مع شريحة مفقودة
          صورة توضيحية أخرى لمضلّع غير منتظم إلى حدٍ كبير

التفاف

#image

في الرياضيات، بمعنى آخر، مزيج من دالتين. في الجهاز التعلم، فإن الالتفاف يمزج بينالتطور عامل التصفية ومصفوفة الإدخال لتدريب الأوزان.

مصطلح "الالتفاف" في التعلم الآلي غالبًا ما يكون اختصارًا والتي تشير إلى العملية الالتفافية أو طبقة التفافية.

وبدون الالتفاف، كان على خوارزمية التعلم الآلي أن تتعلم قيمة منفصلة لكل خلية في tensor كبير. على سبيل المثال: تدريب خوارزمية التعلم الآلي على الصور بدقة 2K × 2K لإيجاد أوزان منفصلة بمسافة 4M. بفضل التطورات، أصبح التعلم الآلي على إيجاد الأوزان لكل خلية في فلتر التفافي، ما يقلل بشكل كبير الذاكرة اللازمة لتدريب النموذج. عندما يكون عامل التصفية الالتفافية تطبيقها، فإنه يتم نسخها ببساطة عبر الخلايا بحيث يتم ضرب كل منها حسب عامل التصفية.

فلتر التفافي

#image

يظهر أحد الممثلين في عملية التفافية. (الممثل الآخر هو جزء من مصفوفة إدخال). عامل التصفية الالتفافية هو مصفوفة تحتوي على نفس الترتيب مثل مصفوفة الإدخال، ولكن بشكل أصغر. على سبيل المثال، إذا كانت مصفوفة إدخال بحجم 28×28، يمكن أن يكون عامل التصفية أي مصفوفة ثنائية الأبعاد أصغر من 28x28.

في معالجة التصوير الفوتوغرافي، تكون جميع الخلايا في فلتر التفافي عادةً ما يتم تعيينها على نمط ثابت من الآحاد والأصفار. في التعلم الآلي، عادةً ما تتضمن عوامل التصفية الالتفافية بأرقام عشوائية ثم تدريب القيم المثالية.

طبقة التفافية

#image

يشير ذلك المصطلح إلى طبقة من الشبكة العصبونية العميقة يمكن فيها يمر فلتر التفافي على طول إدخال ومصفوفة. على سبيل المثال، ضع في الاعتبار المخطط 3x3 التالي فلتر التفافي:

مصفوفة 3×3 بالقيم التالية: [[0,1,0] و[1,0,1] و[0,1,0]]

توضح الصورة المتحركة التالية طبقة التفافية تتكون من 9 العمليات الالتفافية التي تتضمن مصفوفة إدخال 5×5. لاحظ أن كل تعمل عملية الالتفاف على شريحة 3×3 مختلفة من مصفوفة الإدخال. تتكون المصفوفة 3×3 الناتجة (على اليمين) من نتائج العمليات الالتفافية:

صورة متحركة تعرض مصفوفة واحدة. المصفوفة الأولى هي 5×5
          المصفوفة: [[128,97,53,201,198], [35,22,25,200,195]
          [37,24,28,197,182]، [33,28,92,195,179]، [31,40,100,192,177]].
          المصفوفة الثانية هي مصفوفة 3×3:
          [[181,303,618]، [115,338,605]، [169,351,560]].
          وتُحسب المصفوفة الثانية بتطبيق خوارزمية الالتفاف
          الفلتر [[0، 1، 0]، [1، 0، 1]، [0، 1، 0]]
          مجموعات فرعية مختلفة 3×3 في مصفوفة 5×5.

شبكة عصبية التفافية

#image

شبكة عصبية تكون فيها طبقة واحدة على الأقل طبقة التفافية. التفاف نموذجي تتكون الشبكة العصبية من تركيبة من الطبقات التالية:

لقد حققت الشبكات العصبية الالتفافية نجاحًا كبيرًا في أنواع معينة من المشكلات، مثل التعرّف على الصور.

عملية التفافية

#image

العملية الحسابية التالية المكوَّنة من خطوتين:

  1. ناتج ضرب العناصر في فلتر التفافي وشريحة مصفوفة الإدخال. (شريحة مصفوفة الإدخال لها نفس الرتبة الحجم كفلتر التفافي).
  2. مجموع كل القيم في مصفوفة المنتجات الناتجة.

على سبيل المثال، ضع في الاعتبار مصفوفة الإدخال 5×5 التالية:

المصفوفة 5×5: [[128,97,53,201,198], [35,22,25,200,195]
          [37,24,28,197,182]، [33,28,92,195,179]، [31,40,100,192,177]].

تخيل الآن عامل التصفية الالتفافية 2×2:

المصفوفة 2×2: [[1، 0]، [0، 1]]

تتضمن كل عملية التفافية شريحة 2×2 مصفوفة الإدخال. على سبيل المثال، لنفترض أننا نستخدم شريحة 2×2 في أعلى يسار مصفوفة الإدخال. إذًا، عملية الالتفاف في تظهر هذه الشريحة على النحو التالي:

جارٍ تطبيق فلتر الالتفاف [[1، 0]، [0، 1]] في أعلى اليسار
          القسم 2×2 في مصفوفة الإدخال، وهو [[128,97]، [35,22]]
          يترك عامل التصفية الالتفافية 128 و22 بدون أي تغيير، باستثناء الأصفار.
          97 و35. وبالتالي، ينتج عن عملية الالتفاف
          القيمة 150 (128+22).

تتكوّن الطبقة الالتفافية من من العمليات الالتفافية، كل منها يعمل على شريحة مختلفة في مصفوفة المدخلات.

التكلفة

مرادف loss.

التدريب المشترك

نهج التعلّم شبه المُوجّه يكون مفيدًا بشكل خاص عندما تحقق جميع الشروط التالية:

يضخم التدريب المشترك بشكل أساسي الإشارات المستقلة للحصول على إشارة أقوى. على سبيل المثال، بالنظر إلى نموذج تصنيف إلى تصنيف السيارات المستعمَلة الفردية على أنّها جيدة أو سيئة. مجموعة واحدة من السمات التنبؤية على الخصائص التجميعية مثل السنة وماركة وطراز السيارة؛ قد تركز مجموعة أخرى من الميزات التنبؤية على سجل القيادة للمالك السابق وسجل صيانة السيارة.

المقالة الأساسية حول التدريب المشترك هي الجمع بين البيانات المصنفة والبيانات غير المصنفة مع التدريب التعاوني من قِبل بلوم وميتشل.

الإنصاف المغاير

#fairness

مقياس إنصاف يتحقّق مما إذا كان المصنِّف تُنتج نفس النتيجة لفرد واحد كما هو الحال مع فرد آخر مماثلة للأول، إلا في ما يتعلق بواحدة أو أكثر السمات الحسّاسة: إن تقييم أحد المصنِّفات إن الإنصاف المغاير هو إحدى الطرق لإبراز المصادر المحتملة التحيز في نموذج ما.

عرض "عندما تتصادم العوالم: دمج مختلف الحقائق الافتراضات في الإنصاف" للحصول على مناقشة أكثر تفصيلاً حول والإنصاف.

انحياز في التغطية

#fairness

راجِع انحياز الاختيار.

زهرة متلازمة

#language

جملة أو عبارة ذات معنى غامض. تمثل أزهار الأزهار مشكلة كبيرة في الطبيعة فهم اللغة. على سبيل المثال، العنوان الشريط الأحمر يحمل سكاي سكريبر هو لأن نموذج NLU يمكنه تفسير العنوان الرئيسي حرفيًا مجازيًا.

ناقد

#rl

مرادف لـ Deep Q-Network.

الإنتروبيا المختلفة

تعريف عام لفقدان السجلات مسائل التصنيف متعدد الفئات. الإنتروبيا المتقاطعة تحدد الفرق بين توزيعين للاحتمالية. يمكن أيضًا مراجعة المرونة.

التحقّق المتبادل

آلية لتقدير مدى تعميم النموذج على جديدة عن طريق اختبار النموذج مقابل مجموعة فرعية واحدة أو أكثر من البيانات غير المتداخلة من مجموعة التدريب.

دالة التوزيع التراكمي (CDF)

يشير ذلك المصطلح إلى دالة تحدِّد معدّل تكرار العينات الأقل من أو تساوي القيمة المستهدفة. على سبيل المثال، بالنظر إلى التوزيع الطبيعي للقيم المستمرة. يخبرك مقياس CDF أن ما يقرب من 50٪ من العينات يجب أن تكون أقل من أو تساوي إلى المتوسط وأن ما يقرب من 84٪ من العينات يجب أن تكون أقل من أو تساوي إلى انحراف معياري واحد فوق المتوسط.

D

تحليل البيانات

إن الحصول على فهم للبيانات من خلال النظر في العينات والقياس والتصور. يمكن أن يكون تحليل البيانات مفيدًا بشكل خاص عندما مجموعة البيانات لأول مرة، قبل أن تنشئ إحداهما النموذج الأول. ومن الأهمية بمكان أيضًا فهم التجارب وتصحيح الأخطاء النظام.

زيادة البيانات

#image

تعزيز نطاق وعدد أمثلة على التدريب من خلال تحويل البيانات الحالية أمثلة لإنشاء أمثلة إضافية. على سبيل المثال: لنفترض أن الصور هي إحدى الميزات، ولكن مجموعة البيانات لا سيحتوي على أمثلة صور كافية للنموذج لمعرفة ارتباطات مفيدة. من الناحية المثالية، ستضيف ما يكفي الصور المسماة إلى مجموعة البيانات لديك لتمكين النموذج من التدرّب بشكل صحيح. وإذا لم يكن ذلك ممكنًا، فإن زيادة البيانات يمكن تدوير كل صورة وتمديدها وعكسها لإنتاج العديد من متغيرات الصورة الأصلية، والتي قد ينتج عنها بيانات مصنَّفة كافية لإتاحة نتائج التدريب.

DataFrame

#fundamentals

نوع بيانات شائع pandas لتمثيل مجموعات البيانات في الذاكرة.

DataFrame مماثل لجدول أو جدول بيانات. كل عمود من DataFrame له اسم (رأس)، ويتم تحديد كل صف بواسطة رقم فريد.

تتم هيكلة كل عمود في DataFrame كصفيف ثنائي الأبعاد، باستثناء يمكن تعيين نوع البيانات الخاص لكل عمود.

راجع أيضًا مرجع pandas.DataFrame .

موازاة البيانات

طريقة لتوسيع نطاق التدريب أو الاستنتاج ينسخ نموذجًا بالكامل على أجهزة متعددة ثم يمرر مجموعة فرعية من بيانات الإدخال إلى كل جهاز. يمكن أن تتيح موازاة البيانات التدريب والاستنتاج على نماذج أحجام الدفعات ومع ذلك، يتطلب توازي البيانات أن أن يكون صغيرًا بما يكفي ليناسب جميع الأجهزة.

عادة ما يعمل موازاة البيانات على تسريع التدريب والاستنتاج.

راجِع أيضًا التوازي النموذجي.

مجموعة بيانات أو مجموعة بيانات

#fundamentals

يشير هذا المصطلح إلى مجموعة من البيانات الأولية التي يتم تنظيمها عادةً (وليس بشكل حصري) في مجموعة واحدة. بأي من التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

واجهة برمجة تطبيقات مجموعة البيانات (tf.data)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow عالية المستوى لقراءة البيانات وتحويله إلى شكل تتطلبه خوارزمية التعلم الآلي. يمثّل الكائن tf.data.Dataset تسلسلاً من العناصر التي يحتوي كل عنصر على أداة استشعار واحد أو أكثر. tf.data.Iterator يتيح الوصول إلى عناصر Dataset.

للحصول على تفاصيل حول Dataset API، يُرجى الاطّلاع على tf.data: إنشاء مسارات الإدخال لمنصة TensorFlow في دليل مبرمج TensorFlow

حدود القرار

الفاصل بين الصفوف التي تعلمتها الطراز في فئة ثنائية أو مسائل التصنيف متعدد الفئات. على سبيل المثال: في الصورة التالية التي تمثل مشكلة تصنيف ثنائي، فإن حدود القرار هي الحدود الواقعة بين الفئة البرتقالية الفئة الزرقاء:

يشير ذلك المصطلح إلى حدود محدَّدة بوضوح بين فئة وأخرى.

غابة القرارات

#df

يشير ذلك المصطلح إلى نموذج يتم إنشاؤه من عدة أشجار قرارات. تقوم غابة القرارات بالتنبؤ من خلال تجميع التنبؤات أشجار القرارات الخاصة بها. تشمل الأنواع الشائعة من غابات القرارات غابات عشوائية وأشجار مزروعة متدرجة.

الحد الأدنى لاتخاذ القرار

مرادف الحد الأدنى للتصنيف.

شجرة القرارات

#df

يشير هذا المصطلح إلى نموذج تعلُّم خاضع للإشراف مؤلّف من مجموعة من الشروط والمغادرة بتسلسل هرمي. على سبيل المثال، في ما يلي شجرة قرارات:

يشير هذا المصطلح إلى شجرة قرارات تتكوّن من أربعة شروط مرتّبة.
          بشكل هرمي، مما يؤدي إلى خمس أوراق.

برنامج فك الترميز

#language

وبشكل عام، يتم تحويل أي نظام لتعلّم الآلة من مجموعة بيانات تمت معالجتها أو إلى كثافة أو تمثيلاً داخليًا إلى تمثيل أولي أو متفرّق أو خارجي أكثر

غالبًا ما تكون برامج فك الترميز جزءًا من نموذج أكبر، حيث يتم استخدامها بشكل متكرر إلى جانب برنامج ترميز

في المهام المتسلسلة إلى التسلسل، أداة فك الترميز الحالة الداخلية التي ينشئها برنامج التشفير لتوقع التسلسل.

يُرجى الرجوع إلى Transformer للاطّلاع على تعريف برنامج فك الترميز في بنية المحوِّل.

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من عنصر طبقة مخفية.

ويسمى النموذج العميق أيضًا الشبكة العصبونية العميقة.

التباين مع النموذج العريض.

شبكة عصبية عميقة

مرادف لـ النموذج العميق.

شبكة Deep QNetwork (DQN)

#rl

في Q-تعلم، وهي عبارة عن شبكة عصبية عميقة تتنبأ بدوال Q.

ناقد هو مرادف لـ Deep Q-Network.

التكافؤ الديموغرافي

#fairness

مقياس إنصاف يتم توفيره إذا فإن نتائج تصنيف أي نموذج لا تعتمد على تم توفير سمة حسّاسة.

على سبيل المثال، إذا انطبق كل من ليليبوتيان وبروبدينجيانس على لجامعة غلوب دوبدريب، يتم تحقيق التكافؤ الديموغرافي إذا كانت النسبة المئوية من سكان مدينة ليليبوتياين تساوي نفس النسبة المئوية لسكان بروددينجينا يتم قبولها، بغض النظر عما إذا كانت إحدى المجموعات أكثر تأهيلاً في المتوسط من الآخر.

التباين مع الاحتمالات المتساوية تكافؤ الفرص، التي تسمح محددة إلى الاعتماد على التصنيفات الحساسة، ولكنها لا تسمح بنتائج التصنيف لبعض أنواع تصنيفات الحقائق الواقعية التي تعتمد على سمات حساسة عرض "الهجوم التمييز من خلال تعلُّم الآلة الأكثر ذكاءً" للحصول على تمثيل بصري واستكشاف المفاضلات عند التحسين من أجل التكافؤ الديموغرافي.

إزالة الضوضاء

#language

أسلوب شائع لاستخدام التعلّم الذاتي حيث:

  1. تتم إضافة الضوضاء بشكل زائف إلى مجموعة البيانات.
  2. يحاول model إزالة التشويش.

تتيح إزالة التشويش التعلُّم من أمثلة غير مصنَّفة. تعمل مجموعة البيانات الأصلية كهدف أو label البيانات الصاخبة كمدخل.

تستخدِم بعض النماذج اللغوية المقنَّعة ميزة إزالة التشويش. على النحو التالي:

  1. تتم إضافة الضوضاء بشكل مصطنع إلى جملة غير مصنَّفة من خلال إخفاء بعض الرموز المميزة.
  2. يحاول النموذج التنبؤ بالرموز المميزة الأصلية.

خاصية كثيفة

#fundamentals

ميزة تكون فيها معظم القيم أو جميعها غير صفرية، عادةً أداة الاستشعار لقيم النقطة العائمة على سبيل المثال، ما يلي Tensor ذات 10 عناصر كثيفة لأن 9 من قيمها غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع الميزة المتفرقة.

طبقة كثيفة

يشير ذلك المصطلح إلى الطبقة المتصلة بالكامل.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

فعلى سبيل المثال، يمكن إنشاء شبكة عصبية مكونة من خمس طبقات مخفية وطبقة إخراج واحدة. يبلغ عمقها 6.

لاحِظ أنّ طبقة الإدخال لا وعمق التأثير.

الشبكة العصبية الالتفافية القابلة للفصل بين العمق (sepCNN)

#image

شبكة عصبية التفافية الهندسة المعمارية على أساس Inception، يتم فيها استبدال وحدات Inception بوحدات منفصلة قابلة للفصل بعمق الالتفاف. تُعرف أيضًا باسم Xception.

التفاف قابل للفصل بعمق أكبر (يُختصَر أيضًا باسم التفاف قابل للفصل) يعمل الالتفاف ثلاثي الأبعاد القياسي على تحليل عمليتين منفصلتين من الالتفاف. أكثر فعالية من الناحية الحسابية: أولاً، الالتفاف الحاسم، مع عمق 1 (n topic n na 1) ثم التفاف نقاط، بالطول والعرض 1 (1 احرص على 1 فوز 1 فوز 1).

لمزيد من المعلومات، يمكنك الاطّلاع على مقالة Xception: التعلم المتعمق مع Depthwise Separable الالتفاف:

تصنيف مشتق

مرادف تصنيف الخادم الوكيل.

جهاز

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عبارة عن حمل زائد مع التعريفَين التاليَين:

  1. يشير هذا المصطلح إلى فئة من الأجهزة يمكنها تشغيل جلسة TensorFlow، بما في ذلك. وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) ووحدات معالجة الموتّرات:
  2. عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، وهو جزء من النظام يعالج فعليًا tensors والتضمين: يعمل الجهاز على شرائح مسرِّعة. في المقابل، يستخدم المضيف ويعمل عادةً على وحدة معالجة مركزية (CPU).

الخصوصية التفاضلية

يشير ذلك المصطلح إلى أسلوب إخفاء الهوية في تعلُّم الآلة لحماية أي بيانات حسّاسة. (على سبيل المثال، المعلومات الشخصية للفرد) التي يتم تضمينها في نموذج مجموعة التدريب من الظهور. يضمن هذا النهج أن النموذج لا يتعلّم أو يتذكّر الكثير عن نوع معيّن من أنواع المعلومات فرد. يتم تحقيق ذلك عن طريق جمع العينات وإضافة التشويش أثناء النموذج والتدريب لإخفاء نقاط البيانات الفردية، وتخفيف خطر كشف بيانات التدريب الحساسة.

ويتم أيضًا استخدام الخصوصية التفاضلية خارج نطاق تعلُّم الآلة. على سبيل المثال: يستخدم علماء البيانات أحيانًا الخصوصية التفاضلية لحماية الخصوصية عند حساب إحصاءات استخدام المنتج للفئات الديموغرافية المختلفة.

تقليل الأبعاد

تقليل عدد الأبعاد المستخدمة لتمثيل ميزة معينة في خط متجه الخصائص، عادةً عن طريق التحويل إلى متّجه تضمين.

الأبعاد

العبارة التي تحمل بشكلٍ زائد أيًّا من التعريفات التالية:

  • عدد مستويات الإحداثيات في Tensor بالنسبة مثال:

    • فالرقم القياسي ليس له أبعاد، على سبيل المثال، ["Hello"].
    • الخط المتجه له بُعد واحد؛ على سبيل المثال، [3, 5, 7, 11].
    • للمصفوفة بُعدان؛ على سبيل المثال، [[2, 4, 18], [5, 7, 14]].

    يمكنك تحديد خلية معينة بشكل فريد في متجه أحادي البعد بتنسيق واحد؛ تحتاج إلى إحداثيتين لتحديد خلية معينة في مصفوفة ثنائية الأبعاد.

  • عدد الإدخالات في متّجه الميزة.

  • عدد العناصر في طبقة تضمين.

طلب مباشر

#language
#generativeAI

مرادف لطلب بدون لقطة.

خاصية منفصلة

#fundamentals

يشير ذلك المصطلح إلى ميزة تتضمّن مجموعة محدودة من القيم المحتمَلة. على سبيل المثال: الميزة التي قد تكون قيمها قد تكون فقط حيوان أو خضار أو معدن هي منفصلة (أو فئوية).

التباين مع الميزة المستمرة.

نموذج تمييزي

نموذج يتوقّع التصنيفات من مجموعة مكوّنة من تصنيف واحد أو المزيد من الميزات. وبشكل أكثر رسمية، تحدد النماذج التمييزية الاحتمالية المشروطة للمخرجات في ضوء الخصائص weights; وهي:

p(output | features, weights)

فعلى سبيل المثال، نموذج يتنبأ بما إذا كانت الرسالة الإلكترونية هي رسالة غير مرغوب فيها من الميزات والأوزان نموذج تمييزي.

الغالبية العظمى من نماذج التعلم المُوجّه، بما في ذلك التصنيف ونماذج الانحدار، هي نماذج تمييزية.

التباين مع النموذج التوليدي.

أداة تمييز

نظام يحدِّد ما إذا كانت الأمثلة حقيقية أم مزيّفة

بدلاً من ذلك، يمكن أن يعمل النظام الفرعي ضمن النظام الخداعي التوليدي الشبكة التي تحدد ما إذا كان أن تكون الأمثلة التي أنشأها منشئ المحتوى حقيقية أو مزيّفة.

تأثير متباين

#fairness

اتخاذ القرارات بشأن الأشخاص الذين يؤثرون في مجتمعات مختلفة من المجموعات الفرعية بشكل غير متناسب. يشير هذا عادةً إلى المواقف حيث تضر عملية اتخاذ القرار الخوارزمية أو تستفيد بعض المجموعات الفرعية أكثر من غيرها.

فعلى سبيل المثال، لنفترض أن الخوارزمية التي تحدد هدف ليليبوتيان. من المرجح أن يتم تصنيف الأهلية للحصول على قرض منزل مصغر على أنهم "غير مؤهلين" إذا كان عنوانه البريدي يحتوي على علامة الرمز البريدي. إذا كان من المرجح أن يكون لدى العناوين البريدية التي تحمل هذا الرمز البريدي أكثر من Little-Endian Lilliputians، فقد ينتج عن هذه الخوارزمية تأثيرًا متباينًا.

التباين مع المعالجة المتباينة، الذي يركز على التناقضات التي تنتج عندما تبرز خصائص هي مدخلات صريحة إلى عملية اتخاذ القرار الخوارزمية.

العلاج المتباين

#fairness

تحليل الموضوعات" السمات الحسّاسة في عملية خوارزمية لاتخاذ القرار بحيث تؤدي المجموعات الفرعية المختلفة من الناس يتم التعامل معهم بشكل مختلف.

على سبيل المثال، ضع في الاعتبار خوارزمية يحدد قيمة الأهلية للحصول على قرض منزل مصغر بناءً على البيانات التي يتم تقديمها في طلب الحصول على قرض. إذا كانت الخوارزمية تستخدم كان ارتباط ليليبوتيان كـ Big-Endian أو Little-Endian كمدخل، تطبيق معالجة متباينة على هذا البعد.

تباين مع التأثير المتباين الذي يركز على الاختلافات في التأثيرات المجتمعية للقرارات الخوارزمية على المجموعات الفرعية، بغض النظر عمَّا إذا كانت تلك المجموعات الفرعية مدخلات إلى النموذج أم لا.

التقطير

#generativeAI

عملية تقليل حجم نموذج واحد (يُعرف باسم author) إلى نموذج أصغر (يُعرف باسم student) يحاكي تنبؤات النموذج الأصلي بأكبر قدر ممكن من الصدق. التقطير مفيدًا لأن النموذج الأصغر له فائدتان رئيسيتان مقارنةً النموذج (المعلم):

  • وقت استنتاج أسرع
  • انخفاض استخدام الذاكرة والطاقة

ومع ذلك، فإن تنبؤات الطالب لا تكون عادةً جيدة لتنبؤات المعلم.

تدرّب عملية الاستخلاص نموذج الطالب لتقليل دالة الخسارة استنادًا إلى الفرق بين المخرجات لتنبؤات نماذج الطلاب والمعلمين.

تحديد أوجه الاختلاف والتشابه بين الاستخلاص والمصطلحات التالية:

distribution

التكرار ونطاق القيم المختلفة لعنصر معين feature أو label. يشير التوزيع إلى مدى احتمالية وجود قيمة معينة.

توضح الصورة التالية المدرجات التكرارية لتوزيعين مختلفين:

  • على اليسار، توزيع قانون السلطة للثروة مقابل عدد الأشخاص امتلاك هذه الثروة.
  • على اليمين، توزيع طبيعي للطول مقابل عدد الأشخاص تمتلك هذا الارتفاع.

مدرجان تكراريان. يوضح أحد المدرجات التكرارية توزيع قانون الطاقة باستخدام
          الثروة على المحور س وعدد الأشخاص الذين يمتلكون هذه الثروة على
          والمحور y. يمتلك معظم الناس ثروة قليلة جدًا، وقلة قليلة
          الكثير من الثروة. يوضح المدرّج التكراري الآخر توزيعًا طبيعيًا
          بالطول على المحور x وعدد الأشخاص الذين لديهم هذا الطول
          على المحور y. يتم تجميع معظم الأشخاص في مكان ما بالقرب من المتوسط.

يمكن أن يساعدك فهم كل ميزة وتوزيع تصنيف في تحديد كيف لتسوية القيم واكتشاف القيم الشاذّة.

تشير عبارة out of distribution إلى قيمة لا تظهر في أو نادرة جدًا. على سبيل المثال، ستُعرض صورة لكوكب زحل عدم توزيعه في إحدى مجموعات البيانات التي تتألف من صور القطط.

التجميع العنقودي التقسيمي

#clustering

اطّلِع على التجميع الهرمي.

downsampling

#image

عبارة التحميل الزائد والتي قد تعني أيًا مما يلي:

  • خفض كمية المعلومات في ميزة في من أجل تدريب النموذج بشكلٍ أكثر كفاءة. على سبيل المثال: قبل تدريب أحد نماذج التعرّف على الصور، أو تقليل العيّنات العالية الدقة الصور إلى تنسيق أقل دقة.
  • التدريب على نسبة منخفضة بشكل غير متناسب من تمثيلي زائد الفئة من أجل تحسين تدريب النموذج على الفئات محدودة التمثيل. فعلى سبيل المثال، في نظام غير متوازن مجموعة البيانات، غالبًا ما تتعلم النماذج الكثير عن فئة الأغلبية ولا يكفي عن فئة القاصرين: يساعد تصغير نطاق العيّنات لتحقيق التوازن بين حجم التدريب على فئات الأغلبية والأقليات.

DQN

#rl

اختصار Deep Q-Network

تسوية الإسقاط

يشير هذا المصطلح إلى أحد أشكال التنظيم المفيد في التدريب. الشبكات العصبونية. تسوية عملية الانسحاب إزالة تحديد عشوائي لعدد ثابت من الوحدات في الشبكة لخطوة تدرج واحدة. كلما زاد عدد الوحدات التي تم حذفها، زادت التسوية. ويشبه هذا تدريب الشبكة على محاكاة مجموعة كبيرة للغاية من الشبكات الأصغر حجمًا. للحصول على التفاصيل الكاملة، يمكنك مراجعة التسرّب: طريقة بسيطة لمنع الشبكات العصبونية من فرط التخصيص.

ديناميكي

#fundamentals

حدث شيء ما بشكل متكرر أو مستمر. المصطلحان ديناميكي وعلى الإنترنت مرادفان لمصطلح "تعلُّم الآلة". فيما يلي الاستخدامات الشائعة ديناميكية وعبر الإنترنت في الجهاز التعلم:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية لإنشاء التنبؤات عند الطلب.

نموذج ديناميكي

#fundamentals

نموذج يتم استخدامه بشكل متكرّر (ربما بشكل مستمر) إعادة تدريبه. النموذج الديناميكي هو "متعلم مدى الحياة" الذي/التي تتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم على الإنترنت.

التباين مع النموذج الثابت.

E

التنفيذ بشغف

#TensorFlow

بيئة برمجة TensorFlow حيث يتم استخدام العمليات يتم تشغيله على الفور. وعلى النقيض من ذلك، فإن العمليات التي يتم استدعاؤها لا يتم تنفيذ تنفيذ الرسم البياني إلى أن يتم تنفيذ ذلك بشكل صريح التقييم. التنفيذ السريع هو الحاسمة، مثل الرمز في معظم لغات البرمجة. تُعد برامج التنفيذ الحرجة بشكل عام، يكون تصحيح الأخطاء أسهل بكثير من برامج تنفيذ الرسم البياني.

إيقاف مبكر

#fundamentals

طريقة للتنظيم تشمل إنهاء تدريب قبل انتهاء مدة التدريب متناقصة. عند التوقف المبكر، تتعمد التوقف عن تدريب النموذج عندما تبدأ الخسارة في مجموعة بيانات التحقق increase; أي عندما ويتفاقم أداء التخصيص.

مسافة محرِّك الأرض (EMD)

مقياس للتشابه النسبي لاثنين من توزيعات. وكلما انخفضت مسافة محرِّك الأرض، زادت تشابه التوزيعات.

تعديل المسافة

#language

يشير ذلك المصطلح إلى قياس لمدى تشابه سلسلتَين نصيتَين مع بعضهما. وفي تعلُّم الآلة، يكون تعديل المسافة مفيدًا لأنه من السهل والحوسبة، وطريقة فعالة لمقارنة سلسلتين معروفتين مشابهة أو للعثور على سلاسل مشابهة لسلسلة معينة.

هناك تعريفات متعددة لتعديل المسافة، ولكل منها سلسلة مختلفة العمليات التجارية. على سبيل المثال، مسافة ليفنشتين تعتبر أقل عمليات حذف وإدراج واستبدال.

على سبيل المثال، مسافة ليفنشتين بين الكلمتين "قلب" و"السهام" 3 لأن التعديلات الثلاثة التالية هي أقل التغييرات التي تؤدي إلى تحويل كلمة واحدة في الآخر:

  1. قلب ← قلب (استبدل "ع" بـ "د")
  2. deart → dart (حذف "e")
  3. dart → darts (إدراج "s")

رمز Einsum

يشير ذلك المصطلح إلى علامة فعّالة لوصف كيفية استخدام عاملَي متوتر. مجتمعة. يتم جمع العشرات من خلال ضرب عناصر متوتر واحد. باستخدام عناصر الموتر الآخر ثم جمع النواتج. يستخدم تدوين Einsum الرموز لتحديد محاور كل متينس، وتلك التي تتم إعادة ترتيب نفس الرموز لتحديد شكل متوتر الناتج الجديد.

توفّر NumPy طريقة شائعة لتنفيذ Einsum.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على التصنيف الفئوي عالية الأبعاد وتتعلم تدريجيًا متجه تضمين البعد. إنّ تمكّن طبقة التضمين الشبكة العصبية من التدريب بشكل أكبر فعالية من التطبيق فقط على خاصية الفئوية عالية الأبعاد.

على سبيل المثال، يدعم تطبيق Earth حاليًا حوالي 73000 نوع من الأشجار. فرض أنواع الأشجار هي ميزة في نموذجك، لذا فإن تشمل طبقة الإدخال متّجهًا واحدًا سريع يبلغ حجمه 73,000 العناصر الطويلة. على سبيل المثال، قد يتم تمثيل السمة baobab على النحو التالي:

مصفوفة مكونة من 73,000 عنصر. يحتوي أول 6232 عنصرًا على القيمة
     0. يحمل العنصر التالي القيمة 1. يحمل آخر 66,767 عنصرًا
     بالقيمة صفر.

الصفيفة المكونة من 73000 عنصر طويلة جدًا. في حال عدم إضافة طبقة تضمين النموذج، وسيستغرق التدريب وقتًا طويلاً للغاية بسبب ضرب 72999 صفرًا. ربما تختار طبقة التضمين لتضمين من 12 بُعدًا. وبالتالي، تتعلم طبقة التضمين تدريجيًا متجه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً. إلى طبقة تضمين.

مساحة التضمين

#language

يشير ذلك المصطلح إلى مساحة الخط المتجه ذي الأبعاد d. مساحة الخط المتجه إليها. ومن الناحية المثالية، تحتوي مساحة التضمين على هيكل تسفر عن نتائج رياضية ذات مغزى؛ على سبيل المثال، في مساحة تضمين مثالية، إلى جانب تجميع وطرح التضمينات حل مهام تشبيه الكلمات.

منتج النقاط تضمينان هو مقياس للتشابه.

تضمين متجه

#language

يمكن القول بوجهٍ عام، إن مصفوفة من أرقام النقطة العائمة مأخوذة من أي الطبقة المخفية التي تصف مدخلات تلك الطبقة المخفية. غالبًا ما يكون متجه التضمين هو صفيفة أرقام النقطة العائمة المدربة طبقة تضمين. على سبيل المثال، لنفترض أن طبقة التضمين يجب أن تتعرف على تضمين متجه لكل نوع من أنواع الأشجار البالغ عددها 73000 نوع على الأرض. ربما الصفيفة التالية هي متجه التضمين لشجرة الباوباب:

مصفوفة من 12 عنصرًا، يحتوي كل منها على رقم نقطة عائمة
          بين 0.0 و1.0.

متجه التضمين ليس مجموعة من الأرقام العشوائية. طبقة تضمين هذه القيم من خلال التطبيق، على غرار الطريقة الشبكة العصبية تتعلم الأوزان الأخرى أثناء التدريب. يُعد كل عنصر من عناصر تصنيف الصفيفة إلى جانب بعض خصائص أنواع الأشجار. أي التي تمثل أنواع الأشجار بشكل أفضل؟ هذا صعب جدًا ليتمكّن البشر من تحديدها

الجزء المميز من الناحية الرياضية من الخط المتجه التضمين هو أن تحتوي العناصر على مجموعات متشابهة من أرقام النقاط العائمة. على سبيل المثال: تحتوي أنواع الأشجار على مجموعة أكثر تشابهًا من أعداد النقاط العائمة أنواع الأشجار المختلفة. تُعد الغابات الحمراء والسيكويا أنواعًا من الأشجار مرتبطة، لذلك سيكون لديه مجموعة متشابهة من الأرقام العائمة أكثر من ونخيل الخشب الأحمر وجوز الهند. ستكون الأرقام في متجه التضمين التغيير في كل مرة تُعيد فيها تدريب النموذج، حتى لو أعدت تدريب النموذج مع إدخال متطابق.

دالة التوزيع التراكمي التجريبية (eCDF أو EDF.)

دالة توزيع تراكمي استنادًا إلى قياسات تجريبية من مجموعة بيانات حقيقية. تحدد قيمة في أي نقطة على طول المحور x هو جزء من الملاحظات في مجموعة البيانات الأقل من أو تساوي القيمة المحددة.

تقليص المخاطر التجريبية (ERM)

اختيار الدالة التي تقلل من الخسارة في مجموعة التدريب. التباين من خلال تقليل المخاطر الهيكلية

برنامج تشفير

#language

بشكل عام، إنّ أي نظام لتعلُّم الآلة يُجري عملية تحويل من تنسيق أولي أو متناثر أو خارجي إلى تمثيل داخلي أكثر معالجة أو كثافة أو أكثر.

غالبًا ما تكون برامج الترميز جزءًا من نموذج أكبر، حيث يتم استخدامها بشكل متكرّر إلى جانب برنامج فك الترميز بعض المحوّلات إقران برامج الترميز ببرامج فك الترميز، علمًا أنّ المحولات الأخرى لا تستخدم سوى برنامج الترميز أو برنامج فك الترميز فقط.

وتستخدم بعض الأنظمة مخرجات برنامج التشفير كمدخل للتصنيف أو شبكة الانحدار.

في مهام التسلسل إلى التسلسل، يكون برنامج الترميز تأخذ تسلسل إدخال وترجع حالة داخلية (متّجه). بعد ذلك، يستخدم برنامج فك الترميز هذه الحالة الداخلية لتوقّع التسلسل التالي.

يُرجى مراجعة Transformer للاطّلاع على تعريف برنامج الترميز في بنية المحوِّل.

مجموعة موحدة

مجموعة من النماذج التي تم تدريبها بشكل مستقل والتي تتضمن توقعاتها تكون إما متوسطية أو مجمعة. في كثير من الحالات، ينتج عن المجموعة النموذجية أفضل أكثر من نموذج واحد. على سبيل المثال، الغابة العشوائية هي مجموعة مبنية من عدة مصادر أشجار القرارات: لاحظ أنه ليس كل غابات القرارات هي مجموعات موحدة.

الإنتروبيا

#df

ضِمن نظرية المعلومات، وصف لمدى عدم إمكانية التنبؤ توزيعها. وبدلاً من ذلك، يُعرَّف القصور أيضًا على أنه مقدار المعلومات التي يحتوي عليها كل مثال. يحتوي التوزيع على أعلى قصور ممكن عندما تكون جميع قيم المتغير العشوائي احتمال متساوٍ.

القصور في مجموعة بقيمتَين محتملتَين "0" و"1" (على سبيل المثال، التصنيفات في مسألة تصنيف ثنائي) على الصيغة التالية:

H = -p Log p - q log q = -p log p - (1-p) * log (1-p)

حيث:

  • H هو القصور.
  • p هو كسر "1" الأمثلة.
  • q هو كسر "0" الأمثلة. لاحظ أن q = (1 - p)
  • log بشكل عام هو السجلّ2. وفي هذه الحالة، ينتمي القصور قليلاً.

على سبيل المثال، لنفترض ما يلي:

  • هناك 100 مثال تحتوي على القيمة "1"
  • 300 مثال تحتوي على القيمة "0"

وبالتالي، تكون قيمة القصور هي:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 بت لكل مثال

مجموعة متوازنة تمامًا (على سبيل المثال، 200 "0" و200 "1") قد يكون هناك قصور يبلغ 1.0 بت لكل مثال. عندما تصبح المجموعة أكثر غير متوازن، يتحرك قصوره باتجاه 0.0.

في أشجار القرارات، يساعد القصور في تشكيل تحصيل المعلومات لمساعدة التقسيم لاختيار الشروط أثناء نمو شجرة قرارات التصنيف.

مقارنة القصور مع:

غالبًا ما يطلق على القصور قصور شانون.

بيئة

#rl

في مجال التعلّم المعزّز، العالم الذي يحتوي على الوكيل ويسمح للوكيل بمراقبة دول تلك العالم. على سبيل المثال: العالم الممثَّل يمكن أن يكون لعبة مثل الشطرنج، أو عالم مادي مثل متاهة عندما يطبِّق الوكيل إجراءً على البيئة، ثم تنتقل البيئة بين الحالات.

حلقة

#rl

في التعلم المعزّز، يتم اتخاذ كل من المحاولات المتكررة الوكيل للتعرّف على البيئة.

حقبة

#fundamentals

شهادة تدريب كاملة تشمل مجموعة التدريب بالكامل بحيث تتم معالجة كل مثال مرة واحدة.

تمثل الحقبة N/حجم الدفعة. التكرارات التدريبية، حيث N هو وإجمالي عدد الأمثلة.

على سبيل المثال، لنفترض أن ما يلي:

  • تتكون مجموعة البيانات من 1000 مثال.
  • حجم الدفعة هو 50 مثالاً.

وبالتالي، تتطلب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

سياسة إبسيلون الجشع

#rl

في مجال التعلّم المعزّز، تمثّل سياسة إما السياسة العشوائية التي تتضمن احتمالية استخدام إبسيلون أو السياسة الجسيمة بخلاف ذلك. على سبيل المثال، إذا كان إبسيلون هو 0.9، وبالتالي تتبع السياسة سياسة عشوائية بنسبة 90% من الوقت وطمعة السياسة بنسبة 10% من الوقت.

في الحلقات المتتالية، تقلّل الخوارزمية من قيمة إبسيلون بالترتيب. الانتقال من اتّباع سياسة عشوائية إلى سياسة طمعة. من بتغيير السياسة، يستكشف الوكيل أولاً البيئة بشكل عشوائي ثم يستغل نتائج الاستكشاف العشوائي بشراسة.

تكافؤ الفرص

#fairness

مقياس إنصاف لتقييم ما إذا كان النموذج التنبؤ بالنتيجة المرجوة بشكل متساوٍ لجميع قيم سمة حسّاسة بمعنى آخر، إذا كانت قيمة فإن النتيجة المرجوة لأي نموذج هي الفئة الموجبة، أن يكون الهدف هو الحصول على معدل الموجب الصحيح نفسه لجميع المجموعات.

ترتبط تكافؤ الفرص بالاحتمالات المتساوية، الأمر الذي يتطلب أن كل من المعدلات الموجبة الصائبة تكون الأسعار الموجبة الخاطئة هي نفسها لجميع المجموعات.

لنفترض أن جامعة غلوب دوبدريب تعترف بكل من ليليبوتيان وبروبديناجيان. إلى برنامج رياضيات صارم. ليليبوتيانز المدارس الثانوية تقدم منهجًا قويًا لفصول الرياضيات، وأن الغالبية العظمى من الطلاب مؤهلاً لبرنامج الجامعة. برودديناجينز المدارس الثانوية دروس الرياضيات على الإطلاق، ونتيجةً لذلك، يقل عدد طلابهم مؤهلاً. تتم تلبية تكافؤ الفرص للتصنيف المفضل "تم السماح بالانضمام" في ما يتعلق بالجنسية (Lilliputian أو Brobdingnagian) إذا من المرجح أن يتم قبول الطلاب المؤهلين بشكل متساوٍ بغض النظر عما إذا كانوا ليليبوتيان أو بروبديناجي.

على سبيل المثال، لنفترض أن 100 من Lilliputian و100 من Brobdingnagis ينطبق عليهم يتم اتّخاذ القرارات المتعلّقة بقبول طلبات الالتحاق بجامعة غلوب دوبدريب على النحو التالي:

الجدول 1. المتقدمون من Lilliputian (%90 مؤهلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 3
تم الرفض 45 7
المجموع 90 10
النسبة المئوية للطلاب المؤهلين المسموح بهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 7/10 = 70%
النسبة المئوية الإجمالية للطلاب في مدينة ليليبوتية المتاحين فيها: (45+3)/100 = 48%

 

الجدول 2. مقدمو طلبات الانضمام إلى برنامج Brobdingnagian (%10 مؤهلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 9
تم الرفض 5 81
المجموع 10 90
النسبة المئوية للطلاب المؤهلين المسموح بهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 81/90 = 90%
النسبة المئوية الإجمالية للطلاب الذين انضموا إلى جامعة Brobdingnagian: (5+9)/100 = 14%

تلبي الأمثلة السابقة تكافؤ فرص قبول وطلاب مؤهلين لأن كلاً من Lilliputians وBrobdingnagians المؤهلين فرصة 50% للسماح لهم بالانضمام إلى البرنامج.

بينما يتم تحقيق تكافؤ الفرص، يتم استخدام مقياسي الإنصاف التاليَين غير راضين:

  • التكافؤ السكاني: ليليبوتيان يتم قبول سكان "بروبردينجيون" في الجامعة بمعدلات مختلفة. يتم قبول 48٪ من طلاب ليليبوتيان، ولكن 14٪ فقط من ويمكن انضمام طلاب مدرسة Brobdingnagian.
  • الاحتمالات المتساوية: بالرغم من أهلية "ليلبوتيان" وكل من طلاب مؤسسة Brobdingnagian لها نفس فرصة الانضمام، القيد الإضافي الذي يفرضه كائنات ليليبوتيان غير المؤهلة لدى كل فرد من أفراد مجموعة Brobdingnagis فرصة رفض رفض طلبهم عن الرضا. لدى ليليبوتين غير المؤهلين معدل رفض بنسبة 70٪، في حين أن فأهل مؤسسات Brobdingnagis غير المؤهّلة معدّل رفض بنسبة% 90

راجع "تساوي فرصة في التعلّم المُوجّه" لإجراء مناقشة أكثر تفصيلاً تكافؤ الفرص. راجع أيضًا "الهجوم التمييز من خلال تعلُّم الآلة الأكثر ذكاءً" للحصول على تمثيل بصري واستكشاف المفاضلات عند التحسين من أجل تكافؤ الفرص.

الاحتمالات المتساوية

#fairness

مقياس إنصاف لتقييم ما إذا كان النموذج يتنبأ بالنتائج بالتساوي لجميع قيم السمة الحساسة ذات تجاه كل من الفئة الموجبة فئة سلبية: ليس فقط فئة واحدة أو الفئة الأخرى حصرًا. بعبارة أخرى، نجد أن كلاً من المعدل الموجب الصحيح ويجب أن يكون معدّل السالب الخاطئ هو نفسه جميع المجموعات.

ترتبط الاحتمالات المتساوية تكافؤ الفرص، التي تركز فقط على معدلات الخطأ لفئة واحدة (إيجابية أو سالبة).

على سبيل المثال، لنفترض أن جامعة Glubbdubdrib تعترف بكل من ليليبوتيان أخصائيو شركة Brobdingnagis إلى برنامج رياضي صارم ليليبوتيانز ثانوي المدارس منهجًا قويًا لدروس الرياضيات، وأن الغالبية العظمى من طالبًا مؤهلين للانضمام إلى برنامج الجامعة. برودديناجينز ثانوي المدارس لا تقدم دروسًا في الرياضيات على الإطلاق، ونتيجةً لذلك، يقل عدد طلابهم مؤهلين. تتم تلبية الاحتمالات المتساوية بشرط ألا بغض النظر عما إذا كان مقدم الطلب ليليبوتي أو بروبديناجي، إذا كان ومؤهلين، يزيد احتمال قبولهم في البرنامج بنفس القدر وإذا لم يكونوا مؤهلين، فسيزداد احتمال رفضهم.

لنفرض أنّ 100 شخص من "ليليبوتيان" و100 شخص من "الأخوين" يتقدمون بطلب للانضمام إلى Glubbdubdrib يتم اتخاذ القرارات المتعلقة بالجامعة والقبول على النحو التالي:

الجدول 3. المتقدمون من Lilliputian (%90 مؤهلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 2
تم الرفض 45 8
المجموع 90 10
النسبة المئوية للطلاب المؤهلين المسموح بهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 8/10 = 80%
النسبة المئوية الإجمالية للطلاب في مدينة ليليبوتية المتاحين بها: (45+2)/100 = 47%

 

الجدول 4. مقدمو طلبات الانضمام إلى برنامج Brobdingnagian (%10 مؤهلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 18
تم الرفض 5 72
المجموع 10 90
النسبة المئوية للطلاب المؤهلين المسموح بهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 72/90 = 80%
النسبة المئوية الإجمالية للطلاب الذين انضموا إلى جامعة Brobdingnagian: (5+18)/100 = 23%

تتم تلبية الاحتمالات المتساوية لأنّ كلاً من ليليبوتيان وبروبديناغيان مؤهلين لدى كل من الطلاب فرصة 50٪ للالتحاق بالجامعة، وليلبوتيان غير مؤهل لدى مؤسسة Brobdingnagian فرصة 80% للرفض.

يتم تعريف الاحتمالات المتساوية رسميًا في "تساوي فرصة التحسين في التعلّم المُوجّه" على النحو التالي: "يفي المتنبأ بالاحتمالات المتساوية باحترام إلى السمة المحمية A والنتيجة Y إذا كان العنصران U وA مستقلين، شرطية على Y".

مقدِّر

#TensorFlow

واجهة برمجة تطبيقات TensorFlow نهائيًا استخدام tf.keras بدلاً من ذلك من المقدرين.

إيفالز

#language
#generativeAI

يُستخدم بشكل أساسي كاختصار لتقييمات النموذج اللغوي الكبير. على نطاق أوسع، تُعد evals اختصارًا لأي شكل من أشكال التقييم:

التقييم

#language
#generativeAI

يشير ذلك المصطلح إلى عملية قياس جودة أحد النماذج أو مقارنة النماذج المختلفة. مقابل بعضنا البعض.

لتقييم تعلُّم الآلة الخاضع للإشراف نموذج، يمكنك الحكم عليه عادةً من خلال مجموعة تحقُّق ومجموعة اختبار. تقييم النموذج اللغوي الكبير تقييمات أوسع للجودة والأمان.

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما تصنيف. أمثلة في التعلّم المُوجّه: الفئات العامة:

  • يتألف المثال المصنَّف من ميزة واحدة أو أكثر. وتصنيف. يتم استخدام الأمثلة المصنفة أثناء التدريب.
  • يتألف المثال غير المصنَّف من واحد أو المزيد من الميزات ولكن ليس هناك تسمية. يتم استخدام الأمثلة غير المصنفة أثناء الاستنتاج.

فعلى سبيل المثال، افترض أنك تتدرب على نموذج لتحديد تأثير أحوال الطقس على درجات اختبار الطالب. فيما يلي ثلاثة أمثلة مصنفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. أي أن المثال يتكون عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. علاوة على ذلك، يمكن أن تتضمن الميزات الموجودة في أحد الأمثلة أيضًا الميزات الاصطناعية، مثل تجاوزات الميزات.

إعادة تشغيل التجربة

#rl

في التعلم المعزز، تُستخدم تقنية DQN وتقليل الارتباطات الزمنية في بيانات التطبيق. الوكيل يخزِّن انتقالات الحالة في مخزن مؤقت لإعادة التشغيل، ثم نماذج انتقالات من المخزن المؤقت لإعادة التشغيل لإنشاء بيانات تدريب.

انحياز المُختبِر

#fairness

راجِع الانحياز التأكيدي.

مشكلة التدرّج المتفجر

#seq

ميل التدرجات في الشبكات العصبونية العميقة (خاصةً الشبكات العصبونية المتكررة) لتصبح شديد الانحدار (مرتفع) بشكل مدهش. غالبًا ما تؤدي التدرجات الشديدة إلى إجراء تعديلات كبيرة جدًا مع القيم المرجحة لكل عقدة في شبكة عصبية عميقة.

النماذج التي تعاني من مشكلة التدرج المتفجر تصبح صعبة أو من المستحيل تدريبه. الاقتصاص المتدرج التخفيف من هذه المشكلة.

قارِن بينها وبين مشكلة التلاشي للتدرّج.

F

سيارات F1

"عرض إجمالي" مقياس التصنيف الثنائي والذي يعتمد على الدقة والاستدعاء فيما يلي المعادلة:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

على سبيل المثال، في ما يلي:

  • الدقة = 0.6
  • التذكُّر = 0.4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

عندما تكون الدقة والتذكر متشابهين إلى حد ما (كما في المثال السابق)، F1 قريب من المتوسط. حالات اختلاف الدقة عن التذكر بشكل كبير، تكون F1 أقرب إلى القيمة الأقل. على سبيل المثال:

  • الدقة = 0.9
  • التذكُّر = 0.1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

قيد الإنصاف

#fairness
تطبيق قيد على خوارزمية لضمان توفُّر تعريف واحد أو أكثر الإنصاف راضين. تشمل أمثلة قيود الإنصاف ما يلي:

مقياس الإنصاف

#fairness

تعريف رياضي لكلمة "الإنصاف" قابلة للقياس. تتضمن بعض مقاييس الإنصاف الشائعة الاستخدام ما يلي:

العديد من مقاييس الإنصاف تكون حصرية بشكل متبادل؛ الرؤية عدم توافق مقاييس الإنصاف.

سالب خاطئ (FN)

#fundamentals

يشير هذا المصطلح إلى مثال يتنبأ فيه النموذج عن طريق الخطأ الفئة السالبة. على سبيل المثال، يعبِّر النموذج يتنبأ بأن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، لكن هذه الرسالة الإلكترونية في الواقع هي رسالة غير مرغوب فيها.

معدل سالب خاطئ

يشير هذا المصطلح إلى نسبة الأمثلة الإيجابية الفعلية التي تم رصدها عن طريق الخطأ. تنبأ بالفئة السالبة. تحسب المعادلة التالية القيمة false معدل سلبي:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

موجب خاطئ (FP)

#fundamentals

يشير هذا المصطلح إلى مثال يتنبأ فيه النموذج عن طريق الخطأ فئة إيجابية. فعلى سبيل المثال، يتنبأ النموذج أن رسالة إلكترونية معينة هي رسالة غير مرغوب فيها (الفئة الإيجابية)، لكن من أن تكون رسالة غير مرغوب فيها في الواقع.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير هذا المصطلح إلى نسبة الأمثلة السلبية الفعلية التي تم رصدها عن طريق الخطأ. تتنبأ الفئة الموجبة. تحسب المعادلة التالية القيمة false معدل الموجب:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدّل الموجب الخاطئ هو المحور "س" في منحنى RoC.

ميزة

#fundamentals

يشير ذلك المصطلح إلى متغيّر إدخال في نموذج تعلُّم الآلة. مثال يتكون من ميزة واحدة أو أكثر. على سبيل المثال، افترض أنك تدرّب نموذجي لتحديد تأثير ظروف الطقس على درجات اختبار الطالب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلٌ منها على ثلاث ميزات وتسمية واحدة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

تباين مع label.

تقاطع الخصائص

#fundamentals

ميزة اصطناعية تم تكوينها من خلال عبارة "دمج" ميزات فئوية أو مجمّعة.

على سبيل المثال، ننصحك باستخدام أداة "توقّعات الحالة المزاجية" نموذج يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى المجموعات الثلاث التالية:

  • still
  • light
  • windy

بدون تقاطعات الخصائص، يتدرّب النموذج الخطي بشكل مستقل على كل قبل سبع مجموعات مختلفة. إذًا، يتدرب النموذج، على سبيل المثال، freezing بشكل مستقل عن التدريب، على سبيل المثال، windy

وبدلاً من ذلك، يمكنك إنشاء خاصية تقاطع درجة الحرارة سرعة الرياح. تضم هذه الميزة الاصطناعية ما يلي 12 ممكنة القيم التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل الروابط المتقاطعة المميّزة، يمكن أن يتعلّم النموذج فروقًا مزاجية. بين يوم واحد (freezing-windy) ويوم واحد (freezing-still)

إذا أنشأت ميزة اصطناعية من ميزتَين يتضمّن كلّ منهما الكثير من مجموعات مختلفة، فإن تقاطع الميزة الناتج سيحتوي على عدد كبير من المجموعات المحتملة. على سبيل المثال، إذا كانت إحدى الميزات تحتوي على 1000 مجموعة بيانات يحتوي العنصر الآخر على 2000 مجموعة بيانات، فإن تقاطع الميزة الناتج به 2,000,000 دلاء.

رسميًا، الصليب هو المنتج الديكارتي:

تُستخدم روابط الميزات في الغالب مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تطبيق أحد النماذج.
  2. إن تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من هذه الميزات.

على سبيل المثال، قد تجد أن temperature قد يكون مفيدًا الجديدة. بعد ذلك، يمكنك تجربة استخدام ميزة تجميع البيانات. لتحسين المعلومات التي يمكن أن يتعلّمها النموذج من نطاقات temperature المختلفة.

يُطلق على هندسة الميزات أحيانًا استخراج الميزات تحديد السمات:

استخراج الميزات

العبارة التي تم تحميلها بشكل زائد وتتضمّن أحد التعريفات التالية:

أهمية الميزات

#df

مرادف للأهمية المتغيرة.

مجموعة الخصائص

#fundamentals

مجموعة ميزات تعلُّم الآلة يتدرب model على. على سبيل المثال، قد يتضمن الرمز البريدي وحجم الموقع وحالة الموقع إنشاء مجموعة خصائص بسيطة لنموذج يتنبأ بأسعار المساكن.

مواصفات الميزات

#TensorFlow

وصف المعلومات المطلوبة لاستخراج بيانات الميزات من المخزن المؤقت لبروتوكول tf.Example. نظرًا لأن tf.Example. المخزن المؤقت للبروتوكول هو مجرد حاوية للبيانات، يجب تحديد ما يلي:

  • البيانات المطلوب استخراجها (أي مفاتيح الميزات)
  • نوع البيانات (مثلاً، float أو int)
  • الطول (ثابت أو متغيّر)

خط متجه الخصائص

#fundamentals

يشير هذا المصطلح إلى مصفوفة قيم feature التي تتكوّن من مثال. يتم إدخال متجه الميزة أثناء التدريب وأثناء الاستنتاج. فعلى سبيل المثال، الخط المتجه الخاص بنموذج مكون من سمتين منفصلتين قد يكون:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عقدتين، تحتوي إحداهما على القيمة
          0.92 والآخر يحتوي على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الخصائص، وبالتالي فإن يمكن أن يكون متجه الميزة للمثال التالي شيئًا مثل:

[0.73, 0.49]

هندسة الميزات التي تحدد كيفية تمثيل الميزات في خط المتجه الخاص. فعلى سبيل المثال، خاصية فئوية ثنائية يمكن تمثيل خمس قيم محتملة ترميز واحد فعال: في هذه الحالة، جزء يتكون خط متجه الخصائص لمثال معين من أربعة أصفار 1.0 واحد في الموضع الثالث على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

ومثال آخر على ذلك، لنفترض أن نموذجك يتكون من ثلاث ميزات:

  • خاصية فئوية ثنائية تحتوي على خمس قيم محتملة ممثلة باستخدام ترميز واحد فعال؛ على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • خاصية فئوية ثنائية أخرى ممثلة بـ ثلاث قيم محتملة بترميز واحد فعال؛ على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة؛ على سبيل المثال: 8.3.

في هذه الحالة، سيتم تمثيل متجه الميزة لكل مثال على تسع قيم. بناءً على أمثلة القيم في القائمة السابقة، سيكون الخط المتجه للميزة:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

تشبع اللون

عملية استخراج الميزات من مصدر إدخال، مثل مستند أو فيديو، ووضع هذه الميزات في متّجه الميزة.

يستخدم بعض خبراء تعلُّم الآلة ميزة التشبع كمرادف هندسة الميزات أو استخراج الميزات:

التعلّم الموحّد

هو نهج موزّع لتعلُّم الآلة يدرّب لتعلُّم الآلة نماذج تعلُّم الآلة باستخدام النماذج اللامركزية أمثلة متوفرة على أجهزة مثل الهواتف الذكية. في التعلّم الموحّد، تعمل مجموعة فرعية من الأجهزة على تنزيل النموذج الحالي من خادم تنسيق مركزي. تستخدم الأجهزة الأمثلة المخزّنة على الأجهزة لإجراء تحسينات على النموذج. ثم تقوم الأجهزة بتحميل تحسين النموذج (وليس الأمثلة التدريبية) على التنسيق الخادم، حيث يتم تجميعها مع تحديثات أخرى للحصول على نتائج نموذج عالمي. بعد التجميع، يتم تحديث النموذج استنادًا إلى الأجهزة. لم تعد ضرورية، ويمكن تجاهلها.

وبما أنّه لا يتم تحميل أمثلة التدريب أبدًا، يتّبع التعلّم الموحّد مبادئ الخصوصية المتمثلة في جمع البيانات المركّزة وتضييق نطاق جمع البيانات.

لمزيد من المعلومات عن التعلّم الموحّد يُرجى الاطّلاع على هذا الدليل التوجيهي.

حلقة الملاحظات

#fundamentals

في التعلم الآلي، وهو موقف تؤثر فيه توقعات النموذج بيانات التطبيق لنفس النموذج أو نموذج آخر. على سبيل المثال، النموذج الذي اقتراحات الأفلام سوف تؤثر على الأفلام التي يشاهدها الناس، والتي ستجعل للتأثير في نماذج توصية الأفلام اللاحقة.

الشبكة العصبونية الموجزة (FFN)

شبكة عصبية بدون توصيلات دائرية أو متكررة. على سبيل المثال: الشبكات العصبية العميقة التقليدية هي لشبكات عصبية متطورة للغاية. التباين مع الخلايا العصبية المتكررة الشبكات، والتي تكون دائرية.

التعلّم بلقطات قصيرة

أحد مناهج التعلم الآلي، وغالبًا ما يُستخدم لتصنيف الكائنات، لتدريب المصنِّفات الفعالة من عدد قليل فقط من أمثلة التدريب.

يمكنك أيضًا الاطّلاع على معلومات حول التعلّم بلقطة واحدة. التعلُّم المجاني:

مطالبات بلقطات قليلة

#language
#generativeAI

طلب يحتوي على أكثر من مثال واحد ("بضعة") ما يوضّح أنّ النموذج اللغوي الكبير يجب أن يستجيب. على سبيل المثال، يحتوي الطلب الطويل التالي على أمثلة توضح نموذجًا لغويًا كبيرًا حول كيفية الإجابة عن طلب بحث.

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
فرنسا: EUR مثال واحد.
المملكة المتحدة: جنيه إسترليني مثال آخر.
الهند: الاستعلام الفعلي.

تؤدي المطالبة بلقطات قليلة بشكل عام إلى نتائج مرغوبة أكثر من طلب من الصفر طلب من لقطة واحدة: ومع ذلك، فإن المطالبة بلقطات قليلة تتطلب مطالبة أطول.

طلب بضع لقطات هو أحد أشكال التعلّم بلقطات سريعة سيتم تطبيقها على التعلّم المستند إلى الطلبات.

كمنجة

#language

يشير هذا المصطلح إلى مكتبة إعداد تركّز على Python أولاً وتضبط قيم الوظائف والفئات بدون رموز هجومية أو بنية تحتية. في حالة استخدام Pax، وقواعد رموز تعلُّم الآلة الأخرى، ستكون هذه الدوال تمثل الصفوف نماذج وتدريب المعلَمات الفائقة

كتمان أن قواعد رموز التعلم الآلي تنقسم عادةً إلى:

  • رمز المكتبة الذي يحدّد الطبقات والمحسّنات.
  • مجموعة البيانات "غراء" والذي يستدعي المكتبات ويقوم بتوصيل كل شيء معًا.

يلتقط Fiddle بنية استدعاء الرمز الملتصق في صورة غير مقيّمة قابل للتغيير.

ضبط دقيق

#language
#image
#generativeAI

يتم الحصول على تصريح تدريب ثانٍ خاص بالمهمة والذي يتم تنفيذه على نموذج مدرّب مسبقًا لتحسين معلَماته في حالة استخدام محددة. على سبيل المثال، قد يكون تسلسل التطبيق الكامل لبعض في ما يلي النماذج اللغوية الكبيرة:

  1. التدريب المُسبَق: يمكنك تدريب نموذج لغوي كبير على مجموعة بيانات عامة كبيرة، مثل جميع صفحات ويكيبيديا باللغة الإنجليزية.
  2. الضبط الدقيق: يمكنك تدريب النموذج المدرَّب مسبقًا على تنفيذ مهمة محدّدة. مثل الاستجابة لطلبات البحث الطبية عادةً ما يتضمن الضبط الدقيق مئات أو آلاف الأمثلة التي تركز على المهمة المحددة.

وكمثال آخر، تسلسل التدريب الكامل لنموذج الصورة الكبيرة هو التالي:

  1. التدريب المُسبَق: يمكنك تدريب نموذج صورة كبير على صورة عامة كبيرة. مثل جميع الصور في ويكيميديا كومنز.
  2. الضبط الدقيق: يمكنك تدريب النموذج المدرَّب مسبقًا على تنفيذ مهمة محدّدة. مثل إنشاء صور حيتان الأُركَة.

يمكن أن يستلزم الضبط الدقيق أي مزيج من الاستراتيجيات التالية:

  • تعديل كل النماذج الحالية التي تم تدريبها مسبقًا المَعلمات: ويُسمى هذا أحيانًا الضبط الدقيق الكامل.
  • تعديل بعض المَعلمات الحالية للنموذج المدرّب مسبقًا (عادةً ما تكون الطبقات الأقرب إلى طبقة إخراج)، مع الاحتفاظ بالمعلمات الأخرى الموجودة دون تغيير (عادةً ما تكون الطبقات الأقرب إلى طبقة الإدخال). عرض توليف بكفاءة المَعلمات:
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الحالية الأقرب إلى طبقة الإخراج.

تُعدّ ميزة التوليف الدقيق أحد أشكال نقل التعلُّم. وبناءً على ذلك، قد يستخدم الضبط دالة فقدان مختلفة أو نموذجًا مختلفًا من تلك المستخدمة لتطبيق النموذج المدرَّب مسبقًا. على سبيل المثال، يمكنك ضبط نموذج صورة كبير مدرَّب مسبقًا لإنتاج نموذج انحدار عدد الطيور في صورة المدخلة.

حدِّد أوجه التشابه والاختلاف بين الضبط الدقيق والمصطلحات التالية:

كتان

#language

برنامج مفتوح المصدر عالي الأداء مكتبة لـ وهي تكنولوجيا تعلُّم متعمّقة تستند إلى JAX. يوفر الكتان وظائف لتدريب الشبكات العصبونية أيضًا كطرق لتقييم أدائها.

فلاكسفورم

#language

برنامج محوّل مفتوح المصدر المكتبة، تم تصميمه استنادًا إلى Flax، وهو مصمَّم في المقام الأول لمعالجة اللغات الطبيعية والأبحاث المتعددة الوسائط.

نسيان البوابة

#seq

جزء من ذاكرة طويلة المدى التي تنظم تدفق المعلومات خلال الخلية. لا شك في أنّ البوابات تحافظ على السياق من خلال تحديد المعلومات التي يجب تجاهلها. من حالة الخلية.

مَعلمة softmax الكاملة

مرادف لـ softmax.

التباين مع عينات المرشّحين.

طبقة متّصلة بالكامل

طبقة مخفية يتم فيها وضع كل عقدة متصلة بـ كل عقدة في الطبقة المخفية اللاحقة.

تُعرف الطبقة المتصلة بالكامل أيضًا باسم الطبقة الكثيفة.

تحويل الدوال

دالة تستخدم دالة كإدخال وتعرض دالة محوّلة كمخرج. تستخدِم JAX عمليات تحويل الدوال.

G

شبكة Google الإعلانية

اختصار للمصطلح الخداعي التوليدي الشبكة.

تعميم

#fundamentals

يستطيع النموذج تقديم تنبؤات صحيحة عن البيانات غير المرئية سابقًا. النموذج الذي يمكن التعميم هو عكس ذلك نموذج فرط التخصيص.

Gemini

#language
#image
#generativeAI

منظومة متكاملة تضم تكنولوجيات الذكاء الاصطناعي الأكثر تطورًا من Google عناصر هذه المنظومة المتكاملة تشمل:

  • نماذج Gemini متنوعة:
  • واجهة محادثة تفاعلية مع نموذج Gemini يكتب المستخدمون الطلبات ويردّ Gemini على هذه الطلبات.
  • واجهات برمجة تطبيقات Gemini المختلفة
  • منتجات متنوّعة للأنشطة التجارية تستند إلى نماذج Gemini على سبيل المثال، Gemini في Google Cloud

نماذج Gemini

#language
#image
#generativeAI

متطوّرة من Google ومستنِدة إلى محوّل النماذج المتعدّدة الوسائط: يتم تصميم نماذج Gemini تحديدًا مصمّمة للتكامل مع الوكلاء.

يمكن للمستخدمين التفاعل مع نماذج Gemini بطرق متنوعة، بما في ذلك من خلال واجهة حوار تفاعلية ومن خلال حِزم تطوير البرامج (SDK).

منحنى التعميم

#fundamentals

مخطط لكل من خسارة التدريب فقدان التحقق كدالة لعدد التكرارات:

يمكن أن يساعدك منحنى التعميم في اكتشاف الفرط في التخصيص. على سبيل المثال، ما يلي يشير منحنى التعميم إلى فرط التخصيص لأن فقدان التحقق من الصحة تصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني الديكارتي يُسمّى فيه المحور ص الخسارة والمحور س
          يسمى التكرارات. يظهر اثنين من المخططات. تظهر إحدى المخططات
          والخسارة في التدريب، بينما يعرض الآخر خسارة التحقق من الصحة.
          يبدأ المخططان بشكل مشابه، لكن خسارة التدريب في النهاية
          تنخفض كثيرًا إلى أقل بكثير من فقدان التحقق.

نموذج خطي معمم

تعميم انحدار المربعات الصغرى والنماذج، والتي تستند إلى الغاوسي ضجيج، إلى آخر من النماذج التي تعتمد على أنواع أخرى من التشويش، مثل ضوضاء بواسون أو الضوضاء الفئوية. تشمل أمثلة النماذج الخطية المعممة ما يلي:

يمكن إيجاد معاملات النموذج الخطي العام من خلال تحسين البث المباشر:

تُظهر النماذج الخطية المعممة الخصائص التالية:

  • والمتوسط المثالي لنموذج انحدار التربيعات الصغرى هو مساوٍ لمتوسط التصنيف على بيانات التطبيق.
  • يشير ذلك المصطلح إلى متوسط الاحتمالية المتنبأ بها باستخدام الانحدار اللوجستي الأمثل. النموذج يساوي التصنيف المتوسط في بيانات التطبيق.

تتقيد قوة النموذج الخطي المعمم بميزاته. إلغاء الإعجاب نموذج عميق، فإن النموذج الخطي المعمم لا يمكنه "تعلم ميزات جديدة".

الشبكة الخادعة التوليدية (GAN)

يشير هذا المصطلح إلى نظام لإنشاء بيانات جديدة ينشئها منشئ. البيانات ويحدّد القائم بالتمييز ما إذا كان البيانات التي تم إنشاؤها صالحة أو غير صالحة.

الذكاء الاصطناعي التوليدي

#language
#image
#generativeAI

مجال تحويلي ناشئ بدون تعريف رسمي. مع ذلك، يتفق معظم الخبراء على أنّه يمكن لنماذج الذكاء الاصطناعي التوليدي إنشاء ("إنشاء") محتوى ينطبق عليه كل ما يلي:

  • معقد
  • متماسكة
  • الصورة الأصلية

على سبيل المثال، يمكن أن ينشئ نموذج الذكاء الاصطناعي التوليدي معلومات متطوّرة والمقالات أو الصور.

بعض التكنولوجيات السابقة، بما في ذلك LSTMs وRNN، أيضًا إنشاء بيانات أصلية المحتوى المترابط. يرى بعض الخبراء هذه التقنيات السابقة على أنها يرى البعض الآخر أنّ الذكاء الاصطناعي التوليدي حقيقي يتطلّب عن النتائج التي يمكن أن تقدمها تلك التقنيات السابقة.

التباين مع تعلُّم الآلة القائم على التوقّعات.

نموذج توليدي

من الناحية العملية، يشير النموذج إلى إجراء أي مما يلي:

  • تنشئ (تنشئ) أمثلة جديدة من مجموعة بيانات التدريب. على سبيل المثال، يمكن أن يُنشئ النموذج التوليدي الشعر بعد التدريب على مجموعة بيانات للقصائد يشير ذلك المصطلح إلى جزء منشئ البيانات في شبكة خداعية توليدية ضمن هذه الفئة.
  • وتحدد احتمالية أن يأتي مثال جديد من محددة، أو تم إنشاؤها من نفس الآلية التي أنشأت مجموعة التطبيق. على سبيل المثال، بعد التدريب على مجموعة بيانات تتكون من جمل إنجليزية، ويمكن للنموذج التوليدي لتحديد احتمالية أن يكون الإدخال الجديد جملة إنجليزية صالحة.

يمكن للنموذج التوليدي أن يميز نظريًا توزيع الأمثلة أو ميزات معينة في مجموعة بيانات. والمقصود:

p(examples)

نماذج التعلّم غير الخاضعة للإشراف هي نماذج توليدية.

التباين مع النماذج التمييزية.

منشئ

النظام الفرعي ضمن النظام الخداعي التوليدي الشبكة تؤدي إلى إنشاء أمثلة جديدة.

التباين مع النموذج التمييزي.

خطأ جيني

#df

مقياس مشابه لـ القصور. مقسّمات استخدام القيم المستمدة من نقص جيني أو القصور لإنشاء شروط التصنيف أشجار القرارات: تحصيل المعلومات مشتق من القصور. ما من مصطلح مكافئ مقبول عالميًا للمقياس المستمد من نقص جيني غير أن هذا المقياس بدون اسم مهم مثل للحصول على المعلومات.

ويُطلق على نقص جيني أيضًا اسم مؤشر جيني، أو ببساطة جيني.

مجموعة البيانات الذهبية

مجموعة من البيانات المنظّمة يدويًا تسجّل الحقائق الواقعية. يمكن للفرق استخدام مجموعة بيانات ذهبية أو أكثر لتقييم جودة النموذج.

تلتقط بعض مجموعات البيانات الذهبية نطاقات فرعية مختلفة من الواقع. على سبيل المثال: مجموعة البيانات الذهبية لتصنيف الصور قد تتضمن ظروف الإضاءة ودقتها.

GPT (التحويل التوليدي المُدرَّب مسبقًا)

#language

مجموعة تستند إلى Transformer نماذج لغوية كبيرة طورتها شركة OpenAI:

يمكن تطبيق صيغ علامة "علامة ناشر Google" (GPT) على العديد من الوسائط، بما في ذلك:

  • إنشاء الصور (مثل ImageGPT)
  • تحويل النص إلى صورة (على سبيل المثال، DALL-E.

متدرج

خط متجه المشتقات الجزئية بالنسبة إلى جميع المتغيرات المستقلة. في التعلم الآلي، التدرج هو خط متجه المشتقات الجزئية لدالة النموذج. نقاط التدرج في اتجاه الصعود الأكثر انحدارًا.

تجميع التدرج

يشير هذا المصطلح إلى أسلوب backpostagation الذي يعدِّل المَعلمات فقط مرة واحدة لكل فترة بدلاً من مرة واحدة في والتكرار. بعد معالجة كل دفعة صغيرة، تدرج ويعمل التراكم ببساطة على تحديث إجمالي التدرجات الحالية. ثم، بعد بمعالجة الدفعة الأخيرة المصغَّرة في هذه الحقبة، يجري النظام أخيرًا تحديثًا المعاملات بناءً على إجمالي كل تغييرات التدرج.

ويكون التجميع المتدرج مفيدًا عندما يكون حجم الدفعة كبيرًا جدًا مقارنة بحجم الذاكرة المتاحة للتدريب. عندما تكون هناك مشكلة في الذاكرة، يكون الميل الطبيعي هو تقليل حجم الدُفعة. ومع ذلك، فإنّ تقليل حجم الدُفعة في زيادات البيانات العادية لعملية النشر العكسي. عدد تحديثات المعلمة. ويمكّن التراكم المتدرج النموذج لتجنب مشكلات الذاكرة ولكن مع الاستمرار في التدرّب بكفاءة.

أشجار التدرج المعزز (القرار) (GBT)

#df

نوع من غابات القرارات التي:

تعزيز التدرّج

#df

يشير ذلك المصطلح إلى خوارزمية تدريب يتم فيها تدريب النماذج الضعيفة على التكرار. تحسين جودة (تقليل خسارة) نموذج قوي. على سبيل المثال: يمكن أن يكون النموذج الضعيف نموذجًا لشجرة قرارات خطيًا أو صغيرًا. ويصبح النموذج القوي مجموع جميع النماذج الضعيفة التي تم تدريبها مسبقًا.

وفي أبسط أشكال خوارزمية تعزيز التدرج، يتم إنشاء نموذج ضعيف في كل تكرار على التنبؤ بالتدرج الخسارة للنموذج القوي. بعد ذلك، يتم تحديث ناتج النموذج القوي بطرح التدرج المتنبأ به، تشبه ميزة خوارزمية انحدار التدرج.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

حيث:

  • $F_{0}$ هو النموذج القوي البداية.
  • $F_{i+1}$ هو النموذج القوي التالي.
  • $F_{i}$ هو النموذج القوي الحالي.
  • $\xi$ هو قيمة بين 0.0 و1.0 تُسمى الانكماش، والذي يشبه معدّل التعلّم في خورازمية انحدار التدرج.
  • $f_{i}$ هو النموذج الضعيف المدرَّب على التنبؤ بتدرج الفقدان $F_{i}$.

تشمل الأشكال الحديثة لتعزيز التدرج المشتقة الثانية أيضًا. (هسيان) للخسارة في العملية الحسابية.

تُستخدم أشجار القرار بشكل شائع كنماذج ضعيفة في تعزيز التدرج. عرض أشجار معززة متدرجة (القرار).

اقتصاص التدرّج

#seq

هناك آلية شائعة الاستخدام للتخفيف من مشكلة التدرج المتفجر عن طريق تحديد (اقتصاص) القيمة القصوى للتدرجات عند استخدام خوارزمية انحدار التدرج لتدريب نموذج.

انحدار تدرّجي

#fundamentals

أسلوب رياضي لتقليل الخسارة. ضبط انحدار التدرج بالتكرار التحسيني القيم المرجحة والانحيازات، وإيجاد أفضل تركيبة تدريجيًا لتقليل الخسارة.

أما انحدار التدرج، فيقدم أقدم بكثير من التعلم الآلي.

رسم بياني

#TensorFlow

في TensorFlow، وهي مواصفات حسابية. العُقد في الرسم البياني لتمثيل العمليات. يتم توجيه الحواف وتمثل تمرير النتيجة عملية (أداة الاستشعار) كأداة على عملية أخرى. استخدام TensorBoard لعرض رسم بياني

تنفيذ الرسم البياني

#TensorFlow

بيئة برمجة TensorFlow يتم فيها إنشاء البرنامج لأول مرة رسمًا بيانيًا ثم تنفيذ هذا الرسم البياني بالكامل أو جزء منه رسم بياني التنفيذ هو وضع التنفيذ الافتراضي في TensorFlow 1.x.

تباين الألوان مع التنفيذ السريع.

سياسة طمعة

#rl

في مجال التعلُّم المعزّز، تمثّل سياسة تختار دائمًا الإجراء الذي يحقق أعلى عائد متوقع.

معلومات فعلية

#fundamentals

الواقع.

الشيء الذي حدث بالفعل.

على سبيل المثال، يمكنك وضع تصنيف ثنائي يتنبأ بما إذا كان الطالب في السنة الأولى في الجامعة في غضون ست سنوات. إن الحقيقة الأساسية لهذا النموذج هي ما إذا كان أن الطالب قد تخرج بالفعل في غضون ست سنوات.

الانحياز في تحديد المصدر على مستوى المجموعة

#fairness

بافتراض أن ما ينطبق على الفرد ينطبق على الجميع في تلك المجموعة. يمكن أن تتفاقم آثار تحيز إحالة المجموعة إذا كان أخذ العينات العشوائي يستخدم لجمع البيانات. في العيّنة غير التمثيلية، تمثّل معلومات تحديد المصدر قد تصنع لا تعكس الواقع.

راجِع أيضًا انحياز التجانس خارج المجموعة والتحيز داخل المجموعة.

H

الهلوسة

#language

إنتاج إخراج يبدو منطقيًا ولكنه غير صحيح في الواقع من خلال الذكاء الاصطناعي التوليدي الذي يسعى إلى تحقيق بتأكيد حول العالم الحقيقي. على سبيل المثال، نموذج من الذكاء الاصطناعي التوليدي يدّعي أنّ باراك أوباما توفي في العام 1865. هلوسة.

تجزئة

وهو أحد آليات التجميع في التعلم الآلي البيانات الفئوية، لا سيما عندما يكون عدد من الفئات كبيرًا، لكن عدد الفئات التي تظهر مجموعة البيانات صغيرة نسبيًا.

على سبيل المثال، موطن الأرض هو موطن لحوالي 73000 نوع من الأشجار. يمكنك كل نوع من أنواع الأشجار البالغ عددها 73000 نوع في 73000 نوع دلاء. وإذا ظهر 200 نوع فقط من هذه الأشجار في الحقيقة، في إحدى مجموعات البيانات، يمكنك استخدام التجزئة لتقسيم أنواع الأشجار إلى ربما 500 دلو.

يمكن أن يحتوي مجموعة واحدة على عدة أنواع من الأشجار. على سبيل المثال، التجزئة يمكن وضع الباوباب والقيقب الأحمر، وهما نوعان مختلفان وراثيًا النوع - في نفس مجموعة البيانات. بغض النظر، لا تزال التجزئة طريقة جيدة وتعيين مجموعات فئوية كبيرة في العدد المحدد من المجموعات. تحول التجزئة صفة فئوية لها عدد كبير من القيم المحتملة عدد أقل من القيم عن طريق تجميع القيم في بطريقة حتمية.

إرشادات

يشير ذلك المصطلح إلى حلّ بسيط وسريع تم تنفيذه لحلّ مشكلة ما. على سبيل المثال: "باستخدام توجيهات إرشادية، حقّقنا دقة بلغت% 86. عندما تحولنا إلى الشبكة العصبية العميقة، ارتفعت الدقة إلى 98%".

طبقة مخفية

#fundamentals

يشير ذلك المصطلح إلى طبقة في الشبكة العصبونية بين طبقة الإدخال (الميزات) و طبقة الناتج (التنبؤ). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتين مخفيتين، الأولى بها ثلاث خلايا عصبية والثانية تحتوي على خليتين عصبيتين:

أربع طبقات. الطبقة الأولى هي طبقة إدخال تحتوي على اثنين
          الجديدة. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاث
          الخلايا العصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على اثنين
          الخلايا العصبية. الطبقة الرابعة هي طبقة الإخراج. كل ميزة
          تحتوي على ثلاث حواف، وكل جزء منها يشير إلى خلية عصبية مختلفة
          في الطبقة الثانية. كل خلية من الخلايا العصبية في الطبقة الثانية
          يحتوي على حافتين، تشير كل منهما إلى خلية عصبية مختلفة
          في الطبقة الثالثة. كل خلية من الخلايا العصبية في الطبقة الثالثة تحتوي على
          حافة واحدة، تشير كل منها إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من مصدر طبقة مخفية. فعلى سبيل المثال، الرسم التوضيحي السابق عبارة عن صورة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

التجميع الهرمي

#clustering

يشير هذا المصطلح إلى فئة من خوارزميات التجميع التي تُنشئ شجرة بيانات. المجموعات العنقودية. يتناسب التجميع الهرمي تمامًا مع البيانات الهرمية، مثل التصنيفات النباتية. هناك نوعان من التسلسلات الهرمية خوارزميات التجميع العنقودي:

  • يعين التجميع العنقودي أولاً كل مثال لمجموعته العنقودية، وتدمج المجموعات الأقرب بشكل متكرر لإنشاء مجموعة هرمية شَجَرَة
  • يعمل التجميع العنقودي أولاً على تجميع جميع الأمثلة في مجموعة عنقودية واحدة، ثم تُقسم المجموعة العنقودية بالتكرار إلى شجرة هرمية.

التباين مع التجميع العنقودي القائم على النقطة المركزية.

الخسارة المفصلية

مجموعة من دوال فقدان للتصنيف المصمم للعثور حدود القرار بعيدة قدر الإمكان من كل مثال تدريبي، وبالتالي زيادة الهامش بين الأمثلة والحدود. تستخدم KSVM دالة فقدان المفصّلة (أو دالة ذات صلة، مثل تربيع خسارة المفصل). بالنسبة للتصنيف الثنائي، تُستخدم دالة فقدان المفصلات على النحو التالي:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

حيث يكون y هو التصنيف الصحيح، إما -1 أو +1، وy' هو الناتج الأولي في نموذج المُصنِّف:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

وبالتالي، يبدو مخطط الخسارة المفصلية مقابل (y * y') على النحو التالي:

مخطط الديكارتي يتكون من مقطعين مستقيمين متصلين. الأول
          يبدأ الجزء الخطي بـ (-3، 4) وينتهي عند (1، 0). السطر الثاني
          يبدأ الجزء من (1، 0) ويستمر إلى أجل غير مسمى مع منحدر
          من 0.

انحياز تاريخي

#fairness

نوع من التحيز موجود بالفعل في العالم ولديه إلى مجموعة بيانات. تميل هذه التحيزات إلى إظهار والصور النمطية الثقافية، وعدم المساواة الديموغرافية، والتحيزات ضد بعض والمجموعات الاجتماعية.

على سبيل المثال، بالنظر إلى نموذج تصنيف تتنبأ بما إذا كان مقدّم طلب القرض يتخلف عن سداد قرضه أم لا، والذي كان تم التدريب على البيانات التاريخية للتخلف عن سداد القروض من ثمانينيات القرن الماضي من مصارف محلية في والمجتمعات المختلفة. إذا كان المتقدمون السابقون من المنتدى "أ" أكبر بست مرات احتمالية التخلف عن سداد قروضهم مقارنة بالمتقدمين من المجتمع (ب)، فإن النموذج تحيزًا تاريخيًا يؤدي إلى تقليل احتمال حدوث بالموافقة على القروض في المجتمع (أ)، حتى في حالة استيفاء الشروط التاريخية التي أدت إلى في تلك المجتمعات لم تعد ذات صلة

بيانات محتجزة

أمثلة عن المحتوى الذي لا يتم استخدامه عمدًا ("يتم عرضه") أثناء التدريب مجموعة بيانات التحقق من الصحة مجموعة بيانات الاختبار هي أمثلة على بيانات الانتظار. بيانات الحظر في تقييم قدرة النموذج على التعميم في البيانات بخلاف البيانات التي تم التدريب عليها. توفر الخسارة في مجموعة الانتظار أفضل الخسارة في أي مجموعة بيانات غير مرئية مقارنةً بالخسارة في مجموعة تدريب.

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، وهي الجزء من النظام تتحكم في كل مما يلي:

  • التدفق العام للتعليمة البرمجية.
  • استخراج وتحويل مسار الإدخال.

يعمل المضيف عادةً على وحدة معالجة مركزية (CPU)، وليس على شريحة مسرِّع. الـ يتلاعب device بعوامل التوتر على ومسرِّعات الأعمال.

معلَمة فائقة

#fundamentals

تشير المتغيرات التي تنفذها أنت أو خدمة ضبط المعلمة الفائقة على التكيف خلال الفترات المتتالية لتطبيق أحد النماذج. على سبيل المثال: معدّل التعلّم هو معلَمة فائقة. يمكنك اضبط معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا كنت تحديد أن القيمة 0.01 مرتفعة جدًا، فيمكنك تحديد القيم إلى 0.003 في الدورة التدريبية التالية.

في المقابل، المَعلمات هي المعلَمات المختلفة القيم المرجحة والانحياز الذي يمثّله النموذج يتعلم أثناء التدريب.

مستوى فائق

يشير ذلك المصطلح إلى الحد الذي يفصل المساحة إلى مسافتين فرعيَين. على سبيل المثال، الخط هو المستوى الفائق في البعدين والمستوى هو المستوى الفائق في ثلاثة أبعاد. المستوى الفائق هو الحد الذي يفصل بين مساحة ذات أبعاد عالية. استخدام آلات متجه دعم النواة المستويات الفائقة لفصل الفئات الموجبة عن الفئات السالبة، وغالبًا ما يتم مساحة ذات أبعاد عالية.

I

i.i.d.

اختصار موزَّعة بشكل مستقل ومتماثل.

التعرّف على الصورة

#image

يشير ذلك المصطلح إلى عملية تصنّف عناصر أو أنماطًا أو مفاهيم في صورة معيّنة. تُعرف ميزة التعرّف على الصور أيضًا باسم تصنيف الصور.

لمزيد من المعلومات، يُرجى مراجعة التدريب العملي لتعلُّم الآلة: تصنيف الصور.

مجموعة بيانات غير متوازنة

مرادف مجموعة بيانات غير متوازنة في الفئة.

انحياز ضمني

#fairness

إجراء ربط أو افتراض تلقائيًا استنادًا إلى عقل الشخص النماذج والذكريات. يمكن أن يؤثر التحيز الضمني في ما يلي:

  • كيفية جمع البيانات وتصنيفها.
  • كيفية تصميم وتطوير أنظمة تعلُّم الآلة.

فعلى سبيل المثال، عند إنشاء مصنف لتحديد صور الزفاف، يمكن لأحد المهندسين الاستفادة من ظهور فستان أبيض في الصورة كميزة. ومع ذلك، كانت الفساتين البيضاء مألوفة فقط خلال عصور معينة في ثقافات معينة.

راجِع أيضًا الانحياز التأكيدي.

الاحتساب

شكل قصير من احتساب القيم

عدم توافق مقاييس الإنصاف

#fairness

فكرة أن بعض مفاهيم الإنصاف غير متوافقة لا يمكن إرضاءه في الوقت نفسه. ونتيجة لذلك، لا يوجد المقياس العام لتقدير الإنصاف يمكن تطبيقها على جميع مشكلات تعلُّم الآلة.

قد يبدو ذلك مزعجًا، ولكنّ مقاييس عدم توافق مقاييس الإنصاف لا يشير إلى أن جهود الإنصاف عديمة الفائدة. بدلاً من ذلك، تقترح يجب تحديد الإنصاف ضمن السياق لمشكلة معينة في مجال تعلُّم الآلة، وهدف منع الأضرار الخاصة بحالات الاستخدام الخاصة به.

راجِع "على (im)إمكانية الإنصاف" للحصول على مناقشة أكثر تفصيلاً لهذا الموضوع.

التعلّم ضمن السياق

#language
#generativeAI

مرادف لطلب من بضع لقطات.

موزّعة بشكل مستقل ومتماثل (أي)

#fundamentals

يشير ذلك المصطلح إلى البيانات المأخوذة من توزيع لا تتغيّر، والتي تكون فيها كل قيمة. مرسومة لا تعتمد على القيم التي تم رسمها مسبقًا. معرّف هو الغاز المثالي من الجهاز التعلم — بناء رياضي مفيد ولكن نادرًا ما يتم العثور عليه في العالم الحقيقي. على سبيل المثال، توزيع الزوار على إحدى صفحات الويب موزّعة بشكل مستقل خلال فترة زمنية قصيرة؛ أي أن التوزيع لا التي تتغير خلال تلك الفترة الموجزة وتكون زيارة شخص ما بشكل مستقل عن زيارة شخص آخر. ومع ذلك، إذا قمت بتوسيع هذه النافذة الزمنية، قد تظهر اختلافات موسمية في زوار صفحة الويب.

راجِع أيضًا المقالة عدم ثبات الأداء.

الإنصاف الفردي

#fairness

مقياس إنصاف يتحقّق مما إذا كان يتم تصنيف أفراد مشابهين بالطريقة نفسها. على سبيل المثال، قد ترغب أكاديمية Brobdingnagian Academy في تلبية الإنصاف الفردي من خلال التأكد من أن طالبين لهما درجات متطابقة كما أن درجات الاختبار الموحّدة من المحتمل أن تحصل على قبول.

لاحظ أن الإنصاف الفردي يعتمد تمامًا على كيفية تعريف "التشابه" (في هذه الحالة، الدرجات ودرجات الاختبار)، ويمكنك أن تتعرض وطرح مشكلات جديدة في الإنصاف إذا كان مقياس التشابه يفوته أهمية ومعلوماتهم (مثل صرامة منهج الطالب الدراسي).

الاطّلاع على "الإنصاف والإنصاف الوعي" للحصول على مناقشة أكثر تفصيلاً حول الإنصاف الفردي.

استنتاج

#fundamentals

في التعلم الآلي، تتم عملية إجراء التنبؤات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

للاستنتاج معنى مختلف بعض الشيء في الإحصاءات. يمكنك الاطّلاع على مقالة من ويكيبيديا حول الاستنتاج الإحصائي للاطّلاع على التفاصيل

مسار الاستنتاج

#df

في شجرة القرار، خلال الاستنتاج، المسار الذي يتخذه مثال معين من الجذر إلى شروط أخرى، ينتهي بـ ورقة شجر على سبيل المثال، في شجرة القرارات التالية، تُظهر الأسهم الأكثر سمكًا مسار الاستنتاج لمثال يحتوي على ما يلي قيم الخصائص:

  • x = 7
  • y = 12
  • z = -3

ينتقل مسار الاستنتاج في الرسم التوضيحي التالي خلال ثلاثة الظروف قبل الوصول إلى ورقة الشجر (Zeta).

شجرة قرارات تتكون من أربعة شروط وخمس أوراق.
          شرط الجذر هو (x> 0). نظرًا لأن الإجابة هي نعم، فإن
          ينتقل مسار الاستنتاج من الجذر إلى الشرط التالي (y> 0).
          نظرًا لأن الإجابة هي &quot;نعم&quot;، فإن مسار الاستنتاج ينتقل إلى
          الشرط التالي (z > 0). بما أن الإجابة هي لا، فإن مسار الاستنتاج
          ينتقل إلى العقدة الطرفية، وهي ورقة الشجر (Zeta).

توضح الأسهم الثلاثة السميكة مسار الاستنتاج.

تحصيل المعلومات

#df

في غابات القرارات، يكون الفرق بين قصور الجزء والقيم المرجحة (حسب عدد الأمثلة) مجموع القصور في الأجزاء الثانوية. قصور الجزء هو القصور الأمثلة في هذا الجزء.

على سبيل المثال، ضع في الاعتبار قيم القصور التالية:

  • قصور الجزء الأصلي = 0.6
  • قصور لعقدة فرعية واحدة بها 16 مثالاً = 0.2
  • قصور في عقدة تابعة أخرى بها 24 مثالاً ذا صلة = 0.1

وبالتالي فإن 40% من الأمثلة موجودة في عقدة فرعية واحدة و60% في عقدة فرعية أخرى. لذلك:

  • مجموع القصور المُرجّح للعُقد الثانوية = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

إذًا، يكون تحصيل المعلومات هو:

  • تحصيل المعلومات = قصور الجزء الأصلي - مجموع القصور المُرجّح للعُقد الفرعية
  • تحصيل المعلومات = 0.6 - 0.14 = 0.46

تسعى معظم التقسيمات إلى إنشاء شروط تزيد من تحصيل المعلومات.

الانحياز داخل المجموعة

#fairness

إظهار التحيز لمجموعة الفرد الخاصة أو صفاته الخاصة. إذا كان المختبِرون أو المصنِّفون يتكونون من أصدقاء مطوّر برامج التعلم الآلي، أو الأسرة أو الزملاء، فقد يؤدي التحيز داخل المجموعة إلى إبطال اختبار المنتج أو مجموعة البيانات.

يعد التحيز داخل المجموعة شكلاً الانحياز في تحديد مصدر المجموعة: راجِع أيضًا انحياز التجانس خارج المجموعة.

منشئ الإدخال

آلية يتم من خلالها تحميل البيانات في شبكة عصبية.

يمكن اعتبار منشئ المدخلات بمثابة مكون مسؤول عن معالجة البيانات الأولية إلى موتّرات يتم تكرارها لإنشاء دفعات والتدريب والتقييم والاستنتاج.

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تحتوي على متّجه الميزة. أي أن طبقة الإدخال يقدم أمثلة للتدريب أو الاستنتاج على سبيل المثال، طبقة الإدخال في ما يلي تتكون الشبكة العصبية من ميزتين:

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج.

حالة الإدخال

#df

في شجرة القرار، شرط يختبر وجود عنصر واحد في مجموعة من العناصر. على سبيل المثال، في ما يلي شرط مضمَّن:

  house-style in [tudor, colonial, cape]

أثناء الاستنتاج، إذا كانت قيمة الميزة بنمط المنزل هي tudor أو colonial أو cape، ويتم تقييم هذا الشرط إلى "نعم". في حال حذف قيمة ميزة نمط المنزل هي شيء آخر (على سبيل المثال، ranch)، فمن ثم يتم تقييم هذا الشرط إلى "لا".

عادة ما تؤدي الظروف الداخلية إلى أشجار قرارات أكثر كفاءة من التي تختبر ميزات ترميز واحد فعال.

مثيل

مرادف لـ مثال.

توليف التعليمات

#generativeAI

شكل من أشكال الضبط الدقيق الذي يحسّن قدرة نموذج الذكاء الاصطناعي التوليدي على المتابعة على التعليمات يتضمن ضبط التعليمات تطبيق نموذج على سلسلة من مطالبات التعليمات، وتغطي عادةً مجموعة واسعة من مجموعة متنوعة من المهام. يميل نموذج التعليمات المضبوط بعد ذلك إلى إنشاء ردود مفيدة على الطلبات غير المباشرة عبر مجموعة متنوعة من المهام.

المقارنة والتباين مع:

القابلية للتفسير

#fundamentals

القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة في مصطلحات مفهومة للإنسان.

على سبيل المثال، تعتمد معظم نماذج الانحدار الخطي على قابل للتفسير. (ما عليك سوى إلقاء نظرة على الأوزان المدربة لكل feature.) غابات اتخاذ القرار أيضًا قابلة للتفسير بدرجة عالية. في المقابل، تحتوي بعض النماذج تتطلب تصورًا متطورًا لتصبح قابلة للتفسير.

يمكنك استخدام صفحة أداة "ترجمة وشرح" (LIT) لتفسير نماذج تعلُّم الآلة.

توافق المقيّمين

يشير ذلك المصطلح إلى قياس لعدد المرات التي يوافق فيها المصنِّفون على المهام. وفي حال عدم موافقة المصنِّفين، قد تحتاج إلى تحسين تعليمات المهمة. ويُطلق عليها أحيانًا اسم اتفاق المعلِّقين التوضيحية أو موثوقية المصنّفين. يمكن أيضًا مراجعة لمهندس كوهين kappa، التي تُعدّ أحد أكثر قياسات اتفاقيات المصنّفين شيوعًا.

تقاطع الاتحاد (IoU)

#image

نقطة التقاطع بين مجموعتين مقسومتين على اتحاد كل منهما. في مجال تعلُّم الآلة لاكتشاف الصور، يتم استخدام وحدة IoU لقياس دقة نموذج مربع الإحاطة المتوقع في ما يتعلق مربّع حدود الحقيقة في هذه الحالة، قد يحتاج وحدة IoU المربعين هما النسبة بين المساحة المتداخلة والمساحة الإجمالية، وتتراوح قيمتها من 0 (لا يوجد تداخل بين مربع الإحاطة المتوقع وحقيقة الحقيقة مربع الإحاطة) إلى 1 (مربع الإحاطة المتوقع ومربع الإحاطة بحقيقة الأرض نفس الإحداثيات بالضبط).

على سبيل المثال، في الصورة أدناه:

  • مربع الإحاطة المتنبأ به (الإحداثيات التي تحدد مكان للتنبؤ بالجدول الليلي في اللوحة) باللون الأرجواني.
  • مربع حدود الحقيقة (الإحداثيات التي تحدد مكان الليل جدول في اللوحة بالفعل) باللون الأخضر.

لوحة &quot;فان غوخ&quot; لغرفة نوم &quot;فنسنت&quot; في &quot;آرل&quot; مع لوحةَين
          الصناديق المحيطة حول الطاولة الليلية بجانب السرير. الحقيقة
          يحيط مربّع الإحاطة (باللون الأخضر) بالطاولة الليلية تمامًا. تشير رسالة الأشكال البيانية
          مربع الإحاطة المتوقع (باللون الأرجواني) إزاحة بنسبة 50٪ لأسفل وإلى اليمين
          لصندوق الإحاطة بواقع الحقيقة؛ فإنها تتضمن الربع السفلي الأيمن
          من طاولة الطعام في الليل، ولكنه يفوت بقية الطاولة.

هنا، يظهر تقاطع المربعات المجاورة للتنبؤ والحقيقة الواقعية (أسفل اليسار) تساوي 1، واتحاد المربعات الإحاطة للتنبؤ القيمة الفعلية (أسفل اليمين) هي 7، وبالتالي فإن وحدة IoU تبلغ \(\frac{1}{7}\).

نفس الصورة أعلاه، ولكن مع تقسيم كل مربع إحاطة إلى أربعة
          الأرباع. يوجد سبعة أربعة أقسام، حيث يظهر الجزء السفلي الأيمن
          ربع مربع حدود الأرض والجزء العلوي الأيسر
          ربع مربع الإحاطة المتوقع يتداخل مع بعضها البعض. هذا النمط
          مقطع متداخل (مظلل باللون الأخضر) يمثل
          تقاطع، وتبلغ مساحته 1. نفس الصورة أعلاه، ولكن مع تقسيم كل مربع إحاطة إلى أربعة
          الأرباع. يوجد سبعة أربعة أقسام، حيث يظهر الجزء السفلي الأيمن
          ربع مربع حدود الأرض والجزء العلوي الأيسر
          ربع مربع الإحاطة المتوقع يتداخل مع بعضها البعض.
          التصميم الداخلي بالكامل محاط بكلا المربعين المحاطين
          (المظلل باللون الأخضر) يمثل الاتحاد،
          على مساحة 7.

IoU

اختصار تقاطع طرق اتحاد.

مصفوفة السلع

#recsystems

في أنظمة الاقتراح، مصفوفة تضمين المتجهات التي تم إنشاؤها بواسطة تحليل المصفوفة إلى عواملها تحتوي على إشارات كاتمة حول كل عنصر. يحتوي كل صف من مصفوفة العناصر على قيمة اختزال واحد لجميع العناصر. على سبيل المثال، ضع في اعتبارك نظام اقتراح الأفلام. يحتوي كل عمود في مصفوفة البنود فيلمًا واحدًا. الإشارات الكامنة قد تمثل أنواعًا موسيقية أو قد يصعب تفسيرها إشارات تتضمن تفاعلات معقدة بين النوع والنجوم أو عمر الفيلم أو عوامل أخرى.

تحتوي مصفوفة العناصر على نفس عدد الأعمدة المستهدفة المصفوفة التي يتم تحليلها إلى عوامل. على سبيل المثال، عند أخذ فيلم نظام توصية يقيّم 10000 عنوان أفلام، تحتوي مصفوفة البنود على 10000 عمود.

items

#recsystems

في نظام الاقتراح، تشير الكيانات التي التي يقترحها النظام. على سبيل المثال، الفيديوهات هي المنتجات التي يخزّنها الفيديو يوصي به، بينما الكتب هي العناصر التي يوصي بها أحد متاجر الكتب.

تكرار

#fundamentals

يشير هذا المصطلح إلى تعديل واحد لمَعلمات النموذج، وهو ما يخص النموذج. القيم المرجحة والتحيزات: أثناء تدريب. ويحدِّد حجم الدفعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال: إذا كان حجم الدفعة 20، فإن النموذج يعالج 20 مثالاً قبل تعديل المعاملات.

عند تدريب شبكة عصبية، يجب تكرار تكرار واحد تتضمن البطاقات التالية:

  1. تمريرة للأمام لتقييم الخسارة في دفعة واحدة.
  2. ممر للخلف (انتشار للخلف) لضبط معاملات النموذج بناءً على الخسارة ومعدّل التعلم.

J

JAX

يشير ذلك المصطلح إلى مكتبة حوسبة الصفائف تعمل على تجميع XLA (الجبر الخطي المسرّع) والتفاضل التلقائي للحوسبة الرقمية العالية الأداء. وتقدم JAX أداة بسيطة وفعّالة واجهة برمجة تطبيقات لكتابة رمز رقمي مسرَّع باستخدام عمليات تحويل قابلة للإنشاء. توفّر JAX ميزات مثل:

  • grad (تفاضل تلقائي)
  • jit (فيديوهات مجمّعة في الوقت المناسب)
  • vmap (التوجيه التلقائي أو التجميع)
  • pmap (التوازي)

إن JAX هي لغة للتعبير عن وتكوين التحولات الرقمية يشبه لغة البرمجة NumPy في بايثون، إلا أنها في نطاق أوسع المكتبة. (في الواقع، تعتبر مكتبة numpy .ضمن JAX مكافئة من الناحية الوظيفية، ولكنها النسخة المُعاد كتابتها بالكامل من مكتبة بايثون نمباي).

إنّ تجربة JAX مناسبة تمامًا لتسريع العديد من مهام تعلُّم الآلة. من خلال تحويل النماذج والبيانات إلى شكل مناسب للتوازي في وحدات معالجة الرسومات وTPU TPU.

Flax وOptax وPax وغير ذلك يتم إنشاء المكتبات على البنية الأساسية JAX.

K

Keras

هي واجهة برمجة تطبيقات شائعة في لغة بايثون للتعلّم الآلي. Keras يركض في والعديد من أطر التعلم المتعمقة، بما في ذلك TensorFlow، حيث يتم متاح كـ tf.keras

آلات متجه دعم النواة (KSVMs)

يشير هذا المصطلح إلى خوارزمية تصنيف تسعى إلى زيادة الهامش بين إيجابية الفئات السالبة من خلال ربط متّجهات بيانات الإدخال إلى مساحة ذات أبعاد أعلى. على سبيل المثال، ضع في الاعتبار تصنيف مشكلة تكمن فيها مجموعة بيانات الإدخال على مائة ميزة. لزيادة الهامش بين الفئات الإيجابية والسلبية، يمكن لآلة متجه الدعم ربط هذه الميزات داخليًا في مساحة مليون البعد. وتستخدم آلات متجه الدعم دالة خسارة تسمى فقدان المفصّلة:

النقاط الرئيسية

#image

إحداثيات عناصر معينة في صورة. على سبيل المثال، بالنسبة إلى التعرّف على الصور الذي يميّز أنواع الزهور، فقد تكون النقاط الرئيسية هي مركز كل بتلة أو الساق stamen، وما إلى ذلك.

التحقق من الصحة المتقاطع k- Fold

يشير هذا المصطلح إلى خوارزمية للتنبؤ بقدرة نموذج على تعميم البيانات الجديدة. يشير الحرف k في المحور k- Fold إلى عدد المجموعات المتساوية التي تقسم أمثلة مجموعة البيانات إليها؛ أي أنك تتدرب ونختبر النموذج k مرة. لكل جولة من التدريب والاختبار، مجموعة مختلفة هي مجموعة الاختبار، وتصبح جميع المجموعات المتبقية تعيين. بعد جولات k من التطبيق والاختبار، يمكنك حساب المتوسط الانحراف المعياري لمقاييس الاختبار المختارة.

على سبيل المثال، افترض أن مجموعة البيانات الخاصة بك تتكون من 120 مثالاً. ولنفترض أيضًا، فقررت تعيين k على 4. لذلك، بعد خلط الأمثلة عشوائيًا، فإنك تقسم مجموعة البيانات إلى أربع مجموعات متساوية من 30 مثالاً وتُجري أربعة جولتين تدريبي واختبار:

مجموعة بيانات مقسمة إلى أربع مجموعات متساوية من الأمثلة. في الجولة 1،
          تُستخدم المجموعات الثلاث الأولى للتدريب والمجموعة الأخيرة
          يُستخدم للاختبار. في الجولة 2، تكون أول المجموعتين والأخيرة
          تُستخدم المجموعة للتدريب، بينما تُستخدم المجموعة الثالثة
          اختبار الفرضية. في الجولة 3، تكون المجموعة الأولى والمجموعتين الأخيرتين
          للتدريب، بينما تُستخدم المجموعة الثانية للاختبار.
          في الجولة 4، يتم استخدام المجموعة الأولى للاختبار، بينما تُستخدم المجموعة النهائية
          استخدام ثلاث مجموعات للتدريب.

على سبيل المثال، قد يتضمن الخطأ التربيعي (MSE) أهم مقياس في نموذج الانحدار الخطي. لذلك، سوف نجد المتوسط والانحراف المعياري للخطأ التربيعي المتوسط في جميع الجولات الأربع.

المتوسطات التصنيفية

#clustering

يشير هذا المصطلح إلى خوارزمية تجميع شائعة تجمع الأمثلة. في التعلم غير المُوجّه. تقوم الخوارزمية التصنيفية بشكل أساسي بما يلي:

  • تحديد أفضل نقاط مركزية بالتكرار (تُعرف باعتبارها نقاط مركزية).
  • تحدد كل مثال أقرب نقطة مركزية. هذه الأمثلة الأقرب نفس النقطة المركزية تنتمي إلى نفس المجموعة.

وتختار الخوارزمية التصنيفية مواقع النقاط المركزية لخفض مربع للمسافات من كل مثال إلى أقرب نقطة مركزية له.

على سبيل المثال، ضع في الاعتبار المخطط التالي لارتفاع الكلب بالنسبة إلى عرض الكلب:

مخطط الديكارتي يضم عدة عشرات من نقاط البيانات.

إذا كانت ك=3، فستحدد الخوارزمية التصنيفية ثلاث نقاط مركزية. كل مثال مع أقرب نقطة مركزية لها، ويكون الناتج ثلاث مجموعات:

نفس المخطط الديكارتي كما هو موضح في الرسم التوضيحي السابق، باستثناء
          مع إضافة ثلاث نقاط مركزية.
          يتم تجميع نقاط البيانات السابقة في ثلاث مجموعات مختلفة،
          حيث تمثل كل مجموعة نقاط البيانات الأقرب إلى مجموعة
          نقطة مركزية.

تخيل أن الشركة المصنعة ترغب في تحديد الأحجام المثالية للشركات الصغيرة وسترات متوسطة وكبيرة للكلاب. تحدِّد النقاط المركزية الثلاث المتوسط. والطول ومتوسط عرض كل كلب في هذه المجموعة. لذا، يمكن للشركة المصنعة ينبغي أن تستند إلى مقاسات السترات على تلك النقاط المركزية الثلاث. لاحظ أن تكون النقطة المركزية للمجموعة العنقودية عادةً ليست مثالاً في المجموعة العنقودية.

توضح الرسوم التوضيحية السابقة الخوارزمية التصنيفية لأمثلة تحتوي فقط على ميزتين (الارتفاع والعرض). لاحظ أن الخوارزمية التصنيفية يمكنها تجميع الأمثلة عبر العديد من الميزات.

متوسط التصنيف

#clustering

يشير ذلك المصطلح إلى خوارزمية تجميع ترتبط ارتباطًا وثيقًا بالخوارزمية التصنيفية. تشير رسالة الأشكال البيانية الفرق العملي بين الاثنين على النحو التالي:

  • وفي الخوارزمية التصنيفية، يتم تحديد النقاط المركزية من خلال تخفيض مجموع مربعات المسافة بين النقطة المركزية المرشحة وكل أمثلتها.
  • وفي المتوسط التصنيفي، يتم تحديد النقاط المركزية من خلال خفض مجموع المسافة بين النقطة المركزية المرشحة وكل مثال من أمثلتها.

يُرجى العلم أنّ تعريفات المسافة مختلفة أيضًا:

  • تعتمد الخوارزمية التصنيفية على المسافة الإقليدية من والنقطة المركزية إلى مثال. (في بُعدين، نجد أن المسافة تعني استخدام نظرية فيثاغورس لحساب وتر المثلث القائم). فعلى سبيل المثال، تُمثِّل الخوارزمية التصنيفية المسافة بين (2,2) و (5,-2) سيكون:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • يعتمد الوسيط التصنيفي على مسافة مانهاتن من النقطة المركزية إلى مثال. هذه المسافة هي حاصل جمع دلتا المطلقة في كل بُعد. على سبيل المثال، متوسط التصنيف المسافة بين (2,2) و (5,-2) ستكون:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

تسوية الترتيب0

#fundamentals

نوع من التنظيم يؤدي إلى فرض عقوبة على إجمالي عدد الأوزان غير الصفرية في نموذج. فعلى سبيل المثال، لنفترض أن نموذجًا يحتوي على 11 وزنًا غير صفري أكثر من نموذج مشابه يحتوي على 10 أوزان غير صفرية.

يُسمى تسوية المستوى 0 أحيانًا تسوية المعيار L0.

الخسارة الأولى

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة الفرق بين قيم التصنيف الفعلية القيم التي يتنبأ بها النموذج. على سبيل المثال، إليك احتساب الخسارة في L1 بمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة للدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

الخسارة L1 أقل حساسية للقيم الخارجية من L2 الخسارة.

متوسط الخطأ المطلق هو متوسط خسارة L1 لكل مثال.

تسوية المستوى1

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بالتناسب مع مجموع القيمة المطلقة الأوزان. تساعد تسوية الأرباح من المستوى 1 في زيادة احتمالات البيانات غير الملائمة أو ميزات يكاد تكون ذات صلة بالقيمة 0. ميزة ذات تتم إزالة الترجيح 0 من النموذج فعليًا.

تباين مع L2 تسوية.

الخسارة 2

#fundamentals

دالة الخسارة التي تحسب المربع الفرق بين قيم التصنيف الفعلية القيم التي يتنبأ بها النموذج. على سبيل المثال، إليك احتساب الخسارة من L2 بمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

تؤدي خسارة المستوى 2 إلى تضخيم تأثير القيم الشاذّة بمعنى آخر، تتجاوب خسارة المستوى 2 بدرجة أكبر مع التوقعات السيئة خسارة الجولة الأولى على سبيل المثال، خسارة L1 للدفعة السابقة سيكون 8 بدلاً من 16. لاحظ أن إحدى والطرفية تشكل 9 من 16.

تستخدم نماذج الانحدار عادةً الخسارة L2 مثل دالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة في المستوى 2.

تسوية 2

#fundamentals

نوع من تنظيم عقوبات القيم المرجحة بما يتناسب مع مجموع المربعات للقيم الترجيحية. يساعد تسوية المستوى 2 في تحقيق ترجيحات خارجية (وهي ذات القيم السالبة المرتفعة أو ذات القيم السالبة المنخفضة) أقرب إلى 0 لكن ليست تمامًا إلى 0. تظل الميزات ذات القيم القريبة جدًا من 0 في النموذج ولكنها لا تؤثر كثيرًا في تنبؤ النموذج.

تؤدي تسوية المستوى 2 دائمًا إلى تحسين التعميم في النماذج الخطية.

تباين مع L1 تسوية.

التصنيف

#fundamentals

في نظام تعلُّم الآلة المُوجّه، "الإجابة" أو "النتيجة" من مثال.

يتكون كل مثال مصنَّف من مثال واحد أو أكثر الميزات وتصنيف. على سبيل المثال، في مجلد الرسائل غير المرغوب فيها تصنيف "غير مرغوب فيه" على الأرجح "غير مرغوب فيه" أو "ليست رسائل غير مرغوب فيها". في مجموعة بيانات هطول الأمطار، قد تكون التسمية هي مقدار الأمطار التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على ميزة واحدة أو أكثر بالإضافة إلى تصنيف: على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنفة من نموذج تقييم منزل، لكل منها ثلاث ميزات وتصنيف واحد:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392000 دولار

في نظام تعلُّم الآلة الخاضع للإشراف، نماذج التدريب على الأمثلة المصنفة وعمل التنبؤات على أمثلة غير مصنَّفة:

مثال على التباين المصنَّف مع أمثلة غير مصنَّفة.

تسريب التصنيفات

عيب في تصميم النموذج تكون فيه الميزة وكيلاً تصنيف: على سبيل المثال، ضع في اعتبارك التصنيف الثنائي الذي يتوقّع ما إذا كان العميل المحتمل سيشتري منتجًا معيّنًا أم لا. لنفترض أن إحدى خصائص النموذج هي قيمة منطقية تسمى SpokeToCustomerAgent ولنفترض كذلك أن وكيل العميل عبارة عن تعيينه بعد أن يكون العميل المحتمل قد اشترى المنتج. أثناء التدريب، سيتعلم النموذج بسرعة الارتباط بين SpokeToCustomerAgent والتصنيف.

لمدا

#fundamentals

مرادف معدّل التنظيم.

مصطلح "لامدا" هو عبارة عن حمل زائد. سنركز هنا على المصطلح ضمن الانتظام.

نموذج لغوي مخصَّص لتطبيقات المحادثة (LaMDA)

#language

نموذج يستند إلى المحوّل نموذج لغوي كبير طوّرته Google مدرَّبة على مجموعة بيانات حوارية كبيرة يمكنها إنشاء ردود واقعية

LaMDA: محادثتنا الرائدة التقنية نظرة عامة.

معالم

#image

مرادف نقاط المفاتيح.

نموذج لغوي

#language

نموذج يقدِّر احتمالية رمز مميّز أو سلسلة من الرموز المميزة تحدث في تسلسل أطول

نموذج لغوي كبير

#language

على الأقل، يحتوي النموذج اللغوي على عدد كبير جدًا من المَعلمات. بشكل أكثر رسمية، نموذج لغوي يستند إلى المحوّل، مثل Gemini أو GPT

المساحة الكامنة

#language

مرادف لـ تضمين مساحة.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في الشبكة العصبونية. ثلاثة أنواع شائعة من الطبقات هي على النحو التالي:

على سبيل المثال، يوضح الرسم التوضيحي التالي شبكة عصبية ذات طبقة إدخال واحدة وطبقتين مخفيتين وطبقة إخراج واحدة:

شبكة عصبية تحتوي على طبقة إدخال واحدة وطبقتين مخفيتين وطبقة واحدة
          طبقة الإخراج. تتألف طبقة الإدخال من ميزتين. الأول
          الطبقة المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية
          تتكون من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

في TensorFlow، الطبقات هي أيضًا دوال بايثون تستخدم أجهزة الاستشعار وخيارات الضبط كإدخال ننتج عوامل تنس أخرى كمخرجات.

Layers API (tf.layers)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow لإنشاء شبكة عصبية متعمقة كتركيبة للطبقات. تتيح لك واجهة برمجة التطبيقات Layers API إنشاء أنواع الطبقات، مثل:

تتّبع Layers API اصطلاحات واجهة برمجة التطبيقات لطبقات Keras. وهذا يعني أنه بخلاف البادئة المختلفة، فإن جميع الدوال في Layers API لها نفس الأسماء والتوقيعات التي لنظيراتها في Keras واجهة برمجة التطبيقات للطبقات.

ورقة نبات

#df

أي نقطة نهاية في شجرة قرارات. إلغاء الإعجاب بـ condition، لا تُجري ورقة شجر اختبارًا. وإنما تعتبر ورقة الشجر تنبؤًا محتملاً. ورقة الشجر هي أيضًا الطرف عقدة مسار استنتاج.

على سبيل المثال، تحتوي شجرة القرارات التالية على ثلاثة أوراق:

شجرة قرارات ذات شرطين يؤديان إلى ثلاث أوراق.

أداة قابلية التفسير في التعلُّم (LIT)

أداة مرئية وتفاعلية لفهم النماذج وتصور البيانات.

يمكنك استخدام LIT مفتوح المصدر من أجل تفسير النماذج أو عرض النص والصور البيانات الجدولية.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يوضّح انحدار التدرج لـ مدى قوة ضبط الأوزان والتحيزات في كل التكرار. فعلى سبيل المثال، إذا كان معدل التعلم 0.3، بضبط الأوزان والتحيزات أكثر بثلاث مرات من معدل التعلم من 0.1.

معدّل التعلّم هو مَعلمة زائدة رئيسية. في حال ضبط كان معدل التعلم منخفضًا جدًا، سيستغرق التدريب وقتًا طويلاً. في حال حذف في أنك قمت بتعيين معدل التعلم مرتفعًا للغاية، وغالبًا ما تواجه خوارزمية انحدار التدرج مشكلة الوصول إلى التقارب.

انحدار التربيعات الأقل

يشير ذلك المصطلح إلى أحد نماذج الانحدار الخطي التي يتم تطويرها من خلال خفض الخسارة L2:

خطي

#fundamentals

علاقة بين متغيرين أو أكثر يمكن تمثيله فقط من خلال الجمع والضرب.

مخطط العلاقة الخطية هو خط.

تباين مع القيم غير الخطية.

نموذج خطي

#fundamentals

نموذج يعيّن وزنًا واحدًا لكل الميزة التي تتيح لك التنبؤات. (تتضمن النماذج الخطية أيضًا انحيازًا). في المقابل، علاقة الميزات بالتوقّعات في النماذج المفصّلة تكون بشكل عام غير خطي.

عادةً ما يكون تدريب النماذج الخطية أسهل وأكثر يمكن تفسيره من النماذج الأوّلية ومع ذلك، يمكن أن تتعلم النماذج العميقة علاقات معقدة بين الميزات.

الانحدار الخطي الانحدار اللوجستي هما نوعان من النماذج الخطية.

انحدار خطّي

#fundamentals

يشير ذلك المصطلح إلى نوع من نماذج تعلُّم الآلة ينطبق فيه ما يلي:

  • النموذج هو نموذج خطي.
  • التنبؤ هو قيمة نقطة عائمة. (هذه هي صفحة جزء الانحدار من الانحدار الخطي).

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار باستخدام التصنيف.

LIT

اختصار لـ أداة تعلُّم تفسير المحتوى (LIT)، التي كانت تُعرف سابقًا باسم أداة ترجمة اللغة.

LLM

#language
#generativeAI

اختصار نموذج لغوي كبير.

تقييمات "النموذج اللغوي الكبير" (LLM)

#language
#generativeAI

مجموعة من المقاييس والمعايير لتقييم أداء النماذج اللغوية الكبيرة (LLM). على مستوى عالٍ، تقييمات النموذج اللغوي الكبير:

  • يمكنك مساعدة الباحثين في تحديد المجالات التي تحتاج النماذج اللغوية الكبيرة فيها إلى تحسين.
  • أن تكون مفيدة في مقارنة النماذج اللغوية الكبيرة المختلفة وتحديد أفضل النماذج اللغوية الكبيرة بمهمة معينة.
  • المساعدة في التأكّد من أنّ استخدام النماذج اللغوية الكبيرة آمن وأخلاقي

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار الذي يتوقّع الاحتمالية. تتمتع نماذج الانحدار اللوجستي بالخصائص التالية:

  • يكون التصنيف فئويًا. يشير مصطلح "لوجستي" إلى يشير الانحدار عادةً إلى الانحدار اللوجستي الثنائي، وهو إلى نموذج يحتسب احتمالات التصنيفات ذات القيمتين المحتملتين. أحد الصيغ الأقل شيوعًا وهو الانحدار اللوجستي المتعدد الحدود احتمالات التصنيفات ذات أكثر من قيمتين محتملتين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات متعددة لفقدان السجلات بالتوازي مع التصنيفات بأكثر من قيمتين محتملتين).
  • يشتمل النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق باقي هذا التعريف أيضًا على النماذج المفصّلة التي تتنبأ بالاحتمالات للتسميات الفئوية.

على سبيل المثال، ضع في الاعتبار نموذج الانحدار اللوجستي الذي يحتسب احتمالية أن يكون عنوان البريد الإلكتروني الذي تم إدخاله إما غير مرغوب فيه أو ليس بريدًا غير مرغوب فيه. أثناء الاستنتاج، افترض أن النموذج يتنبأ بـ 0.72. وبالتالي، يقدر النموذج:

  • فرصة 72٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • فرصة 28٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية التالية المكونة من خطوتين:

  1. ينشئ النموذج توقّعًا أوّليًا (y') من خلال تطبيق دالة خطية. الخاصة بميزات الإدخال.
  2. ويستخدم النموذج التنبؤ الأولي كمدخل الدالة السينية، التي تحوِّل البيانات الأولية التنبؤ إلى قيمة بين 0 و1، مع استبعاد ذلك.

كما هو الحال في أي نموذج انحدار، يتنبأ أي نموذج انحدار لوجستي برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من التصنيف الثنائي النموذج على النحو التالي:

  • إذا كان الرقم المتوقّع أكبر من الحد الأدنى للتصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة الموجبة.
  • إذا كان الرقم المتوقّع أقل من حد التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة السالبة.

لوجيت

الخط المتجه في التنبؤات الأولية (غير العادية) التي النموذج الذي يتم تمريره عادةً إلى دالة التسوية. إذا كان النموذج يحل تصنيفًا متعدد الفئات المشكلة، فإن اللوجبات عادةً ما تصبح مدخلاً softmax. تنشئ الدالة softmax بعد ذلك متجهًا (تمت تسويته) الاحتمالات بقيمة واحدة لكل فئة محتملة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدمة في النظام الثنائي الانحدار اللوجستي.

لوغاريتم الاحتمالات

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الذاكرة القصيرة المدى (LSTM)

#seq

نوع من الخلايا في الشبكة العصبية المتكررة التي تستخدم لمعالجة تسلسلات من البيانات في التطبيقات مثل تعرُّف الكتابة بخط اليد والترجمة والشرح للصور. تتناول LSTM مشكلة التلاشي في التدرج التي تحدث عندما لتدريب RNN بسبب تسلسلات البيانات الطويلة عن طريق الاحتفاظ بالتاريخ في حالة الذاكرة الداخلية استنادًا إلى الإدخال والسياق الجديدَين من الخلايا السابقة في RNN.

LoRA

#language
#generativeAI

يشير إلى اختصار قابلية التكيّف المنخفضة الترتيب.

الخسارة

#fundamentals

أثناء تدريب النموذج المُوجّه، وهو مقياس لمدى التنبؤ بالنموذج من التصنيف الخاص به.

تحتسب دالة الخسارة الخسارة.

موقع تجميع الخسائر

يشير ذلك المصطلح إلى نوع من خوارزميات تعلُّم الآلة. تحسين أداء النموذج من خلال الجمع بين التنبؤات لنماذج باستخدام هذه التنبؤات لعمل تنبؤ واحد. وبالتالي يمكن لأداة تجميع الخسارة تقليل تباين التوقعات تحسين دقة التوقّعات.

منحنى الخسارة

#fundamentals

رسم بياني الخسارة كدالة لعدد التدريب التكرارات. ويوضح المخطط التالي الخسارة النموذجية منحنى:

رسم بياني الديكارتي للخسارة مقابل التكرارات التدريبية، يُظهر
          الانخفاض السريع في الخسارة في التكرارات الأولية، تليه
          ثم انحدار مستوٍ أثناء التكرارات النهائية.

ويمكن أن تساعدك منحنيات الخسارة في تحديد متى التوافق أو الفرط في التخصيص.

يمكن لمنحنيات الخسارة رسم جميع أنواع الخسارة التالية:

اطّلِع أيضًا على منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، دالة رياضية تحسب فقدان مجموعة من الأمثلة. دالة الخسارة ترجع خسارة أقل للنماذج التي ينتج عنها تنبؤات جيدة مقارنةً بالنماذج التي التوقعات السيئة.

وعادةً ما يكون الهدف من التطبيق هو تقليل فقدان دالة الخسارة. وإرجاعه.

هناك العديد من الأنواع المختلفة لدوال الخسارة. اختيار النقطة الخسارة المناسبة المناسبة لنوع النموذج الذي تقوم بإنشائه. على سبيل المثال:

مساحة الخسارة

رسم بياني للوزن(الأوزان) مقابل الخسارة. تهدف انحدار التدرج لحساب الوزن(الأوزان) التي يكون سطح الخسارة فيها عند الحد الأدنى المحلي.

قابلية التكيف منخفض الترتيب (LoRA)

#language
#generativeAI

خوارزمية لأداء ضبط كفاءة المعلَمات الألحان الموسيقية فقط مجموعة فرعية من مَعلمات النماذج اللغوية الكبيرة توفر LoRA المزايا التالية:

  • الضبط الدقيق بشكل أسرع من الأساليب التي تتطلب ضبط جميع سمات النموذج المعلَمات.
  • خفض التكلفة الحاسوبية للاستنتاج في نموذج دقيق.

يحافظ النموذج الذي يتم ضبطه على LoRA على جودة توقعاته أو يحسّنها.

تتيح LoRA إمكانية إنشاء إصدارات متخصصة متعددة من النموذج.

LSTM

#seq

اختصار ذاكرة قصيرة المدى.

M

تعلُم الآلة

#fundamentals

يشير هذا المصطلح إلى برنامج أو نظام يدرّب model من بيانات الإدخال. يمكن للنموذج المدرَّب وعمل تنبؤات مفيدة من بيانات جديدة (لم يسبق لها مثيل) مستمدة من نفس التوزيع مثل ذلك المستخدم لتطبيق النموذج.

كما يشير التعلم الآلي إلى مجال الدراسة المعني باستخدام هذه البرامج أو الأنظمة.

حصة الأغلبية

#fundamentals

التسمية الأكثر شيوعًا في مجموعة بيانات غير متوازنة في الفئة. على سبيل المثال: أي مجموعة بيانات تحتوي على تسميات سلبية 99% وتسميات موجبة بنسبة 1%، والتسميات السالبة هي فئة الأغلبية.

التباين مع فئة الأقل.

عملية اتخاذ القرار في ماركوف (MDP)

#rl

رسم بياني يمثل نموذج اتخاذ القرار حيث يمكن (أو إجراءات) يتم اتخاذها للتنقل في سلسلة من تنص على افتراض أن يتم الاحتفاظ بها لموقع ماركوف. ضِمن التعلّم المعزز، وهذه الانتقالات بين الحالات يؤدي إلى إرجاع مكافأة عددية.

عقار ماركوف

#rl

سمة خاصة لبيئات معيّنة، حيث تشير إلى بشكل كامل عن طريق المعلومات الضمنية في الحالة الحالية وإجراء الوكيل

نموذج لغوي مقنَّع

#language

نموذج لغوي يتنبأ باحتمالية الرموز المميزة المرشحة لملء الفراغات في تسلسل. على سبيل المثال، يمكن لنموذج لغوي مقنع حساب احتمالات الكلمات المرشّحة. لاستبدال التسطير في الجملة التالية:

عاد من يرتدي القبّعة ____.

تستخدم المؤلفات عادةً السلسلة "MASK" بدلاً من تسطير. على سبيل المثال:

The "MASK" في القبّعة وعدت.

معظم النماذج اللغوية الحديثة المقنَّعة ثنائية الاتجاه.

matplotlib

هي مكتبة تخطيط ثنائي الأبعاد بلغة بايثون مفتوحة المصدر. تساعدك مكتبة matplotlib في تصور للجوانب المختلفة للتعلم الآلي.

تحليل المصفوفات

#recsystems

في الرياضيات، يشير ذلك المصطلح إلى آلية لإيجاد المصفوفات التي يقترب حاصل الضرب النقطي منها المصفوفة المستهدفة.

في أنظمة التوصية، تمثل المصفوفة المستهدفة يحمل غالبًا بيانات التقييمات على العناصر. على سبيل المثال، قد يكون الهدف لنظام توصية الأفلام قد تشبه المصفوفة التالية، حيث تكون الأعداد الصحيحة الموجبة هي تقييمات المستخدمين و0 يعني أن المستخدم لم يقيّم الفيلم:

  الدار البيضاء قصة فيلادلفيا الفهد الأسود المرأة المعجزة فيلم Pulp الخيال
مستخدم 1 5 3 0.0 2.0 0.0
مستخدم 2 4.0 0.0 0.0 1 5
مستخدم 3 3 1 4.0 5 0.0

يهدف نظام اقتراح الأفلام إلى توقع تقييمات المستخدمين لكل من الأفلام غير المصنفة. على سبيل المثال، هل سيحب المستخدم 1 Black Panther؟

يتمثل أحد مناهج أنظمة التوصية في استخدام مصفوفة إلى العوامل لإنتاج المصفوفة التالية:

على سبيل المثال، باستخدام تحليل المصفوفة إلى عواملها على المستخدمين الثلاثة وخمسة عناصر قد يؤدي إلى مصفوفة المستخدمين ومصفوفة البنود التالية:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

ينتج عن الضرب النقطي لمصفوفة المستخدمين ومصفوفة البنود توصية لا تحتوي المصفوفة على تقييمات المستخدمين الأصلية فحسب، بل تتضمن أيضًا تنبؤات للأفلام التي لم يشاهدها كل مستخدم. على سبيل المثال، ضع في الاعتبار تقييم المستخدم 1 لـ Casablanca، والذي كان 5.0. النقطة يجب أن يكون ناتج المنتج المتجاوب مع تلك الخلية في مصفوفة التوصيات نأمل أن يكون حوالي 5.0، وهو:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

الأهم من ذلك، هل سيحب المستخدم 1 Black Panther؟ الحصول على ناتج الضرب النقطي يتجاوب مع الصف الأول والعمود الثالث ينتج عنه توقع تصنيف 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

ينتج عادةً عن تحليل المصفوفة مصفوفة مستخدم ومصفوفة عناصر، معًا، تكون أكثر إحكامًا بكثير من المصفوفة المستهدفة.

متوسط الخطأ المطلق (MAE)

متوسط الخسارة لكل مثال عندما تكون الخسارة L1 استخدام البيانات المختلفة. احسب متوسط الخطأ المطلق على النحو التالي:

  1. احسب الخسارة L1 لدُفعة.
  2. اقسِم الخسارة L1 على عدد الأمثلة في الدُفعة.

على سبيل المثال، ضع في الاعتبار حساب الخسارة L1 على الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج الخسارة (الفرق بين الفعلية والمتوقَّعة)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إذًا، تكون الخسارة L1 هي 8 وعدد الأمثلة هو 5. وبالتالي، فإن متوسط الخطأ المطلق هو:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

متوسط الخطأ المطلق للتباين مع الخطأ التربيعي المتوسّط جذر متوسط الخطأ التربيعي.

يعني خطأ تربيعيًا (MSE)

متوسط الخسارة لكل مثال عندما تكون الخسارة L2 استخدام البيانات المختلفة. احسب متوسط الخطأ التربيعي على النحو التالي:

  1. احسب الخسارة L2 لدُفعة.
  2. اقسِم الخسارة L2 على عدد الأمثلة في الدُفعة.

على سبيل المثال، ضع في الاعتبار الخسارة في الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية توقع النموذج الخسارة الخسارة التربيعية
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = خسارة L2

وبالتالي، فإن متوسط الخطأ التربيعي هو:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

متوسط الخطأ المربع هو محسّن تدريب شائع، وبالأخص في ما يخص الانحدار الخطي.

تباين متوسط الخطأ التربيعي مع متوسط الخطأ المطلق جذر متوسط الخطأ التربيعي.

تستخدم TensorFlow Playground متوسط الخطأ المربع لحساب قيم الخسارة.

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة المتوازية لتعلُّم الآلة، مصطلح مرتبط بتعيين البيانات إلى شرائح TPU، وتحديد كيفية تقسيم هذه القيم أو نسخها.

الشبكة المتداخلة هي عبارة عن حمل زائد ويمكن أن تعني أيًا مما يلي:

  • تمثّل هذه السمة تصميمًا فعليًا لشرائح وحدة معالجة الموتّرات.
  • إنشاء منطقي تجريدي لتعيين البيانات والنموذج إلى وحدة معالجة الموتّرات رقائق البطاطس.

وفي كلتا الحالتين، يتم تحديد الشبكة المتداخلة كشكل.

التعلّم الوصفي

#language

يشير ذلك المصطلح إلى مجموعة فرعية من تعلُّم الآلة تكتشف خوارزمية تعلُّم أو تحسِّنها. ويمكن أن يهدف نظام التعلم الوصفي أيضًا إلى تدريب نموذج لتعلم كيفية مهمة من كمية صغيرة من البيانات أو من الخبرة المكتسبة في المهام السابقة. بوجهٍ عام، تحاول خوارزميات التعلّم الوصفي تحقيق ما يلي:

  • تحسين أو تعلم الميزات الهندسية يدويًا (مثل أداة التهيئة أو محسّن).
  • أن تكون أكثر فعالية من حيث البيانات والحوسبة.
  • تحسين التعميم.

ترتبط التعلّم الإحصائي بطريقة تعلُّم قليلة.

المقياس

#TensorFlow

إحصائية مهمة.

الهدف هو مقياس يستخدمه نظام تعلُّم الآلة. تحسينه.

Metrics API (tf.metrics)

واجهة برمجة تطبيقات TensorFlow لتقييم النماذج على سبيل المثال: tf.metrics.accuracy يحدد عدد مرات تطابق تنبؤات النموذج مع التصنيفات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في واحدة التكرار. وعادةً ما يكون حجم الدفعة الدفعة الصغيرة من 10 إلى 1000 مثال.

على سبيل المثال، لنفترض أنّ مجموعة التدريب بأكملها (الدُفعة الكاملة) يتكون من 1000 مثال. لنفترض أيضًا أنك قمت بتعيين حجم الدفعة لكل دفعة صغيرة إلى 20 لذلك، يحدد التكرار الخسارة في 20 عشوائيًا من 1000 مثال ثم من خلال تعديل القيم المرجحة والانحيازات وفقًا لذلك.

ويكون حساب الخسارة على دفعة صغيرة أكثر فعالية بكثير من فقدان جميع الأمثلة الموجودة في الدفعة الكاملة.

نزول متدرّج عشوائي ضمن دفعة صغيرة

خوارزمية انحدار التدرج التي تستخدم دفعات صغيرة: أو بعبارةٍ أخرى، فإنّ التجميع العشوائي المجزّأ يقدر خورازمية انحدار التدرج التدرج بناءً على مجموعة فرعية صغيرة من بيانات التدريب. تستخدم الانحدار العشوائي المتدرج العادي دفعة صغيرة بحجم 1.

الحدّ الأدنى لخسارة

دالة الخسارة الشبكات العدائية التوليدية، بناءً على القصور المتقاطع بين توزيع من البيانات التي تم إنشاؤها والبيانات الحقيقية.

يُستخدم الحد الأدنى من الخسارة في الورقة الأولى لوصف الشبكات الخادعة التوليدية.

فئة الأقليات

#fundamentals

التسمية الأقل شيوعًا في مجموعة بيانات غير متوازنة في الفئة. على سبيل المثال: أي مجموعة بيانات تحتوي على تسميات سلبية 99% وتسميات موجبة بنسبة 1%، التسميات الإيجابية هي فئة الأقل.

التباين مع فئة الغالبية.

مجموعة من الخبراء

#language
#generativeAI

مخطط لزيادة كفاءة الشبكة العصبونية من خلال باستخدام مجموعة فرعية فقط من معلماتها (المعروفة باسم خبير) لمعالجة إدخال محدد الرمز المميز أو مثال. حاسمة توجّه شبكة الحظر كل رمز إدخال أو مثال إلى الخبراء المناسبين.

للحصول على التفاصيل، يمكنك الاطّلاع على أي من البحثَين التاليَين:

مالي

اختصار تعلُّم الآلة.

MMIT

#language
#image
#generativeAI

اختصار لـ تعليمات محسَّنة بعدة وسائط:

معهد MNIST (المعهد الوطني للمعايير والتكنولوجيا)

#image

مجموعة بيانات المجال العام التي تم تجميعها بواسطة LeCun وكورتيس وبورجس تحتوي على 60,000 صورة، تعرض كل صورة طريقة كتابة شخص ما لصورة معيّنة يدويًا الرقم من 0 إلى 9. يتم تخزين كل صورة في شكل مصفوفة 28×28 من الأعداد الصحيحة، حيث يكون كل عدد صحيح عبارة عن قيمة بتدرج رمادية بين 0 و255، شاملاً.

تُعد MNIST مجموعة بيانات أساسية للتعلم الآلي، تُستخدم غالبًا لاختبار مناهج التعلم الآلي. للحصول على التفاصيل، يمكنك مراجعة قاعدة بيانات "الأرقام المكتوبة بخط اليد" في MNIST

الأسلوب

#language

فئة بيانات عالية المستوى. على سبيل المثال، الأرقام والنصوص والصور ومقاطع الفيديو الصوت خمسة وسائط مختلفة.

نموذج

#fundamentals

بشكل عام، أي تركيبة رياضية تعالج البيانات المدخلة وترجع الإخراج. وبصياغته بشكل مختلف، فإن النموذج عبارة عن مجموعة المعاملات والبنية اللازمة للنظام لإجراء التنبؤات. في نظام تعلُّم الآلة الخاضع للإشراف، يأخذ النموذج مثال كمدخل ويستنتج التوقّع كإخراج. ومن خلال التعلّم الآلي المُوجّه نماذج مختلفة إلى حد ما. على سبيل المثال:

يمكن حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

تعلُّم الآلة غير الخاضع للإشراف أيضًا نماذج، وعادةً ما تكون دالة يمكنها تعيين مثال إدخال المجموعة الأكثر ملاءمةً.

سعة النموذج

يشير ذلك المصطلح إلى مدى تعقيد المسائل التي يمكن أن يتعلّمها نموذج معيّن. كلما زادت تعقيدًا المشكلات التي يمكن أن يتعلمها النموذج، زادت قدرة النموذج. نموذج تزداد السعة عادةً كلما زاد عدد معاملات النموذج. بالنسبة إلى التعريف الرسمي لقدرة المصنِّف، راجع سمة مؤتمرات الفيديو (VC):

نموذج متتالي

#generativeAI

يشير هذا المصطلح إلى نظام يختار النموذج المثالي استنادًا إلى استنتاج معيّن. طلب البحث.

تخيل مجموعة من النماذج، تتراوح من النماذج الكبيرة للغاية (الكثير من المَعلمات) إلى أصغر بكثير (مَعلمات أقل بكثير). تستهلك النماذج الكبيرة جدًا المزيد من الموارد الحاسوبية في الاستنتاج مقارنةً بالنماذج الأصغر. ومع ذلك، إنّ نماذجنا إلى استنتاج طلبات أكثر تعقيدًا من النماذج الأصغر. يحدد التتابع النموذجي مدى تعقيد طلب الاستنتاج ثم واختيار النموذج المناسب لإجراء الاستنتاج. إن الحافز الرئيسي لتدفق النموذج هو خفض تكاليف الاستنتاج من خلال واختيار النماذج الأصغر بصورة عامة، وتحديد نموذج أكبر فقط للحصول على الاستعلامات المعقدة.

تخيل أن هناك نموذجًا صغيرًا يعمل على أحد الهواتف ونسخة أكبر من ذلك الطراز على خادم بعيد. يؤدي تتالي النموذج الجيد إلى خفض التكلفة ووقت الاستجابة من خلال ما يمكّن النموذج الأصغر من معالجة الطلبات البسيطة ويطلب فقط نموذج بعيد للتعامل مع الطلبات المعقدة.

راجِع أيضًا طراز جهاز التوجيه.

موازاة النموذج

#language

طريقة للتدريب على التوسيع أو الاستنتاج الذي يضع أجزاء مختلفة من واحد model على أجهزة مختلفة. موازاة النموذج لتمكين النماذج الكبيرة جدًا بحيث لا تناسب جهاز واحد.

لتنفيذ موازاة النموذج، يقوم النظام عادةً بما يلي:

  1. أجزاء (تقسيم) النموذج إلى أجزاء أصغر.
  2. يوزع تدريب تلك الأجزاء الأصغر على معالِجات متعددة. يدرّب كل معالِج جزءه الخاص من النموذج.
  3. تجمع النتائج لإنشاء نموذج واحد.

يؤدي التوازي في النموذج إلى إبطاء التدريب.

راجِع أيضًا موازية البيانات.

جهاز توجيه الطراز

#generativeAI

يشير هذا المصطلح إلى الخوارزمية التي تحدّد النموذج المثالي الاستنتاج في النموذج المتتالية. عادةً ما يكون جهاز التوجيه النموذجي في حد ذاته أحد نماذج التعلم الآلي تتعلم تدريجيًا كيفية اختيار أفضل نموذج لمدخل معين. ومع ذلك، قد يكون موجه النموذج أحيانًا أبسط، الخوارزمية غير الآلية.

تدريب النموذج

عملية تحديد أفضل نموذج.

الزخم

يشير ذلك المصطلح إلى خوارزمية معقّدة لخوارزمية انحدار التدرج تعتمد فيها خطوة التعلُّم. ليس فقط على المشتق في الخطوة الحالية، ولكن أيضًا على المشتقات الخطوات التي سبقتها مباشرةً. يتضمن الزخم حساب المتوسط المتحرك المُرجح الأسّي للتدرجات بمرور الوقت، إلى الزخم في الفيزياء. أحيانًا يمنع الزخم التعلم من عالقًا في الحد الأدنى المحلي.

MOE

#language
#image
#generativeAI

اختصار مزيج من الخبراء.

تصنيف متعدّد الفئات

#fundamentals

في التعلّم الخاضع للإشراف، تظهر مشكلة تصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتين من التصنيفات. على سبيل المثال، يجب أن تكون التسميات في مجموعة بيانات Iris واحدة مما يلي ثلاث فئات:

  • إيريس سيتوسا
  • إيريس فيرجينيكا
  • زهرة السوسن الملون

يشير ذلك المصطلح إلى نموذج مدرَّب على مجموعة بيانات Iris يتنبأ بنوع السوسن باستخدام أمثلة جديدة. بتصنيف متعدد الفئات.

وفي المقابل، تندرج مشكلات التصنيف التي تميز بين وصفين الفئات هي نماذج تصنيف ثنائية. على سبيل المثال، نموذج بريد إلكتروني يتوقّع إما الرسائل غير المرغوب فيها أو الرسائل غير المرغوب فيها هو نموذج تصنيف ثنائي.

في مشكلات التجميع العنقودي، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

انحدار لوجستي متعدد الفئات

استخدام الانحدار اللوجستي في تمثّل هذه السمة مسائل التصنيف متعدد الفئات.

الاهتمام الذاتي المتعدّد الرؤوس

#language

تمثّل هذه السمة إضافة تنبيه ذاتي تطبّق آلية الانتباه الذاتي عدة مرات لكل موضع في تسلسل الإدخال.

قدّمت المحوّلات ميزة الانتباه الذاتي المتعدّد الرؤوس.

نموذج متعدد الوسائط

#language

يشير هذا المصطلح إلى نموذج تشتمل مدخلاته و/أو مخرجاته على أكثر من عنصر. الطريقة: فعلى سبيل المثال، ضع في الاعتبار نموذجًا يأخذ كلاً من صورة وشرح نصي (طريقتان) كـ ميزات نتيجة تشير إلى مدى ملاءمة التسمية التوضيحية النصية للصورة. إذًا، مدخلات هذا النموذج متعددة الوسائط والمخرجات أحادية الوضع.

تعليمات محسَّنة بعدّة وسائط

#language

نموذج معدَّل وفقًا للتعليمات يمكنه معالجة الإدخال غير النصوص، مثل الصور والفيديو والصوت

تصنيف متعدّد الحدود

مرادف للتصنيف متعدد الفئات.

الانحدار متعدد الحدود

مرادف لـ الانحدار اللوجستي متعدد الفئات.

تعدد المهام

يشير ذلك المصطلح إلى أسلوب لتعلُّم الآلة يتم فيه استخدام نموذج واحد. التدريب على أداء عدة مهام.

يتم إنشاء نماذج تعدد المهام عن طريق التدريب على البيانات المناسبة لكل مهمة من المهام المختلفة. وهذا يسمح للنموذج بتعلم كيفية مشاركة المعلومات عبر المهام، مما يساعد النموذج على التعلم بفعالية أكبر.

غالبًا ما يحسّن النموذج المُدرَّب على مهام متعددة من قدرات التعميم ويمكن أن تكون أكثر فعالية في التعامل مع أنواع مختلفة من البيانات.

لا

فخ NaN

عندما يصبح رقم واحد في نموذجك NaN أثناء التطبيق، الأمر الذي قد يتسبب في ظهور العديد من الأرقام الأخرى أو جميعها في نموذجك تصبح في النهاية NaN.

NaN هو اختصار للرمز Not a Number.

فهم اللغات الطبيعية

#language

تحديد نوايا المستخدم استنادًا إلى ما كتبه أو قاله. على سبيل المثال، يستخدم محرك البحث فهم اللغة الطبيعية تحديد ما يبحث عنه المستخدم استنادًا إلى ما كتبه أو قاله.

فئة سلبية

#fundamentals

في التصنيف الثنائي، تكون إحدى الفئات بمصطلح إيجابي والآخر سلبي. الفئة الموجبة هي الشيء أو الحدث الذي يختبر له النموذج الفئة السالبة احتمال آخر. على سبيل المثال:

  • الفئة السالبة في الاختبار الطبي قد تكون "ليست ورمًا".
  • الفئة السالبة في أحد مصنِّفات البريد الإلكتروني قد تكون "ليست رسائل غير مرغوب فيها".

التباين مع الفئة الموجبة.

عينات سلبية

مرادف لـ عينات المرشحات.

بحث الهندسة العصبية (NAS)

يشير هذا المصطلح إلى أسلوب لتصميم بنية الشبكة العصبونية. بإمكان خوارزميات التخزين الشبكي أن تقلل من كمية الوقت والموارد اللازمة لتدريب الشبكة العصبية.

تستخدم NAS عادةً ما يلي:

  • مساحة البحث، وهي مجموعة من البُنى الأساسية الممكنة.
  • دالة اللياقة البدنية، وهي مقياس لمدى جودة والهندسة المعمارية في مهمة معينة.

غالبًا ما تبدأ خوارزميات التخزين الشبكي بمجموعة صغيرة من الهياكل المحتملة أن توسع مساحة البحث تدريجيًا، حيث تتعلم الخوارزمية المزيد عن يكون البُنى الهندسية فعالة. تعتمد وظيفة اللياقة البدنية عادةً على أداء البنية في مجموعة تدريب، ويتم استخدام الخوارزمية مدربين عادةً باستخدام التعلُّم المعزّز.

أثبتت خوارزميات التخزين الشبكي فعاليتها في إيجاد نماذج عالية الأداء هياكل مختلفة لمجموعة متنوعة من المهام، بما في ذلك صور تصنيف أو تصنيف النص والترجمة الآلية.

شبكة عصبية

#fundamentals

طراز يحتوي على واحد على الأقل طبقة مخفية. الشبكة العصبية العميقة هي نوع من الشبكات العصبية. تحتوي على أكثر من طبقة مخفية. على سبيل المثال، يُظهر الرسم التخطيطي التالي شبكة عصبية عميقة تحتوي على طبقتين مخفيتين.

يشير هذا المصطلح إلى شبكة عصبية تحتوي على طبقة إدخال وطبقتَين مخفيتَين
          طبقة الإخراج.

تتصل كل خلية عصبية في الشبكة العصبية بجميع النقاط في الطبقة التالية. على سبيل المثال، في المخطط السابق، لاحظ أن كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية، تتصل بشكل منفصل بكلتا الخليتين العصبيتين في الطبقة الثانية المخفية.

تسمى الشبكات العصبية المنفذة على أجهزة الكمبيوتر أحيانًا الشبكات العصبية الاصطناعية للتمييز بينها الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

قد تحاكي بعض الشبكات العصبية العلاقات غير الخطية المعقدة للغاية بين الميزات المختلفة والتسمية.

راجِع أيضًا الشبكة العصبونية الالتفافية و الشبكة العصبونية المتكررة.

عصبون

#fundamentals

يشير هذا المصطلح إلى وحدة مميّزة داخل طبقة مخفية في مجال تعلُّم الآلة. للشبكة العصبية. تنفذ كل خلية عصبية ما يلي إجراء من خطوتين:

  1. حساب المجموع المرجح لقيم الإدخال مضروبة حسب أوزانها المقابلة.
  2. يجتاز المجموع المرجح كمدخل إلى تفعيل الحساب:

تقبل الخلية العصبية في الطبقة المخفية الأولى المدخلات من قيم الخصائص في طبقة الإدخال. خلية عصبية في أي طبقة مخفية وراء الأولى تقبل المدخلات من الخلايا العصبية في الطبقة المخفية السابقة. فعلى سبيل المثال، تقبل الخلية العصبية في الطبقة المخفية الثانية المدخلات من الخلايا العصبية في الطبقة الأولى المخفية.

يسلط الرسم التوضيحي التالي الضوء على خليتين عصبيتين المدخلات.

يشير هذا المصطلح إلى شبكة عصبية تحتوي على طبقة إدخال وطبقتَين مخفيتَين
          طبقة الإخراج. خليتان عصبيتان بارزتان: واحدة في الأولى
          طبقة مخفية وواحد في الطبقة الثانية المخفية. يتم تمييز
          الخلية العصبية في الطبقة المخفية الأولى تتلقى مدخلات من كلتا الميزتين
          في طبقة الإدخال. الخلية العصبية المميزة في الطبقة الثانية المخفية
          تتلقى مدخلات من كل خلية من الخلايا العصبية الثلاث في أول خلايا مخفية
          الطبقة الخارجية.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ. وأجزاء أخرى من الجهاز العصبي.

الحرف اللاتيني n جرام

#seq
#language

يشير ذلك المصطلح إلى تسلسل مُرتب من الكلمات N. على سبيل المثال، يساوي truly madly 2 غرام. لأنّ ذي صلة، فإن تأثير ماجنون حقيقي يختلف عن 2 غرام عن كلمة فعل ذلك بجنون.

لا الأسماء لهذا النوع من أحرف N-gram أمثلة
2 بيجرام أو 2 غرام الذهاب إلى، وتناول الغداء، وتناول العشاء
3 تريغرام أو 3 غرام أكلت الكثير، وثلاثة فئران عمياء، وأجراس أجراس
4 4 غرامات اسير في الحديقة، وغبار مع رياح، يأكل الصبيّ العدس

العديد من فهم اللغات الطبيعية تعتمد النماذج على N-grams للتنبؤ بالكلمة التالية التي سيكتبها المستخدم أو قولها. على سبيل المثال، لنفترض أنّ أحد المستخدمين كتب ثلاثة مربّعات. من المرجح أن يتنبأ أي نموذج NLU يستند إلى ثلاثية الجرامات بأن سيكتب المستخدم الفئران تاليًا.

قارِن بين جرامات N وكيس كلمات، وهي مجموعات الكلمات غير المرتبة.

فهم اللغات الطبيعية

#language

اختصار اللغة الطبيعية الفهم.

العقدة (شجرة القرار)

#df

في شجرة القرار، يكون أي condition أو ورقة الشجر.

شجرة قرارات ذات شرطين وثلاث أوراق.

العقدة (الشبكة العصبونية)

#fundamentals

خلية عصبية في طبقة مخفية.

العقدة (TensorFlow الرسم البياني)

#TensorFlow

عملية في الرسم البياني من TensorFlow.

الضجيج

بشكل عام، أي شيء يحجب الإشارة في مجموعة البيانات. التشويش يمكن تقديمها إلى البيانات بعدة طرق. على سبيل المثال:

  • يخطئ المصنّفون في التصنيف.
  • يخطئ المستخدمون والأدوات في تسجيل قيم الخصائص أو يحذفونها.

شرط غير ثنائي

#df

يشير ذلك المصطلح إلى شرط يحتوي على أكثر من نتيجتَين محتملتَين. فعلى سبيل المثال، يحتوي الشرط غير الثنائي التالي على ثلاثة النتائج:

شرط (number_of_legs = ?) يؤدي إلى ثلاثة حالات
          والنتائج. نتيجة واحدة (number_of_legs = 8) تؤدي إلى ورقة
          باسم عنكبوت. النتيجة الثانية (number_of_legs = 4) تؤدي إلى
          ورقة شجر اسمها كلب. النتيجة الثالثة (number_of_legs = 2) تؤدي إلى
          ورقة شجر اسمها بطريق.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلهما وحدهما. من خلال الجمع والضرب. علاقة خطية يمكن تمثيله كخط؛ لا يمكن أن تكون العلاقة غير الخطية يتم تمثيلها كخط. على سبيل المثال، ضع في اعتبارك نموذجين يرتبط كل منهما ميزة واحدة بتسمية واحدة. النموذج الموجود على اليسار خطي والنموذج الظاهر على اليمين غير خطي:

اثنين من المخططات. المخطط الواحد هو خط، إذن هذه علاقة خطية.
          أما المخطط الآخر فهو منحنى، لذا فهذه علاقة غير خطية.

انحياز عدم الاستجابة

#fairness

راجِع انحياز الاختيار.

عدم الحركة

#fundamentals

ميزة تتغير قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت. على سبيل المثال، إليك الأمثلة التالية عن عدم الحركة:

  • يختلف عدد ملابس السباحة التي يتم بيعها في متجر معيّن مع اختلاف الموسم.
  • كمية الفاكهة التي يتم حصادها في منطقة معينة صفر في معظم السنة لكنها كبيرة لفترة قصيرة.
  • بسبب التغيّر المناخي، يتغيّر المتوسط السنوي لدرجات الحرارة.

التباين مع الثبات.

تسوية

#fundamentals

بشكل عام، عملية تحويل النطاق الفعلي للمتغير القيم في نطاق معياري من القيم، مثل:

  • من -1 إلى 1+
  • 0 إلى 1
  • درجات Z (تقريبًا، من -3 إلى +3)

على سبيل المثال، لنفترض أن النطاق الفعلي للقيم لميزة معينة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل كـ -1 إلى 1+.

التسوية مهمة شائعة في هندسة الميزات. يتم عادةً تدريب النماذج بشكل أسرع (وإعداد تنبؤات أفضل) عند كل خاصية عددية في متّجه الميزة له النطاق نفسه تقريبًا.

اكتشاف الحداثة

عملية تحديد ما إذا كان المثال الجديد (الجديد) يأتي من نفس على أنه مجموعة التدريب. بعبارة أخرى، بعد التدريب على مجموعة التدريب، فإن طريقة الكشف الجديدة تحدد ما إذا كان تمرين جديد مثال (أثناء الاستنتاج أو أثناء التدريب الإضافي) قيمة استثنائية.

التباين مع رصد القيم الخارجية

بيانات عددية

#fundamentals

الميزات التي يتم تمثيلها كأعداد صحيحة أو أرقام حقيقية. على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنزل حجم لمنزل (بالقدم المربع أو المتر المربّع) كبيانات رقمية. التمثيل ميزة كبيانات رقمية تشير إلى أن قيم العنصر لها لها علاقة رياضية بالتصنيف. أي أن عدد الأمتار المربعة في أي منزل ربما له بعض العلاقة الرياضية بقيمة المنزل.

يجب عدم تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال: تكون الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة؛ ومع ذلك، يتم عرض عدد صحيح يجب عدم تمثيل الرموز كبيانات عددية في النماذج. هذا لأن الرمز البريدي لـ 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. علاوةً على ذلك، على الرغم من ارتباط الرموز البريدية المختلفة ب القيم العقارية، فلا يمكننا أن نفترض أن قيم العقارات في الرمز البريدي عام 20000 ضعف قيمة العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية في شكل بيانات فئوية. بدلاً من ذلك.

تسمى أحيانًا الخصائص العددية الميزات المستمرة.

NumPy

إنّ وهي مكتبة رياضية مفتوحة المصدر توفر عمليات صفائف فعالة في بايثون. تستند pandas إلى NumPy.

O

هدف

مقياس تحاول خوارزميتك تحسينه.

دالة موضوعية

تمثّل هذه السمة الصيغة الرياضية أو المقياس الذي يهدف النموذج إلى تحسينه. على سبيل المثال، قد تكون الدالة الموضوعية وعادةً ما يكون الانحدار الخطي متوسط الخسارة التربيعية: لذلك، عند تدريب نموذج الانحدار الخطي، فإن التدريب يهدف إلى تقليل متوسط الخسارة التربيعية.

وفي بعض الحالات، يكون الهدف هو تحقيق أقصى استفادة من الوظيفة الموضوعية. على سبيل المثال، إذا كانت الدالة الهدف هي الدقة، فإن الهدف هو لزيادة الدقة إلى أقصى حد

راجِع أيضًا الخسارة.

شرط مائل

#df

في شجرة القرار، condition تتضمن أكثر من سمة الميزة. فعلى سبيل المثال، إذا كان الطول والعرض كلاهما السمتين، يكون ما يلي شرطًا مائلاً:

  height > width

تباين مع شرط محاذاة المحور.

بلا إنترنت

#fundamentals

مرادف لـ static.

الاستنتاج بلا إنترنت

#fundamentals

يشير ذلك المصطلح إلى عملية إنشاء مجموعة من التوقّعات. ثم التخزين المؤقت (حفظ) تلك التوقعات. يمكن للتطبيقات بعد ذلك الوصول إلى من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في اعتبارك نموذجًا ينشئ توقّعات الطقس المحلي (التنبؤات) مرة كل أربع ساعات. وبعد تشغيل كل نموذج، يحدد النظام يخزن جميع توقعات الطقس المحلية مؤقتًا. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُسمّى الاستنتاج بلا إنترنت أيضًا الاستنتاج الثابت.

التباين مع الاستنتاج على الإنترنت.

ترميز واحد فعال

#fundamentals

لتمثيل البيانات الفئوية كمتّجه:

  • تمّ ضبط عنصر واحد على 1.
  • ويتم تعيين جميع العناصر الأخرى على 0.

ويشيع استخدام الترميز الأحادي لتمثيل السلاسل أو المعرّفات التي مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أن خاصية فئوية معينة تسمى تتضمن Scandinavia خمس قيم محتملة:

  • "الدانمرك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي لكل قيمة من القيم الخمس على النحو التالي:

بلد المتجه
"الدانمرك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل الترميز أحادي الاتجاه، يمكن لأي نموذج أن يتعلم اتصالات مختلفة بناءً على كل دولة من البلدان الخمسة.

يعتبر تمثيل ميزة على أنّها بيانات رقمية بديل لترميز واحد فعال. ولسوء الحظ، فإن تمثيل البلدان الاسكندنافية عدديًا ليست خيارًا جيدًا. على سبيل المثال: ضع في اعتبارك التمثيل الرقمي التالي:

  • "الدانمرك" تساوي 0
  • "السويد" تساوي 1
  • "النرويج" 2
  • "فنلندا" 3
  • "آيسلندا" هو 4

فمع الترميز الرقمي، قد يفسر النموذج الأرقام الأولية رياضيًا وستحاول التدرّب على هذه الأرقام. لكن أيسلندا ليست في الواقع ضعف (أو نصف مقدار) شيء مثل النرويج، لذلك سيتوصل النموذج إلى بعض الاستنتاجات الغريبة.

التعلُّم بلقطة واحدة

أحد مناهج التعلم الآلي، وغالبًا ما يُستخدم لتصنيف الكائنات، مصمَّمة لتعلم المصنِّفات الفعالة من خلال مثال تدريبي واحد.

يمكنك أيضًا الاطّلاع على دروس تعليمية قصيرة التعلُّم المجاني:

مطالبة بلقطة واحدة

#language
#generativeAI

طلب يتضمن مثال يوضّح كيفية تنفيذ من المفترض أن يستجيب نموذج لغوي كبير. على سبيل المثال: يحتوي الطلب التالي على مثال واحد يوضح نموذجًا لغويًا كبيرًا كيف فيجب أن يجيب على استعلام.

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
فرنسا: EUR مثال واحد.
الهند: الاستعلام الفعلي.

حدِّد أوجه التشابه والاختلاف بين المطالبة بلقطة واحدة والعبارات التالية:

واحد مقابل الكل

#fundamentals

بناءً على مشكلة تصنيف في فئات N، يتكون من N منفصلة المصنِّفات الثنائية: مصنِّف ثنائي واحد لكل نتيجة محتملة. فعلى سبيل المثال، إذا كان هناك نموذج يصنف الأمثلة كحيوانات أو خضروات أو معادن، فإن حل واحد مقابل الكل سيوفر باتباع ثلاثة مصنِّفات ثنائية منفصلة:

  • حيوان مقابل غير حيوان
  • خضار مقابل غير نباتي
  • معدني مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف لهذه الكلمة ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال: لنفترض أن هناك تطبيقًا يمرر مدخلات إلى نموذج وإصدار طلب التنبؤ. لنفترض أن هناك نظامًا يستخدم الاستنتاج عبر الإنترنت يستجيب للطلب من خلال تنفيذ النموذج (وإرجاع التنبؤ إلى التطبيق).

تباين مع الاستنتاج بلا إنترنت.

العملية (عملية)

#TensorFlow

في TensorFlow، أي إجراء ينشئ، يتلاعب بأداة Tensor أو يدمرها. بالنسبة على سبيل المثال، ضرب المصفوفة هو عملية يتم فيها استخدام اثنين من التحمل ثم يقوم بإدخال Tensor واحد كمخرج.

Optax

مكتبة تحسين ومعالجة التدرجات لتطبيق JAX تُسهل Optax البحث من خلال توفير الوحدات الأساسية التي يمكن بطرق مخصّصة لتحسين النماذج بارامترية مثل والشبكات العصبية العميقة. تشمل الأهداف الأخرى ما يلي:

  • وهو توفير عمليات تنفيذ مقروءة ومختبرة بالكامل وفعالة والمكونات الأساسية.
  • تحسين الإنتاجية من خلال السماح بدمج مكونات منخفضة المستوى إلى أدوات تحسين مخصصة (أو مكونات أخرى لمعالجة التدرج).
  • تسريع تبني الأفكار الجديدة من خلال تسهيل الأمر على الجميع للمساهمة.

محسِّن

تطبيق محدد لـ خوارزمية انحدار التدرج للخوارزمية. من بين أدوات التحسين الشائعة ما يلي:

  • AdaGrad، وهو اختصار للنزول ADAptive GRADient
  • Adam، التي تعني ADAptive مع الزخم

الانحياز للتشابه خارج المجموعة

#fairness

الميل إلى رؤية الأعضاء خارج المجموعة متشابهين أكثر من الأعضاء في المجموعة عند مقارنة المواقف والقيم والسمات الشخصية وسماتها الشخصية. في المجموعة: تشير إلى المستخدمين الذين تتفاعل معهم بانتظام. تشير out-group إلى المستخدمين الذين لا تتفاعل معهم بانتظام. إذا كنت إنشاء مجموعة بيانات عن طريق مطالبة الأشخاص بتقديم سمات حول خارجية، فقد تكون هذه السمات أقل دقةً ونمطًا من السمات التي يدرجها المشاركون للأشخاص في مجموعاتهم.

على سبيل المثال، قد يصف سكان مدينة ليليبوتاس منازل أفراد عائلة معينة آخرين. بتفصيل كبير، مع الإشارة إلى الاختلافات الصغيرة في الأنماط والنوافذ وأبوابها وأحجامها. ومع ذلك، قد يعلن نفس الأشخاص ليليوتي ببساطة أن يعيش جميع سكان "الأخوين" في منازل متطابقة.

يعد تحيز التجانس خارج المجموعة شكلاً من الانحياز في تحديد مصدر المجموعة:

راجِع أيضًا الانحياز داخل المجموعة.

رصد القيم الخارجية

يشير هذا المصطلح إلى عملية تحديد القيم الشاذّة في مجموعة تدريب.

تباين مع ميزة اكتشاف الحداثة.

الذي حقق أداءً مختلفًا

القيم بعيدة عن معظم القيم الأخرى. في التعلم الآلي، أي من فيما يلي قيم استثنائية:

  • إدخال البيانات التي تزيد قيمها عن 3 انحرافات معيارية تقريبًا عن المتوسط.
  • الأوزان ذات القيم المطلقة العالية.
  • القيم المتنبأ بها بعيدة نسبيًا عن القيم الفعلية.

على سبيل المثال، لنفترض أن widget-price هي ميزة لنموذج معين. لنفترض أنّ المتوسط widget-price هو 7 يورو بانحراف معياري. من أصل 1 يورو. أمثلة تحتوي على widget-price من أصل 12 يورو أو 2 يورو يُعتبر قيمًا استثنائية لأن كل واحد من هذه الأسعار خمسة انحرافات معيارية عن المتوسط.

غالبًا ما تنتج القيم الشاذّة عن الأخطاء الإملائية أو أخطاء الإدخال الأخرى. في حالات أخرى، والقيم المتطرفة ليست أخطاءً؛ بعد كل شيء، تقدر خمسة انحرافات معيارية بعيدًا المتوسط نادر ولكنه نادرًا ما يكون مستحيلاً.

غالبًا ما تتسبب القيم الشاذّة في مشاكل في تدريب النموذج. الاقتصاص هي إحدى طرق إدارة القيم الاستثنائية.

تقييم خارج الحقيبة (تقييم OOB)

#df

آلية لتقييم جودة مجموعة اتخاذ القرارات من خلال اختبار كل شجرة القرار في ضوء أمثلة لم يتم استخدامها أثناء تدريب شجرة القرارات تلك. على سبيل المثال، في العنصر لاحظ أن النظام يقوم بتدريب كل شجرة قرارات على حوالي ثلثي الأمثلة ثم يتم تقييمها وفقًا الثلث المتبقي من الأمثلة.

غابة قرارات تتكون من ثلاث أشجار قرارات.
          تتدرب شجرة قرارات واحدة على ثلثي الأمثلة
          ثم يستخدم الثلث المتبقي لتقييم OOB.
          تتدرب شجرة القرارات الثانية على ثلثين مختلفين
          الأمثلة عن شجرة القرارات السابقة، ثم
          ثلثًا مختلفًا لتقييم OOB عن
          شجرة القرار السابقة.

يُعد التقييم "خارج الحقائب" فعالاً ومحافظًا من الناحية الحسابية تقريب آلية التحقّق المتقاطع. في التحقق من الصحة المتبادل، يتم تدريب نموذج واحد لكل جولة تحقق من الصحة المتبادلة. (على سبيل المثال، يتم تدريب 10 نماذج في التحقق المتبادل من 10 طيات). باستخدام تقييم OOB، يتم تدريب نموذج واحد. وذلك لأنّ الحقائب تقتطع بعض البيانات من كل شجرة أثناء التدريب، ويمكن لتقييم OOB استخدام هذه البيانات لتقريب التحقق المتبادل.

طبقة الإخراج

#fundamentals

"النهاية" طبقة الشبكة العصبونية. تحتوي طبقة الإخراج على التنبؤ.

يُظهر الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة فيها مدخل طبقة، وطبقتين مخفيتين، وطبقة إخراج:

شبكة عصبية تحتوي على طبقة إدخال واحدة وطبقتين مخفيتين وطبقة واحدة
          طبقة الإخراج. تتألف طبقة الإدخال من ميزتين. الأول
          الطبقة المخفية تتكون من ثلاث خلايا عصبية والطبقة الثانية المخفية
          تتكون من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب لدرجة أن النموذج لا ينجح في وعمل تنبؤات صحيحة بشأن البيانات الجديدة.

يمكن أن يؤدي التسوية إلى التقليل من فرط التخصيص. يمكن أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوعة أيضًا إلى تقليل فرط التخصيص.

oversampling

إعادة استخدام الأمثلة من صف دراسي في مجموعة بيانات غير متوازنة في الفئات من أجل إنشاء مجموعة تدريب متوازنة.

على سبيل المثال، يمكنك وضع تصنيف ثنائي أن تكون نسبة الفئة الأكبر وفئة الأقلية هي 5000:1. إذا كانت مجموعة البيانات تحتوي على مليون مثال، مجموعة البيانات تحتوي فقط على حوالي 200 مثال لفئة الأقلية، والتي قد تكون أمثلة قليلة جدًا للتدريب الفعال. للتغلب على هذا النقص، يمكنك قد تفرط في أخذ عينات (إعادة استخدام) هذه الأمثلة الـ 200 عدة مرات، مما قد ينتج الأمثلة الكافية للتدريب المفيد.

عليك توخي الحذر بشأن الإفراط في التوافق عندما زيادة العينات.

التباين مع تقليل العيّنات

P

بيانات معبأة

نهج لتخزين البيانات بشكل أكثر كفاءة.

تقوم البيانات المعبأة بتخزين البيانات إما باستخدام تنسيق مضغوط أو في بطريقة أخرى تسمح بالوصول إليها بكفاءة أكبر. تقلل البيانات المجمّعة من مقدار الذاكرة والحساب المطلوب الوصول إليها، مما يؤدي إلى تدريب أسرع واستنتاج نموذج أكثر كفاءة.

غالبًا ما يتم استخدام البيانات المعبأة مع أساليب أخرى، مثل زيادة البيانات تنظيمها، ما يعزز أداء الطُرز:

باندا

#fundamentals

هي واجهة برمجة تطبيقات لتحليل البيانات مركِّزة على الأعمدة وتم إنشاؤها استنادًا إلى numpy. فإن العديد من أطر التعلم الآلي بما في ذلك TensorFlow، ودعم هياكل بيانات الباندا كمدخلات. يمكنك الاطّلاع على وثائق الباندا لمزيد من التفاصيل.

مَعلمة

#fundamentals

القيم المرجحة والانحيازات التي يتعلّمها النموذج أثناء تدريب: على سبيل المثال، في إحدى الانحدار الخطي، فإن المعلَمات تتكون من التحيز (b) وجميع القيم التقديرية (w1 وw2، وهكذا) في المعادلة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المعلَمة الفائقة هي القيم التي أنت (أو خدمة ضبط المعلَمة الفائقة) للنموذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة.

توليف موفر للمعلَمات

#language
#generativeAI

مجموعة من الأساليب لضبط حجم حجم كبير نموذج لغوي مدرَّب مسبقًا (PLM) فعالية أكبر من الضبط الدقيق الكامل. مَعلمة فعّالة يؤدي ضبط عادةً إلى تحسين معلَمات أقل بكثير من الضبط دقيقًا، لكنها عادةً ما ينتج عنها نموذج لغوي كبير يقدم أداءً (أو تقريبًا كذلك) كنموذج لغوي كبير مبني من الضبط الدقيق.

تحديد أوجه الاختلاف والتشابه بين التوليف الفعّال بالمعلَمات مع:

يُعرف الضبط الفعال للمَعلمة أيضًا باسم الضبط الدقيق لكفاءة المَعلمة.

خادم المعلَمة (PS)

#TensorFlow

يشير هذا المصطلح إلى المهمة التي تتتبّع معلَمات أحد النماذج في. الموزعة.

تعديل المَعلمة

يشير هذا المصطلح إلى عملية ضبط معلَمات أحد النماذج أثناء. التدريب، عادةً في تكرار واحد خوارزمية انحدار التدرج.

مشتق جزئي

يشير ذلك المصطلح إلى مشتق يتم فيه اعتبار جميع المتغيّرات باستثناء أحد المتغيّرات ثابتة. على سبيل المثال، المشتق الجزئي لـ f(x, y) بالنسبة إلى x هو مشتق f يُعتبر دالة x وحدها (أي مع الحفاظ على y ثابت). تركز المشتق الجزئي لـ f بالنسبة إلى x فقط على كيفية تغيُّر x وتتجاهل جميع المتغيّرات الأخرى في المعادلة.

تحيز المشاركة

#fairness

مرادف لتحيز عدم الاستجابة. راجِع انحياز الاختيار.

استراتيجية تقسيم

الخوارزمية التي يتم بها قسمة المتغيرات على خوادم المَعلمات:

Pax

إطار عمل برمجة مصمم لتدريب واسعة النطاق نماذج للشبكات العصبية كبيرة جدًا تشمل TPU متعددة شريحة مسرِّعة شرائح أو اللوحات.

يستند Pax إلى Flax الذي تم إنشاؤه على JAX.

مخطّط بياني يشير إلى موضع Pax في حزمة البرامج
          تم تصميم Pax باستخدام JAX. يتكون Pax نفسه من ثلاث
          والطبقات. تحتوي الطبقة السفلية على TensorStore وFlex.
          تحتوي الطبقة الوسطى على Optax وFlexformer. أهم
          تحتوي على مكتبة نمذجة براكسيس. تم إنشاء Fiddle
          على Pax.

Perceptron

أي نظام (إما أجهزة أو برامج) يأخذ قيمة أو أكثر من قيم الإدخال، تقوم بتشغيل دالة على المجموع المرجح للمدخلات، ويحسب قيمة قيمة المخرجات. وفي التعلم الآلي، تكون الدالة عادةً غير خطية، مثل ReLU أو sigmoid أو تانه فعلى سبيل المثال، يعتمد المنظر التالي على الدالة السينية لمعالجة قيم إدخال ثلاث:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

في الرسم التوضيحي التالي، يحصل المصور التالي على ثلاثة إدخالات، كل منها يتم تعديله بحد ذاته بالوزن قبل إدخال التصور:

يشير ذلك المصطلح إلى جهاز استقبال إشارات يحتوي على 3 إدخالات، مضروبًا في كل منها في قسمة منفصلة.
          الأوزان. يُنتج المستقبِل قيمة واحدة.

المستشعرات هي الخلايا العصبية في الشبكات العصبونية.

الأداء

المصطلحات التي تحمل المعاني التالية:

  • المعنى القياسي في هندسة البرمجيات. Namely: ما مدى سرعة (أو بكفاءة) هل يعمل هذا الجزء من البرنامج؟
  • المعنى في مجال التعلم الآلي. هنا، يجيب الأداء على السؤال التالي: ما مدى صحة هذا النموذج؟ أي، ما مدى جودة تنبؤات النموذج؟

قيم متغيّرات التقليب

#df

يشير هذا المصطلح إلى نوع من الأهمية المتغيّرة لتقييمه. يشير ذلك المصطلح إلى الزيادة في خطأ التوقّعات لأحد النماذج بعد تبديل وقيم الميزة. تعتبر أهمية متغير التبديل عنصرًا مستقلاً عن النموذج المقياس.

الارتباك

أحد المقاييس لمدى نجاح نموذج في إنجاز مهمته. على سبيل المثال، افترض أن مهمتك هي قراءة الأحرف القليلة الأولى من كلمة الذي يكتبه المستخدم على لوحة مفاتيح الهاتف، ولتقديم قائمة إلى كلمات الإكمال. والإرباك، P، بالنسبة لهذه المهمة هو تقريبًا عدد التي تحتاج إلى تقديمها حتى تحتوي قائمتك على كلمة يحاول المستخدم كتابتها.

ويرتبط مستوى الحيرة بالقصور بين القصور على النحو التالي:

$$P= 2^{-\text{cross entropy}}$$

مسار التعلّم

يشير ذلك المصطلح إلى البنية الأساسية التي تحيط بخوارزمية تعلُّم الآلة. مسار التعلّم جمع البيانات، ووضعها في ملفات بيانات التطبيق، وتدريب نموذج واحد أو أكثر وتصدير النماذج إلى الإنتاج.

إعداد الممرات

#language

يشير ذلك المصطلح إلى شكل من أشكال التوازي الذي يمثِّل فيه نموذج يتم تقسيم المعالجة إلى مراحل متتالية ويتم تنفيذ كل مرحلة على جهاز مختلف. وأثناء معالجة المرحلة دفعة واحدة، فإن المرحلة السابقة العمل على الدفعة التالية.

يمكنك الاطّلاع أيضًا على تدريب منظّم.

Pjit

يشير هذا المصطلح إلى دالة JAX تقسّم الرمز البرمجي لتشغيله على مستوى عدة عناصر. شرائح مسرِّعة الأعمال: يمرر المستخدم دالة إلى pjit، التي تُرجع دالة لها دلالات مكافئة ولكن يتم تجميعها إلى حوسبة XLA يتم تشغيلها على أجهزة متعددة (مثل وحدات معالجة الرسومات أو وحدات النواة TPU)

تتيح pjit للمستخدمين تجزئة العمليات الحسابية بدون إعادة كتابتها باستخدام أداة تقسيم SPMD.

اعتبارًا من آذار (مارس) 2023، تم دمج "pjit" مع "jit". ارجع إلى الصفائف الموزعة والصفائف التلقائية تطبيق موازٍ لمزيد من التفاصيل.

PLM

#language
#generativeAI

تمثّل هذه السمة اختصار نموذج لغوي مدرَّب مسبقًا.

تحسين الاتصال

دالة JAX تنفّذ نُسخ من دالة إدخال على عدة أجهزة أساسية (وحدات المعالجة المركزية (CPU) أو وحدات معالجة الرسومات (GPU) أو وحدات معالجة الموتّرات)، بقيم إدخال مختلفة. يعتمد pmap على SPMD.

سياسة

#rl

في التعلّم المعزّز، تحدد عملية الربط الاحتمالية التي يجريها الوكيل من الحالات إلى الإجراءات.

تجميع

#image

يؤدي خفض مصفوفة (أو مصفوفات) تم إنشاؤها بواسطة دالة سابقة طبقة التفاف إلى مصفوفة أصغر. عادة ما يتضمن التجميع إما القيمة القصوى أو المتوسطة عبر المنطقة المجمعة. على سبيل المثال، لنفترض أن لدينا مصفوفة 3×3 التالية:

مصفوفة 3×3 [[5,3,1], [8,2,5], [9,4,3]].

إن عملية التجميع، تمامًا كعملية التفافية، تُقسم مصفوفة إلى شرائح ثم تنزلق العملية الالتفافية الخطوات. على سبيل المثال، لنفترض أن عملية التجميع المصفوفة الالتفافية إلى شرائح 2×2 بخطوة 1×1. كما يوضح الرسم التخطيطي التالي، تتم أربع عمليات تجميع. تخيل أن كل عملية تجميع تختار القيمة القصوى أربعة في تلك الشريحة:

مصفوفة الإدخال هي 3×3 والقيم التالية: [[5,3,1]، [8,2,5]، [9,4,3]].
          المصفوفة الفرعية 2x2 العلوية اليسرى لمصفوفة الإدخال هي [[5,3]، [8,2]]، لذا
          ينتج عن عملية التجميع في أعلى اليسار القيمة 8 (وهي
          5 و3 و8 و2 كحد أقصى). المصفوفة الفرعية 2x2 في أعلى اليمين للمدخل
          المصفوفة هي [[3,1], [2,5]]، وبالتالي فإن عملية التجميع في أعلى اليمين ينتج عنها
          القيمة 5. المصفوفة الفرعية 2×2 أسفل اليسار لمصفوفة الإدخال
          [[8,2], [9,4]]، وبالتالي فإن عملية التجميع في أسفل اليسار ترجع القيمة
          9- تعتبر المصفوفة الفرعية 2×2 في أسفل اليمين لمصفوفة الإدخال
          [[2,5], [4,3]]، وبالتالي فإن عملية التجميع في أسفل اليمين ترجع القيمة
          5- باختصار، ينتج عن عملية التجميع المصفوفة 2×2.
          [[8,5]، [9,5]].

يساعد التجميع في فرض الثبات التحويلي في مصفوفة الإدخال.

يُعرف تجميع تطبيقات الرؤية بشكل رسمي باسم التجميع المكاني. تشير تطبيقات السلسلة الزمنية عادةً إلى التجميع على أنّه تجميع مؤقت. على نحو أقل رسمية، غالبًا ما يُطلق على التجميع اسم العيّنات الفرعية أو تقليل العيّنات.

ترميز موضعي

#language

أسلوب لإضافة معلومات حول موضع الرمز المميز في تسلسل إلى تضمين الرمز المميز. تستخدم نماذج المحوِّلات البيانات الموضعية لتكوين فهم أفضل للعلاقة بين أجزاء مختلفة من التسلسل.

يستخدم التنفيذ الشائع للترميز الموضعي الدالة الجيبية. (على وجه التحديد، إن تكرار الدالة الجيبية واتساعها هي المحدد من خلال موضع الرمز المميز في التسلسل). هذا الأسلوب يمكِّن نموذج المحول من تعلم التعامل مع أجزاء مختلفة من التسلسل بناءً على موضعها.

فئة موجبة

#fundamentals

الفئة التي تختبرها.

على سبيل المثال، الفئة الموجبة في نموذج السرطان قد تكون "ورم". الفئة الموجبة في مصنِّف البريد الإلكتروني قد تكون "رسالة غير مرغوب فيها".

التباين مع الفئة السالبة.

مرحلة ما بعد المعالجة

#fairness
#fundamentals

ضبط ناتج أحد النماذج بعد تشغيل النموذج. يمكن استخدام المعالجة اللاحقة لفرض قيود الإنصاف دون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على مصنِّف ثنائي. بوضع حد للتصنيف بحيث الحفاظ على تكافؤ الفرص لبعض السمات من خلال التحقّق من أنّ معدّل الموجب الصحيح هي نفسها لجميع قيم تلك السمة.

PR AUC (المنطقة الواقعة أسفل منحنى PR)

المنطقة التابعة منحنى تذكُّر الدقة، الذي يتم الحصول عليه من خلال تخطيط (التذكر والدقة) للقيم المختلفة الحد الأدنى للتصنيف. بناءً على كيف يتم حسابه، فإن قيمة PR AUC قد تكون مكافئة دقة متوسطة للنموذج.

Praxis

مكتبة تعلُّم الآلة الأساسية وعالية الأداء من Pax غالبًا ما يكون Braxis تسمى "مكتبة الطبقات".

لا يحتوي Prixis على تعريفات فئة الطبقة فحسب، بل يحتوي أيضًا على معظم مكوناتها الداعمة أيضًا، بما في ذلك:

يقدم Prixis تعريفات لفئة النموذج.

الدقة

مقياس لنماذج التصنيف التي تجيب عن السؤال التالي:

عندما تنبأ النموذج بالفئة الموجبة، ما هي النسبة المئوية للتوقعات الصحيحة؟

فيما يلي المعادلة:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

حيث:

  • يعني الموجبة الصحيح أن النموذج تنبأ بالفئة الموجبة بشكل صحيح.
  • تعني الحالة الموجبة الخاطئة أن النموذج تنبأ بالفئة الموجبة عن طريق الخطأ.

على سبيل المثال، لنفترض أن أحد النماذج قام بعمل 200 تنبؤ إيجابي. من بين 200 توقع إيجابي:

  • 150 كانت نتائج إيجابية صحيحة.
  • 50 كانت نتائج موجبة خاطئة.

في هذه الحالة:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

قارِن بين القيمتين الدقة والاستدعاء.

منحنى تذكُّر الدقة

منحنى الدقة مقابل التذكر بمقياس مختلف الحد الأدنى للتصنيف:

التوقّع

#fundamentals

مخرج النموذج. على سبيل المثال:

  • التنبؤ بنموذج التصنيف الثنائي هو إما نتيجة إيجابية الفئة أو الفئة السالبة.
  • التنبؤ بنموذج التصنيف متعدد الفئات هو فئة واحدة.
  • التنبؤ بنموذج الانحدار الخطي هو رقم.

الانحياز للتوقّع

قيمة تشير إلى مدى المسافة التي تفصل بين متوسط التوقّعات هي من متوسط التصنيفات. في مجموعة البيانات.

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو التحيز في الأخلاق والإنصاف.

تعلُّم الآلة التنبؤي

أي نظام تعلّم آلي عادي ("كلاسيكي")

ما مِن تعريف رسمي للمصطلح تعلُّم الآلة القائم على التوقّعات. بدلاً من ذلك، يميز المصطلح فئة من أنظمة تعلُّم الآلة لا تستند إلى الذكاء الاصطناعي التوليدي:

التكافؤ التنبؤي

#fairness

مقياس إنصاف يتحقّق مما إذا كان في أي مصنِّف معين، تتضمن معدلات الدقة تعادل المجموعات الفرعية قيد النظر.

على سبيل المثال، فإن النموذج الذي يتنبأ بقبول الكلية سيفي التعادل التنبؤي بالجنسية إذا كان معدل الدقة هو ذاته لـ Lilliputians وBrobdingnagians.

يُعرف التكافؤ التنبؤي في بعض الأحيان أيضًا باسم تعادل المعدل التنبؤي.

الاطّلاع على "تعريفات الإنصاف" الموضحة" (القسم 3.2.1) لإجراء مناقشة أكثر تفصيلاً حول التكافؤ التنبؤي.

تكافؤ المعدّل التنبؤي

#fairness

اسم آخر للتماثل القائم على التوقّعات.

المعالجة المسبقة

#fairness
معالجة البيانات قبل استخدامها لتدريب نموذج. يمكن أن تؤدي المعالجة المسبقة أن تكون بسيطة مثل إزالة الكلمات من النصوص المكتوبة باللغة الإنجليزية والتي لا تحدث في القاموس الإنجليزي، أو قد تكون معقدة مثل إعادة التعبير نقاط البيانات بطريقة تزيل أكبر عدد ممكن من السمات المرتبطة باستخدام السمات الحسّاسة قدر الإمكان يمكن أن تساعد المعالجة المُسبقة في تلبية قيود الإنصاف.

نموذج مدرَّب مسبقًا

#language
#image
#generativeAI

إن النماذج أو مكونات النموذج (مثل متّجه تضمين) الذي سبق تدريبه. في بعض الأحيان، ستقوم بتغذية متجهات التضمين المدرّبة مسبقًا في الشبكة العصبونية. وفي أوقات أخرى، سيتدرب النموذج تضمين المتجهات نفسها بدلاً من الاعتماد على التضمينات المدرّبة مسبقًا.

يشير مصطلح نموذج لغوي مدرَّب مسبقًا إلى نموذج لغوي كبير تم اختباره التدريب المسبق.

التدريب المُسبَق

#language
#image
#generativeAI

يشير ذلك المصطلح إلى التطبيق الأولي لنموذج على مجموعة بيانات كبيرة. بعض النماذج المدرَّبة مسبقًا هي عمالقة أذكياء ويجب عادةً تحسينها من خلال تدريب إضافي. على سبيل المثال، قد يقوم خبراء تعلُّم الآلة مسبقًا بتدريب نموذج لغوي كبير في مجموعة بيانات نصية ضخمة، مثل جميع الصفحات الإنجليزية في ويكيبيديا. بعد التدريب المسبق، النموذج الناتج قد يتم تحسينه من خلال أي مما يلي التقنيات:

الاعتقاد السابق

ما الذي تؤمن به حول البيانات قبل أن تبدأ في التدريب عليها. على سبيل المثال، تعتمد تسوية المستوى2 على اعتقاد سابق بأنّ القيم المرجحة يجب أن تكون صغيرة وعادية توزيعها حول الصفر.

نموذج الانحدار الاحتمالي

يشير نموذج الانحدار الذي لا يستخدم القيم المرجحة لكل ميزة، ولكن أيضًا عدم اليقين من تلك الأوزان. يُنتج أحد نماذج الانحدار الاحتمالي التنبؤ وعدم اليقين من هذا التنبؤ. على سبيل المثال، قد ينتج عن نموذج الانحدار الاحتمالي تنبؤ بمقدار 325 مع الانحراف المعياري 12. لمزيد من المعلومات حول الانحدار الاحتمالي النماذج، راجع Colab هذا على tensorflow.org.

دالة الكثافة الاحتمالية

يشير هذا المصطلح إلى دالة تحدِّد معدّل تكرار عينات البيانات التي تحتوي بالضبط على قيمة معينة. عندما تكون قيم مجموعة بيانات نقطة عائمة مستمرة الأرقام، نادرًا ما تحدث المطابقات التامة. ومع ذلك، فإنّ دمج احتمالية تؤدي دالة الكثافة من القيمة x إلى القيمة y إلى الحصول على التكرار المتوقع نماذج البيانات في الفترة من x إلى y.

على سبيل المثال، لنفترض أن التوزيع الطبيعي له متوسط 200 الانحراف المعياري 30. لتحديد التكرار المتوقع لعينات البيانات ضمن النطاق 211.4 إلى 218.7، يمكنك دمج الاحتمالات دالة الكثافة للتوزيع الطبيعي من 211.4 إلى 218.7.

إشعار

#language
#generativeAI

أي نص يتم إدخاله كإدخال في نموذج لغوي كبير لتشكيل النموذج للعمل بطريقة معينة. يمكن أن تكون المطالبات قصيرة مثل عبارة أو طويلة بشكل عشوائي (على سبيل المثال، نص رواية كامل). الطلبات تنقسم إلى فئات متعددة، بما في ذلك تلك المعروضة في الجدول التالي:

فئة الطلب مثال ملاحظات
السؤال ما هي السرعة التي تطير بها الحمامة؟
مدرسة تعليم كتابة قصيدة مضحكة عن المواقع المنشأة بهدف عرض الإعلانات رسالة تطلب من النموذج اللغوي الكبير تنفيذ إجراء.
مثال يجب ترجمة رمز Markdown إلى HTML. مثل:
Markdown: * عنصر قائمة
HTML: <ul> <li>عنصر القائمة</li> &lt;/ul&gt;
الجملة الأولى في هذا المثال هي توجيه. بقية المطالبة هي المثال.
الدور شرح سبب استخدام خوارزمية انحدار التدرج في تدريب تعلُّم الآلة درجة الدكتوراه في الفيزياء الجزء الأول من الجملة هو تعليمات؛ الْعِبَارَة "إلى درجة الدكتوراه في الفيزياء" هو جزء الدور.
إدخال جزئي للنموذج لإكمال يقيم رئيس وزراء المملكة المتحدة في قد ينتهي طلب الإدخال الجزئي بشكل مفاجئ (كما يحدث في هذا المثال). أو تنتهي بشرطة سفلية.

بإمكان نموذج الذكاء الاصطناعي التوليدي الردّ على طلب من خلال نص، والرمز والصور والتضمينات والفيديوهات...أي شيء تقريبًا.

التعلّم المستند إلى الطلب

#language
#generativeAI

إمكانية استخدام نماذج معيّنة تساعدها على التكيف سلوكه استجابةً للإدخال العشوائي للنص (الطلبات). في نموذج التعلم القائم على المطالبة النموذجي، يردّ نموذج لغوي كبير على طلب من خلال إنشاء النص. على سبيل المثال، لنفترض أنّ أحد المستخدمين أدخل الطلب التالي:

لخِّص قانون "نيوتن" الثالث للحركة.

إنّ النموذج القادر على التعلُّم المستند إلى الطلب غير مدرب بشكل خاص على الإجابة المطالبة السابقة. بدلاً من ذلك، فإن النموذج "يعرف" الكثير من الحقائق عن الفيزياء، والكثير عن قواعد اللغة العامة، والكثير عن الأمور التي تُشكل إجابات مفيدة. هذه المعرفة كافية لتقديم دراسة مفيدة (نأمل) معينة. ملاحظات بشرية إضافية ("كانت هذه الإجابة معقدة للغاية". يتيح السؤال "ما هو رد فعل؟" لبعض أنظمة التعلّم القائمة على الطلبات تدريجيًا تحسين فائدة إجاباتهم.

تصميم الطلب

#language
#generativeAI

هو مرادف لـ هندسة الطلبات.

هندسة الطلبات

#language
#generativeAI

فن إنشاء الطلبات للحصول على الردود المطلوبة من نموذج لغوي كبير يعالج فريق من المراجعين الطلب. الهندسة. تعد كتابة مطالبات جيدة التنظيم جزءًا أساسيًا من ضمان ردودًا مفيدة من نموذج لغوي كبير. تعتمد هندسة المطالبة على على عوامل عديدة، منها:

  • إنّ مجموعة البيانات المستخدَمة لإجراء تدريب مسبق وربما تحسين النموذج اللغوي الكبير
  • مَعلمة temperature ومَعلمات فك الترميز الأخرى التي التي يستخدمها النموذج لإنشاء الاستجابات.

عرض مقدمة حول تصميم الطلبات للحصول على المزيد من التفاصيل حول كتابة الطلبات المفيدة

تصميم الطلب هو مرادف لهندسة الطلبات.

توليف الطلبات

#language
#generativeAI

آلية ضبط فعّال للمَعلمات تتعلم "بادئة" يضيفه النظام إلى الطلب الفعلي

يتمثل أحد الاختلافات في توليف المطالبة - يُسمى أحيانًا ضبط البادئة - في أضِف البادئة في كل طبقة. في المقابل، يضبط معظم توليف الطلبات يضيف بادئة إلى طبقة الإدخال.

تصنيفات الخادم الوكيل

#fundamentals

يشير ذلك المصطلح إلى البيانات المستخدَمة التقريبي للتصنيفات غير المتوفّرة مباشرةً في مجموعة بيانات.

فعلى سبيل المثال، نفترض أنه يجب عليك تدريب أحد النماذج للتنبؤ بموظف مستوى الإجهاد. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية ولكنها لا يحتوي على تصنيف باسم مستوى الإجهاد. اختَر "حوادث محل العمل" ببراعة كتصنيف وكيل لـ مستوى الإجهاد. بعد كل شيء، ينتقل الموظفون الذين يواجهون ضغوطًا كبيرة إلى والحوادث مقارنة بالموظفين الهادئين. أم هذا صحيح؟ ربما حوادث محل العمل إلى الارتفاع والانخفاض في الواقع لأسباب متعددة.

وعلى سبيل المثال، لنفترض أنّك تريد أن تكون هل تمطر تصنيفًا منطقيًا؟ لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات المطر. في حال حذف صور متوفرة، ويمكنك إنشاء صور لأشخاص استخدام مظلات كتصنيف خادم وكيل لمعرفة هل تمطر؟ هل هذا تسمية وكيل جيدة؟ ربما، ولكن قد يكون الناس في بعض الثقافات أكثر عرضة لحمل مظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. عندما يكون ذلك ممكنًا، اختر التسميات الفعلية على تصنيفات الخادم الوكيل. ومع ذلك، عند عدم وجود تصنيف فعلي، اختر الوكيل بعناية شديد، حيث يتم اختيار المرشح الأقل سوءًا لتصنيف الخادم الوكيل.

الخادم الوكيل (السمات الحسّاسة)

#fairness
يمكن استخدام سمة مستخدمة كوظيفة مستقلة سمة حسّاسة: على سبيل المثال، يمكن استخدام الرمز البريدي للفرد كخادم وكيل لدخله، أو العرق أو الإثنية.

الدالة البحتة

دالة تستند مخرجاتها إلى مدخلاتها فقط، وليس لها جانب التأثيرات. وبالتحديد، فإن الدالة البحتة لا تستخدم أو تغير أي حالة عمومية، مثل محتوى ملف أو قيمة متغير خارج الدالة.

يمكن استخدام الدوال الخالصة لإنشاء رمز برمجي آمن لسلسلة المحادثات، وهو أمر مفيد عند تقسيم رمز النموذج على عدة وحدات شرائح مسرِّعة الأعمال:

تتطلب طرق تحويل دالة JAX أن دوال الإدخال هي دوال خالصة.

سين

دالة Q

#rl

في التعلم المعزّز، سينتج عن يتنبأ بالعائد المتوقع من إجراء في الولاية، ثم اتّباع سياسة محدّدة.

تُعرف دالة Q أيضًا باسم دالة قيمة إجراء الحالة.

تعلُّم أسئلة

#rl

في التعلُّم المعزّز، وهو خوارزمية يسمح هذا الإذن بوكيل لمعرفة دالة Q المثلى عملية ماركوف للقرار من خلال تطبيق معادلة رمز الجرس نماذج عملية قرارات ماركوف بيئة.

التجزيء

كل مجموعة بيانات في تجميع البيانات المترابطة.

تجميع التجزئية

يؤدي توزيع قيم الميزة إلى مجموعات بحيث تكون كل على نفس العدد (أو نفس العدد تقريبًا) من الأمثلة. على سبيل المثال: يقسم الشكل التالي 44 نقطة إلى 4 مجموعات، يحتوي على 11 نقطة. لكي تحتوي كل مجموعة في الشكل على عدد النقاط نفسه، وتمتد بعض المجموعات بعرض مختلف للقيم س.

44 نقطة بيانات مقسمة إلى 4 مجموعات كل منها 11 نقطة.
          وعلى الرغم من أن كل مجموعة تحتوي على نفس عدد نقاط البيانات،
          تحتوي بعض المجموعات على نطاق أوسع من قيم الخصائص أكثر من غيرها
          دلاء.

قياس الكَمي

عبارة التحميل الزائد التي يمكن استخدامها بأي من الطرق التالية:

  • تنفيذ تجميع البيانات المترابطة على ميزة معينة.
  • يمكن أن يؤدي تحويل البيانات إلى أصفار وآحاد لتخزينها والتدريب عليها والاستنتاج. نظرًا لأن البيانات المنطقية أكثر قوة في التشويش والأخطاء من بتنسيقات أخرى، يمكن أن يحسّن التحديد الكمّي صحة النموذج. تتضمن أساليب التحديد الكمّي التقريب والاقتطاع الربط:
  • خفض عدد وحدات البت المستخدمة لتخزين المَعلمات: على سبيل المثال، لنفترض أن معاملات أحد النماذج مخزنة كأرقام عائمة بتنسيق 32 بت. فالكم تقوم بتحويل تلك معلمات من 32 بت إلى 4 أو 8 أو 16 بت. يقلل الكم التالي:

    • الحوسبة والذاكرة والقرص واستخدام الشبكة
    • حان الوقت لاستنتاج توقّع
    • استهلاك الطاقة

    ومع ذلك، فإن التحديد الكمي يقلل أحيانًا من صحة نموذج والتنبؤات.

قائمة المحتوى التالي

#TensorFlow

عملية TensorFlow لتنفيذ بيانات قائمة الانتظار البنية. وتُستخدم عادةً في وحدات الإدخال والإخراج.

R

RAG

#fundamentals

اختصار لـ الجيل المستند إلى استرجاعه:

غابة عشوائية

#df

مجموعة من أشجار القرارات في والذي يتم تدريب كل شجرة قرارات عليه باستخدام تشويش عشوائي محدد، مثل حقائب السفر.

الغابات العشوائية هي نوع من غابات القرارات.

سياسة عشوائية

#rl

في قسم التعلّم المعزّز، السياسة التي تختار إجراء عشوائيًا.

الترتيب

هو أحد أنواع التعلم المُوجّه الذي الهدف هو ترتيب قائمة العناصر.

التصنيف (العادي)

يشير ذلك المصطلح إلى الترتيب الترتيبي للصف في إحدى مشاكل تعلُّم الآلة الذي يصنف. الصفوف من الأعلى إلى الأدنى. فعلى سبيل المثال، يساعد ترتيب السلوك يصنف مكافآت الكلب من الأعلى (شريحة لحم) إلى الأدنى (كرنب ذبل).

التصنيف (Tensor)

#TensorFlow

عدد الأبعاد في أداة الاستشعار. على سبيل المثال: رتبة عددية 0، ومتجه رتبة 1، ومصفوفة لها رتبة 2.

يجب عدم الخلط بينه وبين الترتيب (الترتيب).

المصنِّف

#fundamentals

شخص يقدّم تصنيفات لتقديم أمثلة "تعليقات توضيحية" هو اسم آخر للمصنِّف.

تذكُّر الإعلان

مقياس لنماذج التصنيف التي تجيب عن السؤال التالي:

عندما كانت الحقيقة الواقعية الفئة الإيجابية، النسبة المئوية للتوقعات النموذج الصحيح على أنه الفئة الموجبة؟

فيما يلي المعادلة:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

حيث:

  • يعني الموجبة الصحيح أن النموذج تنبأ بالفئة الموجبة بشكل صحيح.
  • تعني حالة السالب الخاطئ أن النموذج قد تنبأ بطريق الخطأ فئة سلبية:

على سبيل المثال، لنفترض أن النموذج قام بتقديم 200 تنبؤ لأمثلة تتعلق الحقيقة الواقعية هي الفئة الموجبة. من بين 200 توقع:

  • 180 كانت إيجابية صحيحة.
  • 20 كانت نتائج سالبة خاطئة.

في هذه الحالة:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

نظام الاقتراحات

#recsystems

يشير هذا المصطلح إلى نظام يختار لكل مستخدم مجموعة صغيرة نسبيًا من المعايير العناصر من مجموعة كبيرة. على سبيل المثال، قد يقترح نظام اقتراح الفيديوهات فيديوهَين من مجموعة تضم 100,000 فيديو، واختيار الدار البيضاء قصة فيلادلفيا لمستخدم واحد، والمرأة الخارقة Black Panther لشخص آخر. قد يكون نظام اقتراح الفيديو تعتمد توصياتها على عوامل مثل:

  • الأفلام التي قيّمها أو شاهدها مستخدمون مشابهون
  • النوع والمخرجون والممثلين والفئة الديمغرافية المستهدفة...

الوحدة الخطية المصحَّحة (ReLU)

#fundamentals

دالة تفعيل لها السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان الإدخال موجبًا، فإن المخرجات يساوي المُدخل.

على سبيل المثال:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المدخل هو +3، يكون الناتج 3.0.

فيما يلي مخطط ReLU:

مخطط الديكارتي مكون من سطرين. السطر الأول له عدد ثابت
          قيمة y تساوي 0، وتتحرك على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني من 0.0. انحدار هذا الخط بمقدار +1، وبالتالي
          فهي تتراوح من 0,0 إلى +اللانهائية،+اللانهائية.

ReLU هي دالة تفعيل شائعة جدًا. وعلى الرغم من سلوكه البسيط، لا تزال ReLU تتيح للشبكة العصبية التعلُّم غير الخطّي العلاقات بين الميزات والتصنيف.

شبكة عصبية متكررة

#seq

شبكة عصبية تعمل عمدًا على تشغيل الأوقات، حيث يتم تشغيل أجزاء من كل خلاصة في عملية التشغيل التالية. على وجه التحديد، توفر الطبقات المخفية من التشغيل السابق جزءًا من الإدخال إلى نفس الطبقة المخفية في العملية التالية. الشبكات العصبية المتكررة مفيدة بشكل خاص لتقييم التسلسلات، بحيث تكون الطبقات المخفية يمكننا التعلم من العمليات السابقة للشبكة العصبية في الأجزاء السابقة من التسلسل.

فعلى سبيل المثال، يوضح الشكل التالي شبكة عصبية متكررة أربع مرات. لاحظ أن القيم التي تم تعلمها في الطبقات المخفية من يصبح أول تشغيل جزء من الإدخال إلى نفس الطبقات المخفية في المرحلة الثانية. وبالمثل، فإن القيم التي تم تعلمها في الطبقة المخفية على يصبح الجزء الثاني جزءًا من الإدخال في الطبقة المخفية نفسها في التشغيل الثالث. بهذه الطريقة، تتدرب الشبكة العصبية المتكررة تدريجيًا يتنبأ بمعنى التسلسل بأكمله بدلاً من المعنى فقط من الكلمات الفردية

رقم RNN يعمل أربع مرات لمعالجة أربع كلمات إدخال.

نموذج الانحدار

#fundamentals

يشير ذلك المصطلح إلى نموذج ينتج عنه توقّع رقمي بطريقة غير رسمية. (في المقابل، ينشئ نموذج تصنيف فئة prediction.) على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بقيمة منزل معيّن، مثل 423,000 يورو.
  • يشير ذلك المصطلح إلى نموذج يتنبأ بمتوسط العمر المتوقّع لشجرة معيّنة، مثل 23.2 عامًا.
  • نموذج يتنبأ بكمية الأمطار التي ستتساقط في مدينة معينة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار هما:

ليس كل نموذج ينتج عنه تنبؤات عددية نموذجًا انحدارًا. في بعض الحالات، التنبؤ الرقمي هو في الحقيقة مجرد نموذج تصنيف هو أسماء فئات رقمية. فعلى سبيل المثال، فإن النموذج الذي يتنبأ الرمز البريدي الرقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلل من الإفراط في التوافق. تشمل الأنواع الشائعة من التسوية ما يلي:

يمكن أيضًا تعريف التسوية على أنها عقوبة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدد الأهمية النسبية الانتظام خلال التدريب. إنّ رفع يحدّ معدّل التسوية من الفرط في التخصيص ولكنه قد لتقليل القوة التنبؤية للنموذج. وعلى العكس من ذلك، فإن تقليل أو حذف يزيد معدل التسوية من فرط التخصيص.

التعلّم المعزز (RL)

#rl

مجموعة من الخوارزميات التي تتعلم سياسة مثالية، وتهدف إلى هو زيادة العائد إلى أقصى حد عند التفاعل مع بيئة على سبيل المثال، المكافأة النهائية لمعظم الألعاب هي الفوز. يمكن أن تصبح أنظمة التعلُّم التعزِّزي خبيرة في الألعاب المعقّدة من خلال تقييم تسلسل الحركات السابقة في اللعبة إلى مكاسب وتسلسلات أدت في النهاية إلى الخسائر.

التعلّم المعزّز من الملاحظات البشرية (RLHF)

#generativeAI
#rl

استخدام الملاحظات الواردة من خبراء التصنيف لتحسين جودة ردود النموذج فعلى سبيل المثال، يمكن لآلية ذات نطاق ترددي متوسط (RLHF) أن تطلب من المستخدمين تقييم جودة رد باستخدام رمز تعبيري 👍 أو 👎. ويمكن للنظام بعد ذلك تعديل ردوده المستقبلية استنادًا إلى تلك الملاحظات.

ReLU

#fundamentals

اختصار الوحدة الخطية المستقيمة.

إعادة تشغيل المخزن المؤقت

#rl

في الخوارزميات الشبيهة بـ DQN، الذاكرة التي يستخدمها الوكيل لتخزين انتقالات الحالة لاستخدامها في إعادة تشغيل هذه التجربة.

نسخة مطابقة

نسخة من مجموعة التدريب أو النموذج عادةً على جهاز آخر. على سبيل المثال، يمكن أن يستخدم النظام ما يلي: استراتيجية لتنفيذ موازية البيانات:

  1. ضع نُسخًا طبق الأصل من نموذج موجود على أجهزة متعددة.
  2. أرسل مجموعات فرعية مختلفة من مجموعة التدريب إلى كل نسخة مطابقة.
  3. اجمع تعديلات المَعلمة.

الانحياز في إعداد التقارير

#fairness

حقيقة أن التكرار الذي يكتب به الناس عن الإجراءات، أو النتائج أو الخصائص ليست انعكاسًا لعالمها الحقيقي التكرارات أو الدرجة التي تكون بها الخاصية فئة من الأفراد. يمكن أن يؤثر التحيز في إعداد التقارير على التركيبة من البيانات التي تتعلم منها أنظمة التعلم الآلي.

على سبيل المثال، في الكتب، تكون كلمة ضحك أكثر انتشارًا من تتنفس. يشير هذا المصطلح إلى نموذج لتعلُّم الآلة يقدِّر التكرار النسبي من المحتمل أن يحدد الضحك والتنفس من مجموعة الكتب أن الضحك أكثر شيوعًا من التنفس.

التمثيل

عملية ربط البيانات بميزات مفيدة.

إعادة ترتيب

#recsystems

المرحلة الأخيرة من نظام الاقتراحات والتي يمكن خلالها إعادة تقييم العناصر المصنفة وفقًا لبعض (عادةً ما تكون غير مستندة إلى تعلُّم الآلة). تؤدي إعادة الترتيب إلى تقييم قائمة العناصر. الناتجة عن مرحلة تسجيل النتائج، واتّخاذ إجراءات مثل:

  • إزالة العناصر التي اشتراها المستخدم بالفعل.
  • تعزيز نتيجة العناصر الأحدث

الجيل المعزَّز بالاسترجاع (RAG)

#fundamentals

أسلوب لتحسين جودة ناتج النموذج اللغوي الكبير (LLM) من خلال تأسيسها على مصادر المعرفة التي تم استردادها بعد تدريب النموذج. تحسِّن تقنية RAG دقة ردود "النموذج اللغوي الكبير" (LLM) من خلال تزويد "النموذج اللغوي الكبير" (LLM) المدرَّب بـ الوصول إلى المعلومات المسترجعة من قواعد المعرفة أو المستندات الموثوق بها.

تشمل الدوافع الشائعة لاستخدام الإنشاء المحسّن للاسترجاع ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها نموذج
  • منح النموذج إمكانية الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاقتباس من المصادر.

لنفترض مثلاً أن أحد تطبيقات الكيمياء يستخدم جدول البيانات PaLM واجهة برمجة التطبيقات لإنشاء الملخّصات المتعلقة بطلبات بحث المستخدم. عندما تتلقى الواجهة الخلفية للتطبيق طلبًا، فإن الخلفية:

  1. يبحث عن بيانات ("استرداد") ذات الصلة بطلب بحث المستخدم.
  2. تُلحق ("الزيادة") البيانات الكيميائية ذات الصلة بطلب بحث المستخدم.
  3. توجّه هذه السياسة إلى النموذج اللغوي الكبير لإنشاء ملخّص استنادًا إلى البيانات المُرفَقة.

return

#rl

في مجال التعلّم التعزيزي، بالنظر إلى سياسة معينة ودولة معينة، مجموع كل المكافآت التي يقدّمها الوكيل في حال اتّباع السياسة من state إلى نهاية الحلقة. الوكيل تراعي الطبيعة المتأخرة للمكافآت المتوقعة من خلال تخفيض المكافآت وفقًا لعمليات الانتقال في الولاية المطلوبة للحصول على المكافأة.

بالتالي، إذا كان عامل الخصم هو \(\gamma\)و \(r_0, \ldots, r_{N}\) لتحديد المكافآت حتى نهاية الحلقة، ثم يتم احتساب العائد هي على النحو التالي:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

مكافأة

#rl

في التعلم المعزز، تكون النتيجة العددية لأخذ action في حالة كما هو محدّد من خلال البيئة.

تسوية سلسلة الجبال

مرادف لـ L2 معادلة. المصطلح يتم استخدام تسوية سلسلة الجبال بشكل أكثر شيوعًا في الإحصاءات البحتة السياقات، بينما يتم استخدام تسوية L2 بوتيرة أعلى في التعلم الآلي.

RNN

#seq

اختصار الشبكات العصبونية المتكرّرة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني للمعدل الموجب الصحيح مقابل معدّل الموجب الخاطئ لمختلف الأنواع حدود للتصنيف في النظام الثنائي الفئات.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي لفصل الفئات الإيجابية عن الفئات السالبة. لنفترض، على سبيل المثال، أن نموذج التصنيف الثنائي يفصل بشكل مثالي جميع القيم السالبة الفئات من جميع الفئات الإيجابية:

سطر أرقام به 8 أمثلة موجبة على الجانب الأيمن
          7 أمثلة سلبية على اليمين.

يبدو منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور x هو المعدل الموجب الخاطئ والمحور y
          هو المعدل الإيجابي الصحيح. للمنحنى شكل حرف L مقلوب. المنحنى
          يبدأ من (0.0,0.0) ويصل مباشرة إلى (0.0,1.0). ثم المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

وفي المقابل، يوضح الرسم التوضيحي التالي الانحدار اللوجستي الأولي القيم لنموذج مخيف لا يمكنه فصل الفئات السالبة عن إيجابية على الإطلاق:

سطر أرقام يحتوي على أمثلة موجبة وفئات سالبة
          ممزوجة تمامًا.

ويبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال، وهو في الواقع خط مستقيم من (0.0،0.0)
          إلى (1.0,1.0).

وفي الوقت نفسه، بالعودة إلى العالم الحقيقي، تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حد ما، ولكن عادة لا تكون مثالية. وبالتالي، يقع منحنى خاصية تشغيل جهاز الاستقبال النموذجي في مكان ما بين الطرفين:

منحنى خاصية تشغيل جهاز الاستقبال. المحور x هو المعدل الموجب الخاطئ والمحور y
          هو المعدل الإيجابي الصحيح. يقترب منحنى خاصية تشغيل جهاز الاستقبال من قوس مهتز
          اجتياز نقاط البوصلة من الغرب إلى الشمال.

النقطة في منحنى ROC الأقرب إلى (0.0,1.0) تحدد نظريًا الحد المثالي للتصنيف. ومع ذلك، هناك العديد من المشكلات الأخرى في العالم الحقيقي التأثير في اختيار الحد المثالي للتصنيف. على سبيل المثال: فربما تكون النتائج السالبة الخاطئة تسبب ألمًا أكثر بكثير من النتائج الموجبة الخاطئة.

يلخص مقياس عددي يسمى AUC منحنى خاصية تشغيل جهاز الاستقبال في قيمة نقطة عائمة واحدة.

تشجيع الأدوار

#language
#generativeAI

جزء اختياري من الطلب الذي يحدّد شريحة جمهور مستهدفة للحصول على استجابة نموذج الذكاء الاصطناعي التوليدي. بدون دور طلب، فإن النموذج اللغوي الكبير يقدم إجابة قد تكون أو لا تكون مفيدة للشخص الذي يطرح الأسئلة. مع طلب دور ولغة كبيرة أن يجيب بها نموذج البيانات بطريقة أكثر ملاءمة وفائدة جمهور مستهدف محدد. على سبيل المثال، جزء مطالبة الدور مما يلي تظهر المطالبات بخط عريض:

  • تلخيص هذه المقالة للحصول على درجة الدكتوراه في الاقتصاد.
  • يُرجى وصف آلية عمل المد والجزر لطفل بعمر عشر سنوات.
  • شرح الأزمة المالية لعام 2008 تحدّث كما تفعل مع طفل صغير، أو كلب جولدن ريتريفر

الجذر

#df

عقدة البداية (الأولى condition) في شجرة القرار. حسب الاصطلاح، تضع الرسوم التخطيطية الجذر في أعلى شجرة القرارات. على سبيل المثال:

شجرة قرارات ذات شرطين وثلاث أوراق. تشير رسالة الأشكال البيانية
          شرط البدء (x> 2) هو الجذر.

الدليل الجذري

#TensorFlow

الدليل الذي تحدّده لاستضافة الأدلة الفرعية لـ TensorFlow ملفات نقاط التحقق والأحداث لنماذج متعددة.

جذر متوسط الخطأ التربيعي (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

الثبات الدوراني

#image

في إحدى مشكلات تصنيف الصور، يمكن أن تحدد قدرة الخوارزمية على تصنيف الصور حتى عندما يتغير اتجاه الصورة. على سبيل المثال: يظل بإمكان الخوارزمية تحديد مضرب تنس سواء كان يشير إلى الأعلى، أو جانبية أو لأسفل. لاحظ أن الثبات الدوراني ليس مرغوبًا فيه دائمًا؛ على سبيل المثال، لا ينبغي تصنيف الرقم 9 المقلوب على أنه 9.

اطّلِع أيضًا على الثبات التحويلي ثابت الحجم:

معامل التحديد

مقياس انحدار يشير إلى مقدار الاختلاف في قيمة label هي ميزة فردية أو مجموعة ميزات. معامل R هو قيمة بين 0 و1، والتي يمكنك تفسيرها على النحو التالي:

  • يعني مربع R ذات القيمة 0 أنه لا يوجد أي من تباين التصنيف بسبب مجموعة الخصائص.
  • يعني معامل التحديد لـ 1 أن كل تباين التصنيف يرجع إلى مجموعة الخصائص.
  • يشير معامل التحديد بين 0 و1 إلى مدى وصول يمكن التنبؤ بالتنوع من خلال خاصية معينة أو مجموعة خصائص. على سبيل المثال، يعني معامل التحديد بـ 0.10 أن 10 بالمائة من التباين في التسمية بسبب مجموعة الخصائص، فإن مربع R بقيمة 0.20 يعني أن و20 في المائة ترجع إلى مجموعة الخصائص، وهكذا.

معامل التحديد (R) هو مربع ارتباط بيرسون مُعامل بين القيم التي تنبأ بها النموذج والحقيقة الأساسية.

S

تحيز أخذ العينات

#fairness

راجِع انحياز الاختيار.

جمع العيّنات مع الاستبدال

#df

طريقة لاختيار العناصر من مجموعة من العناصر المرشحة التي تتضمن نفس العنصر عدة مرات. عبارة "مع الاستبدال" يعني أنه بعد كل تحديد، يتم إرجاع العنصر المحدد إلى مجموعة من العناصر المرشحة. فالطريقة المعكوسة لأخذ العيّنات بدون الاستبدال تعني أنه لا يمكن اختيار عنصر مرشح سوى مرة واحدة.

على سبيل المثال، ضع في الاعتبار مجموعة الفاكهة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

لنفترض أنّ النظام يختار fig بشكل عشوائي كأول عنصر. في حال استخدام أخذ العينات مع الاستبدال، يختار النظام العنصر الثاني من المجموعة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

نعم، تم ضبط الإعدادات نفسها على النحو السابق، لذا يمكن للنظام اختر fig مرة أخرى.

في حالة استخدام أخذ العينات بدون استبدال، فلا يمكن بعد اختيار العينة الذي تم اختياره مرة أخرى. على سبيل المثال، إذا اختار النظام بشكل عشوائي القيمة fig كقيمة يجب اختيار العيّنة الأولى، ثم لا يمكن اختيار "fig" مرة أخرى. وبالتالي، لا يلغي النظام تختار العينة الثانية من المجموعة (المنخفضة) التالية:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

التنسيق المقترَح لحفظ نماذج TensorFlow واستردادها. SavedModel هو تنسيق تسلسلي محايد اللغة وقابل للاسترداد، يتيح أنظمة وأدوات عالية المستوى لإنتاج TensorFlow واستهلاكها وتحويلها النماذج.

الاطّلاع على فصل الحفظ والاستعادة في دليل مبرمج TensorFlow للحصول على التفاصيل الكاملة.

موفّر

#TensorFlow

كائن TensorFlow المسئول عن حفظ نقاط تفتيش النموذج.

الكمية القياسية

يشير هذا المصطلح إلى رقم واحد أو سلسلة واحدة يمكن تمثيلها كرقم Tenor بقيمة الترتيب 0. على سبيل المثال، ما يلي سطور الرمز التي تنشئ عددًا قياسيًا واحدًا في TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

تحجيم

أي تحويل رياضي أو تقنية تُغير نطاق أي تصنيف و/أو قيمة الميزة. بعض أشكال التحجيم مفيدة جدًا للتحولات مثل التسوية.

في ما يلي بعض الأشكال الشائعة للتحجيم المفيدة في التعلم الآلي:

  • التحجيم الخطي، والذي يستخدم عادةً مزيجًا من الطرح قسمة لاستبدال القيمة الأصلية برقم بين -1 و+1 أو بين 0 و1.
  • التحجيم اللوغاريتمي، والذي يستبدل القيمة الأصلية اللوغاريتم.
  • تسوية الدرجة المعيارية التي تستبدل قيمة أصلية بقيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن متوسط هذه الميزة.

مكتبة ساي كيت ليرن

هي منصة شائعة ومفتوحة المصدر لتعلُّم الآلة. عرض scikit-learn.org.

النقاط

#recsystems

الجزء من نظام الاقتراحات الذي قيمة أو ترتيبًا لكل عنصر يتم إنتاجه بواسطة مرحلة إنشاء المرشحين.

الانحياز في الاختيار

#fairness

الأخطاء في الاستنتاجات المستخلصة من عينات البيانات بسبب عملية الاختيار ينتج عنه اختلافات منهجية بين العينات المرصودة في البيانات وتلك التي لم يتم رصدها. توجد الأشكال التالية من تحيز الاختيار:

  • انحياز التغطية: لا يتطابق السكان الممثّلون في مجموعة البيانات تطابق المجموعة بالكامل التي ينتجها نموذج التعلم الآلي والتنبؤات بشأنها.
  • تحيز أخذ العينات: لا يتم جمع البيانات بشكل عشوائي من المجموعة المستهدفة.
  • تحيز عدم الاستجابة (يسمى أيضًا تحيز المشاركة): المستخدمون من تعمل بعض المجموعات على إيقاف الاستطلاعات بمعدلات مختلفة عن معدّل المستخدمين لمجموعات أخرى.

فعلى سبيل المثال، لنفترض أنك تنشئ نموذجًا للتعلم الآلي يتنبأ حول استمتاع الأشخاص بالأفلام. لجمع بيانات التدريب، وتوزع استبيانًا على كل شخص في الصف الأمامي للمسرح لعرض الفيلم. عن غير قصد، قد تبدو هذه طريقة معقولة لجمع مجموعة بيانات؛ غير أنّ هذا النوع من جمع البيانات قد قدم الأشكال التالية من تحيز الاختيار:

  • تحيز التغطية: عن طريق أخذ عينات من مجموعة اختار مشاهدة الفيلم، فإن تنبؤات نموذجك قد لا تعميم على الأشخاص الذين لم يعبروا بالفعل عن هذا المستوى من الاهتمام بالفيلم.
  • تحيز أخذ العينات: بدلاً من أخذ العينات بشكل عشوائي من المجموعة بالكامل (جميع الأشخاص في الفيلم)، قمت بأخذ عينة فقط الأشخاص في الصف الأمامي. من الممكن أن يجلس الأشخاص في الصف الأمامي كانوا مهتمين بالفيلم أكثر من أولئك الذين الصفوف الأخرى.
  • التحيز لعدم الرد: بشكل عام، يميل الأشخاص ذوو الآراء القوية إلى إلى الرد على الاستطلاعات الاختيارية بمعدل تكرار أكبر من الأشخاص ذوي الإحتياجات المعتدلة آرائك. نظرًا لأن استبيان الفيلم اختياري، فإن الردود من المرجح أن تشكل التوزيع الثنائي الجوانب من التوزيع الطبيعي (على شكل جرس).

الانتباه الذاتي (تسمى أيضًا طبقة الانتباه الذاتي)

#language

يشير هذا المصطلح إلى طبقة الشبكة العصبونية التي تحوّل سلسلة من التضمينات (مثل تضمينات الرمز المميّز) إلى تسلسل آخر من التضمينات كل عملية تضمين في تسلسل الإخراج هي تم إنشاؤها من خلال دمج المعلومات من عناصر تسلسل الإدخال من خلال آلية لفت الانتباه.

يشير الجزء النفسي من الانتباه بالذات إلى التسلسل الذي يعتزم الحضور نفسها وليس على سياق آخر. الانتباه الذاتي هو أحد أهم الوحدات الأساسية لـ المحولات وتستخدم بحث القاموس المصطلحات مثل "query" و"key" و"value".

تبدأ طبقة الانتباه الذاتي بتسلسل من تمثيلات الإدخال، واحد لكل كلمة. ويمكن أن يكون تمثيل الإدخال لإحدى الكلمات طريقة بسيطة التضمين. بالنسبة إلى كل كلمة في تسلسل إدخال، يتم ربط الشبكة درجات صلة الكلمة بكل عنصر في التسلسل الكامل الكلمات. تحدد نقاط مدى الصلة مدى صلة التمثيل النهائي للكلمة وتدمج تمثيلات للكلمات الأخرى.

على سبيل المثال، فكِّر في الجملة التالية:

لم يعبر الحيوان الشارع لأنّه كان مرهقًا جدًا.

يعد الرسم التوضيحي التالي (من أداة التحويل: بنية جديدة للشبكة العصبية في اللغة الفهم) نمط الانتباه الخاص بطبقة الانتباه الذاتي للضمير ، مع ظلام كل سطر للإشارة إلى مدى مساهمة كل كلمة في التمثيل:

تظهر الجملة التالية مرتين: الحيوان لم يعبر
          في الشارع لأنه كان متعبًا للغاية. يربط الخطوط الضمير الذي يربط الضمير
          جملة واحدة إلى خمسة رموز مميزة (&quot;الحيوان&quot; و&quot;الشارع&quot; و&quot;إيه&quot;
          النقطة) في الجملة الأخرى.  الخط الفاصل بين الضمير
          وكلمة حيوان هي الأقوى.

تبرز طبقة الانتباه الذاتي الكلمات ذات الصلة بـ "هي". في هذه الدورة، الحالة، تعلّمت طبقة الانتباه تمييز الكلمات التي يمكن أن المشار إليه، مع تعيين أعلى وزن لـ حيوان.

لتسلسل من n الرموز المميزة، يحوّل الانتباه الذاتي التسلسل من التضمينات n مرات منفصلة، مرة في كل موضع في التسلسل.

يمكنك أيضًا الاطّلاع على سمة تنبيه و الاهتمام الذاتي من خلال عدة رؤوس.

التعلُّم الذاتي

مجموعة من أساليب تحويل مشكلة تعلُّم الآلة غير المُوجّه في مشكلة تعلُّم الآلة المراقَب عن طريق إنشاء تصنيفات بديلة من أمثلة غير مصنَّفة

تستخدم بعض النماذج المستندة إلى المحوّل، مثل BERT، والتعلم الذاتي.

التدريب الذاتي هو التعلّم شبه المُوجّه.

تدريب ذاتي

أحد خيارات التعلّم الذاتي يكون مفيدًا بشكل خاص عندما تحقق جميع الشروط التالية:

يعمل التدريب الذاتي من خلال التكرار التحسيني على الخطوتين التاليتين حتى يتقدم النموذج التوقف عن التحسين:

  1. استخدِم تعلُّم الآلة المُوجّه من أجل: لتدريب نموذج على الأمثلة المصنفة.
  2. استخدم النموذج الذي تم إنشاؤه في الخطوة الأولى لإنشاء تنبؤات (تصنيفات) على الأمثلة غير المصنفة، ونقل تلك التي تكون هناك ثقة كبيرة فيها إلى الأمثلة المصنفة ذات التصنيف المتنبأ به.

لاحظ أن كل تكرار للخطوة 2 يضيف المزيد من الأمثلة المصنفة للخطوة 1 إلى التدريب.

تعلُّم شبه مراقَب

تدريب نموذج على البيانات حيث يكون لبعض أمثلة التدريب تسميات ولكن والبعض الآخر لا يفعل ذلك. يتمثل أحد أساليب التعلم شبه المُوجّه في استنتاج تسميات بالأمثلة غير المصنفة، ثم التدريب على التسميات المستنتَجة لإنشاء تصنيف الأمثل. يمكن أن يكون التعلم شبه المُوجّه مفيدًا إذا كان الحصول على التصنيفات مكلفًا لكن الأمثلة غير المصنفة كثيرة.

التدريب الذاتي هو أحد الأساليب للأشخاص شبه الخاضعين للإشراف التعلم.

سمة حسّاسة

#fairness
سمة بشرية قد يتم وضعها في الاعتبار بشكل خاص للقانون، لأسباب أخلاقية أو اجتماعية أو شخصية.

تحليل الآراء

#language

يمكن أن يؤدي استخدام الخوارزميات الإحصائية أو خوارزميات التعلم الآلي لتحديد هدف مجموعة الموقف العام - الإيجابي أو السلبي - تجاه خدمة أو منتج أو المؤسسة أو الموضوع. على سبيل المثال، استخدام فهم اللغة الطبيعية يمكن لخوارزمية إجراء تحليل الآراء حول الملاحظات النصية من دورة جامعية لتحديد الدرجة التي ينتقل بها الطلاب بشكل عام، لم تعجبهم الدورة أو لم تعجبهم.

نموذج تسلسلي

#seq

يشير ذلك المصطلح إلى نموذج تكون إدخالاته تعتمد على تبعية تسلسلية. على سبيل المثال، التنبؤ الذي شاهده الفيديو التالي من سلسلة من مقاطع الفيديو التي شاهدتها سابقًا.

مهمة تسلسل إلى تسلسل

#language

مهمة تحوِّل تسلسل إدخال للرموز المميّزة إلى مُخرجات تسلسل الرموز المميزة. فعلى سبيل المثال، هناك نوعان شائعان من التسلسل إلى التسلسل المهام هي:

  • المترجمون:
    • نموذج تسلسل إدخال: "أحبك".
    • نموذج تسلسل الإخراج: "Je t'aime".
  • الإجابة على السؤال:
    • نموذج تسلسل إدخال: "هل أحتاج إلى سيارتي في دبي؟"
    • نموذج تسلسل الإخراج: "لا. يُرجى إبقاء سيارتك في المنزل".

حصة طعام

يشير هذا المصطلح إلى عملية إتاحة نموذج مدرَّب لتوفير توقّعات من خلال الاستنتاج على الإنترنت أو الاستنتاج بلا إنترنت:

الشكل (أداة استشعار)

عدد العناصر في كل سمة في متنسور. يتم تمثيل الشكل كقائمة من الأعداد الصحيحة. على سبيل المثال: يكون للمنزِّر الثنائي الأبعاد التالي [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

يستخدم TensorFlow تنسيق الصف الرئيسي (النمط C) لتمثيل ترتيب لهذا السبب، يكون الشكل في TensorFlow [3,4] بدلاً من [4,3] بعبارة أخرى، في TensorFlow Tensor ثنائية الأبعاد، فإن الشكل هو [عدد الصفوف، وعدد الأعمدة].

الشكل الثابت هو شكل متسابق يكون معروفًا في وقت التجميع.

يكون الشكل الديناميكي غير معروف في وقت التجميع وبالتالي تعتمد على بيانات بيئة التشغيل. يمكن تمثيل هذا المتوتر بُعد العنصر النائب في TensorFlow، كما في [3, ?].

جزء

#TensorFlow
#GoogleCloud

قسم منطقي من مجموعة التدريب أو model. عادةً ما تنشئ بعض العمليات أجزاءً من خلال قسمة الأمثلة أو المَعلمات التي تريدها (عادةً) أجزاء متساوية الحجم. ثم يتم تعيين كل جزء إلى آلة مختلفة.

ويُطلق على عملية تقسيم النموذج اسم التوازي النموذجي. ويُطلق على عملية تقسيم البيانات موازاة البيانات.

انكماش

#df

المعلَمة الفائقة في تعزيز التدرّج التي تتحكّم الفرط في التخصيص: انكماش في تعزيز التدرج يشبه معدّل التعلّم في خوارزمية انحدار التدرج. الانكماش عدد عشري بين 0.0 و1.0. تؤدي قيمة الانكماش الأقل إلى تقليل فرط التخصيص أكبر من قيمة انكماش أكبر.

الدالّة الإسية

#fundamentals

دالة رياضية "تستوعب" قيمة المدخلات في نطاق محدود، عادةً ما تكون 0 إلى 1 أو -1 إلى 1+. أي أنه يمكنك تمرير أي رقم (اثنين، مليون، سالب، أي شيء) إلى الدالة السينية وسيظل الناتج في نطاق محدود. يبدو مخطط دالة التفعيل السيني على النحو التالي:

مخطط منحن ثنائي الأبعاد بقيم x تمتد عبر المجال
          من اللانهائية إلى +الموجب، بينما تمتد قيم ص في النطاق من 0 تقريبًا إلى
          تقريبًا 1. عندما تساوي x 0، تكون y تساوي 0.5. وعادة ما يكون انحدار المنحنى
          موجب، وأعلى انحدار عند 0,0.5 وانخفاضًا تدريجيًا
          الانحدار مع زيادة القيمة المطلقة لـ x.

للدالة السينية عدة استخدامات في التعلم الآلي، منها:

مقياس التشابه

#clustering

في خوارزميات التجميع، يكون المقياس المستخدَم لتحديد مدى تشابه (مدى تشابه) أي مثالين.

برنامج واحد / بيانات متعددة (SPMD)

يشير ذلك المصطلح إلى أسلوب موازٍ يتم فيه إجراء الحوسبة نفسها على مدخلات مختلفة. البيانات بالتوازي على أجهزة مختلفة. إن الهدف من SPMD هو الحصول على نتائج بسرعة أكبر. وهو النمط الأكثر شيوعًا في البرمجة المتوازية.

الثبات الحجمي

#image

في إحدى مشكلات تصنيف الصور، يمكن أن تحدد قدرة الخوارزمية على تصنيف الصور حتى عندما يتغير حجم الصور. على سبيل المثال: يظل بإمكان الخوارزمية تحديد ما إذا كان يستهلك 2 ميغا بكسل أو 200 كيلو بكسل. لاحظ أنه حتى أفضل لا تزال خوارزميات تصنيف الصور لها حدود عملية على ثبات الحجم. فعلى سبيل المثال، من غير المرجح أن تصنف خوارزمية (أو بشرية) بشكل صحيح صورة قطة تستخدم 20 بكسل فقط.

اطّلِع أيضًا على الثبات التحويلي الثبات الدوري:

الرسم التخطيطي

#clustering

في مجال تعلُّم الآلة غير الخاضع للإشراف، يشير ذلك المصطلح إلى فئة من الخوارزميات التي تنفّذ تحليلاً أوليًا للتشابه. في الأمثلة. تستخدم خوارزميات الرسم دالة التجزئة الحساسة للمنطقة المحلية لتحديد النقاط التي من المحتمل أن تكون متشابهة، ثم تجميع في مجموعات.

الرسم يقلل من الحساب المطلوب لحسابات التشابه على مجموعات البيانات الكبيرة. فبدلاً من حساب التشابه لكل فرد مثلين في مجموعة البيانات، فإننا نحسب التشابه فقط لكل زوج من النقاط داخل كل مجموعة.

تخطي-غرام

#language

n-gram الذي قد يحذف (أو "يتخطى") كلمات من الكلمة الأصلية السياق، مما يعني أن الكلمات N قد لا تكون متجاورة في الأصل. المزيد وعلى وجه التحديد، يمكن استخدام "k-skip-n-gram" هو ن غرام والذي قد يحتوي على ما يصل إلى ألف كلمة تم تخطيها.

على سبيل المثال: "الثعلب البني السريع" يمثل الغرامَين التاليَين:

  • "السريع"
  • "بني سريع"
  • "ثعلب بني"

"1-تخطي-2 غرام" هو عبارة عن كلمتَين لا يزيد عددهما عن كلمة واحدة. ومن ثم، فإن "الثعلب البني السريع" له الغرام التالي الذي يتجاوز 2 غرام:

  • "البني"
  • "ثعلب سريع"

بالإضافة إلى ذلك، يُعَدّ الـ 2 غرامًا أيضًا 1 غرام من كل غرام، يمكن تخطّي كلمة واحدة أو أكثر.

تعد مخططات التخطي مفيدة لفهم المزيد من السياق المحيط للكلمة. في المثال، "ثعلب" بشكل مباشر في مجموعة 1-تخطي 2 غرام، ولكن ليس في مجموعة 2 غرام.

تدريب الغرامات في التدريب نماذج تضمين الكلمات.

softmax

#fundamentals

يشير هذا المصطلح إلى دالة تحدد الاحتمالات لكل فئة محتملة في إحدى نموذج التصنيف المتعدّد الفئات. يتم جمع الاحتمالات إلى 1.0 بالضبط. على سبيل المثال، يعرض الجدول التالي كيفية توزيع softmax. الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ 13.
حصان 02.

يُطلَق على جهاز Softmax أيضًا اسم full softmax.

التباين مع عينات المرشّحين.

الضبط السلس للطلبات

#language
#generativeAI

تقنية لضبط نموذج لغوي كبير لمهمة معينة، دون استغراق موارد كثيفة الضبط الدقيق: وبدلاً من إعادة تدريب جميع القيم المرجحة في النموذج، ضبط الطلب الأولي من خلال تعديل الطلب تلقائيًا لتحقيق الهدف نفسه.

عند الحصول على طلب نصي، ضبط الطلب بشكل سلس تُلحِق عادةً عمليات تضمين إضافية للرمز المميّز في الطلب وتستخدم الانتشار العكسي لتحسين الإدخال.

"صعب" يتضمن رموزًا مميزة فعلية بدلاً من تضمينات الرموز المميزة.

خاصية متناثرة

#language
#fundamentals

ميزة تكون قيمها في الغالب صفر أو فارغة. على سبيل المثال، العنصر الذي يحتوي على قيمة 1 مفردة ومليون 0 هو متناثر. في المقابل، الميزة المكثفة لها قيم ليست صفرًا أو فارغة في الغالب.

في تقنية تعلُّم الآلة، هناك عدد مذهل من الميزات يكمن في الخصائص المتفرقة. عادةً ما تكون الخصائص الفئوية ميزات متفرقة. فعلى سبيل المثال، من بين 300 نوع من أنواع الأشجار في إحدى الغابة، هناك مثال واحد شجرة القيقب فقط. أو من بين الملايين الفيديوهات المحتملة في مكتبة الفيديوهات، قد يوضّح مثال واحد و"الدار البيضاء" فقط.

وفي أي نموذج، يتم تمثيل الخصائص المتفرقة باستخدام ترميز واحد فعال: فإذا كان الترميز الأحادي كبيرًا، يمكنك وضع طبقة تضمين أعلى ترميز واحد فعال لزيادة الكفاءة.

تمثيل متناثر

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في عنصر متفرق.

على سبيل المثال، لنفترض أن هناك خاصية فئوية تسمى species تحدد الـ 36 أنواع الأشجار في غابة معينة. وافترض أيضًا أن كل example يحدد هذا النوع نوعًا واحدًا فقط.

يمكنك استخدام متجه واحد فعال لتمثيل أنواع الأشجار في كل مثال. قد يحتوي الخط المتجه الوحيد على 1 مفرد (ليمثل نوع الأشجار المعيّن في هذا المثال) و35 0 (لتمثيل 35 نوعًا من الأشجار ليس في هذا المثال). لذا، فإن التمثيل الوحيد من maple قد يبدو كما يلي:

متجه تحتوي فيه المواضع من 0 إلى 23 على القيمة 0،
          يحمل الرقم 24 القيمة 1، بينما تشتمل المواضع من 25 إلى 35 على القيمة 0.

وبدلاً من ذلك، يحدد التمثيل المتنافر موضع لأنواع معينة. إذا كان maple في الموضع 24، يكون التمثيل المتناثر من maple سيكون ببساطة:

24

لاحظ أن التمثيل المتناثر أكثر إيجازًا بكثير من واحد فعال التمثيل المناسب.

متجه متناثر

#fundamentals

متجه تكون قيمه في الغالب أصفار. راجع أيضًا قلة الميزتَين والتناسب.

الندرة

عدد العناصر المحددة على صفر (أو فارغ) في متجه أو مصفوفة مقسمة في العدد الإجمالي للإدخالات في ذلك الخط المتجه أو المصفوفة. على سبيل المثال: ضع في الاعتبار مصفوفة مكونة من 100 عنصر تحتوي 98 خلية فيها على صفر. حساب يكون الندرة على النحو التالي:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

يشير ندرة الخصائص إلى ندرة متّجه الخصائص، يشير تناثر النماذج إلى ندرة ترجيحات النموذج.

اختزال مكاني

#image

يُرجى الاطّلاع على تجميع البيانات.

سبليت

#df

في شجرة القرار، اسم آخر condition.

مقسِّم

#df

أثناء تدريب شجرة قرار، تتم إضافة سلسلة الإجراءات (والخوارزمية) المسئولة عن إيجاد أفضل condition عند كل عقدة.

SPMD

اختصار لـ برنامج واحد / بيانات متعددة.

تربيع الخسارة المفصلية

مربع فقدان المفصل. معاقبة خسارة المفصلت التربيعي والقيم المتطرفة أكثر حدة من فقدان المفصلات المنتظمة.

الخسارة التربيعية

#fundamentals

مرادف لـ L2 الخسارة.

تدريب مرحلي

#language

يشير ذلك المصطلح إلى تكتيك لتدريب نموذج في سلسلة من المراحل المنفصلة. يمكن أن يكون الهدف إما لتسريع عملية التدريب أو لتحقيق جودة نموذج أفضل.

في ما يلي صورة توضيحية لنهج التكديس التدريجي:

  • المرحلة 1 تحتوي على 3 طبقات مخفية، بينما تحتوي المرحلة الثانية على 6 طبقات مخفية، المرحلة 3 تحتوي على 12 طبقة مخفية.
  • تبدأ المرحلة 2 التدريب بأوزان الأوزان التي تم تعلمها في الطبقات الثلاث المخفية المرحلة 1. تبدأ المرحلة 3 التدريب بالأوزان التي تم تعلمها في الطبقات المخفية من المرحلة 2.

ثلاث مراحل تُسمى المرحلة 1 والمرحلة 2 والمرحلة 3.
          تحتوي كل مرحلة على عدد مختلف من الطبقات: تحتوي المرحلة 1 على
          3 طبقات: تحتوي المرحلة 2 على 6 طبقات، بينما تحتوي المرحلة 3 على 12 طبقة.
          تصبح الطبقات الثلاث من المرحلة 1 أول 3 طبقات في المرحلة 2.
          وبالمثل، تصبح الطبقات الست من المرحلة 2 أول 6 طبقات من
          المرحلة 3.

راجِع أيضًا التسلسل.

الولاية

#rl

وفي التعلم المعزز، تشير قيم المعامل التي تصف المعامل الحالي تهيئة البيئة التي يستخدمها الوكيل اختَر إجراءً.

دالة قيمة إجراء الحالة

#rl

مرادف دالة Q.

ثابتة

#fundamentals

حدث شيء ما مرة واحدة بدلاً من الاستمرار. العبارتان ثابتة وبلا إنترنت هي مرادفات لهذه العبارة. فيما يلي الاستخدامات الشائعة للمحتوى الثابت وبلا اتصال بالإنترنت في الجهاز. التعلم:

  • النموذج الثابت (أو النموذج المتوفّر بلا اتصال بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا اتصال بالإنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو يشير ذلك المصطلح إلى عملية يُنشئ فيها النموذج مجموعة من التوقّعات في كل مرة.

تباين الألوان مع ديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

استقرارية

#fundamentals

ميزة لا تتغيّر قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت على سبيل المثال، الميزة التي تبدو قيمها متشابهة في عام 2021 يعرض العام 2023 ثابتًا.

في العالم الحقيقي، يظهر عدد قليل جدًا من الميزات الثابتة. الميزات بالتساوي يتغير مع الاستقرار (مثل مستوى سطح البحر) بمرور الوقت.

التباين مع عدم ثبات البيانات.

خطوة

انتقال إلى الأمام والخلف من مجموعة واحدة.

يمكنك الاطّلاع على مقالة backpostagation لمزيد من المعلومات. على التمرير الأمامي والخلفي.

حجم الخطوة

مرادف معدّل التعلّم.

انحدار التدرج العشوائي (SGD)

#fundamentals

خوارزمية انحدار التدرج حجم الدفعة يساوي واحدًا. بعبارة أخرى، تتدرب سنغافوره على مثال واحد يتم اختياره بشكل موحد في عشوائيًا من مجموعة تدريب.

قفزة

#image

في عملية الالتفاف أو التجميع، تكون الدلتا في كل بُعد من أبعاد السلسلة التالية من شرائح الإدخال. على سبيل المثال، الرسوم المتحركة التالية خطوة (1,1) خلال عملية التفافية. ولذلك، تبدأ شريحة الإدخال التالية موضعًا واحدًا على يمين الإدخال السابق شريحة. عندما تصل العملية إلى الحافة اليمنى، تكون الشريحة التالية طريقنا إلى اليسار لكن بمقدار موضع واحد.

مصفوفة إدخال 5×5 وفلتر التفافي 3×3. نظرًا لأن
     الخطوة (1,1)، سيتم تطبيق فلتر التفافي 9 مرات. الأول
     تقيّم الشريحة الالتفافية المصفوفة الفرعية 3×3 العلوية اليسرى للمدخل
     ومصفوفة. تقيّم الشريحة الثانية الجزء العلوي الأوسط بنسبة 3x3.
     المصفوفة الفرعية. تقيّم الشريحة الالتفافية الثالثة 3x3 أعلى اليمين.
     المصفوفة الفرعية.  تقيّم الشريحة الرابعة المصفوفة الفرعية 3x3 ذات اليسار الأوسط.
     تقيم الشريحة الخامسة المصفوفة الفرعية 3×3 المتوسطة. الشريحة السادسة
     لتقييم المصفوفة الفرعية 3x3 الموجودة في الوسط الأيمن. تقيم الشريحة السابعة
     المصفوفة الفرعية 3×3 أسفل اليسار.  تقيّم الشريحة الثامنة
     المصفوفة الفرعية 3x3 السفلية والوسطى. تقيم الشريحة التاسعة 3x3 أسفل اليمين
     المصفوفة الفرعية.

يوضح المثال السابق خطوة ثنائية الأبعاد. إذا لم يكن المدخل تكون المصفوفة ثلاثية الأبعاد، فإن الخطوة ستكون ثلاثية الأبعاد أيضًا.

تقليص المخاطر الهيكلية (SRM)

خوارزمية توازن بين هدفين:

  • الحاجة إلى إنشاء النموذج الأكثر توقّعًا (مثل أدنى نسبة خسارة)
  • الحاجة إلى جعل النموذج بسيطًا قدر الإمكان (على سبيل المثال، قوي والتسويق).

فعلى سبيل المثال، يمكن استخدام دالة تقلل الخسارة+الانتظام على مجموعة التدريب عبارة عن خوارزمية هيكلية لخفض المخاطر.

التباين مع تقليل المخاطر التجريبية.

جمع عيّنات فرعية

#image

يُرجى الاطّلاع على تجميع البيانات.

رمز مميّز للكلمة الفرعية

#language

في النماذج اللغوية، يكون الرمز المميّز السلسلة الفرعية للكلمة، والتي قد تكون الكلمة بأكملها.

على سبيل المثال، يمكن أن تشير كلمة مثل "itemize" إلى أجزاء "العنصر" (كلمة جذر) و"ize" (لاحقة)، يتم تمثيل كل منها الرمز المميز. يسمح تقسيم الكلمات غير المألوفة إلى مثل هذه الكلمات، التي تسمى كلمات فرعية، نماذج لغوية للعمل على الأجزاء المكونة الأكثر شيوعًا للكلمة، مثل البادئات واللاحقات.

وبالعكس، يمكن استخدام الكلمات الشائعة مثل "سيذهب" قد لا يتم تقسيمها وقد ويتم تمثيلها برمز مميز واحد.

الملخّص

#TensorFlow

في TensorFlow، تكون قيمة أو مجموعة قيم محسوبة عند قيمة step، التي تُستخدَم عادةً لتتبُّع مقاييس النماذج أثناء التدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من خلال الميزات التصنيفات المقابلة. تعلُّم الآلة المراقَب مماثل إلى تعلم موضوع من خلال دراسة مجموعة من الأسئلة الإجابات المقابلة. بعد إتقان التخطيط بين الأسئلة إجابات، يستطيع الطالب بعد ذلك تقديم إجابات لأسئلة جديدة (لم يتم عرضها من قبل) أسئلة حول نفس الموضوع.

المقارنة بـ تعلُّم الآلة غير المُوجّه:

ميزة اصطناعية

#fundamentals

هناك ميزة غير موجودة ضمن ميزات الإدخال، ولكنها بعد تجميعها من واحد أو أكثر منها. طرق إنشاء ميزات اصطناعية ما يلي:

  • وضع حزمة كميزة مستمرة في سلال النطاقات
  • إنشاء تقاطع بين الميزات.
  • ضرب (أو قسمة) قيمة ميزة في قيم أخرى للميزة أو بمفرده. على سبيل المثال، إذا كان a وb هما من سمات الإدخال، فعندئذٍ وفي ما يلي أمثلة على الميزات الاصطناعية:
    • ab
    • أ2
  • تطبيق دالة عليا على قيمة سمة. على سبيل المثال، إذا كانت c هي ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • ج(ج)
    • ln(c)

الميزات التي يتم إنشاؤها من خلال تسوية أو تحجيم وحدها لا تُعتبر ميزات اصطناعية.

T

T5

#language

تحويل النص إلى نص نقل التعلّم النموذج من تقديم تكنولوجيات الذكاء الاصطناعي من Google في 2020 T5 هو نموذج برنامج ترميز-لبرنامج فك الترميز استنادًا إلى بنية المحوّلات، مدرَّبة على قاعدة كبيرة جدًا مجموعة البيانات الأصلية. وهي فعالة في مجموعة متنوعة من مهام معالجة اللغات الطبيعية، مثل إنشاء النصوص وترجمة اللغات والإجابة عن الأسئلة بطريقة حوارية.

اشتق اسم T5 من الأحرف الخمسة في "تحويل النص إلى نص".

T5X

#language

يشير هذا المصطلح إلى إطار عمل مفتوح المصدر لتعلُّم الآلة تم تصميمه. لبناء وتدريب معالجة لغة طبيعية على نطاق واسع (NLP). يتم تنفيذ T5 على قاعدة رموز T5X (وهو تم إنشاؤه على JAX وFlax).

التعلُّم الجدولي Q

#rl

في التعلم المعزّز، من المهم تنفيذ تعلم Q من خلال استخدام جدول لتخزين دوال Q لكل مجموعة من state وaction.

الاستهداف

مرادف label.

الشبكة المستهدفة

#rl

يمثِّل التعلّم العميق Q شبكة عصبية مستقرة هو تقريب الشبكة العصبية الرئيسية، حيث توجد الشبكة العصبية الرئيسية تنفذ دالة Q أو سياسة. بعد ذلك، يمكنك تدريب الشبكة الرئيسية على قيم Q التي تنبأ بها الهدف الشبكة. لذلك، فإنك تمنع حلقة الملاحظات التي تحدث عند الشبكة على القيم Q التي تنبأ بها بحد ذاتها. من خلال تجنب هذه الملاحظات، زيادة استقرار التدريب.

المهمة

يشير ذلك المصطلح إلى مشكلة يمكن حلّها باستخدام أساليب تعلُّم الآلة، مثل:

درجة الحرارة

#language
#image
#generativeAI

المعلَمة الفائقة التي تتحكّم في درجة التوزيع العشوائي لمخرج النموذج. تؤدي درجات الحرارة الأعلى إلى نتائج عشوائية أكثر، بينما ينتج عن درجات الحرارة المنخفضة نتائج عشوائية أقل.

يعتمد اختيار أفضل درجة حرارة على التطبيق المحدد الخصائص المفضلة لمخرج النموذج. على سبيل المثال، قد أن ترفع درجة الحرارة عند إنشاء تطبيق تؤدي إلى إنشاء مخرجات إبداعية. وعلى العكس، قد تعمل على خفض درجة حرارة عند إنشاء نموذج يصنف الصور أو النصوص من أجل تحسين دقة النموذج واتساقه.

غالبًا ما تُستخدَم درجة الحرارة مع السمة softmax.

بيانات زمنية

البيانات المسجلة في مراحل زمنية مختلفة. على سبيل المثال، مبيعات المعاطف الشتوية المسجلة لكل يوم من أيام السنة ستكون بيانات مؤقتة.

موتّر

#TensorFlow

هيكل البيانات الأساسي في برامج TensorFlow. المؤشرات هي أبعاد نائية. (حيث يمكن أن تكون N كبيرة جدًا) هياكل البيانات، الأكثر شيوعًا في الكميات القياسية والمتجهات أو المصفوفات. يمكن أن تتضمن عناصر Tensor عددًا صحيحًا أو نقطة عائمة أو قيم السلسلة.

TensorBoard

#TensorFlow

لوحة البيانات التي تعرض الملخّصات المحفوظة أثناء تنفيذ أحدها المزيد من برامج TensorFlow

TensorFlow

#TensorFlow

هي منصة لتعلُّم الآلة وواسعة النطاق. يشير المصطلح أيضًا إلى طبقة واجهة برمجة التطبيقات الأساسية في مكدس TensorFlow، الذي يدعم العمليات الحسابية العامة حول الرسوم البيانية لتدفق البيانات.

وعلى الرغم من استخدام TensorFlow بشكل أساسي للتعلّم الآلي، يمكنك أيضًا استخدام استخدام TensorFlow للمهام التي لا تعتمد على تعلُّم الآلة والتي تتطلب إجراء حساب رقمي باستخدام الرسوم البيانية لتدفق البيانات.

ملعب TensorFlow

#TensorFlow

هو برنامج يصور مدى اختلاف نموذج تأثير المعلَمات الفائقة (الشبكة العصبية في المقام الأول). الانتقال إلى http://playground.tensorflow.org لتجربة TensorFlow Playground

العرض باستخدام TensorFlow

#TensorFlow

هي منصة لنشر نماذج مدرَّبة في الإنتاج.

وحدة معالجة الموتّر (TPU)

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى دائرة متكاملة خاصة بالتطبيق (ASIC) تُحسِّن أداء أعباء عمل التعلم الآلي. يتم نشر حالات ASIC هذه شرائح TPU متعددة على جهاز TPU

ترتيب الموتّر

#TensorFlow

اطّلِع على مقالة الترتيب (Tensor).

شكل الموتّر

#TensorFlow

عدد العناصر التي يحتوي عليها أداة الاستشعار في أبعاد مختلفة. على سبيل المثال، يكون للـ [5, 10] Tensor بشكل 5 في بُعد واحد و10 في تقرير آخر.

حجم الموتّر

#TensorFlow

يشير ذلك المصطلح إلى إجمالي عدد القيم القياسية التي يحتوي عليها Tensor. على سبيل المثال، [5, 10] حجم Tensor 50.

TensorStore

مكتبة للقراءة الفعالة كتابة صفائف كبيرة متعددة الأبعاد.

شرط الإنهاء

#rl

في التعلُّم المعزّز، فإن الشروط التي تحديد وقت انتهاء الحلقة، مثل وقت وصول موظّف الدعم حالة معينة أو تتجاوز الحد الأدنى لعدد انتقالات الحالات. على سبيل المثال، في tic-tac-toe (أيضًا تُعرف بالنقاط وأطرافها المتقاطعة)، وتنتهي الحلقة إما عندما يرسم اللاعب علامة ثلاث مسافات متتالية أو عند وضع علامة على جميع المسافات.

اختبار

#df

في شجرة القرار، اسم آخر condition.

عدد الاختبار

#fundamentals

مقياس يمثّل خسارة النموذج مقابل مجموعة الاختبار. عند إنشاء نموذج، يمكنك عادة تقليل فقدان الاختبار. هذا لأن انخفاض خسارة الاختبار إشارة جودة أقوى من معدّل فقدان التدريب أو انخفاض فقدان التحقق.

وجود فجوة كبيرة بين خسارة الاختبار وفقدان التدريب أو خسارة التحقق في بعض الأحيان أنك بحاجة إلى زيادة معدّل تنظيم المحتوى:

مجموعة الاختبار

مجموعة فرعية من مجموعة البيانات محجوزة للاختبار نموذج مدرَّب.

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. فعلى سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى كل من مجموعة التطبيق مجموعة الاختبار.

ترتبط كل من مجموعة التطبيق ومجموعة التحقق من الصحة ارتباطًا وثيقًا بتدريب أحد النماذج. ونظرًا لأن مجموعة الاختبار ترتبط بشكل غير مباشر بالتدريب فقط، فقدان الاختبار هو مقياس أقل تحيزًا وجودة أعلى من فقدان التدريب أو فقدان الشهادات

امتداد النص

#language

نطاق فهرس الصفيف المرتبط بقسم فرعي معيّن من سلسلة نصية. على سبيل المثال، تشغل الكلمة good في سلسلة بايثون s="Be good now". امتداد النص من 3 إلى 6.

tf.Example

#TensorFlow

معيار مخزن بروتوكول مؤقت لوصف البيانات المُدخلة لتطبيق نموذج تعلُّم الآلة أو الاستنتاجها

tf.keras

#TensorFlow

تم دمج تنفيذ Keras في TensorFlow

الحد (لأشجار القرارات)

#df

في شرط محاذاة المحور، تكون القيمة التي تتم مقارنة الميزة بها. على سبيل المثال، 75 هو الحد المسموح به في الشرط التالي:

grade >= 75

تحليل السلسلة الزمنية

#clustering

يشير هذا المصطلح إلى حقل فرعي من تعلُّم الآلة والإحصاءات التي تحلِّل. البيانات الزمنية: أنواع عديدة من التعلم الآلي المشكلات تتطلب تحليل السلاسل الزمنية بما في ذلك التصنيف والتجميع العنقودي والتنبؤات والكشف عن الانحرافات. على سبيل المثال، يمكنك استخدام تحليل السلسلة الزمنية لتوقُّع المبيعات المستقبلية للمعاطف الشتوية حسب الشهر استنادًا إلى بيانات المبيعات السابقة.

خطوة زمنية

#seq

واحدة "غير معروضة" خلية داخل الشبكة العصبونية المتكرّرة. على سبيل المثال، يوضح الشكل التالي ثلاث خطوات زمنية (مسماة الرموز السفلية t-1 وt وt+1):

ثلاث خطوات زمنية في شبكة عصبية متكررة. ناتج
          تصبح الخطوة الزمنية الأولى إدخالاً إلى الخطوة الزمنية الثانية. الناتج
          للخطوة الزمنية الثانية تصبح إدخالاً للخطوة الزمنية الثالثة.

رمز مميز

#language

في النموذج اللغوي، وهو الوحدة الذرية التي يستخدمها النموذج التدريب عليها وعمل التنبؤات عليها. الرمز المميز هو عادةً أحد التالي:

  • كلمة — على سبيل المثال، عبارة "كلاب مثل القطط" يتكون من ثلاث كلمات الرموز المميزة: "كلاب" و"أعجبني" و"قطط".
  • حرف — على سبيل المثال، عبارة "سمكة دراجة" يتكون من تسعة الرموز المميزة للأحرف. (لاحظ أن المساحة الفارغة يتم احتسابها كأحد الرموز المميزة.)
  • الكلمات الفرعية - والتي يمكن أن تكون فيها الكلمة الواحدة رمزًا مميزًا واحدًا أو عدة رموز مميزة. تتألف الكلمة الفرعية من كلمة جذر أو بادئة أو لاحقة. على سبيل المثال: النموذج اللغوي الذي يستخدم كلمات فرعية كرموز مميّزة قد يعرض كلمة "كلاب" كرمزين مميزين (كلمة الجذر "dog" ولاحقة الجمع "s"). نفس الشيء نموذج لغوي قد يعرض الكلمة المفردة "أطول" وكلمتين فرعيتين ( كلمة الجذر "طويل" واللاحقة "er").

وفي النطاقات خارج النماذج اللغوية، يمكن أن تمثل الرموز المميزة أنواعًا أخرى من فقط. على سبيل المثال، في الرؤية الحاسوبية، قد يكون الرمز المميز مجموعة فرعية لصورة.

برج

هو أحد مكونات الشبكة العصبية العميقة التي نفسه شبكة عصبية عميقة. في بعض الحالات، يُقرأ كل برج من مصدر بيانات مستقل، وتظل هذه الأبراج مستقلة حتى يتم دمج المُخرجات في طبقة أخيرة. في حالات أخرى، (على سبيل المثال، في برج برنامج الترميز وبرنامج فك الترميز العديد من المحولات)، والأبراج لها روابط متقاطعة لبعضنا البعض.

TPU

#TensorFlow
#GoogleCloud

اختصار Tensor process Unit.

شريحة TPU

#TensorFlow
#GoogleCloud

مسرِّع جبر خطي قابل للبرمجة مزود بذاكرة ذات نطاق ترددي مرتفع على الرقاقة المحسَّنة لأعباء التعلم الآلي تم نشر عدة شرائح TPU على جهاز TPU.

جهاز بولي يورثان متلدّن بالحرارة

#TensorFlow
#GoogleCloud

لوحة دائرة كهربائية مطبوعة (PCB) تتضمن عدة شرائح TPU وواجهات الشبكة ذات النطاق الترددي العالي وأجهزة تبريد النظام.

وحدة معالجة الموتّرات الرئيسية

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى عملية التنسيق المركزية التي تعمل على جهاز مضيف يرسل تلقّي البيانات والنتائج والبرامج والأداء ومعلومات سلامة النظام إلى العاملين في مجال معالجة الموتّرات يدير مسؤول وحدة معالجة الموتّرات أيضًا عملية الإعداد. وإيقاف أجهزة معالجة الموتّرات

عقدة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى مورد من وحدات معالجة الموتّرات على Google Cloud يتضمّن نوع TPU: تتصل عقدة وحدة معالجة الموتّرات VPC Network من شبكة VPC المشابهة تُعد عُقد وحدة معالجة الموتّر موردًا يتم تحديده في Cloud TPU API:

كبسولة بولي يورثان متلدّن بالحرارة

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى إعدادات معيَّنة لأجهزة معالجة الموتّرات في إحدى خدمات Google. مركز البيانات لدينا. جميع الأجهزة المضمّنة في حافظة TPU متصلة ببعضها بعضًا. عبر شبكة مخصصة عالية السرعة. تُعد وحدة TPU Pod أكبر تهيئة أجهزة معالجة الموتّرات المتوفّرة لإصدار معيَّن من وحدات معالجة الموتّرات

مورد TPU

#TensorFlow
#GoogleCloud

وحدة معالجة الموتّرات (TPU) على Google Cloud التي تنشئها أو تديرها أو تستهلكها بالنسبة على سبيل المثال، عُقد TPU وأنواع TPU هي موارد TPU.

شريحة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

شريحة TPU هي جزء كسري من أجهزة TPU في جهاز TPU Pod جميع الأجهزة المدرَجة في شريحة وحدة معالجة الموتّرات متصلة. ببعضهما البعض عبر شبكة مخصصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى إعدادات جهاز واحد أو أكثر من أجهزة معالجة الموتّرات التي تتضمّن وحدة معالجة خارجية. إصدار جهاز TPU يتم اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة TPU على Google Cloud. على سبيل المثال، v2-8 نوع وحدة معالجة الموتّرات هو جهاز واحد من نوع TPU v2 يتضمّن 8 أنوية. يحتوي نوع وحدة معالجة الموتّرات v3-2048 على 256 أجهزة مزودة بتقنية TPU v3 المتصلة بالشبكة وإجمالي 2,048 نواة. تعتبر أنواع TPU مصدرًا المحدد في Cloud TPU API:

عامل معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير هذا المصطلح إلى عملية يتم تشغيلها على جهاز مضيف وتنفيذ برامج تعلُّم الآلة. على أجهزة معالجة الموتّرات

التدريب

#fundamentals

عملية تحديد المعلَمات المثالية (القيم المرجحة التحيزات) تتكون من نموذج. أثناء التدريب، يقرأ النظام أمثلة ويتم تعديل المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل خسارة للنموذج خلال تكرار تدريبي معين. فعلى سبيل المثال، لنفترض أن دالة الخسارة هو الخطأ التربيعي المتوسّط. وربما يكون خسارة التدريب (متوسط الخطأ المربع) للتكرار العاشر هو 2.2، وفقدان التدريب التكرار 100 هو 1.9.

يشير منحنى الخسارة إلى خسارة التدريب مقابل عدد التكرارات. يوفر منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير الانحدار لأسفل إلى أن النموذج يتحسن.
  • يشير الانحدار لأعلى إلى أنّ النموذج يزداد سوءًا.
  • يشير الانحدار المستقيم إلى أن النموذج قد وصل التقارب:

على سبيل المثال، منحنى الخسارة المثالي التالي إلى حدٍ ما :

  • وانحدار حاد إلى الأسفل أثناء التكرارات الأولية، الأمر الذي يعني التحسين السريع للنموذج.
  • انحدار تدريجي (ولكن لا يزال لأسفل) حتى اقتراب النهاية من التدريب، وهو ما يعني استمرار تحسين النموذج إلى حدٍ ما بوتيرة أبطأ بعد ذلك أثناء التكرارات الأولية.
  • منحدر مستوٍ نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. ويبدأ منحنى الخسارة هذا
     مع انحدار حاد إلى الأسفل. يستقر الانحدار تدريجيًا حتى
     يصبح الميل صفرًا.

وعلى الرغم من أهمية فقدان التدريب، انظر أيضًا التعميم:

انحراف عرض التدريب

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء عرض الإعلانات:

مجموعة تدريب

#fundamentals

المجموعة الفرعية من مجموعة البيانات المُستخدَمة لتدريب نموذج.

عادةً، يتم تقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

ومن الناحية المثالية، ينبغي أن ينتمي كل مثال في مجموعة البيانات إلى واحد من المجموعات الفرعية السابقة. على سبيل المثال، ينبغي ألا ينتمي مثال واحد إلى كل من مجموعة التطبيق ومجموعة التحقق من الصحة.

المسار

#rl

في التعلم تعزيز، تسلسل من الصفوف التي تمثل سلسلة من انتقالات الحالة للرمز الوكيل، حيث يتجاوب كل صف مع الحالة، الإجراء، مكافأة والحالة التالية للانتقال إلى حالة معيّنة.

التعلّم القائم على نقل البيانات

يشير ذلك المصطلح إلى نقل المعلومات من مهمة تعلُّم الآلة إلى أخرى. فعلى سبيل المثال، في التعلم متعدد المهام، يحل نموذج واحد العديد من المهام، مثل النموذج لصفحة في التطبيق الذي يحتوي على عُقد نتائج مختلفة مهام مختلفة. قد يتضمن التعلم الآلي نقل المعرفة من حل مهمة أبسط إلى أخرى أكثر تعقيدًا، أو أن تتضمن نقل المعرفة من مهمة يوجد بها المزيد من البيانات إلى مكان تنخفض البيانات.

حلّ معظم أنظمة تعلُّم الآلة مهمة واحدة. تعلم النقل هو خطوة جديدة نحو الذكاء الاصطناعي حيث يمكن لبرنامج واحد أن يحلّ متعددة.

المحوّل

#language

يشير هذا المصطلح إلى بنية للشبكة العصبونية التي تم تطويرها في Google. على آليات الانتباه الذاتي لتحويل تسلسل تضمينات الإدخال في تسلسل للمخرجات التضمينات بدون الاعتماد على عمليات الدمج أو الشبكات العصبونية المتكررة. يمكن أن يكون المحوِّل ويُنظر إليه على أنه حزمة من طبقات الانتباه الذاتي.

يمكن أن يتضمن المحوِّل أيًا مما يلي:

يحوّل برنامج الترميز تسلسلاً من التضمينات إلى تسلسل جديد من نفس الطول. يشتمل برنامج التشفير على عدد N من الطبقات المتطابقة، تحتوي كل منها على اثنين والطبقات الفرعية. يتم تطبيق هاتين الطبقتين الفرعيتين في كل موضع من موضع الإدخال تسلسل تضمين، وتحويل كل عنصر من عناصر التسلسل إلى عنصر جديد التضمين. وتجمع الطبقة الفرعية الأولى لبرنامج الترميز المعلومات من تسلسل الإدخال. وتعمل الطبقة الفرعية الثانية في برنامج الترميز على تحويل القيم المعلومات في تضمين مخرجات.

يحوّل برنامج فك الترميز سلسلة من تضمينات الإدخالات إلى تسلسل تضمينات الإخراج، وربما ذات طول مختلف. يتضمن برنامج فك الترميز أيضًا N من الطبقات المتماثلة بها ثلاث طبقات فرعية، اثنتان منها تشبهان الطبقات الفرعية لبرنامج الترميز تأخذ الطبقة الفرعية الثالثة لبرنامج فك التشفير إخراج البيانات برنامج الترميز ويطبّق آلية الانتباه الذاتي لجمع معلومات منه.

مشاركة المدونة Transformer: بنية جديدة للشبكة العصبية في اللغة فهم مقدمة جيدة عن المحولات.

الثبات الانتقالي

#image

في إحدى مشكلات تصنيف الصور، يمكن أن تحدد قدرة الخوارزمية على تصنيف الصور حتى عندما يتغير موضع العناصر داخل الصورة. على سبيل المثال، بإمكان الخوارزمية التعرف على كلب، سواء كان في وسط الإطار أو في الطرف الأيسر له.

راجِع أيضًا ثابت الحجم و الثبات الدوري:

مثلث

#seq
#language

ن غرام يكون فيه N=3.

سالب صحيح (TN)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح فئة سلبية: على سبيل المثال، يستنتج النموذج أن رسالة إلكترونية معينة ليست رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية عبارة عن ليست رسائل غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتنبأ فيه النموذج بشكل صحيح فئة إيجابية. على سبيل المثال، يستنتج النموذج أن رسالة بريد إلكتروني معينة هي رسالة غير مرغوب فيها، وتُعتبر هذه الرسالة الإلكترونية رسالة غير مرغوب فيها حقًا.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف الاستدعاء. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

المعدّل الموجب الصحيح هو المحور الصادي في منحنى RoC.

U

عدم الوعي (بسمة حساسة)

#fairness

حالة يتم فيها تعريف السمات الحسّاسة ولكن لا يتم تضمينها في بيانات التطبيق. لأن السمات الحساسة بتصنيفات أخرى خاصة ببيانات المرء، وهو نموذج تم تدريبه الذين لا يعلمون شيئًا ما حول أحد التصنيفات الحساسة، التأثير المتباين في ما يتعلق بتلك السمة، أو مخالفة قيود أخرى متعلقة بالإنصاف.

فرط التعميم

#fundamentals

إنتاج نموذج بقدرة ضعيفة على التنبؤ لأن النموذج لم يلتقط تعقيد بيانات التدريب بشكل كامل. العديد من المشاكل إلى فرط التعميم، بما في ذلك:

التقليل من العيّنات

إزالة أمثلة من درس لغوي في مجموعة بيانات غير متوازنة في الفئة من أجل إنشاء مجموعة تدريب متوازنة.

فعلى سبيل المثال، بالنظر إلى أي مجموعة بيانات تكون فيها نسبة فئة الأغلبية فئة الأقل هي 20:1. للتغلب على هذا الفصل غير متوازن، يمكنك إنشاء مجموعة تدريب تتكون من كل أعضاء الأقلية أمثلة الفئات ولكن فقط عُشر أمثلة الفئة الأغلبية، والتي من شأنها إنشاء نسبة 2:1 لفئة مجموعة التطبيق. وبفضل التقليل من حجم العيّنات، مجموعة تدريب متوازنة قد ينتج عنها نموذج أفضل. بدلاً من ذلك، مجموعة تدريب أكثر توازنًا قد تحتوي على أمثلة غير كافية لتدريب نموذج فعال.

تباين الألوان مع oversampling.

أحادي الاتجاه

#language

يشير ذلك المصطلح إلى نظام يقيّم فقط النص الذي يسبق قسمًا مستهدَفًا من النص. وفي المقابل، يقيّم النظام الثنائي الاتجاه كلاً من نص يسبق ويتبع قسمًا مستهدَفًا من النص. اطّلِع على ثنائي الاتجاه لمعرفة المزيد من التفاصيل.

نموذج لغوي أحادي الاتجاه

#language

نموذج لغوي يعتمد احتمالاته على الرموز المميّزة التي تظهر قبل الرموز المميّزة المستهدَفة، وليس بعد التباين مع النموذج اللغوي الثنائي الاتجاه.

مثال غير مصنَّف

#fundamentals

مثال يحتوي على ميزات بدون تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنَّفة من منزل. نموذج تقييم، لكل منها ثلاث ميزات ولكن بدون قيمة للشركة نفسها:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في نظام تعلُّم الآلة الخاضع للإشراف، نماذج التدريب على الأمثلة المصنفة وعمل التنبؤات على أمثلة غير مصنَّفة:

يخضع للإشراف شبه خاضع للإشراف غير الخاضع للإشراف استخدام الأمثلة غير المصنفة أثناء التدريب.

قارِن المثال غير المصنَّف مع مثال مصنَّف.

التعلم الآلي غير المُوجّه

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، عادةً ما تكون مجموعة البيانات غير المصنفة.

الاستخدام الأكثر شيوعًا للتعلم الآلي غير المُوجّه هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن للجهاز غير الخاضع للإشراف بإمكان خوارزمية التعلم تجميع الأغاني استنادًا إلى خصائص مختلفة الموسيقى. يمكن أن تصبح المجموعات العنقودية الناتجة مدخلاً لأجهزة أخرى خوارزميات التعلّم (على سبيل المثال، خدمة اقتراح الموسيقى). يمكن أن يكون التجميع العنقودي مفيدًا عندما تكون التصنيفات المفيدة قليلة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعدك المجموعات البشر على فهم البيانات بشكل أفضل.

التباين مع تعلُّم الآلة الخاضع للإشراف.

وضع نماذج للإحالات الناجحة

أسلوب نمذجة، يشيع استخدامه في التسويق، يتم من خلاله إنشاء نموذج "تأثير سببي" (ويُعرف أيضًا باسم "التأثير المتزايد") "مجموعة تجريبية" على "فرد". وإليك مثالان:

  • قد يستخدم الأطباء نمذجة التحسين للتنبؤ بانخفاض معدل الوفيات (التأثير السببي) لإجراء طبي (العلاج) اعتمادًا على العمر والتاريخ الطبي للمريض (فرد).
  • قد تستخدم جهات التسويق نمذجة التحسين للتنبؤ بالزيادة في احتمالية الشراء (التأثير السببي) بسبب إعلان (المجموعة التجريبية) على شخص (فردي).

تختلف نمذجة التحسين عن التصنيف الانحدار في أن بعض التصنيفات (على سبيل المثال، نصف التصنيفات في العلاجات الثنائية) مفقودة في نمذجة التحسين. على سبيل المثال، بإمكان المريض تلقي العلاج أو عدم تلقيه؛ وبالتالي، يمكننا فقط ملاحظة ما إذا كان المريض على وشك الشفاء أم لن يتعافى في واحدة من هاتين الحالتين فقط (وليس في كلتا الحالتين). تتمثل الميزة الرئيسية لنموذج التحسين في إمكانية إنشاء تنبؤات للوضع غير المرصود (المعارضة) وتستخدمه لحساب التأثير السببي.

زيادة الوزن

تطبيق الوزن على الفئة المستندة إلى عيّنات مخفّضة يساوي إلى العامل الذي قمت بأخذ عينة منه.

مصفوفة المستخدمين

#recsystems

في أنظمة الاقتراح، متّجه تضمين تم إنشاؤه بواسطة تحليل المصفوفة إلى عواملها تحتوي على إشارات كاتمة حول إعدادات المستخدم المفضّلة يحتوي كل صف من مصفوفة المستخدمين على معلومات حول الفئة قوة الإشارات الكامنة المختلفة لمستخدم واحد. على سبيل المثال، ضع في اعتبارك نظام اقتراح الأفلام. في هذا النظام، قد تمثّل الإشارات الكامنة في مصفوفة المستخدمين اهتمام كل مستخدم في أنواع معينة، أو قد يكون من الصعب تفسيرها إشارات تتضمن للتفاعلات المعقدة عبر عوامل متعددة.

تحتوي مصفوفة المستخدمين على عمود لكل ميزة كاتمة وصف لكل مستخدم. وهذا يعني أن مصفوفة المستخدمين لها نفس عدد الصفوف الموجودة في الهدف المصفوفة التي يتم تحليلها إلى عوامل. على سبيل المثال، عند أخذ فيلم نظام توصية لـ 1000000 مستخدم، أن مصفوفة المستخدمين ستضم 1000000 صف.

V

التحقّق من الصحة

#fundamentals

التقييم الأولي لجودة أحد النماذج. يتم التحقق من جودة تنبؤات أي نموذج مقابل التحقّق من مجموعة التحقّق:

ولأن مجموعة التحقق من الصحة تختلف عن مجموعة التدريب، ويساعد التحقق من الصحة في الحماية من الإفراط في التوافق.

قد تفكر في تقييم النموذج مقابل مجموعة التحقق من الصحة الجولة الأولى من الاختبار وتقييم النموذج مقابل مجموعة الاختبار كجولة ثانية من الاختبار.

فقدان التحقّق

#fundamentals

مقياس يمثّل خسارة للنموذج في مجموعة التحقق خلال عملية التكرار للتدريب.

اطّلِع أيضًا على منحنى التعميم.

مجموعة التحقق من الصحة

#fundamentals

المجموعة الفرعية من مجموعة البيانات التي تُجري عمليات التقييم وفقًا لنموذج مدرَّب. عادةً، تقوم بتقييم النموذج المدرَّب مقابل مجموعة التحقق العديدة مرات قبل تقييم النموذج مقابل مجموعة الاختبار.

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى الثلاثة التالية مجموعات فرعية مميزة:

ومن الناحية المثالية، ينبغي أن ينتمي كل مثال في مجموعة البيانات إلى واحد من المجموعات الفرعية السابقة. على سبيل المثال، ينبغي ألا ينتمي مثال واحد إلى كل من مجموعة التطبيق ومجموعة التحقق من الصحة.

احتساب القيمة

يشير ذلك المصطلح إلى عملية استبدال قيمة غير متوفّرة ببديل مقبول. عندما تكون إحدى القيم مفقودة، يمكنك إما تجاهل المثال بالكامل أو يمكنك استخدام حساب القيمة لإنقاذ المثال.

فعلى سبيل المثال، بالنظر إلى إحدى مجموعات البيانات التي تحتوي على أحد الخصائص temperature من المفترض أن يتم تسجيله كل ساعة. ومع ذلك، كانت قراءة درجة الحرارة غير متاح لساعة معينة. فيما يلي قسم من مجموعة البيانات:

الطابع الزمني درجة الحرارة
1680561000 10
1680564600 12
1680568200 غير متاحة
1680571800 20
1680575400 21
1680579000 21

يمكن للنظام إما حذف المثال المفقود أو احتساب القيمة المفقودة 12 أو 16 أو 18 أو 20 حسب خوارزمية الحساب.

مشكلة التدرج المتلاشٍ

#seq

ميل تدرجات الطبقات المخفية الأولى من بعض الشبكات العصبية العميقة مسطّح بشكل مدهش (منخفض). وتؤدي التدرجات المنخفضة بشكل متزايد إلى تغيرات أصغر في الأوزان على العقد في الشبكة العصبية العميقة، مما يؤدي إلى القليل أو عدم التعلم. نماذج تعاني من مشكلة التلاشي المتلاشى تصبح من الصعب أو المستحيل تدريبها. تعالج خلايا الذاكرة القصيرة المدى هذه المشكلة.

المقارنة مع مشكلة التدرج المتفجر.

الأهمية المتغيرة

#df

مجموعة من الدرجات التي تشير إلى الأهمية النسبية لكل منها الميزة على النموذج.

على سبيل المثال، ضع في الاعتبار شجرة القرار التي تقديرات أسعار المنازل. لنفترض أن شجرة القرارات هذه تستخدم ثلاثة والميزات: الحجم والعمر والأسلوب. إذا كانت هناك مجموعة من القيم المتغيرة يتم حساب الميزات الثلاثة {size=5.8, age=2.5, style=4.7}، فإن الحجم أكثر أهمية بالنسبة شجرة القرارات من العمر أو النمط.

توجد مقاييس مختلفة للأهمية المتغيرة، والتي يمكن أن تفيد خبراء في تعلُّم الآلة حول الجوانب المختلفة للنماذج.

برنامج الترميز التلقائي المتغير (VAE)

#language

نوع من برامج الترميز التلقائي التي تستفيد من التباين بين المدخلات والمخرجات لإنشاء نُسخ معدلة من المدخلات. تُعدّ برامج الترميز التلقائي المتنوّعة مفيدة للذكاء الاصطناعي التوليدي.

تعتمد قيم VAE على الاستنتاج المختلف: وهو أسلوب لتقدير معاملات نموذج الاحتمال.

المتّجه

عبارة تتضمّن تحميلاً زائدًا جدًا ويختلف معناها من خلال الرياضيات المختلفة والمجالات العلمية. في التعلم الآلي، يكون للمتجه خاصيتان:

  • نوع البيانات: عادةً ما تحتوي المتجهات في التعلم الآلي على أرقام النقطة العائمة.
  • عدد العناصر: عبارة عن طول المتّجه أو بُعده.

على سبيل المثال، ضع في الاعتبار متّجه الميزة الذي يحتوي على ثمانية أرقام النقطة العائمة. طول الخط المتجه هذا أو أبعاده ثمانية. لاحظ أن متجهات التعلم الآلي غالبًا ما يكون لها عدد كبير من الأبعاد.

يمكنك تمثيل العديد من أنواع المعلومات المختلفة كمتجه. على سبيل المثال:

  • يمكن تمثيل أي موضع على سطح الأرض كوضع ثنائي الأبعاد الخط المتجه، حيث يمثل أحد الأبعاد خط العرض والآخر يمثل خط الطول.
  • يمكن تمثيل الأسعار الحالية لكل سهم من 500 سهم على شكل متجه 500 بُعد.
  • يمكن تمثيل توزيع الاحتمالية على عدد محدود من الفئات كمتجه. على سبيل المثال، للتصنيف متعدد الفئات الذي يتنبأ بأن أحد ألوان الإخراج الثلاثة (أحمر أو أخضر أو أصفر) يمكن أن يؤدي إلى إخراج الخط المتجه (0.3, 0.2, 0.5) يعني P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

يمكن إجراء تسلسل للخطوط المتجهة؛ وبالتالي يمكن استخدام مجموعة متنوعة من الوسائط ممثلة كمتجه واحد. تعمل بعض النماذج مباشرةً على سلسلة من ترميزات واحدة سريعة

تم تحسين معالِجات البيانات المتخصّصة مثل وحدات معالجة الموتّرات لتنفيذ مهامك. العمليات الرياضية على المتجهات.

المتجه هو tensor للمقياس الترتيب 1.

واط

خسارة "فاسرشتاين"

إحدى وظائف الخسارة شائعة الاستخدام في الشبكات العدائية التوليدية، استنادًا إلى مسافة محرِّك الأرض بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها نموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج. الاستنتاج هو عملية استخدام قيم الترجيح التي تم تعلمها وعمل التنبؤات.

المربّعات الصغرى البديلة المرجحة (WALS)

#recsystems

خوارزمية لخفض الدالة الموضوعية أثناء تحليل المصفوفة إلى عوامل في أنظمة الاقتراح، التي تتيح انخفاض أهمية الأمثلة المفقودة. تقلل WALS القيمة المرجحة هناك خطأ تربيعي بين المصفوفة الأصلية وإعادة البناء من خلال أو التبديل بين إصلاح تحليل الصفوف إلى عواملها وتحليل الأعمدة. يمكن حلّ كل من هذه التحسينات باستخدام المربعات الصغرى تحسين البث المباشر: للحصول على التفاصيل، يمكنك مراجعة دورة تدريبية حول أنظمة الاقتراح.

المجموع المرجح

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في المقابلة لها الأوزان. على سبيل المثال، لنفترض أن المدخلات ذات الصلة تتكون مما يلي:

القيمة التي تم إدخالها وزن الإدخال
2 1.3-
-1 0.6
3 0.4

وبالتالي، يكون المجموع المرجح:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال تفعيل الحساب:

نموذج واسع

نموذج خطي يحتوي عادةً على العديد من ميزات إدخال متفرقة. نشير إليه باسم "واسع" منذ وهذا النموذج هو نوع خاص من الشبكة العصبونية ذات عدد كبير من الإدخالات التي تتصل مباشرةً بعقدة الإخراج. النماذج الواسعة غالبًا ما تكون أسهل في تصحيح الأخطاء وفحصها مقارنةً بالنماذج المفصّلة. على الرغم من أن النماذج الواسعة لا يمكن التعبير عن المواد غير الخطية من خلال الطبقات المخفية، التي يمكن للنماذج الواسعة استخدام تحولات مثل تقاطع الميزات و التجميع لوضع نماذج للخطوط غير الخطية بطرق مختلفة.

تباين مع النموذج العميق.

العرض

عدد الخلايا العصبية في طبقة معيّنة للشبكة العصبية

حكمة الجمهور

#df

فكرة أن متوسط آراء أو تقديرات مجموعة كبيرة من الأشخاص ("الحشود") غالبًا ما تؤدي إلى نتائج جيدة بشكل مدهش. على سبيل المثال، ضع في الاعتبار لعبة يخمّن فيها الأشخاص عدد حبوب الجيلي معبأة في وعاء كبير. على الرغم من أن معظم الأفراد أن تكون التخمينات غير دقيقة، فإن متوسط جميع التخمينات بشكل تجريبي قريب من العدد الفعلي حبوب الجيلي في إناء.

Ensembles هي نسخة برمجية تناظرية لحكمة الحشود. حتى إذا قدمت النماذج الفردية تنبؤات غير دقيقة للغاية، غالبًا ما تؤدي عملية حساب متوسط توقعات العديد من النماذج إلى حدوث التوقعات الجيدة. على سبيل المثال، على الرغم من أن الفرد شجرة القرار توقع تنبؤات سيئة، غالبًا ما تقدّم غابة القرارات توقعات جيدة جدًا.

تضمين الكلمات

#language

يمثل كل كلمة في مجموعة كلمات داخل تضمين المتجه أي، تمثيل كل كلمة متجه لقيم النقطة العائمة بين 0.0 و1.0. كلمات متشابهة المعاني لها تمثيلات أكثر تشابهًا من الكلمات ذات المعاني المختلفة. على سبيل المثال، سيكون لكل من الجزر والكرفس والخيار فوائد ممثلات متشابهة، والتي قد تكون مختلفة جدًا عن الرسومات عن الطائرة والنظارات الشمسية ومعجون الأسنان.

X

XLA (الجبر الخطي المسرّع)

هو برنامج تجميع مفتوح المصدر لتعلُّم الآلة لوحدات معالجة الرسومات ووحدات المعالجة المركزية (CPU) ومسرِّعات تعلُّم الآلة.

يأخذ المحول البرمجي لـ XLA نماذج من أطر عمل تعلُّم الآلة الشائعة مثل PyTorch, وTensorFlow وJAX، كما يتم تحسين تلك الأدوات لتنفيذ الأداء العالي على مختلف الأنظمة الأساسية للأجهزة، بما في ذلك وحدات معالجة الرسومات (GPU) ووحدات المعالجة المركزية (CPU) ومسرِّعات تعلُّم الآلة

Z

التعلّم القائم على المشاريع

هو نوع من تدريب تعلُّم الآلة حيث يتم يستنتج النموذج تنبؤًا لمهمة ما لم يتم التدريب عليه بالفعل. أو بعبارةٍ أخرى، يحدد النموذج لا يتم إعطائه أي أمثلة تدريبية خاصة بالمهمة، لكن تم طرح سؤال إجراء الاستنتاج لهذه المهمة.

طلب بدون لقطة

#language
#generativeAI

طلب لا يقدّم لك مثالاً على الطريقة التي تريد اتّباعها نموذج لغوي كبير للاستجابة. على سبيل المثال:

أجزاء من طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
الهند: الاستعلام الفعلي.

وقد يستجيب النموذج اللغوي الكبير بأي مما يلي:

  • روبية
  • INR
  • ر.ه.‏
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

كل الإجابات صحيحة، على الرغم من أنك قد تفضل تنسيقًا معينًا.

حدِّد أوجه التشابه والاختلاف بين الطلب بدون لقطة مع المصطلحات التالية:

تسوية الدرجة المعيارية

#fundamentals

أسلوب تحجيم يحل محل النموذج الأولي قيمة feature مع قيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن القيمة المتوسطة لهذه الميزة. على سبيل المثال، ضع في الاعتبار ميزة يكون متوسطها 800 ومعيارًا لها والانحراف هو 100. ويوضح الجدول التالي كيفية تسوية الدرجة المعيارية وتعيين القيمة الأولية إلى الدرجة المعيارية الخاصة بها:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

يتدرب نموذج التعلم الآلي بعد ذلك على درجات Z لهذه الميزة بدلاً من القيم الأولية.