بدلاً من مقارنة بيانات الميزات المجمّعة يدويًا، يمكنك تقليل بيانات الميزات إلى تمثيلات تُعرف باسم المُدمَجة، ثم مقارنة المُدمَجة. يتم إنشاء البيانات المضمّنة من خلال تدريب شبكة عصبية عميقة مُشرفة (DNN) على بيانات السمات نفسها. تُحدِّد عمليات التضمين بيانات السمات إلى متجه في مساحة تضمين تضمّن عادةً أبعادًا أقل من بيانات السمات. تتم مناقشة عمليات التضمين في وحدة عمليات التضمين ضمن الدورة المكثّفة عن تعلُّم الآلة، في حين تتم مناقشة الشبكات العصبية في وحدة الشبكات العصبية. عند تضمين متجهات لأمثلة مشابهة، مثل فيديوهات YouTube حول topics مماثلة شاهدها المستخدمون نفسهم، تنتهي هذه الأمثلة بالقرب من بعضها في مساحة التضمين. يستخدم مقياس التشابه الخاضع للإشراف هذه "القرابة" لتحديد التشابه بين أزواج المثالين.
تذكَّر أنّنا نناقش التعلّم الخاضع للإشراف فقط لإنشاء قياس التشابه. بعد ذلك، تستخدِم إحدى الخوارزميات مقياس التشابه، سواء كان يدويًا أو خاضعًا للإشراف، لتنفيذ التجميع غير الخاضع للإشراف.
مقارنة بين الإجراءات اليدوية والإجراءات الخاضعة للإشراف
يوضّح هذا الجدول حالات استخدام قياس التشابه اليدوي أو الخاضع للإشراف استنادًا إلى متطلباتك.
المتطلبات | يدوي | الأجهزة الخاضعة للإشراف |
---|---|---|
هل تزيل المعلومات المكرّرة في الميزات المرتبطة؟ | لا، عليك التحقيق في أيّ ارتباطات بين الميزات. | نعم، تزيل ميزة "الشبكات العصبية الدلالية" المعلومات المتكرّرة. |
هل تقدّم إحصاءات عن التشابهات المحسوبة؟ | نعم | لا، لا يمكن فك ترميز البيانات المضمّنة. |
هل هي مناسبة لمجموعات البيانات الصغيرة التي تتضمّن ميزات قليلة؟ | نعم. | لا، لا توفّر مجموعات البيانات الصغيرة بيانات تدريب كافية لشبكة DNN. |
هل هي مناسبة لمجموعات البيانات الكبيرة التي تتضمّن العديد من الميزات؟ | لا، إنّ إزالة المعلومات المكرّرة يدويًا من ميزات متعددة ثم دمجها أمر صعب جدًا. | نعم، تزيل شبكة DNN المعلومات المكرّرة تلقائيًا ويجمع بين الميزات. |
إنشاء مقياس تشابه خاضع للإشراف
في ما يلي نظرة عامة على عملية إنشاء مقياس تشابه خاضع للإشراف:
تتناول هذه الصفحة الشبكات العصبية العميقة، بينما تتناول الصفحات التالية الخطوات المتبقية.
اختيار شبكة عصبية عميقة استنادًا إلى تصنيفات التدريب
يمكنك تقليل بيانات الميزات إلى عناصر تمثيلية ذات أبعاد أقل من خلال تدريب شبكة عصبية عميقة تستخدم بيانات الميزات نفسها كإدخالات وكتصنيفات. على سبيل المثال، في حال بيانات المنازل، ستستخدم شبكة DNN السمات، مثل السعر والحجم والرمز البريدي، لتوقع هذه السمات نفسها.
الترميز التلقائي
تُعرف شبكة المعالجة العصبية العميقة التي تتعلّم عمليات تضمين بيانات الإدخال من خلال توقّع بيانات الإدخال نفسها باسم المشفِّر التلقائي. بما أنّ الطبقات المخفية لبرنامج الترميز التلقائي أصغر من طبقات الإدخال والإخراج، يضطر برنامج الترميز التلقائي إلى تعلُّم تمثيل مضغوط لبيانات ميزات الإدخال. بعد تدريب شبكة DNN، استخرِج العناصر المضمّنة من أصغر طبقة مخفية لاحتساب التشابه.

أداة التوقّع
إنّ الترميز الآلي هو أبسط خيار لإنشاء العناصر المضمّنة. ومع ذلك، فإنّه ليس الخيار الأمثل عندما تكون ميزات معيّنة مهمة أكثر من غيرها في تحديد التشابه. على سبيل المثال، في بيانات المنازل، افترض أنّ السعر أكثر أهمية من الرمز البريدي. في هذه الحالات، استخدِم فقط الميزة المهمة لتصنيف التدريب لشبكة المعالجة العصبية العميقة. وبما أنّ شبكة DNN هذه تتنبأ بميزة إدخال معيّنة بدلاً من توقّع جميع ميزات الإدخال، يُطلق عليها اسم شبكة DNN التوقّعية. يجب عادةً استخراج عمليات التضمين من الطبقة الأخيرة من عمليات التضمين.

عند اختيار ميزة لتكون التصنيف:
يُفضَّل استخدام السمات الرقمية بدلاً من السمات الفئوية لأنّه من الأسهل احتساب خسائر السمات الرقمية وتفسيرها.
أزِل السمة التي تستخدمها كسمة تصنيف من الإدخال إلى شبكة المعالجة العصبية العميقة، وإلا ستستخدم شبكة المعالجة العصبية العميقة هذه السمة للتنبؤ بالنتيجة بشكلٍ مثالي. (هذا مثال عميق على تسرّب التصنيف).
استنادًا إلى اختيارك للتصنيفات، يكون الشبكة العصبية الدلالية الناتجة إما مشفِّرًا تلقائيًا أو أداة توقّع.