স্পারসিটির জন্য নিয়মিতকরণ: আপনার বোঝাপড়া পরীক্ষা করুন

এল 1 নিয়মিতকরণ

নীচের বিকল্পগুলি অন্বেষণ করুন.

100টি ইনপুট বৈশিষ্ট্য সহ একটি লিনিয়ার মডেল কল্পনা করুন:
  • 10 অত্যন্ত তথ্যপূর্ণ.
  • 90টি তথ্যপূর্ণ নয়।
  • অনুমান করুন যে সমস্ত বৈশিষ্ট্যের মান -1 এবং 1 এর মধ্যে রয়েছে। নিচের কোন বিবৃতিটি সত্য?
    L1 নিয়মিতকরণ অনেকগুলি অ-তথ্যমূলক ওজনকে প্রায় (কিন্তু ঠিক নয়) 0.0 হতে উত্সাহিত করবে।
    সাধারণভাবে, L1 পর্যাপ্ত ল্যাম্বডা নিয়মিতকরণ অ-তথ্যমূলক বৈশিষ্ট্যগুলিকে ঠিক 0.0 এর ওজনে উৎসাহিত করে। L2 নিয়মিতকরণের বিপরীতে, L1 নিয়মিতকরণ 0.0-এর দিকে "ঠেলে" ঠিক ততটাই কঠিন যে ওজন 0.0 থেকে যত দূরেই হোক না কেন।
    L1 নিয়মিতকরণ বেশিরভাগ অ-তথ্যমূলক ওজনকে ঠিক 0.0 হতে উত্সাহিত করবে।
    L1 পর্যাপ্ত ল্যাম্বডা নিয়মিতকরণ অ-তথ্যমূলক ওজনকে ঠিক 0.0 হতে উৎসাহিত করে। এটি করে, এই অ-তথ্যমূলক বৈশিষ্ট্যগুলি মডেলটি ছেড়ে যায়।
    L1 নিয়মিতকরণের ফলে তথ্যপূর্ণ বৈশিষ্ট্যগুলি ঠিক 0.0 এর ওজন পেতে পারে।
    সতর্কতা অবলম্বন করুন--L1 নিয়মিতকরণের ফলে নিম্নলিখিত ধরণের বৈশিষ্ট্যগুলিকে ঠিক 0 এর ওজন দেওয়া হতে পারে:
  • দুর্বলভাবে তথ্যপূর্ণ বৈশিষ্ট্য.
  • বিভিন্ন স্কেলে দৃঢ়ভাবে তথ্যপূর্ণ বৈশিষ্ট্য.
  • তথ্যপূর্ণ বৈশিষ্ট্য দৃঢ়ভাবে অন্যান্য অনুরূপ তথ্যপূর্ণ বৈশিষ্ট্য সঙ্গে সম্পর্কযুক্ত.
  • এল 1 বনাম এল 2 নিয়মিতকরণ

    নীচের বিকল্পগুলি অন্বেষণ করুন.

    100টি ইনপুট বৈশিষ্ট্য সহ একটি রৈখিক মডেল কল্পনা করুন, যার সমস্ত মান -1 এবং 1 এর মধ্যে রয়েছে:
  • 10 অত্যন্ত তথ্যপূর্ণ.
  • 90টি তথ্যপূর্ণ নয়।
  • কোন ধরনের নিয়মিতকরণ ছোট মডেল তৈরি করবে?
    এল 2 নিয়মিতকরণ।
    L 2 নিয়মিতকরণ খুব কমই বৈশিষ্ট্যের সংখ্যা হ্রাস করে। অন্য কথায়, L 2 নিয়মিতকরণ খুব কমই মডেলের আকার হ্রাস করে।
    এল 1 নিয়মিতকরণ।
    L 1 নিয়মিতকরণ বৈশিষ্ট্যের সংখ্যা কমাতে থাকে। অন্য কথায়, এল 1 নিয়মিতকরণ প্রায়শই মডেলের আকার হ্রাস করে।