Регуляризация на предмет разреженности: проверьте свое понимание

L 1 регуляризация

Изучите варианты ниже.

Представьте себе линейную модель со 100 входными функциями:
  • 10 очень информативны.
  • 90 неинформативны.
  • Предположим, что все функции имеют значения от -1 до 1. Какие из следующих утверждений верны?
    Регуляризация L1 приведет к тому, что многие неинформативные веса будут равны почти (но не точно) 0,0.
    В общем, регуляризация L1 достаточной лямбды имеет тенденцию поощрять неинформативные функции к весам ровно 0,0. В отличие от регуляризации L2, регуляризация L1 «подталкивает» к 0,0 с такой же силой, независимо от того, насколько далеко от 0,0 находится вес.
    Регуляризация L1 будет способствовать тому, что большинство неинформативных весов будут равны точно 0,0.
    Регуляризация L1 достаточной лямбды имеет тенденцию способствовать тому, чтобы неинформативные веса стали равными точно 0,0. При этом эти неинформативные функции покидают модель.
    Регуляризация L1 может привести к тому, что информативные признаки получат вес ровно 0,0.
    Будьте осторожны: регуляризация L1 может привести к тому, что следующим типам функций будет присвоен вес, равный ровно 0:
  • Слабо информативные функции.
  • Сильно информативные функции в разных масштабах.
  • Информативные признаки сильно коррелировали с другими аналогичными информативными признаками.
  • Регуляризация L 1 и L 2

    Изучите варианты ниже.

    Представьте себе линейную модель со 100 входными функциями, все из которых имеют значения от -1 до 1:
  • 10 очень информативны.
  • 90 неинформативны.
  • Какой тип регуляризации приведет к созданию модели меньшего размера?
    L 2 регуляризация.
    Регуляризация L2 редко уменьшает количество функций. Другими словами, регуляризация L2 редко уменьшает размер модели.
    L 1 регуляризация.
    Регуляризация L 1 имеет тенденцию уменьшать количество функций. Другими словами, регуляризация L 1 часто уменьшает размер модели.