Une nouvelle version améliorée du cours d'initiation au machine learning sera disponible en août 2024 . Tenez-vous informé !
Ce module porte sur les exigences particulières pour les modèles appris sur des vecteurs de caractéristiques comportant de nombreuses dimensions.
Objectifs d'apprentissage
Découvrez comment ramener les valeurs de coefficient non informatives exactement à 0 afin d'économiser de la RAM.
En savoir plus sur les types de régularisation autres que L2
Régularisation à des fins de parcimonie
Revenons aux croisements de caractéristiques
Mise en garde :les croisements de caractéristiques creux peuvent augmenter considérablement l'espace des caractéristiques.
Problèmes possibles:
Le modèle peut devenir très volumineux (RAM)
Coefficients de "bruit" (provoque un surapprentissage)
Régularisation L1
Désir de pénaliser la norme L0 des pondérations
Optimisation non convexe NP-dure
Régularisation L1
Désir de pénaliser la norme L0 des pondérations
Optimisation non convexe NP-dure
Relâchement vis-à-vis de la régularisation L1 :
Pénaliser la somme de abs(weights)
Problème convexe
Favorisez la parcimonie, contrairement à L2
Le doublage de ce cours vidéo a été généré à l'aide de techniques de machine learning. Aidez-nous à améliorer notre technologie de doublage.
Cliquez sur "Envoyer des commentaires" ci-dessus pour envoyer des rapports de bugs et des suggestions.
Pour passer à l'audio en anglais, sélectionnez l'anglais dans la liste déroulante en bas à gauche de la page.