Dari sudut pandangan praktikal, L1 cenderung mengecilkan pekali kepada sifar manakala L2 cenderung mengecutkan pekali secara sekata. Oleh itu, L1 berguna untuk pemilihan ciri, kerana kita boleh menggugurkan sebarang pembolehubah yang dikaitkan dengan pekali yang menuju ke sifar. L2, sebaliknya, berguna apabila anda mempunyai ciri kolinear/bergantung bersama.
Apakah kegunaan regularization Apakah itu regularization L1 dan L2?
Penaturan L1 memberikan output dalam pemberat binari dari 0 hingga 1 untuk ciri model dan digunakan untuk mengurangkan bilangan ciri dalam set data dimensi yang besar. Regularisasi L2 menyerakkan terma ralat dalam semua pemberat yang membawa kepada model akhir tersuai yang lebih tepat.
Apakah perbezaan antara penyelarasan L1 dan L2?
Perbezaan intuitif utama antara regularisasi L1 dan L2 ialah L1 regularization cuba menganggarkan median data manakala regularization L2 cuba menganggarkan min data untuk mengelakkan overfitting. … Nilai itu juga akan menjadi median taburan data secara matematik.
Apakah penyelarasan L1 dan L2 dalam pembelajaran mendalam?
L2 regularization juga dikenali sebagai pereputan berat kerana ia memaksa pemberat mereput ke arah sifar (tetapi bukan sifar tepat). Dalam L1, kami mempunyai: Dalam hal ini, kami menghukum nilai mutlak pemberat. Tidak seperti L2, pemberat mungkin dikurangkan kepada sifar di sini. Oleh itu, ia sangat berguna apabila kita cuba memampatkanmodel kami.
Bagaimanakah penyelarasan L1 dan L2 berfungsi?
Model regresi yang menggunakan teknik regularisasi L1 dipanggil Lasso Regression dan model yang menggunakan L2 dipanggil Ridge Regression. Perbezaan utama antara kedua-duanya ialah tempoh pen alti. Regresi rabung menambah "magnitud kuasa dua" pekali sebagai tempoh pen alti kepada fungsi kehilangan.