Czym jest uregulowana regresja liniowa?
Czym jest uregulowana regresja liniowa?

Wideo: Czym jest uregulowana regresja liniowa?

Wideo: Czym jest uregulowana regresja liniowa?
Wideo: An Introduction to Linear Regression Analysis 2024, Listopad
Anonim

Regularyzacja . To jest forma regresja , który ogranicza/reguluje lub zmniejsza oszacowania współczynnika do zera. Innymi słowy, ta technika zniechęca do uczenia się bardziej złożonego lub elastycznego Model , aby uniknąć ryzyka nadmiernego dopasowania. Prosta relacja do regresja liniowa wygląda tak.

Czym zatem jest lambda w regresji liniowej?

Kiedy mamy wysoki stopień liniowy wielomian używany do dopasowania zbioru punktów w a regresja liniowa konfiguracji, aby zapobiec nadmiernemu dopasowaniu, używamy regularyzacji i uwzględniamy lambda parametr w funkcji kosztu. Ten lambda jest następnie używany do aktualizacji parametrów theta w algorytmie opadania gradientu.

Po drugie, jaki jest cel regularyzacji? Regularyzacja to technika służąca do strojenia funkcjonować dodając dodatkowy termin kary w błędzie funkcjonować . Dodatkowy termin kontroluje nadmiernie zmienne funkcjonować tak, że współczynniki nie przyjmują wartości ekstremalnych.

Dlaczego w ten sposób musimy regulować regresję?

Cel regularyzacja innymi słowy unikanie nadmiernego dopasowania my starają się unikać modeli, które bardzo dobrze pasują do danych uczących (dane użyte do zbudowania modelu), ale słabo pasują do danych testowych (dane użyte do sprawdzenia, jak dobry jest model). Nazywa się to overfittingiem.

Co oznacza regularyzacja?

W matematyce, statystyce i informatyce, szczególnie w uczeniu maszynowym i problemach odwrotnych, regularyzacja jest proces dodawania informacji w celu rozwiązania źle postawionego problemu lub zapobieżenia nadmiernemu dopasowaniu. Regularyzacja dotyczy funkcji celu w źle postawionych problemach optymalizacyjnych.

Zalecana: