Dlaczego uczenie się oparte na instancjach nazywa się leniwym uczeniem?
Dlaczego uczenie się oparte na instancjach nazywa się leniwym uczeniem?

Wideo: Dlaczego uczenie się oparte na instancjach nazywa się leniwym uczeniem?

Wideo: Dlaczego uczenie się oparte na instancjach nazywa się leniwym uczeniem?
Wideo: Webinarium - Pomagajmy się uczyć, czyli wspólne dialogi o uczeniu się 2024, Kwiecień
Anonim

Instancja - oparte na uczeniu się obejmuje najbliższego sąsiada, lokalnie ważoną regresję i przypadek na podstawie metody rozumowania. Instancja - na podstawie metody są czasami określany jako leniwa nauka metody, ponieważ opóźniają przetwarzanie do nowego instancja muszą być sklasyfikowane.

Co więcej, co oznacza termin „uczenie się oparte na instancjach”?

w nauczanie maszynowe , instancja - oparte na uczeniu się (czasami nazywane pamięcią- oparte na uczeniu się ) to rodzina uczenie się algorytmy, które zamiast jawnego uogólniania porównują nowy problem instancje z instancje widziane podczas treningu, które zostały zapisane w pamięci.

Co więcej, jaki przykład daje leniwy uczeń? Dwa typowe przykłady z leniwa nauka są oparte na instancjach uczenie się oraz Leniwy Zasady Bayesa. Leniwa nauka stoi w przeciwieństwie do chętny do nauki w którym większość obliczeń odbywa się w czasie treningu.

W dalszej kolejności można zapytać, dlaczego KNN nazywa się leniwym uczniem?

K-NN jest leniwy uczeń ponieważ nie uczy się funkcji dyskryminacyjnej z danych treningowych, ale zamiast tego „zapamiętuje” zbiór danych treningowych. Na przykład algorytm regresji logistycznej uczy się wag swojego modelu (parametrów) w czasie uczenia.

Czym jest algorytm leniwego uczenia się?

A leniwy algorytm uczenia się jest po prostu algorytm gdzie algorytm uogólnia dane po wykonaniu zapytania. Najlepszym tego przykładem jest KNN. K-Nearest Neighbors zasadniczo przechowuje wszystkie punkty, a następnie wykorzystuje te dane, gdy tworzysz do nich zapytanie.

Zalecana: