A statisztikában a k-legközelebbi szomszédok algoritmusa egy nem paraméteres osztályozási módszer, amelyet először Evelyn Fix és Joseph Hodges fejlesztett ki 1951-ben, majd Thomas Cover bővítette ki. Osztályozásra és regresszióra használják. Mindkét esetben a bemenet az adathalmaz k legközelebbi betanítási példájából áll.
Hogyan működik a K legközelebbi szomszéd?
A
KNN úgy működik, hogy megkeresi a távolságot egy lekérdezés és az adatokban szereplő összes példa között, kiválasztja a lekérdezéshez legközelebb eső megadott számú példát (K), majd a legtöbbre szavaz gyakori címke (osztályozás esetén) vagy átlagolja a címkéket (regresszió esetén).
Mit jelent a K legközelebbi szomszéd algoritmus?
A
K Legközelebbi szomszéd egy egyszerű algoritmus, amely tárolja az összes elérhető esetet, és az új adatot vagy esetet egy hasonlósági mérték alapján osztályozza. Leginkább egy adatpont osztályozására szolgál a szomszédok osztályozása alapján.
Mi az a K Nearest Neighbor gépi tanulás?
K-Legközelebbi szomszéd az egyik legegyszerűbb gépi tanulási algoritmus, amely a felügyelt tanulási technikán alapul A K-NN algoritmus feltételezi az új eset/adatok és a rendelkezésre álló esetek közötti hasonlóságot, és felteszi az új tokot abba a kategóriába, amely leginkább hasonlít az elérhető kategóriákhoz.
Mi az előnye a K legközelebbi szomszédnak?
Tárolja az edzési adatkészletet, és csak a valós idejű előrejelzések készítésekor tanul belőle. Ezáltal a KNN algoritmus sokkal gyorsabb, mint a többi, képzést igénylő algoritmus pl. SVM, lineáris regresszió stb.