Dominik Koch

Verbesserung von Klassifikationsverfahren

Informationsgehalt der k-Nächsten-Nachbarn nutzen. 1. Auflage 2016.
kartoniert , 248 Seiten
ISBN 3658114754
EAN 9783658114756
Veröffentlicht Dezember 2015
Verlag/Hersteller Springer Fachmedien Wiesbaden

Auch erhältlich als:

pdf eBook
46,99
59,99 inkl. MwSt.
Lieferbar innerhalb von 3-5 Tagen (Versand mit Deutscher Post/DHL)
Teilen
Beschreibung

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Portrait

Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
 

Hersteller
Springer-Verlag GmbH
Tiergartenstr. 17

DE - 69121 Heidelberg

E-Mail: ProductSafety@springernature.com