Verbesserung von Klassifikationsverfahren

Lieferzeit: Lieferbar innerhalb 14 Tagen

59,99 

Informationsgehalt der k-Nächsten-Nachbarn nutzen, BestMasters

ISBN: 3658114754
ISBN 13: 9783658114756
Autor: Koch, Dominik
Verlag: Springer Spektrum
Umfang: xxii, 224 S., 278 s/w Illustr., 224 S. 278 Abb.
Erscheinungsdatum: 03.12.2015
Auflage: 1/2015
Produktform: Kartoniert
Einband: Kartoniert

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.    Der Inhalt n  Grundlagen der k-Nächsten-Nachbarnn  Vorstellung der zu erweiternden Klassifikationsverfahrenn  Benchmarking anhand von simulierten Datenn  Anwendung der modifizierten Verfahren auf reale Datensätze   Die Zielgruppen ·       Dozierende und Studierende der Mathematik, insbesondere der Statistik  Der Autor Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.

Beschreibung

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Autorenporträt

Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.  

Herstellerkennzeichnung:


Springer Spektrum in Springer Science + Business Media
Tiergartenstr. 15-17
69121 Heidelberg
DE

E-Mail: juergen.hartmann@springer.com

Das könnte Ihnen auch gefallen …