2012-04-07 13 views
3

Ich habe einige Dokumentationen darüber gelesen, wie Adaboost funktioniert, habe aber einige Fragen dazu.Auswahl der besten Funktionen in einem Merkmalsvektor unter Verwendung von Adaboost

Ich habe auch gelesen, dass AdaBoost auch Picks besten Eigenschaften von Daten abgesehen von Gewichtung Schwachklassifizierer zu und sie in der Testphase verwenden Klassifizierung effizient durchzuführen.

Wie wählt Adaboost die besten Eigenschaften aus den Daten aus?

Korrigieren Sie mich, wenn mein Verständnis von Adaboost falsch ist!

+0

Adaboost weist den Klassifizierern Gewichte zu, daher ist der Klassifikator mit dem höchsten Gewicht derjenige, der am besten klassifiziert. Aber Sie sollten dies in der Regel nicht verwenden, da alle Klassifikatoren schwach und nur geringfügig besser als der zufällige Uniform-Klassifikator sein sollen. – Anton

Antwort

5

In einigen Fällen sind die schwachen Klassifikatoren in Adaboost (fast) gleich Funktionen. Mit anderen Worten, die Verwendung eines einzelnen Features zur Klassifizierung kann zu einer etwas besseren Leistung führen als die zufällige Leistung, sodass es als schwacher Klassifikator verwendet werden kann. Adaboost wird die Menge der besten Schwachklassifikatoren finden, die den Trainingsdaten zugeordnet sind. Wenn also die schwachen Klassifikatoren den Merkmalen entsprechen, dann haben Sie einen Hinweis auf die nützlichsten Merkmale.

Ein Beispiel für schwache Klassifizierer, die den Merkmalen ähneln, ist .

+0

Gibt es noch weitere Fälle, in denen Features und Klassifikatoren gleich sind? Wie erkennt man diese beim Blick auf einen Feature-Vektor? – garak

+1

Was genau versuchen Sie zu erreichen? Möchten Sie die nützlichsten Funktionen finden? – Sicco

+0

Ich versuche nur, adaboost Algorithmus zu verstehen. Ich habe viele Forschungsarbeiten gelesen. Viele Autoren haben die Begriffe "Merkmale" und "Klassifizierer" synonym verwendet. Ich fragte mich, ob das in den meisten Fällen so war oder nur einige wenige. Ich möchte wissen, wie Autoren dazu gekommen sind. – garak

1

OK, adaboost wählt Funktionen basierend auf seinem grundlegenden Lerner, Baum. Für einen einzelnen Baum gibt es mehrere Mittel, um abzuschätzen, wie viel Beitrag ein einzelnes Merkmal zum Baum leistet, relative Wichtigkeit irgendwo genannt. Für Adaboosting, ein Ensamble-Verfahren, das mehrere solcher Bäume enthält, kann die relative Bedeutung jedes Merkmals für das endgültige Modell berechnet werden, indem die Signifikanz jedes Merkmals für jeden Baum gemessen und dann gemittelt wird.

Hoffe, das kann Ihnen helfen.