Grundsätzlich benötigen Sie für trec_eval eine (vom Menschen generierte) Grundwahrheit. Das hat in einem speziellen Format sein:
query-number 0 document-id relevance
eine Sammlung wie 101Categories (wikipedia entry) Da das so etwas wie
Q1046 0 PNGImages/dolphin/image_0041.png 0
Q1046 0 PNGImages/airplanes/image_0671.png 128
Q1046 0 PNGImages/crab/image_0048.png 0
Die Abfrage-Nummer identifiziert daher eine Abfrage (zB ein Bild von einem wäre bestimmte Kategorie, um ähnliche zu finden). Die Ergebnisse aus Ihrer Suchmaschine hat dann wie
query-number Q0 document-id rank score Exp
oder in Wirklichkeit
Q1046 0 PNGImages/airplanes/image_0671.png 1 1 srfiletop10
Q1046 0 PNGImages/airplanes/image_0489.png 2 0.974935 srfiletop10
Q1046 0 PNGImages/airplanes/image_0686.png 3 0.974023 srfiletop10
wie here aussehen umgewandelt werden. Möglicherweise müssen Sie die Pfadnamen für die "Dokument-ID" anpassen. Dann können Sie die Standardmetriken berechnen. trec_eval --help
sollte Ihnen einige Ideen geben, um die richtigen Parameter für die Verwendung der für Ihre Abschlussarbeit benötigten Messungen zu wählen.
trec_eval
sendet keine Anfragen, Sie müssen sie selbst vorbereiten. trec_eval
macht nur die Analyse einen Grundtruth und Ihre Ergebnisse.
Einige grundlegende Informationen können here und here gefunden werden.
sind Sie immer noch an diesem Thema interessiert? – shellter
Ich habe einen verwandten Zweifel, wie man nicht-binäre Relevanz-Etiketten behandelt? – Shashank