Ich habe eine C++ basierte MapReduce Jobs und ich benutze Hadoop Streaming.Wie wird die maximale Anzahl von Reduzierungen pro Knoten im Hadoop-Streaming festgelegt?
Die maximale Anzahl von Reduzierern pro Knoten ist jedoch 7
, selbst wenn ich sie in der Befehlszeilenkonfiguration auf 18
setze wie mapred.tasktracker.reduce.tasks.maximum=18
;
Wird der Reducer durch etwas anderes daran gehindert, mehr Aufgaben zu reduzieren?