Ich würde nicht erwarten, dass ein genauer Schwellenwert angegeben wird.
LFS speichert die Datenmenge, die für die Synchronisation mit einem Remote-Repository ausgetauscht werden muss. Das Speichern gilt jedoch nur, solange sich die große Datei selbst nicht ändert. Für eine geänderte Datei benötigen Sie einen zweiten Rountrip, um die Änderung an einem LFS-Objekt zu verarbeiten.
Sie können also kleinere Dateien mit LFS einschließen, wenn sich diese in Ihrem Anwendungsfall nicht (häufig) ändern. Der spezifische Break Even hängt von der E/A-Geschwindigkeit des Servers und hauptsächlich von der Latenz und dem Durchsatz zwischen Repository und Client ab.
In Ihrem Beispiel würde ich immer noch Verbesserungen erwarten, falls sich die PNGs nicht ändern. Sobald sie sich (fast) bei jedem Commit ändern, können auch größere Dateien nicht von LFS profitieren.
Auch die zusätzlichen Kosten der zweiten Runde werden immer weniger wichtig, je größer die typischen Dateien werden. Insbesondere wenn die Größe einer Dateiklasse (Suffix) über einen weiten Bereich variiert und/oder die Änderungshäufigkeit innerhalb einer Dateiklasse ein breites Spektrum abdeckt, gibt es möglicherweise keine klare Antwort auf Ihre Frage.
+1 Ich möchte auch die Antwort darauf wissen, zum Beispiel UE4 hat viele binäre Uasset-Dateien. Viele sind klein (10-100 KB) und einige sind groß (50 MB +). Ich möchte nur "* .uasset" verfolgen, wenn git-lfs gut genug funktioniert. – Chad