Ich habe folgenden Befehl für Autoscaling verwendet.Auto-Skalierung dauert mehr Zeit, um neue Pod zu bringen und Verbindungsfehler in Google Container-Engine
Der Status der Autoscaling in meinem Fall auf Belastungstest ist wie folgt.
27. Minute
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 20% 1 10 27m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 27m
29. Minute
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 35% 1 10 29m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 29m
31. Minute
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 55% 1 10 31m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 1 1 1 1 31m
34. Minute
NAME REFERENCE TARGET CURRENT MINPODS MAXPODS AGE
catch-node Deployment/catch-node/scale 50% 190% 1 10 34m
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
catch-node 4 4 4 4 34m
Hier bekomme ich Verbindungsfehler in der Zeit zwischen dem Übergang von 1 Pod zu 4pods bei Autoscaling. Bitte lassen Sie mich wissen, wie viel Zeit es dauert, neue Pods zu erstellen, sobald es die während der Autoscale angegebene CPU-Grenze überschreitet. Bitte lassen Sie mich wissen, ob es eine Methode gibt, um diese Zeit zu reduzieren. Sobald alle neuen Pods auftauchen, ist das Problem nicht dort . Vielen Dank im Voraus