Wie konfigurieren Sie AWS-Autoscaling für eine schnelle Skalierung? Ich habe eine AWS-Autoscaling-Gruppe mit einem ELB eingerichtet. Alles funktioniert gut, außer es dauert einige Minuten, bevor die neuen Instanzen hinzugefügt werden und online sind. Ich kam in dem folgenden in einem Beitrag über Puppet und automatische Skalierung:Schnelle automatische AWS-Skalierung
Die Zeit von einigen Minuten bis zu einigen Sekunden kann maßstäblich gesenkt werden, wenn die AMI Sie für eine Gruppe von Knoten verwenden, ist bereits auf dem neuesten Stand.
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
Ist das wahr? Kann die Zeit auf ein paar Sekunden reduziert werden? Würde die Verwendung einer Puppe irgendwelche Leistungssteigerungen hinzufügen?
Ich habe auch gelesen, dass kleinere Instanzen starten schneller als größere:
Kleine Instanz 1,7 GB Speicher, 1 EC2 Compute Unit (1 virtueller Kern mit 1 EC2 Compute Unit), 160 GB Instance-Speicherung, 32-Bit-Plattform mit einer Basis von CentOS 5.3 AMI
Betrag der Zeit vom Start der Instanz der Verfügbarkeit installieren: zwischen 5 und 6 Minuten, um uns-Ost-1c
Large Instance 7,5 GB Speicher, 4 EC2 Compute Units (2 virtuelle Kerne mit 2 EC2 Compute jeweils Einheiten), 850 GB Instance Storage, 64-Bit-Plattform mit einer Basis von CentOS 5.3 AMI
Betrag der Zeit vom Start der Instanz der Verfügbarkeit installieren:
Zwischen 11 und 18 Minuten des US-Ost-1cBeide wurden über die Kommandozeile mit Amazons Tools gestartet.
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
Ich nehme zur Kenntnis, dass der Artikel ist alt und meine c1.xlarge Instanzen nehmen 18min schon gar nicht zu starten. Dennoch wäre die Konfiguration einer Autoscale-Gruppe mit 50 Mikroinstanzen (mit einer höheren Skalierungsrichtlinie von 100% Kapazitätserhöhung) effizienter als eine mit 20 großen Instanzen? Oder möglicherweise zwei Autoscale-Gruppen erstellen, eine von Micros für die schnelle Startzeit und eine von großen Instanzen, um einige Minuten später CPU-Grunzen hinzuzufügen? Wenn alles gleich ist, wie viel schneller ist ein t1.micro online als ein c1.xlarge?