Die neuen AWS-Instanztypen X1 und t2.nano im Überblick

Amazon EC2 bietet eine große Auswahl von Instanztypen für unterschiedliche Anwendungsfälle. Wir stellen die beiden neuen Instanzen X1 und t2.nano vor.

Auf der re:Invent im Oktober 2015 kündigte AWS CTO Werner Vogels in seiner Keynote zwei neue Instanztypen an: t2.nano...

und X1. Beide Instanztypen ergänzen die bereits existierenden. Bekanntlich bietet Elastic Compute Cloud (EC2) eine große Auswahl von Instanztypen, die für unterschiedliche Anwendungsfälle optimiert sind. Diese Instanztypen unterstützen verschiedene Kombinationen von CPU, Arbeitsspeicher, Speicher und Netzwerkkapazität. So können Anwender flexibel die geeignete Ressourcenzusammenstellung für ihre Applikationen auswählen.

Die beiden neuen EC2-Instanztypen unterstützen verschiedene Nutzungstrends, was von der Amazon Web Services (AWS) Community bereitwillig aufgenommen werden dürfte. X1-Instanzen können verwendet werden, wenn große In-Memory-Workloads oder Echtzeit-Analysen ausgeführt werden sollen.

Im Gegensatz dazu kann t2.nano verwendet werden, um anspruchslose Lasten auf Websites oder Microservices auszuführen. Bezogen auf die IT-Ressourcen unterscheiden sich die beiden EC2-Instanztypen aber gründlich. X1 wird mit einer großen Menge an Arbeitsspeicher geladen, während t2.nano Bursting-Fähigkeiten und Rechenleistung bietet.

Große Lasten mit X1

AWS X1-Instanzen kommen mit bis zu zwei TB Speicher und können mit bis zu vier Intel Xeon E7-8880 v3 (Haswell) Prozessoren betrieben werden. Sie unterstützen High-Memory Bandbreite und große L3-Caches. X1 Instanzen haben mehr als 100 vCPUs. Diese ermöglichen große In-Memory-Workloads und parallele Verbindungen. Bis zur Einführung des X1-EC2-Instanztyps sind die maximal zur Verfügung stehenden Speicherinstanzen r3.8xlarge, i2.8xlarge und d2.8xlarge. Alle unterstützen nur 244 GB Speicher.

X1 Instanzen können für unternehmenskritische Workloads eingesetzt werden, die hohe Leistung und sehr viel In-Memory-Verarbeitung erfordern. Zu dieser Art von Workloads gehören unter anderem SAP HANA, Realtime Analytics, Apache Spark, Presto und Microsoft SQL Server, zusätzlich zu den Anwendungen, die enorme Mengen an Cache generieren.

„X1 ist das erste echt genutzte branchenweite Angebot des Xeon E7-Mikroprozessors in einem Infrastruktur-as-a-Service-Angebot“, sagt Diane Bryant, Senior Vice President und General Manager der Intel Data Center Group. Zur Verfügung stehen werden X1-Instanzen in der ersten Hälfte des Jahres 2016. Die Preise stehen noch nicht fest.

Bryant weist außerdem darauf hin, dass andere Public-Cloud-Anbieter derzeit keine Instanzen anbieten, die X1 entsprechen. Die maximale Speicherkapazität, die bei Google-Compute-Engine-Instanzen zur Verfügung steht, ist 208 GB für die n1-Highmem-32, die 32 vCPUs bietet. Microsoft Azure bietet Maschinen der G-Serie, die mit 32 vCPUs und 448 GB Speicher aufwarten und mit Intel Xeon E5 V3 Prozessoren arbeiten.

Bursting mit t2.nano

Im Jahr 2014 startete AWS die T2-Instanzen-Familie. Bei T2-Instanzen handelt es sich um günstige virtuelle Maschinen (VM), die die zugesicherte Basis-Performance liefern und die Fähigkeit haben, alle Kerne zuzuschalten, wenn hohe Rechenleistung erforderlich ist. Die Burst-Dauer ist abhängig von den CPU-Credits, die bei Leernutzungszeiten verdient werden. Die T2-Familie umfasst die Mikro- (t2.micro), Small- (t2.small) und Medium- (t2.medium) Instanztypen. Anfang 2015 startete AWS t2.large Instanzen.

Während der re:Invent 2015 startete AWS einen weiteren EC2-Instanztyp derselben Familie: t2.nano mit 1vCPU und 512 MB Memory. Laut einem AWS-Blog kann t2.nano bei voller Core-Leistung über eine Stunde lang bei voller Credit Balance laufen. Credits für die neue Instanz erlöschen innerhalb von 24 Stunden nach Start.

Für alle, denen CPU Credits nichts sagen: Jede T2-Instanz sammelt CPU Credits, wenn sie unterhalb der Baseline Performance betrieben wird. Wenn zum Beispiel eine t2.micro-Instanz zehn Stunden im Leerlauf (Idle) ist, hat sie genug Credits gesammelt, um fast eine Stunde mit der vollen Performance eines CPU Cores zu laufen. So kann eine Instanz, die nachts wenig Last hat, die erste Stunde des Arbeitstages mit voller CPU-Leistung laufen. Wenn CPU Credits knapp werden, wird die Performance innerhalb von 15 Minuten nach und nach auf das Baseline Level gesenkt. Dieses Verhalten stellt sicher, dass Ihre Benutzer und Ihr Code nicht von einer plötzlichen Senkung der Leistung überrascht werden. CPU Credits werden in Minuten gezählt.

T2.nano Instanzen lassen sich zum Beispiel für dynamische Webseiten, Microservices oder Überwachungssystemen einsetzen, die wenig Anforderungen an höhere Rechenleistung stellen. T2.nano Instanzen sind bereits allgemein verfügbar. Die Preise finden Sie hier.

Noch ein Wort zur Konkurrenz: Google Compute Engine bietet f1-micro-Instanzen mit 1vCPU und 0,60 GB Speicher. Sie arbeiten mit dem gleichen Bursting-Konzept wie AWS. Das heißt, ein Kunde kann zusätzliche physische CPUs für kurze Zeit verwenden. Microsoft Azure bietet wiederum A0 VM mit einem CPU-Kern und 0,75 GB RAM.

Mehr zum Thema AWS:

AWS Kosten-Management-Tools von Amazon und Drittanbietern im Überblick.

AWS hat die Zeichen erkannt und startet mit Cloud Data Analytics durch.

Cloud-Umgebungen mit AWS-Management-Tools kontrollieren.

Was ein AWS-Cloud-Disaster-Recovery-Plan enthalten sollte.

Die sichere Softwareentwicklung in AWS gewährleisten.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Dezember 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Cloud-Anwendungen

0 Kommentare

Älteste Beiträge 

Passwort vergessen?

Kein Problem! Tragen Sie Ihre E-Mail-Adresse unten ein. Wir werden Ihnen eine E-Mail mit Ihrem Passwort schicken.

Ihr Passwort wurde an die folgende E-Mail-Adresse gesendet::

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchDataCenter.de

Close