Amazon Web Services (AWS) stellte 2018 viele Neuerungen vor. Re:Invent hieß das Präsentations-Event. Es hat stattgefunden in Las Vegas und wurde auch im Web übertragen. Etwa 100.000 Leute sollen online zugesehen haben.
Die Strategie bei AWS scheint zu sein, für drei Zielgruppen Produkte und Services anzubieten: Programmierer und Entwickler – Nerds im besten Wortsinn – bekommen mit IaaS und Frameworks die technologische Basis für ihre Arbeit. Damit konsolidiert AWS die Vorherrschaft im Cloudbereich.
Für Datenwissenschaftler und Analysten habt AWS Paas oder Sage Maker im Portfolio und für weniger technisch orientierte Anwender gibt es die vielen Cloudservices in jeder denkbaren vertikalen oder horiziontalen Ausprägung.
Hier gibt es Services für Maschinelles Lernen (ML), mit denen entsprechende Projekte vergleichsweise einfach umgesetzt werden können.
Mit denen in Las Vegas präsentierten Neuerungen werden wieder diese Zielgruppen adressiert. Entweder gelingt den potentiellen Kunden so, Kosten zu reduzieren oder die Neuerungen sollen neue Nutzungsszenarien erschließen. Als „Expand the SAM ( Serviceable Available Market“ wird dies benannt.
Besonders interessant ist in diesem Zusammenhang AWS Lake Formation. Damit können Anwender „Datenseen“ erstellen, können also in einer Umgebung Daten strukturiert oder unstrukturiert mit dem Ziel einer späteren Analyse oder Verwendung speichern. Der Service ist noch nicht live, aber man kann eine Vorabversion ausprobieren.
Ebenfalls erst in einer Vorabversion ist AWS Control Tower verfügbar. Auch dieser Service gehört in die strategische Richtung „expand the SAM“. Hiermit lassen sich mehrere Konten bündeln und verschiedenste Aufgaben, Workloads, zusammenführen, auch über Konten hinweg.
Amazon Elastic Inference ermöglich es, Instanzen, die auf der Elastic Cloud 2 (EC2) oder auf Sage Maker laufen, mit zusätzlicher Beschleunigung mittels Grafikkartenchips auszustatten. Amazon verspricht den Kunden Ersparnisse von bis zu 75 Prozent. Der Name „Inference“ (deutsch: Inferenz) ist begrifflich dem Maschinellem Lernen entlehnt. Inferenz steht dort für die Generierung von Prognosen nachdem ein Modell schon trainiert wurde.
Bisher bot sich nur die Möglichkeit, Instanzen mit GPUs zu nutzen, die verwendet werden, um Modelle zu trainieren. Zur Generierung von Prognosen muss man nicht ständig die volle Leistung einer GPU-Instanz vorhalten, denn diese Prognosen werden – je nach Szenario – meist nur punktuell angefordert. Der Trainingsprozess ist viel intensiver und stellt auch an Arbeitsspeicher und Hauptprozessor höhere Anforderungen. Diese Ressourcen müssen bei einer dedizierten GPU-Instanz mitgebucht werden. Für die Prognoseprozesse werden sie aber nicht mehr gebraucht.
Man kann für AWS Elastic Inference TensorFlow-, Apache MXNet- und ONNX-Modelle verwenden. 1 bis 32 TFlops pro Beschleuniger sind buchbar.
Weitere Informationen über neue AWS Services:
Eine Antwort auf „Amazon Web Services (AWS) Re:Invent“