Menu
A+ A A-

Nach der Steckdose kommt die Wolke

Max Schaffer, T-Systems, launcht neue Cloud-Plattform im Jänner.IT-Services aus der Wolke krempeln das Verständnis von EDV in den Unternehmen gehörig um. Die Visionen und Plattformen der Hersteller und Dienstleister.

Von Martin Szelgrad

IT hat immer schon funktioniert. Das ist heute nicht anders als damals. Nur ist sie ineffizient geworden, schwierig im Management, in ihrer Verwaltung“, weiß Frank Hauck, EMC Executive Vice President. Zur Jahrtausendwende, als der Manager des Storage-Spezialisten als IT-Leiter arbeitete, wurden in der Regel 80 Prozent des IT-Budgets in Unternehmen für den reinen Betrieb, die Aufrechterhaltung der EDV – sprich: Server, Netzwerk und Applikationen – aufgewendet. Heute, zehn Jahre später, ist dies kaum anders. Nur 30 Prozent der IT-Budgets in Firmen können durchschnittlich für neue Services, Innovationen und neue Geräte abgestellt werden. Der große Rest, immer noch 70 Prozent, wird weiterhin von den Maintenance-Kosten aufgefressen. Mit der Virtualisierung von Servern ist nun zwar eine erste Welle flexibler Bereitstellung von IT-Ressourcen auf die Unternehmen losgelassen worden – diese Vereinfachung im IT-Management und Konsolidierung der berüchtigten Blechstraßen in den Serverräumen ist allerdings auf den Einzelnen beschränkt geblieben. Wollte Unternehmen B seine EDV flexibler und ausfallssicher aufstellen, musste von Neuem begonnen werden. Was aber soll sich nun mit dem Konzept des Cloud Computing ändern? Die Antwort ist simpel: Die Cloud ist die neue Hardware, sagen die Hersteller.

Wolkig  bis heiter

Ob rein innerhalb eines Unternehmens (private), ob von externen Dienstleistern wie Google oder Amazon (public) oder in einer hybriden Mischform - Cloud Computing, die Entkoppelung der Anwendungen von der lokalen Infrastruktur, ist für die Zukunft nicht mehr wegzudenken. Da wohl kaum ein Unternehmen in den nächsten Jahren auf ein reines Public-Cloud-Modell umsteigen wird, bei dem alle Applikationen von externen Dienstleistern bezogen würden, aber natürlich dennoch eine Reihe IT-Services von außerhalb bezieht, ist die Hybrid-Cloud mittelfristig das vorherrschende Cloud-Computing-Modell. Bei diesem Modell existieren Anwendungen, die an lokal vorhandene und dedizierte Infrastruktur gebunden sind, beispielsweise in Form von R/3-Servern, neben Elementen von Public Clouds.

Mit der richtigen technischen Grundlage ist es möglich, Anwendungen getrennt voneinander laufen zu lassen und somit abgestufte Sicherheitsstandards, Compliance-Vorgaben und Unternehmensrichtlinien auch in Cloud zu transportieren. Die beiden grundlegenden Voraussetzungen für Cloud Computing – egal in welcher Form – sind Clustering und Virtualisierung. So müssen erstens Ressourcen mehrerer physischer Rechner zusammengeschaltet als ein System erscheinen und zweitens ein System als mehrere Systeme erscheinen, denen je nach Bedarf Ressourcen zur Verfügung gestellt werden. Virtualisierung als Fundament einer dynamischen Ressourcenoptimierung ist übrigens nicht nur die rein technische Grundlage für Cloud Computing: Sie ist explizit auch psychologisch und empirisch-soziologisch von Bedeutung. Denn die Vertrautheit mit Virtualisierung und der damit neu gewonnen Freiheit ist Voraussetzung für eine Annäherung an Cloud Computing.

Nur ein Beispiel für diese logische Kette: In virtuellen Umgebungen gibt es nicht Rechenpower, Speicher und I/O-Breite nach Belieben, sondern nach Service-Level-Agreements. Nach genau diesen SLAs gibt es auch Leistungen in Clouds. Der zweite Schritt wäre ohne den ersten nicht denkbar gewesen.

Frank Hauck, EMC, sieht enorme Nachfrage bei den Unternehmen nach Cloud-Services.Wachstum an Interesse

EMC-Mann Hauck beobachtet, dass in der Branche derzeit das Interesse der Kunden an Cloud Computing schnell wächst. War Cloud Computing bis Anfang 2010 vor allem ein Thema für die Hersteller und Serviceanbieter selbst, die im Basteln von Schnittstellen und durchgängigen Wolken-Architekturen die Grundlage für einen breiten, neuen Markt mit standardisierten Services schaffen, ist diese Idee der Provisionierung auf Knopfdruck nun bei den Kunden angekommen. „Mit einer Servicelandschaft aus der Wolke kann eine geringere Anzahl an IT-Mitarbeitern eine ständig wachsende Menge an Anwendungen servicieren. Auch die Endnutzer fühlen sich dank einer neuen Nutzerfreundlichkeit in der schnellen Bereitstellung von IT besser“, vermutet Hauck. Er weiß: Die Hersteller müssen es so einfach wie möglich für die Anwender – ob Serviceprovider, IT-Leiter oder User – machen. EMC-Geschäftsführer Thomas Barwinek rechnet mit einem Virtualisierungsgrad von 100 Prozent aller Anwendungen in Unternehmen bis zum Jahr 2012. Sorgen müssten sich die Hardware-Hersteller aber trotzdem nicht machen: Die benötigten Kapazitäten werden weiterhin steigen. Hier ist kein Ende in Sicht.

Auch Jan Lange, General Manager bei Colt Technology Services, erwartet ein stabiles Wachstum Cloud-basierter Dienste für die kommenden Jahre. „Wir beobachten, dass CIOs, die sich mit dem Thema beschäftigt haben, deutlich eher für Cloud-Dienste entscheiden als IT-Manager, die das noch nicht getan haben.“ Aus diesem Grund sei zu erwarten, so Lange, „dass mit steigendem Informationsstand auch die Verbreitung von Cloud-Diensten“ anwachsen werde. Freilich sollten Kunden, warnt der Colt-Manager, vor Vertragsabschlüssen mit Anbietern Fragen zum Datenschutz klären. Welche Datenschutzmaßnahmen kommen beim Anbieter zur Anwendung? Sind Drittunternehmen beteiligt? In welche Länder werden die Daten transferiert? Laut den Datenschutzgesetzen ist der Kunde selbst für seine Daten verantwortlich. Als Konsequenz daraus sieht der Gesetzgeber die Unternehmen in der Pflicht, ihren Cloud-Anbieter sorgfältig auszuwählen. Möglicherweise fallen bei dieser Fragestellung Public-Cloud-Anbieter wie Amazon aus dem Rennen. Sie bieten in der Regel keine SLAs.

Jan Lange, Colt, sieht Serviceprovider in der Pflicht, entsprechende Qualitätslevels zu gewährleisten.Transparente Abrechnung

Für Max Schaffer ist der Begriff Cloud Computing wesentlich mehr als nur Wein in neuen Schläuchen. Der Leiter IT-Operations bei T-Systems kennt das Geschäft mit dynamischen IT-Diensten seit Jahren. Sein Unternehmen bietet beispielsweise SAP-Dienste und -Ressourcen flexibel über die Datenleitung an. Neu sei nun die zielgenauere Verrechnungsmöglichkeit von Leistung. Früher galt: Was bestellt wurde – und das bitte schön genügend groß, um auch in Spitzenzeiten erhöhte Auslastungen abfedern zu können –, das wurde auch bezahlt. Die Rechnungen am Ende des Jahres waren legendär und trieben den CFOs regelmäßig den Schweiß auf die Stirne. Dank Cloud Computing soll es künftig cool bleiben. Bestellt wird ein Mindestmaß an Kapazität, welche auf Knopfdruck aber erhöht und ganz ohne Apothekerpreise verrechnet wird. Benötigt ein Unternehmen lediglich zum Jahresabschluss oder am Monatsende für die Lohnverrechnung mehr Rechnerressourcen, werden auch nur diese Leistungen für diesen begrenzten Zeitraum verrechnet. Schaffer sieht diese neue Kundenfreundlichkeit in der Provisionierung von IT-Leistung sogar auf die Handhelds wie Apples iPad wandern. IT-Abteilungen können dann wirklich per Tastendruck oder Regler Ressourcen entweder einkaufen oder entsprechend an die unterschiedlichen Abteilungen einer Firma verteilen. Im Jänner 2011 wird es bei T-Systems erstmals eine adäquate Plattform dazu geben, auf der Server, Storage und Hauptspeicher im Kilopack bezogen werden können. Selbst der Einkauf einer Wurstsemmel wird dann aufwändiger sein – immerhin funktioniert dies immer noch nicht am iPad.

Last modified onMittwoch, 27 Oktober 2010 10:10
back to top