Menu
A+ A A-
Warnung
  • JUser: :_load: Fehler beim Laden des Benutzers mit der ID: 91

Extern gelagerte IT und Cloud Computing

Vor einigen Jahren noch undenkbar, haben die Hochverfügbarkeit von Serversystemen und die immer schnelleren Datenleitungen den ausgelagerten Rechenleistungen Tür und Tor geöffnet. Teil 2 der Serie "Virtualisierung".


Die Branchengrößen werben mit Kostenersparnissen, verbesserter Leistung und maßgeschneiderten Modellen. Wie sieht es nun um die Vorteile des Cloud Computing aus und welche Probleme verbergen sich hinter dem Schlagwort das in aller Munde zu sein scheint?

Unter Cloud Computing versteht die Fachwelt im Allgemeinen das Auslagern der Rechenleistung aus der eigenen Firmenstruktur in ein Rechenzentrum. Dabei ist entscheidend den richtigen Zugang zu dieser Rechenleistung immer aufrecht zu erhalten. Als Endgerät kann jeder Rechner mit Internetzugang dienen, wobei die Hersteller derzeit stark auf die Einführung von Thin-Clients setzen. Diese Geräte sind abgespeckte Computer, die im Bestfall nur über Eingabegeräte wie Maus und Tastatur verfügen und ein Ausgabegerät wie den Bildschirm besitzen. Ganz ohne Rechenleistung geht es dann aber doch nicht, da die Daten die von den Servern geschickt werden noch verarbeitet und zumindest für die Darstellung vorbereitet werden müssen. Leise, klein und günstig, so soll der zukünftige Rechner also aussehen. Am Schreibtisch bleibt Platz für andere Dinge und die Rechenleistung der Unternehmen wird nicht mehr selbst verwaltet. Aber nicht nur für Firmenkunden ist die Auslagerung von Software interessant, derzeit sind schon einige IT-Größen drauf und dran einen Markt für private Anwender zu schaffen.

Anbieter und Unterschiede
Derzeit treten auf dem Markt des Cloud Computing mehrere große Anbieter auf, die gerne mit dem Begriff um sich werfen. Nicht jeder versteht darunter allerdings das gleiche. Während sich zum Beispiel Microsoft mit Azure vorerst an die Entwickler von Applikationen richtet ist Amazon schon seit langem ein Anbieter von Infrastrukturlösungen. Unterschieden wird prinzipiell in drei verschiedene Angebote:

•    Infrastructure as a Service versteht das Anbieten von Rechenkapazität für Firmen die ihre Hardwarestruktur auslagern wollen, aber die Software noch selbst konfigurieren und verwalten.

•    Plattform as a Service ist für Entwickler interessant, da hier die Rechenkapazität auf schon vorbereiteten Grundsystemen gemietet wird. Es kann jederzeit Leistung zugemietet werden.

•    Software as a Service ist der letzte logische Schritt in der Reihe und bietet das Abrufen verschiedener Anwendungen zu festgelegten Tarifen im Stundentakt an.

Freie Software für Privatanwender
Private Softwareservices gibt es derzeit schon einige, allen voran Google. Das Unternehmen bietet verschiedene Webdienste an die gut von Einzelpersonen genutzt werden können. Eine ganze Office Suite mit den wichtigsten Funktionen steht ebenso zur Verfügung wie auch Mail, Kalender oder Datenspeicherung. All das vollkommen kostenfrei.

Auch bei Microsoft wurde der Trend erkannt und Windows Live bietet die selben Funktionen zu den selben Konditionen. Nämlich umsonst. Für Private Nutzer stellt sich allerdings die selbe Frage wie für Firmenkunden. Wie sicher ist der Service, wird er immer kostenfrei bleiben und natürlich, wer liest möglicherweise meine Daten mit?

Unternehmer sind gut beraten nicht auf solche Services zurück zu greifen, schließlich sind die Daten bei den meisten der Webservices nicht exklusiv für den Nutzer abrufbar. Unter anderem ist das durch die eingeblendete Werbung die sich nicht selten auf den Inhalt der eigenen Mails bezieht ersichtlich.

Systeme und Anwendungen

Bei den Professionellen Anwendungen gibt es schon seit längerem das Stichwort SaaS,  „Software as a Service“. Hinter dieser Abkürzung versteckt sich nichts anderes als die Möglichkeit Software zu mieten und so nur während des Gebrauchs zu bezahlen. Die Anbieter gehen hierbei davon aus, dass jeder Kunde ein so genanntes Basispaket benötigt. In diesem enthalten sind gewisse Rechenleistungen und auch die Verwendung von Software. Würde der Kunde mehr Rechenkapazität, oder den Zugriff auf verschiedene Programme benötigen die nicht im Basispaket enthalten sind, wird diese dann extra verbucht. Hier ist, ein entsprechend attraktives Zahlungsmodell vorausgesetzt, also die große Flexibilität für den Kunden, der für seine Programme nicht eine einmalige Gebühr sondern einen Zeittarif zahlt. Das Zauberwort lautet also auch hier Kostenersparnis.

Es muss zwischen dem Anbieter der Hardware und dem Anbieter der Softwarelösungen unterschieden werden. Die Anforderungen an das Cloud Computing, wie etwa Hochverfügbarkeit und schnelle Skalierung, setzten enorm große Standorte (mehr als 10.000 Server) voraus um sich zu amortisieren. Eine solche Datencentergröße ist nur für wenige Anbieter finanziell leistbar.

Die Softwareseite des Cloud Computing, die diese Struktur nutzt kann von weit kleineren Unternehmen angeboten werden. Für den Endkunden ist die grundlegende Struktur eigentlich uninteressant, so lange seine Daten sicher und verfügbar sind. Theoretisch wollen die Anbieter von Cloud Computing die IT-Landschaft der einzelnen Betriebe komplett übernehmen und beim Kunden nur mehr Thin-Clients sehen. Das Szenario sieht dann wie folgt aus. Alle Server mit den Anwendungen stehen in einem entfernten Rechenzentrum, beim Kunden stehen die Benutzerrechner und dazwischen betätigt sich der Softwareanbieter der sich um die Verwaltung der Lösungen kümmert.

Die Vorteile für den Kunden liegen auf der Hand. Erstens ist die zur Verfügung gestellte Struktur weit ausfallsicherer weil die großen Systemhäuser mit Hochverfügbarkeitslösungen arbeiten können die für die meisten Unternehmen kaum erschwinglich werden. Auch beim Schutz vor Attacken und Virenbefall ist ein großes Zentrum meist weit besser ausgestattet.

Zum Zweiten lässt sich nun Software einfach in Stunden mieten. Es ist nicht mehr nötig ein Programm zu kaufen um es auch zu nutzen. Gerade bei Betriebssystemen und spezieller Software kann hier enormes Einsparungspotential gegeben sein.

Letztlich gibt es beim vollständigen Auslagern der eigenen Rechenkapazität wesentliche Einsparungen beim Herstellen der Grundinfrastruktur. Große Kostenspitzen beim Anschaffen von teurer Serverhardware fallen weg, nur mehr Endgeräte wie Thin-Clients oder Drucker müssen angeschafft werden.

Die Kehrseite der Medaille
Es gibt aber auch eine Menge Nachteile, wenn es um Cloud-Computing-Dienste geht. Am wichtigsten ist da der Sicherheitsaspekt für die eigene Firma. Alle sensiblen Firmendaten wie die Kundendatenbank, Lagerstände oder Gehaltslisten sind bei einer Fremdfirma ausgelagert. Obwohl natürlich entsprechende Verträge die Aufrechterhaltung der Firmengeheimnisse schützen ist es doch so, dass die Daten nicht mehr persönlich überwacht werden können. Deswegen warnen auch immer mehr Datenschützer vor dem Fall eines unsachgemäßen Gebrauchs solcher Daten. Steht der Server mit allen Daten in der eigenen Firma ist so ein Fall weitgehend auszuschließen.

Weitere Kritik kommt aus der Ecke der Systembetreuer. Wenn die Rechenleistung des eigenen Betriebes ausgelagert ist, schrumpft zwar der Kostenanteil der Erhaltung, aber die Bandbreite der Internetanbindung wird zum entscheidenden Faktor. Fällt diese Leitung einmal aus, ist die gesamte Infrastruktur gelähmt. Dazu kommt, dass eine vollständige Umstellung aller Client-Computer auf Thin-Client-Architektur die Möglichkeit eines Umstieges auf bewährte Konzepte sehr kostspielig gestaltet. Schließlich müssten diese Geräte wieder durch leistungsstärkere ersetzt werden. Zu guter Letzt ist natürlich noch der Kostenfaktor einige Überlegungen wert. Derzeit betonen die Anbieter der Cloud-Computing-Lösung immer wieder welch enorme Kostenersparnis für die einzelnen Betriebe möglich wären.
 
Manche malen Zukunftsperspektiven von Unternehmen aus, in denen keine interne IT-Abteilung Kosten verursacht und die Hardware auf ein paar Endbenutzergeräte beschränkt ist. Software und Systemleistung wird flexibel im Minutentakt gemietet und kann innerhalb von wenigen Augenblicken skaliert werden. Als Vergleich dient immer die Umstellung der Stromversorgung von dezentralen Systemen auf Netzabdeckung. Aber der Vergleich hinkt, denn Daten sind ungleich wichtiger und können bei Missbrauch schnell zu großen Verlusten führen. Zusätzlich gibt es keine Garantien, dass die Angebote noch immer günstiger sind wenn die IT-Landschaft gänzlich von einer Handvoll Großunternehmen zentral verwaltet wird.

Schlusswort
Cloud Computing als Schlagwort vieler schon jetzt einsetzbarer Technologien wird sicher in den nächsten Jahren oft zum Einsatz kommen. Ein vollständiger Wechsel zur extern gelagerten IT-Struktur wird allerdings noch auf sich warten lassen.

Lesen Sie hier: Teil 1 der Serie "Virtualisierung".
Last modified onMittwoch, 15 April 2009 13:43
back to top