»Wir raten Unternehmen, die Standardisierung bei Storage voranzutreiben«
- Written by Martin Szelgrad
- font size decrease font size increase font size
Gerald Sternagl, EMEA Business Unit Manager Storage bei Red Hat, über die Wegrichtung von Software-defined Storage, Auslagerungen und generellen Herausforderungen im Mittelstand und bei großen Unternehmen.
Report: Red Hat hat eine Studie zum Status quo der Storage-Anforderungen in Unternehmen durchgeführt. Wo drückt die IT-Abteilungen der Schuh?
Gerald Sternagl: Die Studie ist im Frühjahr 2016 durchgeführt worden. Mehrheitlich wurden Unternehmen in den USA und UK befragt, allerdings breit gestreut vom Mittelstand angefangen bis hin zu Großunternehmen. Es ist klar herausgekommen, dass der größte Druck im Moment auf Budgetseite herrscht. Bei dem allgemein enormen Datenwachstum sind viele nur noch dabei, Löcher zu flicken. 45 % der Befragten nennen begrenzte Budgets als Hauptproblem.
Storage-Architekturen in den Unternehmen sind meistens historisch gewachsen. Es gibt viele Insellösungen, da eine Konsolidierung von Storage in der Regel heißt, die Zahl der eingesetzten Hersteller auf zumindest einen oder zwei zu reduzieren. Viele Firmen haben dann weniger Hersteller aber immer noch mehrere Generationen an Storage-Lösungen im Betrieb. Das führt zu einer Limitierung der Flexibilität und Ausbaubarkeit der Systeme. In der Studie steht an zweiter Stelle mit 42 % Nennung die Komplexität der Systeme, die viele überfordert. Wenn man im Detail betrachtet, was in einem Storage-Stack alles steckt – verschiedenste Komponenten und Abhängigkeiten, unterschiedliche Hersteller, die im Stack involviert sind – es ist sehr viel IT-Management nötig, bis dies dann in der Applikation als verwendbarer Storage ankommt.
Report: Was raten Sie Unternehmen?
Sternagl: Es kann darauf eigentlich nur eine Antwort geben: die Standardisierung vorantreiben und universelleren Storage einsetzen, der alle Anforderungen – File, Object oder Block – erfüllt und der auch mit den Anforderungen des Unternehmens skalieren kann. Ich meine damit nicht eine Skalierung im Chassis, wie es früher der Fall war, sondern die Möglichkeit der Erweiterbarkeit durch Scale-Out- Architekturen und im laufenden Betrieb.
Die Standardisierung voranzutreiben heißt mitunter auch, auf proprietäre Storage-Systeme zu verzichten, da dort das Preis-Leistungs-Verhältnis lange nicht so gut wie bei Software-defined Storage ist. Auch dort aber gilt es, möglichst Standardsysteme aus dem Regal zu nehmen und auf sonstige Erweiterungen der Hersteller zu verzichten – um sich nicht neuerlich abhängig von den Herstellern zu machen.
Wenn Unternehmen auf Software-defined Storage wechseln oder es auch nur einmal ausprobieren wollen: Wir raten, Use-Cases oder Workloads herzunehmen, die hauptsächlich unstrukturierte Daten betreffen – Archivierung und Backup-Daten zum Beispiel. Wenn in diesem Bereich Erfahrungen gesammelt werden, ist der Aufwand der Umstellung geringer und auch das Risiko eingrenzbar. Ich sage das nicht, weil die Technologie nicht solide ist. Doch es braucht intern genügend Know-how, um den Schritt zu einer Software-definierten Infrastruktur zu machen.
Report: Welche Unternehmen beschäftigen sich früher als andere mit Software-defined Storage?
Sternagl: Aus unserer Erfahrung sind dies Unternehmen, die unter dem größten Kostendruck stehen. So stellen die meisten Unternehmen aus der Telekommunikationsindustrie – sowohl die großen Hardwarehersteller als auch die Provider selbst – derzeit ihre gesamte IT-Infrastruktur auf Software-definierte Architekturen um. Dies betrifft nicht nur Storage, sondern auch die Computing-Ebene und Netzwerk-Virtualisierung. Ich kenne keinen größeren Telco, der nicht eine Initiative dazu im Gange hat. Die können nicht mehr anders. Der Budgetdruck ist in dieser Branche so groß geworden, dass er die Unternehmen ausbremst. Und ausbremsen lassen, das geht gar nicht – da wären Unternehmen ganz schnell aus dem Markt gedrängt.
Report: Die Agilität der Unternehmens-IT wird oft noch vor einem Kostendruck als kritischer Faktor genannt.
Sternagl: Beides ist der Fall. Wir sehen zweifellos einen Budgetdruck, wenn im Telekommunikationsmarkt Unternehmen ihren Kunden Services sogar kostenlos anbieten müssen. Das passiert häufig und muss mit dem IT-System intern kostengünstig abbildbar sein. Die Messlatte dafür sind mittlerweile Public-Cloud-Anbieter. Wenn ein Telco da mit Amazon, Microsoft, IBM oder Google mithalten will, muss er seine IT optimieren. Mit klassischen Ansätzen wie SAN Storage und großen Unix-Servern geht das nicht mehr. Heute geht alles in Richtung Software-defined Infrastruktur auf Industrie-Standard-Servern und die größten Innovationen diesbezüglich kommen aus dem Open-Source-Umfeld.
Report: Ab welcher Storage-Größe in einem Unternehmen raten Sie zu diesem Ansatz?
Sternagl: Es gibt hier keine klare Grenze, doch ab mehreren hundert Terabyte oder einem Petabyte ist es auf jeden Fall sinnvoll, auf Software-defined Storage umzustellen. Unabhängig von der eingesetzten Storage-Architektur sehen wir auch, dass Unternehmen generell überlegen, ihre gesamte Rechenzentrums-IT außer Haus zu geben. Der Mittelständler an sich kann heute nicht mehr das komplette IT-Know-how im eigenen Haus vereinen und setzt auf Software-as-a-Service und Infrastructure-as-a-Service. Einen Unterschied macht vielleicht noch, mit welchen Arten von Daten eine Branche zu tun hat – und welche Datenschutzregeln eine Auslagerung verhindern. Anders als in den USA, wo Amazon im Moment den gesamten Markt überrollt, gibt es in Europa noch viele lokale Provider, welche die IT-Konsolidierung übernehmen.
Bei größeren Unternehmen wiederum rentiert es sich nach wie vor, die IT selbst zu betreiben. Eine Cloud ist ja nicht immer billiger. Der Hauptvorteil der Nutzung von Cloud-Diensten ist die Agilität, die sich daraus ergibt. Diese Agilität kann man mit einer Shared Software-defined Infrastruktur ebenfalls erreichen, gleichzeitig die Kosten durch Standardisierung noch weiter senken und die Sicherheit der Daten gewährleisten. Die Großen können sich entsprechende Strukturen selbst bauen und dabei auf bewährte Open-Source-Technologien wie OpenStack und Ceph als IaaS oder OpenShift, also PaaS, setzen.