Menu
A+ A A-

Storage-Trends 2011

\"JeZumindest beim Datenwachstum war von der Wirtschaftskrise nichts zu bemerken. Marktforschern zufolge soll das digitale Universum -  die Gesamtheit aller digitalen Daten - von 800.000 Petabyte im Jahr 2009 auf 1,2 Millionen Petabyte im Jahr 2010 anwachsen. Mittlerweile ist bereits von 35 Zettabyte – also 35 Millionen Petabyte – zum Ende diesen Jahres die Rede.

Laut IDC wächst auch die Lücke zwischen den erzeugten digitalen Daten und der verfügbaren Speicherkapazität. Wäre beispielsweise 2009 jedes Byte auch tatsächlich gespeichert worden, so hätte die weltweit verfügbare Speicherkapazität nicht ausgereicht. IDC spricht von 35 Prozent Unterdeckung und geht von 60 Prozent bis 2020 aus.

Mit Blick auf die Möglichkeiten von Storage und Datenmanagement lässt sich einiges tun, um das Datenwachstum abzuschwächen. Technologien wie Deduplizierung, Thin Provisioning und Storage-Virtualisierung tragen bereits heute dazu bei, Hardware-Ressourcen besser auszulasten und Datenbestände zu reduzieren – und letztlich auch die Kosten der IT zu senken. Wie geht es bei den Storage-Technologien weiter? Mit welchen Entwicklungen ist zu rechnen?

Ethernet als konvergentes Netzwerk

10 Gbit Ethernet (GbE) und Fibre Channel over Ethernet (FCoE) sind auch 2011 ein großes Thema. Das wachsende Angebot an kostengünstigen Infrastrukturlösungen wird die Verbreitung der beiden Protokolle ebenso fördern wie der Vorteil einer „Single Wire“-Architektur. Wofür bislang zwei Netzwerkinfrastrukturen mit redundanten Verkabelungen und Switchen erforderlich waren, wird künftig eine Netzwerkinfrastruktur ausreichen. Das führt zu vereinfachten Infrastrukturen mit größerer Flexibilität, Skalierbarkeit und deutlichen Kosteneinsparungen. In Zeiten, in denen IT-Abteilungen möglichst kosteneffizient handeln müssen, ist das ein willkommener Pluspunkt. Zusammen mit FCoE ermöglicht 10 GbE die Konsolidierung von Storage- und Datennetzwerken in einer einheitlichen Infrastruktur.

Solid-State-Technologie
Massenspeicher auf der Basis von Solid-State-Technologie werden im Enterprise-Markt weiterhin auf dem Vormarsch sein und, sofern aus Kosten-/Nutzengründen sinnvoll, herkömmliche Festplatten teilweise ersetzen. Neben nach wie vor sehr teuren Solid State Disks oder Arrays sind automatisierte Methoden wie Solid-State-basiertes Caching die derzeit effektivste Art und Weise den technologischen Vorteil kommerziell zu nutzen. Letzteres erlaubt eine hybride Struktur aus Solid-State-Technologie und herkömmlichen Festplatten. Das hat gleich zwei Vorteile: Ein „Tiered Storage“-Ansatz, bei dem zwei Technologien ohne aufwändiges Management verwendet werden. Außerdem bleiben bei zugriffgesteuertem Caching Storage-Management-Features wie Deduplizierung, Kompression, Snapshots und Replizierung erhalten und lassen sich weiterhin nutzen.

Effizienz
Datacenter-Effizienz bleibt auch 2011 einTopthema und spielt beim Aufbau oder der Umgestaltung von Rechenzentren eine zentrale Rolle. Eine effiziente Ressourcennutzung, der Einsatz möglichst umweltfreundlicher Konzepte und kostensparender Technologien sowie der Weg zu dynamischen, flexiblen Infrastrukturen fordern den Herstellern weitere Entwicklungen und deren nahtlose Integration ab. Beim Storage werden vor allem Features wie Deduplizierung, Kompression, virtuelle Kopien und FCoE im Mittelpunkt der Aufmerksamkeit stehen. In diesen Bereichen ist im kommenden Jahr einiges an Innovationen zu erwarten.

Shared Infrastructure
Virtualisierung war in, ist in und bleibt in. Auch 2011 wird der Virtualisierungstrend weitergehen. Egal ob Storage, Server oder Desktop, Unternehmen werden weiterhin auf diese Technologie setzen, um ihre Infrastrukturen effizienter und dynamischer zu gestalten. Eine der zentralen Voraussetzungen für den Erfolg eines Virtualisierungskonzepts ist dabei eine so genannte Shared Infrastructure, also eine gemeinsam genutzte Infrastruktur, die es ermöglicht, mehrere Dienste und Kundengruppen von einer einzigen, integrierten Plattform aus zu unterstützen. Wichtige Kriterien einer Shared Infrastructure sind dabei die horizontale und vertikale Skalierbarkeit, Flexibilität, Storage-Effizienz-Features, eine einheitliche Architektur, integrierter Datenschutz, ein unterbrechungsfreier Betrieb, sichere Mandantenfähigkeit und Datenmobilität.

Storage-as-a-Service, Cloud Computing
Backup, Disaster Recovery und Archivierung sind Applikationen, die generell für Service-Angebote in Frage kommen. Der erforderliche Aufwand an Equipment, Know-how und Kapital erscheint manch einem IT-Chef oder Geschäftsführer zu hoch, so dass sich ein Kostenvergleich lohnt und die Verlagerung dieser Applikationen in die Cloud eine echte Alternative sein kann. Erste Unsicherheiten und Skepsis gegenüber dem Einsatz dieser neuen Service-Art in der Cloud dürften mittlerweile überwunden sein. Mit einem wachsendem Angebot bei Storage-as-a-Service und steigender Nachfrage darf 2011 also gerechnet werden.

Eines ist sicher: Das Datenwachstum wird nicht nachlassen. Im Gegenteil. Je weiter die Digitalisierung voranschreitet, desto lauter wird der Ruf nach Konzepten und Möglichkeiten, um die Datenflut einzudämmen. Aus technischer Sicht lässt sich mit Virtualisierung und diversen Methoden zur effizienten Storage-Auslastung sehr viel erreichen.

Zum Autor
Ewald Glöckl ist Regional Manager Austria and Eastern Europe, NetApp.

back to top