Komponenten

Drei Deals Symbolisierte Speichertrends im Jahr 2008

#DigitalUnterwegs | Improvisationsworkshop der Kammermusik Akademie mit Markus Becker 3/3

#DigitalUnterwegs | Improvisationsworkshop der Kammermusik Akademie mit Markus Becker 3/3
Anonim

Die Nachfrage nach Speicherkapazitäten steigt insgesamt um etwa 60 Prozent pro Jahr, nach IDC. Ein anderes Forschungsunternehmen, die Enterprise Strategy Group, schätzt die jährliche Wachstumsrate der Daten auf 30 bis 60 Prozent.

"Organisationen haben es schwer, sich mit all diesen Daten zu befassen", sagte ESG-Analyst Lauren Whitehouse. Wirtschaftliche Probleme machen es noch schwieriger, mit eingefrorenen oder gekürzten Budgets, während der Abschwung das Datenwachstum im nächsten Jahr nicht wesentlich verlangsamen wird.

[Lesen Sie weiter: Beste NAS-Boxen für Media-Streaming und Backup]

In diesem Zusammenhang wollen Unternehmen nicht für jedes neue Gigabyte ein Gigabyte an Kapazität in ihren eigenen Rechenzentren bereitstellen, sagten Analysten.

"Was wir in Unternehmen mehr sehen werden, ist ein Schwerpunkt auf Effizienz ", sagte IDC-Analyst Rick Villars. Sie versuchen, die Auslastung ihrer Speicherkapazität sowie anderer IT-Ressourcen zu erhöhen.

Ein großer Teil dieser Bemühungen ist die Virtualisierung von Speicher, die oft mit der Servervirtualisierung einhergeht und 2008 zu einer Mainstream-Technologie wurde. Laut dem Analysten John Webster von Illuminata. Speicheranbieter bieten mehr Virtualisierungsprodukte an und sehen mehr Nachfrage nach ihnen, sagte er. Eine Virtualisierungsfunktion wie Thin Provisioning, mit der Administratoren Speicherkapazitäten einer neuen Anwendung zuweisen können, ohne herausfinden zu müssen, wie viel sie letztendlich benötigen, hilft dabei, Ressourcen besser zu nutzen, so Webster.

Aber zusätzlich zum Trend hin zu logisches Trennen von physischen Ressourcen gab es in diesem Jahr eine Handvoll Akquisitionen, die andere Trends in der Speicherwelt signalisierten.

1. Brocade-Foundry

Am 19. Dezember haben Brocade Communications und Foundry Networks einen Vertrag abgeschlossen, den sie im Juli angekündigt hatten, bevor sie in den rauesten Gewässern der Finanz- und Kreditmärkte seit einer Generation navigieren. Die Fusion, die jetzt auf 2,6 Milliarden US-Dollar geschätzt wird, soll eine bevorstehende Fusion von SAN (Storage Area Network) und LAN-Technologie adressieren.

SAN-Hersteller setzen seit langem auf Fibre Channel, eine spezielle Netzwerktechnologie, die Pakete nicht fallen lässt. In den meisten Fällen basiert das restliche Unternehmensnetzwerk jedoch auf Ethernet, das billiger als Fibre Channel ist und jetzt mit höheren Geschwindigkeiten verfügbar ist. Beides zu verwalten erfordert mehr Adapter auf Speichergeräten und erhöht die Arbeitsbelastung der IT-Abteilung. Die zwei Arten von Netzwerken sind auf eine allmähliche Konsolidierung unter dem FCOE-Standard (Fibre Channel Over Ethernet) ausgerichtet, der Ethernet für Speichersysteme ausreichend zuverlässig machen soll. Dann kann Ethernet das Netzwerk der Wahl zwischen Rechenzentren sein und immer schneller werden.

Brocade war nicht das einzige Unternehmen, das so dachte. Cisco, das das wichtigste Wettbewerbsziel des fusionierten Unternehmens sein wird, hat Nuova Systems im April aufgekauft und gleichzeitig eine Reihe von Routing-Switches angekündigt, die das gesamte Rechenzentrum verbinden sollen. Das Flagschiff Nexus 7000, das Cisco zu einem seiner wichtigsten Produkte überhaupt gemacht hat, ist auf 15T bps (Bits pro Sekunde) skalierbar und verfügt über eine virtualisierte Version des IOS (Internetwork Operating System) namens NX OS. Wie die Kombination aus Brocade und Foundry wird die Nexus-Produktlinie Unternehmen dabei helfen, ihre Speicher- und Computing-Ressourcen zu virtualisieren und Netzwerk- und Managementfunktionen zu rationalisieren.

EMC und NetApp haben dieses Jahr auch FCOE-Produkte eingeführt. Bis voraussichtlich 2010 wird das Protokoll jedoch nicht weit verbreitet sein.

2. IBM-Diligent

Im April erwarb IBM Diligent Technologies, die auf Datendeduplizierung für Speichersysteme großer Unternehmen spezialisiert ist. Das Unternehmen gab nicht bekannt, wie hoch die Anschaffungskosten waren, aber es war ein wichtiger Schritt in einem Markt, der bis zum Jahr 2009 auf einen Jahresumsatz von 1 Milliarde US-Dollar wachsen könnte, so das Forschungsunternehmen The 451 Group.

Deduplizierungssysteme finden identische Daten in einem Speichersystem, behandeln sie als redundant und eliminieren sie. Wenn also mehrere nahezu identische Kopien eines Dokuments vorhanden sind, werden alle gelöscht, mit Ausnahme einer Kopie und den Unterschieden, die für die anderen Kopien eindeutig sind.

Der Diligent-Deal war ein früher Schritt in einem Jahr voller Deduplizierungsaktivitäten. Im Juni stellte Hewlett-Packard eine Reihe von Deduplizierungssystemen für kleine und mittelständische Unternehmen vor und ergänzte die HP StorageWorks Backup-Reihe um einige Funktionen. Und im November sagten EMC, Quantum und Dell, dass sie eine gemeinsame Software-Architektur für Datendeduplizierungsprodukte verwenden würden. Dell wird nächstes Jahr in das Deduplizierungsgeschäft einsteigen. Es ist bereits ein wichtiger Wiederverkäufer von EMC-Geräten, eine Partnerschaft, die im Dezember bis 2013 verlängert wurde.

Datendeduplizierung kann die Menge an Speicherkapazität, die ein Unternehmen benötigt, um bis zu zwei Drittel reduzieren, so das Whitehouse der ESG. Es war schon früher verfügbar, aber in diesem Jahr begannen Unternehmen, es mit Speicher-Arrays zu integrieren oder es in Appliances zu verkaufen, um die Technologie näher an eine schlüsselfertige Lösung zu bringen, sagte sie. Sie haben auch eine Datendeduplizierung als eine Technologie etabliert, der die Kunden vertrauen können, zumindest für archiviertes Material.

"Wenn Sie einen Datenblock eliminieren, der den Wert dieser Daten bei der Wiederherstellung irgendwie negiert … ist das eine erschreckende Aussicht einige Firmen ", sagte Whitehouse.

Bislang nutzen die meisten Unternehmen nur Sekundärspeicher oder die archivierten Informationen, die für die Aufbewahrung gesichert werden, sagte sie. Der nächste Schritt wird die Deduplizierung für den primären Speicher sein, also die Daten, die die Anwendungen in Echtzeit verwenden. Die Nutzer werden im nächsten Jahr beginnen, der Technologie genug zu vertrauen, sagte sie. Im Juli hat NetApp seine Speichervirtualisierungsprodukte der V-Serie erweitert, sodass sie Deduplizierung auf primären Speichersystemen von Drittanbietern wie EMC, Hitachi und HP durchführen können.

3. EMC-Pi

Ende Februar kaufte der Enterprise-Storage-Riese EMC Pi, einen Anbieter von Software und Online-Diensten für Verbraucher, um persönliche Informationen zu speichern, die lokal oder online gespeichert sind. Der Deal, der auf den 2007 erfolgten Auskauf des Online-Backup-Anbieters Mozy folgte, war ein Zeichen für das wachsende Interesse an Cloud-Speicher.

Die Weitergabe von persönlichen oder Unternehmensdaten an Festplatten von Drittanbietern und den Zugriff über das Internet kann weniger sein teure Alternative zur Bereitstellung all dieser Kapazitäten in Ihrem Rechenzentrum oder Heimnetzwerk. Es kann in Verbindung mit Cloud-basierten Anwendungen verwendet werden, aber auch nur für die Archivierung oder Disaster Recovery, sagte Illuminata Webster. In vielen Fällen kann der Cloud-Speicherdienst als Ziel eingerichtet werden, wenn Daten gesichert werden. Die Informationen können nur an die Cloud oder an die Cloud und gleichzeitig an ein dediziertes Bandsicherungssystem gesendet werden.

Angesichts der sich abschwächenden Konjunktur wird der Cloud-Speicher nächstes Jahr groß sein, glaubt Webster. Durch monatliche Zulagen für zusätzliche Kapazitäten werden diese Kosten aus dem Kapitalbudget der IT-Abteilung und dem operativen Budget abgezogen, das in schwierigen Zeiten leichter zu finanzieren ist, sagte er. Es ist auch relativ schnell, weil nichts gekauft oder installiert werden muss, fügte er hinzu.

Eine verwandte Option, Managed Services, könnte auch im kommenden Jahr starten, sagte Webster. Während sie ihre eigenen Speichersysteme intern halten, können Unternehmen einen Anbieter wie Brocade oder IBM dafür bezahlen, diese für sie remote zu verwalten. Der Anbieter kann Warnmeldungen über eine Appliance am Standort des Kunden überwachen und bei Bedarf reagieren. Wenn IT-Mitarbeiter gekürzt werden müssten, könnte dies eine Möglichkeit sein, die Service-Levels für den Rest des Unternehmens aufrechtzuerhalten, so Webster.