1. Hardwareluxx
  2. >
  3. Tests
  4. >
  5. Hardware
  6. >
  7. Storage
  8. >
  9. Agilität im Rechenzentrum

Agilität im Rechenzentrum

Veröffentlicht am: von

Advertorial / Anzeige:

toshiba logo 2018 neuBig Data, Analytics und Machine Learning, IoT-Anwendungen, On-Demand-Ansätze, Sicherheits- und Backup-Kriterien: Die Anforderungen an Speicherlösungen scheinen massiv zu steigen. Ganz so kompliziert müssen moderne Storage-Lösungen jedoch nicht sein.

Die Notwendigkeiten von Business-Modellen und letztlich des digitalen Lebensstiles der modernen Gesellschaften basieren auf Daten. Dies spiegelt sich in Rechenzentren, weitgehend unbemerkt von Otto Normal, sehr deutlich. Ob für autonomes Fahren, Bildergalerien mit Gesichtserkennung, Videoüberwachung, sicheren Finanzlösungen oder der Millionen an Apps und Anwendungen: Mensch und Maschine produzieren immer mehr Daten oder verarbeiten immer mehr Daten.

Da entsteht schnell der Eindruck, alle Daten müssten jederzeit, bitte in Echtzeit und für einen langen Zeitraum zur Verfügung stehen. Dem ist allerdings nicht so. Die überwiegende Mehrzahl der Anforderungen für Datenzentren lässt sich jedoch gut beschreiben und aufschlüsseln: Resultate sind meist klare Anforderungen, die einen strukturierten Ansatz für die Gestaltung passender und Zukunftssicherer Storage-Lösungen für Rechenzentrum erlauben.

Einsatzbereiche für Storage

In der Vergangenheit teilte man Storage-Segmente in Offline, Nearline und Online, was häufig Backup und Tape-Lösungen, High-Capacity-Festplatten sowie die schnellsten, vorhandenen Laufwerks-Optionen bezeichnete. Heute ist der Ansatz auf Laufwerksebene oder auf Technologietyp nicht mehr zielführend, da in Rechenzentren größere Ansichten auf Storage-Lösungen notwendig sind. Cloud-Anwendungen sorgen dafür, dass nicht mehr in Laufwerken und Gigabyte geplant werden kann, sondern in Systemen, Arrays, Racks oder ähnlichen Einheiten, die in Dimensionen von Performance und Kapazität vordringen, die Otto Normal – oder auch der Autor – nicht mehr wirklich begreifen und deuten können.

Ein Beispiel: Wenn ein Unternehmen einen Service mitsamt Apps und vielfältigen Schnittstellen ankündigt, dann sind die Anforderungen grundsätzlich möglicherweise immens. Ob Netflix, die DB-Navigator-App oder gleich eine digitale Welt wie Facebook: hier müssen Aspekte wie Datentypen, Speicherkapazitäten, Zugriffsformen, Verfügbarkeit, Archivierbarkeit, Skalierbarkeit etc abgewogen werden. Hier wird klar, dass man keiner Anforderung einer Datenlösung „nur“ mit Festplatten, mit SSDs, oder allgemein gesprochen mit einem Paradigma aus der Vergangenheit gerecht werden kann.

In anderen Worten gesagt: für jeden Zweck gibt es die richtige Lösung.

Kapazität vs. Performance

Schnell scheint die Zweiteilung der Anforderungen in diese Kriterien greifbar. Gerade der Wettbewerb zwischen SSDs und Festplatten scheint auf eine klare Aufteilung von Anwendungsfällen, denn SSDs sind allgemeinhin schnell und effizient, während Festplatten viel mehr Daten und dazu viel preisgünstiger speichern. Sobald wir auf Array-Ebene hinauszoomen, oder gar ganze Cluster im Rechenzentrum betrachten, stimmt das so allerdings schlicht nicht.

Bei großen Deployments taugen generell verschiedene Technologien, um gewünschte Ziele zu erreichen. Basierend auf den Anwendungsanforderungen beschriebener Unternehmen und der notwendigen Datenlösungen lässt sich eine Performance X durch ein gewisse Menge an SSD-Laufwerken oder -Systemen erzielen, jedoch genauso auch über eine vermutlich größere Menge an Festplatten. Nun hängt es stark davon ab, wie die anderen Anforderungen aussehen, um eine vernünftige und wirtschaftliche Entscheidung treffen zu können. Bei sehr hohen Anschaffungskosten für eine kleine Anzahl, hoch performanter SSD-Systeme, kann eine größere Anzahl von Hybrid-Systemen mit SSDs und Festplatten, oder gar ausschließlich Festplatten-basierte Systeme, ebenso zum Ziel führen. Hier müssen TCO und auch laufende Kosten, Ausfallraten und Energiebedarfskomponenten Berücksichtigung finden – und auch hierbei ist eine pauschale Entscheidung nicht sinnvoll.

Agile Einsatzmodelle

Schon geringe Änderungen an den Plankonfigurationen, verfügbare Laufwerke, Kostenstrukturen oder Ähnliches führen in der Praxis dazu, dass die vernünftige und wirtschaftliche Wahl anders ausfällt. Der Vergleich mit Projektmanagement-Methoden drängt sich auf: wenn die Anforderungen bzw. der Scope sich rasch ändern, macht eine starre Planung und unflexible Abarbeitung wenig Sinn, sondern agile Methoden mit häufigen Reviews und Einbeziehung vieler Sichtweisen und Kompetenzen in interdisziplinären Teams wird wichtig.

Ähnlich verhält sich das bei der Planung von Storage-Lösungen. Beharren Sie nicht auf starren Aussagen oder Glaubenssätzen. Individuelle Anforderungen verlangen nach individuellen Lösungen. Dabei muss eine Lösung auch keine kategorische Entscheidung für nur eine Technologie darstellen. Viel mehr bedeutet agile Planung für Storage-Lösungen in Rechenzentren, dass verschiedenartige Anforderungen gerne kombiniert werden dürfen.

Festplatten als Backbone

Auch weiterhin werden Festplatten das Rückgrat vieler Storage-Lösungen bilden. Preisvorteile bei hohen Kapazitäten und überall, wo nicht maximale Performance gefordert ist,  jahrzehntelange Erfahrung mit der Technologie, sehr gute Planbarkeit in großen Szenarien inklusive vieler Upgrade-Möglichkeiten vorhandener Storage-Lösungen sichern Festplatten auch in den kommenden Jahren einen festen Platz.

Laufwerksoptionen

Für Echtzeitanwendungen sind unbestritten SSDs die richtige Wahl. Danach ist die Entscheidung aber nicht pauschal zu treffen. Moderne Festplatten wie die MG-Serie von Toshiba für Enterprise-Umgebungen eignen sich für vielseitige Anwendungsfälle in beschriebenen Szenarien aller Kategorien, denn mit steigender Anzahl an Laufwerken in Systemen oder gar sehr vielen Systemen sehen die Kriterien und Kennzahlen anders aus. Schnell machen Festplatten noch immer und quasi auch „wieder“ Sinn. 

Die MG-Serie mit SAS- oder SATA-Schnittstelle und 7.200 U/Min deckt eine große Bandbreite von Kapazitäten von 1 TB (MG04) bis hin zu 14 TB ab (MG07), basiert auf bewährtem Design und Technologie sowie Helium-Füllung inklusive typischer fünf Jahre Garantie und Zielschreibdatenmengen von bis zu 550 TB/Jahr.

Diese Modelle fallen in die Klasse der Nearline-Laufwerke, d.h. sie eignen sich für die Speicherung aller Daten, die nicht permanent bearbeitet und im Zugriff sein müssen. In der Praxis ist dies tatsächlich für die überwiegende Datenmengen der Fall. Greifbar wird das im Fall von „Social“-Anwendungen: Profilinformationen werden meist aktuell eine gewisse Zeit Lang verwendet und werden nach Ablauf einer gewissen Aktualität zu Langzeitarchivdaten in weiterhin schnell verfügbarer Form.

Nur Festplatten wie die MG07 sind heute in der Lage, die Storage-Anforderungen und rasch wachsenden Datenmengen durch Sensoren und steigende Datenqualitätsniveaus zuverlässig, schnell und wirtschaftlich zu speichern.

Weitere Informationen unter https://www.toshiba-storage.com/products/enterprise-capacity-hard-drive-mg-series/

Advertorial / Anzeige:

Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

  • Samsung SSD 980 PRO im Test: Mehr EVO als PRO

    Logo von IMAGES/STORIES/2017/IMG_7578B

    Auch wenn die ersten SSDs mit PCIe4-Interface schon lange erhältlich sind, war vor allem Samsungs Veröffentlichung eines entsprechenden Massenspeichers mit Spannung erwartet. Der Branchenprimus, der durch insgesamt drei Versionen der SSD 970 (PRO, EVO, EVO Plus) immer noch als state of the art... [mehr]

  • Corsair Force Series MP600 im Test: Cooler dank Kühler

    Logo von IMAGES/STORIES/2017/CORSAIR_FORCE_SERIES_MP600_04

    Mit der Force Series MP510 bietet Corsair seit gut anderthalb Jahren eine SSD an, die gleichermaßen in Reviews wie bei Nutzern gut ankam. Beflügelt von PCIe 4.0 soll mit der Force Series MP600 ein würdiger Nachfolger zumindest für die X570-Plattform bereitstehen. Wie gut das klappt, prüfen... [mehr]

  • Samsung SSD 870 QVO im Test: QLC überzeugt immer noch nicht

    Logo von IMAGES/STORIES/2017/SAMSUNG_870QVO_02B

    Als vor knapp zwei Jahren mit der Samsung SSD 860 QVO eine der ersten QLC-SSDs den Hardwareluxx-Testparcours meisterte, war das Fazit noch sehr verhalten und wir mussten festhalten: QLC überzeugt noch nicht! Jetzt schickt Samsung die 870 QVO ins Rennen, um vieles besser zu machen und um auch mehr... [mehr]

  • Western Digital WD Blue SN550 im Test: Modellpflege mit BiCS4 und mehr Lanes

    Logo von IMAGES/STORIES/2017/WD_BLUE_SN550_02_709F0019FC424C08AE22A1282AC7B358_2

    Mit der WD Blue SN550 schickt Western Digital ein deutliches Upgrade seiner Mittelklasse-SSD ins Rennen und setzt sowohl auf neue NANDs wie auch auf mehr Bandbreite. Letzteres war bereits bei der Vorgängerin der Fall, die in unserem Review dennoch nur bedingt überzeugen konnte. Ob sich das nun... [mehr]

  • Crucial P5 im Test: Crucials bisher schnellste SSD

    Logo von IMAGES/STORIES/2017/CRUCIAL_P5_01_504E6A975BA442AAA62BDCA85643D28A

    Geht es in unserem Storage-Forum um Empfehlungen für SSDs, fällt meist auch der Name Crucial: Gerade die MX500 für SATA oder die P1 mit QLC-Speicher können sich in ihren Segmenten einer gewissen Beliebtheit erfreuen. Dabei steht bei beiden Laufwerken ein gutes Preisleistungsverhältnis im... [mehr]

  • Western Digital WD Blue 3D NAND im Test: Nur Masse oder auch Klasse?

    Logo von IMAGES/STORIES/2017/WD_BLUE_3D_NAND_SATA_06_57739472369546149659EF80F8212323

    Geht es um die Wahl eines neuen Hauptspeichers, haben Solid State Drives seit Jahren die Oberhand - zumindest was die Geschwindigkeit angeht. Werden jedoch mehrere Terrabyte Speicherplatz benötigt, ist der Griff zur konventionellen Festplatte immerhin preislich verlockend. Noch werden hohe... [mehr]