1. Hardwareluxx
  2. >
  3. Tests
  4. >
  5. Hardware
  6. >
  7. Storage
  8. >
  9. Agilität im Rechenzentrum

Agilität im Rechenzentrum

Veröffentlicht am: von

Advertorial / Anzeige:

toshiba logo 2018 neuBig Data, Analytics und Machine Learning, IoT-Anwendungen, On-Demand-Ansätze, Sicherheits- und Backup-Kriterien: Die Anforderungen an Speicherlösungen scheinen massiv zu steigen. Ganz so kompliziert müssen moderne Storage-Lösungen jedoch nicht sein.

Die Notwendigkeiten von Business-Modellen und letztlich des digitalen Lebensstiles der modernen Gesellschaften basieren auf Daten. Dies spiegelt sich in Rechenzentren, weitgehend unbemerkt von Otto Normal, sehr deutlich. Ob für autonomes Fahren, Bildergalerien mit Gesichtserkennung, Videoüberwachung, sicheren Finanzlösungen oder der Millionen an Apps und Anwendungen: Mensch und Maschine produzieren immer mehr Daten oder verarbeiten immer mehr Daten.

Da entsteht schnell der Eindruck, alle Daten müssten jederzeit, bitte in Echtzeit und für einen langen Zeitraum zur Verfügung stehen. Dem ist allerdings nicht so. Die überwiegende Mehrzahl der Anforderungen für Datenzentren lässt sich jedoch gut beschreiben und aufschlüsseln: Resultate sind meist klare Anforderungen, die einen strukturierten Ansatz für die Gestaltung passender und Zukunftssicherer Storage-Lösungen für Rechenzentrum erlauben.

Einsatzbereiche für Storage

In der Vergangenheit teilte man Storage-Segmente in Offline, Nearline und Online, was häufig Backup und Tape-Lösungen, High-Capacity-Festplatten sowie die schnellsten, vorhandenen Laufwerks-Optionen bezeichnete. Heute ist der Ansatz auf Laufwerksebene oder auf Technologietyp nicht mehr zielführend, da in Rechenzentren größere Ansichten auf Storage-Lösungen notwendig sind. Cloud-Anwendungen sorgen dafür, dass nicht mehr in Laufwerken und Gigabyte geplant werden kann, sondern in Systemen, Arrays, Racks oder ähnlichen Einheiten, die in Dimensionen von Performance und Kapazität vordringen, die Otto Normal – oder auch der Autor – nicht mehr wirklich begreifen und deuten können.

Ein Beispiel: Wenn ein Unternehmen einen Service mitsamt Apps und vielfältigen Schnittstellen ankündigt, dann sind die Anforderungen grundsätzlich möglicherweise immens. Ob Netflix, die DB-Navigator-App oder gleich eine digitale Welt wie Facebook: hier müssen Aspekte wie Datentypen, Speicherkapazitäten, Zugriffsformen, Verfügbarkeit, Archivierbarkeit, Skalierbarkeit etc abgewogen werden. Hier wird klar, dass man keiner Anforderung einer Datenlösung „nur“ mit Festplatten, mit SSDs, oder allgemein gesprochen mit einem Paradigma aus der Vergangenheit gerecht werden kann.

In anderen Worten gesagt: für jeden Zweck gibt es die richtige Lösung.

Kapazität vs. Performance

Schnell scheint die Zweiteilung der Anforderungen in diese Kriterien greifbar. Gerade der Wettbewerb zwischen SSDs und Festplatten scheint auf eine klare Aufteilung von Anwendungsfällen, denn SSDs sind allgemeinhin schnell und effizient, während Festplatten viel mehr Daten und dazu viel preisgünstiger speichern. Sobald wir auf Array-Ebene hinauszoomen, oder gar ganze Cluster im Rechenzentrum betrachten, stimmt das so allerdings schlicht nicht.

Bei großen Deployments taugen generell verschiedene Technologien, um gewünschte Ziele zu erreichen. Basierend auf den Anwendungsanforderungen beschriebener Unternehmen und der notwendigen Datenlösungen lässt sich eine Performance X durch ein gewisse Menge an SSD-Laufwerken oder -Systemen erzielen, jedoch genauso auch über eine vermutlich größere Menge an Festplatten. Nun hängt es stark davon ab, wie die anderen Anforderungen aussehen, um eine vernünftige und wirtschaftliche Entscheidung treffen zu können. Bei sehr hohen Anschaffungskosten für eine kleine Anzahl, hoch performanter SSD-Systeme, kann eine größere Anzahl von Hybrid-Systemen mit SSDs und Festplatten, oder gar ausschließlich Festplatten-basierte Systeme, ebenso zum Ziel führen. Hier müssen TCO und auch laufende Kosten, Ausfallraten und Energiebedarfskomponenten Berücksichtigung finden – und auch hierbei ist eine pauschale Entscheidung nicht sinnvoll.

Agile Einsatzmodelle

Schon geringe Änderungen an den Plankonfigurationen, verfügbare Laufwerke, Kostenstrukturen oder Ähnliches führen in der Praxis dazu, dass die vernünftige und wirtschaftliche Wahl anders ausfällt. Der Vergleich mit Projektmanagement-Methoden drängt sich auf: wenn die Anforderungen bzw. der Scope sich rasch ändern, macht eine starre Planung und unflexible Abarbeitung wenig Sinn, sondern agile Methoden mit häufigen Reviews und Einbeziehung vieler Sichtweisen und Kompetenzen in interdisziplinären Teams wird wichtig.

Ähnlich verhält sich das bei der Planung von Storage-Lösungen. Beharren Sie nicht auf starren Aussagen oder Glaubenssätzen. Individuelle Anforderungen verlangen nach individuellen Lösungen. Dabei muss eine Lösung auch keine kategorische Entscheidung für nur eine Technologie darstellen. Viel mehr bedeutet agile Planung für Storage-Lösungen in Rechenzentren, dass verschiedenartige Anforderungen gerne kombiniert werden dürfen.

Festplatten als Backbone

Auch weiterhin werden Festplatten das Rückgrat vieler Storage-Lösungen bilden. Preisvorteile bei hohen Kapazitäten und überall, wo nicht maximale Performance gefordert ist,  jahrzehntelange Erfahrung mit der Technologie, sehr gute Planbarkeit in großen Szenarien inklusive vieler Upgrade-Möglichkeiten vorhandener Storage-Lösungen sichern Festplatten auch in den kommenden Jahren einen festen Platz.

Laufwerksoptionen

Für Echtzeitanwendungen sind unbestritten SSDs die richtige Wahl. Danach ist die Entscheidung aber nicht pauschal zu treffen. Moderne Festplatten wie die MG-Serie von Toshiba für Enterprise-Umgebungen eignen sich für vielseitige Anwendungsfälle in beschriebenen Szenarien aller Kategorien, denn mit steigender Anzahl an Laufwerken in Systemen oder gar sehr vielen Systemen sehen die Kriterien und Kennzahlen anders aus. Schnell machen Festplatten noch immer und quasi auch „wieder“ Sinn. 

Die MG-Serie mit SAS- oder SATA-Schnittstelle und 7.200 U/Min deckt eine große Bandbreite von Kapazitäten von 1 TB (MG04) bis hin zu 14 TB ab (MG07), basiert auf bewährtem Design und Technologie sowie Helium-Füllung inklusive typischer fünf Jahre Garantie und Zielschreibdatenmengen von bis zu 550 TB/Jahr.

Diese Modelle fallen in die Klasse der Nearline-Laufwerke, d.h. sie eignen sich für die Speicherung aller Daten, die nicht permanent bearbeitet und im Zugriff sein müssen. In der Praxis ist dies tatsächlich für die überwiegende Datenmengen der Fall. Greifbar wird das im Fall von „Social“-Anwendungen: Profilinformationen werden meist aktuell eine gewisse Zeit Lang verwendet und werden nach Ablauf einer gewissen Aktualität zu Langzeitarchivdaten in weiterhin schnell verfügbarer Form.

Nur Festplatten wie die MG07 sind heute in der Lage, die Storage-Anforderungen und rasch wachsenden Datenmengen durch Sensoren und steigende Datenqualitätsniveaus zuverlässig, schnell und wirtschaftlich zu speichern.

Weitere Informationen unter https://www.toshiba-storage.com/products/enterprise-capacity-hard-drive-mg-series/

Advertorial / Anzeige:

Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

  • Western Digital WD_Black SN850 im Test: Back in Black

    Logo von IMAGES/STORIES/2017/WD_SN850_100

    Zwar konnte uns die WD_Black AN1500 zuletzt noch etwas besänftigen, doch seit der gemeinsamen Ankündigung einer vollwertigen PCIe4-SSD aus dem Hause Western Digital war natürlich vor allem die SN850 das Objekt der Begierde. Nachdem die ebenfalls lang ersehnte Samsung SSD 980 PRO nicht unbedingt... [mehr]

  • Synology DSM 7.0: Ein erster Überblick

    Logo von IMAGES/STORIES/2017/SYNOLOGY-DS1621+

    Advertorial / Anzeige: Ein NAS ist nur so gut wie sein Betriebssystem - das mussten wir in Tests schon oftmals feststellen. Vorreiter der Integration von Funktionen und Optimierung seines Betriebssystems ist Synology. Längere Zeit musste auf eine Aktualisierung des DiskStation Manager (DSM)... [mehr]

  • Synology ändert die Richtlinie zur Verwendung von Festplatten

    Logo von IMAGES/STORIES/2017/SYNOLOGY

    Mit der Markteinführung eigener Festplatten, unter der Artikelbezeichnung HAT5300, hat Synology eine Änderung ihrer Richtlinien zum Betrieb der größeren Enterprise-Produkte bekannt gegeben. Bisher war es bekanntermaßen so, dass Synology – ähnlich wie andere Hersteller – eine... [mehr]

  • Samsung SSD 870 EVO im Test: Der neue SATA-Standard

    Logo von IMAGES/STORIES/2017/VORSCHAU_SAMSUNG_SSD_870_EVO_02

    Ob zuletzt mit der SATA 870 QVO oder der NVMe 980 PRO - auch wenn Samsungs Solid State Drives der jüngeren Vergangenheit stets im Gesamtpaket überzeugen konnten, die immense Erwartungshaltung an den Branchenprimus war meist deutlich höher. Nun schickt sich Samsung an, mit der SSD 870 EVO eine... [mehr]

  • Corsair MP400 im Test: Die bislang beste QLC-SSD

    Logo von IMAGES/STORIES/2017/CORSAIR_MP400_07_E4CC92C7529B4EB186318FB5BB286A54

    Mit den beiden Modellen der Force Series MP510 und MP600 hat Corsair sicherlich zwei der aktuell beliebtesten Solid State Drives im Sortiment. Nun wird diese Serie erweitert, wenn auch ohne den Zusatz der Force Series - mit der MP400. Als erste QLC-SSD soll sie das bisherige Line-up nach unten... [mehr]

  • Seagate Exos X18 im Test: 18 TB ungezügelte Enterprise-Power

    Logo von IMAGES/STORIES/2017/SEAGATE_EXOS_X18_18TB_ST18000NM000J_6_703B97DA0997414FBB6EEFF2ED1BBA80

    Mit der Seagate Exos X18, 18 TB, bringt Seagate die nächste Kapazitätsgröße mit der bereits bekannten Technologie heraus. Beim Test der Exos X16 gingen wir eigentlich davon aus, dass Seagate zur nächsten Größe bereits HAMR, das lange erwartete, neue Aufnahmeverfahren einsetzen würde, jedoch... [mehr]