Scale-out Systeme
Besonders große Datenmengen (Big Data), die mit Hilfe von Standard-Datenbanken und Datenmanagement-Tools gar nicht oder nur unzureichend verarbeitet werden können und einem stetigen Wachstum unterliegen, werden in Scale-Out Speicherlösungen abgelegt.
Problematisch sind dabei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung dieser Datenmengen: das Volumen geht in die Terabytes, Petabytes und Exabytes.

Eine IDC-Studie zum Datenwachstum belegt, dass sich das weltweite Datenvolumen alle 2 Jahre verdoppelt. Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (CDR) und Web-Zugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren.

Big Data fallen auch in der Finanzindustrie an (Finanz-Transaktionen, Börsendaten), sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet.



WARUM?
  • Filesysteme wachsen jährlich >50%
  • Cloud-Anwendungen erfordern Minimal-Administration
  • Datacenter Class
  • Steigende Performance bei Erweiterung
  • Single Filesystem bis 20 PetaByte