Die Datenspeicherung in Organisationen vor 10 Jahren (ca. 2013) war eine Mischung aus Technologien mit einer erheblichen Abhängigkeit von lokaler Infrastruktur und einer aufstrebenden Cloud-Einführung:
dominante Technologien:
* On-Premises SAN/NAS: Speicherbereichsnetzwerke (SANS) und Network Anhang Storage (NAS) waren die Arbeitspferde. Dies waren große, physische Speicherarrays, die im Rechenzentrum der Organisation untergebracht waren und über Hochgeschwindigkeitsnetzwerke (wie Glasfaserkanal für SANS) verbunden waren. Sie boten für die Zeit ein zentrales Speichermanagement und eine relativ hohe Leistung an.
* Direktanterhaltsspeicher (DAS): Einzelne Server hatten oft ihre eigenen lokalen Festplatten oder SSDs für den direkten Speicher. Dies war weniger effizient, um Daten zu teilen, aber einfacher zu implementieren für kleinere Bereitstellungen.
* Bandsicherung: Klebebandfahrten blieben eine entscheidende Komponente für Langzeitdatenarchivierung und Backup. Während sich das Band langsamer als Festplatte befand, bot Band eine kostengünstige Möglichkeit, große Datenmengen offline zu speichern.
* iscsi: Das Internet Small Computer System Interface wurde immer häufiger und ermöglichte IP-basierte Konnektivität zu Speicherarrays und bietet eine flexiblere Alternative zum Faserkanal.
* Frühwolkenspeicher: Cloud -Speicherdienste wie Amazon S3, Azure Blob Storage und Google Cloud -Speicher wurden entstanden, wurden jedoch noch nicht so weit verbreitet wie heute. Viele Organisationen experimentierten mit ihnen für bestimmte Anwendungsfälle (z. B. Backups, Archivierung) oder für weniger sensible Daten.
* Virtualisierung: Die Servervirtualisierung wurde immer häufiger und führte zu einer effizienteren Verwendung von physischer Hardware, aber die Speichervirtualisierung entwickelte sich immer noch.
Schlüsselunterschiede von heute:
* weniger Wolkenabhängigkeit: Der Cloud -Speicher war im Vergleich zu seiner aktuellen Dominanz ein kleinerer Spieler. Die meisten Daten wohnten vor Ort.
* langsamere Geschwindigkeiten: Während sich die Geschwindigkeiten verbesserten, waren sie im Allgemeinen langsamer als die aktuellen Standards.
* höhere Kosten: Die vorliegende Infrastruktur erforderte erhebliche Voraussetzungen für Hardware, Wartung und Personal.
* weniger Automatisierung: Die Datenverwaltungsaufgaben waren häufig mehr manueller und stützten sich weniger auf Automatisierungs- und Orchestrierungswerkzeuge.
* begrenzte Skalierbarkeit: Die Skalierung der Speicherkapazität erforderte erhebliche Planung und physische Hardware -Upgrades. Die inhärente Skalierbarkeit von Cloud war nicht so leicht verfügbar.
* Datensicherheitsprobleme: Die Sicherheitspraktiken waren in der Cloud und vor Ort weniger ausgereift, mit potenziellen Schwachstellen in beiden Umgebungen.
Kurz gesagt, der Datenspeicher war vor 10 Jahren eine physische, weniger automatisierte und weniger Cloud-zentrierte Landschaft als heute. Die Verschiebung zu Cloud-basierten Lösungen und erhöhter Automatisierung hat die Lagerlandschaft seitdem grundlegend verändert.