NetApp EMEA Partner Excellence Award 2020
Als einziger Partner der Schweiz erhält die ITRIS One AG einen NetApp EMEA Partner Excellence Award 2020 in der Kategorie Outstanding Growth in FY2020!
- Published in Allgemein, Cloud Solutions, Datacenter
Veeam Webinar Trilogy Cloud Data Management
In der neuesten Webinar Trilogy zu Cloud Data Management sprechen Experten der Veeam Schweiz über Cloud Backup, Data Protection für AWS und mehr.
ITRIS One AG ist erneut NetApp Star Partner
Als umsatzstärkster Schweizer Partner hat ITRIS One erneut den NetApp Star Partner Status erreicht. Das ist der höchstmögliche Status, den NetApp vergibt.
- Published in Allgemein, Datacenter, News
Neue Anforderungen ans Home Office nach Corona
Zu Beginn der Corona-Krise schickten viele Unternehmen einen Grossteil ihrer Mitarbeiter schnell ins Homeoffice. Die grösste Herausforderung lag darin, den Zugang zum Unternehmensnetzwerk herzustellen, um die Arbeitsprozesse ohne Produktivitätsverluste fortzuführen und gleichzeitig die IT Sicherheit zu gewährleisten.
- Published in Allgemein
Blockchain als Gamechanger
Die dezentral aufgebaute Datenbanktechnologie Blockchain ist eine bahnbrechende Innovation, welche nicht nur Bitcoin beflügelt, sondern generell die IT Industrie – nein sogar jede Industrie – fundamental verändern kann.
Unter einer Blockchain (Blockkette) versteht man eine Datenbank, deren Integrität (Sicherung gegen nachträgliche Manipulation) durch die Speicherung des Hashwertes des vorangehenden Datensatzes im jeweils Nachfolgenden, also durch kryptographische Verkettung, gesichert ist. Dieses Verfahren kann nicht nur für Kryptowährungen, sondern auch in verteilten Systemen zur Vereinfachung der Transaktionssicherheit gegenüber zentralen Systemen verwendet werden. Die Blockchain ermöglicht eine Einigkeit zwischen Knoten in dezentralen Netzwerken.
Das Konzept der Blockchain als verteilte Datenbank wurde erstmals 2008 von Satoshi Nakamoto im White Paper zu Bitcoin beschrieben. Bitcoin war im Jahr 2009 die erste Implementierung einer öffentlich verteilten Blockchain.
Die folgenden zwei Videos geben einen Einblick in die Blockchain und deren Auswirkung auf die heutige Industrie.
- Published in Allgemein
Flash Technologie beschleunigt Applikationen
In den letzten Jahren hat die Flash Technologie grosse Fortschritte gemacht. Ein Ersatz der traditionellen Harddisk ist bereits heute denkbar, doch wie und wo macht es Sinn? Die grosse Herausforderung ist nach wie vor der hohe Preis und die geringere Datendichte. Durch eine intelligente Nutzung der Technologie, können Sie jedoch bereits heute Ihre Infrastruktur um Faktoren beschleunigen und dies nicht unbedingt bei einem höheren Preis!
Was ist Flash?
Flash Memory ist eine nicht flüchtige Speichertechnologie welche elektrisch gelöscht und programmiert (gefüllt) werden kann. Diese Technologie wird heute hauptsächlich in USB Speicher Sticks und Flash Cards für das Transferieren oder allgemeine Speichern von Informationen zwischen Computern und anderen digitalen Produkten eingesetzt. Es ist ein spezifischer Typ von EEPROM (Electrically Erasable Programmable Read-Only Memory) welcher in grossen Blöcken gelöscht und neuprogrammiert wird. Zu Beginn der Flash Technologie mussten die ganzen Chips gelöscht und neu programmiert werden. Flash Speicher kosten einiges weniger als byte-programmable EEPROMs und wurden deshalb zur dominanten Technologie, wo auch immer ein Bedarf für eine hohe Anzahl von beständigem Speicher nötig ist.
Flash Memory braucht keinen Strom um die Informationen im Speicher zu behalten. Der grösste Vorteil ist jedoch der sehr schnelle Lese-Zugrif, die äusserst geringe Empfindlichkeit auf Vibrationen und Bewegungen und die hohe Verträglichkeit mit extremen Temperaturen.
Was ist NAND?
Die NAND Flash Architektur wurde im Jahre 1989 eingeführt. Auf diesen Speicher wird fast wie auf Block Speicher z.B. Harddisks zugegriffen. Jeder Block besteht aus einer Anzahl von Seiten (Pages). Diese Seiten (Pages) haben eine typische Grösse von 512, 2024 oder 4096 Bytes. Verbunden mit jeder Seite ist eine geringe Anzahl von Bytes (meistens 12-16 Bytes) welche zur Fehler-Suche und Korrektur verwendet werden (Checksumme).
Weil das programmieren auf Basis von Seiten stattfindet, können Informationen lediglich auf Block Basis gelöscht werden. Eine weitere Limitation von NAND Flash ist das Daten innerhalb von einem Block sequentiell geschrieben werden müssen. Die Anzahl von Operationen pro Sekunde (NOPs) entspricht der Anzahl in welcher ein Sektor pro Sekunde programmiert werden kann. Bis heute entspricht diese Anzahl bei MLC (Multi Level Cell) Speicher dem Wert 1 und bei SLC (Single Level Cell) Speicher dem Wert 4!
NAND Speicher benötigen wie andere Speichertechnologien für das Bad Block Management einen separaten Kontroller Chip. SD Karten – zum Beispiel – beinhalten einen «Controller Cicuitry» um das Bad Block Management und Wear Leveling zu machen.
SLC vs MLC NAND Flash
MLC (Multi Level Cell) NAND Flash ermöglicht jeder Speicherzelle das Speichern von 2Bits. SLC (Single Level Cell) NAND Flash speichert 1Bit pro Zelle. Als Daumenregel gilt das MLC Chips also gut zweimal soviel Daten wie SLC Chips speichern können. Ausgewachsene und bewährte MLC Chips werden allgemein in Kostensensitiven Konsumerprodukten wie Handys, Notebooks und Speicherkarten verwendet.
Der signifikante Anteil von NAND Flash basierten Speicherkarten werden heute aus MLC NAND hergestellt und der schnell wachsende Absatz beweist das diese Technologie den Kundenanforderungen entspricht. Der Nachteil der speicherstarken MLC Chips liegt jedoch in der langsamen Schreib- und Lösch-Leistung wie auch in der reduzierten Schreib/Lösch Zyklen.
Wegen der Speicherung von 2Bits pro Zelle, ist das Risiko bei MLC Speicher für Bit Errors höher als bei SLC Technologie. Dies wird jedoch durch das Verwenden von «Error Detection» und «Correction Codes» (EDC) weitestgehend kompensiert. EDC ist eine bekannte Methode welche auch bei Harddisks, CD-ROM oder DVD-ROM verwendet wird.
SLC NAND ermöglicht gut 100’000 Schreibzyklen (schreiben/löschen) per Block mit 1Bit ECC. MLC NAND ermöglicht generell 10’000 Zyklen. Dabei wird bei MLC meistens ein 4Bit ECC verwendet. Auf dieser Basis kann gesagt werden dass ein SLC Speicher gut 10x länger durchhält als ein MLC Speicher.
Die folgende Tabelle zeigt die Vor-/Nachteile der beiden NAND Flash Typen:
In Enterprise Speichersystemen wird bevorzugt SLC NAND Flash Technologie eingesetzt. Während bei Read Caches auch MLC NAND Flash eingesetzt werden kann, ist beim Write Caching SLC NAND Flash ein MUST.
Warum soll ich Solid State Disk Technologien auf NAND Flash Basis einsetzen?
Der grösste Vorteil von Flash basierten SSDs ist deren Latenzzeit. Die Leistung von Flash ist unüblich, da sie hoch asymmetrisch ist. Ein Block auf Flash Basis muss zuerst gelöscht werden, bevor er beschrieben werden kann. Dies Aktion (löschen/schreiben) dauert zwischen 1 – 2ms. Das Schreiben auf einen bereits gelöschten Flash Block dauert jedoch lediglich 0.2-0.3ms. Die meisten Flash basierten Disks oder PCI-E Karten versuchen stets einen Pool von bereits gelöschten Blocks zu haben, so dass die Schreiblatenz durchgehend optimal bleibt und lediglich eine Operation ausgeführt werden muss. Leseoperationen sind viel schneller, für ein 4k Block dauert das ca. 0.025 – 0.03ms. Flashbasierte SSDs verwenden meistens zusätzliches DDR Memory um eine optimale Schreibperformance sicherzustellen. Dieses RAM ist durch einen Capacitor vor Datenverlusten geschützt. Die Charakteristik von Flash ist eher vergleichbar mit RAM als mit der traditionellen Disk Technologie.
Konventionelle Speicherlösungen verwenden einen Mix von dynamischen Speicher (DRAM) und Harddisks. DRAM verbraucht viel Strom und hat eine limitierte Datendichte. Flash Speicher passt genau zwischen diese zwei Komponenten als Sweet Spot. Zum einen ist Flash signifikant günstiger in der Anschaffung, hat einen reduzierten Stromverbrauch und eine massiv höhere Datendichte als RAM, zum anderen ist Flash um Faktoren schneller als Disks.
Die Flash Technologie erweitert die Speicherindustrie um einen zusätzliches «Tier». Vermutlich ist Flash die signifikanteste Speichereinführung seit der Erfindung der Harddisk RAMAC im Jahre 1956.
Wie soll ich die Flash Technologie einsetzen?
Wie bereits im oberen Kapitel erwähnt, ist die Flash Technologie von der Charakteristika eher mit RAM zu vergleichen als mit traditionellem Disk Speicher. Die gegenüber der Harddisk noch limitierte Kapazität sowie höheren Anschaffungskosten, erfordern ein Intelligentes Design um die Vorteile der Technologie optimal zu nutzen. Der optimale Einsatzort von Flash Speicher liegt im Caching-Umfeld, also dort wo RAM als Cache nicht genügend Kapazität bieten kann und die traditionellen Harddisks leistungsmässig an ihre Grenzen stossen, oder bei intelligenten Speichersystemen welche Funktionen wie Deduplication und Compression für die Datenreduktion verwenden.
Lösungen auf Basis der Flash Technologie
Die Speicherindustrie musste nicht lange mit neuen Lösungen auf sich warten lassen. Während andere Hersteller Flash basierte SSDs als klassische Diskerweiterungen in ihre Produktpalette aufgenommen haben, haben NetApp und Sun Microsystems die Flash Technologie als erstes in Ihre Produkte nach dem Caching-Prinzip integriert. Das Speichersystem erkennt automatisch welche Daten «heiss» sind und legt diese zusätzlich auf dem schnellen Flash Speicher ab. Eine äusserst effiziente Art und Weise die Vorteile sämtlicher Technologien (DRAM, FLASH, DISK) zu nutzen. Die Speicherprodukte haben sich in den letzten zwei Jahren enorm weiterentwickelt und so gibt es heute von NetApp wie auch Pure Storage und Nimble Storage äusserst intelligente Disk Arrays, welche die Flash Technologie kombiniert mit platzreduzierenden Techniken wie Deduplication und Compression effizient einsetzen.
- Published in Allgemein
Effizienz dank Deduplikation
Die Deduplikations Technologie hat in den letzten Jahren enorme Fortschritte gemacht und wird heute sogar auf High-End Online Speicher Systemen eingesetzt. Die Technologie sollte jedoch nicht für alle Speicheranforderungen eingesetzt werden. Durch eine intelligente Nutzung der Technologie, können Sie jedoch heute Ihre Infrastruktur um Faktoren optimieren und dies bei einem niedrigeren Preis in der Anschaffung und im Betrieb!
Was ist Deduplikation?
Deduplizierung (engl. Deduplication) oft auch als SIS (Single Instance Storage) bekannt, ist in der IT ein Prozess, der redundante Daten identifiziert und eliminiert. Systeme mit Deduplizierung arbeiten anders als klassische Kompressionsverfahren, die nur wenige Vergleichsmuster benutzen. Allgemein kann Deduplizierung auf unterschiedlichen Ebenen wie z.B. Datei, Segement oder Block eingesetzt werden. Um die Duplikate zu finden, wird die Information mit einem Hash Algorithmus versehen. Oft wird dabei mit MD5 oder SHA-1 Algorithmen gearbeitet. Ob Block oder Segment, jeder Datenteil erhält einen eigenen Hash Wert, welcher in einer Art Index abgelegt wird. Haben Informationen den selben Hash-Wert, können sie als einheitlich betrachtet werden und müssen lediglich ein einziges mal gespeichert werden (Single Instance). Wird bei einer Blockdeduplizierung lediglich ein Teil einer Datei verändert, müssen nur die geänderten Blöcke mit einem neuen Hash-Wert versehen werden und mit der Index Datenbank verglichen werden.
Die ersten Systeme mit Deduplizierungstechnik wurden im Backupsegment eingesetzt. Backup profitiert traditionell stark von der Deduplizierung, da diverse «Full-Backups» aus Sicherheitsgründen aufbewahrt werden. Hat ein produktives System 20GB Daten, braucht man mit traditionellen Backupmethoden bei Weekly-Full Backups mit einer Aufbewahrungszeit von 3 Monaten mindestens 10x mehr Platz auf der Backupinfrastruktur. Dies obwohl vermutlich 90% der Daten stets identisch waren! Dank der Deduplizierung benötigt man nun nur noch marginal mehr Speicher, was wie folgt illustriert wird:
Backup Volumen = Fullbackup + veränderte und eindeutige Daten über den Zeitraum der Aufbewahrungsfrist
Was für Methoden der Deduplizierung gibt es?
Es gibt mehrere Methoden zur Deduplizierung. Je nach Anforderung, hat jede Methode seine Stärken und Schwächen. Am Markt wird meist in zwei Gruppen unterschieden, wobei von jeder Gruppe ein Merkmal in einer Deduplizierungslösung vorhanden ist.
- Inline vs Nearline Deduplizierung
- Segment vs Blocklevel Deduplizierung
Merkmal 1: Inline vs Nearline Deduplizierung
Die Deduplizierungstechnik hat auch seine Herausforderungen. Will man Daten die noch nicht geschrieben wurden bereits beim Transfer deduplizieren, so erhöht das die Latenz, da zusätzliche CPU und IO Zyklen dafür nötig sind. Diese Technik wird Inline Deduplizierung genannt. Der Vorteil dieser Technik liegt auf der Hand. Daten die bereits existieren belasten das meist schwächste Glied in der Speicherkeite, die Harddisk, nicht ein weiteres mal. Grosse und sequentielle Datenströme werden effizient abgearbeitet. Der Nachteil durch die erhöhte Latenz kann, gerade auf kleine aber mengenmässig viele IOs, einen starken Einfluss haben. Durch die physikalischen Gegebenheiten der Inline Deduplizierung, wird sie heute noch selten bei Online Speichersystemen eingesetzt. Dank dem jedoch schnell verändernden CPU Markt, wird diese Schwäche mit der Zeit immer geringer, da diese Methode 100% von der Leistung der CPU abhängt.
Das Nearlineverfahren ist ein guter Kompromiss. Daten werden auf Basis von Schedules dedupliziert, wobei beim ersten Durchgang sämtliche auf dem Volume basierten Daten dedupliziert werden. Anschliessend werden lediglich die Daten analysiert, welche seit der letzten Deduplizierung neu dazugekommen sind. Der Vorteil dabei ist, dass zwischen den Deduplizierungsvorgängen das System beim Schreiben von Daten sich wie ein traditionelles Speichersystem verhält. Beim Lesen der Daten profitiert man weiterhin von der Deduplikation! Der Nachteil dieses Verfahrens liegt im Prinzip das Daten zweimal verarbeitet werden müssen. Beim ersten mal werden die Daten traditionell gespeichert um anschliessend beim nächsten Deduplizierungsdurchgang erneut gelesen und verarbeitet zu werden. Bei Systemen die zu 100% 7x24h ausgelastet sind, kann dies zu einer Einschränkung der Leistung während der Deduplikation führen, was jedoch selten bei Kunden anzutreffen ist!
Merkmal 2: Segment vs Blocklevel Deduplizierung
Die Blocklevel Deduplizierung ist eine simple Methode der Deduplizierung. Jeder Datenblock wird mit einem eigenen Hash-Wert versehen. Rein theoretisch zählt diese Methode zu den effizientesten Methoden der Deduplizierung, resultiert jedoch in einer sehr grossen und strukturell komplexen Index Datenbank. Die meisten Hersteller limitieren darum auch die maximale Grösse eines solchen Volumes auf wenige TB.
Die Segment Deduplizierung wird immer in Kombination mit der Inline-Deduplizierung verwendet. Dabei wird ein Datenstrom analysiert und in variable Segmente z.B. 16k – 4k aufgeteilt und analysiert. Ist ein Hash-Wert eines Segments bereits vorhanden, muss das vollständige Segment nicht erneut abgelegt werden. Gerade bei Backuplösungen ist dies eine sehr effiziente Methode, welche die Deduplizierungsdatenbank auch volumenmässig in Grenzen hält.
Wo macht Deduplikation Sinn?
Aktuell sind wir in der IT fleissig am Zentralisieren. Der «IT as a Service» Ansatz führt zu einer starken Konsolidierung. Gerade in virtualisierten Umgebungen wo ganze Desktops virtuell betrieben werden, würde der traditionelle Ansatz zu einer enormen Speicherineffizienz führen. Warum soll das virtuelle C: Drive von 1000 Desktops welche zu 99% identisch ist mehrfach auf dem zentralen Speicher abgelegt werden? Dank der Deduplizierungstechnologie können gerade bei virtualisierten Infrastrukturen Platzeinsparnisse von > 80% erzielt werden. Sprich, statt 1TB werden nur noch weniger als 0.2TB benötigt. Die intelligenten Systeme von NetApp profitieren zudem von der Deduplikation im Cache Bereich. Daten werden dedupliziert sowohl im RAM als auch auf FLASH abgelegt. Gerade bei diesem kostspieligen und mengenmässig kleinem Speicher profitiert man stark von der Deduplizierung.
Der Vorteil der Deduplizierungstechnologie im Backupumfeld ist erheblich. Wo früher diskbasierte Backuplösungen nicht bezahlbar waren, sind genau diese heute dank dieser Technologie immer öfters kosteneffizienter als traditionelle Tape Methoden.
Die folgende Liste zeigt grob auf wo Deduplizierung eingesetzt werden sollte. Die Liste erhebt dabei nicht den Anspruch abschliessend zu sein:
- Backup
- Virtuelle Infrastrukturen, im speziellen VDI
- Datenarchive
- Home Verzeichnisse
- PST Dateien
- Exchange 2010 (hat kein SIS mehr)
Wo sollte auf Deduplikation verzichtet werden?
Sie mögen nun wohl denken «Super, dann deduplizieren wir doch gleich ALLES!» Dieser Ansatz kann wegen den existierenden Schwächen der Deduplizierung jedoch einen verheerenden Einfluss auf die Leistungsfähigkeit Ihrer Infrastruktur haben. Klassische Bilddaten lassen sich z.B. sehr schlecht deduplizieren, warum also dies Leistung des Systems minimieren wenn es schon im Vorhinein klar das es kein Vorteil bringt. Transaktionsbasierte Anwendungen die möglichst viele Transaktionen in sehr kurzer Zeit verarbeiten müssen würden unter einer Deduplikation massiv leiden. Oft sind dabei auch die Datenmengen eher marginal. Daten die bereits komprimiert wurden, sind meist nicht für eine Deduplikation geeignet, dazu gehören Video, Bild, Audio und ZIP Daten wie z.B. JPEG, MPEG, MP4, MP3, ZIP.
Die folgende Liste zeigt grob auf wo Deduplizierung NICHT eingesetzt werden sollte. Die Liste erhebt dabei nicht den Anspruch abschliessend zu sein:
- Bilddaten
- Videodaten
- Audiodaten
- komprimierte Daten
- OLTP Datenbanken
- Exchange 2003 & 2007 (verwendet bereits SIS)
Lösungen auf Basis der Deduplikations Technologie
BSR & Partner baut Lösungen mit integrierter Deduplikation für Online-, Nearline- sowie Backup-Speicher. Dabei kommen Produkte von NetApp, Pure Storage und EMC zum Einsatz. Während NetApp ganz klar die Führung im Online- und Nearline-Speicher hat, führt Pure Storage den Bereich All-Flash Arrays an. Im Backup Umfeld heist der Pionier DataDomain, der seit einiger Zeit zu EMC dazugehört. Wir empfehlen jedem Kunden speziell bei virtualisierten Umgebungen und traditionellen Backup Ansätzen, Lösungen mit Deduplikation zu berücksichtigen. Die finanziellen Einsparungen und die erhöhte Leistungsfähigkeit gerade bei virtualisierten Infrastrukturen bieten klare Vorteile.
- Published in Allgemein
Caching oder Tiering, Kampf der Titanen
Während die ganz grossen Hersteller mit flashbasierten Caches und Automated-Tiering um sich werfen, vergessen einige sich dabei die essentielle Frage zu stellen: «Was macht technisch und wirtschaftlich gesehen Sinn und was nicht?» Dieser Frage gehen wir in diesem Artikel, im speziellen aus der Sicht eines Write-Caches, auf den Grund.
Potential von Flash
Ich denke wir stimmen alle mit der Aussage überein, dass die flashbasierte SSD Technologie ein enormes Potential hat. In der Frage, wie man diese SSD Technologie effizient und wirtschaftlich einsetzt, scheinen sich die Hersteller jedoch nicht ganz einig zu sein. Während die einen die Technologie in ein AST (Automated Storage Tiering) Konzept einbauen, setzt z.B. NetApp auf VST (Virtual Storage Tiering) und andere auf All-Flash Architekturen.
Automated Storage Tiering (AST)
Automated Storage Tiering verschiebt wie bereits im Namen ersichtlich, automatisch Daten zwischen unterschiedlichen Storage Tiers anhand definierter Regeln, wie z.B. Last Access Time. Das Problem bei AST liegt in der Granularität der verschiebbaren Daten. Um eine Granularität auf Blockebene zu ermöglichen, sind sehr grosse und komplexe Zuweisungs- tabellen nötig. Diese Tabellen können ein System oder Kontroller sehr schnell in die Knie zwingen. Bei den heutigen zu verwaltenden Datenmengen, ein vermutlich unmögliches Unterfangen. Aus diesem Grund verwenden die Hersteller bei der AST Technologie eine Segmentierung der Daten. Dabei werden mehrere Blöcke zu einem Segment zusammengefasst, meist mehrere hundert Kilobytes oder gar Megabytes. Der Vorteil liegt auf der Hand, durch die Segmentierung der Daten müssen weniger Metadaten verwaltet werden. Werden jedoch nur wenige Blöcke in einem Segment sehr oft genutzt, wird das ganze Segment auf dem leistungsfähigen Tier, z.B. SSD vorgehalten. Durch die Metadaten wird unter anderem Komplexität hinzugefügt, sowie die einzelnen Tiers zusätzlich mit Backgroundoperationen belastet. Defekte Metadaten oder Tabellen könnten ein System sogar total unbrauchbar machen, egal auf welchem Speicher-Level (Tier).
Virtual Storage Tiering (VST)
Virtual Storage Tiering ist im Prinzip nichts anderes als ein Caching auf mehreren Ebenen. Jeder leistungsfähige Kontroller verwendet heute bereits einen L1 Cache, was dem Arbeitsspeicher (RAM) des Kontrollers entspricht. Darin werden Operationen und Informationen zwischengelagert. Das Caching von Daten baut auf der Blockebene auf und ist somit äusserst effizient. Die Grösse eines L1 Caches ist jedoch meist auf wenige bis einige hundert Gigabytes beschränkt. Dank der Flash Technologie, kann nun zusätzlich ein sehr grosser und verglichen zur traditionellen Harddisk sehr leistungsfähiger L2 Cache hinzugefügt werden. Enterprise Speicherkontroller können heute bereits mehrere Terabytes L2 Cache verwalten. Der klare Vorteil beim Caching ist, dass keine Daten verschoben werden, sowie die sehr feine Granularität.
All-Flash Architekturen
Bereits heute gibt es Hersteller die nicht mehr auf Tiering setzten, sondern das ganze Speichersystem mit 100% Flash bestücken. Die komplexität ist dabei sicherlich am geringsten, doch ist diese Lösung meist auch die kostspieligste, es sei denn, das System verwendet intelligente und platzsparende Funktionen wie Deduplication, Compression, Thin-Provisioning und Cloning.
Wieviele Tiers brauche ich?
Der Speichermarkt ist heute in einem äusserst starken Umbruch, wie er seit der Erfindung der Harddisk nicht war. Die Flashtechnologie wird vermutlich mittelfristig bis langfristig die traditionelle Disk ablösen. Während heute Flash kurze Latenzzeiten bei noch niedriger Datenmenge bietet, ermöglicht die Disktechnologie das Abspeichern von mehreren Terabytes auf einer einzelnen Harddisk. Diese Situation schreit förmlich nach einer Kombination der beiden Technologien, und genau hier gehen die Hersteller zur Zeit getrennte Wege. Eine weitere Leistungsunterscheidung, auf der Ebene der traditionellen Harddisk, ergibt heute, bei den vergleichsweise minimalen Leistungsunterschieden, kaum noch Sinn.
AST oder VST?
Wegen der Komplexität des noch jungen AST, sowie dem ständigen Verschieben der Daten von einem Tier zum anderen, was zusätzliche Risiken birgt, ist aus unserer Sicht ein Virtual Storage Tiering, sprich Caching, vorzuziehen. Bei lediglich zwei Speicherebenen (Flash und Harddisk) ist ein komplexes und riskantes Tiering nicht angebracht. Das VST, sprich Caching, bietet hier wesentliche Vorteile.
Flashbasierter Write Cache, Ja oder Nein?
Diese Frage ist stark von der Architektur eines Speichersystems abhängig. Wie bei der Autoindustrie, gibt es mehrere Wege um ein System leistungsfähiger zu machen. Als Cache ist das RAM auch heute noch das leistungsfähigste Medium. Nun könnte man auch für Schreiboperationen zusätzlich einen L2 Cache integrieren, dies käme jedoch der simplen Leistungssteigerung von einem Automotor (Turbolader) ähnlich. Die Alternative um die Leistungsfähigkeit eines Fahrzeuges zu optimieren, wäre z.B. Gewicht einzusparen. Ähnliche Ansätze werden bereits heute von den Speicherherstellern gemacht. Die Hauptfrage die sich bei Schreiboperationen stellt ist: „Wie bringe ich die zu schreibenden Daten schnellstmöglich auf das finale Medium?“ In fast allen Fällen ist das finale Medium die traditionelle Harddisk. Diese Frage ist stark von der Architektur eines Speichersystemes abhängig. Dabei kommt es stark auf die Arbeitsweise des Kontrollers an. Zum Beispiel baut NetApp viel Intelligenz in den Speicherkontroller, welche ein optimiertes Speichern der Daten ermöglicht.
So werden von den Servern meist Daten random an den zentralen Kontroller gesendet, dieser wandelt diese jedoch dank des NVRAM Caches in sequentielle Schreiboperationen um. Sequentielle Schreiboperationen sind optimal für traditionelle Harddisks. Ein zusätzliches Zwischenlagern auf teurem Flash Cache wäre eine Ressourcen-Verschwendung. Warum? Ganz einfach, der Flash Cache ist auf geringe Latenz bei kleinen Datenblöcken optimiert. Je grösser die Datenblöcke sind, desto kleiner wird der Durchsatz. Bei traditionellen Harddisks trifft genau das Gegenteil zu. Je grösser die Blöcke, desto besser der Durchsatz. Eine SSD erreicht heute maximale Schreibwerte von ca. 100-200MB/s und ca. 18 – 50k Operationen. Eine traditionelle Harddisk erreicht ca. 70MB/s und 250 Operationen. Der Preisunterschied der beiden Technologien entspricht ca. einem Faktor 10, ohne dabei die massiv höhere Datendichte der Harddisk zu berücksichtigen.
Die einfache Faustregel für die beiden Technologien ist:
„Durchsatz = Harddisk“
«Operationen = Flash“
Optimaler Einsatz von Flash
Unter Berücksichtigung der Faustregel, sollten demnach beide Technologien Ihren Stärken entsprechend eingesetzt werden. NetApp hat die Stärken der beiden Technologien optimal in die FAS Speicherprodukte integriert und bietet zusätzlich auch noch eine optimale Integration in der Applikationswelt. Auch Nimble Storage setzt auf ein ähnliches hybrides Speicherkonzept. Profitieren Sie von der langjährigen Erfahrung von BSR & Partner AG. Gerne beraten und unterstützen wir Sie bei Ihren Speicheranforderungen.
- Published in Allgemein
Flash Mythbusters
Sehen Sie wie Vaughn Steward (Pure Storage), Jeremiah Dooley (Solid Fire), Devin Hamilton (Nimble Storage) und Sam Marraccini (EMC) in einem Video Conference Round Table die 10 Top Myths über Flash Speicher besprechen und Sie bestätigen, plausibilisieren oder auffliegen lassen. Ein Interessanter Austausch für technisch versierte Leute.
- Published in Allgemein