Dell Technologies Forum 2018
Im Zeitalter von intensivem Wandel in allen Geschäftsbereichen und raschen Technologieveränderungen ist es wichtig, Zugang zu den neusten Informationen über Geschäftstransformation zu haben, um der Konkurrenz voraus zu sein.
Besuchen Sie das Dell Technologies Forum, um neue Tools und Ideen kennenzulernen, damit Ihre IT-Organisation auf der Gewinnerstrasse bleibt.
5 Gründe, die für Ihre Teilnahme sprechen:
Nr. 1 Setzen Sie Ihre Ziele um – das Dell Technologies Forum ist der einzige Anlass, wo Sie Produkte und Lösungen sehen, anfassen und entdecken können, um eine echte Transformation von A bis Z bis hin zur Cloud zu ermöglichen.
Nr. 2 Entdecken Sie Live-Produktveröffentlichungen und probieren Sie interaktive Demos aus
Nr. 3 Treffen Sie die Experten.
Nr. 4 Erleben Sie neue Technologie – entdecken Sie die neusten preisgekrönten Produkte.
Nr. 5 Entdecken Sie, was als Nächstes kommt.
Kommen und erleben Sie die Power von sieben Technologieführern an einem einzigen Ort. Dell, Dell EMC, Pivotal, RSA, SecureWorks, Virtustream und VMware. Gemeinsam sind wir die Nr. 1 in allem, und bereit, Sie bei der Umwandlung Ihres Geschäfts und bei der Gestaltung Ihrer Zukunft zu unterstützen.
ITRIS Enterprise ist als Partner und Sponsor am Dell Technologies Forum in Zürich mit dabei. Melden Sie sich hier an: Anmeldung
Als Titanium-Partner haben wir den höchstmöglichen Partner-Status bei Dell EMC. Unsere Kunden profitieren deshalb neben bestem Pricing von Consulting und Experten-Know How auf höchstem Niveau.
- Published in News
4 Node SolidFire Cluster von NetApp im Test
Eine effiziente Informationsablage (Speicher) ist das Fundament einer modernen und leistungsstarken Rechenzenterlösung. Der effizienteste Mitarbeiter im 10. Stock bringt keine Leistung, wenn seine Ordner im Keller gelagert sind. Neue und agile Ansätze wie Deep Learning, Micro Segmentation oder Artificial Intelligence und das enorme Wachstum an gespeicherten Informationen stellen ganz neue Anforderungen an eine moderne Speicherlösung.
Gefordert sind speziell:
* Skalierbarkeit.
* paralleler Zugriff
* 100% Verfügbarkeit
Monolithische Denkansätze scheitern meist an diesen Herausforderungen. Das Nadelöhr ist oft der Speicherkontroller oder die Devices (Disks), die ab einer gewissen Kapazität nicht mehr die geforderte Leistung (Durchsatz und Transaktionen/Sekunde) liefern. Zudem verhindern Lifecycles monolithischer Speicherlösungen meist einen unterbruchfreien Betrieb (Storage Migration).
Software-definierte Ansätze machen unabhängig von Hardware und ermöglichen zudem je nach Design massive Skalierbarkeit nicht nur der Kapazität sondern – linear zur Kapazität – auch der Performance.
Diesem Ansatz folgt NetApp mit der Speicherlösung SolidFire. ITRIS testete den 4 Node SolidFire Cluster im hauseigenen Innovation Lab ausgiebig unter realen Bedingungen. Ist die Lösung wirklich so flexibel, wie es die Marketing-Slides einem versprechen? Skaliert die Performance linear mit jedem weiteren Node? Was passiert, wenn eine Disk ausfällt, was, wenn ein ganzer Node das Zeitliche segnet? Und wie werden Verbindungsabbrüche zwischen den Nodes gehandhabt? Fragen, die wir mit unserem POC ausführlich klären konnten.
NetApp hat den Trend zum SDS erkannt und Ende 2015 das Startup SolidFire übernommen. Die von SolidFire entwickelte All-Flash-Lösung wurde unter demselben Namen ins Portfolio übernommen und deckt die oben genannten Features ab. Es handelt sich dabei um einen reinen iSCSI Storage ähnlich zum CEPH Storage von RedHat, jedoch als Enterprise Appliance und mit entsprechendem hochwertigem Support.
Beim Software Defined Storage wird der bisher zentral vorhandene Storage Controller auf mehrere (theoretisch unbegrenzt viele) Nodes verteilt, die üblicherweise aus gewöhnlichen x86-Server bestehen. Diese Nodes bilden auf Software-Ebene einen virtuellen Controller, der sich über das Gesamtsystem erstreckt und in der Regel fast beliebig skalierbar ist. Daraus ergeben sich neue Möglichkeiten was die Erweiterung von Performance und Kapazität betrifft. Bei einem Hardware-Refresh ist die unterbrechungsfreie Migration auf neue Generationen von Nodes möglich.
HELIX-Architektur als Fundament von SolidFire
SolidFires zum Patent angemeldeter Helix-Datenschutz ist ein verteilter Replikationsalgorithmus, der mindestens zwei redundante Kopien von Daten über alle Laufwerke im System verteilt. Dieser «RAID-lose» Ansatz ermöglicht es dem System, mehrere gleichzeitige Fehler auf allen Ebenen der Speicherlösung zu absorbieren. Darüber hinaus werden Fehler isoliert und so Auswirkungen auf die Leistung anderer Aspekte des Systems vermieden, während alle «Quality of Service (QoS)»-Einstellungen beibehalten werden.
Quality of Service (QoS)
Bei hoch skalierbaren Lösungen ist es umso wichtiger, die auf dem System zur Verfügung gestellten Speicherdienste mit «Quality of Service» zu versehen. Auch hier geht NetApp mit SolidFire neue Wege und bietet nicht nur „high watermarks“ sondern auch die Möglichkeit, einzelne LUNs mit einer minimalen Leistungsgarantie zu versehen („low watermark). So kann z.B. eine elementare Datenbank LUN in den QoS Einstellungen mit z.B. minimal 20k IOPS versehen werden. Das System wird dann alles daransetzen, dieser spezifischen LUN stets mindestens 20k IOPS zu garantieren.
Effizienz dank Deduplikation und Kompression
Inline Deduplikation und Kompression sind bei modernen Speicherlösungen nicht mehr wegzudenken. Die SolidFire-Speicherlösung erreichte in unseren eigenen Tests die höchste Speichereffizienz für Scale-Out-Lösungen. So belegten 50x identische VMware VMs à jeweils 13GB (650GB Total) lediglich 12.5GB der Nettokapazität des Speichersystems, was einer Datenreduktion von 50:1 entspricht und dem System auch unter Berücksichtigung von konventionellen monolithischen Speicheransätzen einen Platz unter den TOP 3 beschert! Hammer!
Verfügbarkeit – Disk-Ausfall
SolidFire verwendet also keinerlei Raid-Verbund über die Festplatten. Die einzelnen Disks werden vom Cluster auch einzeln erkannt und verwaltet. Schutz vor Datenverlust wird auf Block-Ebene durch mehrfaches Speichern desselben Blocks auf unterschiedlichen Nodes sichergestellt. Wenn eine Disk ausfällt, sind alle Blöcke auf ihr mindestens noch einmal im System vorhanden. Nach 5 Minuten startet das System einen Rebuild und sorgt dafür, dass die betroffenen Blöcke wieder doppelt vorhanden sind. Dieser Rebuild dauerte meist weniger als 10 Minuten. Die RAW-Kapazität des Gesamtsystems verringert sich automatisch um die entsprechende Grösse der Disk. Wurde eine Disk auf den übrigen Disks hergestellt, ist das System wieder voll redundant. So können theoretisch so viele Disks ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.
Verfügbarkeit – Nodeausfall
SolidFire verwaltet fast alles auf Disk und nicht auf Node-Ebene. Der Ausfall eines Nodes ist also ähnlich wie der Ausfall von 10 einzelnen SSDs. Die Gesamtleistung und Kapazität der Lösung wird dabei um die eines Nodes reduziert. SolidFire bindet jedes LUN mit 2 iSCSI-Pfaden immer über 2 Nodes an, dabei wird anhand der Min-IOPS QoS Einstellung des LUNs entschieden, welcher Node verwendet wird. Die iSCSI Sessions des ausgefallenen Nodes laufen einfach in ein Timeout, und der Request wird automatisch auf den anderen Pfad umgeleitet. Ein Node Rebuild dauerte im Test meist weniger als 60 Minuten. Es können so viele Nodes ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.
Entfernen und Hinzufügen von Nodes ist kinderleicht
Ein einfacher Klick im Webinterface reicht, um einen Node zu entfernen, alles andere (Neuverteilung der Blöcke, Rebalancing der LUNs, iSCSI Multipathing usw) erfolgt komplett automatisch im Hintergrund. Das Hinzufügen eines neuen Nodes ist minimal umständlicher. Über den Management Node (mNode) können neue Nodes mit geringem Aufwand hinzugefügt werden.
Flexibel skalieren in alle Richtungen
Was uns sehr gut gefällt, sind die unbegrenzten Kombinationsmöglichkeiten verschiedener Nodes. So kann der Kunde bei steigenden Performance-Anforderungen einfach leistungsfähigere Nodes kaufen und dem Gesamtsystem hinzufügen. IOPS intensive LUNs werden dann automatisch (unter Berücksichtigung der Min-IOPS QoS) auf diese Nodes migriert. Auch der Hardware-Refresh kann laufend erfolgen, einzige Limitation: Der grösste Node darf nicht mehr als 30% der Gesamtkapazität stellen. Das System kann so laufend erweitert werden und alte Nodes können, wenn sie unwirtschaftlich werden, Stück für Stück ausgemustert werden.
Verfügbarkeit – asynchrone und synchrone Replikation
Dank SnapMirror verfügt SolidFire über eine bewährte asynchrone und synchrone Replikation. Es können Daten nicht nur unter SolidFire-Systemen repliziert, sondern auch SnapShots asynchron an die Unified Storage Systeme (FAS/AFF) von NetApp gesendet werden. Dadurch wird eine plattformübergreifende Redundanz geschaffen, die – meist unter hohem Kostenaufwand – nur wenige andere Hersteller ebenfalls bieten können.
Integration in VMware und andere Umgebungen
Ins vCenter integriert sich SolidFire fast nahtlos. Das Plugin bildet die meisten Funktionen des Webinterfaces nach und auch das Anlegen neuer Datastores kann das Plugin automatisieren. Sehr gut wurde die Integration von Fehlermeldungen gelöst: Das Plugin meldet jeden Fehler auf dem Storage und ermöglicht so das Monitoring mit vCenter-Bordmitteln. SolidFire lässt sich zudem dank starkem API optimal in unterschiedlichste Infrastrukturen integrieren. Auf NetApp’s «thePub» und GitHub findet man SDKs zu Java, GoLang, DotNet und Python, ein Web-Interface, CLI sowie PowerShell Scripts, ein vRealize Orchestrator Plugin sowie Cynder, Terraform- und OpenStack-Integrationen und vieles mehr.
Keine Eierlegende Wollmilchsau
Auch wenn sich viele Kunden das anders wünschen, so hat jedes Speichersystem seine Stärken und Schwächen. Scale-Out-Ansätze, Scale-Up-Ansätze und Vorteile sind meist nicht im selben System vereinbar. Scale-Up-Ansätze bieten oft optimale Performance für einige wenige LUNs und werden dann, je mehr LUNs auf dem System abgelegt werden, kontinuierlich inneffizienter. Scale-Out-Ansätze beginnen erst richtig zu performen, wenn eine gewisse Anzahl LUNs auf dem System vorhanden sind. Dies gilt auch für SolidFire. Diese Lösung liebt es, viele LUNs parallel mit hoher Leistung zu versorgen. Muss eine einzelne Applikation mehr als 100k IOPS machen können, dann sollte deren Volume im Falle von SolidFire aus mehreren LUNs bestehen, damit diese aggregiert die geforderte Leistung erbringen können. Hierzu ist ein Volume Manager auf Serverseite nötig. Solche Anforderungen werden jedoch meist nur noch von einigen wenigen monolithischen Applikationen gestellt, welche selbst vor der Herausforderung stehen, durch neue applikatorische Scale-Out-Ansätze (Micro Services) vom Markt verdrängt zu werden.
Fazit
Die Software Defined Scale Out Storage Lösung von NetApp konnte uns überzeugen. Sie erfüllt vollumfänglich die drei Anforderungen
* Skalierbarkeit
* paralleler Zugriff
* 100% Verfügbarkeit
und bietet zudem viele weitere sinnvolle Funktionen, z.B. die gute Integration in VMware. Kunden können das System bei uns im Innovation Lab begutachten und wir können die von uns im Artikel erwähnten Punkte ohne grossen Aufwand demonstrieren!
Für welche Kunden ist denn nun eine SolidFire-Lösung geeignet? Einfach gesagt: Alle Kunden, die eine hochverfügbare, einfach zu verwaltende und in Leistung und Kapazität maximal skalierbare und zugleich äusserst effiziente Speicherlösung benötigen. Dies gilt speziell für Web-Hoster und Anbieter von Shared Services, jedoch auch für grosse VM-Farmen mit mehreren hundert VMs, uvm.
- Published in Datacenter, Expertenstatements
Chad Sakac hat die Teilnahme am diesjährigen Datacenter Summit zugesagt. Chad ist Senior Vice President von Pivotal (Teil von Dell Technologies) und übernimmt den Vortrag um 15.10 Uhr von Dell EMC «Hybrid Cloud Management Challenges».
Chad ist ein passionierter Technologe und bezeichnet sich selbst als Nerd. Zuletzt war er Präsident und General Manager der Converged Platforms and Solutions Division (CPSD) von Dell EMC sowie President of Global System Engineering.
Chad hat einen eigenen Blog und sagt zu seiner Person : » My specialities are IaaS, PaaS, CaaS, lower level goop and a lot of cool stuff as it comes across the radar 🙂 »
Ein spannender, packender Vortrag auf technologisch höchstem Niveau ist garantiert! Mehr dazu auf www.dc-summit.com
- Published in News
Datacenter Summit 2018
Where the rubber meets the road! Oder: Worauf es schlussendlich ankommt.
Unter diesem Motto liefern wir am Datacenter Summit 2018 keine Theorien, sondern Lösungen mit Grip. Aus der Praxis für die Praxis. Dafür stehen unsere Referenten. Mit einer Mischung aus technischen und strategischen Themen sorgen sie dafür, dass Sie als IT-Fachmann einen Gang höher schalten können und bei den Herausforderungen der Zukunft stets die Spur halten.
Es erwarten Sie erkenntnisreiche und praxisorientierte Fachvorträge:
- Erfolg in der Cloud: 7 Fallen, die Sie meiden sollten
Anatol Studler, CTO & Director Datacenter Solutions - Vergleich von georedundanten Speicheransätzen
Daniel Giger, Lead Engineer Storage - Transformation of the IT Specialist
Carine Bongaerts, Cisco Systems - Converged & Hyper-Converged 2.0
Patrick Häusermann, Lead Engineer Compute - Next Gen Storage Fabric
Alfredo Nulli, Pure Storage - S3-Objektspeicher: Ursprung, Use Cases & POC
Carlo Speranza, Lead Engineer Cloud & Automation - Hybrid Cloud Management Challenges
Sascha Meier, Dell EMC
Weitere Details zu den spannenden Vorträgen und Speakern, die Sie erwarten, finden Sie auf unserer Landingpage www.dc-summit.com
- Published in Datacenter, Events, News
Cisco hat mit HyperFlex 3.0 eine neue Version seiner Software-Plattform für hyperkonvergente Infrastrukturen herausgebracht. Sie gewährleistet eine hohe Performance und einfaches Management für jede Anwendung auf jeder Cloud bei jeder Skalierung. Zu den Verbesserungen in der neuen Version gehört der Support für Microsoft Hyper-V, Stretch Cluster, Container und neue Multi-Cloud-Services. Damit lassen sich Anwendungen in jeder Cloud installieren, überwachen und verwalten.
Die Plattform ermöglicht es auf einzigartige Weise, sowohl herkömmlichen als auch Cloud-native Applikationen auf einer gemeinsamen hyperkonvergenten Plattform zu entwickeln und zu deployen. Andere Hyperkonvergenz-Lösungen vernachlässigen häufig die entscheidende Rolle, die Netzwerke und verteilte Dateisysteme bei der Performance und Skalierung von geclusterten Servern spielen. Cisco bietet dagegen einen umfassenden End-to-End-Ansatz für Konvergenz, der hochperformante Server und Netzwerk-Technologien über ein speziell dafür entwickeltes File-System bereitstellt. Durch branchenweit führende Performance können Kunden eine breitere Palette an Anwendungen – dazu gehören etwa Datenbanken und geschäftskritische ERP-Workloads – effizienter unterstützen.
Die Elemente der Hyperflex-Lösung im Überblick
HyperFlex 3.0 bietet deutliche Verbesserungen für geschäftskritische und Cloud-native Workloads für jede Anwendung:
- Multi-Hypervisor-Support. Neben VMware ESXi unterstützt HyperFlex nun auch Microsoft Hyper-V.
- Container-Support. Ein neuer FlexVolume-Treiber ermöglicht eine dauerhafte Speicherung für Kubernetes-basierte Container zur Entwicklung und Installation Cloud-nativer Anwendungen auf HyperFlex.
- Validierung von Unternehmens-Applikationen. HyperFlex bietet Tools zur Grössen- und Profilerfassung von Workloads, um Migrationsprojekte für Anwendungen zu unterstützen. Dabei stehen Anleitungen zum Design und Deployment für Virtual Server Infrastructure (VSI), Virtual Desktop Infrastructure (VDI) sowie geschäftskritischen Datenbanken, Analyse- und ERP-Lösungen wie Oracle, SQL, SAP, Microsoft Exchange und Splunk bereit.
Als Plattform für die Multi-Cloud-Welt bietet HyperFlex neue Service-Integrationen auf jeder Cloud:
- Application Performance Monitoring. AppDynamics mit HyperFlex ermöglicht Performance Monitoring von hybriden Anwendungen auf HyperFlex und multiplen Clouds.
- Application Placement. Cisco Workload Optimization Manager (CWOM) für HyperFlex unterstützt die automatische Analyse und Platzierung von Workloads.
- Cloud Management. CloudCenter für HyperFlex ermöglicht das Workload Lifecycle Management auf Private und Public Clouds.
- Private Cloud. CloudCenter für HyperFlex vereinfacht das Deployment und Management von virtuellen Maschinen, Containern und Anwendungen für die Bereitstellung von Private Clouds.
Kunden können mit der Cisco-Lösung auch schnell wachsende Workloads mit hoher Zuverlässigkeit bereitstellen:
- Grössere Skalierbarkeit und Stabilität on-Premise. HyperFlex Cluster skalieren nun auf bis zu 64 Knoten, bei höherer Zuverlässigkeit durch vollautomatisierte Verfügbarkeitszonen.
- Stretch Cluster in Rechenzentren. HyperFlex kann jetzt in Stretch Cluster konfiguriert werden, um Hochverfügbarkeit zu gewährleisten.
- Cloud-basiertes Management. Cisco Intersight unterstützt nun HyperFlex Cloud Deployment zur erweiterten einfachen Installation und Verwaltung bei abgelegenen Standorten.
- Published in Datacenter, Expertenstatements, News
Aus einem Trend wird die reale Zukunft. Die Hyperconverged Infrastrukturen (HCI) für Datacenter sind in ihrer Entwicklung so weit fortgeschritten, dass sie in vielen Fällen die traditionelle oder Converged Infrastruktur (CI) im Datacenter ersetzen können.
Aber: Für welche Unternehmen macht der Einsatz einer Hyperconverged Lösung überhaupt Sinn?
Und: Wie unterscheidet sich eine Hyperconverged Infrastruktur überhaupt von einer klassischen oder modernen Converged Infrastruktur?
In einem 4-monatigen POC (Proof of Concept) haben wir als führender Systemintegrator verschiedene Infrastrukturen und Produkte verglichen. Die Ergebnisse sind spannend und können als Entscheidungsgrundlage für künftige Investitionen im Datacenter dienen.
Und so viel können wir schon hier verraten: Nicht jeder Trendsetter führt den Trend am Schluss auch an.
Referenten!
Jeder unserer Speaker verfügt über mehr als 20 Jahre Erfahrung im Infrastruktur-/Datacenter-Umfeld und ist ein Experte auf seinem Gebiet.
Sie teilen ihre Expertise und sorgen garantiert für einen spannenden Vormittag.
![]() |
Anatol Studler Director Datacenter ITRIS Enterprise AGAnatol Studler ist Experte für Rechenzenter-Lösungen und verfügt über grosse Erfahrung im Bau von Converged und Hyperconverged DC-Lösungen. Mit Hersteller-unabhängiger Sicht stellt er den Unterschied zwischen CI und HCI vor und präsentiert Ergebnisse aus dem 4-monatigen POCs unserer System Engineers. |
![]() |
Javier Echave Consulting Systems Engineer Cisco Systems (Switzerland)Javier ist der technische Lead für HCI bei Cisco. Er stellt die HCI Plattform UCS HyperFlex aus technischer Sicht vor und präsentiert die aktuellsten Neuerungen dieser Plattform. Eine Demo gibt einen praktischen Einblick in das Produkt, dessen Einfachheit und Funktionsumfang. |
![]() |
Ivan Cioffi Team Leader Systems Engineers Switzerland, Presales Veeam SoftwareIvan ist technisch verantwortlich für die Betreuung der Strategischen Partner und Grosskunden. Er zeigt in seinem Vortrag, wie perfekt die Veeam Availability Lösung zu Cisco’s HCI passt und wie damit die Anforderungen des Always-On Enterprise erfüllt werden (Verfügbarkeit, Überwachung von Daten). Mit Live Demo. |
- Published in Events
Aus einem Trend wird die reale Zukunft. Die Hyperconverged Infrastrukturen (HCI) für Datacenter sind in ihrer Entwicklung so weit fortgeschritten, dass sie in vielen Fällen die traditionelle oder Converged Infrastruktur (CI) im Datacenter ersetzen können.
Aber: Für welche Unternehmen macht der Einsatz einer Hyperconverged Lösung überhaupt Sinn?
Und: Wie unterscheidet sich eine Hyperconverged Infrastruktur überhaupt von einer klassischen oder modernen Converged Infrastruktur?
In einem 4-monatigen POC (Proof of Concept) haben wir als führender Systemintegrator verschiedene Infrastrukturen und Produkte verglichen. Die Ergebnisse sind spannend und können als Entscheidungsgrundlage für künftige Investitionen im Datacenter dienen.
Und so viel können wir schon hier verraten: Nicht jeder Trendsetter führt den Trend am Schluss auch an.
Referenten!
Jeder unserer Speaker verfügt über mehr als 20 Jahre Erfahrung im Infrastruktur-/Datacenter-Umfeld und ist ein Experte auf seinem Gebiet.
Sie teilen ihre Expertise und sorgen garantiert für einen spannenden Vormittag.
![]() |
Anatol Studler Director Datacenter ITRIS Enterprise AGAnatol Studler ist Experte für Rechenzenter-Lösungen und verfügt über grosse Erfahrung im Bau von Converged und Hyperconverged DC-Lösungen. Mit Hersteller-unabhängiger Sicht stellt er den Unterschied zwischen CI und HCI vor und präsentiert Ergebnisse aus dem 4-monatigen POCs unserer System Engineers. |
![]() |
Javier Echave Consulting Systems Engineer Cisco Systems (Switzerland)Javier ist der technische Lead für HCI bei Cisco. Er stellt die HCI Plattform UCS HyperFlex aus technischer Sicht vor und präsentiert die aktuellsten Neuerungen dieser Plattform. Eine Demo gibt einen praktischen Einblick in das Produkt, dessen Einfachheit und Funktionsumfang. |
![]() |
Ivan Cioffi Team Leader Systems Engineers Switzerland, Presales Veeam SoftwareIvan ist technisch verantwortlich für die Betreuung der Strategischen Partner und Grosskunden. Er zeigt in seinem Vortrag, wie perfekt die Veeam Availability Lösung zu Cisco’s HCI passt und wie damit die Anforderungen des Always-On Enterprise erfüllt werden (Verfügbarkeit, Überwachung von Daten). Mit Live Demo. |
- Published in Events
- 1
- 2