×

ITRIS One AG

+41 56 418 64 64
  • ITRIS Gruppe
  • IT SOLUTIONS
    • DATACENTER & CLOUD
      • Übersicht
      • Datacenter Solutions
      • Cloud & Hybrid Cloud
      • Orchestration & Automation
      • Innovation Lab
    • NETWORK SOLUTIONS
      • Übersicht
      • Software Defined Networking
      • Mobility & Wireless
      • Cloud Managed Networks
      • Cisco DNA Demo
    • IT SECURITY
      • Übersicht
      • Umfassende Security
      • Cloud Security
      • Security Audit
    • UNIFIED COLLABORATION
      • Übersicht
    • DIGITAL WORKPLACE
      • Übersicht
    • HEALTHCARE IT SOLUTIONS
      • Übersicht
      • WLAN Ortungslösungen
  • IT SERVICES
    • Professional IT Services
      • Übersicht
      • Projekt Management
      • IT Navigation
      • Cloud Readiness Check
      • Business Aligned IT
      • Unified Collaboration as a Service
      • Threat Management as a Service
      • Ransomware Readiness Workshop
    • IT Service Management
      • Übersicht
    • IT Support Services
      • Übersicht
      • IT Monitoring Service
  • CLOUD SERVICES
    • Übersicht
    • Cloud Readiness Check
    • Unified Collaboration as a Service
  • UNTERNEHMEN
    • Über uns
    • ITRIS Gruppe
    • Jobs | Wir suchen Dich →
    • Standorte
    • Referenzen
    • Partner
    • Awards
    • News
    • Events
    • Blogs
  • KONTAKT
  • Home
  • Blog
  • Archive from category "Blog"

Das eigene Datacenter im Zeitalter der Cloud

20.12.2021 by ITRIS

ITRIS One BLOG | Cisco UCS-X

Read more
  • Published in Blog, Datacenter, Datacenter Solutions
No Comments

Der Schutz vor Ransomware – Attacken liegt in der Prävention

28.09.2021 by ITRIS
Bild zu Ransomware - Cyber attack

Am IT Security Day vom 26. Oktober 2021 zeigen wir Ihnen, wie sich davor schützen können.

Read more
  • Published in Blog, IT Security, News
No Comments

Die Zukunft der Speichertechnologien mit Flash und SCM

02.07.2020 by Anatol Studler

Dieser Artikel wurde erstmals in der Netzwoche Nummer 12-2020 veröffentlicht.

DatacenterFlashSCMStorage
Read more
  • Published in Blog, Datacenter, News
No Comments

Die Firewall ist nicht genug – IT Security Lösungen von Cisco Systems

30.03.2020 by Knut Rüffer

Sicherheitstools dürfen nicht komplex und unübersichtlich sein. Cisco bietet eine Vielzahl an effektiven, aber einfach zu bedienende Sicherheitslösungen an, die Ihre Geräte, Netzwerke und Cloud-Anwendungen zuverlässig vor Cyber-Angriffen absichern.

AMPCiscoIT Securitystealthwatchumbrella
Read more
  • Published in Blog, IT Security
No Comments

Cisco Stealthwatch bringt Licht ins Dunkel

25.11.2019 by ITRIS

Stellen Sie sich vor, Sie müssten mit geschlossenen Augen den Weg von Ihrem Arbeitsplatz zur Kaffeemaschine finden. Theoretisch nicht so schwierig, praktisch aber fast unmöglich. Zu viele temporäre Hindernisse stünden im Weg: Kollegen beispielsweise oder auch nur eine Aktentasche, die jemand abgestellt hat.

AnalyticsCisco StealthwatchNetworkSecurity
Read more
  • Published in Blog, IT Security
No Comments

Campus-Lösung: SDA von Cisco

24.04.2019 by ITRIS

Software Defined Networks im Campus

AuthentifizierungCampusCisco SDANetzwerkNetzwerk-KonfigurationSDNSoftware Defined NetworkZugriffsrechte
Read more
  • Published in Blog, Enterprise Networks
No Comments

Brückenschlag zur Skype-for-Business-Insel

18.12.2018 by ITRIS

Die Zeiten, in denen Skype-for-Business-Nutzer auf einer Insel kommunizierten, sind passé. Cisco hat mit dem Cisco Meeting Server (CMS) eine Brücke gebaut, die es erlaubt, Skype for Business mit Videoräumen von Cisco zu verbinden.

In Zeiten von Work Smart und fortschreitender Digitalisierung wird Kommunikation immer wichtiger. Allerdings vereitelten bisher Medienbrüche häufig eine effiziente, schnelle und einfache Kollaboration. Die Nutzer von Skype for Business können ein Lied davon singen: Ihnen gelang es bisher nur mit grossem Aufwand (oder gar nicht), mit Nutzern anderer Plattformen – etwa den UC-Lösungen von Cisco – in Verbindung zu treten. Daher kaufte Cisco anno 2016 das auf Microsoft-Produkte spezialisierte Start-up Acano und entwickelte basierend auf deren «Acano Server»-Technologie den Cisco Meeting Server (CMS).

Zusammenarbeit kennt keine Grenzen mehr

Der in einer Rack-Einheit (1HE) Platz findende CMS reisst die Hürden zwischen den Plattformen ein, vereint ehemals nicht kompatible Telefonie, Web- und Videokonferenzen. So können Mitarbeitende untereinander, über Unternehmensstandorte hinweg, aber auch mit Externen wie Kunden, Partnern oder Lieferanten kollaborieren, kommunizieren und Content teilen. Einfach, effizient und vor allem völlig unabhängig von Endgerät, Plattform respektive dem verwendeten Video-Endpunkt. Zudem behält jeder Nutzer seine vertraute Kommunikationsumgebung bei und alle Teilnehmer erleben das Meeting auf identische Weise, was letztlich der Produktivität zugutekommt.

Top bei Interoperabilität, Skalierbarkeit und Recording

CMS kann mit Skype for Business auf drei Arten genutzt werden. Erstens als Gateway für One-to-One-Calls zwischen Microsoft und H.264 Standard-Video-Systemen. Zweitens über Working-Spaces, in denen sich Teilnehmer treffen wollen. Drittens in der Variante «Dual Homed», bei der man sich mit Raumsystemen in ein Microsoft AVMCU Meeting einwählen kann. In allen Fällen werden sowohl Video- und Audiostreaming als auch Web- und Content-Sharing unterstützt. CMS kümmert sich dabei um die Konvertierung. Und nicht zuletzt: CMS kann auch auf generischen ESX respektive sogar Hyper-V-Systemen laufen

Auch bei der Skalierung kann CMS punkten: Der CMS 1000 ermöglicht bis zu 96 HD-Videoteilnehmer, der CMS 2000 sogar bis zu 500. Dabei wird nicht zwischen standardbasierten Video-Teilnehmern und MS-Teilnehmern unterschieden. Last but not least ist das Recording von Videokonferenzen (auf NFS-Speicher) integriert.

Die 6 wesentlichen Vorteile von Cisco Meeting Server:

  • Zusammenarbeit wird grenzenlos: Alle können jederzeit, überall und von jeder Plattform aus an Meetings teilnehmen. Ob mit Raum- oder Einzelplatz-Videosystemen von Cisco oder Dritten, mit dem Cisco Jabber-Client, einem WebRTC-kompatiblen Browser oder auch mit Skype for Business.
  • Höhere Produktivität: Alle profitieren von einer unveränderten Kommunikationsumgebung – auf Raum- und Einzelplatzsystemen ebenso wie auf Mobilgeräten
  • Individualität und Spontaneität: Konferenzen sind spontan oder geplant und wahlweise «One-to-One» oder in einem virtuellen Meeting-Raum möglich. Jeder Benutzer kann mehrere Räume anlegen und individuell gestalten. So entstehen massgeschneiderte Räume, z.B. für Mitarbeitende, Teams, Projekte oder Externe. Sie alle erlauben Audio- und Videokonferenzen sowie effektives und sicheres Web- und Content-Sharing.
  • Geräteunabhängigkeit: Nutzer können diverse Geräte gleichzeitig nutzen, etwa einen Video-Endpunkt für die visuelle Kommunikation und ein Laptop zum Anzeigen einer Präsentation.
  • Kosteneffizienz: CMS wird auf Cisco UCS-basierten Plattformen bereitgestellt, ist einfach skalierbar, verfügt über eine effiziente Bandbreitenoptimierung und wird im einfachen, benutzerbasierten All-in-One-Lizenzmodell angeboten.
  • Weiterer Vorteil: Der CMS kann auch auf generischen ESX respektive sogar Hyper-V-Systemen laufen

 

Das könnte Sie auch interessieren:

Collaboration Lösungen
Collaboration als Service

Weitere Infos von Cisco:

Unified Communications

CiscoCollaboration
Read more
  • Published in Blog, News, Unified Collaboration
No Comments

Künstliche Intelligenz betrifft uns alle

01.10.2018 by ITRIS

Künstliche Intelligenz wird bereits heute produktiv eingesetzt, betont KI-Spezialist Rainer Kessler, der am 23. Oktober am 12. IT Security Day als Referent aufgetreten ist.

 

ITRIS: Künstliche Intelligenz ist ein weiter Begriff. Man spricht auch von Machine Learning, Deep Learning, KI. Können Sie diese Begriffe etwas genauer erklären?

Rainer Kessler: Grundsätzlich ist man ziemlich tolerant in der Anwendung dieser Begriffe. Es ist in meinen Augen nicht schlimm, wenn man KI sagt und ein neuronales Netz meint. Aber die Begriffe lassen sich sehr wohl definieren. Machine Learning beschreibt ein adaptives System, unabhängig davon, wie es implementiert ist. Der Trend geht aktuell Richtung neuronale Netzen, da diese Architektur sehr flexibel ist. Deep Learning bezieht sich spezifisch auf neuronale Netze, bei denen die sogenannten Hidden Layers in sehr grosser Zahl vorhanden sind. Künstliche Intelligenz wirkt intelligent. Das erreicht man, indem man meist mehrere Machine-Learning-Systeme miteinander verbindet.

Bei KI geht’s vor allem um den äusseren Schein? Mehr nicht?

Es gibt verschiedene Arten künstlicher Intelligenz, so die klassische, in der man adaptive Systeme verbindet, um intelligent zu wirken oder intelligente Aufgaben zu lösen. Das tun wir heute. Dann gibt es theoretisch die starke oder allgemeine KI (AGI), welche nach einer sogenannten „Singularität“ ihrer Entwicklung in der Lage sein soll, die Intelligenz des Menschen zu erreichen und sie in der Folge gar zu überschreiten. Davon ist man aber noch sehr weit weg – mindestens Jahrzehnte. Heute können wir die autonome/allgemeine Intelligenz einer Honigbiene simulieren.

Wo sieht man heute gute Beispiele für KI-Anwendungen?

Zum Beispiel bei den Banken mit dem Robo-Advisor. Meteorologen arbeiten heute auch mit KI. Zudem arbeiten Zeitungen, insbesondere Online-News-Portale mit KI, um die Flut an Kommentaren bewältigen zu können, die jede Sekunde anfallen; dort geht es vor allem darum, unerwünschte Inhalte erkennen zu können, ohne dabei auf simple Schlagwörter angewiesen zu sein.

Dabei geht es um Sprachverständnis?

Genau. Man könnte ja auch einfach Schlüsselbegriffe hinterlegen. Ein adaptives System lässt sich darauf trainieren, viel komplexere Sachverhalte in den Aussagen, wie bspw. Wortkombinationen, zu erkennen. Am verbreitetsten ist die Anwendung von KI aber in Verbindung mit dem Data Warehouse. Heute ist ein Machine-Learning-Teil der Data-Warehouse-Analyse in den meisten Fällen implementiert. Es gibt noch viele weitere Anwendungsbereiche, wie Übersetzungsprogramme, etc.

KI erledigt also schon heute menschliche Arbeiten. Wird das noch zunehmen?

KI wird früher oder später alles bewegen. Während der Industrialisierung wurden die nicht anspruchsvollen Tätigkeiten automatisiert. Mit KI ist es umgekehrt: Die anspruchsvollsten Aufgaben sind künftig Kandidaten für eine Automatisierung.

Wie lässt sich die Anwendung von KI in die IT-Infrastruktur-Planung einbeziehen?

Heute muss man die Anwendung von KI evaluieren wie eine Applikation: den Bedarf analysieren und umsetzen. Eine Infrastruktur, die mit grossen und komplexen Data Warhouses und den Analyseprogrammen fertig wird, ist grundsätzlich geeignet für die Implementation von KI.

Werden sich die Ansprüche an ein Rechenzentrum verändern?

Nein, kurzfristig nicht. Wenn wir heute beispielsweise ein FDPS-System (Fraud Detection and Prevention System) integrieren, dann unterscheidet sich die technische Seite nicht von anderen Integrationen.

Wird sich die Zusammenarbeit zwischen Business und IT künftig, d.h. durch den Einsatz von KI verändern?

Ja, ganz grundlegend. Die IT wird nicht mehr für das richtige Funktionieren der Applikation verantwortlich sein. Diesen Part muss künftig das Business übernehmen.

Das müssen Sie jetzt aber erklären.

Die IT integriert das System, das muss natürlich laufen. Das System selbst wird aber vom Business trainiert und kann nur so gut sein, wie dieses Training. Die IT kann hier selbstverständlich unterstützen und als eine Art Bindeglied zwischen Business und KI dienen.

Welche Skills wird es vermehrt brauchen für die Anwendung von KI?

Es wird konventionelle IT-Fachleute brauchen, die aber die Programmiersprachen beherrschen, in denen KI implementiert wird. Java beispielsweise, Python oder das Google Framework TensorFlow. Ebenfalls sehr wichtig ist Cyber Security.

Ein weiter Begriff.

Stimmt. Darunter fällt unter anderem die klassische Abwehr von Angriffen, für die KI ein beliebtes Ziel sein wird. Compliance wird ebenfalls immer stärker zur technischen Disziplin. Wir werden zunehmend „Para-Legals“ brauchen, IT-Fachkräfte mit juristischem Grundwissen, oder umgekehrt Juristen, die sich intensiv mit der Technologie befassen. Der Gesetzgeber ist hier stark gefordert. Es gibt international bereits Bewegung in Richtung „Gesetze für KI“: In der Datenschutz-Grundverordnung gibt es z.B. den Artikel 22, der sich explizit auf Machine Learning bezieht. Wird eine Entscheidung vollautomatisiert und adaptiv gefällt, also bspw. von einem Machine-Learning-System – und birgt diese Entscheidung ein Datenschutzrisiko für eine betroffene Person (z.B. Kunde) – so muss das offengelegt werden und der Kunde darf verlangen, dass der Fall durch einen Menschen beurteilt wird. Das kann für digitale Startups eine besondere Herausforderung sein. Weitere Gesetze, die sich mit KI befassen, sind global unterwegs oder bereits finalisiert.

 

ZUR PERSON:

Rainer Kessler hat Rechts-, Wirtschafts- und Informatikstudien abgeschlossen, ist zertifizierter Ausbildner für die Datenschutz-Grundverordnung sowie Beirat von IFGICT und Teilnehmer von Mindfire, einem Think-Tank für KI. Rainer Kessler forscht und lehrt in Cyber-Sicherheit und Artificial-Intelligence-Safety. Er berät Grosskonzerne, KMUs, Regierungsorganisationen und das Militär.

 

NICHT VERPASSEN!

Rainer Kessler tritt als KI-Experte am 12. IT Security Day auf. Mehr erfahren und anmelden auf:
www.it-securityday.ch

 Lesen Sie mehr zu massgeschneiderten Security-Lösungen.

AIKIkünstliche IntelligenzSecurity
Read more
  • Published in Blog, IT Security, News
No Comments

NetApp überzeugt mit HCI

06.09.2018 by ITRIS

Hyperkonvergente Infrastrukturen (HCI) sind der letzte Schrei in Sachen Data-Center-Infrastruktur. Eine HCI vereint Rechenleistung, Storage und Managementsoftware unter einem Dach und setzt auf eine softwaredefinierte, virtualisierte Architektur. Sie verspricht hohe Performance und Ausfallsicherheit sowie einfaches, einheitliches Management.

HCI auf neue Art

NetApp bietet seit Kurzen ebenfalls eine HCI-Lösung an. Streng genommen handelt es sich dabei jedoch nicht um klassische Hyperkonvergenz, denn für Storage und Compute sind bei NetApp HCI jeweils separate Knoten zuständig. Nachteilig ist das allerdings nicht, ganz im Gegenteil: Das Konzept von NetApp birgt einen ganzen Strauss von Vorteilen – es gibt sogar Stimmen, die von «HCI 2.0» sprechen. Hier das Wichtigste:

  • Storage- und Compute-Leistung lassen sich bei NetApp HCI komplett unabhängig voneinander skalieren. Dies erleichtert den Umgang mit Workloads, die punkto Speicher- und Rechenansprüche stark differieren. Und es ermöglicht, die Infrastruktur bei veränderten Bedürfnissen gezielt und ausgewogen zu erweitern, ohne dass dabei entweder zu viel Storage- oder zu viel Compute-Ressourcen zugekauft werden müssen.
  • Die Architektur erlaubt, verschiedene Storage-Knoten beliebig zu kombinieren. NetApp HCI basiert auf dem auf Software-defined Storage ausgelegten Element OS, das auch die SolidFire All-Flash-Arrays von NetApp antreibt. Mehr zu SolidFire erfahren Sie im Beitrag «4 Node SolidFire Cluster von NetApp im Test». Mit Element OS als Basis offeriert NetApp HCI zudem die bahnbrechenden Features der SolidFire-Arrays wie Deduplication, Compression oder Scale-Out.
  • Die Trennung von Compute- und Storage-Knoten löst eine ganzen Reihe von Problemen, die in einem kombinierten Storage/Compute-Knoten auftreten: Storage und Compute fordern CPU und Memory des Knotens sehr unterschiedlich, was die Gesamtleistung negativ beeinflusst. Aufgrund der separaten Knoten sowie der ausgefeilten Storage-QoS-Funktionalität von Element OS kann NetAPP HCI eine anwendungsspezifisch garantierte Storage-Performance bieten, und zwar unabhängig davon, was auf der Compute-Seite vor sich geht.
  • Mit NetApp HCI entfällt die «HCI-Steuer»: Ist ein Knoten ausschliesslich für Storage zuständig, benötigt er keine Lizenzen für Betriebssytem und Hypervisor und stellt keine Ansprüche an CPU und RAM der Compute-Knoten. Bei klassischen HCI-Lösungen muss dagegen jeder Knoten komplett lizenziert werden

Fast schon zu einfach

Das ist aber noch nicht alles. NetApp will den Anwendern das Aufsetzen und die Administration der HCI-Umgebung besonders leicht machen – zumindest wenn sie auf die Virtualisierungsplattform von VMware setzen. Mit der NetApp Deployment Engine (NDE) geht die Installation praktisch vollautomatisch über die Bühne. Die NDE ist in jedem Knoten vorinstalliert und wird über eine Weboberfläche bedient: Im Browser ruft man die IP-Adresse des Management-Ports eines Storage-Knotens auf, füllt diverse Grundangaben ein, und die NDE installiert den Rest – von Basiskomponenten wie ESXi und Element OS/SolidFire bis zum vCenter und dem vCenter-Plugin. Denn NetApp HCI ist nahtlos ins vCenter integriert, sowohl für das Management als auch für das Monitoring der Hardware. Kann auf die Deployment Engine verzichten werden, lässt sich das System grundsätzlich auch mit jedem anderen Hypervisor nutzen.

Test erfolgreich

ITRIS hat die NetApp HCI in einem Setup mit vier Compute- und vier Storage-Nodes getestet. Wir haben dabei besonders auf die Performance und Ausfallsicherheit geachtet. Die Resultate: Der Ausfall einer einzelnen Disk hat praktisch keinen Impact – die Verfügbarkeit war in unter einer Minute wiederhergestellt, und die Meldung im vCenter war klar verständlich. Beim Ausfall eines Netzteils läuft das System unterbrechungsfrei weiter, es erscheint nur eine Meldung im vCenter.

Deutlicher macht sich der Ausfall eines ganzen Knotens bemerkbar. Nach dem Rebuild innert rund zehn Minuten lief das System mit rund ¾ der Leistung wieder stabil. Insgesamt hat uns die NetApp HCI überzeugt, vor allem beim Setup und bei der vCenter-Integration. Die Performance war identisch zu vergleichbaren Solidfire-Knoten – mit anderen Worten: sehr gut.

NetApp HCI

Die HCI-Lösung von NetApp kombiniert Storage- und Compute-Knoten in einem einfachen Baukastensystem. Beide Typen sind in jeweils drei Konfigurationen erhältlich (klein, mittel, gross). Die Dimensionen sind identisch: Jeder Knoten belegt eine Höheneinheit bei halber Rackbreite.

Storage-Nodes gibt es mit derzeit je 6 SSDs zu 480 GB, 960 GB oder 1,9 TB mit einer Gesamtleistung von 50’000 beziehungsweise 100’000 IOPS. Compute-Nodes sind x86-Server im Industriestandard mit 16, 24 oder 36 Cores und 256, 512 oder 768 GB RAM. Die Minimalkonfiguration besteht aus zwei 2-HE/4N-Chassis, vier Storage- und zwei Computing-Nodes.

Hier gehts zum Datenblatt von NetApp HCI

DatacenterHCINetAppPerformanceStorage
Read more
  • Published in Blog, Datacenter, News
No Comments

4 Node SolidFire Cluster von NetApp im Test

26.06.2018 by ITRIS

Eine effiziente Informationsablage (Speicher) ist das Fundament einer modernen und leistungsstarken Rechenzenterlösung. Der effizienteste Mitarbeiter im 10. Stock bringt keine Leistung, wenn seine Ordner im Keller gelagert sind. Neue und agile Ansätze wie Deep Learning, Micro Segmentation oder Artificial Intelligence und das enorme Wachstum an gespeicherten Informationen stellen ganz neue Anforderungen an eine moderne Speicherlösung.

Gefordert sind speziell:
* Skalierbarkeit.
* paralleler Zugriff
* 100% Verfügbarkeit

Monolithische Denkansätze scheitern meist an diesen Herausforderungen. Das Nadelöhr ist oft der Speicherkontroller oder die Devices (Disks), die ab einer gewissen Kapazität nicht mehr die geforderte Leistung (Durchsatz und Transaktionen/Sekunde) liefern. Zudem verhindern Lifecycles monolithischer Speicherlösungen meist einen unterbruchfreien Betrieb (Storage Migration).

Software-definierte Ansätze machen unabhängig von Hardware und ermöglichen zudem je nach Design massive Skalierbarkeit nicht nur der Kapazität sondern – linear zur Kapazität – auch der Performance.

Diesem Ansatz folgt NetApp mit der Speicherlösung SolidFire. ITRIS testete den 4 Node SolidFire Cluster im hauseigenen Innovation Lab ausgiebig unter realen Bedingungen. Ist die Lösung wirklich so flexibel, wie es die Marketing-Slides einem versprechen? Skaliert die Performance linear mit jedem weiteren Node? Was passiert, wenn eine Disk ausfällt, was, wenn ein ganzer Node das Zeitliche segnet? Und wie werden Verbindungsabbrüche zwischen den Nodes gehandhabt? Fragen, die wir mit unserem POC ausführlich klären konnten.

NetApp hat den Trend zum SDS erkannt und Ende 2015 das Startup SolidFire übernommen. Die von SolidFire entwickelte All-Flash-Lösung wurde unter demselben Namen ins Portfolio übernommen und deckt die oben genannten Features ab. Es handelt sich dabei um einen reinen iSCSI Storage ähnlich zum CEPH Storage von RedHat, jedoch als Enterprise Appliance und mit entsprechendem hochwertigem Support.

Beim Software Defined Storage wird der bisher zentral vorhandene Storage Controller auf mehrere (theoretisch unbegrenzt viele) Nodes verteilt, die üblicherweise aus gewöhnlichen x86-Server bestehen. Diese Nodes bilden auf Software-Ebene einen virtuellen Controller, der sich über das Gesamtsystem erstreckt und in der Regel fast beliebig skalierbar ist. Daraus ergeben sich neue Möglichkeiten was die Erweiterung von Performance und Kapazität betrifft. Bei einem Hardware-Refresh ist die unterbrechungsfreie Migration auf neue Generationen von Nodes möglich.

HELIX-Architektur als Fundament von SolidFire

SolidFires zum Patent angemeldeter Helix-Datenschutz ist ein verteilter Replikationsalgorithmus, der mindestens zwei redundante Kopien von Daten über alle Laufwerke im System verteilt. Dieser «RAID-lose» Ansatz ermöglicht es dem System, mehrere gleichzeitige Fehler auf allen Ebenen der Speicherlösung zu absorbieren. Darüber hinaus werden Fehler isoliert und so Auswirkungen auf die Leistung anderer Aspekte des Systems vermieden, während alle «Quality of Service (QoS)»-Einstellungen beibehalten werden.

Quality of Service (QoS)

Bei hoch skalierbaren Lösungen ist es umso wichtiger, die auf dem System zur Verfügung gestellten Speicherdienste mit «Quality of Service» zu versehen. Auch hier geht NetApp mit SolidFire neue Wege und bietet nicht nur „high watermarks“ sondern auch die Möglichkeit, einzelne LUNs mit einer minimalen Leistungsgarantie zu versehen („low watermark). So kann z.B. eine elementare Datenbank LUN in den QoS Einstellungen mit z.B. minimal 20k IOPS versehen werden. Das System wird dann alles daransetzen, dieser spezifischen LUN stets mindestens 20k IOPS zu garantieren.

Effizienz dank Deduplikation und Kompression

Inline Deduplikation und Kompression sind bei modernen Speicherlösungen nicht mehr wegzudenken. Die SolidFire-Speicherlösung erreichte in unseren eigenen Tests die höchste Speichereffizienz für Scale-Out-Lösungen. So belegten 50x identische VMware VMs à jeweils 13GB (650GB Total) lediglich 12.5GB der Nettokapazität des Speichersystems, was einer Datenreduktion von 50:1 entspricht und dem System auch unter Berücksichtigung von konventionellen monolithischen Speicheransätzen einen Platz unter den TOP 3 beschert! Hammer!

Verfügbarkeit – Disk-Ausfall

SolidFire verwendet also keinerlei Raid-Verbund über die Festplatten. Die einzelnen Disks werden vom Cluster auch einzeln erkannt und verwaltet. Schutz vor Datenverlust wird auf Block-Ebene durch mehrfaches Speichern desselben Blocks auf unterschiedlichen Nodes sichergestellt. Wenn eine Disk ausfällt, sind alle Blöcke auf ihr mindestens noch einmal im System vorhanden. Nach 5 Minuten startet das System einen Rebuild und sorgt dafür, dass die betroffenen Blöcke wieder doppelt vorhanden sind. Dieser Rebuild dauerte meist weniger als 10 Minuten. Die RAW-Kapazität des Gesamtsystems verringert sich automatisch um die entsprechende Grösse der Disk. Wurde eine Disk auf den übrigen Disks hergestellt, ist das System wieder voll redundant. So können theoretisch so viele Disks ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.

Verfügbarkeit – Nodeausfall

SolidFire verwaltet fast alles auf Disk und nicht auf Node-Ebene. Der Ausfall eines Nodes ist also ähnlich wie der Ausfall von 10 einzelnen SSDs. Die Gesamtleistung und Kapazität der Lösung wird dabei um die eines Nodes reduziert. SolidFire bindet jedes LUN mit 2 iSCSI-Pfaden immer über 2 Nodes an, dabei wird anhand der Min-IOPS QoS Einstellung des LUNs entschieden, welcher Node verwendet wird. Die iSCSI Sessions des ausgefallenen Nodes laufen einfach in ein Timeout, und der Request wird automatisch auf den anderen Pfad umgeleitet. Ein Node Rebuild dauerte im Test meist weniger als 60 Minuten. Es können so viele Nodes ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.

Entfernen und Hinzufügen von Nodes ist kinderleicht

Ein einfacher Klick im Webinterface reicht, um einen Node zu entfernen, alles andere (Neuverteilung der Blöcke, Rebalancing der LUNs, iSCSI Multipathing usw) erfolgt komplett automatisch im Hintergrund. Das Hinzufügen eines neuen Nodes ist minimal umständlicher. Über den Management Node (mNode) können neue Nodes mit geringem Aufwand hinzugefügt werden.

Flexibel skalieren in alle Richtungen

Was uns sehr gut gefällt, sind die unbegrenzten Kombinationsmöglichkeiten verschiedener Nodes. So kann der Kunde bei steigenden Performance-Anforderungen einfach leistungsfähigere Nodes kaufen und dem Gesamtsystem hinzufügen. IOPS intensive LUNs werden dann automatisch (unter Berücksichtigung der Min-IOPS QoS) auf diese Nodes migriert. Auch der Hardware-Refresh kann laufend erfolgen, einzige Limitation: Der grösste Node darf nicht mehr als 30% der Gesamtkapazität stellen. Das System kann so laufend erweitert werden und alte Nodes können, wenn sie unwirtschaftlich werden, Stück für Stück ausgemustert werden.

Verfügbarkeit – asynchrone und synchrone Replikation

Dank SnapMirror verfügt SolidFire über eine bewährte asynchrone und synchrone Replikation. Es können Daten nicht nur unter SolidFire-Systemen repliziert, sondern auch SnapShots asynchron an die Unified Storage Systeme (FAS/AFF) von NetApp gesendet werden. Dadurch wird eine plattformübergreifende Redundanz geschaffen, die – meist unter hohem Kostenaufwand – nur wenige andere Hersteller ebenfalls bieten können.

Integration in VMware und andere Umgebungen

Ins vCenter integriert sich SolidFire fast nahtlos. Das Plugin bildet die meisten Funktionen des Webinterfaces nach und auch das Anlegen neuer Datastores kann das Plugin automatisieren. Sehr gut wurde die Integration von Fehlermeldungen gelöst: Das Plugin meldet jeden Fehler auf dem Storage und ermöglicht so das Monitoring mit vCenter-Bordmitteln. SolidFire lässt sich zudem dank starkem API optimal in unterschiedlichste Infrastrukturen integrieren. Auf NetApp’s «thePub» und GitHub findet man SDKs zu Java, GoLang, DotNet und Python, ein Web-Interface, CLI sowie PowerShell Scripts, ein vRealize Orchestrator Plugin sowie Cynder, Terraform- und OpenStack-Integrationen und vieles mehr.

Keine Eierlegende Wollmilchsau

Auch wenn sich viele Kunden das anders wünschen, so hat jedes Speichersystem seine Stärken und Schwächen. Scale-Out-Ansätze, Scale-Up-Ansätze und Vorteile sind meist nicht im selben System vereinbar. Scale-Up-Ansätze bieten oft optimale Performance für einige wenige LUNs und werden dann, je mehr LUNs auf dem System abgelegt werden, kontinuierlich inneffizienter. Scale-Out-Ansätze beginnen erst richtig zu performen, wenn eine gewisse Anzahl LUNs auf dem System vorhanden sind. Dies gilt auch für SolidFire. Diese Lösung liebt es, viele LUNs parallel mit hoher Leistung zu versorgen. Muss eine einzelne Applikation mehr als 100k IOPS machen können, dann sollte deren Volume im Falle von SolidFire aus mehreren LUNs bestehen, damit diese aggregiert die geforderte Leistung erbringen können. Hierzu ist ein Volume Manager auf Serverseite nötig. Solche Anforderungen werden jedoch meist nur noch von einigen wenigen monolithischen Applikationen gestellt, welche selbst vor der Herausforderung stehen, durch neue applikatorische Scale-Out-Ansätze (Micro Services) vom Markt verdrängt zu werden.

Fazit

Die Software Defined Scale Out Storage Lösung von NetApp konnte uns überzeugen. Sie erfüllt vollumfänglich die drei Anforderungen
* Skalierbarkeit
* paralleler Zugriff
* 100% Verfügbarkeit

und bietet zudem viele weitere sinnvolle Funktionen, z.B. die gute Integration in VMware. Kunden können das System bei uns im Innovation Lab begutachten und wir können die von uns im Artikel erwähnten Punkte ohne grossen Aufwand demonstrieren!

Für welche Kunden ist denn nun eine SolidFire-Lösung geeignet? Einfach gesagt: Alle Kunden, die eine hochverfügbare, einfach zu verwaltende und in Leistung und Kapazität maximal skalierbare und zugleich äusserst effiziente Speicherlösung benötigen. Dies gilt speziell für Web-Hoster und Anbieter von Shared Services, jedoch auch für grosse VM-Farmen mit mehreren hundert VMs, uvm.

 

DatacenterNetAppSolidFireStorage
Read more
  • Published in Blog, Datacenter
No Comments
  • 1
  • 2

Suche

Weitere News

  • DC-Summit 2022

    Datacenter Summit 2022

  • Geschützt: Webinar «Intelligent Traffic Systems «- Aufzeichnung

  • Webinar Intelligent Traffic Solutions

  • Kantonsspital Baselland (KSBL): Neue Basis-Telefonanlage durch ITRIS One

  • Technologie muss nutzbringend sein

Kontakt
ITRIS One AG
Industriestrasse 169
8957 Spreitenbach

+41 56 418 64 64
one@itris.ch

Copyright
Die Inhalte und Bilder dieser
Webseite sind urheberrechtlich
geschützt.

AGB
Impressum

Support
ITRIS One Services
+41 56 418 62 62

ITRIS One Solutions
0800 558 880

Wir bieten unseren Kunden einen schnellen Fernsupport an.

Fernsupport

Quicklinks

  • IT SOLUTIONS
    • DATACENTER & CLOUD
    • NETWORK SOLUTIONS
    • IT SECURITY
    • UNIFIED COLLABORATION
    • DIGITAL WORKPLACE
    • HEALTHCARE IT SOLUTIONS
  • IT SERVICES
    • Professional IT Services
    • IT Service Management
    • IT Support Services
  • CLOUD SERVICES
    • Übersicht
    • Cloud Readiness Check
    • Unified Collaboration as a Service
  • UNTERNEHMEN
    • Über uns
    • ITRIS Gruppe
    • Jobs | Wir suchen Dich →
    • Standorte
    • Referenzen
    • Partner
    • Awards
    • News
    • Events
    • Blogs
  • KONTAKT

Social Media

ITRIS AG ITRIS AG
ITRIS One AG

© Alle Rechte vorbehalten.

TOP