×

ITRIS One AG

+41 56 418 64 64
  • ITRIS Gruppe
  • IT SOLUTIONS
    • DATACENTER & CLOUD
      • Übersicht
      • Datacenter Solutions
      • Cloud & Hybrid Cloud
      • Orchestration & Automation
      • Innovation Lab
    • NETWORK SOLUTIONS
      • Übersicht
      • Software Defined Networking
      • Mobility & Wireless
      • Cloud Managed Networks
      • Managed Network Services
      • WLAN Ortungslösungen
      • Cisco DNA Demo
      • Netzwerkanalysen as a Service
    • IT SECURITY
      • Übersicht
      • Umfassende Security
      • Cloud Security
      • Security Audit
      • Network Detection & Response
    • UNIFIED COLLABORATION
      • Übersicht
    • DIGITAL WORKPLACE
      • Übersicht
    • HEALTHCARE IT SOLUTIONS
      • Übersicht
      • WLAN Ortungslösungen
  • IT SERVICES
    • Professional IT Services
      • Übersicht
      • Projekt Management
      • IT Navigation
      • Cloud Readiness Check
      • Business Aligned IT
      • Unified Collaboration as a Service
      • Threat Management as a Service
      • Ransomware Readiness Workshop
      • Netzwerkanalysen as a Service
    • IT Service Management
      • Übersicht
    • IT Support Services
      • Übersicht
      • IT Monitoring Service
  • CLOUD SERVICES
    • Übersicht
    • Cloud Security Service
    • Cloud Readiness Check
    • Unified Collaboration as a Service
  • UNTERNEHMEN
    • ITRIS Gruppe
    • Über uns
    • Jobs | Wir suchen Dich →
    • Standorte
    • Referenzen
    • Partner
    • Awards
    • News
    • Expertenstatements
    • Events
  • KONTAKT
  • Home
  • Expertenstatements
  • Archive from category "Expertenstatements"
  • Page 2

NetApp überzeugt mit HCI

06.09.2018 by ITRIS

Hyperkonvergente Infrastrukturen (HCI) sind der letzte Schrei in Sachen Data-Center-Infrastruktur. Eine HCI vereint Rechenleistung, Storage und Managementsoftware unter einem Dach und setzt auf eine softwaredefinierte, virtualisierte Architektur. Sie verspricht hohe Performance und Ausfallsicherheit sowie einfaches, einheitliches Management.

HCI auf neue Art

NetApp bietet seit Kurzen ebenfalls eine HCI-Lösung an. Streng genommen handelt es sich dabei jedoch nicht um klassische Hyperkonvergenz, denn für Storage und Compute sind bei NetApp HCI jeweils separate Knoten zuständig. Nachteilig ist das allerdings nicht, ganz im Gegenteil: Das Konzept von NetApp birgt einen ganzen Strauss von Vorteilen – es gibt sogar Stimmen, die von «HCI 2.0» sprechen. Hier das Wichtigste:

  • Storage- und Compute-Leistung lassen sich bei NetApp HCI komplett unabhängig voneinander skalieren. Dies erleichtert den Umgang mit Workloads, die punkto Speicher- und Rechenansprüche stark differieren. Und es ermöglicht, die Infrastruktur bei veränderten Bedürfnissen gezielt und ausgewogen zu erweitern, ohne dass dabei entweder zu viel Storage- oder zu viel Compute-Ressourcen zugekauft werden müssen.
  • Die Architektur erlaubt, verschiedene Storage-Knoten beliebig zu kombinieren. NetApp HCI basiert auf dem auf Software-defined Storage ausgelegten Element OS, das auch die SolidFire All-Flash-Arrays von NetApp antreibt. Mehr zu SolidFire erfahren Sie im Beitrag «4 Node SolidFire Cluster von NetApp im Test». Mit Element OS als Basis offeriert NetApp HCI zudem die bahnbrechenden Features der SolidFire-Arrays wie Deduplication, Compression oder Scale-Out.
  • Die Trennung von Compute- und Storage-Knoten löst eine ganzen Reihe von Problemen, die in einem kombinierten Storage/Compute-Knoten auftreten: Storage und Compute fordern CPU und Memory des Knotens sehr unterschiedlich, was die Gesamtleistung negativ beeinflusst. Aufgrund der separaten Knoten sowie der ausgefeilten Storage-QoS-Funktionalität von Element OS kann NetAPP HCI eine anwendungsspezifisch garantierte Storage-Performance bieten, und zwar unabhängig davon, was auf der Compute-Seite vor sich geht.
  • Mit NetApp HCI entfällt die «HCI-Steuer»: Ist ein Knoten ausschliesslich für Storage zuständig, benötigt er keine Lizenzen für Betriebssytem und Hypervisor und stellt keine Ansprüche an CPU und RAM der Compute-Knoten. Bei klassischen HCI-Lösungen muss dagegen jeder Knoten komplett lizenziert werden

Fast schon zu einfach

Das ist aber noch nicht alles. NetApp will den Anwendern das Aufsetzen und die Administration der HCI-Umgebung besonders leicht machen – zumindest wenn sie auf die Virtualisierungsplattform von VMware setzen. Mit der NetApp Deployment Engine (NDE) geht die Installation praktisch vollautomatisch über die Bühne. Die NDE ist in jedem Knoten vorinstalliert und wird über eine Weboberfläche bedient: Im Browser ruft man die IP-Adresse des Management-Ports eines Storage-Knotens auf, füllt diverse Grundangaben ein, und die NDE installiert den Rest – von Basiskomponenten wie ESXi und Element OS/SolidFire bis zum vCenter und dem vCenter-Plugin. Denn NetApp HCI ist nahtlos ins vCenter integriert, sowohl für das Management als auch für das Monitoring der Hardware. Kann auf die Deployment Engine verzichten werden, lässt sich das System grundsätzlich auch mit jedem anderen Hypervisor nutzen.

Test erfolgreich

ITRIS hat die NetApp HCI in einem Setup mit vier Compute- und vier Storage-Nodes getestet. Wir haben dabei besonders auf die Performance und Ausfallsicherheit geachtet. Die Resultate: Der Ausfall einer einzelnen Disk hat praktisch keinen Impact – die Verfügbarkeit war in unter einer Minute wiederhergestellt, und die Meldung im vCenter war klar verständlich. Beim Ausfall eines Netzteils läuft das System unterbrechungsfrei weiter, es erscheint nur eine Meldung im vCenter.

Deutlicher macht sich der Ausfall eines ganzen Knotens bemerkbar. Nach dem Rebuild innert rund zehn Minuten lief das System mit rund ¾ der Leistung wieder stabil. Insgesamt hat uns die NetApp HCI überzeugt, vor allem beim Setup und bei der vCenter-Integration. Die Performance war identisch zu vergleichbaren Solidfire-Knoten – mit anderen Worten: sehr gut.

NetApp HCI

Die HCI-Lösung von NetApp kombiniert Storage- und Compute-Knoten in einem einfachen Baukastensystem. Beide Typen sind in jeweils drei Konfigurationen erhältlich (klein, mittel, gross). Die Dimensionen sind identisch: Jeder Knoten belegt eine Höheneinheit bei halber Rackbreite.

Storage-Nodes gibt es mit derzeit je 6 SSDs zu 480 GB, 960 GB oder 1,9 TB mit einer Gesamtleistung von 50’000 beziehungsweise 100’000 IOPS. Compute-Nodes sind x86-Server im Industriestandard mit 16, 24 oder 36 Cores und 256, 512 oder 768 GB RAM. Die Minimalkonfiguration besteht aus zwei 2-HE/4N-Chassis, vier Storage- und zwei Computing-Nodes.

Hier gehts zum Datenblatt von NetApp HCI

DatacenterHCINetAppPerformanceStorage
Read more
  • Published in Datacenter, Expertenstatements, News
No Comments

4 Node SolidFire Cluster von NetApp im Test

26.06.2018 by ITRIS

Eine effiziente Informationsablage (Speicher) ist das Fundament einer modernen und leistungsstarken Rechenzenterlösung. Der effizienteste Mitarbeiter im 10. Stock bringt keine Leistung, wenn seine Ordner im Keller gelagert sind. Neue und agile Ansätze wie Deep Learning, Micro Segmentation oder Artificial Intelligence und das enorme Wachstum an gespeicherten Informationen stellen ganz neue Anforderungen an eine moderne Speicherlösung.

Gefordert sind speziell:
* Skalierbarkeit.
* paralleler Zugriff
* 100% Verfügbarkeit

Monolithische Denkansätze scheitern meist an diesen Herausforderungen. Das Nadelöhr ist oft der Speicherkontroller oder die Devices (Disks), die ab einer gewissen Kapazität nicht mehr die geforderte Leistung (Durchsatz und Transaktionen/Sekunde) liefern. Zudem verhindern Lifecycles monolithischer Speicherlösungen meist einen unterbruchfreien Betrieb (Storage Migration).

Software-definierte Ansätze machen unabhängig von Hardware und ermöglichen zudem je nach Design massive Skalierbarkeit nicht nur der Kapazität sondern – linear zur Kapazität – auch der Performance.

Diesem Ansatz folgt NetApp mit der Speicherlösung SolidFire. ITRIS testete den 4 Node SolidFire Cluster im hauseigenen Innovation Lab ausgiebig unter realen Bedingungen. Ist die Lösung wirklich so flexibel, wie es die Marketing-Slides einem versprechen? Skaliert die Performance linear mit jedem weiteren Node? Was passiert, wenn eine Disk ausfällt, was, wenn ein ganzer Node das Zeitliche segnet? Und wie werden Verbindungsabbrüche zwischen den Nodes gehandhabt? Fragen, die wir mit unserem POC ausführlich klären konnten.

NetApp hat den Trend zum SDS erkannt und Ende 2015 das Startup SolidFire übernommen. Die von SolidFire entwickelte All-Flash-Lösung wurde unter demselben Namen ins Portfolio übernommen und deckt die oben genannten Features ab. Es handelt sich dabei um einen reinen iSCSI Storage ähnlich zum CEPH Storage von RedHat, jedoch als Enterprise Appliance und mit entsprechendem hochwertigem Support.

Beim Software Defined Storage wird der bisher zentral vorhandene Storage Controller auf mehrere (theoretisch unbegrenzt viele) Nodes verteilt, die üblicherweise aus gewöhnlichen x86-Server bestehen. Diese Nodes bilden auf Software-Ebene einen virtuellen Controller, der sich über das Gesamtsystem erstreckt und in der Regel fast beliebig skalierbar ist. Daraus ergeben sich neue Möglichkeiten was die Erweiterung von Performance und Kapazität betrifft. Bei einem Hardware-Refresh ist die unterbrechungsfreie Migration auf neue Generationen von Nodes möglich.

HELIX-Architektur als Fundament von SolidFire

SolidFires zum Patent angemeldeter Helix-Datenschutz ist ein verteilter Replikationsalgorithmus, der mindestens zwei redundante Kopien von Daten über alle Laufwerke im System verteilt. Dieser «RAID-lose» Ansatz ermöglicht es dem System, mehrere gleichzeitige Fehler auf allen Ebenen der Speicherlösung zu absorbieren. Darüber hinaus werden Fehler isoliert und so Auswirkungen auf die Leistung anderer Aspekte des Systems vermieden, während alle «Quality of Service (QoS)»-Einstellungen beibehalten werden.

Quality of Service (QoS)

Bei hoch skalierbaren Lösungen ist es umso wichtiger, die auf dem System zur Verfügung gestellten Speicherdienste mit «Quality of Service» zu versehen. Auch hier geht NetApp mit SolidFire neue Wege und bietet nicht nur „high watermarks“ sondern auch die Möglichkeit, einzelne LUNs mit einer minimalen Leistungsgarantie zu versehen („low watermark). So kann z.B. eine elementare Datenbank LUN in den QoS Einstellungen mit z.B. minimal 20k IOPS versehen werden. Das System wird dann alles daransetzen, dieser spezifischen LUN stets mindestens 20k IOPS zu garantieren.

Effizienz dank Deduplikation und Kompression

Inline Deduplikation und Kompression sind bei modernen Speicherlösungen nicht mehr wegzudenken. Die SolidFire-Speicherlösung erreichte in unseren eigenen Tests die höchste Speichereffizienz für Scale-Out-Lösungen. So belegten 50x identische VMware VMs à jeweils 13GB (650GB Total) lediglich 12.5GB der Nettokapazität des Speichersystems, was einer Datenreduktion von 50:1 entspricht und dem System auch unter Berücksichtigung von konventionellen monolithischen Speicheransätzen einen Platz unter den TOP 3 beschert! Hammer!

Verfügbarkeit – Disk-Ausfall

SolidFire verwendet also keinerlei Raid-Verbund über die Festplatten. Die einzelnen Disks werden vom Cluster auch einzeln erkannt und verwaltet. Schutz vor Datenverlust wird auf Block-Ebene durch mehrfaches Speichern desselben Blocks auf unterschiedlichen Nodes sichergestellt. Wenn eine Disk ausfällt, sind alle Blöcke auf ihr mindestens noch einmal im System vorhanden. Nach 5 Minuten startet das System einen Rebuild und sorgt dafür, dass die betroffenen Blöcke wieder doppelt vorhanden sind. Dieser Rebuild dauerte meist weniger als 10 Minuten. Die RAW-Kapazität des Gesamtsystems verringert sich automatisch um die entsprechende Grösse der Disk. Wurde eine Disk auf den übrigen Disks hergestellt, ist das System wieder voll redundant. So können theoretisch so viele Disks ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.

Verfügbarkeit – Nodeausfall

SolidFire verwaltet fast alles auf Disk und nicht auf Node-Ebene. Der Ausfall eines Nodes ist also ähnlich wie der Ausfall von 10 einzelnen SSDs. Die Gesamtleistung und Kapazität der Lösung wird dabei um die eines Nodes reduziert. SolidFire bindet jedes LUN mit 2 iSCSI-Pfaden immer über 2 Nodes an, dabei wird anhand der Min-IOPS QoS Einstellung des LUNs entschieden, welcher Node verwendet wird. Die iSCSI Sessions des ausgefallenen Nodes laufen einfach in ein Timeout, und der Request wird automatisch auf den anderen Pfad umgeleitet. Ein Node Rebuild dauerte im Test meist weniger als 60 Minuten. Es können so viele Nodes ausfallen, bis entweder die benötigte Kapazität oder die minimal benötigte Anzahl an Nodes unterschritten wird.

Entfernen und Hinzufügen von Nodes ist kinderleicht

Ein einfacher Klick im Webinterface reicht, um einen Node zu entfernen, alles andere (Neuverteilung der Blöcke, Rebalancing der LUNs, iSCSI Multipathing usw) erfolgt komplett automatisch im Hintergrund. Das Hinzufügen eines neuen Nodes ist minimal umständlicher. Über den Management Node (mNode) können neue Nodes mit geringem Aufwand hinzugefügt werden.

Flexibel skalieren in alle Richtungen

Was uns sehr gut gefällt, sind die unbegrenzten Kombinationsmöglichkeiten verschiedener Nodes. So kann der Kunde bei steigenden Performance-Anforderungen einfach leistungsfähigere Nodes kaufen und dem Gesamtsystem hinzufügen. IOPS intensive LUNs werden dann automatisch (unter Berücksichtigung der Min-IOPS QoS) auf diese Nodes migriert. Auch der Hardware-Refresh kann laufend erfolgen, einzige Limitation: Der grösste Node darf nicht mehr als 30% der Gesamtkapazität stellen. Das System kann so laufend erweitert werden und alte Nodes können, wenn sie unwirtschaftlich werden, Stück für Stück ausgemustert werden.

Verfügbarkeit – asynchrone und synchrone Replikation

Dank SnapMirror verfügt SolidFire über eine bewährte asynchrone und synchrone Replikation. Es können Daten nicht nur unter SolidFire-Systemen repliziert, sondern auch SnapShots asynchron an die Unified Storage Systeme (FAS/AFF) von NetApp gesendet werden. Dadurch wird eine plattformübergreifende Redundanz geschaffen, die – meist unter hohem Kostenaufwand – nur wenige andere Hersteller ebenfalls bieten können.

Integration in VMware und andere Umgebungen

Ins vCenter integriert sich SolidFire fast nahtlos. Das Plugin bildet die meisten Funktionen des Webinterfaces nach und auch das Anlegen neuer Datastores kann das Plugin automatisieren. Sehr gut wurde die Integration von Fehlermeldungen gelöst: Das Plugin meldet jeden Fehler auf dem Storage und ermöglicht so das Monitoring mit vCenter-Bordmitteln. SolidFire lässt sich zudem dank starkem API optimal in unterschiedlichste Infrastrukturen integrieren. Auf NetApp’s «thePub» und GitHub findet man SDKs zu Java, GoLang, DotNet und Python, ein Web-Interface, CLI sowie PowerShell Scripts, ein vRealize Orchestrator Plugin sowie Cynder, Terraform- und OpenStack-Integrationen und vieles mehr.

Keine Eierlegende Wollmilchsau

Auch wenn sich viele Kunden das anders wünschen, so hat jedes Speichersystem seine Stärken und Schwächen. Scale-Out-Ansätze, Scale-Up-Ansätze und Vorteile sind meist nicht im selben System vereinbar. Scale-Up-Ansätze bieten oft optimale Performance für einige wenige LUNs und werden dann, je mehr LUNs auf dem System abgelegt werden, kontinuierlich inneffizienter. Scale-Out-Ansätze beginnen erst richtig zu performen, wenn eine gewisse Anzahl LUNs auf dem System vorhanden sind. Dies gilt auch für SolidFire. Diese Lösung liebt es, viele LUNs parallel mit hoher Leistung zu versorgen. Muss eine einzelne Applikation mehr als 100k IOPS machen können, dann sollte deren Volume im Falle von SolidFire aus mehreren LUNs bestehen, damit diese aggregiert die geforderte Leistung erbringen können. Hierzu ist ein Volume Manager auf Serverseite nötig. Solche Anforderungen werden jedoch meist nur noch von einigen wenigen monolithischen Applikationen gestellt, welche selbst vor der Herausforderung stehen, durch neue applikatorische Scale-Out-Ansätze (Micro Services) vom Markt verdrängt zu werden.

Fazit

Die Software Defined Scale Out Storage Lösung von NetApp konnte uns überzeugen. Sie erfüllt vollumfänglich die drei Anforderungen
* Skalierbarkeit
* paralleler Zugriff
* 100% Verfügbarkeit

und bietet zudem viele weitere sinnvolle Funktionen, z.B. die gute Integration in VMware. Kunden können das System bei uns im Innovation Lab begutachten und wir können die von uns im Artikel erwähnten Punkte ohne grossen Aufwand demonstrieren!

Für welche Kunden ist denn nun eine SolidFire-Lösung geeignet? Einfach gesagt: Alle Kunden, die eine hochverfügbare, einfach zu verwaltende und in Leistung und Kapazität maximal skalierbare und zugleich äusserst effiziente Speicherlösung benötigen. Dies gilt speziell für Web-Hoster und Anbieter von Shared Services, jedoch auch für grosse VM-Farmen mit mehreren hundert VMs, uvm.

 

DatacenterNetAppSolidFireStorage
Read more
  • Published in Datacenter, Expertenstatements
No Comments

Industrie im Visier von Cyberkriminellen

19.04.2018 by ITRIS

Industrie im Visier von Cyberkriminiellen – weitere OT und IoT-Attacken in Sicht

Fertigungsbetriebe waren schon immer ein beliebtes Ziel für Cyberangriffe, da sie aufgrund der verteilten Werke und Betriebe eine erweiterte Angriffsfläche bieten. Doch mit WannaCry, Nyetya und Co. wurde 2017 ein neues Level erreicht. Dies zeigt der kürzlich veröffentlichte Annual Security Report 2018 von Cisco auf.

Der jährliche Cybersecurity Report hebt einige der wichtigsten Trends in der Entwicklung von Malware und deren Auswirkungen auf Systeme und Daten hervor und zeigt konkrete Schritte für Unternehmen auf, um den Gegnern immer einen Schritt voraus zu sein. Die Rolle des Internet der Dinge (Internet of Things, IoT) und seine Auswirkungen auf Sicherheitsarchitekturen und -prozesse werden dabei ebenso analysiert wie die Frage, wie künstliche Intelligenz (KI), Automatisierung und Technologien des maschinellen Lernens eingesetzt werden, um böswillige Aktivitäten zu mindern.

Aus fertigungstechnischer Sicht gibt es einige wichtige Erkenntnisse über die Auswirkungen, die das Internet der Dinge auf die Betriebstechnik hat:

  • 31% der Sicherheitsexperten gaben an, dass ihre Organisationen bereits Cyber-Angriffe auf die OT-Infrastruktur erlebt haben.
  • 38% gaben an, dass sie davon ausgehen, dass Angriffe im nächsten Jahr von IT auf OT ausgedehnt werden.
  • 69% der Unternehmen glauben, dass OT ein lebensfähiger Angriffsvektor im Jahr 2018 ist.
  • IoT-Botnets werden immer grösser und leistungsfähiger, aber nur wenige Unternehmen sehen sie derzeit als unmittelbare Bedrohung an.

Effektive Praktiken und Herausforderungen

Um sich vor Schwachstellen zu schützen, zeigen Industriekunden im Rahmen des Annual Cybersecurity Reports einige der Möglichkeiten auf, wie sie ihre Sicherheitsarchitektur verbessern können.

  • Mehr als 50% gaben an, dass sie eine Defense-in-Depth-Strategie in der Industriezone anwenden.
  • Über 80% sagten aus, dass zonenbasierte industrielle Firewalls den Perimeter effektiv schützen.
  • Mehr als die Hälfte der Befragten ist der Meinung, dass die Sicherheitstools, die sie innerhalb der Industriezone einsetzen, sehr effizient sind.
  • Die wichtigsten Elemente im Rahmen einer umfassenden Sicherheitsstrategie, die von den Befragten in dem Bericht erstellt werden, sind Virenschutz, Verschlüsselung und Port-Sicherheit.

Cisco ist führend im Bereich industrieller Sicherheitslösungen und stellt Werkzeuge bereit, die Sie zur Erkennung von verdächtigem Datenverkehr, Richtlinienverstössen und infizierten Geräten in Ihrer Arbeitsumgebung benötigen. Die Cisco Technologie trägt dazu bei, Risiken für den gesamten (verschlüsselten und unverschlüsselten) Datenverkehr zu reduzieren und hilft Ihnen, nachzuvollziehen, wie, wann, wo und warum sich Benutzer und Geräte mit Ihrem Netzwerk verbinden.

Erfahren Sie mehr zu den Cisco Industrie-Lösungen unter www.cisco.de/manufacturing

 

CiscoCyber AttackFertigungIndustrie 4.0IoTSecurity
Read more
  • Published in Expertenstatements, IT Security
No Comments

DDoS-Schutz: Brauche ich das?

15.02.2018 by ITRIS

Die Anzahl von DDoS-Attacken nimmt nach wie vor zu. Lösungen von Internet-Providern bieten aber oft keinen ausreichenden Schutz. ITRIS Enterprise arbeitet hierfür mit Radware, dem Technologieführer in Sachen DDoS-Schutz, zusammen. Die SBB haben bereits eine Lösung von Radware im Einsatz – und sind bestens gegen Angriffe gewappnet.

Digitec, Coop, Interdiscount: Im März 2016 fielen gleich mehrere Schweizer Webseiten-Betreiber DDoS-Attacken zum Opfer. Die Online-Shops waren teilweise für mehrere Stunden nicht zu erreichen – der immense wirtschaftliche Schaden, der durch die Cyberattacken entstand, lässt sich nur erahnen. Ein schwarzer Tag für den Schweizer E-Commerce.
Die Anzahl von DDoS-Attacken nimmt nach wie vor zu. Das belegt der «Global Application & Network Security Report 2017-18” von Radware, dem Technologieführer in Sachen DDoS-Schutz. Die Verbreitung von DDoS-Attacken stieg im Vergleich zum Vorjahr um 10 Prozent, fast zwei von fünf Unternehmen seien von Angriffen betroffen.

Kein Know-how für DDoS-Attacken nötig
DDoS-Attacken stellen aus unterschiedlichen Gründen eine zunehmende Gefahr für Webseiten-Betreiber dar. Gerade die rasante Zunahme von IoT-Geräten spielt den Angreifern in die Karten: vernetzte Kühlschränke, Toaster oder Überwachungskameras dienen ihnen als Einstiegstor für DDoS-Angriffe – ohne dass die Besitzer etwas davon merken. Darüber hinaus sind für DDoS-Attacken gar keine Hacker-Kenntnisse nötig. Wer andere schädigen will, kann heute DDoS als Service von entsprechenden Anbietern beziehen.

Unter den Angriffen leidet nicht nur die Reputation des Unternehmens. Die Attacken legen auch das Online-Geschäft lahm, was wiederum finanzielle Schäden verursacht – genauso wie das Lösegeld, das die Angreifer in diesem Zusammenhang zu erpressen versuchen. Unternehmen müssen sich daher fragen, ob und in welchem Ausmass ein DDoS-Schutz für sie Sinn macht. Eine Risikobeurteilung, in der das Schadenspotenzial und die Eintrittswahrscheinlichkeit von DDoS-Angriffen analysiert werden, kann hier weiterhelfen.

SBB setzt auf On-Premises Anti-DDoS Appliance von Radware
Die Vorfälle vom März 2016 haben gezeigt: Auch wer einen DDoS-Schutz von seinem Internet Service Provider (ISP) abonniert, bleibt nicht vor Angriffen verschont. Denn die Bandbreite, die bei den ISPs für den Schutz zur Verfügung steht, muss auf alle Kunden aufgeteilt werden – und ist somit zu gering, um wirksam schützen zu können. Zwei andere Lösungsansätze sind da effektiver: Entweder entscheidet man sich für eine hybride Lösung: bei dieser ist ein On-Premises Anti-DDoS Appliance für abgeschwächte Angriffe im Einsatz; über eine Cloud-Anbindung werden auch volumetrische Angriffe, die von mehreren Systemen gleichzeitig ausgehen, abgefangen. Oder man setzt auf eine Always-on-Lösung, die ausschliesslich über die Cloud betrieben wird. Beide Lösungen haben unterschiedliche Vor- und Nachteile: Bei der Always-on-Lösung fallen keine Anschaffungskosten an, der Installations- und Betriebsaufwand ist sehr gering, auch ist nur wenig Know-how nötig. Der Hybridansatz erlaubt dafür ein besseres Reporting und eine höhere Flexibilität bei Filteranpassungen.

Auch die SBB waren 2016 von DDoS-Angriffen betroffen – trotz aktivem DDoS-Schutz durch den Provider. Grosse Systemausfälle waren die Folge – als mit Abstand wichtigster Schweizer Dienstleister im Personen- und Gütertransport kann sich die SBB keine Ausfälle diese Art leisten. Nach einem aufwendigen Evaluationsverfahren entschieden sich die SBB letztlich für eine on-Premises Anti-DDoS Appliance von Radware, als Ergänzung zum DDoS-Schutz beim Provider.

Radware verfügt über jahrelange Erfahrung im Bereich DDoS-Schutz und stellt ihre Technologie Herstellern wie Check Point und Cisco als OEM-Produkt zur Verfügung. Zudem verfügt Radware für die Anbindung ihrer neun weltweit verteilten Scrubbing Center mit mehr als 3.5TB/s Bandbreite über ein Vielfaches an Kapazität als das, was die ISPs ihren Kunden anbieten können. Wir von der ITRIS Enterprise arbeiten im Bereich DDoS-Schutz und Prävention mit Radware (www.radware.com) zusammen – und haben uns bewusst für den Technologieführer in diesem Bereich entschieden.

Anti-DDoSRadwareSBBSecurity
Read more
  • Published in Expertenstatements, IT Security, News
No Comments

Neue Datenschutzrichtlinie der EU GDPR

15.02.2018 by ITRIS

GDPR (General Data Protection Regulation), die neue Datenschutzrichtlinie der EU, tritt dieses Jahr in Kraft – und kommt voraussichtlich 2019 in der Schweiz zum Einsatz. Die Verordnung stellt Unternehmen beim Umgang mit personenbezogenen Daten vor neue Herausforderungen. Wir zeigen Ihnen, auf was Sie achten müssen.

Die neue Verordnung DSGVO/GDPR regelt einen einheitlichen Datenschutz von personenbezogenen Daten durch private Unternehmen und öffentliche Stellen. Der Datenschutz betrifft EU-Bürger oder Personen mit Wohnsitz in der EU. Dank der Datenschutzrichtlinie können Bürger beim Unternehmen nun Auskunft über die gesammelten Personendaten verlangen – und deren Löschung beantragen. Damit Unternehmen dieser Verordnung gerecht werden, müssen sie genau wissen, wo welche Daten gespeichert und abgelegt werden.

Wen betrifft die Verordnung?
Ab Mai 2018 gilt die Verordnung für alle Schweizer Unternehmen, die

  • Angestellte aus der Europäischen Union beschäftigen
  • die Datenverarbeitung von EU-Bürgern durchführen
  • Datenhaltungen von Bürgern mit Wohnsitz in der EU besitzen.

Wenn die Schweizerische Eidgenossenschaft die Verordnung 2019 übernimmt, gelten diese Regelungen auch für Schweizer Bürger.

Was bedeutet das für Ihr Unternehmen?
Für Unternehmen stellt die saubere Datenhaltung das grösste Problem dar: Nicht selten speichern sie lieber ein paar Daten zu viel als zu wenig. Durch das Wachstum eines Unternehmens wird die akkurate Datenhaltung allerdings oftmals vernachlässigt; denn die Datenablage wird meist nur sehr verzögert an die neue Firmengrösse angepasst. Stellen Sie sich daher folgende Fragen:

  • Welche Daten werden gesammelt?
  • Weiss Ihr Unternehmen, wo die Daten abgelegt sind?
  • Braucht es in Ihrer Datensammlung alle Informationen oder wird auf Vorrat gespeichert?
  • Wo sind die personenbezogenen Daten gespeichert? Wer hat Zugriff auf diese Daten? Wer verarbeitet sie?

Gerade bei personenbezogenen Daten ist es umso wichtiger, dass Ihr Unternehmen genau weiss, wer auf welche Daten zugreifen darf und wer nicht. Schliesslich hört die Zugriffsberechtigung nicht einfach bei den internen Mitarbeitern auf. Wenn Sie mit externen Partnern, Lieferanten etc. zusammenarbeiten, müssen diese ebenfalls in einem Zugriffskonzept berücksichtigt werden. Denken Sie bei der nächsten Datenbereinigung auch über eine Klassifizierung nach. So können Sie personenbezogene Daten in Zukunft noch schneller identifizieren.

Die neue GDPR-Verordnung regelt auch das Vorgehen bei Datenschutzverletzungen. Diese können intern – z. B. durch Datenabzug von Mitarbeitern – oder extern durch Cyber-Angriffe entstehen. Wenn ein solches Ereignis eintritt, ist das Unternehmen verpflichtet, innerhalb von 72 Stunden die Datenschutzbehörde zu informieren. Dieser muss mitgeteilt werden, welche Daten in welchem Umfang vom Verstoss betroffen sind. Ausserdem müssen die betroffenen Personen umgehend über das Delikt informiert werden. Wenn Sie den Verstoss nicht bei der Datenschutzbehörde melden, können Strafen in Höhe von bis zu 2 % des Unternehmensumsatzes fällig werden. Bei groben Verstössen kann sich die Strafe auf bis zu 4 % des Unternehmensumsatzes erhöhen.

Es empfiehlt sich deshalb, die betroffenen Systeme permanent zu überwachen. So bemerken Sie nicht nur Datenschutzverletzungen. Sie können gegenüber den Behörden auch eine Nachvollziehbarkeit vorweisen. So vermeiden oder verkleinern Sie das Risiko der Fahrlässigkeit.

Mit der Verordnung müssen Unternehmen auch neue, spezifische Prozesse einführen. Etwa muss klar geregelt sein, wie eine Meldung an die Datenschutzbehörde abläuft. Oder wie eine Person, die eine Auskunft über ihre personenbezogenen Daten wünscht, genau identifiziert wird. Damit diese Vorgaben verantwortungsvoll umgesetzt werden können, sollte im Unternehmen ein Datenschutzverantwortlicher bestimmt werden. So werden die technische und organisatorische Umsetzung zentral gesteuert. Sensibilisieren Sie zudem Ihre Mitarbeiter zum Thema GDPR. Nur so gewährleistet ihr Unternehmen einen verantwortungsvollen Umgang mit Daten.

DataEUGDPRSecurity
Read more
  • Published in Expertenstatements, News
No Comments

Vereinfachte Multi-Cloud-Nutzung mit neuer Cisco HyperFlex-Version

15.02.2018 by ITRIS

Cisco hat mit HyperFlex 3.0 eine neue Version seiner Software-Plattform für hyperkonvergente Infrastrukturen herausgebracht. Sie gewährleistet eine hohe Performance und einfaches Management für jede Anwendung auf jeder Cloud bei jeder Skalierung. Zu den Verbesserungen in der neuen Version gehört der Support für Microsoft Hyper-V, Stretch Cluster, Container und neue Multi-Cloud-Services. Damit lassen sich Anwendungen in jeder Cloud installieren, überwachen und verwalten.

Die Plattform ermöglicht es auf einzigartige Weise, sowohl herkömmlichen als auch Cloud-native Applikationen auf einer gemeinsamen hyperkonvergenten Plattform zu entwickeln und zu deployen. Andere Hyperkonvergenz-Lösungen vernachlässigen häufig die entscheidende Rolle, die Netzwerke und verteilte Dateisysteme bei der Performance und Skalierung von geclusterten Servern spielen. Cisco bietet dagegen einen umfassenden End-to-End-Ansatz für Konvergenz, der hochperformante Server und Netzwerk-Technologien über ein speziell dafür entwickeltes File-System bereitstellt. Durch branchenweit führende Performance können Kunden eine breitere Palette an Anwendungen – dazu gehören etwa Datenbanken und geschäftskritische ERP-Workloads – effizienter unterstützen.

Die Elemente der Hyperflex-Lösung im Überblick

HyperFlex 3.0 bietet deutliche Verbesserungen für geschäftskritische und Cloud-native Workloads für jede Anwendung:

  • Multi-Hypervisor-Support. Neben VMware ESXi unterstützt HyperFlex nun auch Microsoft Hyper-V.
  • Container-Support. Ein neuer FlexVolume-Treiber ermöglicht eine dauerhafte Speicherung für Kubernetes-basierte Container zur Entwicklung und Installation Cloud-nativer Anwendungen auf HyperFlex.
  • Validierung von Unternehmens-Applikationen. HyperFlex bietet Tools zur Grössen- und Profilerfassung von Workloads, um Migrationsprojekte für Anwendungen zu unterstützen. Dabei stehen Anleitungen zum Design und Deployment für Virtual Server Infrastructure (VSI), Virtual Desktop Infrastructure (VDI) sowie geschäftskritischen Datenbanken, Analyse- und ERP-Lösungen wie Oracle, SQL, SAP, Microsoft Exchange und Splunk bereit.

Als Plattform für die Multi-Cloud-Welt bietet HyperFlex neue Service-Integrationen auf jeder Cloud:

  • Application Performance Monitoring. AppDynamics mit HyperFlex ermöglicht Performance Monitoring von hybriden Anwendungen auf HyperFlex und multiplen Clouds.
  • Application Placement. Cisco Workload Optimization Manager (CWOM) für HyperFlex unterstützt die automatische Analyse und Platzierung von Workloads.
  • Cloud Management. CloudCenter für HyperFlex ermöglicht das Workload Lifecycle Management auf Private und Public Clouds.
  • Private Cloud. CloudCenter für HyperFlex vereinfacht das Deployment und Management von virtuellen Maschinen, Containern und Anwendungen für die Bereitstellung von Private Clouds.

Kunden können mit der Cisco-Lösung auch schnell wachsende Workloads mit hoher Zuverlässigkeit bereitstellen:

  • Grössere Skalierbarkeit und Stabilität on-Premise. HyperFlex Cluster skalieren nun auf bis zu 64 Knoten, bei höherer Zuverlässigkeit durch vollautomatisierte Verfügbarkeitszonen.
  • Stretch Cluster in Rechenzentren. HyperFlex kann jetzt in Stretch Cluster konfiguriert werden, um Hochverfügbarkeit zu gewährleisten.
  • Cloud-basiertes Management. Cisco Intersight unterstützt nun HyperFlex Cloud Deployment zur erweiterten einfachen Installation und Verwaltung bei abgelegenen Standorten.
CiscoDatacenterHyperconverged
Read more
  • Published in Datacenter, Expertenstatements, News
No Comments

Die 4 wichtigsten Pain Points der IT-Transformation

15.02.2018 by ITRIS

Der Wandel von einer altherkömmlichen IT in eine moderne, agile Abteilung ist wichtig – aber nicht ohne Weiteres zu meistern. Wir zeigen Ihnen die vier wichtigsten Pain Points, auf die IT-Leiter bei der IT-Transformation stossen.

Der Umbau der eigenen IT in eine schlagkräftige, effiziente und agile Abteilung scheitert oft schon, bevor er richtig begonnen hat. Die Profis von ITRIS Enterprise identifizieren vier Painpoints, die IT-Leitern vor einer IT-Transformation oft bleischwer im Magen liegen:

1. SLA- und Lifecycle-Management. Viele IT-Infrastrukturen sind über die Jahre oder sogar Jahrzehnte gewachsen. Oft liegt genau aus diesem Grund keine sauber SLA-Struktur vor. Mit zum Teil fatalen Folgen für Planung und Budget. Unterhalt und Betrieb von Hardware wird beispielsweise nach 5 Jahren häufig teurer. Der Preisaufschlag ist oft so hoch, dass sich eine Verlängerung des Vertrags eigentlich nicht lohnt und die Hardware erneuert werden müsste.

Wer solche Veränderungen nicht auf dem Schirm hat, muss mit unangenehmen Überraschungen rechnen: Entweder kostet Unterhalt und Betrieb plötzlich viel mehr oder es muss ausserplanmässig neue Hard- und Software angeschafft werden. Beide Massnahmen schlagen unmittelbar auf das aktuelle IT-Budget durch. Im schlimmsten Fall müssen sogar businessrelevante Projekt verschoben werden, um den Betrieb der IT zu gewährleisten. Der Lifecycle ist daher immer die Basis für die Planung und die Roadmap der kommenden Jahre. Wer diese Basis nicht beherrscht, wird immer mit unangenehmen Überraschungen rechnen müssen.

2. Wissen, was läuft. Das bessere Angebot ist oft nur einen Klick entfernt. Entsprechend gross ist die Versuchung fürs Business, sich IT-Services selber einzukaufen, an der eigenen IT-Abteilung vorbei. Der Grund für dieses Verhalten: Die eigene IT ist zu langsam oder zu unwillig, auf die Bedürfnisse der Abteilungen einzugehen. Steht eine IT-Transformation an, gilt es, diese Schatten-IT zu identifizieren. Das hat zwei Vorteile: Man erkennt auf einfache Weise die wirklichen Bedürfnisse aus den Business-Abteilungen und identifiziert gleichzeitig die schlimmsten Sicherheitslücken. Nur, wer wirklich weiss, was läuft, kann auch adäquat reagieren und berücksichtigt bei der IT-Transformation die vorhandenen Bedürfnisse.

3. Auslastung und Lizenzen. Eine wichtige Erkenntnis, die ITRIS Enterprise aus zahlreichen Workshops und Analysen zieht: Trotz Virtualisierung ist die Auslastung der CPUs in den meisten Firmen noch immer viel zu tief – ohne, dass die Verantwortlichen von diesem Missstand wissen. 30 Prozent CPU-Auslastung sind noch immer keine Seltenheit. Das zieht immer hohe Lizenzkosten nach sich. Vor einer IT-Transformation gilt es, die Bedürfnisse nach Leistung sehr genau abzuklären. Ein wichtiger Schritt der IT-Transformation ist, die technischen Möglichkeiten der Virtualisierung auszureizen und so massiv Lizenzierungskosten zu sparen.

4. Priorisierung der Projekte. Die meisten IT-Leiter wissen ziemlich genau, welche Projekte sie anpacken müssten. Sie wissen sogar einigermassen, welche Kosten auf sie zukommen. Das «Was» ist in einer komplexen IT-Umgebung denn auch meistens nicht das Hauptproblem. Die viel grössere Knacknuss ist das «Wann». Wie sehen die gegenseitigen Abhängigkeiten aus? Welches Projekt hat auf welches andere Projekt einen Einfluss? Von der sauberen Planung der anstehenden Projekte hängt Erfolg oder Misserfolg der ganzen IT-Strategie ab. IT-Leiter, die diese Abhängigkeiten im Griff haben, können eine saubere Budgetierung vorlegen, die über mehrere Jahre verbindlich ist. Peinliche Budgetnachbesserungen während des Jahres bleiben ihnen erspart.

Fazit: Sorgfältige Analyse des Ist-Zustands. ITRIS Enterprise bietet mit dem Workshop «IT-Transformation» die Grundlage für einen strukturieren Umbau der IT, die modernen Anforderungen gewachsen ist. Probleme wie Lifecycle-Management, Schatten-IT oder Lizenzierung und Auslastung werden bei Bedarf genauer analysiert. Das wichtigste Resultat ist aber oft eine stimmige Roadmap, die gegenseitige Abhängigkeiten der Projekte im Detail berücksichtigt.

 

Business-Aligned ITServicesTransformation
Read more
  • Published in Expertenstatements, News, Professional IT Services
No Comments
  • 1
  • 2

Suche

Weitere News

  • ITRIS Gruppe gehört zu den Top 10 Arbeitgebern der Schweiz in der Branche Internet, Telekom und IT

  • Cloud Security Services by ITRIS One AG

    ITRIS Cloud Security Services: Mehr Sicherheit in der Cloud

  • Data Center Summit 2023 – Green and Beyond

  • Datenautomatisierung

    Nur wer sein Netzwerk kennt, kann die IT effizient nutzen

  • Hyperconverged Event

    Hyperconverged Event

Kontakt
ITRIS One AG
Industriestrasse 169
8957 Spreitenbach

+41 56 418 64 64
one@itris.ch

Copyright
Die Inhalte und Bilder dieser
Webseite sind urheberrechtlich
geschützt.

AGB
Impressum

Support
ITRIS One Services
+41 56 418 62 62

ITRIS One Solutions
0800 558 880

Wir bieten unseren Kunden einen schnellen Fernsupport an.

Fernsupport

Quicklinks

  • IT SOLUTIONS
    • DATACENTER & CLOUD
    • NETWORK SOLUTIONS
    • IT SECURITY
    • UNIFIED COLLABORATION
    • DIGITAL WORKPLACE
    • HEALTHCARE IT SOLUTIONS
  • IT SERVICES
    • Professional IT Services
    • IT Service Management
    • IT Support Services
  • CLOUD SERVICES
    • Übersicht
    • Cloud Security Service
    • Cloud Readiness Check
    • Unified Collaboration as a Service
  • UNTERNEHMEN
    • ITRIS Gruppe
    • Über uns
    • Jobs | Wir suchen Dich →
    • Standorte
    • Referenzen
    • Partner
    • Awards
    • News
    • Expertenstatements
    • Events
  • KONTAKT

Social Media

ITRIS AG ITRIS AG
ITRIS One Siegel Top Arbeitgeber IT Schweiz
ITRIS One AG

© Alle Rechte vorbehalten.

TOP