Ein Rechenzentrumsbetreiber realisiert eine Virtual Desktop Infrastructure.

Ausgangssituation

Ein norddeutscher RZ-Betreiber und innovativer Lösungsanbieter im Cloudbereich sucht für seinen neuen Geschäftsbereich „Virtual Desktop Infrastructure“ nach einer passenden Storagelösung.  

Zielsetzung

Die Einführung einer neuen Storagelösung, welche im ersten Step die Anforderungen eines vorab für einen Kunden skizzierten Testszenarios erfüllen muss. Neben den benötigten Performancewerten ist hierbei monetär ebenfalls ein schmaler Preis pro TB Kapazität gefordert. Nach einem erfolgreichen Proof of Concept soll zu einem späteren Zeitpunkt ein flexibler Ausbau der Lösung gewährleistet sein, um die wachsenden Anforderungen abdecken zu können.  

 Lösung / Realisierung

Aus der neuen Serie von NetApp kamen zwei FAS2650HA Systeme als Hybridlösung mit jeweils 24x 4TB SATA Festplatten, 4x 960GB SSDs, 8x 10GbE Ports, Premium Software Bundle sowie Clustered Data ONTAP zum Einsatz. Zwischen den beiden Systemen erfolgt zur Absicherung eine asynchrone Spiegelung. Im Vergleich zu den Filerköpfen der FAS25xx Serie verfügen die neuen Filerköpfe über deutlich mehr Leistung. Neben einem attraktiven Preis-Leistungs-Verhältnis bieten unter anderem die fortschrittliche Unified Architektur, das erstklassige Datenmanagement sowie optimierte Storage-Effizienzfunktionen weitere Vorteile. Eine Skalierung der Lösung, durch die Erweiterung mit weiteren Filerköpfen, Shelves, SSDs oder Festplatten, ist jederzeit ohne viel Aufwand zu wirtschaftlich interessanten Konditionen möglich.  

Topstore iSCSI Storagesystem, skalierbares Archive Storage

Ausgangssituation

Erneuerung des in die Jahre gekommenen gekommen Systems, das als Archive für VMware - und Software Images für den Helpdesk genutzt wird.

Zielsetzung

Die Support Abteilung des Software Hauses wünscht ein skalierbares System, das für den weiteren stetig wachsenden Bedarf erweitert werden kann. Da für die Fehlersuche virtuelle Maschinen mit verschiedenen Systemversionen und Software Ständen genutzt werden, sollten diese auch mit einem mehr an Geschwindigkeit zu starten sein.

Umsetzung

Nach Analyse der Vorgaben und Vorstellung des Systems, hat der Kunde den Auftrag kurzfristig vergeben. In Zukunft wird ein erweiterbares Topstore NAS System als zentrales Storage für die VM Umgebung der Abteilung inkl. vor Ort Service genutzt.

Das Konzept sieht in der ersten Ausbaustufe vor bis auf 72 TB skalieren zu können. Die Einbindung des Storage als iSCSI Volumen stellt geringe Anforderungen an die Topologie. Neben der Erweiterung des Volumens können weitere Optionen für die Optimierung der Bedürfnisse genutzt werden. So kann eine Steigerung der Leistung durch Ausbau auf mehrkanaliges 10Gb Ethernet Verbindungen, eine Aktivierung eines SSD Hybrid-Caches erfolgen oder das System zu einem Active Active Cluster erweitert werden.

Email Archivierung für Lotus Notes

Ausgangssituation

Ein bundesweit agierender Verband für Kapitalverwaltungsgesellschaften und Fonds sucht eine revisionssichere Email Archivierung für Lotus Notes. 

Zielsetzung

Es wurde ein System gesucht, das die seit Januar 2017 verschärften GoBD Richtlinien erfüllt. Dadurch ist besonders die Geschäftsleitung im Fokus der Betrachtung und der Kunde sah hier Handlungsbedarf geboten. Die Aufbewahrung soll dabei auf 6-10 Jahre ausgelegt werden und Lotus Notes typisch gibt es neben den Emails auch Sammelpostfächer, die zu berücksichtigen sind. Daneben muss das Mail Archiv mit zwei Domino Servern im Cluster Betrieb umgehen können.

Umsetzung

Nachdem man bereits zwei andere Produkte gesichtet hatte die Lotus Notes bedienen können, haben wir Reddoxx vorgestellt. Der ganzheitliche Ansatz, der nicht auf Lotus Notes alleine beschränkt ist, hat gefallen. Den Ausschlag für den Einsatz von Reddoxx hat aber die umfangreiche und extrem schnelle Suchfunktion von Reddoxx gegeben. Als Bonbon gab es dann noch die umfangreichen Vertreter Funktionen und die Möglichkeit, Projektkategorien anzulegen. 

Durch das von Reddoxx vertretene Konzept, die Daten so im Archiv zu lagern, dass diese bei Bedarf in Lotus Notes gelöscht werden können, ergaben sich für den Kunden zusätzliche Freiräume beim Handling von Mails und jederzeit die Möglichkeit, die Notes Postfächer zu entlasten. Die beiden anderen Anbieter setzten auf das sogenannte Stubbing, was letztendlich mehr Nachteile als Vorteile bietet. 

Der Tatsache, dass Reddoxx eine umfangreiche Schnittstelle zu Lotus Notes bietet, hat die Migration bereits vorhandener Emails sehr vereinfacht. Die unnötige Sorge des Kunden, dass sich das für die Sammelpostfächer schwierig gestalten könnte, hat sich als obsolet herausgestellt. Statt LDAP wurde dann im Zuge eines möglichen späteren Wechsels zu Exchange auf den AD Verzeichnisdienst gesetzt.

Ein paar Wochen später zeigte sich der Kunde sehr zufrieden mit seiner Entscheidung und würde sie genauso wieder treffen.

 

SAP Visualisierung mit VMware und Optimierung der Infrastruktur

Ausgangssituation

Ein deutsches Verlagshaus möchte einerseits die bereits vorhandene Infrastruktur für die Virtualisierung mit VMware optimieren und andererseits, die aktuell hardware-basierende, SAP Umgebung virtualisieren.

Zielsetzung

Durch Einsatz von leistungsstarken und sehr schnellen, aber dennoch kosteneffizienten, Storagesystemen, soll die Performance der VMware Umgebung optimiert werden. Dazu soll ein weiteres Storage System für die separat betrachtete SAP Umgebung zum Einsatz kommen, welches den Leistungs-, Latenz- und Performanceanforderungen von SAP gerecht wird.

Lösung:

Der lokale Storage Cluster auf Basis einer FAS3140 von NetApp wird abgelöst mit einem Nimble Hybrid Storage, welcher auf effizient, performant und günstig die VMware Umgebung des Verlagshauses auf eine neue Stufe hebt. Ein weiteres Nimble System wird für den SAP Bereich eingesetzt, da man bereits im Vorjahr ein Adaptive Flash Array von Nimble für das Segment der Desktop Virtualisierung beschafft hatte und mit diesem System parallel Tests für die SAP Migration durchgeführt hatte, die mehr als zufriedenstellend verlaufen waren.

Das einfache Management und der proaktive Support durch Nimble Infosight führen ergänzend zur Entlastung bei Administration und Monitoring. 

Neue Netzwerk-Infrastruktur mit Netgear

Ausgangssituation

Ein Full-Service-Dienstleister für digitale Kommunikation in Berlin plant eine Modernisierung seines Netzwerkes.  

Zielsetzung

Die Ablösung der alten Netzwerkinfrastruktur durch ein performanteres, ausfallsicheres und zukunftsorientiertes Netzwerk.

Lösung / Realisierung

Nach einer Teststellung kamen bei unserem Kunden 42 Switche der neuen M4300 Stackable Switch Serie von Netgear zum Einsatz. Bei einem guten Preisleistungsverhältnis bieten die Switche zahlreiche Features, wie zum Beispiel L2/L3/L4, IPv4/ IPv6 sowie eine Non-stop forwarding (NSF) virtuelle Chassis Architektur, welche neben zum Teil redundanten Netzteiloptionen eine verbesserte Hochverfügbarkeit bereitstellen.

Ferner sind die Switche durch Software-defined Network (SDN) und OpenFlow 1.3 ebenfalls bestens für zukünftige Aufgaben gerüstet. Während die Core-Switche jeweils 24 Ports 10GbE SFP+ und 24 Ports 10GBASE-T bereitstellen, waren zur Anbindung der Server- und Storagelösungen reine 24-Port 10GBASE-T Switche ausreichend, von denen sich durch die halbe Breite zwei Stück auf 1 HE in den 19“ Schränken unterbringen ließen.

Als Verteilerswitche kamen zum größten Teil 52-Port Switche mit 48 Ports 1GbE PoE+, 2 Ports 10GbE und 2 Ports 10GBASE-T zum Einsatz, so dass eine flexible Anbindung über 10GbE Kupfer oder Glas an die Core-Switche möglich war.

Optimale Datensicherung einer virtuellen Umgebung.

Ausgangssituation

Ein mittelständischer Hersteller von Produkten für die Reinigung, Wartung und Pflege für die Fahrzeugindustrie, plant das Backup seiner virtuellen und physikalischen Serverlandschaft zu optimieren. 

Zielsetzung

Die Einführung einer neuen Backuplösung, welche zentral alle Anforderungen abdeckt und zusätzlich einen weiteren physikalischen Server an einem anderen Standort mitsichern kann.  

Lösung / Realisierung

Als Backup Server kam ein Supermicro Server mit 8x 4TB SATA Festplatten und einem Topmedia NBD vor Ort Service zum Einsatz, welcher unserem Kunden auch im Hinblick auf zukünftige Anpassungen Flexibilität zu einem schmalen Preis bietet. Das Backup der virtuellen Umgebung erfolgt nun mit Arcserve UDP direkt auf den Backup Server, wobei sich das blockbasierte Backup sowie die quellenseitige Deduplizierung schonend auf die Inanspruchnahme der verfügbaren Hardware- und Netzwerk-Ressourcen auswirkt. Das Backup der beiden physikalischen Server erfolgt mit Arcserve Backup ebenfalls auf den Backup Server, ehe alle Backupdaten im Anschluss über einen actidata LTO7 SAS Loader zunächst auf LTO6 Tapes gesichert werden, bis steigende Kapazitätsanforderungen auf Sicht den Einsatz von LTO7 Tapes zu dann günstigeren Preisen erfordern.      

Desaster Fall Absicherung im Bankenumfeld.

Ausgangssituation

Ein Finanzierungs- und Leasingspezialist für mobile Wirtschaftsgüter
überdenkt seine bisherige Desaster Recovery Strategie. Man ist schon
länger unzufrieden mit Handling und Möglichkeiten der bisherigen Lösungzur Absicherung von kritischen Datenbank Applikationen unter VMWare.

Das Handling gestaltet sich zäh und im Falle eines Schwenks auf die
replizierte Maschine sind eine Reihe Einstellungen vorzunehmen um auf diereplizierte Maschine zu schwenken. Netzwerk Einstellungen müssen neugesetzt werden und bei den regelmäßig anstehenden K-Fall Tests sind aufwändige Prozederes notwenig, um nach erfolgtem Test einen Wiederanlauf des Desaster Recovery zu initiieren.

Unter anderem ist eine komplett neu beginnende Replikation der primären Instanz notwendig, um kritische Systeme wieder abzusichern. Das hat in der Vergangenheit zu mehrtägigen Lücken geführt, bis ein vollständiger Schutz wieder gewährleistet werden konnte.

Zielsetzung

Zielsetzung ist jetzt eine stark reduzierte Ausfallzeit nach regelmäßig an
anderem Standort erfolgenden K-Fall Tests. Dieser findet Strukturbedingt
an einem gesonderten Standort statt. Nach erfolgtem Test wünscht man sich eine sofortige Anlaufzeit ohne Ausfallzeit, wie das bisher der Fall war.

Zudem wünscht man sich ein deutlich einfacheres Handling beim Zufügen von VMs und bei der Administration.

Umsetzung

Zerto war seit längerem bekannt und jetzt ging es darum, sich in einem
real anstehenden K-Fall Test gegen den bestehenden Anbieter zu behaupten. Dabei galt es, auch den deutlich höheren Kaufpreis gegenüber der einfachen Wartungsverlängerung des bisherigen Produktes zu verargumentieren.

Durch den Umstand, dass Zerto sich in den Hypervisor einklinkt, ansonsten aber keinen Agenten auf den abzusichernden Clients benötigt, lies sich Zerto problemlos und mit geringem Aufwand in vorhandener Life Umgebung einbinden. Dabei hat sich gezeigt, dass Zerto bereits bei der Erst-Replikation kritischer Server um den Faktor 3-4 schneller war das der bisherige Anbieter.

Den Test selber hat Zerto hervorragend gemeistert auch die nachstehenden Wiederanlaufzeiten konnten da weiter machen, wo man zuletzt vorab physikalischer Trennung der Systeme aufgehört hat. Der bisherige Anbieter musste für den Wiederanlauf den gesamten Inhalt des Primärsystems neu replizieren. Damit konnten unnötige Wiederanlaufzeiten auf ein Minimum reduziert werden.

Zusätzlich hat auch noch die extrem einfache Einbindung von virtuellen
Maschinen beeindruckt und ein seit Version 4.5 verfügbares Feature in Form von Einzelfile- und Einzelfolder Recovery, bei dem man sehr pragmatisch auf jeden beliebigen Stand einer Datei / eines Ordners innerhalb eines Monats zurückgreifen kann, hat den für Backup und Desaster Recovery zuständigen Administrator nochmal zusätzlich beeindruckt.

Das sei wesentlich pragmatischer und näher an der Realität als bei den meisten gängigen Backup Lösungen, bei denen man selten den wirklich relevanten Stand wieder herstellen kann. Zwischenzeitlich sind alle wichtigen Systeme über Zerto repliziert.

Einzigbei MS Exchange zögert man noch. Was eher mit der teils schwierigen Lizenzpolitik seitens Microsoft zu tun hat. Inhaltlich kann Zerto eine revisionssichere Replikation umsetzen und man dürfte sich nach Aussage des IT Leiters in Kürze auch an diese letzte Baustelle heran wagen. Langfristig denkt man jetzt auch über eine Auflösung des Storage Clusters nach, weil Zerto dessen Aufgaben eigentlich bereits mit übernommen hat.

Backup Länder- und Standort übergreifend.

Ausgangssituation

Der Kunde möchte ein länder- und standortübergreifendes Backup, welches zentrale Administration ermöglicht und neben lokalen Datensicherungen auch noch ein Replikat in ein zentrales DR Rechenzentrum sichert.

Zielsetzung

Sowohl Backup als auch Verfügbarkeit sollen verbessert werden. Fällt an einem der Unternehmensstandorte die IT aus, soll die Möglichkeit bestehen, im zentralen Backup Rechenzentrum weiterzuarbeiten.

Umsetzung

Als Backup Software wurde Catalogic DPX ausgewählt, da hier durch den blocklevel-incremental forever Ansatz mehrfach täglich ohne größere Last lokale Backups erstellt werden können, ohne signifikante Last im Netz zu erzeugen. Des Weiteren ist es dank patentierter Features möglich, innerhalb weniger Minuten ganze Systeme wieder produktiv zur Verfügung zu stellen.

Handelsübliche HP Server mit entsprechendem Speichervolumen dienen als Backupserver und –device. Via DFS werden nach Erstellung der lokalen Backups die geänderten Backupdaten dann an das zentrale Backup Rechenzentrum weiter gesichert und somit die Anforderungen in Gänze erfüllt.

Neue Netzwerk Infrastruktur und Security Anforderungen

Ausgangssituation

Ein mittelständischer Dienstleister im IT-Bereich, plant im Zuge des Umzuges der Firmenzentrale seine alte Netzwerkinfrastruktur abzulösen. 

Zielsetzung

Die Einführung einer neuen Netzwerkinfrastruktur, welche bei leichter Administrierbarkeit mehr Sicherheit, Transparenz und Flexibilität bietet

Umsetzung

Nachdem wir im Vorwege bereits das RZ des Kunden am alten Standort mit einem Ocedo Gateway ausgestattet hatten, erfolgte die Anbindung des neuen Standortes an das RZ ebenfalls über ein Ocedo Gateway.

Als neue Netzwerkinfrastruktur kamen ein Core Switch von HP mit redundanten Netzteilen sowie einige Ocedo Switche mit 24 GbE PoE+ Ports und 4 10GbE Ports zum Einsatz.

Die Lösung wurde durch Ocedo Access Points abgerundet. Neben einem geräuschlosen Betrieb, der speziell auf Büroumgebungen abgestimmt wurde, bieten die Ocedo Switche unserem Kunden zukünftig noch zahlreiche weitere Vorteile, wie Zero Touch Provisioning , Port Visibility und Dynamic Zoning.

Konsolidierung der Storagelandschaft mit NetApp

Ausgangssituation

Ein mittelständischer Hersteller von Produkten für die Reinigung, Wartung und Pflege für die Fahrzeugindustrie, plant seine bisher aus mehreren einzelnen Synology Systemen bestehende Storagelandschaft auf einem System zu konsolidieren.

Zielsetzung

Die Einführung einer neuen Storagelösung, welche bereits als einzelnes System über redundante Controller verfügt und sich zu einem späteren Zeitpunkt durch Erweiterungsoptionen an die stetig steigenden Anforderungen anpassen lässt.

Umsetzung

Durch den Einsatz einer E2724 mit 24x 1,8TB SAS Spindeln von NetApp, konnten wir die Vorstellungen unseres Kunden voll erfüllen. Die Lösung bietet ihm ein sehr gutes Preis-Leistungs-Verhältnis und lässt sich nebenbei auch noch leicht administrieren. Im ersten Step wurden die bestehenden Hyper-V Hosts direkt über 10 GbE iSCSI an das System angeschlossen. Einer Anpassung der Lösung, durch den Ausbau mit weiteren Shelves mit SSDs oder Festplatten, steht nichts im Wege. Optional lässt sich die Realisierung eines asynchronen Spiegels auf ein zweites System zu einem späteren Zeitpunkt ebenfalls leicht und zu überschaubaren Kosten realisieren.     

eMail Archivierung für david von Tobit.Software

Ausgangssituation

Ein von uns langjährig betreutes Industrie-Planungsbüro für Automobil-Hersteller und deren Zulieferer setzt die eMail-Software David von Tobit.Software ein. Die darin verfügbaren Suchfunktionen sind nicht in dem Umfang gegeben, wie es die tägliche Anwendung des Kunden erfordert.

Zielsetzung

Es wurde ein System gesucht, das den Mitarbeitern die Durchsuchbarkeit von eMails inklusive Anhängen ermöglicht. Die Übernahme der Bestandsdaten aus David sowie eine spätere eventuelle Migration zu Outlook sollten gegeben sein..

Umsetzung

Schnell hat sich heraus kristallisiert, dass Reddoxx mit seinen weitreichenden Vertreter Funktionen und der Möglichkeit, projektbezogene Kategorien zu definieren, auf die alle Mitarbeiter eines Projekts zugreifen können, David sehr gut ergänzen kann. 

Zudem ergibt sich ein zusätzliches Maß an Sicherheit, da alle eMails nun nicht nur in David, sondern auch im Archiv verfügbar gehalten werden - in David könnten sie somit gelöscht werden. 

Die Google ähnlichen, extrem schnellen und sehr umfangreichen Suchfunktionen von Reddoxx ergänzen David hervorragend. Der Aspekt der revisionssicheren eMail Archivierung ist für den Kunden nicht von primärem Nutzen, wenn auch ein angenehmer Nebeneffekt, welcher später noch von Bedeutung sein kann.

 Der besondere Vorteil, dass Reddoxx eine Schnittstelle zu David über einen Drittanbieter aufweist, hat die Migration bereits vorhandener eMails, inklusive öffentlicher Ordner und Offline Konten extrem vereinfacht.  

 Neben Reddoxx wurde für das Archiv unser bewährtes TopStore NAS als Datenspeicher definiert. In Summe zeigt sich unser Kunde sehr zufrieden mit der getroffenen Entscheidung.

Desaster Fall Absicherung und Backup kritischer Applikationen

Ausgangssituation

Ein in den USA und Europa stationierter Anbieter für Kräuter- und Gewürztees sucht eine Lösung zur Gewährleistung hoher Verfügbarkeiten des an verschiedenen Standorten im Einsatz befindlichen ERP Systems.

Zielsetzung

Es gibt es in USA, Italien und Deutschland derzeit vier Standorte, bei denen man eine hohe Verfügbarkeit der neu unter VMware aufgesetzten MS SQL ERP Systeme gewährleistet wissen will. In den USA hat man in Summe 20 VMs und an den Standorten Italien und Deutschland jeweils 5 VMs. Die Bandbreite zu den einzelnen Lokationen liegt bei aktuell 10 Mbit per MPLS. Ein weltweit verfügbarer Support wäre Bedingung.

Umsetzung

Im gemeinsamen Ausarbeiten eines Konzepts hat sich gezeigt, dass Zerto eine hervorragende Lösung sein kann für die gestellten Anforderungen. 

Zerto erlaubt die Replikation von Applikationen und Daten, die unter VMWare oder Hyper V aufgesetzt sind. Dabei werden auf Wunsch Kompressions- und Bandbreitenbegrenzung aktiviert. Durch die verwendete Technik werden nach einem initialen Verbringen der virtuellen Maschine an den Zielstandort nur noch die Deltas kontinuierlich übertragen. Zerto erlaubt dabei, für die Wiederherstellung sowohl auf den IST Zustand, als auch auf beliebige Stände innerhalb eines Monats zurück zu greifen. Dabei können sowohl einzelne Dateien als auch komplette und komplexe Datenbanken wieder hergestellt werden.

Nach einem ausführlichen Proof of Concept zeigt sich der Kunde begeistert und hat sich im Nachgang für den Einsatz entschieden. Nach eigenen Angaben, ein paar Wochen später resümiert der Kunde ein sehr einfaches Handling beim Zufügen von neuen virtuellen Maschinen und jegliche im Vorfeld gemachten Angaben zu Zerto wurden eingehalten. Selbst die zur Verfügung stehenden Bandbreiten werden optimal genutzt.

Server Virtualsierung mit Shared Storage und der Vorbereitung für Desktop Virtualisierung

Ausgangssituation

Für das von uns seit mehr als 16 Jahren betreute Vermessungsbüro in Norden Deutschlands stand im Sommer 2016 die turnusgemäße Überarbeitung der bestehenden Servertopologie und des Backup Konzeptes an.

Zielsetzung

Zwei primäre Ziele sind in dem neuen Konzept umzusetzen gewesen:

Die volle Virtualsierung der bisher konventionell aufgebauten Server. Die Umstellung soll einhergehend mit dem Ausbau des Backups. In Zukunft ist die granulare Rücksicherung der SQL Datenbanken Derivate und ein Desaster Recovery der Server im Fehlerfall gewünscht.

Weiter wird eine einfache Erweiterung der Struktur berücksichtigt. Diese soll eine spätere Migration des Microsoft Terminal Service der Office Arbeitsplätze, auf VMware Horizon erlauben. Endziel ist, eine vollwertige Desktop Virtualisierung, der Office und derzeit physikalischen CAD Arbeitssplätze zu ermöglichen.

Umsetzung

Nach der Analyse und Vorstellung des Konzeptes, erfolgte die Umsetzung der ersten Ausbaustufe mit Servern von HP und einem zentralen Topstore NAS System als zentrales Storage, ein SSD Cache für Datenbanken und Groupware verkürzt die Latenz der Anwendungen deutlich. Das Backup der virtuellen Maschinen wird mit Arcserve UDP als reines Disk Backup ausgeführt.  Der ergänzende Ausbau des Netzwerkes mit 10Gb Switchen von Netgear wirkt sich auch Positiv auf die Performance der genutzten Dienste und Anwendungen der Clientsysteme, als auch für das Backup und Restore aus.

Die sinnvolle und notwendige Replikation des Backups erfolgt über eine WAN Stecke, das VPN wird durch eine Kombination aus Sophos UTM / Sophos Red geschützt.

Die stufenweise Umsetzung hat nach Aussage des techn. Verantwortlichen beim Kunden für min. Ausfälle verursacht, wo diese unabdingbar gewesen sind konnte die Beeinträchtigung minimiert und passend zum Tagesablauf des Auftraggebers geplant werden.

Backup Optimierung eines Softwareentwicklers

Ausgangssituation

Der Kunde setzt seit Jahren die Backup Software Netvaut ein. Im Bezug auf die gestiegenen Datenmengen reicht das Backupfenster nicht mehr aus, dazu kommt unkomfortables Handling in Kombination mit schlechten Supportleistungen bei gleichzeitig steigenden Wartungskosten des Herstellers.

Zielsetzung

Sowohl Backup als auch Verfügbarkeit sollen verbessert werden. Zeitgleich war es gewünscht, die nachfolgenden Kosten im Bezug auf jährliche Wartungspreise zu senken.

Umsetzung

Da mit Netvault die Anforderungen des Kunden nicht mehr umzusetzen waren, konnten wir mit UDP von Arcserve eine Backup Software zum Einsatz bringen, die durch blockbasiertes Backup die Zeiten für die einzelnen Datensicherungsläufe signifikant verkürzt. Ergänzend dazu setzt der Kunde nun ein leistungsstarkes Topstore NAS als primäres Sicherungsziel, welches gleichzeitig als Notfallstorage dienen kann, sollte die primäre EMC des Kunden nicht verfügbar sein. Alle technischen Wünsche des Kunden sind somit erfüllt. Da Arcserve UDP, neben hoher Funktionalität, auch mit sehr kundenfreundlichen Beschaffungs- und Wartungspreisen glänzt und auch die Topstore Servicepauschale klar auf Kunden aus dem Mittelstand ausgerichtet ist, konnte auch der Wunsch nach einer Senkung der jährlichen Kosten klar erfüllt werden.

Shared Storage mit Anpassung der Infrastruktur bei einem führenden Hersteller für Dentalinstrumente

Ausgangssituation

Der Kunde hatte den Bedarf, seine Shared Storage Umgebung auf Basis einer EMC NX4 durch ein modernes Unified Storage System zu ersetzen, da die NX 4 nicht mehr den Leistungsanforderungen der virtualisierten und physikalischen Umgebung entsprechen konnte.

Zielsetzung

Es sollte ein skalierbares und flexibles Storagesystem eingeführt werden, welches sowohl über IP als auch via Fibrechannel angesprochen und genutzt werden kann. Begleitend soll die derzeitige, 4Gbit basierende, Fibrechannel Infrastruktur modernisiert werden.

Umsetzung

Nach entsprechender Betrachtung des Marktes, entschied man sich für die von Topmedia empfohlene NetApp FAS2552 als neuen Shared Storage. Diese bietet als echtes Unified Storage System sowohl IP als auch Fibrechannel Support und überzeugte durch Skalierbarkeit und leichte Administration.  Um heutigen und zukünftigen Performanceanforderungen zu begegnen, ist die FAS2552 neben SAS und SATA Festplatten auch mit einem hochperformanten SSD Cache versehen worden, so daß hier keinerlei Engpässe zu befürchten sind. Die FC-Infrastruktur ist mit neuen Brocade 320 Switchen auf 8Gbit FC verbessert worden und biete so den doppelten Durchsatz gegenüber der alten FC Umgebung. Bewußt wurde nich die aktuellste 16Gbit Technologie gewählt, da diese für die Anforderungen des Kunden ein sichtlich schlechteres Preis-/ Leistungsverhältnis bietet.

Hochperformanter Hybrid Storage für Verlagshaus

Ausgangssituation

Die erhöhten Anforderungen an das in die Jahre gekommenezentrale Storagesystem des Kunden, vor Allem durch virtualisierte Server und Desktops, führten zu einer Neubetrachtung der zukünftigen Speicherinfrastruktur im Bezug auf Performance und Skalierbarkeit, gerade mit VMware.

Zielsetzung

Es sollte ein Storagesystem zum Einsatz kommen, was einerseits die Anforderungen an hohe IO bei geringsten Latenzen und andererseits eine hohe Speicherdichte zu einem kaufmännisch günstigen Preis für die Hauptmenge der Daten erfüllt.

Umsetzung

Nach Prüfung, ob die bestehende NetApp Speicherumgebung, die aus mehreren Systemen verschiedener Alterstufen bestand, einfach erneuert und ausgebaut wird oder aber ob es geeignetere Produkte in dem sich derzeit sehr stark wandelnden Storagemarkt gibt, setzt man nun auf zwei Nimble CS300 Systeme, die dank Ihrer hybriden Architektur aus schnellem Flash und hochkapazitären SATA Platten, genau die aktuellen und zukünftigen Anforderungen des Kunden, gerade im Bereich Virtualisierung, treffen. Die Entscheidung hierfür war dem Kunden nach einem kurzen, aber intensiven, Test leichtgefallen. Jegliche Performanceprobleme sind beseitigt.
Das jüngste verbleibene Mitglied der abgelösten Netapp Systeme wurde kapazitär erweitert und wird im Bereich daten-, aber nicht performanceintensiven, Anwendungen weiter erfolgreich betrieben.